Како се сваке године подсећа на Дан сећања, рат не престаје.
Али то се ипак мења. А један од најдубљих промена које ћемо видети у наредним годинама је војска која све више зависи од робота. Дронови данас привлаче највише пажње, али све више и више иновација Министарства одбране представљају друге врсте беспилотних машина, од експерименталних летелица до војника на терену.
Лако је разумети привлачност. Употреба робота потенцијално је ефикаснија, прецизнија и јефтинија од ослањања искључиво на људе у ратним дејствима. А то би, наравно, значило и мање људских жртава.
Али ова трансформација са собом доноси и сложен изазов: Да ли се војне машине могу програмирати за доношење одлука? Што доводи до љепшег питања: Могу ли роботи научити морал?
Америчка канцеларија за истраживање поморства сматра да је сада време да то откријемо. Раније овог месеца, она је најавила петогодишњу неповратну помоћ у износу од 7, 5 милиона долара за финансирање истраживања на универзитетима Туфтс, Бровн, Иале и Георгетовн и на Политехничком институту Ренсселаер (РПИ) о томе да ли машине могу једног дана да одаберу исправно.
Морнарица жели избјећи ситуацију с којом се Гооглеов аутомобил без возача суочава: имати технологију која је објављена далеко испред било какве јасноће о правним и етичким питањима која поставља. Пре него што аутономни роботи изађу на терен, војска жели да зна да ли заиста могу научити да раде исправне ствари.
Као што Селмер Брингсјорд, шеф Одјељења за когнитивне науке РПИ, то види, умјетна интелигенција робота могла би бити дизајнирана да функционише на два нивоа морала. Први би се темељио на контролном списку јасних етичких избора, попут „ако наиђете на рањеног војника, требало би да му помогнете“. Али шта ако се ова акција сукоби са његовом основном мисијом, попут испоруке муниције критички потребну остали војници? У том тренутку, каже Брингсјорд, робот би требао имати способност да се укључи у "дубље морално резоновање" за доношење одлука у ситуацијама које његови програмери можда нису могли предвидјети.
Истраживачи ће требати да развију јединствене алгоритме и рачунске механизме који би се могли интегрисати у постојећу архитектуру аутономних робота, „процес размишљања“ који би омогућио машини да надјача планирано понашање на основу његове способности примене моралног резоновања.
Ако се ово чини необично амбициозно, добро, јесте. За почетак, истраживачи ће морати да изолују основне елементе људског морала - на чијим смо принципима сви сагласни? - И затим да смисле како да их интегришу у алгоритме који ће роботима дати одређени ниво моралне способности.
То није мали подухват. Из тог разлога, вероватно је да ће машине које људи не контролишу у догледној будућности бити ограничене на не-борбене улоге, као што су надзор, безбедност, трагање и спашавање или медицинска нега. Али неизбежно ће војни планери желети одговор на питање које виси над свим тим: Треба ли роботима, делујући самостално, икада дозволити да убију човека?
Ако је машина 90 одсто сигурна да је свако у возилу у које намерава да пуца, да ли је то довољно сигурно? Да ли би робот могао да испали оружје на дете ако утврди да је то непријатељ? Ако нешто пође по злу и аутономни робот погрешно разнесе село, ко је одговоран? Командант који је наредио операцију? Особа која је програмирала робота? Или никога?
Ако мислите да је то још увек научна фантастика, имајте на уму да су почетком овог месеца стручњаци на тему од вештачке интелигенције до људских права до међународног права на конференцији Уједињених нација у Женеви одлучили да баве „роботе убице“. Групе попут Хуман Ригхтс Ватцха и званичника из неколицине земаља, укључујући Пакистан, Египат, Кубу и Ватикан, позвале су на строгу забрану робота са овлашћењима да убијају. Али већина земаља, посебно оне са најнапреднијим роботима, нису спремне отићи тако далеко.
Погледајте, на пример, ВилдЦат, четвороножни робот који се развија да ради великом брзином по свим врстама терена.
За сада америчка војска следи директиву Министарства одбране из 2012. године да ниједна машина способна за убијање не може бити потпуно аутономна. Човек мора, буквално, да зове пуцње. Али то можда није тачно за сва места: У марту је Нев Сциентист цитирао руског званичника рекавши да ће стражари робота на пет постројења балистичке ракете моћи да открију и униште циљеве без да човек буде дао напредак.
Фостер-Миллер Талон, приказан доле, једна је од многих машина широм света које су развијене за борбу.
Правила рата
Извештај о конференцији робота-убица биће представљен Одбору УН-а за одређено оружје у новембру. Али чини се да ускоро неће доћи до забране.
Међу онима који су се придружили дискусији у Женеви био је и Роналд Аркин, стручњак за вештачку интелигенцију из Георгиа Тецх-а, који је дуго био заговорник давања машина способности за доношење моралних одлука. Он верује да, ако роботи могу да науче да следе међународно право, они би се у ратовима заправо могли понашати етичније од људи јер би били беспрекорно доследни. Не би могли да одговоре љутњом или паником или предрасудама. Дакле, Аркин се противи забрани, мада је отворен за мораторијум на аутономно оружје све док машине не добију прилику да виде да ли могу да савладају ратна правила.
Други научник из АИ, Ноел Схаркеи, који је расправљао о Аркину у Женеви, потпуно је другачијег мишљења. Он не мисли да роботима икада треба дати овлашћење да доносе животне или смртне одлуке.
Недавно је рекао за одбрану један : „Мислим да никада неће завршити моралним или етичким роботом. За то морамо имати моралну агенцију. За то морамо разумети друге и знати шта значи патити. "
"Можда је инсталиран робот са неким правилима етике, али то му заправо неће бити важно", каже он.