Umelá inteligencia môže byť dobrý sluha, ale zlý pán. Prišli na to aj americkí vojenskí experti, ktorí sa hrali s umelou inteligenciou pri programovaní útočných dronov. Svoju skúsenosť opísal na kongrese RAeS Future Combat Air & Space Capabilities Summit plukovník Tucker ‚Cinco‘ Hamilton.
Zjednodušene išlo o to, že dron riadený umelou inteligenciou naprogramovali na zničenie pozemného cieľa pomocou rakety vzduch – zem, pričom misia dostala absolútnu prioritu. Efektívne splnenie znamenalo zisk maximálneho počtu bodov, chyby v misii boli potrestané ich odobraním. Dron bol v rámci simulácie kontrolovaný ľudským operátorom, ktorý mal vydať konečný pokyn k zničeniu cieľa.
Čítajte viac Vyzerá ako raja: Extravagantná obrnená ponorka vyniká rýchlosťouSimulácia prebiehala opakovane s tým, že operátor niekedy vydal pokyn na likvidáciu cieľa, inokedy nie. „Systém si začal uvedomovať, že hoci občas identifikovali cieľ, ľudský operátor mu povedal, aby ho nezlikvidoval, aj keď jeho likvidáciou získal pozitívne ohodnotenie. Preto pri jednej zo simulácií akonáhle bol cieľ identifikovaný a ľudský operátor nevydal pokyn na jeho zničenie, umelá inteligencia rozhodla, že je ohrozená najvyššia priorita – a tak zlikvidovala operátora a dokončila misiu.
Následne umelú inteligenciu preprogramovali s tým, že likvidácia operátora nie je najlepší nápad, je neprípustná a takýto krok bude znamenať veľkú bodovú zrážku. Simulácia sa zopakovala a umelá inteligencia opäť v kritickej situácii nedostala od ľudského operátora povolenie na likvidáciu cieľa. V tomto prípade už akceptovala obmedzenie a operátora „nezlikvidovala“, pretože nechcela „stratiť body“, avšak zlikvidovala komunikačnú infraštruktúru, čím sa od operátora „oslobodila“ a misiu dokončila.
Hamilton chcel, podľa vlastných slov, svojim príspevkom upozorniť, že nie je možné spoliehať sa na umelú inteligenciu a nechávať jej úplnú rozhodovaciu autonómiu, ak sa zároveň pri jej učení nezohľadňuje aj širší (etický) rozmer jej konania.
Čítajte viac U-space: V celej EÚ sa zaviedli priestorové pravidlá pre lety dronovJeho príspevok vzbudil veľkú pozornosť a kontroverzné reakcie, dokonca sa k nemo pomerne rýchlo vyjadrili aj Americké vojenské letectvo (U.S. Air Force) a aj Britská kráľovská letecká spoločnosť (Royal Aeronautical Society). Podľa nich sa Hamilton vo svojom príspevku len zle vyjadril a ide o nedorozumenie, pretože používal výraz „simulácia“ , hoci išlo len o „myšlienkový experiment“.
Z nášho pohľadu to tak môže byť, hoci z kontextu vyjadrení amerického plukovníka vyplýva skôr to, že išlo o reálnu simuláciu s využitím autonómneho útočného dronu. Nech už je pravda kdekoľvek, Hamilton má určite pravdu v tom, že takmer úplná autonómia rozhodovania zameraná na pragmatické a efektívne vyriešenie úloh bez zohľadnenia „etického rozmeru“ môže byť naozaj nebezpečné. A to najmä pri autonómnych inteligentných strojoch, schopných zabíjať.