Umelá inteligencia je postrach. Inteligentný dron ‘zlikvidoval‘ operátora. Vraj ohrozil misiu

Na kurióznom prípade americký vojak upozornil na nebezpečenstvo, ktoré pri strojoch s úplnou autonómiou rozhodovania hrozí, ak sa pri učení umelej inteligencie nezohľadní aj etický rozmer jej konania.

08.06.2023 18:00
dron Foto:
Inteligentný vojenský dron s takmer úplnou autonómiou rozhodovania v simulácii zlikvidoval svojho operátora, ktorý mu bránil splniť misiu.
debata (3)

Umelá inteligencia môže byť dobrý sluha, ale zlý pán. Prišli na to aj americkí vojenskí experti, ktorí sa hrali s umelou inteligenciou pri programovaní útočných dronov. Svoju skúsenosť opísal na kongrese RAeS Future Combat Air & Space Capabilities Summit plukovník Tucker ‚Cinco‘ Hamilton.

Video
Expert: Drony spôsobia revolúciu, už čoskoro nám môžu zachraňovať životy

Zjednodušene išlo o to, že dron riadený umelou inteligenciou naprogramovali na zničenie pozemného cieľa pomocou rakety vzduch – zem, pričom misia dostala absolútnu prioritu. Efektívne splnenie znamenalo zisk maximálneho počtu bodov, chyby v misii boli potrestané ich odobraním. Dron bol v rámci simulácie kontrolovaný ľudským operátorom, ktorý mal vydať konečný pokyn k zničeniu cieľa.

Ponorka Kronos od Highland Systems Čítajte viac Vyzerá ako raja: Extravagantná obrnená ponorka vyniká rýchlosťou

Simulácia prebiehala opakovane s tým, že operátor niekedy vydal pokyn na likvidáciu cieľa, inokedy nie. „Systém si začal uvedomovať, že hoci občas identifikovali cieľ, ľudský operátor mu povedal, aby ho nezlikvidoval, aj keď jeho likvidáciou získal pozitívne ohodnotenie. Preto pri jednej zo simulácií akonáhle bol cieľ identifikovaný a ľudský operátor nevydal pokyn na jeho zničenie, umelá inteligencia rozhodla, že je ohrozená najvyššia priorita – a tak zlikvidovala operátora a dokončila misiu.

Následne umelú inteligenciu preprogramovali s tým, že likvidácia operátora nie je najlepší nápad, je neprípustná a takýto krok bude znamenať veľkú bodovú zrážku. Simulácia sa zopakovala a umelá inteligencia opäť v kritickej situácii nedostala od ľudského operátora povolenie na likvidáciu cieľa. V tomto prípade už akceptovala obmedzenie a operátora „nezlikvidovala“, pretože nechcela „stratiť body“, avšak zlikvidovala komunikačnú infraštruktúru, čím sa od operátora „oslobodila“ a misiu dokončila.

Hamilton chcel, podľa vlastných slov, svojim príspevkom upozorniť, že nie je možné spoliehať sa na umelú inteligenciu a nechávať jej úplnú rozhodovaciu autonómiu, ak sa zároveň pri jej učení nezohľadňuje aj širší (etický) rozmer jej konania.

Dark drone in flight over the city. Čítajte viac U-space: V celej EÚ sa zaviedli priestorové pravidlá pre lety dronov

Jeho príspevok vzbudil veľkú pozornosť a kontroverzné reakcie, dokonca sa k nemo pomerne rýchlo vyjadrili aj Americké vojenské letectvo (U.S. Air Force) a aj Britská kráľovská letecká spoločnosť (Royal Aeronautical Society). Podľa nich sa Hamilton vo svojom príspevku len zle vyjadril a ide o nedorozumenie, pretože používal výraz „simulácia“ , hoci išlo len o „myšlienkový experiment“.

Z nášho pohľadu to tak môže byť, hoci z kontextu vyjadrení amerického plukovníka vyplýva skôr to, že išlo o reálnu simuláciu s využitím autonómneho útočného dronu. Nech už je pravda kdekoľvek, Hamilton má určite pravdu v tom, že takmer úplná autonómia rozhodovania zameraná na pragmatické a efektívne vyriešenie úloh bez zohľadnenia „etického rozmeru“ môže byť naozaj nebezpečné. A to najmä pri autonómnych inteligentných strojoch, schopných zabíjať.

© Autorské práva vyhradené

3 debata chyba
Viac na túto tému: #umelá inteligencia #autonómny dron #vojenský dron
Články podľa značiek