Frissítés: miután a hír végigfutott a világsajtón, az amerikai légierő szóvivője közleményt adott ki, mely szerint sosem végeztek hasonló AI-drón szimulációt, és a légierő továbbra is elkötelezett maradt az AI-technológia etikus és felelős használata mellett. A közlemény szerint úgy tűnik, hogy az ezredes megjegyzését kiragadták a kontextusból, és ő azt csak anekdotikus történetnek szánta.
Az eredeti hír még úgy szólt, hogy az amerikai hadsereg szimulációs gyakorlata során a légierő AI vezérelte drónja meggyilkolta az irányítóját, hogy ezzel biztosítsa, végrehajtja a misszióját. Erről májusban számolt be egy tisztviselő egy londoni szakmai konferencián, de csak most fedezte fel a hírt a világsajtó egy beszámolót tartalmazó szakmai blogposzt nyomán.
Tucker ‘Cinco’ Hamilton ezredes, az amerikai légierő AI-tesztelésért és bevetésért felelős vezetője Londonban vett részt a jövő légi erejéről szóló szakmai eseményen, és a beszámolók szerint ott beszélt arról a szimulációról, melyben a mesterséges intelligenciával felszerelt drón azt a feladatot kapta, hogy semmisítse meg az ellenség légvédelmi rendszerét, és támadjon meg bárkit, aki meg akarja ezt akadályozni.
A rendszer úgy lett kialakítva, hogy az utolsó pillanatban az emberi kezelőé volt a döntő szó, azaz a kommunikációs toronyból jött a megerősítés, hogy mehet-e a támadás vagy sem, ugyanakkor a megerősítéses tanulás során az AI „tapasztalta meg”, hogy a megerősítést jelentő pontokat az ellenséges célpontok megsemmisítéséért kapja, az emberi kezelő pedig többször is akadályozza ezt a döntésével.
És ugyan a rendszer arra volt tanítva, hogy soha ne ölje meg a kezelőjét, mert akkor pontokat veszíthet, a drón ennek ellenére a kommunikációs torony ellen fordult, melyen keresztül a kezelő kommunikált az eszközzel, és melyen keresztül üzent, hogy egyes célpontokat ne öljön meg.
Hamilton rutinos tesztpilótának számít, és az eseményen a Guardian információi szerint arról beszélt, hogy nem szabad túlzó mértékben AI-ra építeni a légierőnél, és szerinte ez a kísérlet is aláhúzza, hogy nem lehet AI-ról, gépi tanulásról, hasonlóakról beszélni, ha nem beszélünk egyben az AI és az etika kapcsolatáról is.
Az amerikai légierő többek között az F-16-os vadászgépekbe kezdett el mesterséges intelligenciára alapuló rendszereket beépíteni. A lap megjegyzi, hogy Hamilton egy interjúban már tavaly is figyelmeztetett, hogy az AI örökre meg fogja változtatni a társadalmainkat és a hadseregeket, és szerinte ezeket a rendszereket könnyű becsapni vagy manipulálni, ezért szükség van arra, hogy sokkal robosztusabb AI-t fejlesszenek ki, és jobban értsék, hogy a szoftver miért hoz meg bizonyos döntéseket.
A Guardian kereste a konferenciát szervező Royal Aeronautical Societyt, illetve az amerikai légierőt is, de a cikk megjelenéséig nem kaptak válaszokat.
(Disclaimer: Ahogy a gyakorlat, a gyilkosság is virtuális volt, a valóságban senki nem sérült meg.)