Az OpenAI csütörtökön kiadta első jelentését arról, hogyan használják a mesterséges intelligencia eszközeit rejtett befolyásolási műveletekre. Ebből kiderül, hogy a vállalat oroszországi, kínai, izraeli és iráni eredetű dezinformációs kampányokat leplezett le.
Azt írják, rosszhiszemű szereplők a vállalat generatív mesterséges intelligencia modelljeit használták propaganda -tartalmak létrehozására, különböző nyelvekre történő fordítására és posztolására a közösségi média platformokon. A jelentés szerint egyik kampány sem ért el széles közönséget vagy nagyobb hatást.
Az OpenAI 39 oldalas jelentése eddig a legrészletesebb beszámoló arról, hogyan használják a mesterséges intelligenciát propagandára. Ebben az áll, hogy az elmúlt három hónapban öt rejtett befolyásolási művelethez kapcsolódó fiókokat találtak és tiltottak le, amelyek mögött állami és magánszereplőket azonosítottak.
Oroszországból két ilyen esetet tártak fel, amikor olyan tartalmakat hoztak létre, amelyek az Egyesült Államokat, Ukrajnát és több balti nemzetet kritizálták. Az egyik művelet egy OpenAI modellt használt kód hibakeresésre és egy Telegramon posztoló bot létrehozására. Kína befolyásolási művelete angol, kínai, japán és koreai nyelven generált szöveget, amelyeket aztán már kézzel a Twitteren és a Mediumon posztoltak.
Iráni szereplők teljes cikkeket generáltak, amelyek az Egyesült Államokat és Izraelt támadták, és ezeket angol és francia nyelvre fordították. Egy Stoic nevű izraeli politikai cég hamis közösségimédia-fiókok hálózatát üzemeltette, amelyek különféle tartalmakat hoztak létre, többek között posztokat, amelyek az Izrael gázai háborúja elleni amerikai diák tüntetéseket antiszemitának állították be.
Az OpenAI kitiltotta ezeket a felhasználókat, azt mondják, többen már ismertek voltak a kutatók és hatóságok számára. Az Egyesült Államok pénzügyminisztériuma márciusban szankciókat szabott ki két orosz férfira, akik állítólag egy, az OpenAI által észlelt kampány mögött álltak, míg a Meta is kitiltotta az idei évben a Stoicot platformjáról a szabályzatainak megsértése miatt.
A jelentés azt is kiemeli, hogy a generatív mesterséges intelligencia hogyan válik a dezinformációs kampányok részévé. „Mindegyik művelet használt valamilyen mértékben mesterséges intelligenciát, de egyik sem kizárólagosan” – áll a jelentésben. „A mesterséges intelligencia által generált anyag csak egy volt a sokféle tartalom között, amelyeket posztoltak, a hagyományosabb formátumok, például a kézzel írt szövegek vagy az internetről másolt mémek mellett.”
Bár egyik kampány sem eredményezett jelentős hatást, technológiájuk használata azt mutatja, hogy a rosszhiszemű szereplők azt gondolják, a generatív mesterséges intelligencia lehetővé teszi számukra a propaganda előállítását.
(Guardian)