Az AI-fejlesztők között is egyre többen félnek attól, hogy rossz kezekbe kerülhetnek az eredményeik

A jövőben nem hozza automatikusan nyilvánosságra kutatási eredményeit a kaliforniai Berkeley Egyetem mesterséges intelligenciával foglalkozó kutatóintézete, a Machine Intelligence Research Institute (MIRI)

A kifejezetten jónevű kutatóintézet döntése szakítást jelent a számítógép-tudományok területén elterjedt hagyománnyal, melynek alapja a kutatási eredmények szabad hozzáférésű publikálása. A MIRI döntése nagy hullámokat vetett , de nem is elsősorban azért, mert egy intézet ezentúl nem fogja minden eredményét rögtön közkinccsé tenni, hanem a döntés hátterében húzódó, egyre intenzívebb vita miatt. 

A vita, amit nemrég az Axios foglalt össze részletesen, arról szól, hogy rejthet-e magában veszélyeket, ha az AI-kutatók minden eredményüket azonnal megosztják a világgal. Az aggódó hangok szerint ugyanis azzal, hogy ezek a fejlesztések hamar megismerhetővé válnak, a rossz szándékú szereplőknek lehetősége lehet arra, hogy ezeket aztán megfigyelési, propagandisztikus vagy egyéb kártékony és veszélyes módon felhasználják, miközben az ellen fellépni akaróknak még nem lehet a kezében hatékony eszköz a támadások kivédésére. 

Nem példa nélküli, hogy kutatók nem hozzák automatikusan nyilvánosságra eredményeiket, érthető okokból a nukleáris, katonai és hírszerzési kutatás-fejlesztés területén eddig is ez volt a bevett gyakorlat. A számítógép-tudomány területén viszont nem ez volt a szokás, és e terület kutatói fontos alapelvként élték meg, hogy közösen tolják előre a tudományterületük szekerét, sőt, sokan kifejezetten büszkék voltak arra, hogy ezt a területet nyitottság és együttműködés jellemzi. A szakterület egyik legnépszerűbb felülete például az Arxiv, ahova rengeteg szabad hozzáférésű, ingyenes publikáció kerül ki.  

Ennek a fajta nyitottságnak gyakorlati haszna is van: jelenleg rengeteg AI-kutatás zajlik a világban, számos ország és magánvállalat is nagyon komoly összegeket fektet ebbe a területbe, de azt érdemes szem előtt tartani, hogy a mesterséges intelligencia-fejlesztésnek nincs egy világosan kijelölt végterméke, amit a kutatók létre akarnának hozni. Ehelyett különféle technológiák, eszközök és módszerek folyamatos fejlesztéséről van szó, melyeket meglehetősen lazán köt össze az AI gyűjtőfogalom. 

Például az amerikai és kínai AI-kutatások összevetésekor szokás a jelenlegi helyzetet az amerikai-szovjet űrhajózási versenyhez hasonlítani, de ez egy téves analógia: pont azért, mert az AI-fejlesztéseknek (melyek legtöbbször gépi tanulásos algoritmusok fejlesztését jelentik) nincs világos céljuk, aminek kipipálásával győztest lehetne hirdetni. És míg az AI-k említése nyomán a legtöbben még mindig a scifikből ismert gondolkodó, szuperokos gépeket képzelik el, valójában sokkal inkább egy eszköztár fejlesztése zajlik a valóságban. (Erről és a tévesen használt fegyverkezési verseny-analógiáról érdemes elolvasni Andrew Batson feljegyzését.)

Épp az AI-fejlesztések határokon átívelő sokszínűsége, sokszor még kezdetleges mivolta és a rengeteg párhuzamosan futó kérdés és irány miatt tekintettek sokan értékként arra a nyitottságra, ami eddig ezt a tudományterületet jellemezte. Az utóbbi években viszont felerősödtek azok a hangok, melyek szerint komoly kockázata lehet annak, ha mindenki rögtön kiteszi az eredményeit, anélkül, hogy világosan értenénk, hogy az mire lehet felhasználható. 

Tovább bonyolítja a problémát, hogy a terület kutatóit általában a fejlesztéseik részletei és kihívásai foglalkoztatják, és nem tekintik feladatuknak, hogy a potenciális társadalmi hatásokat figyelembe vegyék. Vagy ha a bevezetőben röviden ki is térnek esetleg arra, hogy milyen pozitív felhasználási lehetőségei lehetnek a születőfélben lévő algoritmusnak, a potenciális negatív lehetőségeket olyankor sem veszik számba. 

Ebből a problémából nőtt ki a közelmúltban egy izgalmas tudományos vita, ami most konkrét önkorlátozáshoz is vezetett. Ebben a vitában az egyik oldal azt képviselte, hogy a potenciálisan veszélyesen is felhasználható eredményeket lehessen ugyan publikálni, de csak akkor, ha mellé társítanak elemzéseket arról is, hogy milyen technológiai vagy közpolitikai eszközökkel lehet az esetleg felmerülő veszélyforrásokat mérsékelni. Ezt az álláspontot képviselte például Brent Hecht, a Northwestern Egyetem kutatója. 

Még szigorúbban lépne fel az a mesterséges intelligenciával foglalkozó nonprofit kutatószervezet, az OpenAI stratégiai igazgatója, Jack Clark vagy Paul Scharre, a  Center for a New American Security védelmi igazgatója. Szerintük igenis szükség van arra, hogy az AI-fejlesztők a jövőben az érzékeny, potenciálisan veszélyes eredményeket visszatartsák. Clark szerint ha ezt nem látjuk be, akkor a tudományos előrehaladásnak rendeljük alá a társadalmaink stabilitását. 

A vitába rövid időn belül sokan beszálltak, köztük a több tucatnyi szaklapot kiadó Association for Computing Machinery tagjai, akik azt várnák el, hogy a peer review-ellenőrzéseket végző kutatók a jövőben azt is vegyék figyelembe egy tanulmány értékelésénél, hogy a szerzők kellően figyelembe vették-e a fejlesztésük esetleges káros hatásait. A felhívás komoly visszhangot váltott ki, a Hacker News felületén nagy vita tört ki az ötletről. 

A fejlesztők egy része azért elégedetlenkedett, hogy mivel ők nem társadalomtudósok vagy filozófusok, ezért szerintük nem tudják ezeket a kérdéseket munkájuk során megítélni. Ráadásul szerintük eleve képtelenség megmondani előre, hogy egy fejlesztést hogyan lehet felhasználni ártalmas célokra, és akiknek ártó széndékaik vannak, úgyis fel fogják használni a jövőben is az új technológiai fejlesztéseket, függetlenül a hasonló korlátozásoktól. 

Az ellentábor viszont nem ért egyet: az eredeti felhívást megfogalmazó 12 kutató szerint van egy alapvető elcsúszás aközött, ahogy a fejlesztők tekintenek a saját termékeik pozitív tulajdonságaira, illetve aközött, ahogy a valóságban azok működnek, és igenis kezdeni kell valamit ezzel a különbséggel. Voltak, akik a lapnak morális lustaságot és a felelősség kerülését is emlegettek azon kollégáikkal kapcsolatban, akik széttárják a kezüket, hogy ők csak az algoritmusokkal foglalkoznak, nem pedig azzal, hogy azt mire lehet használni. 

A tiltakozó kutatók közül sokak számára a 2016-os amerikai elnökválasztás idején manipulációra alkalmazott technológiai eszközök felbukkanása adta a végső lökést a korlátozás igénylése felé. 

Ebből az elméleti vitából nőtt ki aztán az első konkrét önkorlátozás: az Elon Musk-féle Future of Life Institute és Peter Thiel által is finanszírozott MIRI novemberben tette közzé aktuális stratégiai célkitűzéseit, és ebből derült ki, hogy mostantól alapból nem fogják közzétenni kutatási eredményeiket.  

A vita gyakorlati oldalának természetesen súlyos gazdasági oldala is van: ha ugyanis az AI-kutatók ezentúl lakatot tesznek az eredményeikre, az minden bizonnyal lassítani fogja a fejlesztéseket, hiszen a szabad hozzáféréssel publikált eredményeikkel a kutatók világszerte egymást is inspirálták. 

Az Axios által megkérdezett kutatók arra számítanak, hogy a jövőben ez a terület a publikációs gyakorlatában leginkább a számítógép-biztonság területére hasonlíthat majd. A kiberbiztonsági kutatók például, amikor egy kritikus sebezhetőségre vagy hibára akadnak, elsőnek az adott szoftver fejlesztőit értesítik, még mielőtt a nyilvánossághoz fordulnának. Az AI-k esetében nyilván nem a fejlesztők értesítésével kéne megvárni a publikálást, hanem mondjuk azzal, amíg a potenciálisan ártalmas felhasználási módok kiküszöbölésére nem születnek szintén publikálásra kész ötletek. 

Népszerű
Uralkodj magadon!
Új kommentelési szabályok vannak 2016. január 21-től. Itt olvashatod el, hogy mik azok, és itt azt, hogy miért vezettük be őket.