A fenyegetés érzete nem új, gyakorlatilag a sci-fi irodalommal egyidős, az elmúlt években pedig, ahogy jöttek az egyre újabb fejlesztések az AI-szektorban, úgy kapott erőre ez az aggodalom. Ezt nem nagyon mutathatná más jobban, mint hogy a három, informatikai és tudományos kérdésekben talán legtöbbet hivatkozott sztár is simán beleállt ebbe a történetbe. De ennél sokkal ritkábban kerül szóba az, hogy mit gondolnak az AI veszélyeiről azok, akik nap mint ezzel foglalkoznak, akik ezeknek a rendszereknek a fejlesztését irányítják. Tyler Cowen közgazdász a blogján gyűjtötte össze, hogy a szakma legismertebb szereplői miket nyilatkoztak minderről mostanában.
„A népszerű disztopikus víziók a mesterséges intelligenciáról azért tévesek, mert egyenlőséget tesznek az intelligencia és az autonómia között. Feltételezik, hogy egy okos számítógép meg fogja majd teremteni saját céljait, lesz saját akarata, és gyorsabb feldolgozó képességeit és nagyobb adatbázisát arra fogja használni, hogy saját pályáján verje meg az embereket. Feltételezik, hogy az intelligencia szabad akarattal párosul, de én abban hiszek, hogy ez két, teljesen különböző dolog.”
Etzioni párhuzama szerint olyan ez, mint azt feltételezni, hogy mivel egy számológép tud számolni, majd elkezd magától képleteket megoldani. És léteznek ugyan autonóm számítógépes programok, például vírusok vagy cyberfegyverek, de azt feltételezni hogy a következő 25 évben teljes AI-rendszerek jöjjenek létre, kevésbé valószínű, mint hogy egy meteor elpusztítsa a Földet.
Etzioni szerint a félelmünknek sokkal egyszerűbb gyökere van: egyszerűen attól rettegünk, hogy a mesterséges intelligenciák és az automatizáció elveszi a munkánkat, megfoszt minket attól, ami különlegessé teszi életünket. Ez minden nagyobb technológiai fejlődés hajnalán így volt, és a múltbeli példákból pont azt tanulhattuk meg, hogy a technológiának van ugyan felforgató hatása, de rengeteg lehetőség is nyílik a fejlődéséből. És nagyon nehéz lenne érveket találni, miért lenne nekünk jobb e fejlődések nélkül. A legjobb amit tehetünk, ha arra koncentrálunk, hogy az új technológia hogyan használható jó célokra.
„Nagyon az elején vagyunk az AI-kutatásoknak. A mostani szoftverünk még általános iskolai tankönyveket sem tud megoldani, sem negyedikesek fizikapéldáit megoldani.”
- írja Etzioni, aki szerint még hosszú évek munkájára van szükség, és jelenleg mind a félelem, mind a túlzó kijelentések elvétik a lényeget: ami könnyű feladat egy átlagos emberi gyereknek, az még borzasztóan nehéz feladat egy AI-programnak.
„Mi emberek sokkal okosabbak vagyunk, mint ahogy kinézünk.”
És persze, egy világban, ami tele van vírusokkal és cyberfegyverekkel, szükség is van a vitára ezekről a kérdésekről. De az AI-kutató szerint nem szabad, hogy ezek az AI-kutatás ellen hergeljék az embereket, mert a megalapozatlan félelmek miatt az emberiség egy hatalmas lehetőségét veszíthetné el. Az sosem intelligens, ha engedjük, hogy a félelem irányítson minket, teszi hozzá még.
Az ugyanis valóban elképzelhető, hogy algoritmikus alapokon működő kereskedők kárt tegyenek a tőzsdén vagy hogy áramszünet alakuljon ki egy automatizált rendszer túlzott reakciója miatt. És a fejlesztőknek az ilyen aggodalmakat kiemelten kell kezelniük, és számolni kell ezekkel.
„De azok a rettentő előrejelzések, hogy a számítógépek hirtelen felébrednek és ellenünk fordulnak, egyszerűen nem realisztikusak.”
Littman cikkében azzal a népszerű elmélettel száll vitába, ami a mesterséges intelligencia forradalmát három lépcsőben látja eljövendőnek. Az első az a fázis, ahol nagyjából ma járunk, azaz hogy a feladatmegoldási erő és az intelligens szoftverek egy nagyon fontos eszközévé válnak a tudósoknak és a mérnököknek. Majd következne a második szakasz, amikor megjelennének az olyan programok, melyek az emberi intelligenciával egyenértékű képességekkel bírnának. Ezek a programok borzasztó gyorsan tudnák magukat fejleszteni, ebből pedig egy "intelligenciarobbanás" nőne ki. Végül pedig a harmadik, apokaliptikus, filmekből jól ismert fázis, amikor mindebből létrejönne egyetlen szuperintelligencia, túlnőve és magába olvasztva mindent, így az életet is.
A kutató szerint az első fázis valóban történik már, a harmadik fázis pedig egy filozofikus játék csak jelenleg, de a második szakaszról lehet már most is gondolkodni. Az intelligenciarobbanás feltételezése ugyanis alapvetően ellentmond mindannak, amit most tudunk a természettudományokról és a számítástechnikáról. A feltételezés mögött a Moore-törvénynek nevezett tapasztalati megfigyelés lapul, hogy az integrált áramkörök összetettsége másfél évente megduplázódik. Ebből fejthető fel az a jövőkép, hogy a gépek számítási teljesítménye évtizeden belül lehagyja az emberekét, és onnantól ellenőrizhetetlenül fog továbbnőni.
Littman szerint viszont hátrébb a processzorokkal, van egy csomó valós szempont, ami ugyanis ezt a képet jelentősen árnyalja. Egyrészt meg is kell építeni ezeket az egyre erősebb gépeket, melyekhez valódi nyersanyagok kellenek, és egyre több költséggel járnak. Ráadásul annak eléggé világos fizikai korlátai vannak, hogy egy tranzisztor milyen teljesítményre lehet képes. És bár léteznek kutatások a szilícium kiváltására, ezek egyelőre meglehetősen tapogatódzó jellegűek csak. Vannak ráadásul feladatok, melyek jelenlegi ismereteink szerint nem oldhatóbbak meg gyorsabban attól még, hogy még gyorsabb gépeket építünk. Ezeket a megoldhatatlan feladatokat az emberi agy hipotézisek felállításával és tesztelésével kezeli, ehhez azonban a valóságban való kipróbálásukra van szükség. Az pedig logikailag lehetetlen Littman szerint, hogy egy gép a valóságot a valóságnál gyorsabban szimulálja.
„Vannak olyan látszólag szuperintelligens rendszereink, melyek nem autonómok. Például az, hogy egyes sakkprogramok meg tudják verni gyakorlatilag a bolygó összes emberét, egyben azt jelenti, hogy szuperintelligensek lennének? Hamarosan az önmagukat vezető repülők és autók megbízhatóbbak lesznek, mint a pilóták és a sofőrök. Ez azt jelenti, hogy ezek intelligensebbek, mint az emberek? Egy nagyon szűk értelemben ezek a rendszerek "intelligensebbek"' mint az emberek, de a szakértelmük egy nagyon szűk területre koncentrálódik, és nagyon kis önállósággal bírnak. Nem tudnak túlnyúlni azon a feladaton, mint amire megalkották őket.”
Ennek a különbségnek a figyelmen kívül hagyása vezet a pánikhoz LeCun szerint, illetve még az, hogy hajlamosak vagyunk úgy tekinteni az AI-rendszerekre, mint amik az evolúciós pályának valamilyen digitális másán lennének rajta, és versenyzésük meg újratermelődésük közben egy ponton ebből az egészből spontán módon kinőhetne valami elszabaduló szuperintelligencia. De az AI egyszerűen nem így működik. Szerinte már az is teljes zavarba hozná a kutatókat, ha a közeljövőben egy olyan gépet tudnának építeni, ami van annyira okos, mint egy egér. De még ettől is nagyon messze járnak. És lehet, hogy egy kereső algoritmus gyorsabb eredményre képes, mint egy ember, de soha nem fog előfordulni, hogy a kódjába hirtelen etikai dimenziók keverednek, és megfedjen minket, amiért pornóra kerestünk rá.
„Egyszerűen nem látok semmiféle reális utat abból, amin ma dolgozunk, és ami amúgy elképesztő és rengeteg értéket termel, afelé, hogy olyan szoftvert írjunk, ami gonosszá változhat.”
Szerinte bár ugyan a számítógépek egyre intelligensebbek lesznek, és ez kifejezetten hasznos, ha önmagukat vezető autókról vagy nyelvfelismerő rendszerekről van szó, de az érzelmek és a tudatosság nem éppen valami olyasmi, ami felé most épp haladnának a fejlesztések. És persze pontosan senki nem tudja, hol fognak járni majd ezek évtizedek múlva. De a mostani irányok alapján nem elég messze:
„Ahhoz, hogy emberi szintű mesterséges intelligenciát kapjunk, lényegileg másmilyen algoritmusokra és ötletekre lenne szükségünk, mint amikkel most rendelkezünk.”
Ng példájában a kínairól angolra fordító rendszereket hozta fel, melyekbe több sokkal szöveget vittek bele, mint amennyit egy ember egész életében képes lehet elolvasni. És ennek ellenére a szoftver még mindig sokkal kevésbé pontosan fordít, mint egy olyan ember, aki csak nagyon keveset olvasott a létező szövegekből.
„Ugyanazért nem dolgozom azon, hogy megakadályozzam, hogy az AI-k gonosszá váljanak, amiért nem dolgozom azon sem, hogy hogyan küzdhetjük le a túlnépesedést a Marson. Évszázadok múlva, amikor reményeim szerint már kolonizáltuk a Marsot, a túlnépesedés lehet, hogy majd egy komoly probléma lesz, és kezdenünk kell majd vele valamit. Ez egy sürgető ügy lesz. Sokan mondják majd, hogy túl szennyezett a bolygó, és emberek halnak meg miatt, és majd kérdezik, hogyhogy nem foglalkozunk ezzel? De valójában most nem lenne túl produktív ezzel foglalkozni.”
- mondja minderről Ng, aki szerint nem elképzelhetetlen hogy évszázadok vagy évezredek múlva lesz majd egy AI, ami gonosszá változik. De ennek még a lehetősége is annyira távol van most tőlünk, hogy nem nagyon lehet érdemben mit kezdeni ezzel a kérdéssel.
Ng szerint amúgy hajlamosak vagyunk túlmisztifikálni a kreativitás fogalmát, mint ami csak az embert illeti meg, szemben a robotokkal. Pedig egyáltalán nem kizárt, hogy egykor majd a robotok tevékenységéhez is a kreativitást társítsuk hozzá. Amikor majd olyan erős teljesítményre lesznek képesek, hogy nem fogjuk többé megérteni, hogyan jutottak el egy lépésre vagy következtetésre, akkor az emberek majd úgy fogják érezni, hogy a zsenialitás szikrája ragyog a robotokból.
Most egyelőre csak okos szoftverek vannak, amiket nagyon okos emberek terveztek meg. És ha nagy áttörésre is képesek, az lehet, hogy még nem featúra, hanem csak bug.
Ember és gép máig legismertebb mérkőzése még 1997-ben zajlott a sakknagymester Garri Kaszparov és az IBM-féle Deep Blue között. Kaszparov korábban többször hangoztatta, hogy ő soha nem veszíthet egy géppel szemben, és a hétmeccses összecsapás első meccsét valóban meg is nyerte a szuperszámítógép ellen, amit gyakorlatilag csak a Kaszparov-elleni játékra hoztak létre. A győzelem azonban mégsem nyugtatta meg az orosz mestert, a meccs végefelé ugyanis a Deep Blue egyik bástyájával lépett egy olyat, ami akkor teljesen megmagyarázhatatlan volt.
Egyszerűen sehogy sem illett a gép stratégiájába, túl spontán és finom lépés volt. Ez a meccs akkor már célegyenesben volt, Kaszparov meg is nyerte, de ez a lépés teljesen kiborította. Később sajtótájékoztatón csalással vádolta meg az IBM-et, utalva arra, hogy a távolból egy ember irányíthatta a lépéseket. A második meccsen pedig zavarában elkövette az egyik legnagyobb hibát, amit profi sakkozó elkövethet: feladta a meccset, miközben utólagos számítás szerint kihozhatta volna döntetlenre.
A furcsa lépés igazi oka csak tizenöt évvel később derült ki. Nate Silver könyvéhez készített interjút a Deep Blue egykori programozóival, és ekkor árulták el neki, hogy a lépés egyszerű programhiba volt. A számítógép kódja hirtelen nem tudta kiszámolni a megfelelő következő lépést, és ezért behúzott egy véletlenszerű megoldást. Nem volt mögötte semmiféle hadicsel vagy mélyebb stratégia.
Viszont Kaszparov zsenialitást, egy gépi agy felsőbbrendűségét látta mindebbe bele, és ez a teher a következő meccsek során összeroppantotta. Pedig csak egy olyan hiba volt, amit a meccseik után az IBM programozói egyszerűen befoltoztak.
Talán alig akadna ennél jobb példa arra, ami összefoglalná, honnan születik még mindig a legtöbb képzetünk arról, hogy a mesterséges intelligenciával ellátott gépek ellenünk fordulhatnának. És láttuk, mennyire nem tartják ezt valós veszélynek a témával foglalkozó legismertebb kutatók sem. Persze azt kizárni, hogy ők már nem emberek, hanem ügyesen megépített robotok, akik épp e vélemény reklámozásában érdekeltek, úgysem lehet teljesen.
Felső kép: CARSTEN KOALL / AFP
Kommentek
Közösségünk messze túlnyomó többségének jószándéka és minden moderációs igyekezetünk ellenére cikkeink alatt időről-időre a kollégáinkat durván sértő, bántó megjegyzések jelentek meg.
Hosszas mérlegelés és a lehetőségeink alapos vizsgálata után úgy döntöttünk, hogy a jövőben a közösségépítés más útjait támogatjuk, és a cikkek alatti kommentelés lehetőségét megszüntetjük. Közösség és Belső kör csomaggal rendelkező előfizetőinket továbbra is várjuk zárt Facebook csoportunkba, a Közértbe, ahol hozzászólhatnak a cikkeinkhez, és kérdezhetnek a szerzőinktől is.