Egy hete jelent meg a mesterséges intelligencia használatából fakadó veszélyekről szóló TLDR-ünk, aminek a végén idéztük a svéd-amerikai Max Tegmarkot is. (Ennek a cikknek a jobb megértéséhez előbb érdemes elolvasni a linkelt cikkünket.)
Az MIT fizikaprofesszora már a 2017-es könyvében, az Élet 3.0-ban foglalkozott a mesterséges intelligenciával és az emberiség vagy az emberi értelem hosszú távú jövőjével, de most a Time-ban írt arról, hogy a Netflix 2021-es sikerfilmjében, a Don't Look Up (Ne nézz fel!) című szatírában bemutatott gondolkodásmód az AI esetében végzetes lehet az emberiségre nézve.
Tegmark felidézi a felmérést, ami szerint az AI-kutatók fele legalább 10 százalékos esélyt ad annak, hogy emberiség kiirtja magát, mert nem tudja irányítani az AI-t. Mivel a tudományos konferenciáktól a hollywoodi kasszasikerekig rengeteg területen régóta gondolkodunk arról, mit lehetne tenni az AGI-apokalipszis ellen, azt várhatnánk, hogy az emberiség gyorsan elkezdi biztonságosabb irányba terelni a mesterséges intelligenciát, helyette a legbefolyásosabb válaszok a tagadásra, a gúnyolódásra és a lemondásra korlátozódtak – írja Tegmark.
A Don't Look Up arról szól, hogy hiába szólnak komoly tudósok időben, hogy egy aszteroida tart a Föld felé, az emberiség saját hülyeségéből, önző ösztöneitől vezérelve addig bohóckodik, mígnem elszalasztja a lehetőséget a túlélésre. Ugyanezt láthatjuk egyelőre a klímaváltozás elleni harcban is, de Tegmark szerint a film még jobb paródiája az emberiség AI-térnyerésre adott reakcióinak. A cikkében szétszedi a legtipikusabb válaszokat, amiket az emberek a filmben az aszteroida-vészhelyzetre, a valóságban pedig az AGI-vészhelyzetre adnak.
Sok vállalat dolgozik az AGI (általános mesterséges intelligencia) kiépítésén, amit úgy határoznak meg, mint „ami képes megtanulni és végrehajtani a legtöbb intellektuális feladatot, amit az ember képes, beleértve a mesterséges intelligencia fejlesztését is”. Tegmark arról ír, hogy ez miért vezethet gyorsan szuperintelligenciához, amit „az emberi szintet messze meghaladó általános intelligenciaként” definiálnak.
A fizikusnak gyakran mondják, hogy az AGI és a szuperintelligencia nem jön létre, mert lehetetlen, az emberi szintű intelligencia valami titokzatos dolog, ami csak az agyban létezhet. Azt írja:
„Az ilyen szénsovinizmus figyelmen kívül hagyja a mesterséges intelligencia forradalmából származó alapvető betekintést: az intelligencia az információfeldolgozásról szól, és nem számít, hogy az információt az agyban lévő szénatomok vagy a számítógépekben lévő szilícium atomok dolgozzák fel. A mesterséges intelligencia könyörtelenül megelőzi az embereket feladatról feladatra, és arra kérem a szénsovinisztákat, hogy hagyják abba a kapufák mozgatását, és nyilvánosan jósolják meg, az AI mely feladatokat nem lesz képes soha elvégezni.”
2016-ban Andrew Ng azt mondta, „ma az AI miatt aggódni olyan, mint a Mars túlnépesedésén”. Tegmark szerint a közelmúltig a kutatók kb. fele arra számított, hogy az AGI eljövetele még évtizedekre van. Geoff Hinton veterán AI-szakértő nemrég azt mondta:
„A közelmúltig azt hittem, 20-50 év múlva lesz AGI. És most azt gondolom, hogy ez 20 év vagy kevesebb, lehetséges, hogy csak 5 év.”
Egy friss Microsoft-cikk szerint a GPT4 már az AGI „szikráit” mutatja (igaz, a Microsoft befektetett a fejlesztő OpenAI-ba), és az AI-kutatásban szintén úttörő Yoshua Bengio szerint a GPT4 alapvetően átmegy az egykor az AGI tesztjének tekintett Turing-teszten.
Tegmark szerint „az AGI-től a szuperintelligenciáig nem sok idő telhet el: egy jó hírű előrejelzési piac szerint valószínűleg kevesebb mint egy év. A szuperintelligencia nem »hosszú távú« probléma: rövidebb távú, mint például a klímaváltozás és a legtöbb ember nyugdíjtervezése.”
Az AI – miközben megoldásokat kínál meglévő gondokra – egy sor új problémát okoz. Ezekkel is kell foglalkozni, de azt mondani, hogy az AI-apokalipszissel való foglalkozás elvonja a figyelmet az egyéb kihívásokról, kb. olyan, mintha azt mondanánk, hogy nem szabad szó szerint felénk tartó aszteroidáról beszélnünk, mert az elvonja a figyelmet a klímaváltozásról. „Ha az összehangolatlan szuperintelligencia az elkövetkező évtizedekben az emberiség kipusztulását okozza, minden egyéb kockázat megszűnik” – írja Tegmark.
Tegmark szerint a legtöbb ember – például a média, a politikusok és még a kutatók nagyja is –, aki komolyan veszi az AGI-t, a jelek szerint annyira fél és/vagy izgatott, hogy csak a többi kockázatról beszél, a szuperintelligenciáról nem, mintha a technológiai fejlődés valahogyan sokáig AGI-szinten stagnálna. Pedig régi elmélet, hogy ha a gép már lenyomja az emberi intelligenciát, és képes még okosabb gépet gyártani, azzal – az I. J. Good által megjövendölt – intelligenciarobbanás következhet be. Az ilyen exponenciális növekedés végső határát nem az emberi találékonyság szabja meg, hanem a fizika törvényei.
Tegmark szerint figyelemre méltó, hogy a szuperintelligencia-tagadás még az AI-biztonsági szakértők körében is elterjedt. Persze vannak, akiknek a megélhetése függ ettől, de kognitív torzítások is szerepet játszanak: az exponenciális változást a lineárisnál nehezebb előre jelezni, és nehezebb félnünk attól, amit sosem tapasztaltunk (például a fosszilis tüzelőanyagok vagy a nukleáris tél miatti klímaváltozás).
Tegmark gyakran hallja azt az érvet, hogy a nagy nyelvi modellek (LLM-ek) valószínűleg nem fognak gyorsan rekurzívan fejlődni, de az intelligenciarobbanás-érv nem feltételezte, hogy az önmagát fejlesztő AI architektúrája változatlan marad. Amikor az emberek elérték az általános intelligenciát, az információfeldolgozási kapacitás későbbi exponenciális növekedését nem az agy növekedésével érték el, hanem a nyomtatás, az egyetemek, a számítógépek és a technológiai cégek feltalálásával. Hasonlóképpen, bár manapság divatosak a neurális hálózatok és az LLM-ek, naiv dolog azt feltételezni, hogy az AGI-től a szuperintelligenciáig a leggyorsabb út az egyre nagyobb LLM-ek egyre több adattal való képzése lenne. Nyilvánvalóan vannak sokkal intelligensebb AI-architektúrák, hiszen Albert Einstein agya felülmúlta a GPT4-et a fizikában azáltal, hogy sokkal kevesebb adatra edzett, és mindössze 12 Watt teljesítményt használt.
Miután az AGI-t megbízzák a jobb architektúrák felfedezésével, az AI sokkal gyorsabban fog fejlődni, egy pont után nem lesz szükség emberre a folyamatban, és jön az intelligenciarobbanás. Mindig lesznek, akik ebben segítenek, ahogyan az emberek már a GPT4-et is megbízták azzal, hogy önfejlesztő AI-t készítsenek különféle célokra (akár az emberiség elpusztítására).
Tegmark szerint ha a szuperintelligencia kipusztítja az emberiséget, az valószínűleg nem azért lesz, mert gonosszá vagy tudatossá, hanem mert hozzáértővé vált, és a céljai nem illeszkednek a miénkhez. Az emberek sem azért pusztították ki a nyugat-afrikai fekete orrszarvút, mert orrszarvúgyűlölők voltak, hanem azért, mert okosabbak voltak, és más céljaik voltak az élőhelyük és a szarvaik felhasználásával kapcsolatban. (Ha mondjuk a gép valamiféle magasabb rendű céltól vezérelve gőzerővel elkezdi felhasználni a földi erőforrásokat – például elhasználja az összes vizet –, mellékhatásként az emberek is elpusztulnak.)
Tegmark azt írja:
„Tagja vagyok egy növekvő AI-kutatói közösségnek, ami keményen dolgozik azon, hogy kitalálja, hogyan lehet összehangolni a szuperintelligenciát a létrejötte előtt, hogy a céljai összhangba kerüljenek az emberiség felvirágoztatásával, vagy valahogyan irányítani tudjuk. Eddig nem sikerült megbízható tervet kidolgoznunk, és az AI gyorsabban erősödik, mint a szabályozások, a stratégiák és a hozzáigazításhoz szükséges know-how. Több időre van szükségünk.”
Ha összefoglalnánk a szokványos múltbeli bölcsességet arról, hogyan lehet elkerülni az intelligenciarobbanást egy erős AI-ra vonatkozó tiltólistával, az kb. így kezdődne:
Az ipar egésze ezeknek a szabályoknak a megsértésével bebizonyította, hogy képtelen az önszabályozásra. Tegmark említi, hogy több AI-fejlesztő nyilvánosan kifejezte aggodalmát, de a verseny megnehezíti, hogy ellenálljanak a kereskedelmi és geopolitikai nyomásnak, így teljes gőzzel folytatják az AI-fejlesztést, és egyikük sem értett egyet a GPT4-nél nagyobb modellek fejlesztését 6 hónapra felfüggesztő közelmúltbeli nyílt levéllel.
Az AGI természetesen még a szuperintelligencia előtt is óriási gazdagságot és hatalmat hozhat a kiválasztott egyéneknek, cégeknek és kormányoknak. Hát még akkor, ha létrejön!
„Minden, amit a civilizációban szeretek, az emberi intelligencia terméke, így a szuperintelligencia megoldhatja a betegségeket, a szegénységet, a fenntarthatóságot, és elősegítheti az emberiség soha nem látott virágzását, nemcsak a következő választási ciklusra, hanem évmilliárdokra, és nem csak a Földön, hanem gyönyörű kozmoszunk nagy részén” – írja Tegmark, megint I. J. Goodot idézve: „Így az első ultraintelligens gép az utolsó találmány, amit az embernek valaha is meg kell alkotnia, feltéve, hogy a gép elég engedelmes ahhoz, hogy megmondja, hogyan tartsuk ellenőrzés alatt. Különös, hogy ez a kérdés olyan ritkán hangzik el a tudományos-fantasztikumon kívül. Néha érdemes komolyan venni a sci-fit.”
Amikor a 6 hónapos AI-fejlesztési szünetet felvetették, a leghangosabb ellenérv az volt, hogy közben Kína ugyanúgy fejleszti a mesterséges intelligenciát. „Mintha egy 6 hónapos szünet megfordítaná a geopolitikai verseny kimenetelét. Mintha a kontroll elvesztése a kínai elmék javára ijesztőbb lenne, mint az emberekkel nem törődő idegen digitális elmék javára. Mintha a szuperintelligenciáért folyó verseny fegyverkezési verseny lenne, amit »mi« vagy »ők« nyernénk meg, pedig valószínűleg öngyilkossági versenyről van szó, aminek az egyetlen győztese az »ez«” – írja Tegmark.
A fő ok, amiért olyan keveset hallunk a szuperintelligencia kockázatáról (szemben a munkahelyek elvesztésével vagy az elfogultsággal), az az, hogy nem szívesen beszélünk róla. A technológiai cégek a szabályozástól, az AI-kutatók pedig a finanszírozás megvágásától tartanak, és ritka kivételektől eltekintve a média is távol tartja magát az elefánttól a szobában. „Ez sajnálatos, mert az első lépés az aszteroida eltérítése felé az, hogy széles körű beszélgetést kezdjünk arról, hogyan járunk el a legjobban” – írja Tegmark.
Bár mindenkinek joga van a saját embergyűlölő nézeteihez, ez nem jogosítja fel arra, hogy mindenki mást elítéljen.
Bár a sci-fi-irodalom tele van tudatos, emberszerű AI-kkal, amik osztja az emberi értékeket, mára nyilvánvaló, hogy a lehetséges idegen elmék tere ennél jóval nagyobb. Tehát ha az intelligenciarobbanásba botlunk ahelyett, hogy az AI-t óvatosan irányítanánk, akkor valószínű, hogy az ebből fakadó szuperintelligencia nemcsak helyettesít minket, hanem hiányzik is belőle minden, ami hasonlít az emberi tudatra, együttérzésre vagy erkölcsre. Méltó leszármazottaink helyett inkább úgy tekintenénk rájuk, mint egy megállíthatatlan pestisjárványra.
„Nincs jobb garancia a kudarcra, mint nem is próbálkozni. Bár az emberiség egy szakadék felé száguld, még nem tartunk ott, és van időnk lelassítani, irányt váltani és elkerülni a zuhanást; helyette pedig élvezni a biztonságos, összehangolt mesterséges intelligencia által kínált elképesztő előnyöket” – írja Tegmark, a cikkét így zárva:
„Ehhez el kell fogadni, hogy a szakadék valóban létezik, és a zuhanás senkinek sem jó. Csak nézz fel!”
Néhány napja Yuval Noah Harari, a múlt heti cikkünkben szintén hosszan idézett izraeli történész azt mondta: nem tudja, hogy az emberiség túléli-e a mesterséges intelligenciát.