Az AI az emberiség kihalásához vezethet – figyelmeztetnek szakértők, köztük az OpenAI és a Google DeepMind vezetői

világvége
2023 május 30., 12:56

Az AI-szakértők, újságírók, döntéshozók és a nyilvánosság egyre gyakrabban vitatják meg a mesterséges intelligencia okozta kockázatok széles skáláját.

„Ennek ellenére nehéz lehet hangot adni a fejlett mesterséges intelligencia legsúlyosabb kockázataival kapcsolatos aggodalmaknak. Az alábbi tömör kijelentés ezt az akadályt kívánja leküzdeni, és vitát nyitni” – írják a Centre for AI Safety (AI-biztonsági Központ) rövid nyílt levele elé. Az aláírók azt írják, a céljuk közös ismereteket alkotni az egyre több szakértővel és közéleti személyiséggel, akik a fejlett AI legsúlyosabb kockázatait is komolyan veszik.

A nyilatkozat lényegi része így szól:

„A mesterséges intelligencia okozta kipusztulás kockázatának mérséklését globális prioritásként kell kezelni az egyéb össztársadalmi szintű kockázatok, például a világjárvány és a nukleáris háború mellett.”

Illusztráció az AI veszélyeiről szóló TLDR-ünkhöz.
photo_camera Illusztráció az AI veszélyeiről szóló TLDR-ünkhöz. Gif: Kiss Bence

Az aláírók között ott van Sam Altman, a ChatGPT-t gyártó OpenAI vezérigazgatója, Demis Hassabis, a Google DeepMind vezérigazgatója és Dario Amodei az Anthropictól. A három cég a múlt héten arról adott ki közleményt, hogyan lehetne biztonságos keretek között tartani az AI-fejlesztést. (Hivatalos tanulmányt is kiadtak róla.)

Ebben felszólítottak a vezető AI-fejlesztők együttműködésére, a technológia alapját jelentő nagy nyelvi modellek (LLM) további kutatására és egy nemzetközi AI-biztonsági szervezet létrehozására, hasonlóan a Nemzetközi Atomenergia-ügynökséghez, ami az atomfegyverek használatának ellenőrzésére törekszik. Sam Altman a támogatását fejezte ki olyan szabályok mellett, amik megkövetelnék a nagy, élvonalbeli AI-fejlesztőktől, hogy a modelljeiket a kormánnyal engedélyeztessék.

Ez a rendszer viszont még erősen vázlatosnak tűnik, ha egyáltalán alkalmas lesz a kockázatok minimalizálására.

Sam Altman vallomást tesz a szenátusi bizottság előtt Washingtonban 2023. május 16-án.
photo_camera Sam Altman vallomást tesz a szenátusi bizottság előtt Washingtonban 2023. május 16-án. Fotó: Elizabeth Frantz/Reuters

Márciusban több mint 1000 techvezér és tudós írt alá egy nyílt levelet, amiben 6 hónapos szünetet kértek a legnagyobb AI-fejlesztőktől, arra hivatkozva, hogy „az egyre erősebb AI-k fejlesztéséért és telepítéséért folyó kontroll nélküli versenyfutás” katasztrófához vezethet. Azt a levelet – amit egy másik, AI-ra fókuszáló nonprofit szervezet, a Future of Life Institute írt – Elon Musk és más ismert techvezetők írták alá, de abban még a vezető AI-fejlesztő cégek képviselői nem nagyon szerepeltek.

Dan Hendrycks, a Center for AI Safety ügyvezető igazgatója egy interjúban azt mondta, a mostani nyílt levél „coming out” néhány iparági vezetőnek, akik már aggodalmukat fejezték ki – de szigorúan csak magánbeszélgetésben – az általuk használt technológia kockázatai miatt – írja a New York Times. „Van egy nagyon gyakori tévhit, még az AI-közösségen belül is, hogy csak egy maroknyi vészmadár van. Valójában azonban magánúton sokan ki fejezték az aggodalmukat ezekkel a dolgokkal kapcsolatban” – mondta Hendrycks. (Elon Musk nincs az aláírók között, a – volt vagy jelenlegi – barátnője, Grimes viszont igen.)

A világvégével riogatókkal szemben szkeptikusok azzal érvelnek, hogy AI-technológia még túl éretlen ahhoz, hogy egzisztenciális veszélyt jelentsen, és még jobban kell aggódni a rövid távú problémák miatt, mint az elfogult és helytelen válaszok.

Mások szerint viszont az AI olyan gyorsan fejlődik, hogy egyes területeken már beérte az emberi teljesítményt, máshol pedig hamarosan túlszárnyalja azt. Szerintük a technológia a fejlett képességek és megértés jeleit mutatta, ami alapján jogosan merülhet fel a félelem, hogy hamarosan létrejöhet az általános mesterséges intelligencia (AGI), ami a legkülönbözőbb feladatokban fogja tudni meghaladni az emberek teljesítményét.

Geoffrey Hinton, akit szoktak az „AI keresztapjaként” emlegetni, és aki nemrég hagyta ott a Google-t, és már bánja élete munkáját, szintén aláírta a nyilatkozatot, ahogy Yoshua Bengio is, aki pár napja írt a témában esszét. Mindketten Turing-díjasok a neurális hálózatok területén elért eredményekért.

Dr. Geoffrey E. Hinton 2019. november 18-án Tokióban.
photo_camera Dr. Geoffrey E. Hinton 2019. november 18-án Tokióban. Fotó: Masahiro Sugimoto/The Yomiuri Shimbun via AFP

De Max Tegmark, az MIT fizikaprofesszora is az aláírók között van. Ő nemrég a Time-ban írt arról, miért kell komolyan venni az AGI fenyegetését. És természetesen az aláírók között van Eliezer Yudkowsky is, aki az elsők között és a leghangosabban kongatta a vészharangot, ahogy a The A.I. Dilemma című előadás készítői, Aza Raskin és Tristan Harris is.

link Forrás

Arról, hogy már Magyarországon is látványosan alakítja át a munkahelyeket az új típusú mesterséges intelligencia, itt írtunk, a magyar kormány AI-stratégiáját pedig itt mutattuk be. A mesterséges intelligencia veszélyeiről hosszan beszélgettünk a Newsroom legutóbbi adásában is.