Amióta megjelent a ChatGPT, a Google már nem osztja meg az AI-ról szóló tanulmányait

TECH
2023 május 05., 14:00

Februárban Jeff Dean, a Google mesterségesintelligencia-részlegének vezetője figyelemreméltó változást jelentett be a munkatársainak: vissza kell fogniuk a munkájuk megosztását a külvilággal. Dean évekig úgy vezette a részlegét, mint egy egyetemet, és arra ösztönözte a kutatókat, hogy akadémiai tanulmányokat publikáljanak; a Google Research szerint 2019 óta közel 500-at adtak ki.

Minden idők leggyorsabban terjedő appjának, az OpenAI úttörő ChatGPT-jének 3 hónappal korábbi elindítása viszont megváltoztatta a dolgokat. A San Franciscó-i startup lépést tartott a Google-lel azáltal, hogy elolvasta a csapat tudományos közleményeit – mondta Dean a vállalat kutatási részlegének negyedéves találkozóján. A transzformátorok – a legújabb AI-technológia és a ChatGPT utolsó betűjének alapvető része – valójában a Google egyik tanulmányából származnak.

Dean azt mondta, a dolgoknak változniuk kellett: a Google kihasználná saját AI-felfedezéseit, és csak azután osztaná meg a papírokat, hogy a laboratóriumi munkákból termékek készültek. Erről két névtelen forrás beszélt a Washington Postnak.

Fegyverkezési verseny

Az irányelv-módosítás a Google-on belüli nagyobb változás része. A régóta AI-piacvezetőnek tartott techóriás védekező üzemmódba lépett: egyrészt azért, hogy megvédje magát a fürge AI-versenytársak flottájától, másrészt azért, hogy megvédje alapvető keresési üzletágát, részvényárfolyamát és potenciális jövőjét, ami a vezetők szerint összefonódik az AI-val.

Sundar Pichai, a Google vezérigazgatója óvatosságra intett az AI-val kapcsolatban, áprilisban egy interjúban arról beszélt, hogy „társadalmi méretekben nagyon sok kárt okozhat” a technológia, amit valójában ő sem ért.

Márciusban filozófusok, fejlesztők, történészek és értelmiségiek nyílt levélben kérték a nagy techcégeket, hogy legalább 6 hónapra függesszék fel az új típusú intelligenciák fejlesztését, és előtte állapodjanak meg megfelelő biztonsági protokollok létrehozásáról.

De a jelek szerint nemhogy lassítanának, inkább gyorsul a piaci, sőt inkább fegyverkezési verseny. Az elmúlt hónapokban a Google felülvizsgálta az AI-műveleteit, hogy a termékeit gyorsabban piacra dobhassa – tudta meg a Washington Post tizenegy jelenlegi és korábbi Google-alkalmazottól.

Lejjebb engedték a lécet azelőtt is, hogy a kísérleti AI-eszközöket kisebb csoportoknak bevezethessék; új értékelési mérőszámokat és prioritásokat dolgoztak ki olyan területeken, mint a méltányosság; egyesítették a Google Braint (a Dean által irányított és a kutatók érdekei alapján kialakított szervezetet) a DeepMinddal, a rivális AI-fejlesztő egységgel, ami felülről lefelé fókuszálva igyekszik „felgyorsítani a mesterséges intelligencia terén elért fejlődésünket” – írta Pichai a közleményében.

Az AGI-t akarják

Az új részleget nem Dean fogja irányítani, hanem Demis Hassabis, a DeepMind vezérigazgatója. (A DeepMind egyesek szerint frissebb, keményebb márkával rendelkezik.) A hét eleji konferencián Hassabis azt mondta, hogy a mesterséges intelligencia potenciálisan közelebb van az emberi szintű intelligencia eléréséhez, mint ahogy azt a legtöbb AI-szakértő megjósolta. „Csak néhány évre lehetünk, talán egy évtizedre” – mondta.

Néhány napja – 10 év együttműködés után – távozott a Google-től a 75 éves Geoffrey Hinton, a mélytanulás úttörője, aki a modern AI-k középpontjában álló legfontosabb technikákat fejlesztette ki, és azt mondta: már bánja élete munkáját, de azzal vigasztalja magát, hogy ha ő nem csinálta volna meg, megcsinálja más. Max Tegmark, az MIT fizikaprofesszora az általános mesterséges intelligencia (AGI) kockázataira figyelmeztetve Geoffrey Hintontól azt idézte: „A közelmúltig azt hittem, 20-50 év múlva lesz AGI. És most azt gondolom, hogy ez 20 év vagy kevesebb, lehet, hogy csak 5 év.” Hogy milyen veszélyei vannak az AI-knak és az AGI-nak, azzal hosszú cikkben foglalkoztunk.

Pichai az OpenAI és a Microsoft vezérigazgatóival együtt csütörtökön találkozott a Fehér Ház illetékeseivel, miután a kormányzat jelezte, hogy a közvélemény aggódik, és a szabályozók világszerte próbálják keresni az új technológia szabályozásának lehetőségeit. (A Microsoft nemrég tömegével rúgta ki az AI-fejlesztés etikai részlegén dolgozó alkalmazottait.)

Az AI-fegyverkezési verseny kontroll nélkül folyik tovább, és ez háttérbe szorítja a cégek jogos aggodalmait is. A DeepMind társalapítója, Mustafa Suleyman, aki 2022-ben elhagyta a Google-t, azt mondta, a cégek azért nem óvatkoskodnak, mert nem akarják aláásni a meglévő üzleti modelljüket és elveszíteni a bevételi forrásaikat. „Csak akkor kezdenek felébredni, ha valódi külső fenyegetés van” – mondta.

Pichai azt állítja, „a haladás üteme gyorsabb, mint valaha”, és: „Az általános mesterséges intelligencia merész és felelősségteljes fejlesztésének biztosítása érdekében létrehozunk egy egységet, ami segít biztonságosabb és felelősségteljesebb rendszerek felépítésében.”

A Google egyik korábbi AI-kutatója úgy jellemezte a mostani elmozdulást, hogy a Google a „békeidőből” a „háborús időkbe” vált. A kutatások publikálása nagyban segíti az egész terület növekedését – írta egy áprilisi blogbejegyzésében Brian Kihoon Lee, a Google Brain kutatója, akit a vállalat januári tömeges elbocsátásakor építettek le. De amint a dolgok versenyképesebbé válnak, a számítások megváltoznak, „háborús módban az is számít, hogy a versenytársak tortájából mennyit növekszik” – mondta Lee.

„2018-ban létrehoztunk egy belső irányítási struktúrát és egy átfogó felülvizsgálati folyamatot – eddig több száz termékkörrel –, és ezt a folyamatot továbbra is alkalmazzuk a külsőleg bevezetett AI-alapú technológiákra” – mondta Brian Gabriel, a Google szóvivője, aki szerint „a felelős AI továbbra is a legfontosabb prioritás a vállalatnál”.

photo_camera Illusztráció: JAKUB PORZYCKI/NurPhoto via AFP

Pichai és más vezetők egyre gyakrabban beszélnek az AGI lehetőségéről. A kifejezés – ami korábban ahhoz az elképzeléshez kapcsolódott, hogy a mesterséges intelligencia egzisztenciális kockázatot jelenthet az emberiségnek – központi szerepet játszik az OpenAI küldetésében, és a DeepMind is felkarolta, de a Google vezetői kerülték.

A kutatás szabadsága

A Google alkalmazottai között vannak, akik attól tartanak, az AI-val kapcsolatos ellentmondásos tanulmányokat – mint amilyen a Google Ethical AI csapatának vezetői, Timnit Gebru és Margaret Mitchell által 2020-ban publikált, a nagy nyelvi modellek (LLM) ártalmairól szóló tanulmány volt – el fogják hallgatni.

Mások viszont elismerik, hogy a Google az elmúlt évben számos vezető AI-kutatót elveszített az úttörő startupok miatt. Ennek az elvándorlásnak egy része az abból fakadó frusztrációból eredt, hogy a Google nem tett meg nyilvánvalónak tűnő lépéseket, például a chatbotok beépítését a keresésbe, amit a jogi és a jó hírnév sérelmei miatti aggodalmak hátráltattak.

A negyedéves találkozó élő közvetítésében Dean bejelentését kedvezően fogadták, azt remélve, hogy a változtatás segít a Google-nek visszaszerezni az előnyt. „Az OpenAI legyőzött minket a saját pályánkon” – mondta az egyik alkalmazott, aki részt vett a találkozón.

Egyes kutatók viszont most hallottak először a kutatások publikálásának korlátozásáról, de azoknak, akik a chatbotok technológiai magját képező LLM-eken dolgoznak, a dolgok égetőbbé váltak, mióta a ChatGPT berobbanásával a Google vezetői decemberben kiadták a vörös kódot az AI-ra összpontosítva.

Egy korábbi kutató szerint a tanulmányok jóváhagyása megkövetelheti a vezető munkatársakkal folytatott ismételt intenzív áttekintést. Sok tudós azzal az ígérettel kezdett dolgozni a Google-nél, hogy továbbra is részt vehet a területén folyó szélesebb körű kutatásokban. A Washington Post szerint most újabb kutatói kör távozott a publikálási korlátozások miatt.

A felelősség kérdése

A Bloomberg egyik jelentése szerint belső elégedetlenséget váltott ki a Google döntése, hogy kiadja az AI-chatbotját, a Bardot, és alacsonyabb szabványokat alkalmaz a kísérleti AI-termékek teszteredményeinél. Más alkalmazottak viszont úgy érzik, hogy a Google átgondolt munkát végzett, amikor megpróbált szabványokat kialakítani ezen a feltörekvő területen.

2023 elején a Google megosztott egy listát a Barddal kapcsolatos kb. 20 politikai prioritásról, amit két AI-csapat fejlesztett ki: a Responsible Innovation Team és a Responsible AI. Az egyik alkalmazott a szabályokat „észszerűen világosnak és viszonylag robusztusnak” nevezte. Mások kevésbé bíznak a pontokban, szerintük a nyilvánosságot jobban szolgálná a külső átláthatóság, például a képzési adatokon belüli dokumentálás vagy a modell megnyitása külső szakértők előtt.

A fogyasztók csak most kezdik megismerni az LLM-ek kockázatait és korlátait, például az AI hallucinációit. De El Mahdi El Mhamdi, a Google Research vezető tudósa, aki februárban lemondott a cég átláthatatlan AI-etikája miatt, azt mondta, a technológiai cégek felhasználhatták az AI-t arra, hogy más rendszereket úgy képezzenek ki, hogy az még az alkalmazottaknak is kihívást jelenthet.

Azt mondta: „Amikor a Google Fordítót és a YouTube-ot használom, már látom ezeknek a modelleknek és adatbázisoknak azt az ingadozását és instabilitását, ami csak a használatukkal magyarázható.”

Sok vállalat már bemutatta a problémákat a gyors fejlesztéssel és azzal, hogy a nagy közönségre ráeresztette a félkész eszközeit. Percy Liang, a Stanford professzora például azt mondta, hogy a ChatGPT kisbetűs felelősségkizárásai nem teszik egyértelművé az eszköz korlátait. Liang nemrég társszerzője volt egy tanulmánynak, ami olyan AI-kereső eszközöket vizsgált, mint az új Bing, és azt találta, hogy az idézeteknek csak kb. a 70 százaléka volt helyes.

A Google évek óta költ pénzt az AI-technológia fejlesztésére. A 2010-es évek elején kezdett AI-startupokat felvásárolni, és beépítette a technológiájukat a folyamatosan bővülő termékcsaládjába. 2013-ban Hintont, az AI-szoftver úttörőjét vette fel, akinek a tudományos munkája hozzájárult a technológia jelenlegi domináns termésének megalapozásához. Egy évvel később 625 millió dollárért megvásárolta a DeepMindot, amit Hassabis, egy másik vezető AI-kutató alapított.

Nem sokkal azután, hogy kinevezték a Google vezérigazgatójává, Pichai azt mondta, a Google „elsődlegesen AI-cég” lesz, és a technológiát minden termékébe integrálja. Az évek során a Google AI-kutatócsoportjai olyan úttörő eszközöket fejlesztettek ki, amik az egész iparág javára szolgáltak. Feltalálták a „transzformátorokat”: egy új típusú AI-modellt, ami nagyobb adathalmazokat képes megemészteni. Ez a technológia lett az alapja azoknak az LLM-eknek, amik most az AI körüli beszélgetést uralják, ideértve az OpenAI GPT3-ját és GPT4-ét is.

A folyamatos fejlődés ellenére végül a ChatGPT váltott ki szélesebb körű izgalmat az AI körül. Az OpenAI-t azért alapították, hogy ellensúlyt nyújtson a nagy techcégek uralmának, kevésbé ellenőrizték, mint a nagyobb riválisait, és hajlandóbb volt a legerősebb AI-modelljeit a lakosság kezébe adni.

A Google eddig ügyelt arra, hogy a Bard chatbotját és más új AI-termékeit kísérletekként jelölje meg. De egy több milliárd felhasználóval rendelkező cégnél még a kis léptékű kísérletek is emberek millióit érintik, és valószínűleg a világ nagy része a Google-eszközökön keresztül kerül kapcsolatba a generatív AI-val. A vállalat puszta mérete azt jelenti, hogy az új AI-termékek gyorsabb bevezetésére való átállás a szabályozók, az AI-kutatók és az üzleti vezetők széles körében aggályokat vált ki.

A Fehér Ház csütörtöki ülésére szóló meghívó emlékeztette a vezérigazgatókat, hogy Joe Biden elnök már „világossá tette azt az elvárásunkat, hogy az Önéhez hasonló cégeknek meg kell győződniük arról, hogy termékeik biztonságosak, mielőtt nyilvánosságra hozzák azokat”. (Washington Post)