A mély tanulás (deep learning) az egész AI-kutatás egyik legizgalmasabb ága, a mély neurális hálózatok fejlesztésében óriási előrelépések történtek az elmúlt években. Az egyre komolyabb számítási teljesítményeknek és a döbbenetes mértékben rendelkezésre álló adatoknak hála ma már a beszéd- és képfelismerésen át a nyelvfeldolgozásig megkerülhetetlen lett a technológia, és sok szakértő beszél arról, hogy az igazán nagy dobások majd még csak most következnek.
Most az MIT techlapja írt arról, hogy a Google és az Uber kutatói elkezdtek két mély tanulásos rendszert úgy módosítani, hogy az algoritmus képes legyen a kételkedésre.
A változtatás lényege, hogy az AI hangsúlyosabban vet számot a valószínűségekkel, és képes lesz felmérni saját magabiztosságának mértékét egy-egy döntés előtt, ez alapján pedig be fogja tudni lőni, hogy mennyire bízhat meg a saját ítéletében.
A kutatók azt várják, hogy a kétely bevezetése végül épp a rendszer tökéletesedése felé vezet majd: ugyan nagyon komoly előrelépések történtek abban, ahogy a mély hálózatok a rengeteg betáplált adatból képeket vagy szövegeket képesek felismerni, de ez nagyon sok megelőző gyakorlást és óriási mennyiségű számítási kapacitást igényel. A kételkedés egy önkorrekciós mechanizmus lehet, ami segít a helyes irányban tartani az algoritmust: a fejlesztők azt várják, hogy ez a képesség kifejezetten jól jöhet majd mondjuk az önvezető autók esetében.
A fejlesztések összhangban vannak azzal is, ahogy az emberi intelligencia működik: döntéseink jelentős többségét nem egy végigracionalizálható, lineáris folyamat végén hozzuk meg, hanem számos fordulat, kétely és bizonytalanság előzi meg. Zoubin Ghahramani, az University of Cambridge professzora és az Uber vezető kutatója szerint ha képesek leszünk a mesterséges intelligenciákat ezzel a képességgel fejleszteni, attól csak okosabbá válnak majd.
Az AI-kutatásban amúgy a probabilisztikus, azaz a valószínűségi alapokat figyelembe vevő rendszerek egyáltalán nem számítanak új felfedezésnek, évtizedek óta építenek olyan rendszereket, melyek számot tudnak vetni a bizonytalansággal. A mély tanulás terén viszont leginkább a nyers erőre építő megoldásokat alkalmaztak eddig: rengeteg adat, erre ráeresztve egy egyszerű függvény, és komoly számítási kapacitás.
Nem ez az egyetlen kísérlet mostanában, hogy emberszabásúbbá változtassák a még mindig túlságosan analitikus és rideg AI-kat:
tavaly az University of California, Berkeley kutatói fejlesztettek ki egy „belső kíváncsiság modellt”, aminek a lényege az volt, hogy a gépi tanulásos algoritmus olyankor is haladjon előre a megismerésben, amikor nem kap világos visszajelzést arról, hogy jó úton jár-e. Vagy másképp fogalmazva: hogy az AI akkor is meg akarja ismerni a számára feltáruló világot, amikor nincs világos cél kijelölve a számára.
A kutatók a klasszikus Super Mario játékba eresztettek be egy algoritmust, ami Mariót irányította. A cél az volt, hogy az AI a lehető legjobban megismerje a játékbeli világot, illetve a lehető legtöbbet megértsen abból, hogy mi és hogyan befolyásolja ezt a környezetet.
Ez nagyon hasonló folyamat ahhoz, mint amikor egy ember először játszik egy számítógépes játékkal. Hacsak valaki nem magyarázta el előtte részletesen, akkor az első alkalommal, amikor leülsz a Super Mario elé, nem sok fogalmad lehetett arról, hogy mi mire való, mire jók a csövek, mit kell csinálni a teknősökkel, és így tovább. Felfedezőútra kellett indulnod, ami egy csomó szükségszerű kudarchoz is vezetett, valószínűleg senki se vitte végig úgy az amúgy meglehetősen egyszerű első pályát, hogy meg ne halt volna közben párszor. Ezt a folyamatot az a fajta kíváncsiság hajtja előre, amire most az AI-kat is elkezdték megtanítani.
A modell lényege, hogy a belülről generált jel hatására az algoritmus vezérelte karaktert minden olyan terület érdekli, amit még nem ismer, és ahogy deríti fel ezeket, az előrejelzési rendszere egyre precízebb lesz, ezzel viszont csökken a jel ereje, és ezért idővel tovább is áll újabb területek és helyzetek feltérképezése felé.
Gyakorlatilag egy önmagát generáló megismerési kisgömböccé válik ezzel az AI, ami jóval gyorsabban és hatékonyabban képes feltárni a körülötte lévő környezetet.
A kutatók azt várják ettől a fejlesztéstől is, hogy az algoritmusok majd jobban tudnak megoldani ezáltal problémákat a való világban is. Hasonló folyamat ez, mint ahogy a kisgyerekek tanulják meg belakni a körülöttük lévő világot: csomó véletlenszerű mozdulatot tesznek, és figyelik, hogy melyiknek milyen hatása van, és ami hatékonynak tűnik, azzal tovább próbálkoznak. Ez a megerősítő tanulás az, aminek révén a mesterséges intelligenciák is fejlődnek az utóbbi években: nem lekódolva táplálják beléjük a fejlődés irányát, hanem pozitív visszacsatolások révén haladnak egy kitűzött cél felé. Ez a logika működött az AlphaGo algoritmusában is, amely rövid időn belül a világ legjobb gojátékosává vált.
A Google alá tartozó fejlesztő DeepMind azóta továbbdolgozott a gépi tanulásos algoritmuson, és az AlphaZero decemberben úgy verte meg a világ legjobbjának tartott sakkszoftverét, a Stockfish 8-at, hogy négy óra alatt tanult meg hozzá sakkozni. A logika itt is az volt, hogy szemben a hagyományos sakkprogramokkal, az AlphaZero-ba nem táplálták bele rengeteg korábbi játszma adatait. Megtanították az alapszabályokra, majd hagyták, hogy a megerősítő tanulás révén az algoritmus saját magát képezze ki sakkból.
Ugyanakkor ennek a módszernek is megvannak a korlátai. A Berkeley kutatója, Pulkit Agrawal elmondása szerint a megerősítő tanulás hatása akkor kezd megakadni, amikor nem azonnali a visszacsatolás. Példaként egy olyan számítógépes játékra kell gondolni, ahol egy döntés nem azonnal válik kifizetődővé, hanem később jön majd jól a főszereplő számára. Ez az a szint, ahol a kíváncsiságnak fontos szerepe lehet, ugyanis az azonnali jutalmak nélkül is mindent kipróbáló AI olyan összefüggésekre is ráakadhat így, amit egy szigorúan a közvetlen cél vezérelte algoritmus nem feltétlen venne észre.
A mesterséges kíváncsiság fejlesztésétől a robotikában is előrelépéseket várnak: egy kellően kíváncsi algoritmussal felvértezett robot például sokkal hamarabb felismerheti a környezetét, és rájöhet, hogy melyik tárgy mire használható, mint egy hagyományosabb módon programozott társa.
„Gondolhatsz úgy a kíváncsiságra, mint egyfajta jutalomra, amit sajátjaként belül generál az ágens, és ennek révén tud többet megtudni a világról” – mondta el erről a rendszerről Agrawal. Ezt a fajta önjutalmazó intrinzik motivációt már régóta ismeri a kognitív pszichológia, most ennek lefordítása zajlik az algoritmusok nyelvére.
Ezek a módszerek nem újak a mesterséges intelligencia fejlesztése terén, évtizedek óta kísérleteznek hasonló módszerekkel kutatók világszerte. Ami változott, az a megnövekedett számítási kapacitás, illetve a sokkal több rendelkezésre álló adat. És míg a kísérletek főleg videójátékok megoldására, és hasonló mesterséges környezetben teremtett feladatok elvégzésére fókuszálnak, a távlati cél természetesen az, hogy a legkülönfélébb területeken alkalmazott robotok idővel képesek legyenek maguktól felismerni és elvégezni a feladataikat, ne szoruljanak állandó emberi irányításra. Ez különösen nagy kihívás olyan környezetben, ahol nincs állandó külső visszajelzés arról, hogy helyes irányba folynak-e a dolgok.
A Berkeley professzora, Deepak Pathak ezzel kapcsolatban arról beszélt a Quantának, hogy a kíváncsiság fogalma nem jelent mást, mint egy olyan modellt, melyben az algoritmus hatékonyan tudja megismerni a környezetét mindenféle zajok jelenlétében. Gyermekpszichológiai felismerések is irányították ezt a kutatást: Alison Gopnik és Laura Schulz mutatta meg korábban, hogy a kisgyerekek azok iránt a tárgyak iránt vonzódnak, ami a legjobban meglepi őket. Ez is egyfajta állandó kísérletezés, amit a kíváncsiság hajt: a már ismert világba egyre újabb és újabb elemeket, eszközöket illeszteni.
A Quanta cikke kitér arra is, hogy a mesterséges kíváncsiság sem most jelent meg az AI-kutatásban, a kilencvenes évek óta emlegetett kérdésről van szó. De a klasszikus mesterséges kíváncsiság projektek általában az újdonság keresésére fókuszáltak: hogy az algoritmus megtalálja, mi az, ami ismeretlen a környezetben. Ez azonban korlátokhoz vezethet, sokszor ugyanis annyira zajos a környezet, hogy folyamatosan olyan, mintha új ingerek érnének minket, miközben nem nagyon történik semmi. A cikk példája egy villódzó-kásás tévéképernyő, ahol minden másodpercben fekete és fehér pöttyök új konstellációja jelenik meg, azaz egy új jeleket kereső AI végtelen időre le tudná kötni magát előtte, holott a környezet megismeréséhez ez az élmény egész biztosan nem tesz hozzá sokat.
Hogy egy gyakorlatibb példával éljünk,
az önvezető autók szoftvere számára például nélkülözhetetlen, hogy meg tudja különbözteti egymástól a releváns és az érdektelen új szituációkat, melyeket a szenzora érzékel.
Ezért jelent kihívást, hogy olyan kíváncsi algoritmust fejlesszenek, amelyik nem túl kíváncsi, azaz fel tudja mérni, mikor kell továbblépnie.
Ez az AI még messze van a tökéletestől, a kutatók is elismerik, hogy a Mario világára ráeresztett algoritmusuk hajlamos elakadni a játék során. Paul Schrater, az University of Minnesota kutatója szerint ez a projekt az eddigi legkifinomultabb kísérlet arra, hogy egy AI egy új környezet feltérképezésére induljon, de azért még itt sem a belülről fakadó kíváncsiságról, sokkal inkább motorikus tanulásról és irányításról van szó. Az viszont fontos előrelépés Schrater szerint, hogy az AI számára a videojáték világa nem pixelekből álló képek sorozataként, hanem mint egy saját tulajdonságokkal bíró tér adódik.
Kommentek
Közösségünk messze túlnyomó többségének jószándéka és minden moderációs igyekezetünk ellenére cikkeink alatt időről-időre a kollégáinkat durván sértő, bántó megjegyzések jelentek meg.
Hosszas mérlegelés és a lehetőségeink alapos vizsgálata után úgy döntöttünk, hogy a jövőben a közösségépítés más útjait támogatjuk, és a cikkek alatti kommentelés lehetőségét megszüntetjük. Közösség és Belső kör csomaggal rendelkező előfizetőinket továbbra is várjuk zárt Facebook csoportunkba, a Közértbe, ahol hozzászólhatnak a cikkeinkhez, és kérdezhetnek a szerzőinktől is.