Lányi Dávid: Nem készülődik AI-tél, épp most vagyunk igazán túl rajta

  • A kutatási eredmények és a gyakorlati alkalmazások között sok éves átmeneti idő van, ez frusztrálhatja a közvéleményt és az üzleti befektetőket.
  • A kutatók kezdik jobban érteni a deep learning határait, de ez távolról sem jelenti, hogy az ötlettel komoly baj lenne — ahogy azt sem gondolhatta senki, hogy ez lesz a végső megoldás.
  • Piekniewski következtetéseiből több is egyszerűen hibás, érdemes az ő hátterét is pontosabban látni.

A mesterségesintelligencia-kutatás 60 éves történetében soha annyian nem dolgoztak a területen mint ma, a legnevesebb AI-konferenciákra beküldött cikkek száma évről évre növekszik, a látogatottság exponenciálisan. Az „AI” megnevezéstől sokáig idegenkedtek a terület valódi művelői, de 2017-ben már a legnagyobb techcégek kutatócsoportjai is elkezdték neveikben feltüntetni (Google AI, Microsoft AI, IBM Research AI). A múlt századi „nagy” AI-tél után a kilencvenes évek lassú, de látható fejlődést, a 2012-es deep learning-forradalom pedig korábban elérhetetlennek hitt áttörést hozott. Az eredmények azóta is özönlenek. Újabb AI-télről beszélni nemcsak korai, de közelebbről nézve épp az ellenkezője történik.

Nem teljesen érthetetlen persze, ha bizonyos jelek alapján mégis másképp tűnne. A Gartner hagyományos diagramján a deep learning épp a hype-ciklus csúcsán van, azaz most a legnagyobbak az elvárások a technológiával szemben. Ezt általában egy meredek esés követi, majd egy hosszú, lassan emelkedő periódus, amíg az „érettséget” el nem éri.

Tudomány → (idő) → alkalmazás

Az AI világban a kutatási eredményektől az alkalmazásokig eljutni különösen nehéz, amin persze nem segít a befektetésre éhes cégek ambiciózus kommunikációja. Bármennyire ígéretes eredmények is születnek laboratóriumi körülmények között jól elhatárolt problémákon (táblajátékok) vagy fix adathalmazokon (ImageNet), tömeges alkalmazások ezekből csak nagyon hosszú fejlesztést követően lesznek. Óriási kihívásokat, köztük az eredmények megbízható mérhetőségét, algoritmikus garanciákat, és adatvédelmi aggályokat is le kell küzdeni, amíg a legtöbb AI-alapú alkalmazás a piacra kerül. Ez időbe telik, és ezeket az éveket éljük most.

Meg kell érteni, hogy 2018-ban még nincsenek önvezető autók. Mindegy, hány cég tesztel Kaliforniában emberi felügyelet nélkül, és hány gyár árul vezetőasszisztens funkciót. A marketingdumán túl még a szakma optimistább művelői is legalább 3-5 évet jósolnak, amíg az autonómia legmagasabb szintjét elérjük. Az Uber halálos balesete, és sok más ellentmondásos hír is rávilágít, hogy távol vagyunk még a kész terméktől. Most a laboratóriumi technológia átültetése történik, és ennek része lesz még jó néhány koccanás – halálos baleset, reméljük, több nem.

Készülnünk kell további frusztráló hibákra, kisebb technikai zsákutcákra, éretlenül bevezetett megoldásokra vagy váratlan csúszásokra, de a munka folyik, és szemmel látható lépésekkel, hétről hétre közelebb kerülünk a célokhoz.

A backprop köszöni, jól van

Piekniewski érvelésében felmerül, hogy a deep learning alapvető hiányosságai miatt nem várható, hogy tovább fejlődjön az algoritmusok pontossága, ám ez egy praktizáló szemével másképp látszik. A neurális hálók és a tanításukhoz használt backprop algoritmus az egyetlen ma ismert módszer, amellyel növekvő adatmennyiség esetén fokozatosan növekvő pontosságot érhetünk el. És bár igaz, hogy a hiba egy újabb százalékpontos csökkentéséhez arányaiban több adat kell, a világban rendelkezésre álló adatmennyiség és a számítási kapacitás is még mindig exponenciálisan növekszik.

Eközben egyre jobban ismeri a kutatói közösség a neurális hálók korlátait is.

  • Ilyen például, hogy nem megmagyarázható egy-egy döntés, nem deríthető ki például, miért nem súlyozta az Uber rendszere erősebben a később elütött biciklis sötét pacniját a kameraképen, miközben máskor jól működött.
  • Hiába tanítjuk a legjobb ismert rendszereket a legtöbb adattal, továbbra sem ismerünk garanciát, miért lenne egy betanított modell optimális, és az sem garantálható, hogy hasonló szituációkban mindig ugyanúgy döntsön.
  • Az elmúlt években derültek ki technikák, amellyel egy ellenséges felhasználó „becsaphat” betanított neurális hálókat, például egy elsőbbségadás táblán okosan elhelyezett sárga cetlivel azt sebességkorlátozásnak ismertetheti fel.
  • Több szó esik arról is, hogy az adathalmazokban lévő implicit részrehajlás a betanított rendszer döntéseiben is megjelenik, például faji hovatartozás a hitelbírálatban.

Mindezek aktív kérdései a kutatásnak, és míg egyikre sincs egysoros válasz, ígéretes részeredmények mutatják, hogy talán nem is megoldhatatlanok. Egyúttal rávilágítanak, hogy a deep learning nem a végső AI algoritmus, Hinton is inkább csak erre utal önkritikus interjújában. A gyakorlati alkalmazások legtöbbjében, ha van is deep learning komponens, az csak egy a sok közül, a rendszer egészében további egységek szolgálják például a megmagyarázhatóságot, vagy bizonyos szabályok garantált teljesülését.

Piekniewski meglátásainak hibája egyébként abból is eredhet, hogy viszonylag távol áll az AI fősodrától. CV-je és publikációs listája alapján nem tekinthető a legsikeresebb AI kutatók egyikének, főbb cikkei jóval a 2012-es deep learning forradalom előttről, egy azóta sem túl felkapott kutatási területről valók.

Az AI-hype alábbhagyhat, és ez jót is tenne a mesterséges intelligenciával kapcsolatos elvárások lenyugvásához. Ez nem jelenti viszont, hogy a kutatók áthatolhatatlan falakba ütköztek vagy hitet vesztettek volna. Az igazán érett AI alkalmazásokig még van idő hátra, és ezt az időt fel kell használni arra, hogy a társadalmi következményeire is felkészüljünk.

A szerző Lányi Dávid, az IBM Research Zurich gépi tanulással foglalkozó kutatómérnöke. A véleménye a sajátja, nem feltétlenül egyezik a munkáltatójáéval.