A kínai vezetés az ujgurokon teszteli az érzelemfelismerő algoritmusokat

külföld
2021 május 26., 20:57

Kína legnyugatibb tartományában, Hszincsiangban úgy 12 millió ujgur él. Az elnyomott kisebbség tagjai közül becslések szerint legalább egymillióan vannak átnevelő táborokban, ahol kényszermunkára fogják őket, és alapos agymosást végeznek rajtuk. A muszlim ujgurok ellen elkövetett rémségeket a kínai vezetés rendre letagadja, és ellenpropagandával igyekszik bebizonyítani, hogy csak segíteni akar.

A BBC friss riportjában arról számolnak be, hogy az ujgurokon tesztelik az egyre kifinomultabb megfigyelési eszközök egyik új nagy reménységét, az érzelmeket felismerő mesterséges intelligenciát is.

A technológia az arcfelismerő rendszereken alapszik, és azt vizsgálja, az ember arcára milyen érzelmek ülnek ki. Ez alapján próbálja megjósolni többek között azt is, hogy valaki valami rosszban sántikál-e.

Egy a nevét elhallgatni kívánó szoftvermérnök azt állítja, már a tartomány rendőrőrseit is felszerelték az új rendszerrel. A szakember nem árulta el azt sem, hogy melyik cégnek dolgozik, de bemutatott öt ujgur fogvatartottról készült fotót, akikről azt állította, az érzelemfelismerő rendszert tesztelték rajtuk. Azt mondta, a speciális kamerákat az alanyoktól 3 méterre helyezték el. Valahogy úgy kell az egészet elképzelni, mint a hazugságvizsgálatot, csak ez egy jóval kifinomultabb technológia.

Az ujgur tesztalanyokat egy különleges székbe ültették, kezüket és bokájukat fémpántokkal szorították le, nagyjából úgy, mint ahogy azt kínzásokról készült fotókon látni.

A mesterséges intelligencia az arc (és a pórusok!) legkisebb rezdüléseit is figyeli és analizálja. A szoftver az eredményt kördiagramon jeleníti meg, melyen pirossal jelöli a negatív érzéseket vagy a nyugtalanságot.

A mérnök szerint a kormány többféle kísérletet végez az ujgur kisebbség tagjain, akiket tulajdonképpen kísérleti patkányokként kezelnek. Az általa bemutatott bizonyítékra a Human Rights Watch kínai vezetője azt mondta, „sokkoló”, és nemcsak azért, mert diagramokra redukál emberi lényeket, hanem mert a tesztalanyokat belekényszerítették egy ijesztő helyzetbe, amiben nyilván idegessé váltak, és ezt aztán úgy fordítottak le, hogy titkolnivalójuk van, tehát bűnösök valamiben.

Az már nem újdonság, hogy Hszincsiangban mindenki nonstop megfigyelés alatt áll, gyakorlatilag mindenhol kamerák figyelik az emberek minden mozdulatát. Peking ezt azzal magyarázza, hogy így próbálják féken tartani a térség állítólagos szeparatista mozgalmait, melyeknek tagjai saját ujgur államot szeretnének, és akik szerintük több száz ember halálát okozó terrorcselekményekért tehetők felelőssé.

Térfigyelő kamerák Ürümcsiben, Hszincsiang fővárosában.
photo_camera Térfigyelő kamerák Ürümcsiben, Hszincsiang fővárosában. Fotó: PETER PARKS/AFP

Darren Byler, a University of Colorado antropológusa arról beszélt, hogy az ujguroknak rendszeresen DNS-mintát kell leadniuk a helyi hatóságok részére, digitális átvilágításon esnek át, és le kell tölteniük a telefonjukra egy appot, mellyel a kormány megfigyelheti őket és ismerőseivel ápolt kapcsolataikat. Arról is beszélt, hogy ha valaki nem viszi magával a kvázi nyomkövetőként is funkcionáló telefonját, akár le is tartóztathatják. A legtöbb begyűjtött adat az integrált közös műveleti platformnak nevezett rendszerbe kerül.

Ezeket az adatokat nemcsak akkor dolgozzák fel, ha veszélyt sejtenek, hanem gyakorlatilag bekerül az adatbázisba minden, amit egy emberről megtudnak, beleértve beleértve olyan teljesen legális és banális dolgokat, mint hogy mikor tankolt mennyit a kocsijába, vagy hogy a hátsó ajtón távozott valahonnan.

A BBC megkereste Kína londoni nagykövetségét, akik az érzelemfelismerő algoritmusra vonatkozó kérdésekre nem válaszoltak, viszont közölték, hogy Hszincsiangban minden etnikai csoport tagjai számára garantálják, hogy tiszteletben tartják politikai, gazdasági és társadalmai jogaikat.

Kérdés persze, hogy mennyire megbízhatók ezek az algoritmusok.

Az eddigi tudományos elemzések alapján nem igazán. A Financial Times a közelmúltban írt arról, hogy a járvány ideje alatt – részben a távoktatásnak és távkonferenciáknak köszönhetően – erősen felértékelődtek a különböző érzelemfelismerő szoftverek. Egyre több iskolában alkalmazzák, többek közt azért, hogy észrevegyék, ha tanulás közben elkalandozik a gyerek figyelme. Jelenleg is ezerrel fejlesztik ezeket a rendszereket, nem véletlenül: az iparág mostani, 20 milliárd dolláros értéke 2026-ra megduplázódhat.

Az érzelemfelismerő algoritmust nemcsak autokrata államok szeretnék állampolgáraik megfélemlítésére és fenyítésére alkalmazni. Nagy jövőt jósolnak neki a reklámiparban, és nagyon szeretnék használni állásinterjúkhoz is. Ami azért minimum aggasztó, ha azoknak van igazuk, akik szerint ezek a rendszerek egész egyszerűen nem megbízhatók.

A rendszer legfőbb hibájának az tűnik, hogy bár egyre megbízhatóbban ismeri fel az arckifejezéseket, ez önmagában nem garancia arra, hogy sikeresen megjósolja, azok mit jelentenek. Nemcsak hogy azt nem tudja kitalálni, vajon mire készül az alany, hanem valójában azt sem, hogy mit érez.

Az amerikai Pszichológiai Tudomány Egyesület (korábban Amerikai Pszichológiai Társaság) 2019-ben öt, a szakterületet jól ismerő tudóst kért meg, hogy vizsgálják felül a témát érintő korábbi kutatások eredményeit. Összességében arra jutottak, hogy csupán az arckifejezés alapján nagyon nehéz megjósolni, hogyan érez vagy mire készül az ember. Egyikük, Lisa Feldman Barrett, a Northwestern University pszichológusa példaként azt hozta fel, hogy az emberek kevesebb mint 30 százaléka ráncolja a homlokát, ha mérges. Ráadásul nemcsak az van, hogy az emberek 70 százaléka nem ráncolja a homlokát, ha mérges, hanem az is, hogy sokszor akkor is ráncolja, ha egyáltalán nem mérges. A tudósok beszámolójukban azt írták, nem lehet magabiztosan boldogságra következtetni egy mosoly vagy haragra egy homlokráncolás alapján.

Egy látogató nézegeti a térfigyelő kamerákat egy biztonságtechnológiai kiállításon Sencsenben, 2018 októberében.
photo_camera Egy látogató nézegeti a térfigyelő kamerákat egy biztonságtechnológiai kiállításon Sencsenben, 2018 októberében. Fotó: NOEL CELIS/AFP

A legtöbb érzelemfelismerő szoftver egy olyan tudományos munkán alapszik, ami egyetlen ember, egy amerikai pszichológus nevéhez fűződik. A jelenleg a nyolcvanas éveiben járó Paul Ekman most maga is azt mondja, nem lehet csupán arckifejezések alapján megbízható következtetéseket levonni.

Mindenesetre úgy tűnik, az ujgurok többségét alapból bűnözőnek tekintő kínai vezetés nagy reményeket fűz a technológiához. A céljuk nem csupán az, hogy „megelőzzenek egy terrortámadást” a megfelelő személyek kiszűrésével, a rendszernek hasznát vehetik az átnevelőtáborokban is. Márciusban a kínai Nankai Egyetem tudósai egy rövid időre véletlenül publikáltak egy tanulmányt, ami egyértelmű bizonyítéknak tűnik arra, ami azért eddig is sejthető volt: tényleg ideológiai átnevelés folyik a hszincsiangi táborokban.

„Hagyni kell, hogy fokozatosan megváltozzon a gondolkodásuk és a látásmódjuk, és át kell alakítani az értékrendjüket és világnézetüket a környezetváltozás és a munka segítségével” - írták a kínai tudósok a tanulmányban, melyből ismét kiderült, hogy tervszerűen szakítanak szét ujgur családokat és közösségeket, hogy asszimilálni tudják tagjaikat.

A kínai kormány természetesen tagadta, hogy bárkit akaratán kívül tartanának fogva vagy kényszerítenének munkára. Ők ezeket önkéntes programoknak hívják, melyekkel a szegénységből próbálják kiemelni az ujgurokat.