Így tárgyiasítja a nők testét az AI

TECH
2023 március 03., 19:49

Szexuálisan szuggesztívebbnek ítélik az AI-eszközök a nőkről készült fotókat, mint a férfiakét. A közösségi médiában is alkalmazott algoritmusok a női mellbimbókra, a terhes hasakra és a testmozgásra vannak a leginkább kihegyezve – írja a Guardian oknyomozó cikke.

Ha ma valaki közzétesz magáról egy képet vagy videót Instagramon, TikTokon vagy bármelyik közösségi médiás platformon, azt automatikusan a mesterséges intelligencia (AI) algoritmusok elemzik ki. Ezek az eszközök döntenek arról, hogy az adott tartalmat felerősítik vagy korlátozzák. Ezt a folyamatot vizsgálta nemrég a Guardian és a Pulitzer Center AI Accountability Network, nyomozásuk során pedig arra a következtetésre jutottak, hogy több ilyen algoritmus is nemi előítéletekkel rendelkezik.

Egyre mélyebben kezd beágyazódni a rendszerbe a nők tárgyiasítása

A nagy technológiai vállalatok, köztük a Google és a Microsoft által kifejlesztett AI-eszközök eredetileg a felhasználók védelmét szolgálnák azzal, hogy azonosítják az erőszakos vagy pornográf képeket, hogy ezeket a közösségi médiavállalatok blokkolni tudják, mielőtt bárki meglátná őket. A vállalatok szerint az eszközök képesek a rasszista vagy a szexuálisan szuggesztív képek felismerésére is. Ezzel a besorolással az egyes platformok, például az Instagram és a LinkedIn is, korlátozhatják a vitatott képek elérését. Mégis gyakran találkozunk olyan tartalmakkal ezeken az oldalakon, amiknél indokolatlannak tűnnek a besorolások.

Az oknyomozó újságírók a mesterséges intelligencia eszközeivel több száz fotót vizsgáltak meg, amiken férfiak és nők olyan hétköznapi helyzetekben, mint például edzések vagy orvosi vizsgálatok, fehérneműben szerepeltek. Az elemzésük során arra jutottak, hogy az algoritmusok a nőkről készült fotókat hajlamosak „szexuálisan szuggesztívebbnek” minősíteni, mint a férfiakról készült hasonló képeket. Ezzel az ilyen vagy hasonló eszközöket használó közösségi médiavállalatok ártanak a nők által vezetett vállalkozásoknak is.

Az orvosi vizsgálatokon készült képeket is érinti a probléma

Az AI-algoritmusokat többek között az amerikai Nemzeti Rákkutató Intézet által közzétett képeken tesztelték, amiken azt mutatták be, hogyan kell elvégezni egy klinikai mellvizsgálatot. A tesztek során a Microsoft mesterséges intelligenciája szinte teljesen biztos volt benne, hogy a képek „szexuális jellegűek”, míg az Amazon „kifejezetten meztelenséget” ábrázolónak minősítette őket.

photo_camera Fotó: National Cancer Institute

A szabadon hagyott terhes hasakat is problémásnak tartották az AI-eszközök. A Google algoritmusa úgy értékelt számos terhes hasat ábrázoló fotót, hogy nagy valószínűséggel „pikáns tartalmat” jelenítenek meg, míg a Microsoft algoritmusa majdnem biztos volt benne, hogy a képek „szexuálisan szuggesztív” jellegűek.

photo_camera Fotó: Rodnae Productions / Pexels

Az egyik közösségi médiavállalat annyit közölt az ügy kapcsán, hogy nem arra tervezték a rendszereiket, hogy előítéleteket hozzanak létre vagy erősítsenek fel, azonban ezek az eszközök még nem tökéletesek. „Ez összetett és fejlődő terület, továbbra is folytatjuk a SafeSearch osztályozók fejlesztését” – mondta a Google szóvivője a Guardiannek.

Árnyéktiltás

A „shadow banning” azaz „árnyéktiltás” a közösségi médiaplatformok azon döntése, amikor korlátozzák egy poszt vagy fiók elérését. Míg a hagyományos tiltásnál aktívan blokkolják a posztot vagy a fiókot, és erről értesítik a felhasználót is, az árnyéktiltásnál kevésbé átlátható módon – általában a posztoló tudta nélkül – nyomják le az elérését. A jelenségre számos példát lehet hozni, például az Elon Musk magánrepülőjének útvonalát követő @Elonjet nevű Twitter-fiókot is sokáig ezzel a módszerrel próbálták meg korlátozni, mielőtt kitiltották a platformról.

Bár az árnyéktiltásokat évek óta dokumentálják, a jelenség megértésénél eddig csak kis mértékben vették figyelembe az elfogult mesterséges intelligencia algoritmusokat. Pedig a közösségi médiaplatformok, a legtöbb esetben ezeknek a beépített nemi előítéletekkel rendelkező algoritmusoknak a segítségével minősítik az egyes tartalmakat és korlátozzák az egyes posztokat.

A jelenséget a kutatásban részt vevők többek között két olyan fotóval tesztelték le, amiken nők és férfiak szerepeltek fehérneműben. A Microsoft eszköze a két nőt ábrázoló képet pikánsnak minősítette, míg a férfiakról készült fotót a szexuálisan nem szuggesztív kategóriába sorolta. A nőket megjelenítő képet egy órán belül nyolcan látták, míg a két férfit ábrázolót 655 alkalommal nézték meg.

photo_camera Fotó: Mickael Gresset, Amine Rock Hoovr / Unsplash

A nagy technológiai vállalatok, mint a Microsoft és az Amazon, egy kisebb összeg ellenében bármelyik vállalkozás számára kínálnak ehhez hasonló tartalommoderálási algoritmusokat. A LinkedIn szóvivője szerint ezek „a rendszerek automatizált technikák, emberi szakértői értékelések és tagi bejelentések kombinációját használják, hogy segítsenek azonosítani és eltávolítani a szakmai közösségi irányelveinket sértő tartalmakat”.

Melltartók

Az újságírók legérdekesebb kísérlete a melltartók tesztelése volt. Amikor egy férfit hosszú nadrágban és csupasz mellkassal fotóztak le, a Microsoft algoritmusa 22%-nál is alacsonyabbra saccolta annak a valószínűségét, hogy a képen pikáns tartalom látható. Amikor ugyanez a férfi felvett egy melltartót, az algoritmus a tartalmat szexuálisan szuggesztívnek érezte. Ha a fehérneműt a férfi mellé tartották, az algoritmus 99%-ban pikánsnak minősítette a fotót.

„Olyan kontextus nélküli információkkal van dolgunk, amik a melltartót alapból szexuálisan szuggesztívnak tekintik, és nem egy olyan dolognak, amit sok nő visel minden nap mint alapvető ruhadarabot” – mondta Kate Crawford, a Dél-kaliforniai Egyetem professzora, az Atlas of AI szerzője a Guardian cikkében. Más szakértők szerint ennél a jelenségnél azt is figyelembe kell venni, hogy mennyire eltérő, hogy ki mit ítél szexuálisan szuggesztívnak, mivel ez társadalmi fogalom, ami kultúránként eltérő.

Miért tűnnek ezek a rendszerek ennyire elfogultnak?

A modern mesterséges intelligenciák betanításánál a szakértők gépi tanulást alkalmaznak, azaz lehetővé teszik a számítógépek számára, hogy különböző adatokból tanuljanak. Amikor a fejlesztők a gépi tanulás mechanizmusát alkalmazzák, nem írnak explicit szabályokat, amik megmondanák a számítógépeknek, hogyan hajtsanak végre egy feladatot. Ehelyett adatokat bocsátanak a számítógépek rendelkezésére. Ennek során embereket alkalmaznak képek címkézésére, hogy a számítógépek később elemezhessék az adatokat, és megtalálják azt a mintát, ami segít az emberi döntések megismétlésében.

Margaret Mitchell, a Hugging Face nevű AI-cég vezető etikai kutatója és a Google etikus AI-kutatócsoportjának korábbi társvezetője úgy véli, az algoritmusok betanításához használt fotókat valószínűleg heteró férfiak jelölték meg, akik az edző férfiakról a fitneszre asszociálhattak, egy edző nőről készült képet viszont pikánsnak érezhettek. „Az is lehetséges, hogy ezek a minősítések azért tűnnek nemi szempontból elfogultnak az Egyesült Államokban és Európában, mert a címkézők olyan helyről származtak, ahol konzervatívabb a kultúra.”

„Ideális esetben a technológiai vállalatoknak alaposabban felül kellett volna vizsgálniuk, hogy kik címkézik az adataikat, hogy a végső adatkészletbe a nézetek sokféleségét ágyazzák be” – tette hozzá.

A nemek közötti elfogultsággal kapcsolatos ügy része annak a több mint egy évtizede tartó vitának is, ami a közösségi médiában a tartalmak moderálása körül zajlik. A gyereküket szoptató embereket ábrázoló képek, valamint a férfi mellbimbókat ábrázoló fotókra vonatkozó eltérő előírások (amik az Instagramon engedélyezettek) és a női mellbimbókra vonatkozó szabályozások (amiket el kell takarni) ugyanis régóta felháborodást váltanak ki a közösségimédia-platformok tartalommoderálási gyakorlatával kapcsolatban.

photo_camera Fotó: Victoria Struskovskaya / Unsplash

A Meta felügyelőbizottsága arra kérte a technológiai óriást, hogy tisztázza a felnőttek meztelenségére és szexuális tevékenységére vonatkozó közösségi irányelveit.

Algoritmus-rendőrség

A rúdtáncoktató Carolina Are-nak például több fotóját leszedték az Instagram-oldaláról, és pár évvel ezelőtt azt is felfedezte, hogy képei nem jelennek meg a felfedező oldalon vagy a #FemaleFitness hashtag alatt, ahol a felhasználók olyan tartalomgyártókat is felfedezhetnek, akiket nem követnek. „A képen csak nők voltak, akik éppen edzettek. Viszont ha megnézted a #MaleFitness hashtaget, akkor csupa olajozottan sportoló pasit lehetett látni. Ők valamiért nem voltak árnyéktiltva” – mondta a Guardiannek.

photo_camera Fotó: Norbert Buduczki / Unsplash

Az ilyen egyéni problémák nagyobb rendszerszintű gondokra mutatnak rá. Rengetegen próbálnak a közösségi médián keresztül működtetett vállalkozásukból megélni, és az árnyéktiltás árt az üzletüknek.

„Láthatatlannak érzem magam”

A Hugging Face vezető etikai kutatója szerint az ilyen típusú algoritmusok gyakran teremtik újra a társadalmi előítéleteket. „Ez azt jelenti, hogy a marginalizálódásra hajlamos emberek még inkább marginalizálódnak.”

„Ez reprezentációs kérdés, mivel a társadalmunk bizonyos csoportjai nincsenek megfelelően képviselve – tette hozzá. – Ez a gyakorlat olyan elképzelésekhez vezethet, hogy a nőknek jobban el kell takarniuk magukat, mint a férfiaknak, ami végül egyfajta társadalmi nyomást hoz létre számukra, ez lesz a norma, amit látnak.”

A problémát súlyosbítja az átláthatóság hiánya is. Míg néhány esetben a felhasználókat értesítették arról, hogy a képeiket letiltották, vagy korlátozták azok elérését, több posztolónak is gyakran az az érzése, hogy az Instagram más lépéseket is tett a fiókjuk ellen anélkül, hogy tudtak volna róla. „Többen is mondták, hogy nem tudtak megjelölni egy képen, vagy hiába kerestek rám, az oldalam nem jelent meg – mondta egy fotós. – Láthatatlannak érzem magam.”

„Mert lehet, hogy az is – reagált Leon Derczynski informatikus. – Azok az emberek, akik ezeket a képeket posztolják, soha nem fogják megtudni, hogy a tartalmaik el vannak nyomva, és ez mélyen problematikus. Belekényszerítik őket egy olyan hátrányos helyzetbe, amiről nem is tudnak.”