Eljött az idő, amikor a te arcod is rákerülhet egy pornóvideóra

INTERNET
2018 február 04., 19:01
comments 293
photo_camera Daisy Ridley arca egy álvideón

Soha nem látott meztelen videó Emma Watsonról.

Ezzel a címmel került fel egy felvétel egy oldalra, ami hírességek ellopott képeivel foglalkozik - amiben önmagában még nincs semmi különleges. Sőt, még abban sem, hogy a videó nem igazi, történt már ilyen az internet történetében.

Ez a videó viszont csak egy volt egy különösen aggasztó új trendben, a deepfake videók között, aminek lényege nagyon leegyszerűsítve az:

eljutottunk oda, hogy teljesen valósághű álvideókat hétköznapi eszközökkel is elő lehet állítani.

A Motherboard írt nemrég Deepfake reddit felhasználóról, aki éppen ezzel foglalkozik: hírességek arcát hamisítja pornófelvételekre. Meggyőző álvideókat készített már Gal Gadot, Maisie Williams és Taylor Swift főszereplésével, és ehhez bonyolult CGI-technológia helyett egyszerű algoritmusokat, nyilvánosan elérhető képeket, videókat és egyszerű számítógépet használt.

Deep fake

Hogy a cikk, és maga Deepfake mekkorát robbant, azt jól jelzi, hogy nevéből pillanatok alatt köznév lett, és ezeket a (jellemzően pornó) álvideókat máris deepfake-nek nevezik. Külön fórumok indultak, sőt, appot is fejlesztettek a témában, ami azt ígéri, komoly számítógépes tudás nélkül is bárki készíthet hasonló videót tetszőleges szereplővel.

Az arcok kicserélése persze már lakossági használatban is pörög egy ideje, a Snapchat faceswap-funkciója nagyon népszerű volt egy időben. Ezek viszont már sokkal komolyabb technológiák. A módszer lényege nagyjából az, hogy gépi tanulás segítségével, az emberekről elérhető képek és videók százai alapján maga az algoritmus hozza létre az élethű álfelvételeket.

Illetve a lényeg az, hogy a felhasználóknak már érteni sem kell igazán semmit algoritmusokról és neurális hálózatokról:

 elég annyit tudni, hogy milyen felvételre kinek a fejét akarják ráhegeszteni.

A bosszúpornó új dimenziója

Hogy mit okozott ez? Őrületet. Megteltek a fórumok olyan felhasználókkal, akik haverjaikről, ismerőseikről, ellenségeikről, barátnőikről vagy volt barátnőikről próbálnak álpornót készíteni. A hírességekről szóló álfelvételek mellett ezzel ugyanis a bosszúpornónak is egészen új dimenziói nyíltak meg.

photo_camera Ariana Grande álpornója

Az álfelvételek minősége egyelőre még erősen ingadozó, és jelentős részük nem elég jó, hogy valóban megtévessze a nézőket. De azért már bőven vannak olyanok, amik hihetők, és a Motherboardnak nyilatkozó Deborah Jones, a University of Virginia professzora szerint pillanatok alatt el fogunk jutni oda, hogy nem lehet majd megkülönböztetni a valódi és a hamis videókat.

A héten aztán elkezdték letörölni a deepfake videókat a Gfycat és a Reddit oldalakról. Ami legfeljebb csak pillanatnyi megoldás (például mert rögtön elkezdték átköltöztetni őket orosz fórumokra), és a probléma hosszú ideig velünk marad majd.

Társadalomformáló változás jöhet

A Motherboard arról ír, hogy ennek a technológiának a tömeges elterjedése társadalomformáló hatású lehet, és alapvetően változtathatja meg, amit a médiáról gondolunk. Az álhírek miatt egyébként is folyamatosan csökken a médiával szembeni bizalom, de ha eljutunk oda, hogy már nem hihetünk a szemünknek sem, sokkal súlyosabb lesz a helyzet.

link Forrás

Hiszen a technológiát természetesen nemcsak pornóhoz, hanem politikai, vagy háborús hírek hamisításához is lehet majd alkalmazni. És hamis videók ugyan eddig is voltak, de egyáltalán nem mindegy, milyen bonyolult azokat elkészíteni (vagy megrendezni), és mennyire tömeges a használatuk. A University of Washingtonon nemrég meggyőző ál-Obama beszédet hoztak össsze, és ehhez sem kellett már valami óriási CGI-teljesítmény.

A Facebook egyik igazgatója, Joaquin Quinonero Candela, az Engadget tudósítása szerint azt mondta, a legjobb védekezés is a mesterséges intelligencia lehet, ami ki tudja szűrni az álvideókat. De azt ő is elismeri, hogy a probléma belátható időn belül nem fog eltűnni, mert ahogy fejlődik az álvideók elleni védekezés, úgy fejlődnek maguk az álvideók is. És ha azt nézzük, hogy az álhír-problémát mennyire sikerült kezelnie a Facebooknak, akkor nem tűnnek igazán jónak az esélyek az álvideókkal szemben.

Kommentek

Közösségünk messze túlnyomó többségének jószándéka és minden moderációs igyekezetünk ellenére cikkeink alatt időről-időre a kollégáinkat durván sértő, bántó megjegyzések jelentek meg.
Hosszas mérlegelés és a lehetőségeink alapos vizsgálata után úgy döntöttünk, hogy a jövőben a közösségépítés más útjait támogatjuk, és a cikkek alatti kommentelés lehetőségét megszüntetjük. Közösség és Belső kör csomaggal rendelkező előfizetőinket továbbra is várjuk zárt Facebook csoportunkba, a Közértbe, ahol hozzászólhatnak a cikkeinkhez, és kérdezhetnek a szerzőinktől is.