Óriási felháborodást váltott ki szakmai körökben egy friss tanulmány, amit a Facebook kutatói tettek közzé a héten az egyik legfontosabb amerikai tudományos folyóiratban, a Science-ben. A cég házi tudósai a cikkben azt vizsgálják, milyen módon szembesülnek a felhasználók a különböző politikai-ideológiai töltetű hírekkel a Facebookon, és arra a következtetésre jutnak, hogy a facebookozók egyéni döntései inkább korlátozzák a hozzáférést az saját nézeteikkel nem egyező hírekhez és véleményekhez, mint a Facebook saját, titkos algoritmusa. Ami szintén eldugja a szerinte nem megfelelő híreket.
Magyarul a Facebook amiatt mosakszik, hogy a felhasználói maguktól is azt lájkolnák, amit az algoritmus eléjük rak.
És hogy mit rak eléjük az algoritmus? Sokan még mindig azt hiszik, hogy ha a Facebookon a Hírfolyamot (News Feed) a Legfrissebb eseményekre (Most recent) állítják, akkor minden posztot látnak, pedig a Facebook könyörtelenül szűri a híreket, ráadásul politikai-ideológiai szempontok alapján: liberálisoknak például a liberális Huffington Post híreit, konzervatívoknak a konzervatív Fox News híreit mutatja.
És ha egy liberálisként azonosított felhasználó hírfolyamába neadjisten konzervatív lap híre kerülne (ezt nevezik szaknyelven cross-cutting, keresztbe vágó hírnek), azt a Facebook algoritmusa automatikusan eltávolítja. Azon az alapon, hogy azt egy liberális úgysem akarja látni.
A gyakorlatot mosdató tanulmányt ízekre szedő kutatók, köztük a Michigani Egyetem tanára, Christian Sandvig szerint viszont a Facebook azzal, hogy a felhasználók pártállásához, politikai és ideológiai nézeteihez igazítva jeleníti meg a híreket, ha csak kis mértékben is, de hozzájárul a már eleve példátlan mértékben megosztott társadalom további polarizációjához, ami a szociológusok, politológusok csaknem egyöntetű véleménye szerint
a demokrácia romlásához vezet.
A demokrácia alapja ugyanis, hogy az emberek mindenféle véleményt megismerhessenek, és azok ismeretében alakítsák ki a sajátjukat. Ha nem jutnak hozzá az ellenvéleményhez, az komoly társadalmi problémákhoz vezethet, és persze vezet is.
Az USA-ban az elmúlt két évben egészen drámai méreteket öltött a politikai polarizáció: a Pew kutatóintézet egy éven át végzett tavalyi megafelmérése szerint a liberálisok minden eddiginél liberálisabbak, a konzervatívok pedig tovább konzervatívulnak, és abban szinte az összes szociológus egyetért, hogy a társadalom ilyesfajta megosztottsága nem tesz jót a demokratikus folyamatoknak. Nálunk is hasonló a helyzet: különböző hazai kutatások szerint Magyarország 2010-ben 22 európai ország közül politikai értelemben a negyedik legpolarizáltabb ország volt.
A Facebook elemi gazdasági érdeke, hogy olyan reklámbarát kommunikációs felületet alakítson ki, ami a boldog egyetértést, lájkolgatást bátorítja, és minden erejével igyekszik megakadályozni az összetűzést, a vitát. Csakhogy a Facebook nem egy weboldal a sok közül, hanem egy havonta másfél milliárd ember által látogatott univerzális intézmény, egyre többeknek az első számú hírforrás, sőt a Fülöp-szigeteken meg Mianmarban azt hiszik, hogy a Facebook maga az internet. Egyáltalán nem mindegy, mit jelenít meg, és egyáltalán nem mindegy, hogyan magyarázza azt, amit csinál.
„Feltehető, hogy a dohányipar annak idején egy olyan tanulmányt pénzelt, amely szerint a dohányzás kevésbé veszélyes a szénbányászatnál. Csakhogy itt egy olyan tanulmányról van szó, amiben szénbányászok dohányoznak. Valószínűleg a szénbányában” – írja Sandvik a arról, hogyan mossák össze a Facebook kutatói a felhasználók preferenciáit a cég által erőltetett hírválogató algoritmus működésével.
Az írás konklúziójának érvényességét erősen megkérdőjelezi, hogy a házi tudósok egészen elképesztő mintavételezési technikával dolgoztak: azt, hogy ki számít liberálisnak és ki konzervatívnak, annak alapján határozták meg, hogy ki minek vallja magát az önkéntesen kitölthető mezőben, ahol a Facebook a felhasználók politikai nézeteiről érdeklődik.
Mint arra Eszter Hargittai, a Northwestern Egyetem szociológusa felhívja a figyelmet, egy kutatási minta kiválasztásánál mindennél fontosabb, hogy a mintavétel módszerének ne legyen köze a vizsgálat tárgyához, vagyis alap, hogy ha az emberek politikai nézeteit akarjuk vizsgálni, a világért se az általuk vallott politikai nézetek alapján válogassuk össze őket, mert úgy az egész nem ér semmit.
Ehhez képest a facebookos tudósok az önbevallásokat vették alapul, amit a felhasználóknak eleve mindössze 9 százaléka tölt ki, ráadásul a szabad szavas öndefiníciók fele értékelhetetlen, úgyhogy a minta eleve torz, a tanulmány pedig legfeljebb a facebookozók 4 százalékára vonatkozik.
És ami a legijesztőbb: a Science által közölt cikk egy olyan hírosztályozó algoritmus hatásairól értekezik, aminek egyetlen betűjét sem lehet megismerni, merthogy ugye titkos. Úgy meg mindenki azt beszél, amit akar.
Kommentek
Közösségünk messze túlnyomó többségének jószándéka és minden moderációs igyekezetünk ellenére cikkeink alatt időről-időre a kollégáinkat durván sértő, bántó megjegyzések jelentek meg.
Hosszas mérlegelés és a lehetőségeink alapos vizsgálata után úgy döntöttünk, hogy a jövőben a közösségépítés más útjait támogatjuk, és a cikkek alatti kommentelés lehetőségét megszüntetjük. Közösség és Belső kör csomaggal rendelkező előfizetőinket továbbra is várjuk zárt Facebook csoportunkba, a Közértbe, ahol hozzászólhatnak a cikkeinkhez, és kérdezhetnek a szerzőinktől is.