dezinformáció

Öt like ért egy mérges arcot: Facebook-algoritmusok miatt is egyre szélsőségesebb a politika

Több ezer belső üzenetet szivárogtatott ki egy volt Facebook-alkalmazott, amelyekből kiderült, a Facebook vezetését figyelmeztették, hogy jelenlegi üzleti modelljük a gyűlöletbeszéd és a politikai radikalizáció felerősödésével jár, de az alkalmazottak panaszait nagyrészt figyelmen kívül hagyták. A kiszivárgott iratok alapján Zuckerbergék egyebek mellett  mentességet adtak egyes politikusoknak a felhasználói szabályzat alól, és olyan algoritmust vezettek be, amelyben egy „mérges” reakció öt „kedvelést” ér – hiszen ha feldühödünk, tovább maradunk az oldalon.

A magyar közéletben a Facebookkal szemben a legtöbbször a liberális elfogultság vádja kerül elő, a napokban nyilvánosságra került belső dokumentumok azonban egészen más képet mutatnak a Mark Zuckerberg-féle cégvezetésről. A Frances Haugen által kiszivárogtatott üzenetváltások alapján a Facebookkal nem a jobboldali vélemények cenzúrázása a fő probléma (sőt, több esetben éppen jobboldali politikusokat és hírforrásokat részesítettek kivételes elbánásban), hanem az, hogy olyan algoritmusokkal működik, amelyek országokon és oldalakon átívelően a politikai szakadékok mélyítését és a radikalizációt támogatják.

Bár erre a problémára éveken át panaszkodtak a vállalat alkalmazottjai,

a cégvezetés csak azokban az esetekben volt hajlandó hatékonyan fellépni az álhírek és gyűlöletbeszéd ellen, ha az nem fenyegette az oldal mérőszámait.

A kiszivárogtatott belső levelezések szerint több alkalmazott is úgy véli, a Facebook ezen döntései több országban is közvetlenül felelőssé tehetők a politikai erőszak elfajulásáért. Az amerikai Capitolium ostrománál, az etiópiai összecsapásoknál és az indiai muszlimellenes pogromoknál is közös szál volt a közösségi médiában folyó radikalizáció.

A Kongresszusig jutott a szivárogtatás

Frances Haugen idén májusig volt a Facebook munkatársa, az oldal „etikai osztályának” termékmenedzsereként alaposan rálátott arra, hogyan kezeli a vállalati vezetés azt a kérdést, hogy mit lehet tenni az ártalmas tartalmakkal. Haugen, miután úgy érezte, panaszai süket fülekre találnak, felvette a kapcsolatot a Whistleblower Aid nevű, szivárogtatókat védő szervezettel, majd szeptember óta több ezer belső dokumentumot osztott meg a Wall Street Journal és más amerikai lapok szerkesztőségével. Októberben Haugen az amerikai Kongresszus előtt is beszélt a problémákról, és később más, névtelenül nyilatkozó szivárogtatók is csatlakoztak hozzá.

Nárcizmus és gyengülő Én-funkciók – hogyan befolyásol a közösségi média és az internet?

TARI ANNAMÁRIA pszichoterapeuta, klinikai szakpszichológus szerint a közösségi média szabályozása egyfelől jogi feladat, másfelől azonban hiába várunk tőle érdemi változást a felhasználók oktatása, készségfejlesztése nélkül. Az állami beavatkozás mellett tehát szükség van a civil szektor szocializációs és edukációs képességére is.

Az eddigi talán legnagyobb szivárogtatásra az elmúlt héten került sor, a napokban számos amerikai médium csaknem egyszerre osztott meg részleteket a Haugentől kapott iratokból, amelyek elsősorban a Facebook politikára gyakorolt hatásáról festenek riasztó képet. A híradásokról ezen az oldalon található egy folyamatosan frissülő lista.

Radikalizáló algoritmusok

2020. november 4-én, még az amerikai elnökválasztás hivatalos eredményeinek érkezése előtt, Donald Trump kampányának egyik aktivistája létrehozott egy Facebook-csoportot Stop the Steal címmel. A csoport leírásában azt írta: a demokraták csalással lopták el Trump választási győzelmét, és harcra szólította fel a tagokat a megválasztott elnök, Joe Biden beiktatása ellen. A csoport tagsága megdöbbentő ütemben bővült, egy időszakban 10 másodpercenként 100 új tag lépett be – a Stop the Steal, ami a későbbi, 5 halálos áldozattal járó washingtoni Capitolium-ostrom egyik kiindulópontja lett, a Facebook történetének egyik leggyorsabban növekvő csoportja volt.

A csoport növekedése – írja az Atlantic a kiszivárgott dokumentumok alapján – hamar felkeltette a Facebook adminisztrátorianak figyelmét, hiszen az az álhírek és az erőszakra történő uszítás egyik melegágya volt.

„Nem csak, hogy nem teszünk semmit a veszélyes választási álhírek ellen, még segítjük is a terjedésüket. Miért?”

– idézi a lap az egyik Facebook-alkalmazott kifakadását egy belső levelezésben.

Nem véletlen, hogy az alkalmazott úgy fogalmazott, hogy az oldal vezetése aktívan segíti a dezinformáció terjedését. Felületesen nézve úgy tűnhet, hogy a Facebook egy semleges szereplő, aki csak a felületet biztosítja a felhasználói tartalmaknak, ez azonban nem igaz, hiszen azt, hogy mit lát egy-egy felhasználó a saját idővonalán görgetve, az oldal algoritmusai válogatják ki. És az, hogy milyen logikával válogatnak a tartalmak között az algoritmusok, a cégvezetők tudatos döntéseinek eredménye.

És most legyél mérges!

Amióta a Facebook falhasználóinak száma elért egy plafont (mostanra közel 3 milliárd aktív felhasználóval büszkélkedhet az oldal), az algoritmusokat arra kalibrálták, hogy a lehető legtöbb ideig tartsák az oldalon a felhasználókat. A Facebookkal kapcsolatban régóta fennálló kritika, hogy mivel az algoritmusok olyan híreket dobnak fel a felhasználóknak, amiket korábban kedvelt, politikai véleménybuborékokba zárja az embereket, akik egyre kevésbé lesznek nyitottak eltérő véleményekre.

A Washington Post által idézett egyik alkalmazott szerint ezt tetézte, hogy az elmúlt 4 évben az MSI (Meaningful Social Interactions, azaz Tényleges Szociális Interakciók) nevű mérőszám lett Mark Zuckerberg vesszőparipája:

a Facebook látogatottsági mutatói szempontjából nem az a legjobb, ha az ember csak passzívan nézegeti a posztokat, vagy továbbkattint a hivatkozásokra, hanem ha magán a közösségi oldalon aktívan „interakcióba” is lép a tartalmakkal, például kommentál vagy megoszt. Emiatt az algoritmust az elmúlt években úgy állították be, hogy a nagyobb MSI-pontszámú posztokat részesítse előnyben. Ezt lovagolták meg például az amerikai választási összeesküvés-elméletek, és mint kiderült, általában a szélsőséges politikai tartalmak kiválóan teljesítenek ezen a versenypályán.

2019 novemberében, a Facebook-iratok tanúsága szerint Frances Haugen több kollégája is bírálta, hogy az algoritmus minden másnál előbbre sorolja azokat a posztokat, amelyekre több „mérges arc” reakció érkezik. A Washington Post szerint

az algoritmus már 2017 óta ötször értékesebbnek tekinti a dühös reakciókat a sima kedveléseknél.

Ugyanis felhasználók a dühítő tartalmakhoz nagyobb eséllyel szóltak hozzá, és nagyobb arányban osztották meg ismerőseikkel. Szintén észrevették, hogy az ilyen bejegyzések rendkívül nagy része sérti a felhasználói feltételeket, például gyűlöletbeszédet vagy politikai hergelésre használt álhírt tartalmaz – az algoritmusok ezeket értékes tartalomként értelmezték, és segítették a terjedésüket.

A dühös reakciókkal kapcsolatos algoritmust végül tavaly szeptemberben megszüntették, ennek hatására rövidesen csökkent is a gyűlöletbeszéd a platformon. Más esetekben azonban az etikai osztály panaszait figyelmen kívül hagyták, a javasolt reformokat Haugen szivárogtatásai alapján sok esetben Zuckerberg személyes döntéssel vétózta meg.

Nem látszik a liberális elfogultság

Tavaly júniusban például többen is jelezték, hogy a Facebook mobilalkalmazásában található, elvileg a legmegbízhatóbb médiumok híreiből válogató hírszemle több olyan hírforrásból is merít, amelyek sértik a Facebook hírekkel kapcsolatban vállalt elveit. Ezek általában olyan szélsőjobboldai hírportálok voltak (mint a például a Breitbart): az adminisztrátoroknál különösen a Black Lives Matter-tüntetésekkel kapcsolatos, rasszista hangulatkeltésre alkalmas álhírek verték ki a biztosítékot. Bár a Facebook egyik szóvivője korábban úgy nyilatkozott, hogy a Breibart nem sértette meg a felhasználói szabályzatot, a kiszivárogtatott és a Washington Postban idézett belső üzenetváltások szerint valójában Zuckerbergék politikai döntést hoztak attól tartva, hogy a Breibart eltávolítása miatt támadások érhetik őket a jobboldalról, inkább félrenéztek.

„Attól tartunk, hogy politikai támadásoknak tesszük ki magunkat, ha a szabályaink betartatásakor nem teszünk kivételeket”

– áll az egyik belső üzenetben.

Kivételezés, a Facebook-iratok szerint, nem csak hírportálok esetében történt. Az etikai osztály egyik üzenete egy több mint 100 ezer fős fehérlistára utal: ezen politikusok és pártok oldalai szerepeltek, akiket akkor sem tiltottak le, ha megsértették a dezinformációra vagy gyűlöletbeszédre vonatkozó felhasználói feltételeket.

„A politikai fehérlista megsérti a cég több alapelvét, hiszen értékesebbnek ítéli a politikusok hangját az átlagemberekénél”

– olvasható egy belső jelentésben, amit Haugen a Kongresszus vizsgálóbizottsága előtt is bemutatott. A jelentés felhívja a figyelmet arra is, hogy a Facebook több belső kutatása rámutatott: a politikusok és pártok az álhírek legnagyobb terjesztői közé tartoznak.

Az eddig nyilvánosságra került iratokból nem derül ki, mely politikusok szerepelnek ezen a fehérlistán. A bemutatott belső üzenetváltások azonban leginkább arra utalnak, hogy a közösségi oldal magasrangú vezetői elsősorban a jobboldali politikusokkal szemben voltak kivételesen elnézők, amikor azok felhasználói elveket sértettek, legalábbis beosztottjaik több alkalommal panaszkodtak erre.

Százmilliókat éget el a Facebookon a magyar politika – teljesen értelmetlenül

Nincs olyan magyar fészbukozó, akinek a hírfolyamában ne dobná föl újra és újra valamelyik politikus hirdetését a közösségi oldal. Az Átlátszó nyomába eredt a költéseknek. Mennyit fordítanak a politikusok személyes brandjük építésére? Ki a legnagyobb pénzköltő?

Haugen szerint a cégvezetés ilyen esetekben jellemzően arra hivatkozott, hogy el akarják kerülni a politikai elfogultság és cenzúra vádját, ami előjönne akkor, ha következetesen alkalmaznák a szabályokat. A helyzetet jól illusztrálja az az eset, amit a Wall Street Journal idézett: 2016-ban a Facebook bevezetett egy módosítást az algoritmusban, amely azt biztosította, hogy ha egy hírt csak a főcím alapján osztunk meg, de a cikkre nem is kattintottunk, akkor a megosztásunkat kevesebb ismerősünk láthassa.

Az elképzelés célja csupán az volt, hogy az emberek kevesebb szenzációhajhász hírt osszanak meg olvasás nélkül. 2019-ben azonban  Facebook elkészíttetett egy belső elemzést, ami azt mutatta: a mechanizmus miatt a mainstream liberális lapokhoz képest nagyobb mértékben csökkent a vonalasan jobboldali-konzervatív lapok elérése. Tartva a kritikáktól, a cég hamarosan megszüntette ezt az algoritmust.

Állami cenzúráért cserébe maradhattak Vietnámban

Bár Mark Zuckerberg nyilvános megszólalásaiban rendre a Facebook politikai függetlensége és a szólásszabadság mellett áll ki, a kiszivárgott iratok szerint volt rá példa, hogy egy piac megőrzése érdekében az állami cenzúrával is együttműködött. Tavaly, írja a Washington Post, a vietnámi kormány felszólította a Facebookot a kormányellenesnek ítélt tartalmak törlésére, azzal fenyegetőzve, hogy ha nem tesznek így, blokkolják az oldalt az országban. A lap szerint Zuckerberg személyesen döntött arról, hogy beleegyeznek a pártállam kérésébe, és elérhetetlenné tesznek számos ellenzéki profilt és oldalt. A Facebook szóvivője a Washington Postnak küldött válaszában nem cáfolta a hírt, csak azt írta, kénytelenek voltak így tenni, mert

csak így tudták biztosítani, hogy „a szolgáltatásunk elérhető marad annak a több millió embernek, akik nap mint nap erre hagyatkoznak”.

Azt már csak a Post szerzője tette hozzá, hogy Vietnám a Facebook egyik legnagyobb ázsiai piaca, amely mintegy 1 milliárd dolláros bevételt termel a vállalatnak.

A vietnámi cenzúra ugyanakkor inkább kivétel, mint szabály: a Facebook-iratok szerint más fejlődő országokban inkább épp az a probléma, hogy az ottani nyelveken gyakorlatilag senki sem moderálja a Facebookot. Így viszont akadálytalanul – sőt, az algoritmusoknak köszönhetően még hátszéllel is – terjedhetnek az álhírek és a gyűlöletkeltő tartalmak, sokszor tragikus következményekkel.

Ez a legnagyobb piac, de alig moderálják

A helyzetet jól mutatja az Associated Press két indiai munkatársának jelentése:

India ma messze a Facebook legnagyobb piaca, az ázsiai országban 340 millió felhasználói fiókot regisztráltak, több mint másfélszer annyit, mint az Egyesült Államokban.

Ennek ellenére az itt közzétett tartalmak moderációját nagyrészt elhanyagolták, amit jól mutat, hogy a moderációt végző mesterséges intelligenciát India 22 hivatalos nyelvéből csak 5 megértésére programozták be.

2020 februárjában Narendra Modi miniszterelnök pártjának egyik politikusa videófelhívást tett közzé, amelyben az akkor épp Új-Delhiben tüntető muszlimok elleni erőszakra hívott fel. A felhasználói szabályzatot és a törvényeket is nyilvánvalóan sértő felvételt a Facebook moderátorai csak azután távolították el, hogy azt már több ezren megosztották. A felhívást követően városszerte zavargások robbantak ki, amelyek következtében 53-an életüket vesztették, többségükben muszlimok. Áprilisban szintén a közösségi oldalon jutottak el tömegekhez azok az álhírek, hogy a koronavírust az indiai muszlimok szándékosan terjesztik. Az ilyen tartalmak és a „koronadzsihád”-hashtag terjedése ellen több napig nem lépett fel a Facebook. Eközben a rémhír politikusokhoz és rendőri vezetőkhöz is eljutott, és országszerte számos, vírusterjesztéssel vádolt embert megtámadtak, másokat bebörtönöztek.

Az AP idézett egy belső tanulmányt, amit egy indiai Facebook-alkalmazott készített azért, hogy bemutassa, milyen tartalmakat ajánl az oldal egy új felhasználónak.

A 2019-es kísérlet során az illető regisztrált egy fiókot, majd három hétig csak azokat az oldalakat és csoportokat követte, amelyeket a Facebook algoritmusai ajánlottak fel. Mint írta, az oldalát hamarosan elárasztotta a nacionalizmus által fűtött gyűlöletbeszéd, beleértve sokszor az erőszakra való uszítást is.

A kísérlet végére az algoritmus már egy olyan fotót tartalmazó posztot ajánlott, amin egy férfi egy pakisztáni zászlóval letakart holttest mellett pózolt, a halott levágott fejét tartva.

Közpénzből osztotta az oroszbarát és fideszes mémeket egy facebookos propagandaoldal

A 208 ezres táborral bíró Patrióta Európa Mozgalom Facebook-oldal hetente gyakran több száz, köztük a Fideszt támogató képet oszt meg a közösségi szájton. Az oldal működtetésére egy Fidesz-közeli egyesület 2019-ben közpénzből származó 5,8 millió forintot kapott. A pénzt csavarosan, egy alapítványon keresztül küldték, de a szálak Rogán Antalhoz vezetnek.

A Wall Street Journal idéz egy belső levelezést, ahol egy a kormányhoz közel álló, erősen nacionalista hindu politikus letiltásáról vitatkoztak az adminisztrátorok. Többen úgy gondolták, a politikus számos uszító posztja kitiltást kellene, hogy érjen, ám az oldal régiós vezetője azt mondta, egy ilyen lépés veszélyeztetné a Facebook üzleti kilátásait Indiában. A belső levelezésben több alkalmazott kifogásolta azt is, hogy míg más esetekben az oldal döntéshozói hajlandók volt cenzúrázni szélsőségesnek ítélt indiai oldalakat, hirtelen elnézővé váltak, amikor a kormányhoz közel álló hindu nacionalistákról kellett dönteni.

A harmadik világban a Facebook is sokkal durvább

Ennél is súlyosabb volt a helyzet Etiópiában: a CNN-nel megosztott belső jelentés az ott folyó, eddig 52 ezer ember halálát okozó tigréi polgárháborús konfliktus hátterét vizsgálta, és arra jutott, hogy a harcok megkezdése előtt különböző fegyveres csoportok akadálytalanul használták a platformot a kisebbségek elleni propaganda terjesztésére. Köztük volt például a Fano nevű milícia, amely idén az ENSZ és az Amnesty International jelentései szerint számos háborús bűncselekményért tehető felelőssé.

Frances Haugen a CNN-nek azt mondta, az egyik fő oka, amiért kiszivárogtatta a belső iratokat, az volt, hogy látta, „mennyire rosszul kezeli a Facebook az olyan országokat, mint Etiópia”, és hogy a jelenlegi algoritmusok hozzájárulnak az etnikai erőszakhoz.

„A Facebook egy vad változata póráz nélkül kóborol a világ nagy részében. Az Egyesült Államokban még viszonylag elfogadhatóan működtetik, de a legtöbb országban semmilyen biztonsági intézkedést nem alkalmaznak. Őszintén úgy gondolom, hogy rengeteg élet van veszélyben”

– mondta.

A Facebook a szivárogtatók állításait eddig nem cáfolta, csak azt hangsúlyozta, hogy fellép vagy már fellépett a jelzett problémák ellen. Etiópiával kapcsolatban például a CNN-nek úgy nyilatkozott az oldal szóvivője, hogy a közelmúltban helyi moderátorokat vettek fel, akik beszélik az ország legnagyobb nyelveit, emellett partneri együttműködést kezdtek helyi és nemzetközi szakértőkkel.

Csakhogy a moderáció eredményessége – és az oldal hivatalos számainak hitelessége – megkérdőjelezhető. Tavaly Mark Zuckerberg az amerikai kongresszus vizsgálóbizottsága előtt azt vallotta, hogy a Facebook automatikus moderációja még azelőtt eltávolítja a gyűlöletbeszédet tartalmazó bejegyzések 94 százalékát, hogy azokat bárki jelentette volna. Azonban az oldal belső jelentései ezt az arányt inkább 5 százalék körülire teszik.

Zubor Zalán

Címlapkép: twitter.com/meme_ec

Megosztás