Médiapiaci Jelentés 2025 39. oldal

Online platformok

Tartalommoderálás és tényellenőrzés az online platformokon

A hétköznapi élet és a nyilvánosság egyre több terét meghódító közösségi médiaplatformok elsősorban mesterségesintelligencia- (MI) algoritmusok segítségével „szerkesztik” (pontosabban rendezik sorba) a felületükön megjelenő tartalmakat. Ezzel egyúttal korlátozzák az illegális, illetve a saját maguk alkotta szabályokba ütköző tartalmak láthatóságát (sőt a tartalmakat olykor törlik is), e tartalmak megosztóit pedig különböző szankciókkal sújtják, végső esetben akár ki is tilthatják a platformról.

A platformokon megjelenő jogszerű, de az adott platform saját szabályaiba ütköző („lawful, but awful”) tartalmak moderálásáról, a szabályok részleteiről és az azokat érvényesítő algoritmusokról és személyzetről, valamint a szankcionálási és tiltási statisztikákról egészen a 2010-es évek közepéig inkább csak anekdotikus információk álltak rendelkezésre.

Az évtized közepén a Cambridge Analytica-botrány, a brüsszeli és párizsi terrortámadások és egyéb események hatására a platformok igyekeztek átláthatóbbá tenni működésüket, statisztikákat és adatokat közölve tevékenységükről, többek között a moderálásról is.

A Facebook például az ún. Community Standards Enforcement Reportban teszi közzé a moderálással kapcsolatos adatokat: a jelentés szerint a cég 14 különböző kategóriában összesen 6,6 milliárd tartalom- és fiókkorlátozó döntést hozott 2024-ben.

Moderációs döntések, fellebbezések és a sikeres fellebbezések aránya a Facebookon 2024-ben
Forrás: Facebook Community Standards Enforcement Report*96*
Kategória Moderált tartalomegység (millió darab) Az összes moderált tartalom arányában (%) Fellebbezés (%) Sikeres fellebbezés az összes fellebbezés arányában (%)
Felnőtt meztelenség 169 2,6% 7% 26%
Bullying & zaklatás 30 0,5% 17% 17%
Gyermekek veszélyeztetése: meztelenség és fizikai abúzus 5 0,1% 10% 23%
Gyermekek veszélyeztetése: szexuális kihasználás 37 0,6% 5% 22%
Veszélyes szervezetek: szervezett gyűlölet 4 0,1% 18% 31%
Veszélyes szervezetek: terrorizmus 41 0,6% 8% 16%
Hamis fiókok 4 331 65,6% 0% nem volt fellebbezés
Gyűlöletbeszéd 27 0,4% 17% 14%
Szebályozott termékek: gyógyszerek 7 0,1% 9% 18%
Szabályozott termékek: fegyverek 8 0,1% 16% 29%
Spam 1 837 27,8% 2% 24%
Öngyilkosság és önsértés 26 0,4% 4% 13%
Erőszak és uszítás 28 0,4% 15% 20%
Erőszakos & grafikus tartalom 51 0,8% 1% 12%
Összesen 6 600 100,0% 1% 22%

A korlátozó döntések elsöprő többsége (93 százaléka) a kéretlen levél és a hamis fiók kategóriába esik, de a fennmaradó hét százalék is százmilliós nagyságrendet képvisel. A Facebook tavaly több mint 42 millió, a „gyermekek veszélyeztetéseként” azonosított tartalomegységet moderált ki.

A „bullying és zaklatás”, a „gyűlöletbeszéd” és az „erőszak és uszítás” kategóriáiban csaknem minden hatodik döntéssel szemben fellebbeztek az érintettek. Ez jóval magasabb arány, mint a legtöbb további területen, ami nem véletlen: ezek azok a kategóriák, amelyek a legmélyebben érintik a szólásszabadságot.

Az egyértelmű módon kimoderált tartalmak megítélésénél is problémásabb a közvélemény által „shadow banningnek”*97* (árnyéktiltásnak) nevezett, a platformok hivatalos szóhasználatában „terjedéslassításként” vagy „korlátozott terjesztésűként” feltüntetett kategória. Ebbe nemcsak az „enyhébb fokban szabályzatellenes” tevékenységek tartoznak bele, hanem a nagyon vitatott „dezinformáció” kategóriája is, ami egyúttal a leggyakrabban „shadow bannelt” kategória is.

A Facebook által 2024 áprilisa és 2024 szeptembere közt korlátozott tartalmak az Európai Unió területén
Forrás: Meta Regulatory and Other Transparency Reports*98*
Kategória Moderált tartalom egység (millió darab) Az összes moderált tartalom arányában (%) Fellebbezés (%) Sikeres fellebbezés az összes fellebbezés arányában (%)
Organikus korlátozott terjesztésű tartalmak  Korlátozás mennyisége (ezer darab) A tartalom aránya a teljesen belül Automatikusan korlátozott (ezer darab) Automatikusan korlátozott aránya
Felnőtt meztelenség és szexuális tevékenység 1089 4,00% 1089 100,00%
Bullying és zaklatás 311 1,20% 311 100,00%
Ellenőrzött dezinformáció 18 989 70,30% 18 978 99,90%
Gyűlöletbeszéd 206 0,80% 206 100,00%
Korlátozott áruk: drogok  385 1,40% 385 100,00%
Öngyilkosság és önsértés 44 0,20% 44 100,00%
Erőszak és uszítás 398 1,50% 398 100,00%
Erőszakos és erőszakot ábrázoló képi tartalom 5600 20,70% 5600 100,00%
Összesen  27 022 100,00% 27 010 ~100,0%

Az EU területén fél év alatt csaknem 19 millió tartalomegység terjedését lassította le a Facebookon a Meta azzal az indokkal, hogy az dezinformációt tartalmaz. A dezinformáció fogalmának azonban ‒ a nyilvánvaló eseteken kívül ‒ hatalmas szürke zónája van, így az intézkedésnek sok olyan tartalom is áldozatául esett, amelyet nem mindenki tekint dezinformációnak. A Meta alapítója és vezetője, Mark Zuckerberg is úgy nyilatkozott: megbánta, hogy az amerikai kormányzat nyomására korlátozta a Covid-járvány idején a járvány súlyosságát vagy az oltások hatásosságát vitató bejegyzéseket.

Egy több évben elvégzett, a magyar lakosságra kor, nem, iskolai végzettség és településtípus szerint reprezentatív felmérés*99* alapján a magyar Facebook-felhasználók 10-15 százalékát érte már valamilyen korlátozás.

77. ábra: Törölt bejegyzések vagy kitiltások aránya a magyar Facebook-felhasználók körében 2020-ban, 2021-ben és 2024-ben

Törölt bejegyzések vagy kitiltások aránya a magyar Facebook-felhasználók körében 2020-ban, 2021-ben és 2024-ben – forrás: Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézete
Tapasztalt vagy nem tapasztalt bejegyzéstörlést vagy kitiltást 2020 2021 2024
Tapasztalt ilyet 10% 14% 15%
Nem tapasztalt 91% 86% 85%

A 2024-es felmérés alapján az érintett felhasználók kétharmada vagy egyáltalán nem kapott tájékoztatást az okokról, vagy a kapott tájékoztatást nem érezte kielégítőnek.

78. ábra: Kapott tájékoztatást a törlés és/vagy letiltás okáról? (2020, 2021 és 2024)

Kapott tájékoztatást a törlés és/vagy letiltás okáról? (2020, 2021 és 2024) – forrás: Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézete
Kapott tájékoztatást a törlés és/vagy letiltás okáról? 2020 2021 2024
Igen, és az megfelelő volt 33% 33% 29%
Igen, de az nem volt megfelelő 21% 28% 30%
Nem kapott egyáltalán tájékoztatást 45% 35% 41%
Nincs válasz 2% 5% 1%

A Facebook 2025 elején – az amerikai elnökválasztás eredménye nyomán bekövetkezett politikai irányváltástól vélhetően nem függetlenül ‒ változásokat jelentett be a moderálási gyakorlatában. A változások között szerepel, hogy néhány korábban szigorúan szűrt témakört (elsősorban a gender és a bevándorlás témáit) a platform megengedőbben fogja kezelni. A moderálást végző MI-algoritmusokat áthangolják, és „szólásszabadság-barátabbá” teszik, azaz úgy állítják be, hogy több, korábban szabályzatellenesnek minősített, és így kimoderált tartalmat engedjenek át.

A Meta az Egyesült Államokban megválik a 2010-es évek közepe óta a dezinformációs tartalmak felderítésére és leleplezésére alkalmazott tényellenőrző szervezetektől is, mert állítása szerint azok politikailag elfogultak. Helyette a cég a Twitterről (X-ről) ismert Community Notes módszert, algoritmust és eljárást alkalmazza, melynek lényege, hogy a felhasználók által bejelentett, gyanúsnak tűnő tartalmakat egy önkéntesekből álló tényellenőrző testület minősíti. A tényellenőrzők közé csak egy próbaidőszak után lehet bekerülni, és a tartalmakhoz fűzött korlátozó megjegyzések (pl. félrevezető tartalom) csak a közösség különböző világnézetű tényellenőrzőinek konszenzusa után kerülhetnek ki a nyilvános felületre.

A fenti változtatásokon túl a jelen kézirat lezárásakor további jelek is arra utalnak, hogy kirobbanhat a digitális platformokkal kapcsolatban egy EU‒USA-szembenállás; az amerikai adminisztráció több alkalommal is jelezte, hogy fel kíván lépni a nagy amerikai technológiai cégeket fenyegető európai „túlszabályozással” szemben. Ennek részeként élesen bírálták az EU Digitális Szolgáltatásokról szóló rendeletét, főként a szólásszabadság szempontjából.

[A nyitókép forrása: Shutterstock.com/261000101 (új ablakban nyílik)]

Lábjegyzetek

  1. Meta: Community Standards Enforcement Report (Jelentés a közösségi normák érvényesítéséről – angol nyelvű tartalom, új ablakban nyílik)

  2. A shadow banning („árnyéktiltás”) a felhasználó által létrehozott tartalmak korlátozása oly módon, hogy ezt nem közlik a felhasználóval.

  3. Meta: Regulatory and Other Transparency Reports (Szabályozási és egyéb átláthatósági jelentések – angol nyelvű tartalom, új ablakban nyílik)

  4. Nemzeti Közszolgálati Egyetem: Viszonyunk az internethez, a hírforrásokhoz és a Facebookhoz – Öt év tapasztalatai a magyar lakosság körében (PDF-dokumentum, új ablakban nyílik)