Médiapiaci Jelentés 2025 39. oldal
Online platformok

Tartalommoderálás és tényellenőrzés az online platformokon
A hétköznapi élet és a nyilvánosság egyre több terét meghódító közösségi médiaplatformok elsősorban mesterségesintelligencia- (MI) algoritmusok segítségével „szerkesztik” (pontosabban rendezik sorba) a felületükön megjelenő tartalmakat. Ezzel egyúttal korlátozzák az illegális, illetve a saját maguk alkotta szabályokba ütköző tartalmak láthatóságát (sőt a tartalmakat olykor törlik is), e tartalmak megosztóit pedig különböző szankciókkal sújtják, végső esetben akár ki is tilthatják a platformról.
A platformokon megjelenő jogszerű, de az adott platform saját szabályaiba ütköző („lawful, but awful”) tartalmak moderálásáról, a szabályok részleteiről és az azokat érvényesítő algoritmusokról és személyzetről, valamint a szankcionálási és tiltási statisztikákról egészen a 2010-es évek közepéig inkább csak anekdotikus információk álltak rendelkezésre.
Az évtized közepén a Cambridge Analytica-botrány, a brüsszeli és párizsi terrortámadások és egyéb események hatására a platformok igyekeztek átláthatóbbá tenni működésüket, statisztikákat és adatokat közölve tevékenységükről, többek között a moderálásról is.
A Facebook például az ún. Community Standards Enforcement Reportban teszi közzé a moderálással kapcsolatos adatokat: a jelentés szerint a cég 14 különböző kategóriában összesen 6,6 milliárd tartalom- és fiókkorlátozó döntést hozott 2024-ben.
Kategória | Moderált tartalomegység (millió darab) | Az összes moderált tartalom arányában (%) | Fellebbezés (%) | Sikeres fellebbezés az összes fellebbezés arányában (%) |
---|---|---|---|---|
Felnőtt meztelenség | 169 | 2,6% | 7% | 26% |
Bullying & zaklatás | 30 | 0,5% | 17% | 17% |
Gyermekek veszélyeztetése: meztelenség és fizikai abúzus | 5 | 0,1% | 10% | 23% |
Gyermekek veszélyeztetése: szexuális kihasználás | 37 | 0,6% | 5% | 22% |
Veszélyes szervezetek: szervezett gyűlölet | 4 | 0,1% | 18% | 31% |
Veszélyes szervezetek: terrorizmus | 41 | 0,6% | 8% | 16% |
Hamis fiókok | 4 331 | 65,6% | 0% | nem volt fellebbezés |
Gyűlöletbeszéd | 27 | 0,4% | 17% | 14% |
Szebályozott termékek: gyógyszerek | 7 | 0,1% | 9% | 18% |
Szabályozott termékek: fegyverek | 8 | 0,1% | 16% | 29% |
Spam | 1 837 | 27,8% | 2% | 24% |
Öngyilkosság és önsértés | 26 | 0,4% | 4% | 13% |
Erőszak és uszítás | 28 | 0,4% | 15% | 20% |
Erőszakos & grafikus tartalom | 51 | 0,8% | 1% | 12% |
Összesen | 6 600 | 100,0% | 1% | 22% |
A korlátozó döntések elsöprő többsége (93 százaléka) a kéretlen levél és a hamis fiók kategóriába esik, de a fennmaradó hét százalék is százmilliós nagyságrendet képvisel. A Facebook tavaly több mint 42 millió, a „gyermekek veszélyeztetéseként” azonosított tartalomegységet moderált ki.
A „bullying és zaklatás”, a „gyűlöletbeszéd” és az „erőszak és uszítás” kategóriáiban csaknem minden hatodik döntéssel szemben fellebbeztek az érintettek. Ez jóval magasabb arány, mint a legtöbb további területen, ami nem véletlen: ezek azok a kategóriák, amelyek a legmélyebben érintik a szólásszabadságot.
Az egyértelmű módon kimoderált tartalmak megítélésénél is problémásabb a közvélemény által „shadow banningnek”*97* (árnyéktiltásnak) nevezett, a platformok hivatalos szóhasználatában „terjedéslassításként” vagy „korlátozott terjesztésűként” feltüntetett kategória. Ebbe nemcsak az „enyhébb fokban szabályzatellenes” tevékenységek tartoznak bele, hanem a nagyon vitatott „dezinformáció” kategóriája is, ami egyúttal a leggyakrabban „shadow bannelt” kategória is.
Kategória | Moderált tartalom egység (millió darab) | Az összes moderált tartalom arányában (%) | Fellebbezés (%) | Sikeres fellebbezés az összes fellebbezés arányában (%) |
---|---|---|---|---|
Organikus korlátozott terjesztésű tartalmak | Korlátozás mennyisége (ezer darab) | A tartalom aránya a teljesen belül | Automatikusan korlátozott (ezer darab) | Automatikusan korlátozott aránya |
Felnőtt meztelenség és szexuális tevékenység | 1089 | 4,00% | 1089 | 100,00% |
Bullying és zaklatás | 311 | 1,20% | 311 | 100,00% |
Ellenőrzött dezinformáció | 18 989 | 70,30% | 18 978 | 99,90% |
Gyűlöletbeszéd | 206 | 0,80% | 206 | 100,00% |
Korlátozott áruk: drogok | 385 | 1,40% | 385 | 100,00% |
Öngyilkosság és önsértés | 44 | 0,20% | 44 | 100,00% |
Erőszak és uszítás | 398 | 1,50% | 398 | 100,00% |
Erőszakos és erőszakot ábrázoló képi tartalom | 5600 | 20,70% | 5600 | 100,00% |
Összesen | 27 022 | 100,00% | 27 010 | ~100,0% |
Az EU területén fél év alatt csaknem 19 millió tartalomegység terjedését lassította le a Facebookon a Meta azzal az indokkal, hogy az dezinformációt tartalmaz. A dezinformáció fogalmának azonban ‒ a nyilvánvaló eseteken kívül ‒ hatalmas szürke zónája van, így az intézkedésnek sok olyan tartalom is áldozatául esett, amelyet nem mindenki tekint dezinformációnak. A Meta alapítója és vezetője, Mark Zuckerberg is úgy nyilatkozott: megbánta, hogy az amerikai kormányzat nyomására korlátozta a Covid-járvány idején a járvány súlyosságát vagy az oltások hatásosságát vitató bejegyzéseket.
Egy több évben elvégzett, a magyar lakosságra kor, nem, iskolai végzettség és településtípus szerint reprezentatív felmérés*99* alapján a magyar Facebook-felhasználók 10-15 százalékát érte már valamilyen korlátozás.
77. ábra: Törölt bejegyzések vagy kitiltások aránya a magyar Facebook-felhasználók körében 2020-ban, 2021-ben és 2024-ben
Tapasztalt vagy nem tapasztalt bejegyzéstörlést vagy kitiltást | 2020 | 2021 | 2024 |
---|---|---|---|
Tapasztalt ilyet | 10% | 14% | 15% |
Nem tapasztalt | 91% | 86% | 85% |
A 2024-es felmérés alapján az érintett felhasználók kétharmada vagy egyáltalán nem kapott tájékoztatást az okokról, vagy a kapott tájékoztatást nem érezte kielégítőnek.
78. ábra: Kapott tájékoztatást a törlés és/vagy letiltás okáról? (2020, 2021 és 2024)
Kapott tájékoztatást a törlés és/vagy letiltás okáról? | 2020 | 2021 | 2024 |
---|---|---|---|
Igen, és az megfelelő volt | 33% | 33% | 29% |
Igen, de az nem volt megfelelő | 21% | 28% | 30% |
Nem kapott egyáltalán tájékoztatást | 45% | 35% | 41% |
Nincs válasz | 2% | 5% | 1% |
A Facebook 2025 elején – az amerikai elnökválasztás eredménye nyomán bekövetkezett politikai irányváltástól vélhetően nem függetlenül ‒ változásokat jelentett be a moderálási gyakorlatában. A változások között szerepel, hogy néhány korábban szigorúan szűrt témakört (elsősorban a gender és a bevándorlás témáit) a platform megengedőbben fogja kezelni. A moderálást végző MI-algoritmusokat áthangolják, és „szólásszabadság-barátabbá” teszik, azaz úgy állítják be, hogy több, korábban szabályzatellenesnek minősített, és így kimoderált tartalmat engedjenek át.
A Meta az Egyesült Államokban megválik a 2010-es évek közepe óta a dezinformációs tartalmak felderítésére és leleplezésére alkalmazott tényellenőrző szervezetektől is, mert állítása szerint azok politikailag elfogultak. Helyette a cég a Twitterről (X-ről) ismert Community Notes módszert, algoritmust és eljárást alkalmazza, melynek lényege, hogy a felhasználók által bejelentett, gyanúsnak tűnő tartalmakat egy önkéntesekből álló tényellenőrző testület minősíti. A tényellenőrzők közé csak egy próbaidőszak után lehet bekerülni, és a tartalmakhoz fűzött korlátozó megjegyzések (pl. félrevezető tartalom) csak a közösség különböző világnézetű tényellenőrzőinek konszenzusa után kerülhetnek ki a nyilvános felületre.
A fenti változtatásokon túl a jelen kézirat lezárásakor további jelek is arra utalnak, hogy kirobbanhat a digitális platformokkal kapcsolatban egy EU‒USA-szembenállás; az amerikai adminisztráció több alkalommal is jelezte, hogy fel kíván lépni a nagy amerikai technológiai cégeket fenyegető európai „túlszabályozással” szemben. Ennek részeként élesen bírálták az EU Digitális Szolgáltatásokról szóló rendeletét, főként a szólásszabadság szempontjából.
[A nyitókép forrása: Shutterstock.com/261000101 (új ablakban nyílik)]