Jurnalul.ro Bani şi Afaceri Economie „Radicalizat de algoritm la 14 ani”. Cum algoritmii Meta și TikTok împing utilizatorii spre ură, violență și teorii ale conspirației

„Radicalizat de algoritm la 14 ani”. Cum algoritmii Meta și TikTok împing utilizatorii spre ură, violență și teorii ale conspirației

de Vali Deaconescu    |   

Foști angajați ai Meta și TikTok fac dezvăluiri despre modul în care algoritmii rețelelor sociale ar favoriza conținutul controversat pentru a crește angajamentului. Investigația BBC arată cum utilizatorii, inclusiv adolescenții, pot fi expuși la ură și radicalizare.

Dezvăluiri explozive din culisele social media: algoritmii ar promova conținut toxic pentru a crește engagementul

Mai mulți avertizori de integritate și foști angajați ai marilor companii de tehnologie susțin că platformele de social media au permis apariția unui volum mai mare de conținut controversat sau toxic pentru a crește timpul petrecut de utilizatori online. O amplă investigație realizată de BBC dezvăluie cum algoritmii ar putea favoriza postările care provoacă furie, controverse sau radicalizare.

Cum ar fi ajuns conținutul controversat să domine feed-urile utilizatorilor

Potrivit mai multor avertizori de integritate intervievați în documentarul BBC Inside the Rage Machine, companii precum Meta, proprietara Facebook și Instagram, dar și TikTok, ar fi luat decizii care au permis apariția mai frecventă a conținutului controversat sau dăunător.

Un inginer care a lucrat la Meta susține că echipele tehnice au fost încurajate să permită mai mult conținut „borderline” – postări aflate la limita regulilor platformei, precum misoginia, teoriile conspirației sau discursul urii.

Potrivit acestuia, motivația ar fi fost competiția acerbă cu TikTok și presiunea asupra performanței financiare.

„Ni s-a spus, într-un fel, că trebuie să facem asta pentru că prețul acțiunilor scade”, a declarat inginerul.

Concurența cu TikTok ar fi schimbat strategia platformelor

Explozia de popularitate a TikTok, alimentată de algoritmul său extrem de eficient în recomandarea videoclipurilor scurte, ar fi forțat companiile rivale să reacționeze rapid.

Un fost cercetător senior de la Meta, Matt Motyl, spune că funcția Instagram Reels a fost lansată în 2020 fără suficiente măsuri de protecție pentru utilizatori.

Cercetări interne citate de BBC arată că în comentariile de la Reels apar mai des:

  • bullying și hărțuire
  • discurs instigator la ură
  • conținut violent sau care incită la violență

În același timp, compania ar fi alocat sute de angajați pentru dezvoltarea produsului, în timp ce echipele de siguranță nu au primit resurse suplimentare.

Documente interne: algoritmii ar recompensa conținutul negativ

Documente interne analizate de BBC ar sugera că algoritmii platformelor pot favoriza postările care generează reacții puternice.

Un studiu intern citat în investigație afirma că sistemul de recomandare oferă creatorilor de conținut: „un drum care maximizează profitul în detrimentul bunăstării publicului”.

Același document avertiza că stimulentele financiare create de algoritmi nu sunt întotdeauna aliniate cu misiunea declarată a platformelor de a conecta oamenii.

„Algoritmul m-a radicalizat”

Investigația include și mărturia unui tânăr britanic care spune că a fost influențat de conținut extremist recomandat de algoritmi.

Calum, acum în vârstă de 19 ani, afirmă că a început să primească astfel de videoclipuri încă de la 14 ani.

„Videoclipurile m-au energizat, dar nu într-un mod bun. M-au făcut foarte furios”, a spus el.

Specialiștii britanici în combaterea terorismului afirmă că observă o normalizare a discursului antisemit, rasist și extremist pe platformele sociale.

Cazuri cu politicieni, prioritizate înaintea celor cu minori

Un angajat al echipei de siguranță a TikTok, identificat în investigație cu pseudonimul „Nick”, a oferit acces la sistemele interne de gestionare a reclamațiilor.

Potrivit acestuia, unele cazuri legate de politicieni ar fi primit prioritate mai mare decât plângerile venite de la adolescenți.

Un exemplu citat în investigație arată că o postare în care un politician era ironizat a fost analizată înaintea unor situații grave, precum:

  • hărțuirea online a unui adolescent
  • distribuirea unor imagini sexualizate false cu o minoră

Avertizorul susține că scopul ar fi fost menținerea unor relații bune cu politicienii pentru a evita reglementări sau interdicții.

Moderarea conținutului, tot mai dificilă

Potrivit avertizorilor de integritate, numărul cazurilor de analizat a devenit atât de mare încât echipele de moderare nu mai pot face față.

În plus, unele poziții din departamentele de moderare ar fi fost înlocuite de sisteme automate bazate pe inteligență artificială.

Materialele legate de:

  • terorism
  • violență sexuală
  • trafic de persoane
  • abuz

ar fi în creștere, susțin aceștia.

Algoritmi „cutie neagră”: nici inginerii nu îi pot controla complet

Un fost inginer de machine learning care a lucrat la sistemul de recomandare TikTok între 2020 și 2024, Ruofan Ding, spune că algoritmii moderni sunt atât de complecși încât nici dezvoltatorii nu îi pot controla complet.

Potrivit acestuia, pentru ingineri conținutul nu este analizat în mod direct.

„Pentru noi, fiecare postare este doar un ID – un număr diferit”, a explicat el.

Responsabilitatea pentru eliminarea conținutului problematic revine echipelor de siguranță, însă colaborarea dintre departamente nu funcționează întotdeauna eficient.

Reacția companiilor

Reprezentanții Meta au respins acuzațiile, afirmând că platformele au politici stricte de protejare a utilizatorilor și că au investit masiv în siguranță în ultimii ani.

Compania susține că a introdus și funcții speciale pentru protejarea adolescenților online.

La rândul său, TikTok a declarat că acuzațiile prezentate în investigație „denaturează fundamental modul în care funcționează sistemele de moderare”.

Platforma afirmă că investește constant în tehnologie pentru a preveni apariția conținutului dăunător și că oferă numeroase setări de siguranță pentru utilizatori.

 

TOP articole pe Jurnalul.ro:
Parteneri