Cercetarea arată că oamenii votează cu precădere ceea ce le „livrează” algoritmii Facebook, TikTok, Instagram etc., nu ceea ce ar fi votat în urma campaniilor electorale bazate pe argumentele candidaților. „Bombardamentul” cu informații - adevărate sau false - produce o mutație în preferințele electoratului, pe bază de algoritmi și de creștere exponențială a numărului de știri de același fel, iar votantul nu mai are timp să analizeze alegerea pe care o face. O simplă accesare a unei știri dintr-un anumit context va duce la creșterea numărului de anunțuri de același fel, până la „convingerea” alegătorului, dar nu pe baza unor raționamente logice, dovezi concludente sau argumente solide, ci prin repetarea mesajului.
„O minciună repetată devine adevăr” - este o remarcă atribuită lui Joseph Goebbels, ministrul propagandei din Germania nazistă. Deși nu există dovezi clare că acesta ar fi spus-o exact în această formă, tehnica reflectă metodele sale de manipulare - conceptul nazist de „Große Lüge” (Minciuna mare), care sugerează că o minciună atât de colosală încât nimeni nu ar crede că cineva ar avea curajul să o inventeze, poate fi acceptată ca adevăr, dacă este repetată de suficient de multe ori, încât să convingă masele.
În urma unor experimente psihologice din Al Doilea Război Mondial s-a demonstrat că mintea umană tinde să creadă informațiile care îi sunt prezentate în mod repetat - rezultatul a fost denumit „efectul de adevăr iluzoriu” - o tehnică de manipulare a maselor folosită în politică și în propagandă pentru a schimba opinia publică.
Cercetarea făcută recent de un grup de profesori universitari de la Constanța demonstrează că tehnica se folosește cu succes, astăzi, pe baza algoritmilor rețelelor de socializare, schimbând radical rezultatul voturilor, în mai multe state. Studiul denumit „Democrația filtrată” arată cum nu mai votăm pe baza realității, ci pe baza unei povești construite de algoritmi, în mediul virtual.
Studiul a fost realizat de echipa formată din conf. univ. dr. Cristian Opariuc-Dan, lect. univ. dr. Tănase Tasențe și lect. univ. dr. Cristina-Dana Popescu, de la Universitatea „Ovidius” din Constanța, fiind publicat în „Internet Policy Review” și analizează modul în care personalizarea algoritmică influențează percepțiile electorale prin mecanismul „filter bubble” acea bulă informațională în care utilizatorii sunt expuși predominant la conținut care le confirmă convingerile, ca rezultat al selecției și repetiției algoritmice.
Cercetătorii arată că se schimbă inclusiv definiția dezinformării: „În mediul digital contemporan, problema nu mai este ce informație este adevărată și ce informație este falsă. Problema este că nu mai vedem aceeași realitate. În perioade electorale, această diferență devine decisivă: fiecare utilizator ajunge să își construiască opiniile într-un spațiu informațional personalizat, modelat continuu de propriile interacțiuni și de logica algoritmică a platformelor”, arată rezultatele studiului.
Manipularea se face prin accesare
Cercetătorii mai arată că nu mai există o singură realitate comună, ci fiecare bulă are o poveste proprie la care se raportează ca fiind realitate. Fiecare utilizator trăiește într-o lume informațională proprie, în timp ce ideea unui spațiu public unitar, în care cetățenii sunt expuși la aceleași informații și pot construi opinii pornind de la o bază comună, este din ce în ce mai puțin relevantă, afectând toate mecanismele pe care se bazau campaniile electorale.
Algoritmii nu manipulează direct conținutul, ci îl stabilizează prin repetiție. Una dintre cele mai importante contribuții ale studiului este evidențierea rolului repetiției algoritmice. Platformele nu trebuie să modifice conținutul pentru a influența percepțiile. Este suficient să controleze frecvența și consistența apariției acestuia. Algoritmii organizează informația în tipare repetitive, în care anumite idei reapar constant, sunt reafirmate din surse diferite și sunt integrate într-un flux coerent. Această expunere repetată produce un efect cumulativ: ceea ce apare frecvent devine familiar, iar ceea ce este familiar devine implicit credibil.
„Platformele digitale creează fluxuri personalizate, adaptate continuu comportamentului fiecărui utilizator. Fiecare like, fiecare click, fiecare secundă petrecută pe un anumit tip de conținut devine un semnal care reconfigurează feed-ul. În timp, aceste ajustări construiesc un mediu informațional stabil, coerent intern, dar diferit de cel al altor utilizatori. Consecința este profundă: doi oameni care folosesc aceeași platformă pot avea percepții complet diferite despre aceeași realitate electorală, fără să fie conștienți de această discrepanță. Nu mai vorbim despre opinii diferite asupra aceleiași realități. Vorbim despre oameni care votează în realități diferite”, arată cercetarea.
Noul mecanism afectează alegerile politice
Cercetătorii constată că diversitatea nu dispare, dar devine previzibilă. „În context electoral, efectul este cu atât mai relevant. Percepțiile despre candidați, teme politice sau opinii dominante nu sunt construite exclusiv pe baza conținutului, ci pe baza modului în care acesta este distribuit. Algoritmii nu trebuie să promoveze explicit o anumită idee; este suficient să o facă mai vizibilă, mai frecventă și mai prezentă în fluxul utilizatorului. Astfel, influența nu mai este directă și vizibilă, ci structurală și discretă, integrată în modul în care este organizată experiența digitală”, arată studiul.
Concluzia cercetării este că problema centrală a mediului online nu mai este dezinformarea în sens clasic, ci modul în care realitatea este configurată prin selecție, repetiție și amplificare. Rețelele sociale nu operează în funcție de adevăr, ci în funcție de probabilitatea ca un conținut să fie acceptat, confirmat și redistribuit. Nu ceea ce este corect ajunge în prim-plan, ci ceea ce este deja familiar și compatibil cu așteptările utilizatorului.
Deși sursele pot fi diferite, conținutul livrat este adesea ideologic similar, deoarece algoritmii prioritizează materialele compatibile cu preferințele anterioare. Această situație generează o iluzie de pluralism: utilizatorii cred că sunt expuși la opinii diverse, când, în realitate, sunt ancorați într-un set relativ restrâns de perspective.
Cum percepem „ce este important”, în funcție de validare
Studiul identifică drept cel mai vulnerabil profil exact categoria utilizatorilor activi: persoane tinere, implicate, care petrec mult timp online și interacționează frecvent cu conținutul. Acești utilizatori înțeleg că algoritmii filtrează informația, dar, în același timp, alimentează constant aceste mecanisme prin propriile acțiuni.
Mai grav este că nu ne putem apăra, nici dacă știm ce presupune acest mecanism de manipulare. „Cei care înțeleg algoritmii nu scapă de influența lor - doar devin mai eficienți în a o alimenta. Se creează astfel un paradox: interacțiunea generează personalizare, iar personalizarea întărește tiparele de interacțiune. În loc să reducă expunerea, implicarea o intensifică. Conștientizarea nu oprește mecanismul, pentru că acesta funcționează dincolo de nivelul deciziei conștiente, fiind integrat în structura platformei. Iluzia diversității și influența invizibilă asupra percepțiilor electorale”, mai arată studiul care subliniază că utilizatorii percep adesea că au acces la o varietate de surse informaționale, dar această diversitate este, în multe cazuri, superficială.
În acest mecanism, vizibilitatea nu este neutră. Ea devine un instrument de validare. Utilizatorii nu evaluează doar conținutul în sine, ci și cât de des îl întâlnesc, iar frecvența este interpretată ca relevanță socială. Astfel, percepția despre „ce este important” sau „ce cred ceilalți” este construită indirect, prin expunere controlată. Paradoxul conștientizării: cei care înțeleg algoritmii sunt, adesea, cei mai expuși. Nivelul ridicat de conștientizare a mecanismelor algoritmice nu reduce vulnerabilitatea utilizatorilor, iar a ști că feed-ul este personalizat nu înseamnă a putea ieși din logica sa - au constatat cercetătorii.