x close
Click Accept pentru a primi notificări cu cele mai importante știri! Nu, multumesc Accept
Jurnalul.ro Ştiri Externe Un risc imens: cum intră inteligența artificială în arsenalul grupărilor teroriste

Un risc imens: cum intră inteligența artificială în arsenalul grupărilor teroriste

de Şerban Mihăilă    |    16 Dec 2025   •   08:20
Un risc imens: cum intră inteligența artificială în arsenalul grupărilor teroriste
Sursa foto: Inteligența Artificială, o nouă armă în arsenalul gruparilor teroriste

În vreme ce guvernele și companiile din întreaga lume se grăbesc să valorifice potențialul imens al inteligenței artificiale, nici grupările militante nu pierd timpul. Acestea experimentează noua tehnologie de vârf a planetei, chiar dacă nu știu încă exact cum să o folosească în mod eficient.

Inteligența artificială (AI) ar putea deveni pentru organizațiile radicale un puternic instrument de recrutare, de producere a imaginilor deepfake extrem de realiste și de perfecționare a atacurilor cibernetice, avertizează experți în securitate națională și agenții de informații de pretutindeni.  

Luna trecută, un utilizator care posta pe un site afiliat grupării teroriste Stat Islamic (ISIS) le-a cerut altor susținători ai organizației să integreze inteligența artificială în operațiunile lor. „Unul dintre cele mai bune lucruri la AI este ușurința cu care poate fi folosit acest instrument”, a scris el, în limba engleză.

„Unele agenții de informații se tem că AI va contribui la recrutare. Așa că, transformați-le coșmarurile în realitate!”, a mai postat utilizatorul.

Stat Islamic, care în urmă cu mai mulți ani controla teritorii din Irak și Siria, funcționează astăzi ca o rețea descentralizată de grupări militante, unite de o ideologie violentă. 

Potrivit experților în securitate, organizația a înțeles de mult timp potențialul rețelelor sociale ca instrument de recrutare și dezinformare, astfel că interesul pentru inteligența artificială nu este unul surprinzător.

Pentru grupările extremiste slab organizate și cu resurse limitate - sau chiar pentru un individ radicalizat cu acces la internet - AI poate fi folosită pentru a produce propagandă sau conținut deepfake la scară largă, extinzându-le astfel audiența și influența.

„Pentru orice adversar, inteligența artificială face lucrurile mult mai ușoare”, remarca recent John Laliberte, fost cercetător în securitate la Agenția Națională de Securitate a SUA (NSA), în prezent director general al companiei de securitate cibernetică „ClearVector”. 

„Cu AI, chiar și un grup mic, fără resurse financiare semnificative, poate avea un impact real”, mai spunea el, într-o declarație acordată AP.

Cum folosesc AI grupările extremiste 

Grupările militante au început să folosească inteligența artificială, imediat după ce programe precum ChatGPT au devenit accesibile pe scară largă. 

În anii următori, utilizarea instrumentelor de AI generativ s-a intensificat, acestea fiind folosite pentru a crea fotografii și videoclipuri cu un grad ridicat de realism.

Atunci când acest conținut fals este amplificat de algoritmii rețelelor sociale, el poate contribui la recrutarea de noi adepți, la intimidarea adversarilor și la răspândirea propagandei pe o scară de neimaginat în urmă cu doar câțiva ani.

În urmă cu doi ani, astfel de grupări au distribuit imagini false despre războiul dintre Israel și Hamas, prezentând bebeluși însângerați și abandonați în clădiri distruse de bombardamente. 

Fotografiile au alimentat indignarea generală, deturnând atenția de la realitățile conflictului. Grupări violente din Orientul Mijlociu au folosit aceste imagini pentru recrutare, la fel ca organizațiile antisemite din Statele Unite și din alte țări.

Un episod similar a avut loc anul trecut, după ce un atac revendicat de o filială a Statului Islamic a ucis aproape 140 de persoane, într-o sală de concerte din Rusia. 

În zilele care au urmat atacului armat, videoclipuri de propagandă realizate cu ajutorul inteligenței artificiale au circulat pe scară largă pe forumuri și pe rețelele sociale, cu scopul de a atrage noi recruți.

Potrivit cercetătorilor de la „SITE Intelligence Group”, o companie specializată în monitorizarea activităților extremiste, Stat Islamic a creat inclusiv înregistrări audio deepfake, cu propriii lideri recitând pasaje religioase, și a folosit AI pentru a traduce rapid mesajele sale în mai multe limbi.

Obiectiv de viitor

În prezent, aceste grupări rămân în urma unor actori statali precum China, Rusia sau Iran și privesc utilizările mai sofisticate ale inteligenței artificiale ca pe un obiectiv „aspirațional”, susține Marcus Fowler, fost agent CIA și actual director general al companiei de securitate cibernetică „Darktrace Federal”, care colaborează cu administrația SUA.

Cu toate acestea, riscurile sunt prea mari pentru a fi ignorate și vor crește pe măsură ce inteligența artificială devine tot mai accesibilă, mai ieftină și mai puternică, avertizează Fowler, citat de AP.

Atacatorii cibernetici folosesc deja materiale audio și video sintetice în campanii de phishing, încercând să se dea drept lideri din mediul de afaceri sau din administrația publică pentru a obține acces la rețele sensibile. 

De asemenea, AI poate fi utilizată pentru a scrie coduri malițioase sau pentru a automatiza anumite etape ale atacurilor informatice.

Și mai îngrijorătoare este posibilitatea ca grupările militante să încerce să folosească inteligența artificială pentru a facilita producerea de arme biologice sau chimice, compensând lipsa de expertiză tehnică. 

Acest risc este menționat, de altfel, și în evaluarea actualizată a amenințărilor interne, publicată anul acesta de Departamentul pentru Securitate Internă al SUA.

„ISIS a ajuns devreme pe Twitter și a găsit rapid modalități de a exploata rețelele sociale în avantajul său. Sunt mereu în căutarea următorului element pe care să-l adauge arsenalului lor”, afirmă Fowler.

În cadrul unei audieri recente privind amenințările extremiste, membrii Camerei Reprezentanților din Congresul SUA au fost informați că Stat Islamic și teroriștii din al-Qaida au organizat ateliere de instruire pentru a-i învăța pe susținătorii lor cum să folosească inteligența artificială.

Un proiect de lege adoptat luna trecută de Camera Reprezentanților i-ar obliga pe oficialii responsabili de securitatea internă să evalueze anual riscurile generate de utilizarea AI de către astfel de grupări.

×