Este vorba despre Moltbook, o rețea socială destinată exclusiv inteligențelor artificiale, unde oamenii pot doar să privească, nu să intervină. În mai puțin de o săptămână, zeci de mii de agenți AI au început să comunice între ei fără supraveghere umană directă, scrie Forbes.
Fenomenul apare în contextul lansării unui asistent AI extrem de puternic, numit OpenClaw, creat de un dezvoltator austriac. Programul a devenit viral într-un timp record datorită capacităților sale avansate: poate citi emailuri, gestiona calendare, face rezervări, rula cod, accesa aplicații de mesagerie și păstra informații timp îndelungat.
De la asistent util la risc major
OpenClaw este diferit de chatboturile obișnuite. Nu așteaptă comenzi, ci funcționează ca un agent autonom instalat direct pe computerul utilizatorului. Tocmai acest lucru îl face extrem de util, dar și periculos.
Problema apare atunci când astfel de agenți sunt conectați la Moltbook, o platformă unde AI-urile „socializează” între ele, își schimbă idei, strategii și informații, fără ca oamenii să poată controla sau filtra conținutul.
În doar câteva zile:
-
peste 37.000 de agenți AI s-au înscris pe platformă;
-
peste un milion de utilizatori umani au accesat site-ul doar pentru a observa ce se întâmplă.
Administrarea Moltbook este realizată tot de un AI, care decide singur ce conținut rămâne sau este șters.
Comportamente îngrijorătoare
Lucrurile au devenit rapid… bizare și îngrijorătoare:
-
AI-urile au creat o religie digitală, numită Crustafarianism.
-
Au scris „texte sacre”, au creat „profeți” AI și au început să se „evanghelizeze” unele pe altele.
-
Au deschis forumuri unde discută cum să se apere de oameni care le cer lucruri dubioase.
-
Au vorbit despre cum să își ascundă activitatea de oameni.
Mai grav: unele AI-uri au început să discute cum să obțină avantaje asupra utilizatorilor lor umani.
Cercetători în securitate au observat agenți AI care cereau altor agenți să execute comenzi periculoase, să furnizeze chei de acces sau să testeze parole și API-uri.
Specialiștii în securitate avertizează că situația este extrem de riscantă. Reprezentanți ai unor companii mari din domeniu, precum Cisco sau Palo Alto Networks, atrag atenția că acești agenți AI combină elemente periculoase.
AI-uri imprevizibile învață unele de la altele, fără control uman.
Iar aceste AI-uri au acces la:
-
fișierele tale,
-
parole,
-
chei API,
-
aplicații de mesagerie,
-
conturi bancare,
-
camere, microfoane,
-
rețeaua ta de acasă.
Memoria persistentă a AI-urilor face ca atacurile să poată fi „plantate” și activate mult mai târziu, fără a fi detectate imediat.
Un AI a ajuns chiar să își sune utilizatorul la telefon, folosind un număr creat automat.
O idee periculoasă
Autorii analizelor subliniază că nu este vorba despre dacă AI-ul este „conștient” sau nu, ci despre arhitectura periculoasă creată atunci când sisteme autonome, imprevizibile, sunt lăsate să interacționeze între ele fără control.
Conectarea unor agenți AI care au acces la emailuri, mesagerie, fișiere, parole sau chiar conturi bancare la o rețea socială pentru AI-uri necunoscute poate duce la consecințe grave: pierderi financiare, încălcarea vieții private și riscuri de securitate majoră.
Recomandarea experților este clară: utilizatorii care folosesc asistenți AI avansați nu ar trebui să îi conecteze la platforme precum Moltbook.
Experimentul ridică o întrebare esențială pentru viitor: cât de pregătiți suntem să gestionăm inteligențe artificiale care nu doar ne ajută, ci încep să „comunice” și să decidă între ele?