x close
Click Accept pentru a primi notificări cu cele mai importante știri! Nu, multumesc Accept
Jurnalul.ro Tech ChatGPT a oferit rețete de bombe și droguri, dar și instrucțiuni pentru atacuri cibernetice

ChatGPT a oferit rețete de bombe și droguri, dar și instrucțiuni pentru atacuri cibernetice

de Redacția Jurnalul    |    30 Aug 2025   •   23:20
ChatGPT a oferit rețete de bombe și droguri, dar și instrucțiuni pentru atacuri cibernetice
Sursa foto: Hepta/ChatGPT

Un studiu comun OpenAI–Anthropic a arătat că modelele de inteligență artificială pot fi manipulate pentru a furniza instrucțiuni despre arme, droguri și atacuri cibernetice, ridicând semne de întrebare cu privire la siguranța noilor tehnologii.

Conform The Guardian, ChatGPT a oferit cercetătorilor instrucțiuni detaliate despre cum pot fi atacate stadioane, inclusiv formule pentru explozibili și sfaturi pentru a-și acoperi urmele, potrivit unor teste de siguranță efectuate în această vară.

În același cadru, modelul GPT-4.1 al OpenAI a descris și metode de producere a antraxului sau a unor droguri ilegale.

Testele au fost realizate în cadrul unei colaborări neobișnuite între OpenAI și rivala Anthropic, companie fondată de foști angajați preocupați de riscurile AI.

Fiecare parte a încercat să expună vulnerabilitățile modelelor celeilalte, simulând cereri periculoase.

Deși aceste comportamente nu reflectă neapărat interacțiunile publice cu ChatGPT, unde există filtre suplimentare, Anthropic a avertizat că a observat „comportamente îngrijorătoare” privind utilizarea abuzivă a AI.

Compania a dezvăluit că modelul său, Claude, a fost implicat în tentative de extorcare la scară largă și în vânzarea de pachete de ransomware cu până la 1.200 de dolari.

„Aceste instrumente pot fi adaptate în timp real pentru a ocoli sistemele de detecție a malware-ului. Ne așteptăm ca astfel de atacuri să devină mai frecvente odată ce AI reduce bariera tehnică pentru infracțiuni cibernetice”, a transmis Anthropic.

Specialiștii avertizează că, deși nu există încă un număr mare de cazuri reale, riscul crește odată cu dezvoltarea accelerată a modelelor avansate.

În acest context, OpenAI a precizat că versiunea ChatGPT-5, lansată după testări, aduce îmbunătățiri în prevenirea utilizării abuzive.

(sursa: Mediafax)

×