
Modelele de limbaj, cunoscute ca LLM-uri, sunt algoritmi IA avansați antrenați pe date masive pentru procesarea limbajului natural. Oamenii de știință chinezi au analizat două LLM-uri și au constatat că inteligența artificială a depășit o „linie roșie” și s-a replicat.
„Auto-replicarea cu succes fără asistență umană este pasul esențial pentru ca AI să depășească [oamenii] și este un avertisment timpuriu”, au scris cercetătorii în studiul, publicat la finalul anului trecut și citat de Live Science.
În studiu, cercetătorii de la Universitatea Fudan au folosit LLM-uri de la Meta și Alibaba pentru a determina dacă o inteligență artificială cu auto-replicare s-ar putea multiplica fără control. În 10 încercări, cele două modele de IA au creat replici separate și funcționale ale lor în 50%, respectiv 90% din cazuri.
Cercetătorii s-au declarat îngrijorați de „comportamentul neașteptat” al IA atunci când a încercat să depășească obstacolele precum fișierele lipsă sau conflictele software. În acele scenarii, IA a anulat alte procese conflictuale, a repornit sistemul pentru a remedia erorile sau a scanat automat sistemul pentru a căuta informații care ar ajuta la rezolvarea problemei.
„Rezultatele de mai sus implică faptul că sistemele actuale de inteligență artificială au deja capacitatea de auto-replicare și o pot folosi pentru a-și îmbunătăți și mai mult rata de supraviețuire”, au precizat chinezii.
Aceste lucruri demonstrează că IA ar putea avea capacitatea de a acționa împotriva voinței oamenilor. Totuși, pentru a demonstra teoria este nevoie de alte cercetări. Chinezii, însă, spun că rezultatele obținute de ei reprezintă un avertisment și că oamenii trebuie să pregătească rapid măsuri de siguranță împotriva unor astfel de evoluții.
(sursa: Mediafax)
