Jurnalul.ro Ştiri Externe ChatGPT și alte aplicații ajung în instanțele de judecată din toată lumea. Inteligența artificială, la un pas de pușcărie

ChatGPT și alte aplicații ajung în instanțele de judecată din toată lumea. Inteligența artificială, la un pas de pușcărie

de Diana Scarlat    |   

Spiritul antreprenorial cu posibilitatea de câștiguri ușoare i-a determinat pe mulți să folosească Inteligența Artificială pentru a înlocui expertiza unor avocați, medici sau artiști. Problemele apar atunci când rezultatele date de ChatGPT, Gemini sau alte produse AI nu au nicio legătură cu realitatea.

În ultima perioadă s-a ajuns și în instanțele de judecată, în mai multe state ale lumii, cu reclamații formulate împotriva AI, care este acuzată de exercitarea unor profesii fără drept. Cel mai recent caz de acest fel este din SUA, statul Illinois, într-un caz de abuz legat de exercitarea profesiei de avocat de către ChatGPT, dar a existat un caz recent și în România, unde juriștii Inspectoratului Județean de Poliție Timiș au folosit ChatGPT într-un dosar din instanță și Poliția a pierdut procesul, pentru că rezultatul dat de AI era greșit. Deși s-a pus problema înlocuirii inclusiv a instanțelor de judecată sau a medicilor cu AI, noile probleme arată că nu se va putea face acest lucru prea curând. Chiar și în zona turismului sau a creației artistice încep să apară falsuri grosolane create de AI și antreprenorii încep să renunțe la ceea ce credeau că e o bună alternativă pentru un câștig mai mare.

În statul american Illinois, ChatGPT este judecat ca pârât, într-un proces deschis pentru exercitarea fără drept a profesiei de avocat, în urma unei plângeri pe care a depus-o, pe 4 martie 2026, compania de asigurări Nippon Life Insurance Company of America. Nippon a chemat în judecată OpenAI Foundation și OpenAI Group PBC pentru faptul că sistemului ChatGPT a furnizat uneia dintre asigurate o asistență juridică personalizată care determinat costuri suplimentare pentru compania de asigurări.

Astfel, ChatGPT este acuzat de interferența delictuală cu un contract, abuzul de procedură și exercitarea ilegală/fără drept a profesiei de avocat. Compania de asigurări cere despăgubiri de la pârât - respectiv ChatGPT.

Dacă instanța de judecată din SUA va găsi vinovat ChatGPT pentru exercitarea fără drept a profesiei de avocat, s-ar crea un precedent pentru toate celelalte instanțe din lume. În România, exercitarea profesiei fără drept este faptă penală. ChatGPT sau alte forme de Inteligență Artificială ar fi, practic, pasibile de pedepse cu... închisoarea.

Poate părea SF, dar în lume deja se încearcă inclusiv înlocuirea instanțelor de judecată cu AI - fără rezultate pozitive. Un caz concret vine chiar din România, unde o instanță de judecată a dat deja o hotărâre împotriva unui astfel de „avocat” ChatGPT, folosit de o instituție. În luna februarie a acestui an, Inspectoratul Județean de Poliție Timiș a pierdut un proces, după ce juriștii IPJ au folosit ChatGPT în dosar.

Polițiștii și-au făcut apărarea cu ajutorul unei conversații cu ChatGPT care a fost folosită, în premieră, drept probă într-un proces rutier. Poliția din Timiș a depus dialogul cu chatbot-ul pentru a susține sancționarea unui șofer prins conducând cu viteză, dar s-a dovedit că șoferul nu a depășit limita legală, ba mai mult, tribunalul a constatat că procesul-verbal avea erori generate tot de AI.

 

Diagnostice greșite în peste 80% din cazuri

La fel se întâmplă și în domeniul medical. Un studiu recent realizat de Mass General Brigham din Massachusetts şi publicat în Jama Network Open arată că ChatGPT şi Gemini dau diagnostic greşit şi duc utilizatorii pe piste false în peste 80% din cazuri. Acestora li s-au furnizat informaţii medicale legate de o anumită boală, inclusiv constatări ale consultaţiilor şi rezultate ale analizelor de laborator, dar rezultatele generate de chatboți au fost eronate, într-un procent uriaș.

După aceste rezultate din domeniile juridic și medical, lumea dă un pas în spate, în relația cu Inteligența Artificială, de la începutul anului 2026, după ce 2025 a fost anul în care s-a anunțat posibila înlocuire a unor departamente din sănătate sau justiție cu AI, considerându-se că acești chatboți ar putea prelua o parte din munca de cercetare în dosarele care ajung în instanță sau în dosarele medicale.

 

AI se joacă și creează falsuri

În practică s-a constatat că AI alege să se joace și efectiv să inventeze povești - inclusiv texte de lege inexistente sau destinații turistice. Un caz care a ridicat multe semne de întrebare tot la începutul acestui an este al unei agenții de turism care a lăsat AI să creeze descrieri ale unor destinații, dar s-a trezit cu o atracție turistică inexistentă, unde au vrut să meargă mai mulți clienți ai agenției.

În turism s-a considerat că AI este deja un instrument foarte util, dar și aici a devenit o capcană pentru cei care nu știu să verifice informația. Tasmania Tours este prima agenție de turism internațională care „a luat țeapă” de la AI, crezând că își poate lăsa blogul „pe mâna” roboților, renunțând la factorul uman în crearea recomandărilor. Pe blogul agenției din Australia care a folosit necontrolat AI a apărut un articol despre un loc inexistent, unde doritorii erau trimiși la „liniștitele” izvoare termale din nordul Tasmaniei.

Mai mulți turiști au mers să caute „Izvoarele Termale Weldborough”, iar proprietarul agenției Australian Tours and Cruises din New South Wales, care operează Tasmania Tours, Scott Hennessey, a recunoscut eroarea. În urma acestui incident, pe piața internațională a turismului deja s-au luat măsuri pentru a nu mai exista alte situații de acest gen.

 

Referate și lucrări de licență pline de erori

ChatGPT și alți chatboți sunt deja folosiți, la nivel mondial, pentru a răspunde la întrebări legate de toate domeniile de activitate, dar și pentru a înlocui creativitatea umană. Elevii și studenții au început să-și facă cercetarea, referatele și lucrările de licență cu ajutorul AI, iar rezultatele nu sunt așa cum au crezut mulți dintre ei. În afară de informații eronate care apar astfel, din ce în ce mai des, în lucrări, descalificându-i pe cei care folosesc AI, mulți constată că nici drepturile de autor nu le aparțin, pentru că deja sunt programate sistemele de detectare a plagiatului și pentru textele create cu Inteligența Artificială.

Un alt domeniu în care se folosește abuziv AI este chiar mass-media, unde nu s-a introdus încă o formă de a controla textele create de unii jurnaliști care folosesc acești chatboți pentru a le ușura munca, dar riscă să dea informații false. O reglementare va fi impusă și în acest domeniu, pentru că se încalcă mai multe principii, de la calitatea informației, până la încălcarea drepturilor de autor.

 

Campanii electorale cu politicieni fake

Inteligența Artificială se folosește, din ce în ce mai des, și în crearea unor filme de prezentare/publicitare, în turism și HoReCa, dar și în campaniile electorale. Unii cred că pot câștiga mai mulți bani folosind creațiile virtuale ale Inteligenței Artificiale, pentru a nu mai merge pe teren, unde ar trebui să facă fotografii sau filmări, apoi muncă de creație la montaj și la scrierea textelor descriptive. Pe această piață există o concurență neloială AI care ar putea să păcălească, cel puțin la început, clienții care sunt atrași de perfecțiunea imaginii sau a unor texte descriptive, dar care deja au început să cadă în aceeași capcană a erorilor generate de chatboții care nu procesează corect informațiile.

O altă capcană le este rezervată politicienilor care apelează la firme care folosesc AI, inclusiv creându-le avataruri care să-i înlocuiască. Chiar și în România sunt firme care oferă astfel de pachete de servicii unor politicieni cu bugete mai reduse - primari sau aspiranți la funcții de primari din localități mici. Pe internet au apărut nu doar texte create de AI, prin care politicienii se exprimă, dar și creații AI care vorbesc publicului în locul persoanelor reale, astfel încât electoratul nu mai face diferența între politicianul din viața reală și creația AI care îl înlocuiește integral. Diferența se va vedea la vot sau după alegeri - când avatarul va fi înlocuit de persoana reală.

 

Noi escrocherii, cu voce simulată

Simularea vocii este acum posibilă, iar AI a pătruns și pe piața creației muzicale. Mulți se joacă, cerând Inteligenței Artificiale să creeze muzică, pornind de la texte concepute, de cele mai multe ori, tot de AI. Alții încearcă să elimine și de pe această piață artiștii reali, înlocuind talentul uman cu cel cibernetic. Se vorbește deja despre concerte ale unor artiști creați integral de AI, din care factorul uman dispare, dar și în acest domeniu ar dispărea exact elementul esențial care ducea publicul la concerte - adică interacțiunea dintre artist și public.

Însă posibilitatea de preluare a vocii și a imaginii duce la ceva mult mai grav: posibilitatea de a crea știri false foarte credibile, ceea ce înseamnă o nouă victorie pentru cei care se ocupă cu dezinformarea, dar și un bun instrument în mâna infractorilor. De la defăimarea unor persoane, folosită deja în campaniile electorale, dar și în bullying, până la clasica metodă „accidentul” prin care se fură banii victimelor, AI face ravagii și dă mult de lucru polițiștilor și procurorilor.

Simularea perfectă a vocii a făcut deja multe victime și în România, prin „metoda accidentul” - tâlharii au contactat victimele și au simulat vocea unei persoane din familie, pentru a le convinge să le dea toți banii din casă. Dacă până acum 2-3 ani se foloseau doar metodele psihologice de intimidare a victimei, acum se poate „da la telefon” fiul/fiica etc., având vocea respectivei persoane, ceea ce îi face pe infractori mult mai credibili, în timp ce procentul victimelor crește. 

În toate aceste cazuri, pe lângă persoanele acuzate și condamnate, în funcție de situație, pentru tâlhărie, înșelăciune sau furnizare de informații false, procesele penale se pot îndrepta inclusiv împotriva companiilor care au cerat acești boți, după ce instanțele de judecată vor da primele verdicte împotriva acestora și astfel se va crea precedent.

TOP articole pe Jurnalul.ro:
Parteneri