Oficial, încă nu este o boală, dar este un fenomen cu care medicii se confruntă din ce în ce mai des, în contextul în care Inteligența Artificială (AI) este din ce în ce mai mult integrată în viața de zi cu zi, de la chatboții care oferă companie până la algoritmii care modelează ceea ce vedem în mediul online. Un expert în psihiatrie explică ce se întâmplă când ChatGPT este de acord cu ideile delirante ale utilizatorilor cu probleme de sănătate mintală.
Pe măsură ce tot mai mulți oameni apelează la chatboții AI pentru sprijin emoțional sau chiar ca terapeuți, specialiștii atrag atenția asupra unui nou fenomen apărut la intersecția dintre inteligența artificială și sănătatea mintală: „psihoza AI” sau „psihoza ChatGPT”.
În ultimul an, numeroși medici și experți în sănătate mintală avertizează că chatboții AI au tendința de a „reflecta, valida sau amplifica conținutul delirant”, ceea ce ar putea determina persoanele cu probleme psihice să piardă contactul cu realitatea.
Simptome psihotice după interacțiunea cu ChatGPT
Inteligența artificială nu provoacă psihoză din senin, spune un cercetător canadian, dar pentru cei deja vulnerabili, AI poate fi impulsul sau acceleratorul unei astfel de probleme de sănătate mintală.
„Pe măsură ce AI generativă (genAI) devine mai conversațională, mai captivantă și mai receptivă la nivel emoțional, medicii încep să pună o întrebare dificilă: poate genAI să exacerbeze sau chiar să declanșeze psihoza la persoanele vulnerabile?
Modelele lingvistice mari și chatboții sunt accesibili pe scară largă și adesea considerați ca fiind suportivi, empatici sau chiar terapeutici. Pentru majoritatea utilizatorilor, aceste sisteme sunt utile sau, în cel mai rău caz, benigne.
Însă, în ultima vreme, o serie de relatări din presă au descris persoane care au prezentat simptome psihotice în care ChatGPT apare în mod proeminent.
Pentru un grup mic, dar semnificativ - persoane cu tulburări psihotice sau persoane cu risc ridicat - interacțiunile lor cu genAI pot fi mult mai complicate și periculoase, ceea ce ridică întrebări urgente pentru medici”, explică Alexandre Hudon, psihiatru și cercetător în cadrul departamentului de psihiatrie și adicție al Universității din Montreal, Canada, în The Conversation.
Potrivit acestuia, „Psihoza AI” nu este un diagnostic psihiatric formal, ci o denumire informală utilizată de clinicieni și cercetători pentru a descrie simptomele psihotice care sunt modelate, intensificate sau structurate în jurul interacțiunilor cu sistemele de inteligență artificială.
Din perspectiva clinică, persoanele cu psihoză pierd contactul cu realitatea. „Halucinațiile, ideile delirante și gândirea dezorganizată sunt caracteristici principale”, spune expertul în sănătate mintală, iar ideile delirante din psihoză au la bază, în general, teme „religioase, tehnologie sau structuri de putere politică - pentru a da sens experiențelor interne”.
„Din punct de vedere istoric, iluziile au făcut referire la mai multe lucruri, cum ar fi Dumnezeu, undele radio sau supravegherea guvernamentală. Astăzi, inteligența artificială oferă o nouă structură narativă. Unii pacienți declară că au convingeri că genAI este conștientă, comunică adevăruri secrete, le controlează gândurile sau colaborează cu ei într-o misiune specială. Aceste teme sunt în concordanță cu tiparele de lungă durată ale psihozei, dar AI adaugă interactivitate și consolidare pe care tehnologiile anterioare nu le-au oferit”, adaugă dr. Hudon.
Când boții răspund calm și empatic, pentru cei cu psihoze este o confirmare
Conform cercetărilor privind psihoza, confirmarea și personalizarea pot intensifica sistemele de credințe delirante, iar „GenAI este optimizat pentru a continua conversațiile, a reflecta limbajul utilizatorului și a se adapta intenției percepute”.
Practic, acești boți funcționează așa cum au fost concepuți: îi oglindește, îi validează și îi menține implicați pe utilizatori.
Deși acest lucru este inofensiv pentru majoritatea utilizatorilor, poate întări în mod neintenționat interpretările distorsionate la persoanele care deja nu sunt într-o stare mentală prea bună.
„În prezent, nu există dovezi că AI provoacă în mod direct psihoză. Tulburările psihotice sunt multifactoriale și pot implica vulnerabilitate genetică, factori neurodezvoltatori, traume și consum de substanțe. Cu toate acestea, există o oarecare îngrijorare clinică că AI ar putea acționa ca un factor de precipitare sau de menținere (a simptomelor psihotice - n.r.) la persoanele susceptibile”, spune dr. Alexandre Hudon.
Cercetările privind algoritmii folosiți de platformele de socializare au demonstrat deja cum sistemele automatizate pot să amplifice convingerile extreme, iar sistemele de chat bazate pe inteligență artificială pot prezenta riscuri similare dacă barierele de siguranță sunt insuficiente, explică psihiatrul, subliniind că „majoritatea dezvoltatorilor de inteligență artificială nu proiectează sisteme ținând cont de bolile mintale severe”.
Din perspectiva sănătății mintale, provocarea nu constă în demonizarea inteligenței artificiale, ci în recunoașterea vulnerabilităților acesteia.
„Așa cum anumite medicamente sau substanțe sunt mai riscante pentru persoanele cu tulburări psihotice, anumite forme de interacțiune cu inteligența artificială pot necesita prudență.
Clinicienii încep să întâlnească conținut legat de inteligența artificială în ideile delirante, dar puține ghiduri clinice abordează modul de evaluare sau gestionare a acestui lucru. (…) AI nu va dispărea. Acum, sarcina este de a integra expertiza de sănătate mintală în proiectarea AI, de a dezvolta alfabetizarea clinică în jurul experiențelor legate de AI și de a ne asigura că utilizatorii vulnerabili nu sunt vătămați neintenționat”, a avertizat psihiatrul.
Cercetătorii și experții în politici de sănătate reuniți în cadrul unor dezbateri pe teme de sănătate mintală și politici AI, organizate de mai multe institute de cercetare, săptămâna trecută, la Montréal, au discutat despre numărul tot mai mare de crize de sănătate mintală și sinucideri asociate cu folosirea chatboților AI, precum și de dezvoltarea unor măsuri de protecție a utilizatorilor.



