Jurnalul.ro Special ChatGPT termină Medicina, dar nu e pregătit să consulte pacienți

ChatGPT termină Medicina, dar nu e pregătit să consulte pacienți

de Monica Cosac    |   

Cea mai recentă versiune a chatbot-ului ChatGPT a trecut cu succes un examen la specialitatea Radiologie, care imită stilul și dificultatea examenelor Canadian Royal College și American Board of Radiology, însă a demonstrat că are și limitări care împiedică folosirea acestuia în siguranță în cabinetele medicale, potrivit unor studii noi.

 Totodată, Organizaţia Mondială a Sănătăţii (OMS) a transmis un avertisment, îndemnând la prudenţă faţă de utilizarea inteligenței artificiale (AI) în asistența medicală, deoarece datele utilizate de AI pot fi părtinitoare și eronate. 

Mai multe aplicații bazate pe inteligenţa artificială au apărut pe piață în ultimele luni, însă ChatGPT a făcut senzaţie în rândul utilizatorilor, la nivel Mondial, devenind aplicaţia web cu cea mai rapidă creştere.

Pentru a-i evalua performanța în domeniul radiologiei, un grup de cercetători de la University Medical Imaging din Toronto, Canada, a testat mai întâi ChatGPT pe baza GPT-3.5, versiunea cea mai frecvent utilizată în prezent. Aceștia au folosit 150 de întrebări cu răspunsuri multiple concepute astfel încât să se potrivească atât cu stilul, cât și cu conținutul și dificultatea examenelor Canadian Royal College și American Board of Radiology și au constatat că ChatGPT -3.5 a răspuns corect la 69% dintre întrebări, situându-se chiar sub nota de trecere folosită de colegiul Regal din Canada, care era 70%.

AI, pusă în dificultate de întrebările ce implică analiză

Întrebările nu au inclus imagini și au fost grupate după tipul de întrebare pentru a obține o perspectivă asupra performanței: gândire de ordin inferior (reamintirea cunoștințelor, înțelegere de bază) și de ordin superior (aplicare, analiză, sintetizare). 

Rezultatele studiului, care a fost publicat, recent, în revista Radiology, a arătat că această variantă a aplicației a avut rezultate relativ bune la întrebările care necesită gândire de ordin inferior (84%), dar a avut probleme cu întrebările care implică gândire de ordin superior (60%).

Însă o versiune actualizată a chatbot-ului, GPT-4, a depășit GPT-3.5, obținând un scor de 81% la același examen, arătând capacități de raționament avansate îmbunătățite.

„Studiul nostru demonstrează o îmbunătățire impresionantă a performanței ChatGPT în radiologie pe o perioadă scurtă de timp, evidențiind potențialul în creștere al modelelor de limbaj de mari dimensiuni în acest context”, a spus dr. Rajesh Bhayana, autorul principal al studiului.

În ciuda progreselor rapide și evidente, limitările în fiabilitate și tendința periculoasă a ChatGPT de a produce răspunsuri inexacte, numite „halucinații”, încă împiedică utilizarea ChatGPT în educația și practica medicală. 

 

„Am fost inițial surprinși de răspunsurile exacte și încrezătoare ale ChatGPT la unele întrebări provocatoare de radiologie, dar apoi ne-au surprins la fel de multe afirmații foarte ilogice și inexacte”, a adăugat dr. Bhayana.

 

OMS: Generează răspunsuri plauzibile ce pot fi complet incorecte

OMS şi-a manifestat entuziasmul faţă de potenţialul pe care îl deţine AI, însă a transmis, marți, că are anumite îngrijorări legate de felul în care aceasta va fi folosită pentru a îmbunătăţi accesul la informaţiile din sectorul sănătăţii, ca instrument care sprijină deciziile medicale şi îmbunătățirea serviciilor de diagnosticare.

„Datele utilizate pentru instruirea AI pot fi părtinitoare, generând informații înșelătoare sau inexacte care ar putea prezenta riscuri pentru sănătate, echitate și incluziune. LLM-urile (modelele de limbaj de mari dimensiuni – n.r.) generează răspunsuri care pot părea autoritare și plauzibile pentru un utilizator final; cu toate acestea, aceste răspunsuri pot fi complet incorecte sau pot conține erori grave, în special pentru răspunsurile legate de sănătate”, a avertizat OMS, îndemnând la prudenţă în utilizarea AI în sectorul asistenței medicale publice.

Totodată, spune că este „imperativ” să se evalueze riscurile utilizării acestor instrumente generate de modelele de limbaj de mari dimensiuni (LLM), precum ChatGPT. 

 

În luna martie, peste 1.000 de experți în tehnologie au semnat o scrisoare deschisă, prin care au lansat un avertisment cu privire la riscurile potențiale ale inteligenței artificiale, cursa pentru dezvoltarea sistemelor AI fiind scăpată de sub control. Experții au făcut un apel la companiile din acest domeniu să pună pe pauză dezvoltarea sistemelor avansate de inteligență artificială până când „avem încredere că efectele lor vor fi pozitive și riscurile vor fi gestionate”. 

ChatGPT, un software bazat pe inteligenţă artificială, a făcut senzaţie la nivel mondial după ce a fost lansat, în noiembrie 2022, și a devenit aplicaţia web cu cea mai rapidă creştere. Creat de compania californiană OpenAI, chatbot-ul ChatGPT funcţionează pe baza unor algoritmi şi baze de date uriaşe și generează texte originale despre orice subiect. 

Creatorul ChatGPT a cerut reglementarea AI

Omul care a creat chatbot-ul avansat ChatGPT, Sam Altman, director general al OpenAI, a fost audiat, marți, în Congresul SUA, principalele subiecte fiind modul în care este utilizată inteligența artificială și modul în care aceasta poate fi reglementată. 

Inteligența artificială poate fi folosită în beneficiul umanității, a spus Altman, care susține că aplicațiile AI pot fi benefice în orice domeniu, inclusiv în medicină. Inteligența artificială  are potențialul de a rezolva cele mai mari provocări ale umanității „cum ar fi schimbările climatice și vindecarea cancerului”, a declarat creatorul ChatGPT în timpul audierilor, considerând că reglementarea guvernamentală a AI este „esențială” pentru viitorul industriei.

Astfel, Sam Altman le-a propus congresmenilor SUA crearea unei agenții americane sau globale care să acorde licențe celor mai puternice sisteme AI. Aceasta ar trebui să se asigure că standardele de siguranță sunt respectate.

De altfel, cu nici două luni în urmă, creatorul ChatGPT mărturisea că, în ciuda „beneficiilor extraordinare” ale acestei tehnologii, este puțin speriat de ceea ce a realizat. „Sunt foarte îngrijorat că aceste modele ar putea fi utilizate pentru dezinformarea la scară largă, ar putea fi folosite pentru atacuri cibernetice”, a declarat creatorul chatbot-ului, într-un interviu acordat postului ABC News, subliniind că omenirea trebuie să fie atentă atunci când vine vorba de inteligența artificială și mai ales la modul în care este folosită.

 

Subiecte în articol: ChatGPT medicina pacienti
TOP articole pe Jurnalul.ro:
Parteneri