x close
Click Accept pentru a primi notificări cu cele mai importante știri! Nu, multumesc Accept
Jurnalul.ro Tech ChatGPT, Copilot, dar și alte instrumente AI ar genera frecvent informații eronate

ChatGPT, Copilot, dar și alte instrumente AI ar genera frecvent informații eronate

de Redacția Jurnalul    |    11 Feb 2025   •   10:30
ChatGPT, Copilot, dar și alte instrumente AI ar genera frecvent informații eronate
Sursa foto: Hepta/ChatGPT

Un studiu BBC a descoperit că inteligența artificială, inclusiv ChatGPT și Copilot, generează adesea răspunsuri eronate și distorsionate în legătură cu știrile și evenimentele curente.

Un studiu realizat de BBC a arătat că chatbot-urile AI, precum ChatGPT, Copilot, Gemini și Perplexity, furnizează răspunsuri eronate și distorsionate atunci când sunt întrebate despre știri și evenimente curente.

Cercetătorii au cerut celor patru instrumente AI să răspundă la 100 de întrebări folosind articole BBC ca sursă, iar răspunsurile au fost ulterior evaluate de jurnaliști specializați.

Mai mult de jumătate dintre răspunsurile generate au avut „probleme semnificative”, incluzând afirmații eronate despre politicieni precum Rishi Sunak și Nicola Sturgeon, despre recomandările NHS cu privire la vapat, dar și date istorice greșite.

De exemplu, Gemini a omis contextul condamnărilor lui Lucy Letby pentru crimă și tentativă de crimă, iar Copilot a făcut afirmații greșite despre diverse victime ale violenței, cum ar fi Gisèle Pelicot. Mai mult, ChatGPT a menționat persoane moarte, cum ar fi Ismail Haniyeh, ca și cum ar fi fost în viață.

Directorul executiv al BBC pentru știri, Deborah Turness, a avertizat că instrumentele AI riscă să erodeze încrederea publicului în adevăr și îndeamnă companiile de AI să colaboreze cu organizațiile media pentru a asigura acuratețea răspunsurilor.

››› Vezi galeria foto ‹‹‹

(sursa: Mediafax)

×
Subiecte în articol: ChatGPT copilot ai informatii eronate