
Un studiu realizat de BBC a arătat că chatbot-urile AI, precum ChatGPT, Copilot, Gemini și Perplexity, furnizează răspunsuri eronate și distorsionate atunci când sunt întrebate despre știri și evenimente curente.
Cercetătorii au cerut celor patru instrumente AI să răspundă la 100 de întrebări folosind articole BBC ca sursă, iar răspunsurile au fost ulterior evaluate de jurnaliști specializați.
Mai mult de jumătate dintre răspunsurile generate au avut „probleme semnificative”, incluzând afirmații eronate despre politicieni precum Rishi Sunak și Nicola Sturgeon, despre recomandările NHS cu privire la vapat, dar și date istorice greșite.
De exemplu, Gemini a omis contextul condamnărilor lui Lucy Letby pentru crimă și tentativă de crimă, iar Copilot a făcut afirmații greșite despre diverse victime ale violenței, cum ar fi Gisèle Pelicot. Mai mult, ChatGPT a menționat persoane moarte, cum ar fi Ismail Haniyeh, ca și cum ar fi fost în viață.
Directorul executiv al BBC pentru știri, Deborah Turness, a avertizat că instrumentele AI riscă să erodeze încrederea publicului în adevăr și îndeamnă companiile de AI să colaboreze cu organizațiile media pentru a asigura acuratețea răspunsurilor.
(sursa: Mediafax)
