OpenAI și-a prezentat instrumentul ca având o „ soliditate și o acuratețe apropiată de nivelul uman”. Totuși, Whisper este predispus să inventeze bucăți de text sau chiar propoziții întregi, conform interviurilor cu peste 10 ingineri de software, dezvoltatori și cercetători universitari.
Acești experți au declarat că unele dintre textele inventate - cunoscute în industrie drept halucinații - includ comentarii rasiale, retorică violentă și chiar tratamente medicale imaginare.
Experții au declarat că astfel de invenții sunt problematice, deoarece Whisper este utilizat într-o serie de industrii din întreaga lume pentru a traduce și transcrie interviuri, a genera texte și a crea subtitrări pentru videoclipuri.
Ei au mai declarat că și mai îngrijorătoare este graba centrelor medicale de a utiliza Whisper pentru a transcrie consultațiile pacienților cu medicii, în ciuda avertismentelor OpenAI, care a spus că instrumentul nu ar trebui utilizat în „domenii cu risc ridicat”.
Astfel de greșeli ar putea avea „consecințe foarte grave”, în special în mediul spitalicesc, a declarat Alondra Nelson, care a condus Biroul de politici științifice și tehnologice al Casei Albe pentru administrația Biden, până anul trecut.
„Nimeni nu își dorește un diagnostic greșit”, a adăugat Nelson. „Ar trebui să existe un standard mai ridicat”.
Whisper este, de asemenea, utilizat pentru a crea subtitrări pentru persoanele surde și cu deficiențe de auz - o populație expusă unui risc deosebit de transcrieri greșite.
Peste 30.000 de medici și 40 de sisteme de sănătate, inclusiv Clinica Mankato din Minnesota și Spitalul de Copii din Los Angeles, au început să folosească Whisper.
(sursa: Mediafax)