Starling Bank, un creditor exclusiv online, atrage atenția că escrocii pot să utilizeze inteligența artificială pentru a reproduce vocea unei persoane din numai trei secunde de sunet găsite, de exemplu, într-un videoclip postat online de persoana respectivă. Escrocii pot identifica apoi prietenii și membrii familiei persoanei și pot folosi vocea clonată de AI pentru a realiza un apel telefonic prin care să ceară bani.
Aceste tipuri de escrocherii au potențialul de a „păcăli milioane de persoane”, a declarat Starling Bank, într-un comunicat de presă transmis miercuri.
Această practică a afectat deja sute de persoane. Potrivit unui sondaj realizat luna trecută de bancă împreună cu Mortar Research, pe un eșantion de peste 3.000 de adulți, mai mult de 25% dintre respondenți au spus că au fost vizați de o înșelătorie prin clonarea vocii de către AI în ultimele 12 luni.
Sondajul a mai arătat că 46% dintre respondenți nu știau că există astfel de escrocherii și 8% ar trimite atât de mulți bani cât le-ar cere un prieten sau un membru al familiei, chiar dacă apelul li s-ar părea ciudat.
Atenție la conținutul online cu înregistrări ale vocii
„Oamenii postează în mod regulat conținut online care conține înregistrări ale vocii lor, fără să își imagineze vreodată că acest lucru îi face mai vulnerabili în fața escrocilor”, a declarat Lisa Grahame, Chief Information Security Officer la Starling Bank.
Banca încurajează oamenii să-i convină persoanele apropiate asupra unei „fraze de siguranță” - o frază simplă, aleatorie, ușor de reținut și diferită de celelalte parole - care poate fi utilizată pentru a le verifica identitatea la telefon.
Creditorul recomandă să nu se împărtășească fraza de siguranță prin text, ceea ce ar putea facilita aflarea acesteia de către escroci, dar, dacă este împărtășită în acest mod, mesajul ar trebui șters după ce a fost văzut de cealaltă persoan l-a văzut.
Întrucât inteligența artificială devine din ce în ce mai aptă să imite vocile umane, cresc îngrijorările cu privire la potențialul risc asupra oamenilor, de exemplu ajutând infractorii să le acceseze conturile bancare și să răspândească informații false.
La începutul acestui an, OpenAI, creatorul chatbot-ului cu inteligență artificială generativă ChatGPT, a prezentat instrumentul său de replicare a vocii, Voice Engine, dar nu l-a pus la dispoziția publicului în acel stadiu, citând „potențialul de utilizare abuzivă a vocii sintetice”, potrivit Antena3 CNN.