I voice deepfake stanno entrando in banca. Analizziamo cosa sono e perché bisogna prestarci molta attenzione.
Cosa sono i voice deepfake
I voice deepfake sono interpretazioni vocali che imitano la voce di persone reali, creati attraverso l’intelligenza artificiale (AI). Sono realizzati grazie a software che utilizzano algoritmi di deep learning. Tramite questi algoritmi, è possibile imitare la voce di una persona al fine di fargli dire cose che non ha mai detto.
Purtroppo, la velocità dello sviluppo tecnologico, la diminuzione dei costi dei programmi di intelligenza artificiale generativa e l’ampia disponibilità di registrazioni della voce delle persone su Internet hanno creato le condizioni perfette per le truffe. Che in futuro sono destinate a salire ulteriormente, con il miglioramento progressivo delle capacità di imitazione della voce umana da parte dell’AI.
Particolarmente soggetti a questo rischio sono i personaggi famosi, i cui discorsi pubblici sono spesso disponibili gratuitamente sul web. Ma anche nel caso di persone comuni è semplice reperire campioni della loro voce tramite i video o gli audio da loro pubblicati sui loro profili social.
Un settore molto a rischio è quello bancario, specie se i truffatori sono in possesso dei dati del conto corrente.
Le truffe nelle banche
Un esperto di Pindrop, azienda che monitora che esamina i sistemi automatici di verifica vocale per 8 delle maggiori banche americane, ha dichiarato al “New York Times” di aver riscontrato quest’anno un’impennata nella sua diffusione e nella sofisticazione dei tentativi di frode vocale dei truffatori. Il ceo il ceo Vijay Balasubramaniyan ha spiegato:
“Tutti i call center ricevono chiamate dai truffatori, in genere da 1.000 a 10.000 all’anno. È normale che ogni settimana arrivino 20 chiamate da parte di truffatori. Finora, le voci false create da programmi informatici rappresentano solo una manciata di queste chiamate. Queste truffe hanno iniziato a verificarsi solo nell’ultimo anno”.
La maggior parte degli attacchi con voci false che Pindrop ha riscontrato sono avvenuti nei call center dei servizi di carte di credito. Un altro grande fornitore di autenticazione vocale, Nuance, ha riscontrato un attacco deepfake a un suo cliente attivo nei servizi finanziari alla fine del 2022.
I diversi tipi di attacchi con voice deepfake
Gli attacchi più rudimentali utilizzano la tecnologia type-to-text, per cui il truffatore digita le parole in un programma, che poi le legge con un parlato sintetico.
Ma vi sono anche sistemi di AI generativa, come VALL-E di Microsoft, in grado di creare una finta voce che dice tutto ciò che l’utente desidera, utilizzando solo 3 secondi di audio campionato.
Tutti gli attacchi sono accomunati dalla rilevazione delle informazioni personali dei clienti delle banche. Secondo la Federal Trade Commission, tra il 2020 e il 2022 i dati personali di oltre 300 milioni di persone sono finiti nelle mani degli hacker, causando perdite per 8,8 miliardi di dollari. Non sono i ladri a usare direttamente le informazioni, ma le mettono in vendita. Sono poi altri ad associarle a persone reali.