Nel 2020 un dirigente di banca di Hong Kong ha ricevuto una telefonata da un uomo di cui conosceva la voce: il direttore di una società con cui aveva già parlato. La sua azienda stava per effettuare un’acquisizione e aveva bisogno che la banca autorizzasse alcuni bonifici per un importo di 35 milioni di dollari.

Un avvocato di nome Martin Zelner era stato assunto per coordinare le procedure e il direttore della banca poteva vedere nella sua casella di posta le e-mail del direttore e di Zelner confermare le richieste. Il direttore della banca, ritenendo tutto legittimo, ha iniziato a fare i bonifici.

Quello che non sapeva era di essere stato ingannato da un’elaborata truffa in cui i truffatori avevano usato la tecnologia del «deep fake audio» per clonare la voce del suo interlocutore.

Prima dell’invasione dell’Ucraina da parte della Russia nel 2022, gli Stati Uniti hanno rivelato un complotto russo per utilizzare video deepfake finalizzati a giustificare un’invasione dell’Ucraina. A invasione avvenuta, funzionari del governo ucraino temevano che la Russia avrebbe potuto diffondere deepfake con il presidente ucraino Volodymyr Zelenskyj che si arrendeva.

Ed è successo: gli hacker hanno divulgato un video con il presidente Zelenskyy che dice ai suoi soldati di arrendersi, e il video era un falso.

L’uso di falsi video («deepfake video») a fini di disinformazione politica, manipolazione economica, furti e frodi, era considerato un pericolo già nel 2014 dagli analisti del World Economic Forum di Davos.

La redazione consiglia:
Le guerre del futuro si combatteranno nei nostri cuori

La regola oggi è che tutte le campagne di disinformazione possono includere deepfake, foto falsificate, siti Web contraffatti e altre informazioni estrapolate dal contesto per ingannare il pubblico. L’Ue sta lavorando a limitarne gli eventuali impatti attraverso le grandi piattaforme ma non sappiamo se il Digital Services Act e il Codice di condotta contro la disinformazione pubblicato a giugno ci riusciranno.

Gli esperti stimano che entro il 2026 fino al 90% dei contenuti online potrebbero essere generati sinteticamente usando l’intelligenza artificiale per i giochi e per migliorare i servizi, ma anche per scopi criminali.

In un rapporto di Europol dedicato al tema si legge che «Quotidianamente, le persone si fidano della propria percezione per farsi guidare nelle scelte e tendono a trattare le registrazioni uditive e visive di un evento come un resoconto veritiero. Foto e video sono informazioni importanti per il lavoro di polizia e prove in tribunale. Ma cosa accadrebbe se questi media potessero essere generati artificialmente, adattati per mostrare eventi che non hanno mai avuto luogo, travisare gli eventi o distorcere la verità?».

Sembra fantascienza ma non lo è. L’«Internet crime complaint center» dell’Fbi, l’Ic3, conferma che sempre più aziende denunciano candidature di lavoro fasulle, basate sui deepfake, per colloqui di lavoro. Secondo Kaspersky, «gli impostori utilizzano video, immagini, registrazioni e identità rubate fingendosi qualcun altro per ottenere una posizione IT da remoto. L’assunzione di un deepfake può aprire le porte dell’azienda ai cybercriminali e la vittima probabilmente non avrà la possibilità di consegnare il truffatore alla giustizia».

Con l’evoluzione della tecnologia, gli attaccanti possono utilizzare questo metodo per raggirare i test biometrici utilizzati dalle banche e dagli scambi di criptovalute per verificare l’identità degli utenti contro il riciclaggio di denaro.
Secondo un rapporto di Sensity, 9 su 10 principali fornitori di servizi Know Your Customer (KYC) sono vulnerabili agli attacchi deepfake.