Di seguito la seconda e ultima parte di un reportage sulle democrazie europee alla prova dei deepfake generati dall’intelligenza artificiale.

Truffe finanziarie, immagini sessualmente esplicite ed ex-premier che tornano in vita. I video deep fake generati tramite intelligenza artificiale hanno il potenziale di mettere a rischio l’intero processo democratico manipolando la realtà, diffondendo disinformazione, perpetuando stereotipi di genere in modo da alterare la fiducia dell’elettorato.

In paesi europei come l’Italia, il Belgio e la Romania si sono già verificati casi di video manipolati durante le recenti tornate elettorali.

La Romania, in particolare, affronta quest’anno quattro tornate elettorali: dalle europee alle politiche, le amministrative e infine le elezioni presidenziali, il 24 novembre. Un anno ricco di appuntamenti, in cui figure politiche di spicco sono state già vittime di deepfake.

In Romania la fiducia nelle istituzioni è in caduta libera: quella nel governo è crollata dal 34,8% al 19,4% così come quella nel parlamento è scesa dal 26,7% al 17,4% nell’ultimo decennio.

Quest’anno centinaia di migliaia di giovani della generazione Z rumena votano per la prima volta. Dato il loro massiccio utilizzo dei social media potrebbero essere particolarmente vulnerabili a tattiche manipolative digitali.

L’esperta in deepfake e sicurezza online Agnes Venema crede invece che: «A rischio non siano le generazioni più giovani che sono esperte di tecnologia, bensì i giovani boomer che non capiscono appieno come operano i social e che potrebbero essere più vulnerabili ai pericoli dei deep fake».

IL VIDEO DEEPFAKE più famoso è stato quello del febbraio 2024, che ritrae il primo ministro Marcel Ciolacu mentre promuove falsi investimenti in Hidroelectrica, la principale compagnia elettrica della Romania.

A distanza di pochi giorni, il ministro dell’Energia Sebastian Burduja è apparso in un altro video manipolato per promuovere la vendita di azioni false di Enel. Burduja ha intrapreso un’azione legale contro i creatori e ha precisato che si è trattato di «un messaggio veicolato per compromettere e danneggiare» la sua immagine e «che può certamente essere considerato diffamazione o influenzare i risultati elettorali».

Il governo rumeno ha proposto una legge che prevede da 6 mesi a 2 anni di reclusione per la creazione di deepfake, criticata dalla società civile perché simile al rigido “modello cinese” dove si criminalizzano anche contenuti legali come la satira politica. Inizialmente approvato al Senato nel 2023, è stato rinviato per la revisione alla Camera dei deputati nel febbraio 2024.

IL MINISTERO rumeno per la Digitalizzazione ha annunciato l’istituzione di uno sportello che consente alla cittadinanza di segnalare gli episodi di deep fake elettorali tramite il proprio sito web. Un team di dieci professionisti esaminerà queste segnalazioni e, se ritenute valide, le inoltrerà a piattaforme come Facebook e TikTok per la rimozione.

Un’operazione non priva di polemiche: Bogdan Manolea, direttore esecutivo dell’Associazione per la tecnologia e internet (Apti) ha criticato il processo di selezione di questi professionisti sottolineando che «non è stato seguito il giusto processo di trasparenza e informazione pubblica sulla loro identità».

In questo anno strategico per la Romania, le discussioni con le piattaforme tech per la rimozione dei deep fake sono in corso. Marian Andrei, conduttore del popolare programma televisivo di approfondimento digitale I like IT, ha osservato che «i deepfake vengono promossi sui social con le sponsorizzazioni, il che significa che aziende come Facebook, Google e Tik Tok guadagnano soldi fianco a fianco con i creatori di deepfake».

Per i giganti tecnologici continuare a pubblicare questi video manipolati rimane un affare che genera profitti e rende ancora più difficile il contrasto alla disinformazione online.

COME LA ROMANIA, anche il Belgio riconosce l’urgenza di contrastare i deepfake. Il Paese è stato uno dei primi in Europa ad assistere a casi di video politici manipolati con intelligenza artificiale.

Nel 2018, il partito social democratico sp.a ha pubblicato un video manipolato di Donald Trump che esortava il Belgio a lasciare gli accordi di Parigi sul clima. E l’ambiente è stato il tema al centro anche del deepfake pubblicato da Extinction Rebellion Belgio nel 2020 modificando un discorso della premier Sophie Wilmès sulla diffusione del Covid.

Alla fine del 2023, il partito cristiano-democratico fiammingo CD&V ha pubblicato un deepfake elettorale con protagonista il defunto ex primo ministro Jean-Luc Dehaene, riportandolo in vita in un video concordato con la famiglia.

Questa serie di casi hanno svelato il potenziale disinformativo dei deepfake, per questo il Belgio ha intrapreso diverse strategie per il loro contrasto in un quadro di governance multilivello.

Il governo ha coinvolto la cittadinanza nel dibattito, convocando un comitato sull’Ia. Per tre settimane, sessanta cittadini e cittadine selezionate in modo casuale, con diversi livelli di conoscenza tecnologica, hanno discusso di deepfake e altre questioni legate all’Ia insieme a importanti accademici ed esperti del settore per consigliare direttamente il governo.

IL LORO LAVORO è culminato in un report consegnato all’esecutivo, ai politici e alla stampa. In merito ai deepfake, il gruppo ha chiesto un cambiamento importante, sottolineando che dovrebbero essere considerati «ad alto rischio» nell’AI Act, non l’attuale designazione di «rischio limitato», ed esortando i governi e l’Ue a porre la questione in cima alle loro agende.

Inès da Camara Santa Clara Gomes, addetta alla presidenza belga dell’Ue nel 2024 e organizzatrice del tavolo di discussione sul’Ia, ha precisato che «la visione presentata nella relazione del panel ha influenzato il contributo del Belgio all’agenda strategica dell’Ue e probabilmente modellerà l’approccio e le posizioni future sull’intelligenza artificiale».

Il governo belga ha inoltre nominato un comitato sull’etica dei dati e sull’Ia, con l’obiettivo di fornire consulenza scientifica su questioni etiche, legali, economiche, sociali e ambientali legate a questa tecnologia.

LA DISCUSSIONE cittadina è stata pioniera a livello europeo. Nel continente il contrasto della disinformazione online tramite deepfake rimane in evoluzione, specialmente in termini di diritti umani e discriminazione.

Costanza Nardocci, professoressa associata di diritto costituzionale all’Università degli Studi di Milano e parte del progetto Humanall4AI, che studia le relazioni tra Ia e diritti, sostiene: «L’Ai Act si coordina poco con le direttive di diritto antidiscriminatorio dell’Ue ed è meno sensibile all’approccio human-rights-based (basato sui diritti umani, ndr) del trattato sull’Ia del Consiglio d’Europa». «Servirebbe maggiore attenzione a come la ’macchina’ interferisce con il principio di non discriminazione, con le persone e i loro diritti, analizzando le correlazioni che l’Ia instaura tra caratteristiche protette e gli elementi che la ’macchina’ utilizza per compiere le sue decisioni. È fondamentale riconoscere, per poi contenere, ogni effetto discriminatorio».

Questo articolo ha ricevuto il sostegno del Display Europe Grant promosso dalla European Cultural Foundation

La puntata precedente è stata pubblicata sul manifesto del 9 luglio 2024:

La redazione consiglia:
Democrazia deepfake