La privacy è l’altra faccia della cybersecurity. Però mentre la privacy è un diritto fondamentale dell’Unione Europea, la cybersecurity è ancora sottovalutata.

Eppure, in un mondo in cui ogni comportamento viene datificato diventando un dato digitale, proteggere quei dati che rimandano ai comportamenti quotidiani è cruciale proprio per la loro capacità di spiegare i comportamenti passati e di predire quelli futuri.

Se non riusciamo a proteggere i dati che ci definiscono come cittadini, elettori, lavoratori, e vicini di casa, potremmo essere esposti a un potere incontrollabile, quello della sorveglianza di massa, della manipolazione politica e della persuasione commerciale.

Privacy e cybersecurity sono la precondizione per esercitare il diritto alla libertà d’opinione, d’associazione, di movimento e altri diritti altrettanto importanti.
Perciò pensare alla sicurezza informatica dei nostri dati come a un diritto umano fondamentale non dovrebbe sembrare eccessivo.

In fondo è questo il ragionamento che fanno gli studiosi che in questi giorni hanno criticato l’Unione Europea per come sta gestendo i fondi per l’intelligenza artificiale.

Due ricercatori, Daniel Leufer e Fieke Jansen, citano l’esempio iBorderCtrl, un progetto finanziato dal programma europeo Horizon 2020 e che mira a creare un sistema automatizzato di sicurezza delle frontiere basato sulla tecnologia di riconoscimento facciale e sulla misurazione delle micro-espressioni per rilevare falsi e bugie.

L’Ue ha speso 4,5 milioni di euro per un progetto che «rileva» se chi entra in Europa sta mentendo o meno ponendo loro 13 domande davanti a una webcam.

Nella comunità scientifica non c’è però nessuna certezza che le emozioni umane possano essere dedotte in modo affidabile dall’analisi biometrica.

Un altro esempio di AI discutibile finanziata da Horizon 2020 è il progetto SEWA. Ha ricevuto 3,6 milioni di euro per sviluppare una tecnologia in grado di leggere le profondità dei sentimenti umani per commercializzare in modo efficace i prodotti da vendere ai consumatori utilizzando un «motore di annunci» basato sulla raccomandazione, cioè su dettagliati profili relativi a emozioni e comportamenti d’acquisto.

È accettabile sviluppare una tecnologia che sfrutti gli stati emotivi delle persone per fini commerciali?

Nel white paper europeo sulla regolamentazione dell’IA trapelato due settimane fa, ci sono piani per investire ulteriormente in «servizi di intelligenza artificiale basati su cloud mirati», «offrire programmi leader a livello mondiale nell’intelligenza artificiale» e garantire «l’accesso finanziario agli innovatori dell’intelligenza artificiale». Queste intenzioni fanno a pugni con la protezione promessa ai cittadini europei di fronte all’invasività delle tecniche di intelligenza artificiale.

La Commissione è attualmente incerta se introdurre o meno un divieto di 3-5 anni sul riconoscimento facciale: da un lato, tale divieto introduce un principio di precauzione, per evitare futuri abusi, ma dall’altro teme che un divieto «potrebbe ostacolarne lo sviluppo e l’adozione».

Una risposta a questi dilemmi potrebbe essere data dall’impegno dichiarato della Commissione nei confronti dell’IA affidabile o «trustworthy AI», attraverso le Linee guida etiche per l’IA e il famoso «Regolamento AI» promesso per i 100 giorni della neonata Commissione.

Gli appalti pubblici hanno infatti un enorme potenziale per promuovere lo sviluppo di sistemi di intelligenza artificiale «affidabili» che rispettino i diritti umani, aderiscano alle linee guida etiche e promuovano lo sviluppo umano. Basta volerlo.