Europa

Con la scusa delle Olimpiadi la Francia rompe il tabù dell’IA come sorveglianza di massa

Con la scusa delle Olimpiadi la Francia rompe il tabù dell’IA come sorveglianza di massaUna telecamera di sorveglianza in una strada di Parigi – Afp via Getty Images

Olimpiadi 2024 In barba alle norme europee, il 21 marzo l'Assemblea francese approverà una grande legge sui prossimi Giochi parigini in cui, all'articolo 7, si aprono le porte all'uso indiscriminato dell'IA nei controlli delle telecamere di sorveglianza

Pubblicato più di un anno faEdizione del 16 marzo 2023

Guardare le Olimpiadi parigine del prossimo anno, nell’estate del 2024. Oppure, più brutalmente, essere “guardati” dalle Olimpiadi parigine. Essere controllati, spiati, catalogati. In barba a qualsiasi norma europea, violando tutte le leggi del vecchio continente. Creando un precedente che nessun paese – e nessun regime – aveva avuto il coraggio di sperimentare. Finora.

E’ questione di giorni: il 21 marzo, proprio all’inizio della primavera, l’assemblea nazionale francese voterà il “Projet de loi relatif aux jeux Olympiques et Paralympiques”, che è stato già ratificato dal Senato a gennaio. E dentro quelle misure – si tratta soprattutto di una distribuzione di soldi agli enti interessati e di divisioni di incarichi – c’è anche l’articolo 7.

Una quindicina di righe che sembrano tratte da un racconto distopico di William Gibson. Si prevedono migliaia di telecamere, soprattutto nella capitale ma anche in altre “zone interessate”, non meglio specificate. Aeroporti ed altre città probabilmente.

Telecamere – ed è la cosa più inquietante – che saranno “guidate” da un’intelligenza artificiale. Segnaleranno alla polizia “assembramenti sospetti”, “comportamenti inadeguati”, “atteggiamenti che mettono a rischio la convivenza”.

Video-sorveglianza guidata da algoritmi. Sarebbe il primo paese europeo ad autorizzarla. Mesi fa ci aveva provato la Serbia – “paese candidato” a far parte della Ue – ma le proteste popolari avevano costretto ad una rapida marcia indietro.

Ora lo sta facendo la Francia.

Una telecamera di sorveglianza alla Torre Eiffel, foto Afp via Getty Images

E che si tratti di misure distopiche lo raccontano tante altre cose. In questo famigerato articolo sette si dice esplicitamente che la video sorveglianza comandata da un algoritmo dovrà occuparsi anche di segnalare il “vagabondaggio”, l’accattonaggio e le “assemblee stazionarie atipiche”. Per capire: anche cinque o sei persone che magari discutono fra di loro alla fermata di una metro, se all’algoritmo sembreranno “strane” potranno essere segnalate.

Ce n’è quanto basta perché 34 organizzazioni per i diritti umani e digitali – tutti, da AccessNow ad Edri, da Article19 a Privacy Network – abbiano scritto una lettera-denuncia. Dove non usano mezzi termini: queste misure “violerebbero il diritto internazionale, violerebbero i diritti umani perché contrarie ai principi di necessità e proporzionalità, perché mettono a rischio in modo inaccettabile questioni come la privacy, la libertà di riunione e di associazione. Il diritto alla non- discriminazione”.

La Quadrature du Net” – francese, forse la più prestigiosa organizzazione per i diritti digitali del vecchio continente – fa di più. Smonta una ad una le tesi presentate dal governo francese.

Macron e i suoi, infatti – davanti alla prima ondata di critiche – si sono difesi sostenendo che le informazioni ricavate dalla video sorveglianza e dall’algoritmo non sarebbero comunque in grado di risalire ad una singola persona. Non ci sarebbe l’“identificazione univoca”, per dirla con un linguaggio burocratico. Ma un po’ non basta ed un po’ – lo sanno tutti – non è vero.

Le norme europee (nel GDPR) che regolano i dati sono chiare al riguardo: “… la capacità di individuare una persona da una folla o dall’ambiente circostante, indipendentemente dal fatto che il nome della persona sia noto, costituisce identificazione univoca”. Le persone insomma riprese da un video, i loro volti immagazzinati in un data base, elaborati da un software portano all’identificazione. Daranno un nome e un cognome ai singoli. Colpevoli di nulla. E questo è vietato, sarebbe vietato. Vietatissimo.

Addirittura sarebbe vietato nella nuova legge per regolamentare l’uso dell’intelligenza artificiale – l’AI Act – che l’Europa sta discutendo e che probabilmente sarà varata prima delle Olimpiadi. E che nella sua prima, anche se molto generica stesura, dice esattamente che l’uso di sistemi basati sull’intelligenza artificiale e sulla “sorveglianza biometrica” per prevedere i comportamenti, le emozioni o le intenzioni delle persone, sarà bandito nel vecchio continente.

Ma alla Francia tutto questo non interessa. Si fanno forti del caos avvenuto l’estate scorsa, alla finale di Coppa dei Campioni, quando tanti errori – errori umani, della gendarmeria parigina – nella gestione dell’afflusso dei tifosi del Liverpool – e dei focolai di incidenti che ne seguirono – fu attribuita alla mancanza di strumenti di controllo tecnologici.

Una tesi accettata dai media ed ora ecco il ““projet de loi”. Coi rischi dei quali si è parlato, coi rischi futuri. Ancora il documento di tutte le associazioni per i diritti: quell’articolo sette “è indicativo di una preoccupante tendenza dei governi ad ampliare i propri poteri di sorveglianza come misura di emergenza in nome della sicurezza. Eppure raramente queste misure eccezionali vengono poi revocate”. Al contrario, la sorveglianza e il controllo vengono poi normalizzati, senza garanzie, trasparenza, coinvolgimento delle parti interessate e meccanismi di responsabilità.

Ed è esattamente ciò a cui sta pensando il governo di Parigi. E stavolta a dirlo non è un’organizzazione della società civile ma Jean-Marie Burguburu, presidente della CNCDH, la commissione nazionale per i diritti umani. In un’intervista a una rivista di studi legislativi, il presidente dice: “Il governo parla di misure provvisorie ma le Olimpiadi e le Para Olimpiadi finiranno a settembre del prossimo anno. La norma resta in vigore, secondo quel che scrivono, fino all’estate del 2025”.

Pronta ad essere prorogata all’infinito. Con tutte le sue ambiguità.

Una centrale di polizia parigina, foto Afp via Getty Images

Perché in tanti giuristi si chiedono, per esempio, cosa significhi davvero comportamento “anomalo”: un uomo che corre, può scappare perché ha messo una bomba o semplicemente perché ha fatto tardi ad un appuntamento. L’intelligenza artificiale è in grado di capire la differenza?

Di esempi sulle ambiguità, sui nonsense, se ne possono fare altre decine. La conservazione dei dati, delle immagini, per dirne un’altra. Il progetto di legge dice che le facce, i volti raccolti a strascico saranno conservati solo per un mese. Ma anche questo non è vero: perché comunque, appena catturati, saranno usati per addestrare l’intelligenza artificiale e perciò resteranno per sempre nei data base. Con milioni di persone etichettate solo perché si sono comportate in modo “non consono”.

Ecco perché queste ultime giornate prima del voto sono decisive. Ci credono in pochi ma ci provano.

Il gruppo parlamentare de La France Insoumise chiama alla mobilitazione (“un testo liberticida, va respinto”), La Quadrature du Net ha predisposto un format, sul suo sito, dove chiunque può trovare il parlamentare della sua zona. E scrivergli. Perché almeno quelli socialisti – che al Senato non hanno trovato nulla di meglio che astenersi – scelgano di stare dalla parte dei diritti.

ABBONAMENTI

Passa dalla parte del torto.

Sostieni l’informazione libera e senza padroni.
Leggi senza limiti il manifesto su sito e app in anteprima dalla mezzanotte. E tutti i servizi della membership sono inclusi.

I consigli di mema

Gli articoli dall'Archivio per approfondire questo argomento