Bruxelles affida all’Intelligenza Artificiale la sorveglianza di massa. E attacca la crittografia
– Ap
Europa

Bruxelles affida all’Intelligenza Artificiale la sorveglianza di massa. E attacca la crittografia

Diritti Con il nuovo regolamento CSAM, l'Europa vuole prevenire pedofilia e abusi sui minori. Ma in realtà apre la porta a una sorveglianza di massa indisciminata di tutto ciò che si muove on line (testi, messaggini, foto, video) mettendo a rischio la riservatezza delle comunicazioni. A peggiorare il tutto, compiti così immensi saranno svolti da intelligenze artificiali private
Pubblicato più di 2 anni faEdizione del 12 maggio 2022

Niente da fare, proteste inutili: e così l’Europa sarà costretta a subire una “sorveglianza totale, una sorveglianza di massa”. Autoritaria, come tutte le sorveglianze, ma anche ipocrita, perché non dichiarata esplicitamente. Ma di fatto imposta.

Sì, perché l’11 maggio “resterà alla storia come una delle giornate più inquietanti per i diritti civili”, per usare le parole dell’ultimo comunicato dell’Edri, il network – moderato, moderatissimo – che si occupa delle libertà digitali nel vecchio continente.

Cos’è successo in questo anonimo mercoledì di maggio? E’ accaduto che la commissaria europea Ylva Johansson – svedese, da tempo nei ruoli di vertice di Bruxelles, esponente della destra socialdemocratica, la stessa sostenitrice dell’accesso incondizionato delle polizie ai database di riconoscimento facciale – ha presentato, dopo averlo fatto approvare dalla Commissione, il testo delle nuove misure a “protezione dei minorenni”. Il titolo esatto recita così: “Regolamento per prevenire e combattere gli abusi sessuali sui minori in rete”. In acronimo, col risparmio di qualche parola: Csam.

Cosa prevede? Semplicemente il monitoraggio generalizzato e totale di qualsiasi cosa si muova on line: messaggi, social, siti web, film, immagini, canzoni. Tutto.

Lo dovranno fare i provider, chi fornisce l’accesso alle reti, i fornitori di hosting.

Già ma come lo potranno fare? Ed è qui l’ipocrisia delle istituzioni del vecchio continente. Perché prevenendo le obiezioni di tutte le associazioni per i diritti digitali, prevenendo i probabili ricorsi alla Corte europea per l’evidente violazione del Gdpr – il regolamento sovranazionale che vieta sempre e comunque qualsiasi legge assomigli al “monitoraggio preventivo” -, la Johansson ha scritto e fatto accettare un testo che sfida le regole del buon senso.

Dice che vanno evitate misure che possano violare la privacy ma nello stesso tempo le impone.

Alle aziende fornitrici – non ai governi – che dovranno fare di tutto e di più per controllare che attraverso i loro servizi non passino messaggi con contenuti pedofili. Se non lo faranno, se non controlleranno tutto, avranno sanzioni pesantissime, saranno punite. E soprattutto saranno loro imposte “misure aggiuntive”.

E quindi? Quindi dovranno scansionare ogni comunicazione privata, ogni video, ogni messaggio vocale, tutte le immagini. E se troveranno qualcosa di sospetto, lo dovranno segnalare alle autorità competenti.

E’ come se quarant’anni fa, solerti burocrati avessero iniziato ad aprire e a leggere tutte le lettere e tutte le cartoline spedite. A parte il fatto che non sarebbero più neanche funzionari governativi a farlo ma impiegati privati, tutto questo, oggi non è più possibile. Con miliardi di comunicazioni quotidiane. Ed allora si ricorre all’intelligenza artificiale. Software addestrati che però, come dimostrano tutti gli studi, in tanti casi sbagliano. Sbagliano a riconoscere un volto, sbagliano a segnalare come “abusi” conversazioni che sono normalissime.

Ma non è tutto. C’è qualcosa di ancora più grave. Perché il nuovo regolamento – anche qui: nella pratica più che nel testo – segnerà l’attacco più grave alla crittografia.

Paragonabile a quello mosso all’epoca da Trump e dai suoi. Perché la crittografia end to end – utilizzata da WhatsApp, per dirne una – si basa sul principio semplicissimo che nessuna terza parte, nessuno al di fuori di chi invia o di chi legge il messaggio, può sbirciare nel contenuto. E’ il sistema che consente ovunque nel mondo ai dissidenti di avere voce, che permette alle minoranze di esprimersi nonostante la censura. In Russia, in Ucraina, Myanmar, Nigeria, ovunque.

La scansione della crittografia “dal lato client” – il controllo dal lato di chi scrive i messaggi – come ha suggerito la Johansson, semplicemente non è realizzabile, avvertono i tecnici e gli esperti in ogni parte del mondo. O il messaggio è indecifrabile o non è crittografia.

Problema non da poco che qualcuno deve aver fatto presente alla commissaria, visto che nel regolamento si parla di improbabili soluzioni tecniche che saranno messe a disposizione da un “nuovo centro europeo”, in un futuro non meglio specificato.

Parole, quelle della Commissione, che servono solo ad “infiocchettare” misure sbagliate, per usare stavolta le parole di Ella Jakubowska, Policy Advisor dell’EDRi. Perché – ripetono in tanti – soluzioni come quelle prospettate nel caso della crittografia non esistono. L’unico risultato – visto che il regolamento a breve sarà messo ai voti e non è mai accaduto che un testo passato in Commissione sia bocciato dall’aula -; l’unico risultato, si diceva, sarà che i telefonini di tutti diventeranno molto, ma molto più vulnerabili e che sarà ridotta la ricerca su sistemi più avanzati di crittografia. O anche – perché no? – l’abbandono della crittografia da parte di chi già l’adotta.

In tutto questo ovviamente la lotta alla pedofilia non c’entra nulla. Perché – anche qui lo ricordano le organizzazioni di base europee – “non esiste una soluzione tecnica ad un enorme problema” che ha implicazioni sociali, politiche, culturali ed anche investigative. Che andrebbe affrontato col coordinamento degli agenti, con la formazione di personale, con l’aiuto di esperti, col sostegno degli insegnanti e così via.

Sapendo che chi vuole colpire i minorenni non scrive su FaceBook, non scrive messaggi criptati, ma – come dimostrano le indagini, tutte le indagini – si rivolge soprattutto ai forum. Che sono leggibili da chiunque lo voglia.

No, la lotta alla pedofilia non c’entra nulla. Sembra un pretesto. Per fare altro.

“Non ci sono backdoor che possano essere utilizzate solo per il nobile obiettivo di proteggere i bambini. – dice Felix Reda, ex eurodeputato, dirigente della Society for Civil Rights, una delle voci più autorevoli nel vecchio continente su copyright e diritti digitali – Giornalisti, avvocati, informatori e tutti gli altri che fanno affidamento su comunicazioni riservate saranno esposti a rischi enormi”.

Ma forse l’obiettivo era proprio questo.

ABBONAMENTI

Passa dalla parte del torto.

Sostieni l’informazione libera e senza padroni.
Leggi senza limiti il manifesto su sito e app in anteprima dalla mezzanotte. E tutti i servizi della membership sono inclusi.

I consigli di mema

Gli articoli dall'Archivio per approfondire questo argomento