Qualcosa, meglio di niente. Un po’, non tutto. Ma soprattutto non per tutti. Qualcosa – e addirittura più di qualcosa – ma solo per i bianchi, per gli europei, per chi vive nella “fortezza”. Nulla per gli altri. Per chi bussa alle frontiere. Chissà allora se quel “qualcosa è meglio di niente” conserva validità se applicato a qualsiasi campo, a qualsiasi argomento. Chissà se la frase fatta resta valida se si applica all’intelligenza artificiale.

Se ne parla qui non tanto perché tutto il mondo discute su quelle tecnologie capaci di “familiarizzare” con la vita reale, diviso fra chi ha progettato e tratto profitto dall’intelligenza artificiale e denuncia catastrofici scenari futuri e chi, invece, da tempo lavora per limitarne i rischi e indica giustamente soprattutto i pericoli già esistenti sul suo utilizzo. E che pagano gli stessi di sempre.

Se ne parla ora perché qualche giorno fa due commissioni europee – quella sulla protezione dei consumatori e quella sulle libertà civili – hanno votato a stragrande maggioranza il testo delle normative che regolamenterà l’intero settore. Testo che fra un mese sarà ratificato dall’aula di Strasburgo avviando così la fase finale, le trattative a tre, fra assemblea, governi e Consiglio. E l’Europa anticiperà il resto del mondo dandosi proprie regole.

Va anche detto che la fase finale prima del varo definitivo – si chiama “trilogo” – da sempre segna un peggioramento delle leggi all’esame, anche se difficilmente stavolta il testo sarà stravolto, visto che è frutto di una delicatissima trattativa che va avanti da quasi due anni.

Già, ma in questo caso da dove si parte? E si ritorna a quel “qualcosa” iniziale. Perché il testo, emendato poco prima del voto delle commissioni, sembra un testo innovativo. Qualcuno – con un eccesso di entusiasmo – lo paragona addirittura, come filosofia, al GDPR, al regolamento europeo per la difesa della privacy, varato all’epoca di Stefano Rodotà.

Qui apparentemente siamo da quelle parti. Dalla parte delle persone. Si vieta il riconoscimento biometrico facciale “in tempo reale” negli spazi pubblici: Orban, un assessore leghista o chi per loro non potranno identificare un ragazzo che sta andando ad un corteo e fermarlo preventivamente. Né fermare un rom perché lo considerano sospetto. Si vieta anche l’identificazione biometrica cosiddetta “retroattiva”, cioè l’analisi successiva delle immagini raccolte dalle telecamere. La potrà fare solo la polizia in caso di accertata urgenza e solo – solo – su disposizione di un giudice.

Ancora. È vietata la profilazione delle persone raggruppandole per sesso, religione, orientamento politico. Divieto anche per tutto ciò che riguarda la “polizia predittiva”: quegli improbabili sistemi adottati anche in Europa per i quali l’intelligenza artificiale suggeriva agli agenti le aree delle città dove si sarebbero potuti commettere reati. Che erano sempre e solo i quartieri periferici.

La redazione consiglia:
ChatControl, il cavallo di Troia della sorveglianza

Messe da parte, poi, le ancora più improbabili tecniche per il riconoscimento delle emozioni. Messe da parte tardivamente, va detto, dopo che l’Europa ha avviato progetti di sperimentazione, uno si chiamava “programma iBorderCtrl”, investendoci anche un bel po’ di euro. Dove un software – addestrato con l’intelligenza artificiale – avrebbe dovuto chiedere ad un migrante: vieni da un paese in guerra? e dallo sguardo di chi rispondeva avrebbe dovuto capire l’attendibilità dell’affermazione. Progetto che fa sorridere se non fosse tragico anche solo a raccontarlo.

Al bando pure lo scraping – il furto, il raschiamento dei dati personali, dei volti raccolti nella rete – come ha fatto fino a ieri il colosso Clearview, che poi vendeva i suoi data-base alle polizie.

Non ci sarà più nulla di tutto ciò. E non dovrebbe esserci più nulla in futuro. Perché la legge classifica le intelligenze artificiali in diverse categorie. In base al rischio che possono produrre sulla società. E tutti i sistemi che possono avere un impatto con la vita delle persone – e che quindi rientrano nella categoria “alto rischio” – dovranno essere controllati, dovranno – a grandi linee – spiegare come funzionano, dovranno in qualche modo essere “trasparenti”. Con un luogo, un luogo virtuale, un sito insomma, dove le persone potranno andare a leggere se e come quei sistemi sono stati addestrati, cosa si intende per “alto rischio”.

Ce n’è anche per ChatGpt e gli strumenti simili creati dalle Big Tech, che dovranno a loro spese indagare se i loro prodotti producono danni, dovranno chiedere il consenso per usare i dati per il “machine learning”. E ce n’è anche per i titolari del copyright – non mancano mai – perché le norme imporranno il riconoscimento delle informazioni coperte dal “tutti i diritti riservati”. Come questo poi si tradurrà in un beneficio economico, è di là da decidere.

Qualcosa c’è, dunque. Ed è questa forse l’espressione giusta. Non tutto, visto che nel testo c’è l’assurdità di una sotto-norma contenuta nell’articolo 6, per la quale potrebbero essere le Big Tech, di fatto, a decidere in quale categoria i loro strumenti futuri andranno inseriti. Insomma, siamo al: “Tranquilli, certifico io che il bot collegato alla mia intelligenza artificiale è affidabile, non fa danni, rientra nella categoria rischio moderato”. Con meno obblighi.

Così come è prevista ancora – con una formulazione vaghissima – la possibilità per i singoli Stati di aggirare i divieti in casi di accertata necessità.

Nei? Solo nei in un complesso di norme salutato con un tripudio di dichiarazioni entusiastiche da quasi tutte le organizzazioni per i diritti digitali, anche le più radicali?

Se si guarda bene, però, le nuove leggi riguarderanno solo l’utente “bianco” dell’intelligenza artificiale, il medio cittadino europeo, a Parigi, Roma, Bruxelles, Varsavia e via dicendo. La legge elenca i campi nella quale sarà applicata, e riguarda davvero tutti gli aspetti della vita economica, politica, culturali. Tutti, tutti.

Tranne uno: la migrazione. Le norme non varranno per chi arriva alle frontiere. Così ad oggi, i migranti dovranno subire ancora il riconoscimento facciale, potranno essere “marchiati” e questo magari li seguirà in tutto il loro percorso. Dovranno subire ancora tutti gli effetti negativi di un’intelligenza artificiale che fino ad ora – come dice AccessNow, forse l’organizzazione più esposta nella denuncia – “li ha discriminati, razzializzati”.

La redazione consiglia:
Usa, negato asilo politico a una cittadina afghana: colpa dell’intelligenza artificiale

Una dimenticanza, un semplice vuoto legislativo? Non è così. Gli emendamenti per espandere i divieti anche a tutto ciò che riguarda i migranti, i confini erano stati sollecitati ma ignorati. Le frontiere saranno dunque terra di nessuno anche per l’intelligenza artificiale e lo saranno per scelta, non per errore. Ed allora?

Un’innovazione, sicuramente un beneficio per qualcuno, forse per molti della fortezza. Non per tutti, non per gli ultimi. Se ci si pensa una metafora perfetta del riformismo, o, se si vuole, dell’attuale versione mainstream del riformismo.