La domanda è sempre la stessa: chi controlla chi? Strana la risposta, però, nell’epoca della simulazione dell’intelligenza umana. Potrebbe suonare addirittura singolare: nessuno.

Il “controllato” si potrebbe autocertificare. Potrebbe rilasciare un attestato nel quale dice che va tutto bene. E la si chiude lì.

Prospettiva inquietante in qualsiasi caso, tanto più però se si parla di intelligenza artificiale.

Le cose sono abbastanza note, si possono riassumere in poche righe. Ormai diverso tempo fa, la commissione europea ha proposto un lungo documento – Artificial Intelligence Act, AIAct – che dovrebbe “regolamentare” il settore. Un settore, quello dell’intelligenza artificiale, che come ormai sa chiunque, governa – e invade – tanti, tantissimi aspetti della vita delle persone. O sta per farlo.

Quel testo da poche settimane ha cominciato il suo iter per l’approvazione, dovendo passare per il Parlamento di Strasburgo e poi per il consiglio d’Europa. Iter in genere lungo anche se tutti, stavolta, dichiarano di volerlo approvare in tempi stretti. Addirittura entro il prossimo anno.

Un testo che prova a mettere le mani su un tema delicatissimo, su un complesso di argomenti sul quale nessuno, fino ad ora, ha provato a legiferare.

E che sia difficile lo dimostrano centinaia di studi, di libri, di ricerche. Che raccontano di come l’intelligenza artificiale, “addestrata” con dati e nozioni che risentono della cultura e dei pregiudizi degli istruttori, possa far danni enormi. Creare tragedie. Discriminare o creare cittadini di serie b.

Così non bisogna andare fin in Pennsylvania per scoprire che l’intelligenza artificiale utilizzata nelle aule giudiziarie nega la libertà condizionata ai detenuti neri, perché considerati “troppo a rischio”.

Anche qui nel vecchio continente, in Olanda, centinaia di famiglie, tempo fa, si sono ritrovate senza sussidi, perché il meccanismo che decideva l’assegnazione, le riteneva composte da “probabili truffatori”, visto che provenivano dalle periferie del mondo.

Danni, danni irreparabili, dunque, che il testo europeo sembrava voler combattere. Perché in quel centinaio di pagine, spesso si ripete l’uso dell’aggettivo “etico”.

L’uso dell’intelligenza artificiale, insomma, avrebbe dovuto tenere ben presente le conseguenze sociali delle sue scelte.

Tanto è bastato – va detto anche questo – perché diverse associazioni per i diritti digitali salutassero quel testo come una “significativa innovazione”, che avrebbe potuto diventare nientemeno che una sorta di guida per i legislatori nel resto del mondo.

Certo, anche loro hanno sottolineato le carenze e le mancanze. Si chiedeva di specificare meglio i campi nei quali non si sarebbero dovuti applicare gli strumenti dell’intelligenza artificiale: mai per definire “punteggi sociali”, mai per l’identificazione biometrica, mai per la cosiddetta “polizia predittiva”, mai per prevenire o contrastare i fenomeni migratori, mai per profilare gruppi sociali, comunità, minoranze. Mai per un uso che comporti rischi sui diritti umani, insomma.

La redazione consiglia:
Migranti solo in cattiva luce, Londra vieta le immagini “positive”

Tutti elementi che nel testo non sono dettagliati (tant’è che l’Europa già sta drammaticamente sperimentando l’intelligenza artificiale per prevenire i fenomeni migratori).

Da contraltare all’indeterminatezza dei divieti, nel testo sembrava esserci però la parte che riguarda i controlli.

Anche in questo caso, è bastato ripetere venti volte in quelle pagine la parola “trasparenza” perché tanti salutassero l’AIAct come “innovativo” e “importante”.

Prevedeva che in qualche modo fosse resa pubblica quella che fino ad ora è stata l’opacità nell’uso di algoritmi. E’ sembrato, insomma, che l’Europa volesse finalmente far aprire la “scatola nera”.

Ma appunto è solo sembrato: perché come ha spiegato un paper dei ricercatori di Mozilla, non basta dire “trasparenza” se non si obbliga le big tech a “fare trasparenza algoritmica”. Cosa che non è assolutamente prevista.

Ma c’è di più. E siamo all’autocertificazione. Nella prima stesura del dossier europeo, c’era un articolo – l’articolo 6 – che prevedeva che l’uso dell’intelligenza artificiale nei settori “ad alto rischio” dovesse essere “sottoposto a una valutazione di conformità da parte di terzi”.

Prima che qualcosa sia immesso nel mercato, insomma, qualcuno, un organismo indipendente, avrebbe dovuto valutare i potenziali rischi sui diritti umani. E solo dopo l’analisi, concedere il benestare.

Ma tutto questo era prima, tutto questo era fino a qualche settimana fa. Perché Daniel Leufer, un ex ricercatore di Mozilla, ora dirigente di AccessNow – forse la più autorevole organizzazione per i diritti digitali – che segue da vicinissimo i lavori per l’AIAct, ha scoperto che l’articolo 6 sta per essere modificato ed emendato.

La proposta prevede ora che siano i “fornitori a valutare se il loro sistema rappresenti o meno un rischio per i diritti umani”. E se affermano che non esistono problemi, sarebbero esentati da tutti gli altri obblighi legali.

Quindi basterà che Musk e Microsoft per il loro OpenAi, o Dati ThirdEye, DataRoot, o l’Ibm, o la CloudMinds, o DeepMind di Alphabet/Google – come si vede, in campo con nomi altisonanti ci sono sempre tutte le solite Big Tech –, basterà si diceva, che scrivano che i loro data base sono riempiti senza informazioni discriminanti, basterà che affermino che non useranno l’intelligenza artificiale per fini non consentiti, e potranno andare avanti. Come vogliono. Tanto pagheranno gli stessi di sempre.