Cinque, l’articolo cinque. Perso in un documento di cento pagine. Una trentina di righe un po’ burocratiche, due schermate di computer. Un articolo di legge che dovrebbe – condizionale – proteggere tanti. Tanti ma non tutti. Non gli ultimi, non i migranti.

Si parla dell’Artificial Intelligence Act, uno sterminato insieme di norme che dovrebbe regolare cosa potrà fare, in Europa, la tecnologia che prova a simulare la capacità del cervello umano. E quello del vecchio continente sarebbe il primo tentativo di “governare” il settore.

Si è ancora lontani, certo, dal varo definitivo delle leggi. Lontani ma non lontanissimi. Un testo c’è già – ed è stato già “vistato” dal Consiglio dell’Unione europa, l’insieme dei governi, ai quali spetta l’ultima parola –, ora sono in corso trattative per trovare una sintesi sugli emendamenti proposti dal Parlamento. Poi andrà nelle commissioni, tornerà nell’aula di Strasburgo, prima del via definitivo. Vogliono fare tutto entro un anno.

Ma un testo c’è già, si diceva. Salutato con entusiasmo da molti – un po’ frettolosamente – perché è pieno di frasi altisonanti, intervallato spesso dal richiamo al «rispetto dei diritti umani», alla tutela delle minoranze.
Con l’affermazione, insomma, che almeno qui in Europa, dovrebbe essere sempre l’essere umano a prevalere. Con controlli, con autorità preposte alla sorveglianza (via via, comunque, depotenziate da quando è cominciata la discussione). In modo insomma che quegli algoritmi addestrati a intervenire nella vita pubblica e soprattutto le loro deduzioni non possano provocare discriminazioni.

Principi generali, dunque – molti dicono: generici – ma poi c’è l’articolo cinque. Un po’ bizantinamente l’Ai Act ha creato quattro grandi “aree” per le applicazioni dell’intelligenza artificiale. Ci sono campi dove sarà proibito usarla, altri considerati ad «alto rischio», altri ancora dove c’è la possibilità di «manipolazione» da tenere d’occhio e quelli, infine, dove le applicazioni dell’intelligenza artificiale saranno permesse.

E a occuparsi di cosa non dovrebbe mai essere consentito è appunto l’articolo cinque. Dettagliato, abbastanza dettagliato. Non ci potrà essere un uso dell’intelligenza artificiale che sfrutti le vulnerabilità delle persone, non si potranno usare quei sistemi per profilare, per valutare i cittadini, sarà vietata l’identificazione biometrica negli spazi pubblici. Con tante, troppe deroghe – soprattutto sul riconoscimento facciale – ma sembrerebbe un testo innovativo. Con una dimenticanza, però: non c’è alcun divieto per l’uso dell’intelligenza artificiale alle frontiere. Nulla.

Tradotto, significa che le polizie “a difesa” dei confini avranno una deroga per usare tutti i mezzi che vogliono. Per usare, per inventarsene di nuovi, per continuare a usare quelli che già stanno sperimentando. Sì, perché pochi sanno che si sta già lavorando ad una “polizia predittiva” applicata alle migrazioni. Dove un’intelligenza artificiale avvertirà i paesi e quindi anche le polizie europee che qualcuno – forse – sta per mettersi in movimento.

Lo potranno fare, saranno esentati dai controlli. «E se lo saranno – spiega Caterina Rodelli, EU Policy Analyst che per AccessNow segue da vicino queste vicende – significa che per loro non ci sarà alcun obbligo di trasparenza».
Così chi si presenta alle frontiere potrà essere marchiato come «pericoloso» e portarsi dietro questa definizione ovunque vada, significa che un’intelligenza artificiale potrà decidere se respingere la sua richiesta di asilo. Significherà che chi bussa alle porte della fortezza non avrà gli stessi diritti degli europei.

Qualcuno dirà che per correggere questa stortura c’è tempo. Ma come denunciano tutte le associazioni per i diritti digitali – da Edri ad Algoritm Watch – non è così. Le trattative sono già in fase avanzatissima – va detto: a condurle è anche l’eurodeputato socialista del pd, Brando Benifei, che sarà anche relatore all’aula di Strasburgo –, e come la storia insegna gli accordi presi in questa fase non sono mai corretti. Mai migliorati. E nessuno, fra chi conta, sembra interessato al problema.

Problema che riguarda i migranti ma forse non solo loro. Perché – per dirla sempre con le parole di Caterina Rodelli – «si ha proprio la sensazione che su un tema così delicato, così rischioso, si testino soluzioni autoritarie sugli ultimi, si chi non ha voce, su chi non può protestare». Soluzioni, che prima o poi, senza opposizione, si esporteranno. A tutti.