Il 21 aprile scorso la Commissione Europea ha pubblicato una proposta di regolamento per i sistemi di Intelligenza Artificiale (IA). Per la prima volta si offre un quadro legislativo generale per queste tecnologie avanzate.

L’atto della Commissione è stato preceduto dalle Guidelines for Trustworthy AI (2019) e dal White Paper on AI (2020) al quale è seguita una consultazione pubblica internazionale. L’approccio regolativo è basato sull’analisi dei rischi definita in quattro livelli: rischi inaccettabili, sistemi ad alto rischio, a rischio limitato o a rischio minimo.

Il regolamento bandisce la possibilità che negli spazi pubblici sia possibile raccogliere in modo massiccio e indiscriminato dati biometrici in tempo reale ai fini di esercitare la tutela dell’ordine pubblico. Ma sono previste eccezioni che consentono la raccolta questi dati nel caso di prevenzioni di azioni terroristiche o in presenza di investigazioni di polizia in relazione a gravi crimini che prevedano una pena di almeno tre anni di carcere. In tali situazioni, sebbene sia richiesta l’autorizzazione a procedere, è possibile agire d’urgenza.

Le pratiche di profilazione discriminatoria che possono causare conseguenze dannose alle persone sono proibite, inoltre, solo se svolte dall’autorità pubblica, o connesse a conseguenze di carattere pubblico. Tale limitazione sembrerebbe adombrare che le aziende private possano profilare anche nel caso in cui queste categorizzazioni si traducessero in un esito discriminatorio per gruppi o singoli.

I sistemi di intelligenza artificiale ad alto rischio includono gli apparati che si occupano di infrastrutture, le attività connesse all’educazione (sia nella valutazione che nella selezione degli studenti e nell’organizzazione delle attività didattiche), i dispositivi che hanno un ruolo salvavita come gli strumenti robotici chirurgici, gli strumenti per il reclutamento del personale, i dispositivi a supporto della presa di decisione nel contesto della giustizia, i metodi legati alla gestione delle migrazioni e quelli di predictive policing.

In questi casi è richiesto che il fornitore garantisca l’equità del proprio servizio sia attraverso una valutazione preventiva del meccanismo da adottare, sia offrendo dettagli sui dati usati per l’addestramento per provare che non vi siano informazioni discriminatorie per gruppi o singoli. La complessità di questi metodi ‘intelligenti’ meriterebbe l’intervento di un soggetto terzo per dimostrarne la correttezza, così da evitare l’ambivalenza implicita di un’autovalutazione. Se non saranno previsti adeguati sistemi di audit esterno, sarà altamente probabile che le richieste si traducano in una grande produzione burocratica di documenti, privi di efficacia rispetto ad affidabilità e adeguatezza.

Anche in alcuni sistemi che vengono considerati non ad alto rischio come l’uso dei deepfake, i sistemi per il riconoscimento dello stato emotivo delle persone e l’interazione con chatbot sarebbe possibile produrre esiti altamente dannosi per gli utenti che in modo inconsapevole interagiscono con dispositivi artificiali, sebbene il regolamento sancisca la necessità della trasparenza quando si usano simili tecnologie. È poco chiaro in generale quale sarebbe il criterio per discriminare i sistemi ad alto rischio dagli altri, rispetto al potenziale di pericolosità che si sprigiona da un loro uso indiscriminato e acritico.

Nonostante tutte le criticità e le incertezze della proposta legislativa, il regolamento europeo costituisce un punto di partenza positivo che speriamo possa preludere a ulteriori interventi chiarificatori in sede di approvazione parlamentare. Speriamo soprattutto che si accompagni a una presa di coscienza culturale del potenziale di rischio annesso all’uso indiscriminato di sistemi considerati artificiali e intelligenti, specialmente in contesti socialmente sensibili e relativi alla tutela dei diritti dei cittadini.

È possibile che segni l’apertura di una stagione di contenimento per questi strumenti capace di indurre la sospensione dell’entusiasmo per la disruption senza controllo, né vincoli che ha prevalso finora. La necessaria considerazione del principio di precauzione e l’urgenza di protezione delle soggettività marginali o, comunque, fragili potrebbero infliggere un duro colpo all’acritica aspettativa retorica che tali tecnologie, presunte intelligenti, costituiscano un progresso inevitabile per tutte le componenti della società.

Diventiamo sempre più consapevoli che i sistemi sociotecnici sono strettamente connessi ai gruppi di potere che li hanno creati. L’efficienza dei dispositivi di intelligenza artificiale per la presa di decisione è ispirata a un insieme di interessi e valori che non hanno a cuore l’inclusione e la promozione di chi sta al margine della società.