Mancava solo l’ultimo tassello, ma ora l’Artificial intelligence Act è legge dell’Unione europea. Ieri i ministri degli Interni dei 27 hanno apposto la bollinatura finale a quella che con un po’ di enfasi, in questo caso non ingiustificata, viene definita la prima legge al mondo che regola l’intelligenza artificiale. L’Eurocamera aveva già dato il su ok nella sessione di marzo, mentre la proposta della Commissione risaliva addirittura all’aprile 2021. Il complesso regolamento Ue, basato su scale di rischio rispetto al crescere del quale crescono anche i divieti, di cui è stato relatore per l’Europarlamento il Pd Brando Benifei, dovrà essere pienamente applicato entro 24 mesi, anche se alcuni obblighi scatteranno prima. Ne parliamo con Giuseppe Italiano, co-direttore master sulla Intelligenza artificiale dell’università Luiss di Roma.

L’Ue ha scelto l’approccio regolativo. Vede controindicazioni?
I processi di regolazione richiedono anni, come è giusto che sia, mentre oggi le tecnologie digitali viaggiano con velocità nettamente superiori: ChatGpt ha impiegato poco più di un mese a raggiungere 50 milioni di utenti, mentre Threads ha raggiunto 50 milioni di utenti in solo due giorni. È evidente il rischio che entro il termine della sua entrata in vigore la normativa possa risultare già “obsoleta”, nonostante gli enormi sforzi, a livello politico, istituzionale e diplomatico, che sono stati necessari all’approvazione del provvedimento.

Siamo i primi al mondo anche perché gli Usa seguono un’altra strada.
Nel settore tecnologico l’Europa sembra sempre più propensa a definire un quadro normativo, mentre negli Stati Uniti prevale la propensione a lasciare campo libero all’innovazione. Alcuni colleghi americani mi dicono spesso che negli Usa si fa innovazione, mentre in Europa si fa regolazione.

La redazione consiglia:
Google, Nature e il supermercato di quartiere

Adesso ci sono due anni di tempo per rendere effettivo il provvedimento a livello nazionale: cosa serve per la sua piena implementazione?
Un argomento di notevole discussione verterà su quali poteri vengono dati alle autorità locali per l’Intelligenza artificiale e quali entità verranno nominate come autorità nazionali. Come è accaduto in precedenza con il regolamento Ue sulla protezione dei dati (Gdpr), le autorità locali non vorranno rinunciare ai loro poteri. Si dovrebbe cercare di ridurre il rischio di approcci incoerenti in tutta l’Ue tra le autorità locali, ma non si può escludere l’attrito politico tra diverse autorità locali.

Come funzionerà in Italia?
Se ne occuperanno l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (Acn) che sono state qualificate Autorità nazionali per l’intelligenza artificiale. Sarà centrale e delicatissimo il coordinamento fra queste e le Autorità già competenti in alcune materie comunque toccate dall’impatto dell’intelligenza artificiale, che per sua natura investe moltissimi settori. Sono espressamente chiamate in causa, per esempio, anche le competenze del Garante per la protezione dei dati personali, dell’Autorità per le Garanzie nelle Comunicazioni (Agcom) e dell’Autorità Garante della Concorrenza e del Mercato (Agcm).

Poi c’è il lato che riguarda le imprese del settore.
Abbiamo davanti una serie di sfide: le aziende dovranno condurre un’analisi approfondita dei propri sistemi e applicazioni per identificare quelli che potrebbero rientrare nei vari profili di rischio previsti dalla normativa. Questo processo di adeguamento non appare semplice, poiché richiede una comprensione approfondita delle funzionalità e delle capacità di ciascun sistema, nonché una valutazione critica delle loro caratteristiche rispetto ai requisiti stabiliti dalla normativa.