Videosorveglianza, il piano di Roma tra telecamere e IA
Gli occhi sulla città Le dichiarazioni dell’ex magistrato Francesco Greco, delegato del Campidoglio, aprono nuovi scenari su privacy e sicurezza
Gli occhi sulla città Le dichiarazioni dell’ex magistrato Francesco Greco, delegato del Campidoglio, aprono nuovi scenari su privacy e sicurezza
È da mesi che con l’avvicinarsi del Giubileo 2025 si discute a più riprese dell’eventualità di un piano di videosorveglianza su larga scala nella città di Roma. L’ultimo a parlarne, in un’intervista ieri sul Sole 24 ore, è Francesco Greco, consigliere per la legalità del sindaco Roberto Gualtieri. «Un piano di sicurezza fondato su un sistema di videosorveglianza integrato, con almeno 15mila telecamere collegate a un unico software di intelligenza artificiale sviluppato da Leonardo», si legge sul quotidiano. Il sistema sarebbe composto da 2.500 telecamere già installate dal Comune, altre delle soprintendenze, tra le 600 e le 2.500, 5.000 dell’Atac e 4mila ancora da installare, di cui 2.000 nell’ambito del progetto #roma5g, 1.000 finanziate in occasione del Giubileo e altre 1.000 grazie all’accordo con Leonardo. Le immagini delle telecamere confluirebbero in una sala operativa della Polizia locale che aprirà a fine anno, in quello che il magistrato vanta essere un primo caso in Italia di IA applicata al territorio.
DICHIARAZIONI SIMILI se ne erano già sentite recentemente. A maggio l’assessore alla mobilità della capitale Eugenio Patanè aveva proposto di stanziare 100 milioni di euro in occasione del grande evento, con un quarto del budget previsto per un sistema di videosorveglianza basato su IA con l’obiettivo di riconoscere e segnalare automaticamente alle autorità persone con precedenti di furto. A seguito dell’esternazione, il Garante della Privacy aprì un’istruttoria inviando richiesta di informazioni all’amministrazione della capitale, in quanto, secondo il Decreto legge 51 del 2023, fino all’ultimo giorno del 2025 enti pubblici e privati non possono installare videocamere per raccogliere dati biometrici in tempo reale.
La redazione consiglia:
Un’altra intelligenza artificiale è possibileDopo tre giorni dall’istruttoria Patanè fece dietrofront, ammettendo che c’era stato un fraintendimento, e che la tecnologia a cui si riferiva non faceva uso di riconoscimento facciale bensì di riconoscimento «di alcune tipologie di comportamenti», ribadendo di essere consapevole del decreto citato. A dicembre 2021, con un emendamento nel dl Capienze, il governo aveva infatti vietato l’uso di tecnologie di riconoscimento facciale in luogo pubblico o aperto al pubblico, in attesa di regolamentazioni europee. La scadenza è stata poi posticipata con il decreto legge 51, estendendo il divieto fino al 31 dicembre 2025, non senza sorprese considerando le volontà espresse dal ministro dell’Interno Matteo Piantedosi di installare sistemi di riconoscimento nelle stazioni, negli ospedali e nelle zone commerciali per garantire più sicurezza.
ALCUNI COMUNI italiani avevano già provato anche in precedenza a implementare zone dotate di queste tecnologie, incontrando gli ostacoli del Garante. Il primo a tentare fu Como, nel 2019, quando l’amministrazione di centrodestra installò telecamere nel parco di via Tokamachi per controllare la zona che aveva ospitato centinaia di migranti diretti verso il Nord Europa. Il 26 febbraio 2020 il Garante intervenne per dichiarare il sistema illegittimo. Casi simili si verificarono poi a Udine e a Milano e poi a Trento, dove il Comune è stato sanzionato con una multa di 25mila euro per i progetti Marvel e Protector basati su IA e considerati dal Garante un rischio per la privacy dei cittadini.
OLTRE ALLE NORMATIVE italiane, il 13 marzo è stato approvato l’AI Act, la legge europea sull’intelligenza artificiale, che basandosi su vari livelli di rischio classifica le applicazioni di questa tecnologia e ne stabilisce i limiti, vietando in ogni caso il riconoscimento biometrico.
Oltre alle questioni legali, va ricordato che le tecnologie basate su algoritmi ad apprendimento sono strumenti su cui ancora c’è molto da sapere, e che tendono ad avvalorare bias e pregiudizi che negli ultimi anni hanno portato a vari casi di discriminazione algoritmica. Ultimo è quello di aprile nello stadio di Aracaju, nello stato brasiliano di Sergipe, dove un tifoso è stato arrestato a causa di un riconoscimento facciale automatico, per poi scoprire che era stato erroneamente scambiato per un ricercato.
SULL’IMPLEMENTAZIONE di nuove tecnologie si muovono interessi di mercato oltre che campagne di propaganda sia politica che aziendale, trascinati da grossi capitali. Il risultato è una rincorsa tra dichiarazioni spesso poco ponderate e normative che lentamente cercano di stare al passo con i tempi. Inoltre, come detto da Amnesty International e altre associazioni commentando l’AI Act, le regolamentazioni in materia mostrano le disparità del privilegio, lasciando buchi normativi e mancanza di applicazione dei diritti alla privacy nel caso dei migranti e nella gestione dei confini.
I consigli di mema
Gli articoli dall'Archivio per approfondire questo argomento