È ufficialmente iniziata mercoledì la trattativa Stato-intelligenza artificiale. In tarda serata per ragioni di fuso orario, il nostro Garante della privacy ha incontrato in videoconferenza i vertici di OpenAI, l’azienda guidata da Sam Altman (anche lui presente alla riunione). OpenAI è proprietaria dell’intelligenza artificiale ChatGPT, che in Italia ha dovuto chiudere il suo sito web per i dubbi del Garante sul rispetto della privacy. I toni sono stati cordiali, come si dice in questi casi. «OpenAI – si legge nel resoconto – pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l’Autorità italiana con l’obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante». Da parte sua, l’authority italiana «ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’intelligenza artificiale e dell’innovazione tecnologica ed ha ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei». OpenAI ha promesso un documento per spiegare come si adeguerà alle richieste del Garante, che ne valuterà il contenuto entro la metà della prossima settimana.

L’azienda si è impegnata a rafforzare la trasparenza sull’uso dei dati personali e sull’esercizio dei diritti dei minori che usano ChatGPT. Resta da vedere come sarà affrontato il nodo più spinoso, l’uso dell’enorme quantità di dati pescati a strascico dalla Rete con cui OpenAI ha addestrato l’intelligenza artificiale. «Nessuno di noi – ha scritto nei giorni scorsi Guido Scorza, giurista e membro del collegio del Garante – ne è mai stato informato né ci è mai stata offerta la possibilità di scegliere se partecipare a questo processo e vedere i nostri dati riversati nelle macchine della società o se restarne estranei. Certo i dati utilizzati sono stati, salvo prova contraria, raccolti da “fonti” pubbliche ma, come è noto, questo non basta a rendere quei dati utilizzabili da chiunque e per qualunque scopo».

È un problema che potenzialmente riguarda molti altre intelligenze artificiali, per esempio quelle che interpretano il testo e creano immagini sintetiche. Le «foto» dell’arresto di Donald Trump ammanettato e dello stiloso Papa Francesco in piumino bianco sono state create così. Agostino Ghiglia, membro del collegio al pari di Scorza, ha confermato al sito specializzato Wired che il Garante sta verificando se Midjourney e Dall-E, i servizi più popolari in questo campo, rispettino il diritto al controllo sui propri dati personali. «Davvero difendere questi diritti e queste libertà – chiede Scorza – significa scendere o, addirittura, far scendere un’intera nazione dal treno del futuro?».

L’Autorità non intende porre un freno allo sviluppo dell’AI e dell’innovazione e ribadisce l’importanza del rispetto delle norme poste a tutela dei dati personali
Garante della privacy

Il parere del Garante su ChatGPT è stato infatti messo sullo stesso piano di altre chiusure e passatismi della maggioranza di governo, come la difesa del motore a scoppio o la guerra alla carne artificiale, alla farina di insetti e alle parole straniere. Ma forse si tratta di qualcosa di diverso e più serio.

Lo conferma il fatto che anche in altri Paesi avanzati almeno quanto l’Italia ci si interroga sulla legittimità di questi servizi. La Commissione nazionale dell’informatica e delle libertà francese – organismo analogo al nostro Garante per la privacy – ha ricevuto nei giorni scorsi due denunce contro il trattamento disinvolto dei dati da parte di OpenAI e sta valutando se prendere provvedimenti. Anche Germania e Irlanda – dove cui hanno la sede europea alcune delle maggiori aziende del web, Google e Facebook incluse – hanno preso contatti con il Garante per uniformare la posizione europea nei confronti di ChatGPT e compagnia.

Il parere italiano in effetti ha fatto suonare un campanello d’allarme in tutta Europa. Il «Regolamento generale sulla protezione dei dati» applicato da noi è lo stesso per tutti i 27 paesi Ue e sarebbe imbarazzante se i governi lo interpretassero ciascuno a modo suo. Peraltro, anche fuori dall’Europa si sta approfondendo la posizione di OpenAI. Il Commissariato canadese per la privacy Philippe Dufresne, ad esempio, ha aperto un’inchiesta su ChatGPT dopo aver ricevuto una denuncia riguardo alla presunta «raccolta, uso e diffusione di informazioni personali senza consenso».

Da come ChatGPT riuscirà a superare questo esame internazionale dipende una fetta importante dell’economia legata a Internet. OpenAI è infatti controllata dalla Microsoft, marchio dominante nel settore del software per personal computer. Con un investimento di dieci miliardi, l’azienda fondata da Bill Gates si è accaparrata il diritto a integrare ChatGPT nei suoi prodotti, primo fra tutti il motore di ricerca Bing. L’alleanza con l’intelligenza artificiale potrebbe permettere alla Microsoft di aumentare la sua fetta di mercato nel settore dei motori di ricerca, attualmente ferma al 2,8%. Diventando un’altra porta di ingresso all’informazione online, Microsoft potrebbe competere nel settore pubblicitario con Google, Facebook e Amazon, che attualmente si spartiscono i due terzi della torta.

Il ceo dell’azienda statunitense Sam Altman

Lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli… e costruiamo ampi sistemi di sicurezza e monitoraggio
Le difficoltà di ChatGPT
non consolano Google, alle prese con il lancio della sua intelligenza artificiale Bard. Pensata per competere con ChatGPT, dal 21 marzo Bard è disponibile per un numero limitato di utenti statunitensi (da noi non è ancora accessibile). Ma la fretta con cui Google ha cercato di recuperare il terreno sta creando anche qualche problema. Nel primo video diffuso in vista del lancio, molti hanno notato che le risposte data da Bard a una domanda a tema astronomico era sbagliata. Forse un dettaglio, ma il titolo di Alphabet – la holding che controlla Google – dopo la pubblicazione del video è crollato dell’8%. Anche i primi utenti hanno notato che l’intelligenza artificiale di Google diffonde troppe fake news. Dal canto loro i dipendenti, già colpiti dall’annuncio di 12 mila licenziamenti, hanno protestato con i vertici aziendali per una strategia ritenuta «precipitosa, pasticciona e miope».