Italia

Stop a ChatGPT in Italia, uso dei dati non autorizzato

foto chatgptChatGPT – Getty Images

OpenAI Il Garante per la Privacy avvia un’istruttoria sull’Intelligenza Artificiale americana, che rischia fino a 20 milioni di multa. Un utilizzo così spregiudicato viola le norme europee. Aperta un'indagine anche negli Stati uniti

Pubblicato più di un anno faEdizione del 1 aprile 2023

Dopo quattro mesi in cui centinaia di milioni di persone al giorno lo interrogano su tutto, ma proprio tutto-tutto, ci si è accorti che qualcosa non va. Che tante cose non vanno.

Al punto che è intervenuto il Garante della privacy per bloccare i «colloqui» on line e avviare un’istruttoria per valutare se ci sono violazioni sull’uso e la conservazione dei dati personali degli utenti.

Naturalmente – è facile capirlo – si parla di ChatGpt, già nominata come vera star dell’anno. Si parla del «Generative Pretrained Transformer»: il modello di elaborazione del linguaggio che utilizza un potente algoritmo di apprendimento automatico e che tramite un bot può «colloquiare» con chiunque. Producendo risposte che somigliano a quelle umane. In realtà può fare tante altre cose – per esempio scrivere codici di software – ma il boom si è avuto con il »botta e risposta» sui temi quotidiani. Lo sanno tutti.

Da noi, in Italia, almeno per un po’ però, non sarà più permesso. Almeno nell’uso fatto fino a ieri. ChatGpt quasi bloccata.

La redazione consiglia:
ChatGpt scrive per il manifesto

I primi segnali che lo strumento creato da OpenAI – nata come non profit, fra i cui fondatori c’era anche Elon Musk, ma che da tempo è diventata altra cosa, visto che gli utenti se vogliono risposte a quesiti più complessi devono pagare 20 dollari al mese -; i primi dubbi, si diceva, su come utilizzasse i dati raccolti, erano già venuti qualche tempo fa alla commissione europea.

Che da un po’ sta discutendo le regole per l’uso dell’intelligenza artificiale. Regole che ovviamente non ce la faranno a stare ai tempi delle innovazioni, regole già ambigue nella loro prima bozza.

Comunque sia, a metà febbraio, già in pieno boom di ChatGpt, al voluminoso sistema di norme, s’è aggiunto anche un allegato – l’allegato tre – per definire «rischiosa» l’intelligenza generativa. «Come ChatGpt, perché qualsiasi suo testo potrebbe essere scambiato per quello generato dall’uomo». Un rischio che diventerebbe certezza secondo le indiscrezioni trapelate grazie allo sviluppatore Siqi Chen sulla versione 5 dell’IA, prevista per il prossimo inverno, e su cui sta iniziando a indagare la Federal Trade Commission americana.

foto chatgpt
OpenAI, foto Ansa

L’inserimento europeo nella categoria a rischio significa comunque che, prima di avere il via libera, il sistema dovrebbe fornire all’Europa prove che il suo uso non avrà effetti sulla vite delle persone. Ma come detto, le regole sono lontane dall’essere approvate.

L’avvertimento più serio comunque è arrivato la settimana scorsa. Quando si è scoperto che c’era stata una «perdita di dati» da parte di ChatGpt. Un «data breach» del quale è trapelato pochissimo. Perdita di informazioni su chi aveva fornito e-mail, dati di chi aveva pagato per avere più servizi, dati magari estratti «analizzando» le domande.

Il blocco deciso dal Garante non riguarda un servizio nello specifico, ma l’azienda che li fornisce. Quindi sono coinvolti tutti i tipi di servizi sviluppati da OpenAI e questo include sia i piani normali di ChatGPT che quelli a pagamento e le API.Guido Scorza, Garante per la Privacy

Tutti segnali che sono stati colti rapidamente dal Garante della privacy italiano che nel giro di poco tempo ha messo sotto osservazione il modello conversazionale. Decretandone lo stop. Cosa che non ha fatto fino ad ora nessun’altra autorità. Né in Europa, né nel mondo.

Dunque, fermata la raccolta dati da parte di ChatGpt. Per almeno tre ordini di motivi.

  1. Perché OpenAi non ha mai fornito una spiegazione dettagliata su come utilizzerà le informazioni che immagazzina,
  2. Perché il gruppo ha la sua base negli States e non potrebbe raccoglierle su database situati fuori dalla comunità europea,
  3. Perché il chatbot non verifica l’età dell’utente e in Europa la possibilità che un minore sia esposto ad informazioni «inidonee» è considerato addirittura un reato.

Ma c’è di più. Di più complesso e più problematico per gli sviluppi futuri.

Quel sistema utilizza lo scambio, i «colloqui» con gli utenti, per accrescere le sue conoscenze. E i dati personali per addestrare l’intelligenza artificiale hanno bisogno di un consenso particolare. Mai richiesto.

Così ora Open Ai – meglio: il suo rappresentante in Irlanda – ha tre settimane per rispondere alle osservazioni del Garante italiano. Nel frattempo l’accesso non sarà consentito agli utenti del nostro paese.

Per essere più precisi: non dovrebbe essere consentita una risposta del bot su un argomento che implichi conoscenza di dati italiani. Più chiari ancora: ChatGpt non potrebbe più rispondere se qualcuno le chiedesse, per esempio, da chi è composta la redazione de il manifesto. Non potrebbe fornire nomi e cognomi. Cosa non facile da realizzare. Più semplice immaginare che Open Ai bloccherà l’accesso dall’Italia.

Vedremo. E lo vedrà soprattutto il Garante perché se i chiarimenti richiesti non saranno giudicati sufficienti, l’ex società non profit rischia fino a 20 milioni di multa.

ABBONAMENTI

Passa dalla parte del torto.

Sostieni l’informazione libera e senza padroni.
Leggi senza limiti il manifesto su sito e app in anteprima dalla mezzanotte. E tutti i servizi della membership sono inclusi.

I consigli di mema

Gli articoli dall'Archivio per approfondire questo argomento