La Casa bianca ha annunciato che le sette principali compagnie statunitensi che si occupano di intelligenza artificiale si sono impegnate a rispettare otto punti intesi come linee guida stabilite dal governo per limitare i rischi posti dalla nuova tecnologia.

L’incontro con Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI (la casa madre di Chat Gpt), è stato cercato dall’amministrazione Biden per far firmare ai colossi big tech un accordo con adesione su base volontaria, che non comporta alcuna vera conseguenza se non dovesse essere rispettato, e che scadrà quando il Congresso riuscirà ad approvare delle vere leggi per regolamentare una tecnologia che ha, fra le altre cose, la potenzialità di diffondere informazioni fuorvianti, false e potenzialmente pericolose.

L’INCONTRO è arrivato dopo mesi di pressioni da parte di Biden che ha più volte chiesto ai Ceo delle compagnie, sia pubblicamente che con incontri personali e diretti, di indirizzarsi verso uno sviluppo «responsabile» dell’Ia. Nella nota che la Casa bianca ha diffuso dopo la firma dell’accordo si legge che gli impegni presi dalle compagnie di Silicon Valley riguardano «tre principi fondamentali nello sviluppo dell’Ia e nel suo futuro: la sicurezza, l’affidabilità e la cautela». Più nel dettaglio gli otto punti accettati – in una prospettiva assai poco credibile di auto regolamentazione da parte di Silicon Valley – stabiliscono che i nuovi sistemi di Ia, prima di essere rilasciati al pubblico, vengano sottoposti a test esterni, in cerca di potenziali comportamenti scorretti e per scoprire le vulnerabilità di questi prodotti.

Le compagnie si impegnano inoltre a proteggere la privacy e i dati dei loro utenti, ad investire nella cybersecurity, a collaborare con la comunità accademica e le organizzazioni no-profit per promuovere la ricerca sulla sicurezza e condividere conoscenze; a spiegare chiaramente i rischi per la società posti dall’intelligenza artificiale, a mantenere la massima trasparenza e fornire informazioni alle altre aziende e al governo degli Stati uniti. A segnalare con dei watermark (una filigrana digitale) i contenuti audio e video prodotti dall’intelligenza artificiale; a pianificare strategie per affrontare situazioni di emergenza legate all’Ia e garantire che i sistemi possano essere disattivati o controllati in modo sicuro in caso di necessità. Infine ad utilizzare questa tecnologia a fini «benefici», per cercare di risolvere i maggiori problemi sociali, tecnologici ed economici.
Resta tuttavia il vuoto di regole, anche non vincolanti, in cui operano non solo le grandi compagnie ma nche centinaia, e presto migliaia, di piccole realtà che offrono strumenti di intelligenza artificiale.