Il Garante per la protezione dei dati personali ha disposto poche settimane fa la limitazione provvisoria del trattamento dei dati degli utenti italiani attraverso la piattaforma ChatGpt di proprietà della società statunitense OpenAI. Il manifesto ne parlò già lo scorso primo aprile con una serie significativa di contributi sul tema dell’intelligenza artificiale.

Il Garante è stato tempestivo, introducendo nella discussione un ulteriore avanzamento rispetto alla strada tracciata dal Regolamento europeo sulla materia (2016/679), uno degli atti di maggior significato delle istituzioni di Bruxelles. Persino nel liberismo in voga negli Stati uniti il testo ha incrinato le logiche spietate e padronali delle Big Tech, a lungo disinteressate ai pur timidi richiami del Congresso. Qualcosa si è rotto e la paura ha preso il sopravvento. Meta ha interrotto il trasferimento dei dati di Facebook negli Usa e il Garante dell’Irlanda (dove hanno la sede fiscale numerose società) sta per intervenire.

Finalmente, qualcuno ha detto che il re è nudo. Mentre nei capitoli precedenti dell’innovazione il corpo a corpo tra la mente umana e le macchine era in qualche modo a favore della prima, sia pure di pochissimo e sempre di meno, ora la velocità evolutiva dell’intelligenza artificiale è capace di autoprogrammarsi e di inerpicarsi là dove l’io cognitivo neppure osa volare.

Insomma, si appalesa un postumanesimo fondato sulla dittatura degli algoritmi. Le astrazioni del linguaggio alfabetico stanno varcando il punto di catastrofe. Non è una forzatura apocalittica o una contaminazione luddista. Vi è, ormai, una vasta letteratura che riferisce di verifiche sul campo. Il problema è serissimo e non è possibile guardarsi dall’altra parte.

Le stime economiche presagiscono un mercato di oltre 150 miliardi di dollari entro un decennio per il campo dell’intelligenza artificiale generativa e si comprendono, dunque, i vari atteggiamenti tattici o strumentali dei diversi protagonisti. A partire dall’appello della fine del passato marzo di Elon Musk e sottoscritto da più di un migliaio di manager e ricercatori, che invocava uno stop di sei mesi nell’attività, alle preoccupazioni dell’amministratore delegato di Alphabet (che controlla Google) Sundar Pichai, alla concorrenza annunciata da parte di Microsoft, alla controffensiva di Pechino, il quadro è tutt’altro che lineare.

Tuttavia, la moratoria temporanea risolve ben poco, se non si costruisce una strategia adeguata, che non può rimanere nei meri confini nazionali.

Neppure gli scienziati che lavorarono alla scissione dell’atomo immaginarono Hiroshima e Nagasaki. Così, la corsa funambolica alle tecnologie quasi fossero un videogioco apre la strada a disastri imprevedibili.

Gli approcci critici e prudenti di alcuni dei maggiori punti di riferimento dell’informatica, da Norbert Wiener ad Alan Turing a Marcello Cini, hanno messo in guardia sugli effetti imprevedibili e indesiderati di macchine non guidate da una vera scienza democratica. Nel 2000, agli albori del salto di qualità delle aggregazioni telematiche, Bill Joy – il co-fondatore del gruppo della pionieristica Sun Microsystems- descrisse in termini drammatici un futuro non regolato e privo di un’etica dello e nello sviluppo.

I robot, sosteneva, prevarranno e uccideranno gli esseri umani. Eccoci. La scienza non è neutra e non tutto ciò che si può fare in laboratorio si deve fare. Una semplice moratoria è inadeguata. L’enorme capitolo è oggetto di una proposta europea, che meriterebbe un dibattito pubblico, fuori dal recinto degli addetti ai lavori. Non è un tema specialistico, bensì un passaggio di civiltà.

Servono indirizzi cogenti a livello internazionale e un ruolo attivo delle Nazioni unite, luogo deputato.

Esiste – è vero- un apposito istituto, l’Internet Governance Forum nato ad Atene nel 2006 come emanazione del World Summit on Information Society (Wsis). Ma è un organismo di un’era precedente, immaginato peraltro dall’intelligenza creativa di Stefano Rodotà.

Uno scarto ora, però. è indispensabile, immaginando un’Autorità mondiale.