Per essere un “vertice mondiale” comincia zoppicando. Per ora l’annuncio arriva solo dal numero 10 di Downing Street, anzi, meglio dal burocratico sito del governo inglese: Londra, in autunno, organizzerà il primo appuntamento mondiale sull’intelligenza artificiale. E senza tanti giri di parole, il comunicato dice esplicitamente che il “vertice” è stato concordato dal primo ministro inglese Sunak e dal presidente americano Biden. Da loro due e basta.

Naturalmente nel summit si dovrebbe discutere di come “monitorare e prevenire i rischi” legati all’intelligenza artificiale. Tema che ormai da diverse settimane è all’ordine del giorno ovunque nel mondo, dopo le “lettere aperte” e le denunce sui rischi di sparizione che correrebbe l’umanità se i “generative AI systems” non fossero regolamentati.

La redazione consiglia:
Macchine assassine oltre il Rubicone delle nostre esistenze

Prospettive apocalittiche raccontate, va detto, soprattutto da chi è proprietario e fa tanti soldi con quei sistemi – per capire: Sam Altman, Ceo di OpenAi, cioè di ChatGpt – e da chi è alle loro dipendenze. Scenari catastrofici paragonabili a pandemie ed esplosioni nucleari, sempre riferiti al futuro, comunque. Che non si soffermano mai sulle denunce dei guasti, dei danni già provocati dall’intelligenza artificiale. Sui disastri provocati oggi dall’intelligenza artificiale, addestrata con dati razzisti, sessisti, discriminatori.

Se ne parla ovunque e Sunak e Biden ne hanno discusso anche l’altro giorno. Dopo l’incontro, è arrivato l’annuncio del vertice mondiale. Che comunque, par di capire, avrà lo stesso parterre delle “lettere aperte” di questo periodo. Letteralmente ci saranno – oltre ad alcuni paesi definiti “chiave” ma non meglio identificati – “aziende tecnologiche e ricercatori leader”.

Saranno loro a discutere e magari cominciare a decidere qualcosa sul tema. Ovviamente, partendo dal presupposto che “le intelligenze artificiali migliorano la nostra vita”, ça va sans dire, ma che comportano anche “potenziali rischi”.

Lo sterminato comunicato di Downing Street prosegue su questa falsa riga, inanellando banalità trite e ritrite. Fino ad arrivare alla domanda: ma perché proprio a Londra? E qui Sunak dice che il summit ma soprattutto le decisioni spettano a loro e in particolare a lui: “Il Regno Unito è esattamente nella posizione per convocare discussioni sul futuro dell’IA. Siamo leader mondiale nell’intelligenza artificiale, al terzo posto dietro Stati Uniti e Cina”. Mettendosi d’accordo con Washington ed escludendo Pechino dunque non resta che Londra.

Di più: si parla proprio della Londra della Brexit, perché – anche questo è testuale – “l’uscita dalla Ue, consente oggi al Regno Unito di agire in modo più rapido e agile in risposta a questo mercato in rapida evoluzione”. Senza troppi lacci e lacciuoli, insomma, come imporrebbero le norme di Bruxelles.

Dunque, sui rischi dell’intelligenza artificiale saranno chiamate a discuterne i paesi più influenti e i colossi del settore.

A cominciare da quelli che già operano in Gran Bretagna. E qui c’è forse il dato più allarmante.

La redazione consiglia:
Braccio di ferro tra il capo di ChatGpt e l’Europa

Perché nella comunicazione ufficiale del governo conservatore sul summit si ospita il commento entusiasta di Alexander C. Karp. Che è il co-fondatore ed amministratore delegato della Palantir. Un nome che suscita terrore in chiunque abbia a cuore i diritti umani. Perché il gruppo di Palo Alto, nato su finanziamento di In.Q.Tel, sigla misteriosa che altro non è che il fondo di investimenti della CIA, da anni produce sofisticati strumenti di spionaggio. Di sorveglianza di massa e di spionaggio.

Già denunciato da Amnesty perché un suo programma avrebbe dovuto consentire di individuare con immagini dall’alto i “nemici” in Afghanistan, coi risultati che tutti conoscono. E denunciato tante altre volte perché il suo software più famoso – dal nome poco fantasioso, Gotham – è stato usato alla frontiere col Messico per arrestare migliaia di migranti. Col risultato di separare i bambini dalle proprie famiglie.

Ora il gruppo s’è specializzato in sistemi di “polizia predittiva” che vende alle autorità americane: sulla base dei dati elaborati dalla sua intelligenza artificiale, indica agli agenti i ghetti, le case “dei neri” dove è più “probabile” che si commettano reati.

La redazione consiglia:
Gli spioni di Palantir entrano nei dati europei di Gaia X

Da qualche anno poi Palantir prova a sbarcare nel vecchio continente. Collaborando al progetto Gaia X che, ironia, avrebbe dovuto occuparsi della riservatezza dei dati e bussando alle porte della Svizzera e dell’Inghilterra. E trovando qui una calorosa accoglienza tanto che oggi Palantir ha un ruolo chiave nella gestione dei dati sanitari inglesi. Con un contratto miliardario.

La redazione consiglia:
Intelligenza artificiale e copyright, tempo di regole in Giappone

Saranno questi dunque i personaggi chiamati a discutere dei rischi legati all’intelligenza artificiale. Saranno loro, magari, a stabilire cosa è opportuno fare e cosa no. Saranno loro perché solo i colossi hanno le risorse per studiare gli eventuali rimedi ai disastri. Anche questo ha sostenuto Sam Altman.

Saranno loro a decidere perché loro hanno le competenze. È di appena due settimane fa l’intervista dell’ex amministratore delegato di Google, Eric Schmidt alla Bbc, dove se n’è uscito candidamente: “Tutto è semplicemente troppo nuovo, troppo difficile, non ci sono le competenze diffuse. Nessuno nei governi potrà farlo bene, spetterà alle imprese regolamentarla come si deve”.

La redazione consiglia:
Palantir e Clearview, la guerra in Ucraina scatena i big della sorveglianza

Sì, nella discussione sull’intelligenza artificiale rientra anche questo disprezzo per la democrazia. Sam Altman e tutti gli altri vogliono decidere da soli, con la complicità di governi compiacenti. Ed allora forse ha ragione Edward Ongweso, scrittore, ricercatore, attivista, quando in un lungo saggio su TheNation scrive: “Il rischio esistenziale per l’umanità non deriva dall’Intelligenza Artificiale ma dalla Silicon Valley”.

Il problema è lì.