Nel 2018 il Turing Award, una specie di Nobel dell’informatica, fu attribuito ai tre pionieri delle reti neurali, Yoshua Bengio, Geoffrey Hinton, Yann LeCun, per il loro contributo all’intelligenza artificiale. Era il punto di svolta che sanciva il successo del lavoro che anni prima aveva segnato l’origine di una nuova stagione di successi dovuta alle tecniche di deep learning. I risultati spaziavano dal riconoscimento di immagini a quello dei volti, dai dispositivi a guida autonoma ai robot della logistica, dagli assistenti digitali ai large language model come ChatGPT e Bard (Google).

Dopo il successo dell’IA generativa Yoshua Bengio è stato tra i firmatari della lettera per una moratoria di sei mesi dei sistemi di intelligenza artificiale generativa. Geoffrey Hinton ha, invece, deciso nel mese di aprile di lasciare Google. Ci lavorava da circa dieci anni, in conseguenza della vendita al motore di ricerca della start-up per il riconoscimento di immagini, fondata con due suoi allievi, uno dei quali, Ilya Sutskever, è attualmente chief scientist di OpenAI.

Nell’intervista al New York Times, dichiara di aver deciso di dimettersi per intervenire sui rischi dell’IA senza danneggiare la reputazione di Google, che comunque ha agito finora in modo responsabile, a suo avviso. Il successo di ChatGPT avrebbe attivato il meccanismo della concorrenza a causa del quale sarebbe ormai impossibile contenere lo sviluppo di sistemi pericolosi, a meno di una loro regolamentazione mondiale.

Il suo timore è che l’intelligenza artificiale possa sopravanzare quella umana perché ognuna delle componenti del sistema apprende indipendentemente e poi condivide le sue conoscenze con il resto del dispositivo, consentendo in prospettiva una crescita delle capacità esponenziale. Inoltre, c’è il rischio che cancelli molti posti di lavoro e che venga usata per produrre enormi quantità di contenuti che impedirebbe alle persone di distinguere tra il vero e il falso. Potrebbe infine essere usata in modo malevolo e avere esiti perversi e di disgregazione delle società.

Hinton si iscrive nella lista degli scienziati pentiti dopo aver contribuito allo sviluppo dell’intelligenza artificiale, di cui viene considerato addirittura il ‘padrino’. Si consola pensando che comunque qualcun altro lo avrebbe fatto al posto suo. È importante mantenere uno sguardo critico nei confronti di questi atteggiamenti dei grandi esperti di tecnologia. Il rimedio potrebbe essere peggiore del male.

Pensare che le macchine diventeranno presto più intelligenti di noi, significa ignorare tutti gli aspetti di inadeguatezza di questi software che non sanno distinguere tra conoscenze affidabili e falsità. Il loro funzionamento prevede di estrarre modelli statistici dalle grandi basi dati di testi e immagini di cui si nutrono, che sono state costruite da noi. Un metodo facilissimo per interromperne lo sviluppo sarebbe proibirgli di usare i nostri contenuti per addestrarsi.

L’uso malevolo di questi strumenti è una sicurezza più che una possibilità. È evidente che le persone useranno l’intelligenza generativa con l’obiettivo di costruire informazioni persuasive e magari fallaci, inondando i mezzi comunicazione tanto da saturarli. Ma non si può immaginare che il resto del mondo non cambi, in presenza di una simile trasformazione. La produzione incontrollabile potrebbe richiedere la necessità di istituire meccanismi di validazione che solo gli esseri umani potrebbero garantire.

Se i sistemi biometrici di riconoscimento vocale saranno tratti in inganno dai programmi per il campionamento artificiale della voce, come segnala il Guardian, allora verranno abbandonati come mezzi di identificazione e magari avremo bisogno di più persone non meno persone, più presenza e meno azioni a distanza.

Il destino non segue strade previste o prevedibili, soprattutto se le tecnologie della registrazione sono così precise, da costruire una realtà sintetica, indistinguibile da quella fenomenica, se non per chi ha avuto delle esperienze dal vivo. Gli esseri umani sono gli unici a saper cambiare punto di vista, gli unici a poter scegliere il tipo di rappresentazione a cui si vogliono affidare.

Possiamo condividere con Hinton l’urgenza di una regolamentazione di queste tecnologie, come lo abbiamo fatto per le armi chimiche e batteriologiche, oltre che per le autovetture e le medicine. Ma invito tutti noi a immaginare soluzioni diverse da quelle che ci appaiono inevitabili. A volte gli interventi indotti dalla preoccupazione condividono con quelli dei fanatici estimatori della tecnologia l’idea che non ci sia via di scampo. Le situazioni, per fortuna, sono sempre dinamiche, a patto di non perdere la fantasia, la creatività e la lucidità nell’interpretarle.

Pause Giant AI Experiments: An Open Letter (22/03/2023) https://futureoflife.org/open-letter/pause-giant-ai-experiments/