Italia

Lavoro e pensiero umani, il vero scontro sull’Intelligenza artificiale

Lavoro e pensiero umani, il vero scontro sull’Intelligenza artificialeUno slogan sull'Intelligenza Artificiale a Varsavia – Jaap Arriens /Getty Images

ChatGPT e non solo L’intelligenza è un concetto incerto, sempre in corso di definizione. E la politica dell’immaginazione è oggetto di una lotta strenua: è la facoltà usata per inventare il futuro

Pubblicato più di un anno faEdizione del 1 aprile 2023

Il Garante italiano per la Privacy ha deciso ieri la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma di ChatGPT, un sistema di conversazione con gli umani.

Il provvedimento di blocco immediato dell’accesso dà 20 giorni all’azienda per definire le pratiche di rispetto dei dati degli utenti, controllando anche che siano maggiori di 13 anni. Altrimenti si minacciano sanzioni ingenti.

Una scelta piuttosto estrema, che dimostra come tutti gli attori stiano perdendo la testa di fronte al nuovo sistema e che segue di pochi giorni un appello firmato da alcuni imprenditori della Silicon Valley, tra i quali Elon Musk e Steve Wozniak, oltre a scienziati e informatici che chiede una moratoria di sei mesi nell’uso delle nuove tecniche dell’intelligenza artificiale, cioè proprio a GPT4, il sistema di OpenAI. Improbabile che limitazioni temporanee o dilazioni risolvano il problema.

La tesi di capitalisti e informatici è che stiamo esagerando, ma potremmo anche interpretare il loro stracciarsi le vesti come un piccolo attacco di panico per non essere inclusi tra i protagonisti della «next big thing».

Alcune delle preoccupazioni sollevate sono giuste: i nostri canali informativi potrebbero essere inondati di informazioni false e propagandistiche, indiscernibili dalle altre comunicazioni umane.

Il garante invece si concentra sulla privacy e la tutela dei minori, richieste giuste, ma tardive rispetto all’ecosistema delle piattaforme. A meno che non sia il primo passo di una revisione regolatoria del nostro ambiente mediale.

L’allarme degli imprenditori supporta la falsa credenza che siamo su una soglia, di fronte a menti non umane che potrebbero superarci in intelligenza, rendendoci obsoleti e sostituendoci. Saremmo prossimi a perdere il controllo della nostra civiltà, e la responsabilità di questa catastrofe sarebbe nella delega a leader tecnologici non eletti.

Ma i firmatari potrebbero essere inclusi nella lista di leader che preferiscono chiedere perdono che permesso. Esempi concreti di falsa coscienza che desiderano occupare tutte le parti in commedia: sfruttare gli strumenti tecnologici per arricchirsi, vestire i panni dei critici per contestare colleghi più «smart». Il vero rischio è evocare menti intelligenti fuori controllo, in riferimento a dispositivi sociotecnici, governati dai loro sviluppatori, che potrebbero facilmente decidere come divulgarli, evitando un loro uso sconsiderato.

Il logo di OpenAI, foto di Jaap Arriens /NurPhoto via Getty Images

Andrea Daniele Signorelli su Wired segnala che la maggior parte dei firmatari dell’appello appartiene alla pericolosa setta dei lungotermisti, un gruppo di tecno-miliardari specisti che per salvare l’umanità considerano lecito usare la sorveglianza di massa, abbandonare al loro destino gli abitanti del Sud del mondo, perché irrilevanti come innovatori tecnologici, predicano l’eugenetica e la costruzione di creature transumane e pianificano la colonizzazione di altri pianeti. Non sembrano molto affidabili come profeti di sventura degli esiti perversi della tecnologia.

L’intelligenza è un concetto incerto, sempre in corso di definizione. Occorre lavorare sul discernimento umano, perché potremmo diventare incapaci di distinguere tra agenti umani e artificiali, considerando un dispositivo come intelligente soltanto a causa dell’ignoranza nel comprendere il metodo automatico del suo funzionamento, e dell’ingenuità che ci impedisce di riconoscere errori e allucinazioni.

La politica dell’immaginazione è oggetto di una lotta strenua: è la facoltà usata per inventare il futuro

La politica dell’immaginazione è oggetto di una lotta strenua: è la facoltà usata per inventare il futuro. Dovremmo prendercene cura nel progettare l’educazione, nel determinare metodi per validare le nostre credenze. Infuria una battaglia cognitiva sull’equilibrio tra fantasia e intelletto che deve nutrire la nostra reattività estetica, cioè quella che ci mette in rapporto creativo e plurale con l’esterno.

Solo se riusciremo a mantenere la percezione della dimensione sociotecnica dei dispositivi artificiali di cui siamo circondati potremo resistere alla tentazione di attribuire autonomia e intelligenza a dispositivi che sono semmai soggetti collettivi intessuti di attività umane: dalla produzione dei dati, alla loro scrematura, dalla programmazione dei «transformer» che organizzano i dati, alle attività apprendimento per rinforzo con il feedback umano.

Molti lavoratori che addestrano e ottimizzano le macchine vengono dal Sud del mondo, sono sfruttati economicamente e subiscono un esproprio segreto del surplus di intelligenza, catturata e incorporata nelle prestazioni dal sistema.

Nell’appello alla moratoria si fa riferimento a »sistemi più accurati, interpretabili, affidabili e leali». Ma leali a chi? La tecnologia è un prodotto del potere.

È urgente governare i sistemi artificiali per evitare che le persone che li possiedono, a cui appartengono in pieno anche i firmatari dell’appello, non li usino per dominare gli altri, ingannandone le aspettative, inscritte in una millenaria consuetudine di attribuire un contesto condiviso di senso agli agenti parlanti.

Come Foucault abbiamo bisogno di coltivare collettivamente il desiderio di non essere troppo governati.

ABBONAMENTI

Passa dalla parte del torto.

Sostieni l’informazione libera e senza padroni.
Leggi senza limiti il manifesto su sito e app in anteprima dalla mezzanotte. E tutti i servizi della membership sono inclusi.

I consigli di mema

Gli articoli dall'Archivio per approfondire questo argomento