«I risultati raggiunti a livello di immagini e testi da questa tecnologia sono sconvolgenti», osserva a proposito delle intelligenze artificiali come Chat Gpt Daniel Leufer, senior policy analist di Access Now, esperto di Ia e fondatore del sito Ai Myths, nato per sfatare le leggende su questo sviluppo tecnologico che lo rendono «magico e imperscrutabile» agli occhi del pubblico.

E infatti, sottolinea, «occorre essere molto critici». A partire dall’uso delle parole: «Credo che lo stesso termine Ia sia problematico, servirebbe piuttosto utilizzare termini specifici come machine learning, altrimenti si rischia di scivolare in una sorta di scenario fantascientifico».

Cosa sono i Large language models come Chat Gpt?

Chat Gpt e altri modelli di linguaggio simili “apprendono” da una mole immensa di dati, che negli ultimi anni è cresciuta a dismisura: parliamo di miliardi di parametri, infatti l’ “addestramento” di questi modelli è diventato molto costoso. È il machine learning: si imposta l’algoritmo perché apprenda dai dati, secondo il principio per il quale se alla macchina vengono forniti abbastanza esempi saprà coglierne i tratti comuni, ne inferirà delle regole.

Ed è un processo che può andare decisamente storto: ha prodotto risultati fantastici – ad esempio nel riconoscimento degli oggetti – ma oltre a porre questioni problematiche, come il riconoscimento facciale, fa moltissimi errori. Nel tentativo di insegnare al sistema a distinguere i grizzly dagli orsi polari sono state inserite tantissime immagini di entrambi gli animali, e il riconoscimento si è rivelato accurato al 100%. Ma si è scoperto che ciò che l’Ia stava facendo per discernere le immagini era di cercare se ci fosse neve nella foto.

Penso che sia un buon esempio di come questi sistemi possano avere un’ottima performance e superare i test, ma potrebbero farlo per il motivo sbagliato. Si tratta di tecnologie complesse, con tantissimi parametri e stratificazioni: è difficile sapere perché vengono prese certe decisioni invece di altre.

È innegabile che ciò che queste intelligenze artificiali sono in grado di fare allo stato attuale sia impressionante, ma questo non vuol dire siano perfette o che la perfezione si possa raggiungere “nutrendole” di dataset sempre più grandi.

Uno degli aspetti più problematici di questa tecnologia è il modo in cui riflette i pregiudizi contenuti nel linguaggio di cui viene “nutrita”.

Quando si parla di questi modelli di linguaggio (ma anche quelli multimodali come Stable Diffusion) è fondamentale riflettere su come vengono assemblati i dati. Stable Diffusion, ad esempio, è stata inizialmente “allenata” sul database Laion, con 400 milioni di immagini prelevate da internet. La versione attuale invece è allenata su 5 miliardi di immagini. Ma non accetto l’idea che si tratti di numeri troppo grandi per poter “curare” il dataset.

Le persone che promuovono questi sistemi sostengono che siano il futuro dell’umanità – risulta quindi un po’ stonato che non abbiano intenzione di fare tutti gli sforzi possibili per renderli più sicuri. Il dataset Laion è pieno di pornografia, e non di un “bel” tipo: contenuti violenti, sessisti, razzisti. Se si cerca sul database una qualunque parola relativa a un uomo le immagini ottenute non avranno problemi, se si fa una ricerca che suona in qualche modo collegata all’ambito femminile, si otterrà solo del porno. Sarebbe stato un problema semplicissimo da risolvere prima di rendere accessibile il dataset.

Emad Mostaque, il Ceo di Stability Ai (che produce Stable Diffusion) presenta questo strumento come se fosse del tutto neutrale. La sua posizione è che, dal momento in cui Stable Diffusion è stato reso accessibile in versione open source, le persone ne fanno l’uso che credono. Ma questo non è vero: l’Ia è costruita a partire dal dataset Laion, che abbiamo visto essere molto problematico.

Sono entrambe tecnologie open source, e le compagnie che le producono parlano di democratizzazione della Ia, mentre Open Ai – a dispetto del suo nome – è chiusa, solo persone selezionate possono interrogare il suo dataset. L’attitudine dei creatori di queste tecnologie non è accettabile, si schermano dietro l’affermazione che le Ia rispecchiano il mondo per ciò che è, ma non è affatto vero: riflettono decisioni fortemente politiche e ideologiche.

In tanti sostengono che le nostre società si troveranno di nuovo impreparate di fronte a un’altra ondata di innovazione tecnologica, incapaci di proteggersi da ciò che viene deciso da un pugno di persone nella Silicon Valley.

Credo che uno dei temi politici più importanti del 2023 sarà proprio lo sviluppo di strategie per gestire questi sistemi, per evitare di assistere al capitolo due di Move fast break things (il motto di Facebook fino al 2014, ndr). I produttori di Ia si rappresentano come una nuova generazione di compagnie tecnologiche che si oppone a big tech, sostenendo che la strategia open source contrasterà questa “cultura dei gatekeeper”.

I campanelli d’allarme, al contrario, sono tanti. Ci vengono vendute come tecnologie rivoluzionarie, ma spesso non si tratta che di strumenti profondamente conservatori, funzionali alle misure di austerity. In Automating Inequality Virginia Eubanks racconta di diverse realtà americane in cui gli assistenti sociali vengono rimpiazzati dagli algoritmi. Non si tratta quindi di creare qualcosa di nuovo, ma di consentire il perpetuarsi di una situazione terribile.

Il ricercatore Aviv Ovadya sostiene che rilasciare sistemi simili senza che prima ci sia stata una «riflessione democratica collettiva» è come «immettere una specie invasiva nel mondo», per via di come possono agire online in maniera indistinguibile dagli esseri umani.

Hanno un immenso potenziale nel generare deepfake e produrre disinformazione a basso costo. Una compagnia polacca ha elaborato un sistema che rende semplicissimo creare dei falsi vocali immettendo un campione della voce di una persona, e poi un testo da farle leggere. È uno strumento che progredirà rapidamente.

Allo stesso tempo stanno aumentando gli strumenti per riconoscere i falsi. Ma è una scelta cinica, una classica strategia di business: crea un problema, poi vendi la soluzione. Molte di queste attività nocive sono possibili anche senza l’Ia: le truffe, il phishing, la disinformazione. Conosciamo tutti le “fabbriche” dove centinaia di persone producono contenuti falsi. Ma l’Ia lo rende economico, e più semplice.

Sistemi come Chat Gpt potrebbero per esempio scrivere migliaia di articoli su una teoria del complotto. Open Ai ha dei filtri che lo impediscono, ma credo che non ci vorrà molto prima che un sistema simile venga rilasciato open source – e a quel punto non ci sarebbero più ostacoli. A riprova di come entrambi gli approcci siano problematici: quello chiuso lascia in mano le decisioni solo a un numero ristretto di persone, quello aperto prospetta scenari altrettanto inquietanti.

Si perderanno posti di lavoro?

Il tema del lavoro in generale associato all’Ia è problematico. A partire dalla delocalizzazione per la catalogazione dei dati: gli immensi progressi nel machine learning sono costruiti sullo sfruttamento del lavoro sottopagato, e che resta invisibile. Per quanto riguarda invece la perdita di posti di lavoro penso sia importante riflettere sulla tendenza dell’Ia a offrire soluzioni scadenti, introdotte perché sono a basso costo.

Un buon esempio sono gli algoritmi per la valutazione dei lavori degli studenti. Ultimamente si discute molto del fatto che ora si può usare Chat Gpt per scrivere i saggi accademici. Ma il boom dell’Ia nell’educazione è in corso da anni, ed è stato interamente avverso agli studenti, senza che nessuno se ne facesse un problema. Per correggere i compiti prima venivano sfruttati dottorandi e specializzandi, costretti a farlo dalle loro condizioni precarie. Poi sono stati introdotti gli algoritmi: un sistema automatizzato non può correggere un saggio, ma se si fa notare che il risultato non è buono la risposta è che se le persone sono sopraffatte dalla quantità di compiti che devono svolgere non faranno comunque un buon lavoro – quindi tanto vale subappaltarlo all’algoritmo.

Un’altra dimostrazione di come sia una tecnologia conservatrice: c’è un sistema sul punto di implodere, e invece di correggerlo si impiega la Ia per alleviare la pressione, senza che venga cambiato nulla.

In generale, non credo sia inevitabile che delle categorie di lavoratori perdano il loro posto, ma è impossibile prevedere il futuro. Già vediamo scrittori o illustratori freelance a cui vengono diminuiti i compensi, perché invece di venirgli commissionate opere originali devono limitarsi a correggere e sistemare i prodotti dell’Ia. Ancora una volta non perché la soluzione “artificiale” sia migliore, ma perché è più economica e consente di abbassare i salari.