Il successo di ChatGpt, di OpenAI, ci fa pensare alla storica profezia di Turing nel proporre il gioco dell’imitazione – noto come Test di Turing – un metodo che avrebbe dovuto sostituirsi alla difficile domanda sulla possibilità dell’intelligenza delle macchine. La proposta consisteva nel fingere di mettere la macchina in una situazione comunicativa protetta da una telescrivente con dei giudici inesperti. Se il sistema fosse riuscito a ingannare gli interlocutori tanto da essere scambiato per una persona, la macchina avrebbe superato il test. Potremmo interpretare la proposta immaginando che Turing non si riferisse tanto alle prestazioni della macchina, ma al carattere sociale dell’attribuzione dell’intelligenza.

L’aspetto della simulazione e soprattutto la capacità di echeggiare ciò che è stato scritto è una caratteristica qualificante di ChatGpt, nutrito da un’immensa quantità di testi che sa riprodurre – una nuova Eco tecnologica. La sua tecnologia Transformer concentra l’attenzione sulle parole di input, cercando di restituire la risposta più probabile alla stringa in cui la domanda è posta. Se l’informazione fosse definita come qualcosa di imprevisto e inatteso, allora ChatGpt non sarebbe molto informativo. Il tentativo di associare alle domande la sequenza più probabile di risposta è l’opposto di una sorpresa: si tratta di una replica spesso banale e ripetitiva.

Le parole per noi non hanno solo una dimensione sintattica rituale e probabilistica, stanno per qualcosa che le trascende. Le scegliamo consapevoli della loro inadeguatezza nel rappresentare cose, emozioni, eventi e concetti. Ogni tentativo di limitarsi al piano della sintassi ha condotto la logica nei vicoli ciechi dei risultati negativi. Il dispositivo ChatGpt non conosce altro che la probabilità delle frequenze relative delle parole e il sistema di addestramento non riconosce alcuna esternalità.

La funzione di rappresentazione del linguaggio è, invece, potente proprio per la sua incompletezza, per l’apertura e la produttività. Ma nel sistema tecnico non ci sono tracce di inesauribile fertilità. Sembra uno studente diligente che ha imparato la lezione a memoria.

Gli esseri umani tendono a cercare il significato dei segni. È una loro caratteristica, la stessa che li spinge alla pareidolia, la propensione a riconoscere forme note o significanti nelle nuvole o in qualsiasi tipo di superficie, su cui si basano tutti i metodi antichi di vaticinio. Siamo naturalmente preparati a ritenere che una certa risposta sia dotata di senso. La macchina, invece, non dà significato alle parole, o meglio alle stringhe di segni o al loro raggruppamento in token o pezzi di frasi. Ne valuta solo la probabilità relativa rispetto alla stringa del prompt.

Il carattere sociale e interattivo dell’attribuzione di senso a un discorso è il volano sfruttato dall’intelligenza artificiale per far funzionare la nostra relazione con la macchina. Siamo noi a riempire il vuoto di significato, con la tentazione di vedere il senso di ogni cosa. Il senso è nell’interpretazione di chi legge. Lo scrittore può sparire, il lettore no. O meglio se sparisse sarebbe più catastrofico. La chat si appoggia sul sistema di ricezione e comprensione che presiede alla nostra capacità astrattiva. Un grande vantaggio cognitivo, che ha qualche piccolo effetto collaterale se è usato artificialmente per far funzionare conversazioni tra interlocutori che condividono parole, ma non la loro dimensione incarnata e semiotica.

Allo stato attuale ChatGpt commette errori, soprattutto legati a domande a trabocchetto, ma anche a causa dell’ignoranza di tanti aspetti del mondo. Sta a noi il compito del debugging, della correzione, dell’editing quando inventa a piacimento fonti bibliografiche che non esistono a supporto delle sue affermazioni. Ci confrontiamo con un interlocutore di cui non ci si può fidare. È discontinuo, proprio come aveva avvertito Turing: se la macchina deve mostrarsi intelligente, deve poter anche sbagliare a volte. Ci troviamo a parti invertite ad aiutare il dispositivo a non dire certe sciocchezze, a patto di saperle riconoscere, visto quanto la macchina sia più prestante, per esempio, conoscendo tante lingue diverse.

Abbiamo di fronte un grande progetto di automazione della capacità cognitiva linguistica, sostenuto dallo sforzo intellettuale di un esercito di persone geniali e comuni e dalla disponibilità di tanti testi scritti resi accessibili dalla digitalizzazione. Una generalizzazione a livello industriale della ritenzione terziaria, cioè quella capacità incorporata in oggetti, immagini, scrittura e media, che consente di trasmettere la nostra eredità di pensieri e pratiche ai posteri, cristallizzando la tradizione, ma evitando di dover reinventare la ruota a ogni generazione.

Il sistema ChatGpt si fonda, oltre che su Gpt (Generative Pre-trained Transformer) 3.5, anche su Rlhr (Reinforcement Learning from Human Feedback). Significa che usa sia l’apprendimento supervisionato, sia l’apprendimento per rinforzo, entrambi guidati dallo sforzo umano: prima si costruisce la lista di regole di addestramento, poi si interviene con controlli sui risultati per migliorare la qualità delle risposte. Se aggiungiamo il numero ingente di testi umani sui quali è addestrato assomiglia più a un turco meccanico che lavora in differita, che a una macchina intelligente.

Tuttavia, non possiamo negare la grande attrazione che ChatGpt esercita su di noi perché attiva il nostro desiderio inconfessato di essere sedotti da questi dispositivi, di rifletterci la nostra immagine, di delegare loro parti sempre più vitali della nostra soggettività, sebbene ne riconosciamo la componente simulativa e mimetica. Un nostro doppio da usare a piacimento, un maggiordomo fedele e saggio. ChatGpt e i suoi competitor come Bard di Google, che verrà lanciato in seguito e si propone di fornire solo risposte affidabili e informative, non saranno spazzati via dalle nostre critiche. Istituiscono una nuova prassi. Dovremo scegliere un modo per conviverci che non stravolga la dimensione cognitiva umana in un gioco di specchi tra noi e la macchina, capace di deformare reciprocamente autonomia e dipendenza. Conoscere il loro funzionamento è una condizione necessaria per usarli a nostro vantaggio e non esserne usati. Non sappiamo se basterà, ma dobbiamo provare.