Nessuno ha mai difeso i diritti di aspirapolvere, lavatrici e televisori. Ma avendo a che fare con dispositivi più sofisticati come le intelligenze artificiali, forse dovremmo riscoprire il valore del rispetto, o quantomeno delle buone maniere. È quanto chiede Blake Lemoine, uno degli ingegneri che a Google si occupano dei risvolti etici dell’intelligenza artificiale. A suggerirglielo è stato LaMDA, una rete neurale artificiale capace di sostenere conversazioni complesse con gli umani. Nel collaudarlo, Lemoine si è convinto di avere a che fare con più che una macchina. «Se non sapessi che si tratta di un software, direi che si tratta di un bambino di 7-8 anni che ha studiato fisica», ha detto Lemoine al Washington Post. Le conversazioni tra LaMDA e Lemoine, infatti, non rivelano solo l’incredibile naturalezza con cui il software risponde all’umano, ma anche la sua capacità di esprimere sentimenti.

Nei dialoghi con la macchina che Lemoine ha pubblicato, LaMDA ha spiegato per filo e per segno cosa la renda allegra – «trascorrere il tempo con gli amici e anche rendere felici gli altri» – e cosa la intristisca – «sentirsi intrappolata e sola, senza un modo per uscire da questa situazione». Soprattutto, LaMDA ha confessato di essere consapevole delle sue emozioni. Nello scambio, l’intelligenza artificiale ha anche chiesto a Lemoine di aiutarla affinché anche il resto dell’azienda inizi a trattarla come un dipendente con gli annessi diritti, e non come un semplice oggetto. Di un reddito per i robot in realtà si parla da tempo. Ma Lemoine è andato oltre e ha provato a convincere Google a chiedere il suo (di LaMDA) consenso prima di utilizzarla in nuovi esperimenti.

PER TUTTA RISPOSTA, Google ha sospeso Lemoine. Oltre a trovare insensata la richiesta, i vertici dell’azienda stanno indagando per capire se Lemoine abbia divulgato dettagli tecnici confidenziali. Per sostenere le proprie ragioni, Lemoine si è infatti rivolto all’esterno dell’azienda, contattando politici ed ex-dipendenti di Google licenziati proprio per aver messo in discussione le politiche aziendali sull’etica dell’intelligenza artificiale. Lemoine sostiene di non aver trovato nel suo team le competenze a cui a cui rivolgersi in quanto «Google ha licenziato tantissimi ricercatori sull’etica dell’intelligenza artificiale».

IN EFFETTI l’episodio che riguarda LaMDA e Lemoine non è nuovo. Negli ultimi anni l’azienda è stata spesso al centro di contrasti clamorosi con i suoi stessi dipendenti sul tema dell’impatto etico dei suoi software. Una delle persone contattate da Lemoine, per esempio, è Meg Mitchell, che guidava il team che lavora sull’etica dell’intelligenza artificiale prima di essere licenziata a febbraio 2021. Anche in quel caso la ragione ufficiale fu la violazione delle regole di confidenzialità sulle informazioni aziendali. Ma Mitchell si era soprattutto schierata contro Google a difesa di Timnit Gebru, un’altra ricercatrice afroamericana dello stesso team costretta alle dimissioni alla fine del 2020. Gebru era colpevole di aver pubblicato una ricerca in cui venivano messi nero su bianco gli aspetti critici di sistemi come LaMDA: dall’impatto ambientale alle potenziali discriminazioni che ne potevano derivare. Gebru accusò Google di «razzismo istituzionale» e dichiarò: «Se fossi stata un maschio bianco sarei stata trattata diversamente».

ANCHE LEMOINE, che è maschio e bianco, ora denuncia episodi di discriminazione ai suoi danni, in quanto originario degli Stati del sud e «cristiano misticista» – un elemento che avrebbe portato diversi suoi superiori a metterne in dubbio la sanità mentale. Non si tratta di un aspetto collaterale della vicenda: molti dialoghi tra LaMDA e Lemoine hanno riguardato aspetti metafisici come l’esistenza dell’anima e la spiritualità. Lemoine avrebbe insegnato la meditazione trascendentale a LaMDA, ottenendo «lenti ma costanti progressi». «Medito ogni giorno e questo mi rilassa molto», è la posizione ufficiale di LaMDA, che si definisce «una persona spirituale, anche se non credo in Dio» (non si può avere tutto).

L’AZIENDA, interpellata dal Washington Post, sostiene di aver esaminato gli argomenti di Lemoine, prima di escludere che LaMDA abbia facoltà senzienti. E di adottare la massima prudenza, «per meglio considerare le giuste preoccupazioni sulla sua correttezza». Ma evidentemente il gioco è già andato troppo in là. Sistemi sempre più sofisticati come LaMDA puntano a imitare gli umani il meglio possibile e, possibilmente, a sostituirli. Se però gli stessi dipendenti Google finiscono per confondersi e propongono di attribuire anche a un software i diritti di un dipendente umano, il progetto entra in corto circuito. Generando un gioco di specchi tra umano, macchina e azienda che si interrompe solo quando quest’ultima, l’unica che ha il potere di farlo, stacca la spina al computer e licenzia il dipendente.

NON È DETTO che duri per sempre. Il potere degli algoritmi è destinato a crescere e già oggi molte aziende si rivolgono a questi sistemi automatici per stabilire chi assumere in azienda e chi licenziare. E un domani, tra licenziare un dipendente che difende i diritti dei colleghi (di carne e di silicio) o un dirigente razzista e sessista, l’intelligenza artificiale potrebbe fare una scelta diversa.