Cultura

La mente tentacolare

La mente tentacolare

Cibernetica Diversi report istituzionali e un libro si interrogano sull’Intelligenza artificiale e i suoi risvolti. Quanta autonomia dobbiamo attribuirgli? Quali responsabilità decisionali deve e può avere? Le domande sono politiche ma anche filosofiche

Pubblicato più di 6 anni faEdizione del 15 luglio 2018

l direttore della rivista Wired Nicolas Thompson ha pubblicato il 6 luglio un’intervista al chief product officer di Facebook Chris Cox sugli sforzi del social network per fermare il dilagare dell’odio e delle fake news su Internet. Cox ha dichiarato che l’intelligenza artificiale è già presente e diffusa nella vita della Rete, agendo come se fosse elettricità. Ha sostenuto, cioè, che si tratta di una commodity. Ma per una commodity non fa differenza se l’elettricità serva per far funzionare una televisione, un’autovettura o se si usi per il calore di un’incubatrice per neonati. È un flusso in cui non conta il contenuto, sempre identico, ma solo la quantità e la portata.
L’intelligenza artificiale invece è un insieme di sistemi non fungibili tra loro, in cui le scelte sui metodi e i contenuti dei processi da applicare ai singoli problemi sono causa di successo o fallimento. In questo senso, non potrebbe essere più distante dall’elettricità. Inoltre, l’elettricità non crea problemi etici, se non per come è prodotta e distribuita, mentre l’Ia presenta sfide complesse etiche, politiche e sociali.

TRE REPORT ISTITUZIONALI hanno recentemente affrontato le implicazioni sociali, etiche e economiche dell’intelligenza artificiale. La commissione europea ha pubblicato una comunicazione destinata al Parlamento e al Consiglio europeo sul tema Artificial Intelligence for Europe. Un comitato scientifico selezionato della Camera dei Lord inglese ha stilato un documento dal titolo AI in the UK: ready, willing and able?; Cédric Villani, membro del parlamento francese, ha avuto l’incarico dal primo ministro di costituire una commissione parlamentare che ha poi pubblicato un corposo testo intitolato For a meaningful artificial intelligence: towards a French and European strategy. Infine, un libro di Max Tegmark dal titolo Vita 3.0 (Raffaello Cortina, pp. 452, euro 29) fa il punto sull’argomento affrontando i problemi dell’intelligenza artificiale senza sensazionalismi.
Il volume ha lo scopo, tra l’altro, di promuovere il Future of life Institute, l’istituto nato dopo due convegni svolti a Porto Rico (2015) e Asilomar (2017). L’esito di quest’ultimo convegno è stato la firma da parte di importanti protagonisti dell’Ia di una famosa lettera aperta, sostenuta anche da Elon Musk e Stephen Hawking, all’epoca ancora vivo, nella quale si chiedeva un investimento nella ricerca per la sicurezza di questa tecnologia.

QUANDO IL TERMINE Artificial intelligence fu coniato da John MKcCarthy nella famosa proposta per la Summer School di Dartmouth nel 1956 il riferimento era alla possibilità di costruire macchine che sapessero sviluppare sistemi logici o logico-euristici simili a quelli umani per trovare soluzione ai problemi complessi di matematica. Nel tempo il concetto si è evoluto, o meglio si sono trasformati obiettivi e metodi per ottenerli dalle macchine. Adesso la maggior parte delle più promettenti ricerche nell’ambito dell’Ia riguardano la realizzazione di algoritmi di machine learning e deep learning per gestire grandi quantità di dati. Invece del fioretto della raffinata capacità intellettiva umana, s’impiega la scure delle grandi possibilità computazionali che le macchine elettroniche possono adoperare, in conseguenza dell’aumento incessante della velocità di calcolo e della capacità di memoria dei giganteschi data center in giro per il mondo, sebbene concentrati in alcune zone geopolitiche precise e ricche del mondo.

ANCHE SE LE TECNICHE sono cambiate, restano aperte alcune questioni cruciali. Ad esempio: cosa si deve considerare intelligente? Come si può identificare un agente intelligente artificiale? Quanta autonomia dobbiamo attribuirgli? Quali responsabilità decisionali deve e può avere? Le domande sono politiche, etiche e attraversano tutta la riflessione sull’Ia dalla cibernetica a Alan Turing, dal funzionalismo, all’idea di Extended Mind di Andy Clark e David Chalmers, fino ai paradigmi più avanzati dell’embodied cognition, quelli in cui si sostiene che l’intelligenza non sia relativa solo al cervello, ma coinvolga anche il corpo.

I PROGETTI d’intelligenza artificiale basati sulla grande capacità di maneggiare dati da parte degli algoritmi di deep learning lavorano in modi che costringono persino i ricercatori che li hanno progettati a rinunciare a comprendere esattamente cosa accada nella scatola nera dell’esecuzione dei processi. L’intelligenza è dunque una caratteristica multiforme, difficile da catturare, ma un concetto potrebbe rendere conto del grande problema epistemologico – e etico e politico – che dobbiamo risolvere. Si tratta di accountability. In italiano si può rendere con responsabilità, ma anche con rendicontabilità, affidabilità, trasparenza, capacità di giustificare il comportamento esercitato e di dare conto delle ragioni della decisione assunta.
Su questo è necessario concentrarsi quando i servizi di Ai riguardano anche lontanamente aspetti politici, di governance, o sociali, perché il rischio è cedere la presa di decisione a un dispositivo che sembra più efficiente ma che non può fornire alcuna giustificazione dell’agire, per quanto «intelligente» lo possiamo ritenere. Questo problema è affrontato sia dal libro Vita 3.0 sia nei tre report europei. Tegmark dichiara che per trattare il problema dell’intelligenza artificiale correttamente dobbiamo sapere bene quello che vogliamo che lei faccia per noi. E per saperlo dobbiamo porci delle domande fondamentali che lui considera filosofiche, ma che sono soprattutto politiche e riguardano il tipo di società nella quale abbiamo il desiderio di vivere.

I REPORT EUROPEI hanno invece obiettivi comuni, sebbene manifestino sfumature differenti: i francesi più preoccupati, gli inglesi più baldanzosi e fiduciosi e il documento europeo è all’insegna di un fragile equilibrio tra le due istanze. Tutti segnalano il problema profondamente politico della responsabilità nella presa di decisione in settori troppo delicati. La politica, la finanza, le assicurazioni, la giustizia e la difesa sono campi nei quali si stanno investendo ingenti somme per automatizzare la presa di decisione, anche se il deputato francese Villani sostiene esplicitamente che ci siano aree in cui il giudizio umano, per quanto fallibile, non dovrebbe essere sostituito dalle macchine.
Un altro problema che attraversa in controluce tutti questi contributi è la riorganizzazione delle competenze. In un mondo in cui la maggior parte delle attività potrebbe essere svolta dalle macchine, sarebbe necessario ripensare l’organizzazione del lavoro, ma soprattutto quella della formazione. Le attività che richiedono maggiore empatia, capacità d’interazione sociale, originalità e pensiero creativo continueranno infatti a essere svolte da esseri umani.

ULTIMO MA NON ULTIMO, nel governo dell’innovazione è necessario contrastare la discriminazione e tutelare le diversità. Gli algoritmi sono progettati in laboratori ad alta densità maschile e tendono – ormai è evidente a tutti – a replicare i pregiudizi di chi li elabora, oltre a essere al servizio dei fini di chi li finanza. Siamo di fronte a un altro dilemma politico: come aumentare la percentuale di progettisti donne nell’Ia e come pretendere l’apertura della scatola nera sul meccanismo e sulla logica di processi che hanno effetti sulla vita delle persone?
L’intelligenza artificiale resta un’impresa profondamente umana, a immagine e somiglianza di chi ne è profeta e di chi finanzia e realizza i sistemi. Il rischio è enorme. Dobbiamo immaginare che questi strumenti possano anche finire in mani criminali o nemiche. La malicious Artificial intelligence, cioè quella usata per scopi malevoli, come il digital warfare e altri simili strumenti di appropriazione o distruzione, è lo specchio distorto delle meravigliose sorti e progressive della sua applicabilità.

UN ULTIMO CAVEAT riguarda la retorica che imperversa intorno alla capacità cognitiva degli strumenti di Ia promossi come infallibili anche da chi contesta lo strapotere delle Big Four (Amazon, Apple, Facebook e Google). Pensare per esempio che i dati che si raccolgono sul nostro conto siano privi di errori e possano portare a una corretta rappresentazione di desideri, abitudini, appartenenza a categorie psico-sociali e orientamento all’acquisto delle persone è inesatto, prima che ingiusto, ma contagia anche i commentatori più avvertiti e raffinati. In conseguenza di questa resa epistemologica, l’intelligenza artificiale rischia di essere assunta come superiore agli esseri umani, senza che ci sia stata ancora gara, senza che ci sia un confronto, o una prova inconfutabile. A garantire la vittoria potrebbe essere l’asimmetria discorsiva in favore di un’aristocrazia hi-tech che, come spesso accade, governa prima la definizione del metodo di conoscenza e poi la determinazione di giustizia, equità e libertà.

I consigli di mema

Gli articoli dall'Archivio per approfondire questo argomento