Un atlante è un punto di vista sullo spazio che si propone di descrivere. Diversamente da altre forme di rappresentazione, non aspira alla completezza, all’universalità, ma fornisce un resoconto parziale e situato del suo oggetto. Un atlante è una dichiarazione sull’orientamento della sua rappresentazione: si tratta di un ambiente, un insieme di fenomeni, talvolta sconnessi tra loro, ma visualizzati insieme. È questo l’intento del libro di Kate Crawford sull’intelligenza artificiale, Né intelligente, né artificiale (Il Mulino, pp. 314, euro 20; titolo inglese Atlas of AI).

IL VOLUME SI OCCUPA di diversi campi interessati o che intercettano gli effetti più problematici dell’intelligenza artificiale, sebbene eterogenei tra loro: dalla sorveglianza di stato, alle tecniche di estrazione del litio per le batterie, dalla struttura delle emozioni, ai meccanismi di categorizzazione per riconoscere gli oggetti, alla raccolta dei dati, fino alla riorganizzazione del lavoro e all’industria dei viaggi nello spazio. L’autrice è una studiosa delle implicazioni politiche dell’intelligenza artificiale, professoressa all’università della Southern California e ricercatrice senior della Microsoft.
Crawford mira a mostrare il carattere profondamente materiale di questo settore di ricerca, dalle risorse naturali necessarie per costruire i dispositivi e le loro batterie, a quelle energetiche per far funzionare i grandi data center. Nei centri di calcolo sono disponibili le informazioni necessarie per i nuovi strumenti per il riconoscimento di schemi ricorrenti e modelli (pattern recognition) nei dati, adottando i metodi del deep learning – quelli attualmente più in voga nel ballerino settore dell’intelligenza delle macchine. Le risorse si riferiscono anche alle capacità umane necessarie per addestrare algoritmi a eseguire i compiti loro assegnati.
Il riconoscimento delle immagini, comprese le foto delle persone, è l’area i cui risultati sono più promettenti, insieme ai giochi come scacchi, go, e videogiochi. Gli obiettivi sono raggiunti grazie al lavoro di migliaia di lavoratori sconosciuti che, tramite le piattaforme dei lavoretti come Mechanical Turk di Amazon, hanno identificato ed etichettato miliardi di immagini rese disponibili gratuitamente da altre persone.
Vengono messi al lavoro meccanismi di standardizzazione che non sono discussi quando si attribuiscono alle macchine capacità di astrazione necessarie per riconoscere oggetti e volti. I sistemi digeriscono schemi e stereotipi prodotti dallo sguardo situato di chi, ignaro degli usi a cui verranno sottoposte le immagini, le etichetta secondo il proprio giudizio.
La sezione dedicata alle persone della più grande banca dati di immagini ImageNet è stata resa inaccessibile al pubblico dopo la scoperta che vi si trovavano etichette come «bagascia» o «fallito», attribuite in modi opachi e inspiegabili. Eppure, su questa grande banca dati, costruita attraverso la disponibilità collettiva di immagini e strutturata dal lavoro di ignari etichettatori, si sono addestrati la maggior parte dei sistemi di intelligenza artificiale, che hanno dato prova della loro performatività nell’image recognition.

UN ALTRO SETTORE DI PUNTA della nuova ondata di strumenti artificiali si propone di riconoscere le emozioni che dovrebbero trasparire dalle espressioni facciali. Le banche dati su cui vengono addestrate le presunte macchine intelligenti sono costruite artificialmente, attraverso attori o altri metodi di riconoscimento delle espressioni basate su categorizzazioni, spesso occidentali e sempre prive di qualsiasi riscontro di scientificità. Fu lo studioso Paul Ekman che cercò negli anni Sessanta di stabilire l’esistenza di espressioni facciali standard per manifestare emozioni, facendo esperimenti in Papua Nuova Guinea, ottenendo risultati non molto promettenti.

NON TUTTI GLI PSICOLOGI condividono l’idea che esistano delle emozioni standard, non influenzate culturalmente e molti contestano che siano riconoscibili nelle espressioni del volto. Ma tale mancanza di fondamento non ha impedito che ingenti investimenti economici venissero attribuiti alle ricerche in questo ambito. Gli obiettivi riguardano la sorveglianza, la lotta al terrorismo, ma anche la valutazione della capacità di attenzione degli studenti e perfino il reclutamento lavorativo, identificando espressioni negative che renderebbero i candidati inadatti a collaborare.
Le conclusioni dell’intelligenza artificiale si manifestano per quello che sono: potenti strumenti di potere e di discriminazione, nascosti appena sotto il tappeto del dispositivo tecnico, asettico e ritenuto affidabile, senza ulteriori verifiche. Gli esseri umani e le loro capacità di riconoscimento ed elaborazione di categorie per includere e per discernere tra oggetti, eventi ed emozioni sono messi al lavoro dal sistema algoritmico per l’organizzazione del mondo. L’intelligenza artificiale è finanziata da un vorace sistema capitalistico che, in alcuni casi è connesso con le strutture di controllo degli stati, e manifesta la volontà di regolare, riconoscere e rinominare il mondo secondo criteri prestabiliti e ideologici.

NULLA DI NUOVO sotto il sole, se non fosse che il regime di astrazione, categorizzazione e governo della conoscenza, promosso da queste complesse infrastrutture sociotecniche, esternalizza sempre di più le capacità dell’intelligenza umana, estraendo, oggettivando, ma anche escludendo la capacità critica dell’umanità, che viene asservita o svilita a seconda delle convenienze.
Il rischio di questo regime di potere, reso possibile dalle tecnologie digitali, è che rendendo obsoleta la ragione umana, potrebbe escludere il dissenso e la legittimità stessa di un processo di verifica dei risultati ottenuti. Saremmo in presenza di una trasformazione della scienza moderna, fondata sulla ripetibilità degli esperimenti. In un sistema in cui sempre più dati, metodi e infrastrutture della conoscenza sono proprietà privata, la stessa controllabilità degli esperimenti in contesti indipendenti non è garantita.
Non sappiamo se queste macchine siano intelligenti. Secondo Crawford, non lo sono, oltre a essere il frutto del lavoro di esseri umani, il cui ruolo è reso invisibile. Ma la questione è anche più complessa: chi decide cosa è intelligente, una volta che la capacità cognitiva umana viene estratta dalle macchine e non c’è modo di controllare quello che suggeriscono? Se una persona dicesse che ha scoperto il segreto dell’universo, ma non possiamo comprendere il linguaggio che usa, lo considereremmo un ciarlatano. Ma che succederebbe se fosse un potente sistema sociotecnico a vantarsi di saperne più di noi, dopo averci convinto che le nostre capacità sono incommensurabilmente inferiori alle sue?

 

SCHEDA

Kate Crawford si occupa delle implicazioni politiche e sociali dell’intelligenza artificiale. Studia come i sistemi a larga scala basati sui dati intervengano nella storia, nel lavoro e nell’ambiente. È Senior Principal Researcher ai Microsoft Lab a New York e docente di ricerca alla South California Annenberg. Oltre alle attività di ricerca ha partecipato a progetti collaborativi e artistici al confine tra cultura visuale e scienze. La sua installazione Anatomy of an AI System – realizzata con Vladan Joler – è stata esposta alla XXII triennale di Milano (2019). L’Osservatorio Fondazione Prada di Milano ha ospitato una sua mostra con Trevor Paglen, dal titolo, Training humans (2019-2020). Con Paglen ha vinto l’Ayrton Prize della British Society for the History of Science per il lavoro: Excavating AI.
https://excavating.ai/
https://anatomyof.ai/
https://www.katecrawford.net/