Il termine Intelligenza artificiale, coniato nel 1956 da John McCarthy – uno dei pionieri del mondo digitale -, ha sempre incluso nella sua frastagliata area semantica un forte valore simbolico. Cosa si intende per «macchine intelligenti», infatti, è variabile e posa sul significato a sua volta incerto di intelligenza, oltre che di macchina. Già Alan Turing dichiarava saggiamente di voler eliminare dalla discussione la domanda se una macchina potesse pensare, perché qualsiasi risposta sarebbe stata inaffidabile.

Lo scienziato propose invece di costruire un gioco da sostituire alla domanda, il famoso «test di Turing», che prevedeva di chiedere a un interlocutore inesperto di tecnologie di interrogare una macchina, sottoponendola a una semplice conversazione insieme ad altri esseri umani.

Se la macchina avesse ingannato il giudice improvvisato inducendolo a scambiarla per un umano, allora ci si accordava nel considerarla intelligente.Il sottotesto di questo escamotage suggeriva che l’intelligenza fosse nello «sguardo» di chi la definisce.

Ma l’esito di questa definizione sociale di intelligenza è più prepotente ancora della costruzione culturale dell’ideale del bello, perché colonizza logiche e categorie che adottiamo per organizzare e governare il mondo. Attribuire l’intelligenza alle macchine al momento significa attribuire agli algoritmi una capacità di prevedere e anticipare il futuro e interpretare il presente per dargli senso.

Gli algoritmi sono un insieme di regole inventate per mettere ordine tra le grandi quantità di dati disponibili su qualsiasi fenomeno, inclusi quelli sociali e psicologici.

Le macchine digitali sono quelle che si sono imposte dalla fine della seconda guerra mondiale nel campo dei suoi vincitori, perché considerate le più potenti e affidabili disponibili finora. La loro caratteristica è la capacità di manipolare secondo regole prestabilite grandi quantità di dati forniti in un formato «machine-readable».

Perché i fenomeni vengano analizzati dalle macchine digitali è necessario spacchettarli in una successione di misurazioni discrete costruite perché possano essere maneggiate secondo una precisa successione di regole automatiche, gli algoritmi, che vengono stabiliti dai programmatori, ora chiamati con nomi più chic come data scientist o algoritmisti. Chi ha la capacità di costruire le regole e organizzare i dati è, secondo l’attuale assetto geopolitico, responsabile dell’«intelligenza della macchina».

Questa ipotesi non confermata mette chi è in controllo del governo della macchina nella posizione di scegliere le regole inverificabili da tutti gli altri sulle quali costruire il discorso intelligente dominante.

Nessun attore, a parte le macchine stesse, potrebbe mettere in discussione il loro operato, dal momento che nessuno è in grado di maneggiare la stessa quantità di informazioni, oppure orientarsi nel caos delle procedure, nemmeno gli stessi inventori dei programmi.

Algoritmi e Big Data forniscono un nuovo assetto del mercato dell’intelligenza e introducono nuovi equilibri di potere. Mettono ignoti tecnologi in condizione di accaparrarsi spazi di controllo inediti e di imporre una nuova agenda ai governi.

Se ne era già accorto un altro dei grandi pionieri dell’era digitale, Norbert Wiener, che in un libro del 1950 aveva segnalato come tali macchine «potrebbero essere usate da un essere umano o un gruppo di esseri umani per aumentare il loro controllo sul resto della razza umana», oppure dei leader politici avrebbero potuto spingere l’umanità non attraverso le macchine ma utilizzando tecniche politiche concepite meccanicamente.

Tale potenziale di controllo non è solo nelle mani delle aziende internet che ne hanno sfruttato platealmente le capacità, e che spesso hanno legami diretti o indiretti con le intelligence mondiali, ma anche dei governi nazionali autocratici o no. La partita quindi non è tra un governo tecnocratico mondiale e le forze democratiche, ma si gioca su come usare questi dispositivi per costruire meccanismi di potere che possano essere centralizzati, blindati e oscurati. A questo processo partecipano anche gli Stati nazione che, sebbene in difficoltà, possono esplorare il carattere ambivalente dell’architettura di Internet.

Nel libro I padroni di Internet (rgb, 2006) gli autori, Jack Goldsmith e Tim Wu, confutavano la tesi che la rete fosse uno spazio anarchico, mostrando come gli Stati imponessero il rispetto delle proprie regole.

Bisogna rilevare che l’infrastruttura digitale, oltre la narrazione su virtualità e assenza di barriere fisiche, è potentemente radicata nella dimensione materiale. Macchine, cavi, e data center sono necessari e geopoliticamente strategici. Servono per far funzionare la macchina del governo «intelligente» e si possono facilmente racchiudere entro firewall nazionali, come dimostra l’esempio della censura cinese. I muri non servono solo a impedire il passaggio dei migranti, ma anche quello dei dati che richiedono l’assenza di interruzioni.

Per analizzare la situazione attuale e comprenderne le sfumature è necessario abbandonare l’illusione che la rete e il digitale siano l’avanguardia rivoluzionaria di un mondo libero e fuori controllo e considerare le tecnologie della comunicazione come il nuovo scenario di scontro in cui si affrontano i gruppi che lottano per esercitare l’egemonia.