Nella complessità della predizione
ALESSANDRO VESPIGNANI Un’intervista a partire dal suo ultimo volume «L’algoritmo e l’oracolo». Network complex, reti neurali, stabili o transitorie, il suo lavoro sta sulla frontiera della «fisica del sociale». «Ci sono esperti che parlano di libertà aperta dalle tecnologie, di orizzontalismo. Sono molto scettico»
ALESSANDRO VESPIGNANI Un’intervista a partire dal suo ultimo volume «L’algoritmo e l’oracolo». Network complex, reti neurali, stabili o transitorie, il suo lavoro sta sulla frontiera della «fisica del sociale». «Ci sono esperti che parlano di libertà aperta dalle tecnologie, di orizzontalismo. Sono molto scettico»
Un cervello in transito, più che in fuga, che dichiara apertamente che lui dall’Italia non pensava proprio di andarsene, ma che il suo mentore lo aveva consigliato caldamente di accettare la proposta che gli veniva oltre Atlantico perché alla Sapienza di possibilità di borse di studio non ce n’era neppure l’ombra, nonostante l’ateneo romano fosse considerato una università di ottimo livello. E negli Stati Uniti Alessandro Vespignani ha cominciato a lavorare sulla complessità. È nel team di Benoît Mandelbrot, conosce fisici, matematici, ingegneri, sociologi noti (Albert-László Barabási e David Lazer) che all’invito a un caffè per parlare di come studiare il diffondersi delle epidemie, di intelligenza artificiale e di fake news, non si tirano mai indietro. Yale, Indiana, Northeastern, Vespignani insegna e lavora per università importanti diventando uno dei maggiori studiosi di network complex, cioè le reti – sociali, neurali, stabili o transitorie – della complessità.
Ora la casa editrice il Saggiatore ha mandato alle stampe il volume L’algoritmo e l’oracolo (pp. 197, euro 20), saggio sui mondi artificiali che umani e macchine stanno costruendo. Il libro mette in tensione le potenziali predittive della computer science, la sua trasformazione in una fede da parte di molti opinion makers, secondo i quali il digitale dovrebbe esercitare un potere indiscutibile nel modellare il futuro.
L’autore tuttavia non imbocca la strada «facile» degli esegeti del filosofo francese Jacques Ellul, fustigatore della tencoscienza, mezzo di una dittatura soft nel governo della vita. Più pragmaticamente, qui l’interesse della sua riflessione, Vespignani si colloca sulla frontiera della cosiddetta fisica del sociale, cioè su quel filone dell’analisi di una realtà ormai permeata dal digitale e che manifesta equilibri di potere e una trasformazione dell’essere sociale che necessitano di una attenta riflessione.
Nel suo libro, lei scrive che il «nostro futuro è il passato». Pensa a una circolarità del vivere in società?
È una frase che si riferisce a molti progetti di machine learning vincolati alla convinzione che i dati possano, da soli, stabilire le basi per modellare il futuro, rappresentato come una ripetizione con poche varianti del passato e del presente. La consumer analytics è un insieme di tecniche ormai consolidate quando ne sono state gettate le basi nel secondo dopoguerra, cioè da quando Andrew Cole assunto dalla catena di supermercati Target per studiare l’andamento dei consumi per stabilire strategie promozionali. Non sapeva certo che le sue correlazioni tra l’aumento delle vendite di alcuni beni e le strategie di marketing per donne incinte provocasse le ire di un genitore, che fece una scenata ai gestori di un supermercato per avere inviato materiale pubblicitario alla allora figlia minorenne, perché ritenuta incinta. Una offesa per il genitore, che poi scoprì che la figlia era appunto incinta. Questo per dire che se ci basiamo sul consumo, il machine learning è uno strumento potente, capace di offrire un modello sui comportamenti futuri. Ma se allarghiamo lo sguardo su dinamiche più complesse, il determinismo di ricavare il futuro dal passato in base ai dati raccolti viene a cadere.
Gli algoritmi hanno sì a che fare con la predittività, ma all’interno di mondi artificiali dominati da logiche, dinamiche, regole in via di definizione e spesso ancora intellegibili. Parlo cioè di una fisica del sociale che è il campo più difficile ma affascinante ed entusiasmante da arare. E qui che si smentisce la possibilità oracolare del machine learning per la vita sociale.
Lei usa l’espressione di atomo sociale. Un ossimoro. L’atomo è sempre una entità singola che si lega ad altre singolarità. La società funziona invece diversamente, un singolo che vive con altri singoli diventa altro da quel che si pensava fosse la sua caratteristica principale. Come spiega questo ossimoro?
Gli atomi si uniscono, dando vita a molecole, ad aggregati, rimanendo tuttavia sempre atomi di ossigeno o di idrogeno. Per gli umani non è così, certo. Uso l’espressione atomo sociale perché mi preme sottolineare che il singolo è comunque l’elemento alla base delle comunità, degli stati nazionali, della società. Occorre capire come funziona questo elemento base, come reagisce in relazione all’ambiente, come si modifica e come funziona la sua mente.
Lo sciame è la metafora usata da molti studiosi per provare a raccontare la complessità del vivere sociale. È così anche per lei?
Sono cresciuto in una città, Roma, dove ci sono mesi dell’anno in cui il cielo è pieno di stormi di uccelli che danno vita a mirabili coreografie. Una osservazione iniziale porterebbe a dire che c’è qualcuno che li comanda, che stabilisce gerarchie e linee di condotta. Non è così. C’è un livello più banale, che riguarda la distanza tra un uccello e l’altro, la velocità da mantenere, la variazione di direzione e velocità in funzione dei comportamenti degli altri volatili. Anche nella società ci sono automatismi come negli sciami animali. C’è adattamento, riproduzione di comportamenti. Gli sciami aiutano a capire il perché e il come si muovono gli atomi sociali. Siamo legati a una visione dell’individuo come un animale mosso da razionalità e libero arbitrio. Ci piace pensarlo ma non è così.
Lei fa riferimento a Michael Polany, il filosofo che ha centrato la sua opera sul concetto di conoscenza implicita e del suo ruolo nell’apprendimento e nelle relazione sociali. Tutti danno per scontato cosa sia, ma nessuno finora è riuscito davvero a dire come funziona nelle relazioni sociali. Un arcano, ancora tale. Eppure molti dei progetti di intelligenza artificiale si concentrano proprio sulla conoscenza tacita, anche se è diffusa la consapevolezza che sia impossibile spiegarla…
La conoscenza implicita riguarda il modo in cui funziona su alcune cose la mente, ma non le spiega. Ad esempio puoi spiegare a usare una formula matematica, ma non come andare in bicicletta. In questo caso, il modo migliore è salire e provare ad andare. Alla fine, dopo cadute e testardaggine nel riprovarci, impari ad andare in bicicletta. La tua esperienza, la tua conoscenza implicita puoi provare a comunicarla sei destinato al fallimento. Quel che sta accadendo da alcuni anni è che le macchine apprendono da sole, senza nessun supervisore o accompagnamento. Apprendono, ma non sappiamo bene come abbiano fatto. Capire come funziona la conoscenza implicita significa capire meglio come funziona la mente degli umani e di come funzionano gli algoritmi predittivi una volta diventati «operativi».
Nel suo libro usa con parsimonia il termine «potere». Eppure a un certo punto parla a lungo della Algoritmic Justice League, una associazione nata per denunciare il razzismo tacito di alcuni algoritmi…
L’associazione alla quale fa riferimento è stata fondata da Joy Buolamwini, ricercatrice di origine afroamericana al Massachussets Institute of Technology. È affettuosamente chiamata la «poetessa del codice», perché con intelligenza, humor e poesia denuncia il razzismo che può emergere quando viene scritto un software. Tutto nasce dal fatto che alcuni software per l’identificazione di una persona a partire dall’analisi del volto erano precisi bel oltre il novanta per cento se la persona da identificare è un bianco, ma diventavano poco affidabili nel caso di un afroamericano. La poetessa del codice invita dunque a riflettere sul problema del potere e sulle logiche dominanti nei mondi artificiali dove tutti viviamo. Sono d’accordo con lei.
Tutta la dimensione della predittività assume un suono sinistro se facciamo riferimento all’uso dei Big Data per manipolare l’opinione pubblica. Non crede?
C’è stata una modifica profonda dei rapporti di potere e nelle relazioni sociali con quella che ancora adesso viene chiamata la rivoluzione digitale. Ci sono studiosi che parlano dell’era della libertà assoluta aperta dalle tecnologie digitali, dell’orizzontalismo, della possibilità di una democrazia diretta nelle relazioni tra governo e governati. Sono fortemente scettico su tutto ciò. Il problema è che dell’accresciuto potere degli algoritmi sono consapevoli le corporation del digitale e gli Stati nazionali che li usano. Prendiamo le fake news, che si diffondo a una velocità esponenzialmente più alta delle notizie corrette e verificate. Perché questo accade, perché hanno un potere di consenso maggiore: è uno degli aspetti dei mondi artificiali che gli umani e le macchine stanno costruendo, va indagato e studiato. Introducendo, ovviamente anche il tema dei rapporti di potere esistenti.
I consigli di mema
Gli articoli dall'Archivio per approfondire questo argomento