Il campione in carica aveva battuto tutti i più forti giocatori del mondo. Aveva sconfitto persino il campione coreano Lee Sedol, vincitore di ben diciotto titoli mondiali. Lo sfidante, invece, era un assoluto neofita: aveva giocato la sua prima partita solo tre giorni prima. La gara, dunque, si annunciava impari. I due avversari iniziarono a sfidarsi, un match dopo l’altro. Lo sfidante, a sorpresa, inizò a vincere qualche mano. Ben presto, il campione si arrese incredulo. Su cento partite, il giovane avversario non gliene aveva lasciata mezza.
Non è l’ennesimo sequel di Karate Kid: la partita si è svolta davvero alla fine del 2016, e in palio c’era il titolo di più forte giocatore del mondo di Go, il millenario gioco da tavolo di origine cinese. A sfidarsi non erano due umani, ma due computer battezzati AlphaGo Lee (il campione uscente) e AlphaGo Zero (lo sfidante), entrambi sviluppati dall’azienda londinese DeepMind controllata da Google. L’esito della sfida è stato descritto dai ricercatori dell’azienda nell’ultimo numero della rivista Nature.

PARTITE COME QUESTE servono a valutare i progressi nel campo dell’intelligenza artificiale, cioè la capacità delle macchine di elaborare informazioni e operare scelte strategiche in un contesto dato. Il gioco del Go si presta allo scopo. In primo luogo, ha regole semplicissime: i giocatori posano su una scacchiera pedine nere e bianche allo scopo di accerchiare quelle avversarie, bloccandole e controllando porzioni di scacchiera più grandi possibile. Inoltre, il Go dà vita a una grande varietà di possibili situazioni. Chi le ha contate ha trovato un numero con centosettanta cifre, più di tutti gli atomi dell’intero universo. Secondo un proverbio coreano, nessuna partita di Go è mai stata giocata due volte. Infine, a differenza degli scacchi anche i giocatori più forti non seguono schemi codificati, ma si basano sul fiuto e sull’esperienza. Dunque, è impossibile dotare un software di tattiche vincenti: l’unico modo di imparare, è giocare, giocare, giocare.
Ma in cosa consiste un’«intelligenza artificiale»? Il problema si poneva già negli anni ’40 del secolo scorso. Sin da allora, i ricercatori si sono ispirati al cervello umano, composto da neuroni collegati tra loro. Il modello di intelligenza più sviluppato si chiama proprio «rete neurale». Consiste in un insieme di nodi che possono trovarsi in stati diversi e influenzarsi a vicenda attraverso connessioni adattabili. Alcuni nodi fungono da «sensori», un po’ come le terminazioni nervose dell’occhio che osservano la posizione delle pedine sulla scacchiera. Altri fungono da attuatori, e possono effettuare azioni vantaggiose o svantaggiose come una mossa di gioco azzeccata o fallimentare.

LE CONNESSIONI intermedie possono essere «allenate»: se certi collegamenti conducono a mosse vantaggiose, verranno rafforzati. Altrimenti, si collegano i nodi in un altro modo scelto a caso fino a trovare una configurazione vincente. In questo modo, una rete neurale impara a svolgere compiti complessi come vincere una partita a Go.
AlphaGo Lee, il campione in carica, era un «mostro» costituito da diversi computer collegati tra loro e ben 48 processori. Si era allenato per mesi imparando le mosse dei maestri umani del Go e misurandosi con giocatori esperti. Dopo l’addestramento, a marzo 2016 AlphaGo Lee aveva sconfitto il trentaquattrenne Lee Sedol, considerato il più forte giocatore del mondo, per quattro vittorie a una. AlphaGo Lee era il «figlio» di AlphaGo Fan, che di processori ne aveva addirittura 176 e aveva battuto il campione d’Europa 2015 Fan Hui.
Dopo la vittoria su Sedol, AlphaGo Lee non aveva più avversari umani alla sua altezza. Per trovargli uno sfidante degno, i ricercatori della DeepMind hanno dovuto sviluppare un’intelligenza artificiale ancora più potente. Ma come si può essere più potenti di un computer che per anni si è allenato con i giocatori più forti del mondo?

SEMPLICE: lasciandolo in una stanza a giocare da solo. AlphaGo Zero, all’inizio, metteva a caso le pedine sulla scacchiera, giocando partite un po’ bislacche ma teoricamente possibili. Rapidamente, ha cominciato a capire quali mosse conducevano alla vittoria, e in soli tre giorni (in cui ha giocato ben tre milioni di match) ha potuto sfidare AlphaGo Lee e stracciarlo. AlphaGo Zero, tra l’altro, ha una struttura logica più semplice. In pratica, è un computer con solo quattro processori, sebbene progettati appositamente per le reti neurali. Come i predecessori, anche «Zero» adottava il cosiddetto deep learning, cioè una rete neurale con molti strati intermedi composti ciascuno da pochi nodi. È lo standard più avanzato nel campo dell’intelligenza artificiale.
Per escludere che AlphaGo Zero abbia vinto solo grazie a un hardware più evoluto, i ricercatori hanno assemblato un computer identico ma addestrato secondo i metodi tradizionali, cioè facendolo giocare contro giocatori esperti. Il risultato non è cambiato molto: la macchina «autodidatta» ha vinto di nuovo, stavolta per 89 a 11. Il segreto di AlphaGo Zero, dunque, sembra risiedere nella strategia di auto-apprendimento, come scrivono gli autori della ricerca: «l’umanità ha accumulato conoscenze sul Go in milioni di partite giocate durante migliaia di anni (…) Nello spazio di pochi giorni, e partendo da zero, AlphaGo Zero è stato in grado di riscoprire gran parte di queste conoscenze». Inoltre, il robot è riuscito anche a sviluppare strategie di gioco non tradizionali. AlphaGo dimostra i progressi che si possono realizzare «con potenza computazionale persino inferiore e nessun uso di input umani», ha dichiarato Demis Hassabis, uno dei fondatori della DeepMind.

IN REALTÀ, sviluppare macchine intelligenti non serve a giocare a Go. Le applicazioni dell’intelligenza artificiale nell’industria e nei servizi sono innumerevoli, secondo i tecno-entusiasti. La IBM, altro colosso che sta investendo parecchio nel settore, ha già messo i suoi sistemi di deep learning al servizio del sistema sanitario: studiando le informazioni fornite dai pazienti e le conoscenze mediche più aggiornate, il sistema Watson Health intende migliorare l’efficacia delle diagnosi dei medici (fino a fare a meno degli stessi dottori e risparmiare un sacco di soldi, secondo i tecno-scettici). In Inghilterra è già attivo il servizio Your.MD creato dall’italiano Matteo Berlucchi, un robot che dialoga con i pazienti via smartphone, ne ascolta i sintomi e dispensa consigli basati sulla letteratura scientifica. Anche le case farmaceutiche stanno investendo in sistemi analoghi per prevedere l’efficacia delle molecole e risparmiare lunghi test in laboratorio. Poi c’è chi usa le reti neurali per investire in Borsa, e chi le mette al volante delle auto a guida autonoma. E chi nei caschi dei soldati.

RAY KURZWEIL, ingegnere capo di Google e guru dell’intelligenza artificiale, sostiene che ci avviciniamo a grandi passi verso la «singolarità»: la soglia oltre la quale l’intelligenza artificiale supererà quella umana e sfuggirà al nostro controllo. Kurzweil sostiene che la data prevista sia intorno al 2045, cioè dopodomani. Ma non è una profezia di sventura, perché Kurzweil non crede a un’intelligenza artificiale che schiavizzi la società. «Non è realistico», sostiene in un’intervista recente, «non abbiamo una o due intelligenze artificiali nel mondo. Ce ne sono miliardi». Segue predicozzo su quanto i robot ci renderanno più divertenti, più artistici, persino più sexy.
In realtà, più che essere in competizione, l’intelligenza umana e quella artificiale partecipano a due campionati diversi. In molti settori, l’intelligenza artificiale è già superiore alla nostra. In altri, è ancora indietro. Un computer può giocare benissimo a Go, ma per imparare deve fare milioni di partite. Un campione umano ha bisogno di una mole di dati molto minore. Computer e cervello sembrano funzionare in base a schemi diversi e irriducibili, almeno per ora. D’altronde, i progressi dell’intelligenza artificiale si spiegano soprattutto con l’aumento della potenza di calcolo a disposizione, che accelera l’esecuzione dei programmi e rende possibili nuove architetture logiche. Ma il salto di paradigma ancora non c’è.