Un’intelligenza artificiale ha imparato a giocare così bene al videogame StarCraft 2 da diventare più forte di quasi tutti i giocatori del mondo. Per quanto il tema possa apparire futile, l’esperimento è stato descritto in dettaglio sull’ultimo numero di Nature come un ulteriore progresso nella corsa tra umanità e macchine. Annunci simili si sono moltiplicati recentemente, da quando una nuova generazione di algoritmi (il cosiddetto «Deep Learning») ha velocizzato la capacità di apprendimento dei computer. Per darne dimostrazione pubblica gli sviluppatori organizzano spesso competizioni tra computer e umani o tra algoritmi vecchi e nuovi.
Tra i team più attivi nel settore c’è DeepMind, la divisione di Google specializzata in intelligenza artificiale. La loro rete neurale Alpha ha dapprima sconfitto i migliori scacchisti e poi ha scalato le classifiche del Go, un antico gioco cinese ancora più complesso dal punto di vista tattico e praticato da milioni di giocatori nel mondo. Mentre costoro hanno speso la loro intera esistenza a studiare aperture e schemi, Alpha li ha sconfitti dopo poche ore di allenamento in solitudine, senza alcun addestramento umano, solo sulla base delle regole del gioco. Ora, riporta Nature, Alpha si è data ai videogames e una volta ancora ha raggiunto i livelli più alti. Nel gioco StarCraft2, una battaglia tra civiltà che si contendono la galassia, AlphaStar ha raggiunto il livello «GrandMaster», riservato a chi è in grado di battere il 99,8% dei giocatori.
COSA AGGIUNGE una vittoria in più, nel palmarès di un’intelligenza artificiale che ci ha già stracciato tante volte? Negli scacchi, la difficoltà sta nel prevedere le conseguenze a lungo termine di ogni mossa, ma il numero di mosse possibili a ogni turno è piuttosto limitato; nel gioco StarCraft2, la situazione è decisamente più complicata.
StarCraft2 è un gioco per computer in cui il giocatore impersona una tra le razze Terran, Zerg o Protoss. Muovendosi su una mappa di cui vede solo una piccola regione, deve sconfiggere gli avversari fondando insediamenti, muovendo eserciti e amministrando risorse. Il gioco ha vari livelli di difficoltà e si può giocare in modalità diverse: uno contro uno, battaglie con più giocatori collegati online o missioni in alleanza con altri giocatori. Ogni giocatore prende decisioni in tempo reale, senza i turni che scandiscono gli scacchi. In ogni istante, un giocatore deve scegliere tra cento milioni di miliardi di miliardi di mosse possibili. I più bravi arrivano a fare trecento mosse al minuto, circa cinque ogni secondo. Una partita dura in media 20-30 minuti, e ogni mese circa due milioni di giocatori si connettono per una partita.
L’obiettivo di queste attività a metà tra gioco e scienza è dimostrare la capacità delle intelligenze artificiali al confronto con gli umani in contesti sempre più complessi. Se il computer si dimostra in grado di amministrare una civiltà in guerra prendendo cinque decisioni al secondo, sarà più facile affidarsi a lui quando ci suggerirà una terapia o vorrà parcheggiare al posto nostro. Google ha interessi diretti anche nel campo delle auto a guida autonoma, una delle applicazioni più attese dell’intelligenza artificiale nella vita quotidiana. La sua divisione Waymo ha annunciato a metà ottobre che i robo-taxi che sta sperimentando sul campo in Arizona, con clienti in carne ed ossa, fra poco circoleranno senza autista d’emergenza, e saranno affidati in toto all’intelligenza artificiale. Un videogame complesso può mettere alla prova la capacità di un computer di orientarsi in un contesto mutevole e complicato da tante variabili.
IN STARCRAFT 2, la sfida non consiste solo nel battere gli umani. Occorre farsi accettare da una comunità mondiale di giocatori con competenze altissime. Se pensate agli adolescenti perdigiorno, siete fuori strada. I migliori giocatori di StarCraft, Dota-2, Counter-Strike o del famigerato Fortnite si sfidano in tornei con ricchi montepremi e guadagnano punti secondo un criterio simile a quello usato negli scacchi. Il numero uno in classifica, il ventiseienne danese Johan Sundstein, secondo il portale esportsearning.com nel solo 2019 ha incassato premi per oltre tre milioni di dollari giocando a Dota 2.
È un mondo di professionisti esigenti e AlphaStar non ce l’ha fatta da sola. Prima di metterla in campo, i ricercatori hanno insegnato alla rete neurale le strategie utilizzate dai giocatori più forti, secondo un sistema detto «supervised learning». Inoltre, per conquistare punti, AlphaStar ha dovuto imparare a comportarsi secondo le regole. Un computer potrebbe vincere una partita per la velocità sovrumana con cui muove i suoi pezzi e non per la strategia. Quando AlphaStar è stata presentata all’inizio del 2019, diversi esperti del settore avevano storto il naso. Perciò, DeepMind ha imbarcato nel suo team un giocatore professionista, Dario «Tlo» Wünsch, perché aiutasse i ricercatori a limitare AlphaStar per renderla più simile a un giocatore reale.
ANCHE QUESTO non ha evitato gaffe: dopo cinquanta partite nel club dei grandi, gli altri giocatori hanno iniziato a notare strane regolarità nei punteggi di AlphaStar, che ne stavano compromettendo l’anonimato (una delle condizioni di riuscita dell’esperimento). I ricercatori sono corsi ai ripari appena prima che l’esperimento saltasse, con una rotazione di pseudonimi a protezione della sua identità.
Anche se le vittorie di AlphaStar sono raccontate come una dimostrazione della superiorità del computer, l’esperimento mostra esattamente il contrario: quando il contesto diventa più complesso e richiede capacità di interazione sociale, il «deep learning» non basta. Bisogna ricorrere al tradizionale apprendimento per imitazione e insegnare con pazienza al computer a stare in società.
*************
NOTIZIARIO SCIENTIFICO
Emergenza climatica per il riso
Uno studio su Nature Communications firmato dal biologo Scott Fendorf dell’università di Stanford prevede che a causa del cambiamento climatico i raccolti di riso possano scendere anche del 40% entro il 2100. Inoltre, l’aumento della temperatura e della frequenza delle inondazioni rischia di far raddoppiare la quantità di arsenico presente nel riso che mangiamo. Secondo le previsioni, nel 2100 la popolazione mondiale raggiungerà i dieci miliardi di individui, la metà dei quali avranno il riso come alimento di base. Gli scienziati hanno simulato uno scenario estremo in cui la temperatura globale sale di 5 °C entro la fine del secolo e l’anidride carbonica raddoppia di concentrazione. In queste condizioni, i microorganismi presenti nel suolo aumentano la percentuale di arsenico disciolto nelle acque che alimentano le risaie. (An. Cap.)
Vaccini sperimentali in Africa
Salutiamo Igea, il nuovo pianeta nano