Cultura

L’apprendistato ludico dell’algoritmo

L’apprendistato ludico dell’algoritmo

Scienza L’intelligenza artificiale sconfigge i migliori giocatori di un videogame. Su «Nature» sono state pubblicate le fasi della ricerca. Eppure il computer, senza l’aiuto umano, non sarebbe mai riuscito

Pubblicato circa 5 anni faEdizione del 3 novembre 2019

Un’intelligenza artificiale ha imparato a giocare così bene al videogame StarCraft 2 da diventare più forte di quasi tutti i giocatori del mondo. Per quanto il tema possa apparire futile, l’esperimento è stato descritto in dettaglio sull’ultimo numero di Nature come un ulteriore progresso nella corsa tra umanità e macchine. Annunci simili si sono moltiplicati recentemente, da quando una nuova generazione di algoritmi (il cosiddetto «Deep Learning») ha velocizzato la capacità di apprendimento dei computer. Per darne dimostrazione pubblica gli sviluppatori organizzano spesso competizioni tra computer e umani o tra algoritmi vecchi e nuovi.
Tra i team più attivi nel settore c’è DeepMind, la divisione di Google specializzata in intelligenza artificiale. La loro rete neurale Alpha ha dapprima sconfitto i migliori scacchisti e poi ha scalato le classifiche del Go, un antico gioco cinese ancora più complesso dal punto di vista tattico e praticato da milioni di giocatori nel mondo. Mentre costoro hanno speso la loro intera esistenza a studiare aperture e schemi, Alpha li ha sconfitti dopo poche ore di allenamento in solitudine, senza alcun addestramento umano, solo sulla base delle regole del gioco. Ora, riporta Nature, Alpha si è data ai videogames e una volta ancora ha raggiunto i livelli più alti. Nel gioco StarCraft2, una battaglia tra civiltà che si contendono la galassia, AlphaStar ha raggiunto il livello «GrandMaster», riservato a chi è in grado di battere il 99,8% dei giocatori.

COSA AGGIUNGE una vittoria in più, nel palmarès di un’intelligenza artificiale che ci ha già stracciato tante volte? Negli scacchi, la difficoltà sta nel prevedere le conseguenze a lungo termine di ogni mossa, ma il numero di mosse possibili a ogni turno è piuttosto limitato; nel gioco StarCraft2, la situazione è decisamente più complicata.
StarCraft2 è un gioco per computer in cui il giocatore impersona una tra le razze Terran, Zerg o Protoss. Muovendosi su una mappa di cui vede solo una piccola regione, deve sconfiggere gli avversari fondando insediamenti, muovendo eserciti e amministrando risorse. Il gioco ha vari livelli di difficoltà e si può giocare in modalità diverse: uno contro uno, battaglie con più giocatori collegati online o missioni in alleanza con altri giocatori. Ogni giocatore prende decisioni in tempo reale, senza i turni che scandiscono gli scacchi. In ogni istante, un giocatore deve scegliere tra cento milioni di miliardi di miliardi di mosse possibili. I più bravi arrivano a fare trecento mosse al minuto, circa cinque ogni secondo. Una partita dura in media 20-30 minuti, e ogni mese circa due milioni di giocatori si connettono per una partita.
L’obiettivo di queste attività a metà tra gioco e scienza è dimostrare la capacità delle intelligenze artificiali al confronto con gli umani in contesti sempre più complessi. Se il computer si dimostra in grado di amministrare una civiltà in guerra prendendo cinque decisioni al secondo, sarà più facile affidarsi a lui quando ci suggerirà una terapia o vorrà parcheggiare al posto nostro. Google ha interessi diretti anche nel campo delle auto a guida autonoma, una delle applicazioni più attese dell’intelligenza artificiale nella vita quotidiana. La sua divisione Waymo ha annunciato a metà ottobre che i robo-taxi che sta sperimentando sul campo in Arizona, con clienti in carne ed ossa, fra poco circoleranno senza autista d’emergenza, e saranno affidati in toto all’intelligenza artificiale. Un videogame complesso può mettere alla prova la capacità di un computer di orientarsi in un contesto mutevole e complicato da tante variabili.

IN STARCRAFT 2, la sfida non consiste solo nel battere gli umani. Occorre farsi accettare da una comunità mondiale di giocatori con competenze altissime. Se pensate agli adolescenti perdigiorno, siete fuori strada. I migliori giocatori di StarCraft, Dota-2, Counter-Strike o del famigerato Fortnite si sfidano in tornei con ricchi montepremi e guadagnano punti secondo un criterio simile a quello usato negli scacchi. Il numero uno in classifica, il ventiseienne danese Johan Sundstein, secondo il portale esportsearning.com nel solo 2019 ha incassato premi per oltre tre milioni di dollari giocando a Dota 2.
È un mondo di professionisti esigenti e AlphaStar non ce l’ha fatta da sola. Prima di metterla in campo, i ricercatori hanno insegnato alla rete neurale le strategie utilizzate dai giocatori più forti, secondo un sistema detto «supervised learning». Inoltre, per conquistare punti, AlphaStar ha dovuto imparare a comportarsi secondo le regole. Un computer potrebbe vincere una partita per la velocità sovrumana con cui muove i suoi pezzi e non per la strategia. Quando AlphaStar è stata presentata all’inizio del 2019, diversi esperti del settore avevano storto il naso. Perciò, DeepMind ha imbarcato nel suo team un giocatore professionista, Dario «Tlo» Wünsch, perché aiutasse i ricercatori a limitare AlphaStar per renderla più simile a un giocatore reale.

ANCHE QUESTO non ha evitato gaffe: dopo cinquanta partite nel club dei grandi, gli altri giocatori hanno iniziato a notare strane regolarità nei punteggi di AlphaStar, che ne stavano compromettendo l’anonimato (una delle condizioni di riuscita dell’esperimento). I ricercatori sono corsi ai ripari appena prima che l’esperimento saltasse, con una rotazione di pseudonimi a protezione della sua identità.
Anche se le vittorie di AlphaStar sono raccontate come una dimostrazione della superiorità del computer, l’esperimento mostra esattamente il contrario: quando il contesto diventa più complesso e richiede capacità di interazione sociale, il «deep learning» non basta. Bisogna ricorrere al tradizionale apprendimento per imitazione e insegnare con pazienza al computer a stare in società.

*************

NOTIZIARIO SCIENTIFICO

Emergenza climatica per il riso
Uno studio su Nature Communications firmato dal biologo Scott Fendorf dell’università di Stanford prevede che a causa del cambiamento climatico i raccolti di riso possano scendere anche del 40% entro il 2100. Inoltre, l’aumento della temperatura e della frequenza delle inondazioni rischia di far raddoppiare la quantità di arsenico presente nel riso che mangiamo. Secondo le previsioni, nel 2100 la popolazione mondiale raggiungerà i dieci miliardi di individui, la metà dei quali avranno il riso come alimento di base. Gli scienziati hanno simulato uno scenario estremo in cui la temperatura globale sale di 5 °C entro la fine del secolo e l’anidride carbonica raddoppia di concentrazione. In queste condizioni, i microorganismi presenti nel suolo aumentano la percentuale di arsenico disciolto nelle acque che alimentano le risaie. (An. Cap.)

 

Vaccini sperimentali in Africa

In Repubblica Democratica del Congo verrà utilizzato un vaccino sperimentale per frenare l’epidemia di Ebola, oltre a quello targato Merck già somministrato a 200 mila congolesi. Il nuovo vaccino è prodotto dalla Johnson & Johnson e la sua introduzione è stata appoggiata da Oms e Msf. La somministrazione servirà a valutare l’efficacia del vaccino in vista di una sua futura commercializzazione. L’ex ministro della sanità Oly Ilunga Kalenga, oggi in arresto con l’accusa di corruzione, al momento delle dimissioni aveva denunciato le pressioni ricevute per introdurre il nuovo vaccino. Buone notizie anche sul fronte della tubercolosi, che ogni anno uccide circa 1,5 milioni di persone: secondo il New England Journal of Medicine, un nuovo vaccino sperimentale ha dimostrato una parziale efficacia in un trial clinico effettuato in Kenya dalla GlaxoSmithKline, abbassando del 50% la probabilità che una persona infetta sviluppi la malattia. (An. Cap.)

 

 

 

Salutiamo Igea, il nuovo pianeta nano

Grazie alle nuove osservazioni ottenute allo European Southern Observatory in Cile, l’asteroide Igea potrebbe essere promosso a «pianeta nano», lo stesso rango di Plutone. A differenza dei pianeti ordinari, i cosiddetti pianeti nani hanno forma sferica, orbitano intorno al Sole, non sono Lune ma non hanno «ripulito» la loro orbita dagli asteroidi. Finalmente, i ricercatori hanno potuto osservare con una risoluzione mai ottenuta prima che Igea ha una superficie approssimativamente sferica, con un diametro di circa 430 km. Igea si trova nella cosiddetta fascia principale di asteroidi, un’area circolare compresa tra l’orbita di Marte e quella di Giove in cui si trovano numerosi corpi irregolari di piccoli dimensioni, più quattro pianeti nani (oltre a Igea, Pallade, Vesta e Cerere). La scoperta è stata pubblicata su Nature Astronomy dagli scienziati guidati dal francese Pierre Vernazza dell’università di Marsiglia. (An. Cap.)

 

ABBONAMENTI

Passa dalla parte del torto.

Sostieni l’informazione libera e senza padroni.
Leggi senza limiti il manifesto su sito e app in anteprima dalla mezzanotte. E tutti i servizi della membership sono inclusi.

I consigli di mema

Gli articoli dall'Archivio per approfondire questo argomento