Marco Dorigo, lei come esperto di robotica di livello internazionale ha già firmato due appelli di scienziati per la messa al bando dei Killer robots, sistemi d’arma di intelligenza artificiale senza controllo umano, in gergo human out of the loop. Qual è la vostra preoccupazione?

La preoccupazione riguarda più il futuro che il presente, se veramente potremo avere macchine in grado di prendere autonomamente la decisione di uccidere. Vedo in questa possibilità un problema importante perché si potrebbe abbassare la soglia di tolleranza oltre la quale si decide di entrare in un conflitto. In quanto non si tratterebbe più di rischiare la vita dei soldati. Un altro aspetto preoccupante è quello della responsabilità rispetto alla decisione: se viene commesso un errore chi ne risponderebbe? Gli errori, come si sa, vengono commessi anche dagli esseri umani, ma è possibile risalire alle responsabilità: i crimini di guerra sono perseguibili e prima ancora attribuibili, anche nel caso che il soldato prema solo un pulsante dietro una consolle in remoto, come già succede, c’è sempre per il momento una decisione umana. Se invece la delega alla macchina è totale diventa molto più complicato attribuire la responsabilità delle azioni effettuate. Se un’arma, attraverso immagini raccolte da sensori, decide autonomamente se, e quando e a chi sparare, chi è il responsabile? L’algoritmo che la guida potrebbe essere sbagliato o il contesto potrebbe essere cambiato in modo non previsto. Inoltre quando si programma una macchina non si è mai certi che sia programmata in modo corretto: esistono bug, errori di software, come si è visto con gli aerei Boeing come quello precipitato in Etiopia recentemente. Non esistono metodi che assicurino che un sistema controllato da software funzioni perfettamente e certamente i rischi possono diventare inaccettabili se si parla di un robot dotato di pistola.

Lo scienziato Marco Dorigo

 

Lei dice «se» saranno costruite queste armi intelligenti e autonome ma la tecnologia per crearle esiste già? Basterebbe uno «switch», cioè applicarla?

Io non sono un esperto di tecnologia bellica e quindi non sono al corrente degli ultimi sviluppi nel settore. Ma probabilmente anche gli esperti non conoscono che una piccola parte di questi sviluppi perché i militari non raccontano volentieri i loro progetti.

Per il grande pubblico l’incubo peggiore è forse quello degli sciami di droni armati di carica esplosiva a riconoscimento facciale. L’intelligenza di stormo non è il suo campo di indagine?

L’obiettivo delle mie ricerche è come fare a controllare gruppi di robot autonomi che devono cooperare per eseguire compiti che non sarebbero in grado di eseguire individualmente. Ad esempio, studiamo come uno sciame di robot possa cercare dei feriti in una situazione di disastro naturale e come potrebbero cooperare per recuperare i feriti più gravi.

E i droni killer non sono fatti così?

Io lavoro in ambito civile e come già detto non sono esperto di applicazioni militari. I droni killer potrebbero in effetti essere molto piccoli ed essere dotati di un payload letale e potrebbero essere difficili da fermare: è più difficile abbattere un grande numero di piccoli oggetti piuttosto che un solo grosso robot, anche se credo che i militari, come sempre, troveranno delle contro-misure per distruggerli, dei contro-stormi. Comunque il problema non sta nello sviluppo di tecnologie che permettano a grandi numeri di robot di cooperare fra di loro. Infatti queste tecnologie possono trovare applicazioni molto utili, si pensi solo al coordinamento delle auto autonome che nel prossimo future gradualmente sostituiranno le attuali auto a controllo umano. Il problema sta piuttosto nell’utilizzo che si fa della tecnologia e nel fatto che la tecnologia che permette di creare sistemi autonomi può, se utilizzata in campo militare, cambiare completamente il quadro di riferimento. Per la prima volta nella storia non è più l’essere umano che si mette in gioco, ma le decisioni militari sono delegate a una macchina.

Alla conferenza per il lancio della campagna «Stop Killer Robot» un suo collega, il segretario dell’Uspid Diego Latella, ha spiegato che un robot può scambiare, grazie a una interferenza di rumore sulle immagini, uno scuolabus per uno struzzo. Non un commando terrorista per uno struzzo. Si parla di stupidità della macchina, è eliminabile?

Non mi stupisce che un robot possa scambiare uno scuolabus per uno struzzo. Il fatto è che i processi cognitivi in Artificial Intelligence non sono uguali ai nostri. È un problema legato a come questi sistemi apprendono ed a come rappresentano internamente la conoscenza acquisita. Come già detto, le macchine, come gli esseri umani, commettono errori. Ma gli errori commessi possono essere di tipo molto diverso. E per noi umani a volte questi errori risultano incomprensibili.

Questi errori incomprensibili dipendono dal programmatore o dalla quantità di dati immagazzinati?

Il margine di errore può essere ridotto aumentando la quantità di dati utilizzati per fare sì che le macchine apprendano. Non credo però che sarà possibile ridurre questo margine di errore a zero. E il tipo di errori commessi probabilmente rimarrà di tipo diverso da quello commesso dagli esseri umani in quanto il “cervello” delle macchine continuerà, probabilmente, a essere diverso da quello degli esseri umani. In generale, credo che il problema non stia nel fatto che le macchine facciano errori, ma piuttosto che i sistemi autonomi artificiali facciano più o meno errori dei sistemi a controllo umano che andrebbero a sostituire. Tra pochissimo avremo auto a guida autonoma e molti sono preoccupati che gli errori della macchina possano creare incidenti. Ma gli incidenti ci sono comunque, la vera domanda è se con le auto a guida autonoma saranno di più o di meno di adesso. Analogamente, sistemi intelligenti per la diagnosi medica, utilizzando algoritmi per l’apprendimento automatico in grado di vagliare milioni di radiografie, ci consentiranno diagnosi precoci dei tumori e cure oncologiche personalizzate molto più mirate. Anche in questo caso, quello che è importante a mio avviso è se il tasso di successo nelle diagnosi sia o no migliore di quello fornito dai migliori esperti.

Quindi la tecnologia è sempre buona e quanto ai Killer robot è solo la guerra a essere cattiva?

A un certo livello ogni tecnologia, così come ogni scoperta scientifica, può essere usata sia per il bene che per il male. Ma è vero che negli ultimi anni, diciamo da Internet in poi c’è stata una accelerazione negli sviluppi della tecnologa dell’informazione, accelerazione che fa sì che anche per noi ricercatori risulta difficile tener dietro a tutte le innovazioni del nostro campo e rende più difficile prevedere quali possano esserne gli usi «cattivi». In astratto gli algoritmi per la cooperazione sono quasi tutti dual use, cioè applicabili al civile o al militare. Finora le macchine che apprendono da sole si sono concentrate su giochi come Go o gli scacchi, hanno domini molto ristretti e non sono molto autonome. Ma la tecnologia va avanti e ciò che non vorrei è che in futuro la soglia da oltrepassare per entrare in guerra si abbassasse in modo drastico. Se in prima linea si possono mandare le macchine, non c’è neanche bisogno di un periodo di propaganda bellica per creare un’opinione pubblica favorevole alla guerra, basta individuare un nemico. Poi tanto, al fronte, ci vanno i robot.