Questa guerra nel cuore dell’Europa è una tragedia, ma se dovesse superare la soglia nucleare sarebbe una catastrofe per l’umanità! È una preoccupazione che sembra non allarmare l’opinione pubblica, ma che con le nuove tecnologie per affidare i sistemi di allarme e lancio dei missili nucleari ad automatismi diventa purtroppo più terribilmente concreta. Questi sistemi non sono più quelli dei tempi della guerra fredda quando alcuni allarmi per errore vennero scongiurati dalla decisione di eroici ufficiali di disubbidire alla consegna che avrebbe loro imposto di ordinare la ritorsione nucleare (il più noto fu il colonnello Petrov, ma non fu il solo).

Con i recenti avanzamenti (chiamarli progressi in questo caso sarebbe assolutamente improprio), con la crescente tendenza a affidare tutto al controllo di automatismi (ma come ignorare i colossali interessi che ci stanno dietro?), al fine di evitare «l’errore umano», la decisione presa da una macchina sarà irrevocabile.

Un recente articolo del Bulletin of the Atomic Scientists porta il titolo eloquente “Se l’intelligenza artificiale controllasse le armi nucleari potremmo essere tutti morti!”. La macchina non è suscettibile di riflessione critica e di ravvedimento, e questo può condurre al disastro. L’enorme problema delle armi nucleari autonome è l’errore. L’Intelligenza Artificiale (IA)basata sull’apprendimento automatico si fonda su grandi quantità di dati per eseguire un compito. In un contesto di armi nucleari un governo può avere pochi dati sulle piattaforme militari avversarie; i dati esistenti possono essere strutturalmente distorti, per esempio basandosi su immagini satellitari; o i dati possono non tenere conto delle variazioni ovvie e previste, come le immagini scattate durante un tempo nebbioso o coperto.

La sfida più grande è l’alto tasso di falsi positivi nella previsione di eventi rari. Un sistema autonomo progettato per rilevare e reagire contro un’arma nucleare in arrivo, anche se altamente accurato, mostrerà spesso falsi positivi. Un singolo cambiamento di pixel è sufficiente per convincere un’IA che un bombardiere stealth è un cane. L’attuale IA non è solo fragile, è facile da ingannare: se un paese cercasse davvero una guerra nucleare potrebbe prima ingannare il sistema di IA rendendolo inutile.

L’avvelenamento dei dati potrebbe manipolare i dati di addestramento che alimentano il sistema di IA, o sistemi senza equipaggio o emettitori potrebbero essere usati per ingannare un’IA a credere che un attacco nucleare sia in arrivo. La mancanza di dati di addestramento e di ambienti di test nel mondo reale significa che un’arma nucleare autonoma potrebbe sperimentare numerose distorsioni, che potrebbero non essere mai scoperte fino a dopo che una guerra nucleare è iniziata.

Un recente rappoto dell’U.S. Government Accountability Office afferma che il Dipartimento della Difesa potrebbe non avere abbastanza dati utilizzabili per addestrare l’IA. Per esempio, l’IA per rilevare i sottomarini di un avversario richiede la raccolta di molte immagini di vari sottomarini e la loro etichettatura in modo che l’IA possa imparare a identificarne uno da sola.

Ancora, la conclusione che una guerra nucleare non può essere vinta e non deve mai essere combattuta che portò i presidenti Reagan e Gorbachev a concludere nel 1987 il trattato Inf è stata ribadita nell’incontro dei 5 maggiori stati nucleari all’inizio di quest’anno: ma … nell’establishment della difesa Usa – militari, governo, think tank, industria – si continua a promuovere la percezione che una guerra nucleare può essere vinta e combattuta!

Le precedenti crisi che portarono sull’orlo di una guerra nucleare – missili a Cuba 1962, crisi degli Euromissili 1977-78 – si conclusero con una riduzione delle armi nucleari: questa crisi, auspicando ovviamente che non precipiti, deve concludersi con una riduzione della minaccia delle armi nucleari! Per i pacifisti, e i governanti europei, il minimo è esigere il ritiro delle testate B-61 schierate in Europa, una quarantina in Italia nelle basi italiana di Ghedi e americana di Aviano.