Siamo davvero alla vigilia di una rivoluzione informatica che renderà obsoleti gli attuali processori e, en passant, permetterà agli hacker di accedere ai nostri dati personali più preziosi? Il sospetto è venuto a molti, dopo una fuga di notizie (non si sa quanto casuale) sui risultati ottenuti dal centro di ricerche di Google.

QUALCHE GIORNO FA, su un sito della Nasa dedicato ad ospitare documenti scientifici e relazioni tecniche è apparso un articolo scientifico in inglese il cui titolo equivale più o meno a: «Supremazia quantistica per mezzo di un processore superconduttivo programmabile». Il testo, firmato dai ricercatori che collaborano con Google e Nasa nello sviluppo di nuovi computer, è stato rimosso pochi giorni dopo, come se la pubblicazione fosse avvenuta per errore. Il Financial Times ha fatto in tempo a salvarne una copia e a diffonderla. E, nonostante quel titolo ai più risulti incomprensibile, la diffusione dell’articolo sta generando un piccolo terremoto nel mondo dell’informatica.

La «supremazia quantistica» si riferisce al momento in cui i cosiddetti «computer quantistici» supereranno i computer attuali in potenza di calcolo. Nell’articolo sfuggito ai server, ad esempio, si descrive un calcolo che in un computer tradizionale richiede diecimila anni di tempo, mentre sul nuovo prototipo quantistico, realizzato da Google e battezzato «Sycamore», sarebbe durato solo 3 minuti e 20 secondi. Il calcolo è poco più di un esercizio pensato per mettere alla prova la potenza di calcolo dei nuovi computer. «È solo un esperimento di laboratorio senza applicazioni pratiche», ha detto ad esempio Dario Gil, direttore delle ricerche Ibm, uno dei principali rivali di Google. «Anche il volo dei fratelli Wright o la Pila di Fermi erano inutili, in sé», ha ribattuto Scott Aaronson, che si occupa di calcolatori quantistici al Mit di Boston. Siamo dunque di fronte all’ennesimo episodio di marketing scientifico o è l’inaugurazione di una nuova era?

È utile capire, per quanto possibile, in cosa consista la rivoluzione dei computer quantistici. Nei processori attuali, numeri e informazioni sono rappresentanti come sequenze di 0 e 1. I computer che governano smartphone, laptop e ogni sistema elettronico (anche la lavatrice ne ha uno), gli «0» e gli «1» vengono registrate in appositi «bit», manipolati dai microchip per eseguire i calcoli e azionare le funzioni corrispondenti.

Nei computer quantistici l’informazione fondamentale non è immagazzinata in un bit a due stati, ma in un cosiddetto «qubit», cioè un «bit quantistico». È un dispositivo che può fornire i valori «0» o «1» con probabilità definite dall’utente. È proprio la caratteristica principale del comportamento di atomi e particelle. Non si può, ad esempio, prevedere che un elettrone occupi una certa posizione, ma solo la probabilità che si trovi lì e non altrove, perché il comportamento dell’elettrone è intrinsecamente casuale – se non vi torna, siete in buona compagnia: nemmeno Einstein ci credeva, ma aveva torto. Mentre un bit può trovarsi solo in due stati, le combinazioni possibili di un qubit sono tantissime. Questo permette di ottenere con relativamente pochi qubit la stessa potenza di calcolo per cui sono necessari miliardi di bit.

AL MOMENTO, la difficoltà di realizzare e utilizzare computer quantistici è sia pratica che teorica. I qubit devono essere tenuti a temperature vicine allo zero assoluto (-273 gradi) e perfettamente isolati dall’ambiente circostante, altrimenti i calcoli possono essere sbagliati. Sono condizioni molto difficili e costose da realizzare. Per questo i prototipi realizzati da aziende come Intel, Ibm, D-Wave e, appunto, Google hanno dimensioni molto ridotte. Anche il chip Sycamore usa appena 53 qubit. Per rimediare agli inevitabili errori, serviranno procedure di correzione automatica simili a quelle esistenti sui chip attuali.

In secondo luogo, per dispiegare tutta la loro potenza di calcolo i computer quantistici devono eseguire algoritmi diversi da quelli usati sui computer tradizionali. Di algoritmi come questi se ne conoscono ancora pochi. Uno è quello applicato da Google come test. Altri riguardano la simulazione delle reazioni chimiche, che essendo processi quantistici sono particolarmente indicati per essere riprodotti da un computer che segue le stesse leggi. Un algoritmo in particolare, però, il cosiddetto «algoritmo di Shor» (dal nome del suo inventore) ha invece un impatto potenzialmente devastante. L’algoritmo permette di scomporre un numero in fattori primi.

Ad esempio, «scopre» che 15 è il risultato della moltiplicazione di 3 per 5. Se un numero è fatto da decine o centinaia di cifre, però, trovarne i fattori primi è un compito difficilissimo anche per il computer più potente. Su questa difficoltà si basano i più comuni sistemi di crittografia a protezione di transazioni finanziarie e carte di credito. Usando l’algoritmo di Shor su un computer quantistico, risalire dai dati criptati a quelli «in chiaro» diventa molto più rapido.

NIENTE PANICO, per ora: per sconfiggere i codici crittografici servono computer con migliaia di qubit che nessuno sa realizzare. La stessa «supremazia quantistica» rivendicata da Google è un’esagerazione, secondo i rivali. Sycamore non sarebbe esattamente un computer programmabile, perché è ottimizzato per eseguire i calcoli previsti dal test, un po’ come le marmitte truccate del Dieselgate. La corsa al computer quantistico, dunque, è ancora lunga e sarà animata soprattutto dalle corporation, a colpi di segreti industriali, brevetti e marketing. Come insegna la «fuga» di notizie di questi giorni, separare le innovazioni reali dalla propaganda non sarà facile.

***

Operatori anti-Ebola a Mpondwe, valico di frontiera tra Uganda e Repubblica democratica del Congo © Afp

Cauto ottimismo per l’epidemia di Ebola

Si respira un cauto ottimismo all’Organizzazione Mondiale della Sanità riguardo all’epidemia di Ebola in corso nella Repubblica Democratica del Congo. Il numero di nuovi casi è sceso a circa 40 a settimana, una cifra ancora elevata ma molto meno dei circa 100 casi settimanali registrati tra aprile e luglio. Non tutti condividono l’ottimismo: l’Ong Medici Senza Frontiere continua a chiedere di allargare le vaccinazioni anche utilizzando farmaci allo stadio sperimentale. Le autorità sanitarie sono preoccupate per un sospetto caso di Ebola registrato in Tanzania, nonostante le smentite delle autorità. Secondo l’Oms la Tanzania avrebbe nascosto uno o più casi di Ebola sul suo territorio. L’eventuale origine di questi casi, e il loro legame con l’epidemia in corso nella Repubblica Democratica del Congo, è ancora tutta da stabilire.

 

Luca Parmitano

Parmitano alla guida della Stazione spaziale

L’astronauta Luca Parmitano sarà il primo italiano nominato al comando della Stazione Spaziale Internazionale. Parmitano è ora sulla Stazione per la sua seconda missione, dopo aver volato per quasi sei mesi sulla Iss nel 2013. Sostituirà il comandante precedente, il russo Alexei Ovchinin, in una cerimonia che si terrà il 2 ottobre alle 14,20 italiane (diretta sul canale online Nasa tv). Durante la missione «Beyond» diretta da Parmitano, gli astronauti dovranno occuparsi dell’Alpha Magnetic Spectrometer, un rilevatore di raggi cosmici montato all’esterno della Iss: a novembre sono previste diverse «passeggiate spaziali» per estendere la durata dello strumento. Ieri la Iss è stata raggiunta dalla navetta cargo giapponese Htv-8 senza pilota che ha trasportato nuove batterie e altri componenti per le apparecchiature di bordo.

 

Farmaci oncologici sopravvalutati

Nei cosiddetti trial clinici, un’equipe di ricerca esamina gli effetti dei farmaci sperimentali e, in caso positivo, l’Agenzia Europea del Farmaco può autorizzarne la commercializzazione. Una ricerca ha analizzato circa 40 trial clinici utilizzati dell’Ema per autorizzare nuovi farmaci oncologici tra il 2014 e il 2016. La metà dei trial sono risultati «ad alto rischio di distorsione (bias)»: nel riportare i dati i ricercatori avrebbero favorito l’azienda produttrice. In un quarto degli studi esaminati sono stati rilevati dati e misure mancanti riguardo agli effetti dei farmaci. L’analisi è stata realizzata da un team di ricercatori disseminati tra Regno Unito, Ua e Canada ed è stata pubblicata sul British Medical Journal. Le stesse perplessità erano emerse negli studi utilizzati dalla corrispondente agenzia americana nell’approvazione di nuovi farmaci oncologici.