Nella Legge europea 2017, entrata in vigore in Italia il 12 dicembre scorso, a sorpresa si anticipa il Regolamento Ue sul trattamento dei dati personali (2016/679) che sarà attivo il 25 maggio 2018. Oltre all’anticipazione dobbiamo registrare che le nuove regole sono ancora più permissive e vaghe di quanto non consentisse l’Europa. La norma sui dati personali ne permette la diffusione, a patto che siano anonimizzati, senza il consenso informato dei cittadini a cui appartengono, finora necessario per il riutilizzo dei propri dati per nuovi scopi. Sarà sufficiente il parere favorevole del Garante per la privacy sulle procedure di anonimizzazione. Non sarà neanche tutelato il diritto dei cittadini ai quali i dati appartengono di richiedere informazioni su come e a chi sono stati conferiti i loro dati.

Il tema in Italia in questo periodo è particolarmente scottante perché a marzo del 2016 Matteo Renzi, allora Presidente del consiglio, ha firmato un Memorandum of Understanding con l’Ibm per portare nella sede dell’ex-Expo a Milano i laboratori europei di Watson Health. Il centro di ricerca si propone di fornire servizi sanitari nell’ambito del progetto di cognitive computing che l’Ibm sta sviluppando da qualche anno. Sono diverse le aree nelle quali il sistema si candida a supportare la presa di decisione medica, dalla lettura delle immagini cliniche, alla cura del cancro, fino alla medicina preventiva. Al fine di approfondire quest’ultimo ambito di ricerca, nell’accordo con il governo italiano ci sarebbe anche la promessa di consegnare a Watson Health i dati sanitari, le cartelle cliniche e ogni altra informazione ritenuta utile sulla salute degli italiani. Per primi verranno consegnati i dati dei pazienti negli ospedali della regione Lombardia, da dove dovrebbe cominciare lo screening.

DOPO L’APPROVAZIONE della legge europea, non è più in discussione la legittimità a fornire i dati sanitari ai laboratori Watson Health dell’Ibm, ma si aprono alcune questioni. Chi dovrà garantire il processo di anonimizzazione e minimizzazione dell’uso dei dati, unica richiesta inserita nella legge? Se sarà l’Ibm ci sarà un momento in cui un’azienda privata sarà in controllo dei dati sanitari prima che vengano resi anonimi; se invece sarà la struttura pubblica a dover fornire i dati in forma anonima bisognerà assicurarsi che esistano nell’ambito pubblico le competenze per garantire che il processo avvenga correttamente. È notoriamente molto difficile che l’anonimizzazione sia davvero una procedura irreversibile. La seconda domanda riguarda la legittimità dell’esistenza di un interlocutore privilegiato dello Stato in materia di salute pubblica.

Se il sistema sanitario italiano sarà responsabile del processo di anonimizzazione, perché dovrebbe consegnarli solo all’Ibm? Potrebbero esserci altre aziende di intelligenza artificiale orientata alla sanità, magari italiane o europee che potrebbero fare meglio dell’Ibm per migliorare gli standard di medicina preventiva degli italiani. Un accordo commerciale con un’azienda privata non può ledere il diritto dei cittadini ad avere a disposizione le migliori condizioni di cura possibili. Rispondendo prima dell’estate a un’interrogazione di Chiara Cremonesi (Sel) nel Consiglio regionale lombardo, Maroni ha promesso che i dati verranno trasmessi rispettando le regole del Garante per la privacy, ma ha anche dichiarato che la presenza di Watson Health Europe sarà una grande opportunità per la Lombardia, visto che l’investimento promesso dall’Ibm per la sua realizzazione ammonta complessivamente a 150 milioni di dollari.
Enrico Cereda, ceo di Ibm Italia promette meraviglie, pur ammettendo che il sistema non può sostituire l’uomo, cioè il medico, ma supportarlo con un’analisi approfondita delle conoscenze disponibili nel mondo per ogni malattia.

ALCUNE INCHIESTE, però, non sono altrettanto rassicuranti, Watson Health è già stato implementato in alcuni ospedali dei cinque continenti, e in particolare la sua sezione Watson for Oncology è stata oggetto di un attento esame su Stat News, con risultati non proprio confortanti. Si tratta di un sistema esperto addestrato usando l’expertise di un gruppo di medici del prestigioso Memorial Sloan Kettering Cancer Center, oltre a essere in partnership con Elsevier per gli articoli sulle riviste mediche e con Doctor Evidence, un’azienda che si occupa di basi di dati per l’evidenza in medicina.
I risultati sull’efficacia della valutazione di questi sistemi variavano molto da ospedale a ospedale rispetto alle decisioni diagnostiche e terapeutiche dei medici. Il sistema esperto, infatti, segue le scelte dell’équipe che l’ha «educato» riguardo sia alle decisioni mediche, sia ai parametri da considerare per eseguire la diagnosi.

IL PROPOSITO DI IBM è, quindi, standardizzare la presa di decisione medica a partire dalle competenze di eccellenza di chi ha addestrato l’algoritmo di cognitive computing. È questo il principio di marketing usato per promuovere i suoi servizi: avere uno standard di valutazione dovunque ci si trovi, e in qualunque condizione sia l’ospedale al quale il malato si rivolge. Il progetto è reclamizzato come una democratizzazione internazionale della medicina.
Peccato che la standardizzazione non funzioni sempre bene e che il team d’eccellenza abbia inserito nel programma i propri pregiudizi cognitivi e basi la sua rappresentazione della malattia sulla casistica di pazienti americani di un centro medico di eccellenza, che non corrisponde con quelle di altre aree geografiche, che hanno altri parametri sanitari.

Esistono inoltre studi che dimostrano che il supporto dei processi automatici alla presa di decisione può spingere a una diminuzione delle competenze da parte dei professionisti e a un eccesso di affidabilità attribuita alla macchina, causando una perdita di elasticità e flessibilità nella presa di decisione umana, soprattutto in casi limite o incerti (ma la medicina ne è piena). Il gruppo di ricercatori italiani guidati da Federico Cabitza, e composto da informatici e medici, ha pubblicato a ottobre scorso un articolo su Recenti progressi in medicina, dal titolo «Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina», nel quale si sottolinea la necessità di attivare politiche di approvazione dei sistemi di intelligenza artificiale usati in medicina, verificandone i reali benefici e valutandone attentamente i rischi.

IL TEMA DELL’INCERTEZZA in medicina è, infatti, cruciale, così come lo è un’attenta considerazione di elementi contestuali per interpretare correttamente i dati. Ma i sistemi cognitivi non possono funzionare in condizioni di incertezza e appianano la complessità delle situazioni per suggerire diagnosi e terapie. Affidandosi a questi sistemi si corre il rischio di interrompere le ricerche o perdere la lucidità per riconoscere le singolarità dei quadri clinici, restando invece ancorati a modelli suggeriti, spesso implicitamente, dalle macchine.
Il pericolo è confidare troppo in uno strumento simile a quello promesso da Leibniz, quando suggeriva ai sapienti di sedersi e calcolare le risposte delle questioni controverse della fede attraverso il suo Calculus ratiocinator, basato su una Lingua Characteristica in cui tutte le nozioni sarebbero state scritte per calcolare le soluzioni dei problemi in modo standard, minimizzando gli effetti degli errori delle persone meno dotate. Il progetto di Leibniz non vide la luce a causa delle difficoltà tecniche. Mentre nel caso di Watson Health tutto sembra concorrere in favore dell’attivazione delle sue pratiche di supporto alla presa di decisione medica. Il sistema, sebbene criticato, è già in funzione.

Uno dei motivi per cui la civiltà egizia smise di rinnovarsi e finì per implodere – secondo Lewis Mumford – fu che tutte le ricerche scientifiche si consideravano l’effetto della comunicazione diretta degli dei ai sacerdoti. In assenza di una costante messa in discussione delle scoperte fatte, la scienza si fermò per trasformarsi in una serie di oracoli divini a cui attenersi senza discutere. L’incognita di affidare le decisioni mediche a dispositivi opachi, addestrati una tantum e in maniera soggettiva, conduce a non sapere più le ragioni delle nostre decisioni, affidandoci a vaticini oracolari. È un po’ come quando cerchiamo con Google o Siri il miglior ristorante di pesce nelle vicinanze, senza poter chiedere loro quali siano le ragioni delle loro scelte.

DOBBIAMO DOMANDARCI, perciò, a che titolo dovremmo donare le cartelle mediche e tutti gli altri dati rilevanti per la nostra salute ai fini di un progetto for profit di una multinazionale americana, sebbene sia scontato che i dati saranno usati anche per futuri obiettivi di ricerca, non ancora specificati. Inoltre, anche immaginando che gli algoritmi del cognitive computing di Watson Health siano i migliori del mondo, una tale quantità di dati presenterà inevitabilmente lacune ed errori che si rispecchieranno nei risultati delle ricerche.
I progetti di razionalizzazione e riduzione delle spese mediche spingono spesso politici non competenti a prendere decisioni inadeguate. Vale per la politica della ricerca lo stesso principio in azione per gli algoritmi: garbage in, garbage out. Ma non possiamo evitare di notare che i dati sanitari al mercato nero dei Big data valgono 15-20 dollari a persona. Quanti soldi regaleremmo all’Ibm consegnando loro le informazioni di 60.5 milioni di cittadini italiani, senza alcuna garanzia che questi dati saranno usati per migliorare le cure delle persone e non invece per fare delle stime più accurate per i premi assicurativi?
Secondo le nuove più permissive regole della Legge europea, questi problemi non richiedono nessuna riflessione politica ulteriore.

*

Un po’ di bibliografia

Casey Ross, Ike Swetlitz «Ibm pitched its Watson supercomputer as a revolution in cancer care. It’s nowhere close», Stat news

Federico Cabitza et al. «Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina», Recenti Progressi in medicina, 108: 397-401

Filippo Astone, «Cereda: il futuro di Ibm fra intelligenza aumentata e Pmi. E sull’Italia…», Industria italiana