L’inaffidabilità degli algoritmi
Cyber mondi Parla Frank Pasquale, docente di diritto alla Brooklyn Law School ed esperto di Intelligenza Artificiale. «Se non possiamo distinguere tra androidi e umani la vita perde valore e viene privata di significato. È inverosimile che l’introduzione di un’app possa rimpiazzare ciò che fanno ad esempio psicologi, dermatologi o anche insegnanti. Gli esperti devono gestire la tecnologia. Invece di venire sostituiti da questi strumenti, i professionisti dovranno governarli»
Cyber mondi Parla Frank Pasquale, docente di diritto alla Brooklyn Law School ed esperto di Intelligenza Artificiale. «Se non possiamo distinguere tra androidi e umani la vita perde valore e viene privata di significato. È inverosimile che l’introduzione di un’app possa rimpiazzare ciò che fanno ad esempio psicologi, dermatologi o anche insegnanti. Gli esperti devono gestire la tecnologia. Invece di venire sostituiti da questi strumenti, i professionisti dovranno governarli»
Interprete attento della rivoluzione digitale, Frank Pasquale è stato di recente tra gli ospiti della Biennale Tecnologia. L’autore è diventato famoso per il libro Black Box Society (2015) in cui denunciava che a guidare motori di ricerca e servizi finanziari siano algoritmi opachi, nascosti dentro scatole nere che impediscono di riconoscere le regole che ne determinano le preferenze e ne organizzano i risultati. Da giurista, Pasquale mantiene una sensibilità molto spiccata per questioni filosofiche e tecnologiche ed è stato tra i primi a segnalare il rischio della deriva tecno-burocratica della società digitalizzata.
Alla manifestazione torinese ha presentato il suo nuovo volume: New laws of robotics: defending human expertise in the age of AI (Belknap Press, pp. 330). Il suo obiettivo è evitare di rincorrere la tecnologia robotica per regolamentarla, come è avvenuto con le piattaforme. È convinto che sia meglio favorire l’Augmented Intelligence (AI) invece dell’Artificial Intelligence (IA), cioè usare strumenti che possano potenziare la capacità di intelligenza umana, invece che cercare di sostituirla con l’imitazione.
Le leggi che dovrebbero sostituire quelle di Asimov sono quattro: complementarità dei dispositivi rispetto alle capacità umane AI invece che IA; non contraffazione dell’umanità; cooperazione invece di competizione (contro la corsa agli armamenti robotici); responsabilità (deve essere sempre possibile attribuire la responsabilità delle azioni e delle decisioni prese a un soggetto umano).
Abbiamo raggiunto Frank Pasquale per qualche domanda.
Nel suo libro parla dell’effetto mistificatorio di usare robot e software AI che facciano finta di agire come esseri umani, e ritiene che dobbiamo essere protetti da questo inganno. Ma Turing nell’articolo sul gioco dell’imitazione (1950) ha affermato esplicitamente che le macchine sarebbero state in grado di ingannare una giuria di non esperti e questo avrebbe permesso loro di essere considerate intelligenti.
Turing è una specie di fantasma che infesta tutto il libro e alla fine prende la forma del personaggio del romanzo di Ian McEwan Macchine come noi. Possiamo accettare il test perché è al centro di tanta parte dello sviluppo dell’intelligenza artificiale, ma possiamo anche rifiutare l’idea che i dispositivi debbano essere un’emulazione abbastanza buona dell’essere umano. Le relazioni tra le persone sono basate su una millenaria storia socio-biologica e prendono senso in un ambiente culturale di lungo periodo, pensare di farle valere fuori dal contesto mantenendo solo le parole e i gesti agiti dalla macchina sarebbe scorretto. Sostituire un essere umano con un dispositivo meccanico, come fa notare Walter Benjamin a proposito della riproduzione meccanica, priva dell’aura l’espressione artistica, ma anche le persone. Se non possiamo distinguere tra androidi e umani la vita perde valore, perché gli androidi non ne hanno. Contraffare la comunicazione, l’affetto, l’espressione emotiva e l’azione le priva di significato in assoluto.
Se la tecnologia è un sistema per organizzare il mondo al fine di farlo corrispondere alle sue aspettative, prima o poi entrerà in contrasto con la legge rispetto a chi tra gli esperti dei due campi abbia l’autorità per stabilire le regole. Qual è la migliore strategia per vincere nel conflitto come regolatori?
Per vincere dobbiamo allocare meglio le risorse. La lotta è impari se quelli che devono imporre la regolamentazione hanno risorse cento o mille volte inferiori a quelli che dovrebbero essere oggetto delle loro regole. Abbiamo molto da imparare dai paesi di successo in Asia. Stati Uniti ed Europa devono impegnarsi anche attraverso il sistema di tassazione, per ridurre il peso politico delle aziende da regolare. Non si può chiedere ai regolatori di entrare in azione solo dopo che il disastro è avvenuto. La regolazione deve trainare attivamente la tecnologia e intervenire prima che i danni siano compiuti.
É convinto che maggiore sia l’impiego di intelligenza artificiale e algoritmi di «machine learning», più abbiamo bisogno di esperti e professionisti. Come mai?
Voglio mettere in discussione la narrazione standard sul carattere dirompente dell’intelligenza artificiale, come se l’introduzione di un’app per monitorare la pelle potesse sostituire i dermatologi o si potesse sostituire uno psicologo con una app per fare la terapia, o un insegnante coi corsi online automatizzati e personalizzati. La maggior parte di questi strumenti sono estremamente inefficienti e abbiamo bisogno di esperti professionisti, non solo per prendere decisioni come in passato, ma anche per gestire in modo proficuo la tecnologia nel loro ambito. Invece di venire sostituiti da questi strumenti, i professionisti dovranno governarli.
Lei sostiene che sia preferibile una tecnologia capace di potenziare le capacità umane fornendo solo un supporto per la presa di decisione. Non pensa che questo possa produrre una situazione in cui le macchine prendono le decisioni di cui poi le persone si assumono la responsabilità senza comprenderne le motivazioni, a causa del pregiudizio dell’affidabilità di ogni automazione?
Questo costituisce un rischio, ma ci sono modi per alleviarlo o combatterlo. Bisogna spiegare alle persone che la maggior parte dei loro problemi sono complessi perché ci sono molte dimensioni tutte incommensurabili tra loro e prendere una decisione implica comprendere questa pluralità. Se si deve misurare l’esito di un intervento di protesi al ginocchio possiamo scegliere tanti aspetti: quanto dolore si è sopportato, quanto tempo ci è voluto per riprendere l’attività, quanto per correre, com’è stata l’esperienza di convalescenza, ma anche altre variabili a lungo termine. Se la protesi manda nel sangue tracce del suo metallo bisogna capire come intervenire. Il monitoraggio di tutte gli elementi richiederà un expertise umano. Le tecnologie non possono essere preparate in tutto, né gli esperti di informatica possono sostituire quelli di medicina o di ogni altro campo. Ci sarà sempre bisogno di scelte creative e prospettive originali. L’intelligenza artificiale non è una scienza, ma solo il preludio alla scienza, è il modo in cui si possono generare ipotesi partendo dall’analisi delle correlazioni, ma non trova le cause dei fenomeni. L’addestramento degli esperti deve servire anche per non farli soccombere al pregiudizio dell’automazione.
Alla fine del libro afferma la necessità della responsabilità personale per una governance legittima. Crede che abbia a che fare con la capacità di empatia propria degli umani o con l’inevitabile pluralismo dei diversi punti di vista che permette l’innovazione, la sorpresa, la serendipità e imprevedibilità dei comportamenti?
Credo riguardi tutti e due gli aspetti. L’empatia è un elemento cruciale capace di tenere insieme una comunità politica, in quanto costituisce la linfa di appartenenza a un corpo comune. Altrettanto conta l’impredicibilità delle persone: dobbiamo decidere quello che vogliamo conservare e quello che dobbiamo scartare del passato. Parte della tensione costruttiva del libro si riferisce al riconoscimento di tutti i modi in cui la tecnologia possa aprire nuove opportunità e insieme costituire una sorta di tradimento, nella forma di un’erosione dell’insieme di valori e impegni che sono parte della nostra identità.
Nel libro si parla di robot, ma non possiamo dimenticare le piattaforme che già dominano l’ambiente digitale. Come possiamo tenere sotto controllo il loro potere?
Penso che le piattaforme siano simili alle telecomunicazioni che sono state pesantemente regolamentate, per favorire la concorrenza. Dobbiamo creare un’infrastruttura solida che le governi su due profili: assicurarci che non facciano circolare e non amplifichino il discorso d’odio e le teorie cospirazioniste e evitare che prendano il controllo dell’economia nel suo insieme, strangolando le aziende più piccole. Si potrebbe separare Facebook da Whatsapp e da Instagram, così come Google da YouTube. Bisognerebbe contenere la posizione dominante di Apple nel suo app store, così come impedire a Amazon di possedere sia la piattaforma di e-commerce sia di usarla per vendere le merci. Tali azioni regolative aggressive sono necessarie e sta crescendo l’approvazione tra gli esperti del digitale. Aspettiamo solo la volontà politica di correggere le incongruenze.
I consigli di mema
Gli articoli dall'Archivio per approfondire questo argomento