Poco più di un mese fa la rivista scientifica Artificial Intelligence and Law ha pubblicato un articolo dal titolo The Ethical Knob: ethically-customisable automated vehicles and the law, a cura di un gruppo di ricercatori e giuristi dell’Università di Bologna. Lo studio, firmato da Giuseppe Contissa, Francesca Lagioia e Giovanni Sartor – che si muove tra molteplici aree di ricerca come l’intelligenza artificiale, la robotica, il diritto e la morale – riguarda l’ambito delle vetture a guida completamente autonoma, innescando una discussione pubblica di livello internazionale.

La «manopola etica» – questa l’espressione coniata dai tre ricercatori che lavorano nell’ambito del Diritto e delle nuove tecnologie, presso il dipartimento di Scienze giuridiche dell’Università di Bologna e la European University Institute di Firenze – è un vero e proprio «interruttore» installato sulle macchine a guida autonoma di livello 5, ovvero prive di volante e pedali, con il quale il conducente, in vista di un incidente, può scegliere tra tre opzioni: altruista, egoista, imparziale.

La manopola rappresenta, prima di tutto, un tentativo di risposta da parte del diritto alle sfide poste dalla robotica; inoltre, l’ethical knob riconduce l’ambito di scelta all’essere umano, proponendo così un interessante punto di vista che, seppure non risolutivo, sottolinea le questioni aperte e dilemmatiche che le driverless cars incessantemente pongono e alle quali è necessario fornire risposte concrete e, soprattutto, praticabili.

«Perché il diritto possa rispondere a queste sfide – sottolineano i ricercatori Contissa, Lagioia e Sartor – serve uno sforzo creativo basato su competenze interdisciplinari. Noi speriamo di poter contribuire non solo allo studio dei problemi in campo, ma anche alla proposta e allo sviluppo di nuove soluzioni».

Come mai tre giuristi si interessano di automazione così da vicino?
I progressi tecnologici ottenuti negli ultimi anni, in particolare nel campo dell’intelligenza artificiale, non hanno precedenti. Viviamo in un mondo in cui l’automazione è in grado non solo di coadiuvare ma talvolta addirittura sostituire gli esseri umani nei processi decisionali e nello svolgimento di compiti e attività sempre più sofisticate. Ci sono algoritmi che contano voti, approvano domande di prestito, concedono o negano i visti per l’immigrazione. Alcuni piccoli pezzi di questi progressi e innovazioni fanno già parte delle nostre vite, dagli assistenti personali sugli smartphone (come ad esempio Siri), alle automobili senza conducente.

In quale ambito di ricerca si inserisce l’«ethical knob»?
L’ethical knob tocca aree quali l’intelligenza artificiale e la robotica, il diritto e la morale. Rispetto alla robotica e all’intelligenza artificiale è rilevante per tutti i settori nei quali siano in gioco, oltre all’interesse dell’utilizzatore, gli interessi dei terzi. Consente di specificare la rilevanza degli interessi delle parti nel processo decisionale del sistema. Rispetto al diritto e alla morale evidenzia il problema di trovare un contemperamento di interessi e richiede di individuare i limiti entro cui le scelte individuali sono eticamente giustificate e permesse dal diritto.

Rispetto al dibattito precedente, cosa aggiunge di nuovo la manopola etica?
La manopola etica è stata collegata al famoso dilemma del carrello ferroviario (trolley problem), nel quale si chiede di scegliere se intervenire causando la morte di una persona (cambiando il percorso del carrello) o se invece lasciar morire più individui (non intervenendo sulla sua traiettoria). La manopola etica presenta aspetti aggiuntivi: l’interesse (la vita stessa) di chi compie la scelta è in gioco, e inoltre consente di graduare la rilevanza dell’interesse proprio rispetto a quello altrui.
Il semplice quesito su chi condannare e chi salvare è sostituito dal problema, assai più sfumato, di stabilire a quale livello di rischio vogliamo sottoporre noi stessi e i terzi. Dal punto di vista del diritto, il problema diventa quello di stabilire i limiti della solidarietà nei confronti dei terzi e la misura in cui i nostri giudizi possono essere trasferiti nei sistemi automatici di cui ci avvaliamo.

Il fatto che l’opzione rimanga in mano all’essere umano può rappresentare anche l’indicazione di un potenziale limite dell’intelligenza artificiale?
No, la valutazione espressa dal knob riguarda l’importanza relativa attribuita agli interessi in gioco. Si tratta di una scelta etica dell’interessato rispetto alla quale nessuna intelligenza, umana o artificiale può dare una risposta vincolante. Il vero problema riguarda l’adozione di una prospettiva personale o, invece, imparziale, ciascuna delle quali può essere, in linea di principio, attuata in modo efficace da un sistema d’intelligenza artificiale.

Qual è il rapporto tra etica pubblica e morale personale? C’è modo di farle dialogare?
Come sostiene il filosofo Thomas Nagel, il comportamento morale risulta dall’incontro tra due prospettive, quella personale e quella imparziale. L’ethical knob solleva l’interrogativo se un automa, al servizio di una persona, debba adottare (solo o anche) la prospettiva personale di quell’individuo, quale suo agente o rappresentante virtuale. In questa prospettiva personale potrebbe essere comprensibile, o legittimo, privilegiare sé stessi e i propri cari.
Diverso il caso in cui invece l’automa debba adottare una prospettiva imparziale, attribuendo la stessa importanza a ogni persona. In quest’ultima, si farebbe portatore dell’interesse generale o comunque delle esigenze di una giustizia intesa come eguaglianza di trattamento, di eguale rispetto e considerazione per ciascuno. Il dialogo tra la prospettiva personale e quella imparziale è affidato alla coscienza di ognuno di noi e il diritto tiene conto della difficoltà del loro bilanciamento, ad esempio nella disciplina dello stato di necessità. Non ci sembra che esista una risposta univoca a questa tensione. È probabile si tratti di forze diverse, talvolta convergenti, altre divergenti, che in ogni caso fanno parte della natura umana.

L’«ethical knob» è dunque una soluzione auspicabile?
L’ethical knob consente a ciascuno di assumere una posizione rispetto alla tensione tra prospettiva personale e imparziale. Si tratta di una scelta che oggi, entro certi limiti di proporzionalità, è affidata all’individuo. Grazie al Knob tale scelta rimarrebbe nell’ambito della responsabilità individuale. Non dà una soluzione ma rimette la scelta al singolo individuo e apre diverse valutazioni per gli ordinamenti giuridici. La prima riguarda la possibilità di consentire o meno che i veicoli siano dotati del dispositivo o invece imporre a tutti un determinato comportamento.
Il divieto del knob sottrarrebbe la scelta etica alla responsabilità individuale, trasferendola all’ordinamento. Ad esso spetterebbe quindi scegliere se adottare un atteggiamento imparziale, privilegiare le vite dei passeggeri o quelle dei pedoni. Nel caso operasse una opzione imparziale, ciò potrebbe ridurre il danno complessivo causato dai veicoli automatici, ma anche ostacolare l’adozione degli stessi, che possono contribuire in modo significativo alla sicurezza.
Se invece l’ordinamento consentisse l’adozione del knob, dovrebbe scegliere se fissare o meno dei limiti, entro cui sarà lecito privilegiare sé stessi e i propri cari, e in che modo determinarli.