Sarantis Thanopulos: «Cara Mariaenza, tornando agli automi, vorrei chiedere a te, giurista e giudice autorevole, cosa accade nel caso in cui le macchine dell’assistenza e dell’informazione creano danni a cose e a persone. Oppure cosa accadrebbe nel caso inquietante, sempre più vicino alla nostra vita, in cui un robot umanoide compiesse dei veri e propri crimini, per difetto di costruzione o per un cortocircuito imprevedibile e non per conto di qualcuno (il che dal punto di vista giuridico non creerebbe eccessivi problemi, salvo la difficoltà di individuare il “vero” colpevole). Si può attribuire la responsabilità giuridica al loro costruttore, al distributore, a chi ne ha certificato l’idoneità, a chi ne ha fatto cattivo uso. È, tuttavia, come è sempre più evidente, più siamo nel campo dell’errore della macchina, più l’individuazione dell’errore umano diventa difficile, a volte indecidibile, e anche la questione dell’intenzionalità sfuma».

Mariaenza La Torre: «Caro Sarantis, hai colto uno dei punti più sensibili, sul quale la realtà ha già proposto esperienze concrete, che aprono a inediti dilemmi. C’è stato in Arizona il primo caso di incidente mortale di un pedone causato da una self car driving di Uber. In un hotel giapponese l’assistente virtuale ha scambiato il russare di un cliente per una serie di richieste alle quali rispondeva svegliando il malaugurato. Il Ministero della giustizia dell’Estonia ha in atto il progetto di IA per la decisione di cause civili di piccola entità. Per non parlare – e come non ricordare il film Minority report!- dell’IA applicata alla giustizia “predittiva” (sistema in grado di anticipare luoghi e orari in cui potranno essere commessi reati in base alle denunce presentate alla polizia), come strumento di prevenzione della criminalità.

La responsabilità per i danni commessi da robot non è un problema di semplice soluzione, per la difficoltà di individuare un unico produttore (diversi team si occupano delle fasi di ideazione dell’algoritmo, programmazione, progettazione, assemblaggio, monitoraggio) e per le variegate ed eterogenee tipologie di robot (soldati, chirurghi, droni, sistemi di trasporto, robotica di servizi). Preso atto che i robot sono forniti dell’abilità di percepire, elaborare e memorizzare la realtà, essendo dotati di capacità di autoapprendimento e autonomia decisionale, possono ad essi imputarsi le conseguenze delle loro azioni? In Europa c’è chi pensa al riconoscimento di uno status giuridico dei robot più evoluti come ‘persone elettroniche’, con tutte le relative conseguenze anche in termini di responsabilità (v. Risol. Ue 2017)».

Sarantis Thanopulos: «Si sta configurando una realtà futura atroce, in cui robot soggetti giuridici saranno giudicati da robot giudici, secondo una valutazione di azione/punizione gestita da algoritmi. Un mondo abitato da comportamenti (“giusti” o “sbagliati”) e privo di esseri umani veri. L’errore umano compiuto dai giudici, e al quale si può porre rimedio, non è preferibile all’obiettività, confusa con l’oggettività, dell’Intelligenza Artificiale che, cancellando la soggettività, elimina il senso della realtà? L’automazione del rapporto tra legge e soggetto giuridico (la desogettivazione della responsabilità) è un ‘delitto contro l’umanità’. Non serve il sangue per capirlo»

Maria Enza La Torre: «È preferibile un errore umano a una “infallibile” obiettività del robot. L’errore è peraltro alla base del nostro ordinamento, che per questo prevede più gradi di giudizio. Quanto ai tuoi timori – già preconizzati da Asimov- nel 2014 l’Ue ha redatto una “Carta dei robot” a tutela della persona dalla IA. Cautele che si basano sulla prerogativa, solo umana, di distinguere fra realtà e finzione, realtà e desiderio, realtà e possibilità».