Mariaenza La Torre:
«Il “robot” – termine riemerso nel dibattito sulle ricadute giuridiche, economiche e sociali delle macchine che svolgono compiti, attività e servizi – non conosce il gatto. Non almeno “il gatto” come concetto, come entità con una sua propria fisionomia. Il robot impara a collegare la parola “gatto” all’animale domestico peloso che fa le fusa e per il quale deve svolgere un servizio, solo dopo che sono state immesse nel suo hardware una serie di immagini distinte fra quelle di “gatto” e quelle “non di gatto”. Eppure ci sono robot che su input di una persona – anche vocale e a distanza – si occupano, al suo posto, dell’alimentazione, della sicurezza, della salute del gatto. E sono in grado di adattare il comportamento standard in uno diverso, modificandolo in relazione alle variazioni delle condizioni del gatto (deep learning: apprendimento di dati appresi grazie all’utilizzo di algoritmi di calcolo statistico; è l’algoritmo creato dall’algoritmo che determina la scelta).Si può attribuire allora al robot una capacità – lato sensu – di pensiero autonomo, con conseguente imputazione della responsabilità dei suoi comportamenti?».
Sarantis Thanopulos:
«Il robot non conosce il “gatto” perché non c’è riconoscimento tra di loro. Il riconoscimento implica la presenza di desideri, emozioni e sentimenti che nel primo sono assenti e nel secondo presenti, seppure in modo elementare rispetto all’uomo. Si crede che il robot pensi, ma non possa avere emozioni. Non è lontano il tempo in cui si produrranno robot con una parvenza di emozioni. Questo per dire non solo che l’imitazione delle emozioni, la loro riproduzione artificiale, sia possibile, ma anche che il pensiero dei robot non sia pensiero vero. Credere che l’elaborazione di dati sia, di per sé, pensiero, è una rischiosa illusione. Il calcolo è uno strumento del pensiero, all’interno di una rappresentazione di sé e della realtà impossibile senza l’eros e le emozioni. Quando l’algoritmo sostituisce questa rappresentazione -radicata nel nostro sentire-, invece di servirla, produce insensatezza. Il robot, ignaro del mondo reale, ma “informato” su una vasta gamma di dati oggettivi, non prende cura del gatto (o del bambino), lo assiste sul piano materiale. Crea un mondo abitato da corpi “medicati”, biologici.».
Mariaenza La Torre: «I giuristi si interrogano sulla soggettività del robot – la soggettività digitale – quale persona elettronica. E ciò per il loro sempre più massiccio intervento in molti e centrali settori: nella conclusione dei contratti, nelle transazioni finanziarie, nell’analisi dei comportamenti economici e di profilazione degli utenti, con conseguente ricadute sui diritti patrimoniali e non patrimoniali delle persone. Qual è la tua posizione sul tema? Quali sono secondo te le modifiche comportamentali, materiali, psicologiche della relazione che le persone instaurano – sempre più spesso e più volentieri – con i robot piuttosto che con le persone?».
Sarantis Thanopulos:
«Il robot del futuro funzionerà secondo modelli di tensione e scarica, riproducendo su un piano comportamentale le manifestazioni di emozioni standard. Imiterà l’agire emotivo finalizzato al mantenimento di un ordine omeostatico. Non sono, tuttavia, i robot a robotizzarci. È l’adeguamento del nostro mondo interno al funzionamento delle macchine (l’abbaglio della stabilità) a creare robot a nostra immagine e somiglianza. Da “Blade runner”, a “Lei”, a“Macchine come noi” la fiction è alle prese con robot in grado di sentire. Riflesso, in realtà, di noi umani ridotti ad automi e alla ricerca disperata di sentimenti veri. La soggettività e la responsabilità nella macchina dentro e fuori di noi, non le troveremo da nessuna parte».