Nel racconto Girotondo del 1942, Isaac Asimov scrisse le norme a cui i robot dovrebbero attenersi per essere integrati nella vita sociale. L’etica dei robot deve garantire che le macchine nell’ordine non rechino danno all’umanità, rispondano a ordini umani e difendano la propria esistenza. Ogni robot dovrebbe essere programmato secondo questi principi.
Quasi ottanta anni dopo, quelle regole vanno bene al massimo per governare un frullatore e evitare di tagliarsi le dita o prendere la scossa. Ma i robot di cui si parla oggi sono parecchio più complessi. Non che facciano cose più epiche di un frullato: il robot più atteso è l’automobile a guida autonoma, che useremo soprattutto per andare a comprare le mele per il frullato senza distrarci dalla serie tv. Ma anche un gesto quotidiano come guidare presenta dilemmi morali di difficile soluzione: se un bambino attraversa senza guardare, siamo disposti a rischiare un frontale nell’altra corsia per evitarlo?

FINCHÉ A GUIDARE siamo noi, ci affidiamo a quello che chiamiamo «istinto» (poi, se sopravviviamo, ce la raccontiamo parlando di «etica»). Non funziona granché, ma ci permette di uscire di casa. Il robot, però, l’istinto non ce l’ha. Glielo dice l’ingegnere cosa fare, e si chiama «intelligenza artificiale». E all’ingegnere glielo dovremmo dire noi, ma noi ci affidiamo all’istinto, che non significa che andiamo a caso ma che non sappiamo nemmeno noi quali siano le regole. Nel frattempo, i fabbricanti di automobili aspettano: prima di comprare una macchina che vada in giro da sola, il cliente vorrà sapere per filo e per segno come si comporterà (pensate ai segni della croce quando vi dà uno strappo un neo-patentato, dopo il calcetto). Finora, solo la Germania ha provato a trovare una soluzione a tavolino. Una commissione di 14 persone composta da giuristi, ingegneri, consumatori più il vescovo di Augsburg ha stilato il «Codice etico per la guida automatica e connessa». Sulle situazioni più controverse, però, si rimanda a un consenso pubblico che ancora non esiste.
Quando si tratta di macchine intelligenti, a un certo punto spunta sempre il Massachusetts Institute of Technology (Mit) di Boston. Succede anche stavolta, perché al Mit hanno creato la «Moral Machine». È più o meno un quiz via Internet per simulare situazioni di pericolo: se si rompono i freni dell’auto e devi scegliere se andare contro il muro o investire i pedoni, cosa faresti? E se sono donne, o bambini, o anziani, o animali, e così via.

QUANDO UN GIORNO un’automobile a guida autonoma attraverserà le nostre città, è bene che sappia cosa ci aspettiamo da lei. Nessuno comprerebbe un’automobile che sragiona. Se al quiz partecipano abbastanza persone, qualche regola condivisa verrà fuori, hanno pensato i ricercatori guidati dal quarantenne siriano Iyad Rahwan che, fuggito in Australia da Aleppo prima che si scatenasse l’inferno, oggi guida l’equipe sulla cooperazione tra intelligenza naturale e artificiale nel più importante centro di ricerca sulle macchine del mondo. Al quiz hanno risposto mezzo milione di persone da 233 paesi, per un totale di quaranta milioni di decisioni: la vecchia o il passeggino, il poveraccio o il cane, io o lui.
I risultati sono stati pubblicati nell’ultimo numero della rivista Nature. I ricercatori di Rahwan hanno scoperto anche cose prevedibili: se proprio dobbiamo scegliere, investiamo il gruppo di pedoni meno numeroso; e tra un giovane e un vecchio, sacrifichiamo il vecchio. E tra un manager e un dottore, investiamo il manager, ma in generale stiamo più attenti ai ricchi che ai poveri. Niente di strano.
Se poi si va più in dettaglio, si scopre che da un posto all’altro si fanno scelte un po’ diverse. Ad esempio: nell’Est asiatico, la preferenza per i giovani diminuisce mentre in America Latina si preferisce non mettere sotto le donne e le persone apparentemente in buona salute.

QUESTE DECISIONI, sostengono i ricercatori, riflettono verosimilmente le matrici culturali e sociali dei paesi di provenienza. Non deve essere un caso se i paesi in cui ci sono maggiori disuguaglianze economiche, si tenda a favorire i ricchi anche quando attraversano la strada. Oppure, se nei paesi con più parità di genere si preferisca non mettere sotto una donna. O infine se i paesi in cui, secondo gli standard internazionali, sono più diffuse illegalità e corruzione sono anche quelli in cui si faccia meno attenzione se il pedone sta sulle strisce o no.
Nonostante il gran numero di risposte, non si tratta di un campione rappresentativo: le risposte vengono volontariamente da chi si informa su Internet e si interessa a queste tematiche (comunque sono gli stessi che compreranno le auto-robot). Non sarà facile conciliare questi dati con le norme. Il Codice tedesco, ad esempio, non ammette distinzioni sulla base di caratteristiche individuali come genere, età o status sociale delle potenziali vittime della strada. Ma saremmo disposti ad adottare una tecnologia che per legge non segua necessariamente i nostri usi e costumi?

IN OGNI CASO, dalla ricerca si può trarre una lezione utile al di là del codice della strada: neanche nel freddo mondo dei robot esiste una morale condivisa. Le norme etiche sono il risultato di secoli di conflitti sociali e di genere e cambiano secondo i rapporti di forza vigenti in un dato luogo e in un dato periodo. Nessun algoritmo potrà farci niente: anche quando guideranno i robot, in un incrocio di Roma e di Zurigo continueranno a succedere cose piuttosto diverse.
Lo sanno anche gli informatici, che in molti robot adottano una strategia più flessibile: andando a tentativi e imparando dal risultato, le macchine guidate da «reti neurali» possono consolidare da sé comportamenti ottimali anche di grande complessità partendo da poche conoscenze a priori. Così i robot hanno imparato a sconfiggere gli umani in giochi che richiedono grandi capacità strategiche come il «Go». Però hanno bisogno di allenarsi perché sbagliando si impara. Stavolta le cavie dovremmo farle noi. Siamo pronti?