Singolare, plurale, io, noi. Pronomi non interscambiabili, usarne uno o l’altro cambia molto ma non tanto quanto nella vita di una profuga afghana. E di tante altre ed altri come lei. Cambia tanto per colpa dell’intelligenza artificiale. Meglio: per colpa di chi sceglie come usarla.

È una storia venuta alla luce grazie ad uno dei siti più autorevoli in difesa dei diritti, Rest Of World, che ha il focus su quelle parti del mondo poco raccontate dai media occidentali. È una storia questa che forse avrà un lieto fine ma altre decine di migliaia simili potrebbero essere raccontate in tanti altri paesi.

Quella di cui parliamo, comunque, ha come sfondo l’Afghanistan. Non quello drammatico, caotico dell’estate di due anni fa, quando le truppe statunitensi lasciarono frettolosamente il paese dopo vent’anni di occupazione. Tutto inizia un anno prima, quando il paese già viveva una crisi drammatica, con intere zone anche allora in mano ai talebani ed un’amministrazione statale vuota ed inutile. Corrotta.

In questa situazione una donna sceglie di scappare dal suo paese. È costretta a scappare. Vuole continuare a lavorare, a studiare, vuole costruirsi la sua vita lontano da quei totalitarismi religiosi che la sua famiglia aveva conosciuto e che stavano per riaffermarsi. Ovunque.

Sceglie di scappare. Una fuga pure questa rocambolesca, l’arrivo nei paesi confinanti, un lungo limbo prima dell’arrivo negli Stati Uniti. Dove sperava di poter contare su una comunità accogliente. Fa domanda di asilo. Ma dopo pochi mesi arriva la risposta che non si aspetta: visto negato. Fa appello, prova a seguire un tortuoso iter burocratico, con sempre meno speranze. Fino a che un suo connazionale, Uma Mirkhail, un volontario che collabora con una rete di traduttori al servizio dei migranti – Respond Crisis Translation – non scopre dov’è l’intoppo.

Pazzesco anche solo descriverlo: nel suo primo racconto, “verbalizzato” dagli agenti appena arrivata negli States, coadiuvati da un suo connazionale trovato in aeroporto, la profuga aveva raccontato di come era riuscita a superare la frontiera afghana. Lo aveva fatto da sola. Usava l’“io”, la prima persona singolare. Nelle domande d’asilo, però – tradotte automaticamente dal pashto all’inglese – quel pronome però era diventato un noi, un “we”. Come se la fuga fosse stata portata a termine grazie ad un gruppo di persone, ad un’associazione. Ad una comunità. E al giudice che doveva concedere il visto questa discrepanza era sembrata “sospetta”, come se la donna fosse appartenuta a qualche organizzazione pericolosa.

Ma l’errore non l’aveva fatto la profuga. Certo, c’è anche l’assurdità di un giudice che decide senza approfondire ma in questo caso, l’errore l’aveva fatto la traduzione automatica. Termine ormai superato, che va sostituito con la “traduzione neurale”, che funziona grazie all’intelligenza artificiale. Che si migliora continuamente, grazie ai dati che immagazzina, ed ad una rete di neuroni artificiali che dovrebbero essere in grado di capire il contesto, se non addirittura il “senso” del testo originale.

Ma nella lingua pastho tutto ciò non funziona. Non funziona come dovrebbe. S’è scoperto così che le domande d’asilo, le richieste d’aiuto delle e degli afghani sono affidate alla Traduzione Automatica Neurale, la NMT e le loro vite sono affidate ad algoritmi. NMT, che può non funzionare come dovrebbe. Perché chi progetta e lancia i nuovissimi strumenti di traduzione non ha interesse a sviluppare il meccanismo per la lingua pastho od il dari, l’altra lingua più diffusa in Afghanistan. Perché per Google – la prima a lanciare sei anni fa un traduttore neurale – conta le lingue “ad alta risorsa”, l’inglese, lo spagnolo, il mandarino, il francese. Sono usate, consentono scambi, pubblicità. Guadagni. Le lingue ed i dialetti afghani no e quindi su di loro si investe meno.

Ma da loro, s’è visto, dipendono le sorti di tanti. E questo avviene da un po’ di tempo. Si sa per esempio – lo rivelò ProPubblica – che già da tre anni l’USCIS, i servizi di immigrazione degli Stati Uniti sono stati autorizzati ad utilizzare Google Translate. “Anche Google Translate”, lasciando aperta – così sembrerebbe – la possibilità dell’intervento umano. Ma si sa anche che altre potenti società di traduzione – LanguageLine, TransPerfect e Lionbridge – hanno firmato contratti con diverse agenzie federali. Appalti milionari. Ed è noto che le stesse società offrono i loro servizi di traduzione automatica anche alle Ong, alle organizzazioni non governative. Offerte – va aggiunto – fino ad ora mai accettate.

I danni di tutto questo sono e saranno spaventosi. Harris-Hernandez, co-fondatore del Refugee Translation Project, sempre a Rest Of World, ha spiegato che “le persone potrebbero non saper scrivere, potrebbero usare metafore, idiomi, giri di parole che se presi alla lettera, non hanno alcun senso”. E, per raccontarne un’altra, si può citare la diplomazia tedesca che qualche mese fa aveva pensato di fare bella figura, scrivendo un tweet in pashto contro la discriminazione delle donne. Per farlo aveva utilizzato proprio Google Translate. Frasi apparse senza il minimo senso, rapidamente cancellate.

Un altro scoglio, dunque, al diritto a migrare. Ma le vicende afghane possono servire di lezione? Non sembra proprio. E stavolta si parla dell’Europa. Del vecchio continente, non della comunità. Si parla infatti dell’Inghilterra. Perché è emerso che Downing Street – anzi, sembra proprio Rishi Sunak in persona – stia pensando di ricorrere all’intelligenza artificiale e alle traduzioni automatiche per risolvere il problema dell’arretrato delle domande dei richiedenti asilo. Arretrato enorme: 138.052 persone. Che aspettano, alcune da anni.

L’idea sarebbe nata in un brain-storming convocato dal Ministero dell’Interno per studiare le misure necessarie per accelerare l’elaborazione delle richieste. Ma anche dire che l’idea sia “nata” poche settimane fa è impreciso: perché in Inghilterra già tre anni fu sconvolta da uno scandalo, lo scandalo Windrush. Quando si scoprì che centinaia di migranti di origine jaimaicana erano stati detenuti illegalmente e molti di loro espulsi senza motivo. Espulsione decisa da un algoritmo, tutte persone che avevano pienamente diritto a restare in Inghilterra. L’aveva fatto – lo si è saputo dopo – perché quell’intelligenza era stata addestrata su dati razzisti, sbagliati. Falsi. Ora ci riprovano, sostenendo che i meccanismi sono migliorati. Ed un “io” o un “noi” automatico continueranno a decidere la sorte di tante persone. Anche qui in Europa.