Ieri la Bbc ha pubblicato un report nel quale un ingegnere, in modo anonimo, racconta dell’uso delle tecnologie di riconoscimento facciale in Cina, nella regione dello Xinjiang, sottolineando come vengano utilizzate – in forma sperimentale – anche per decifrare le emozioni dei prigionieri nei campi di rieducazione.

Si tratta dell’ennesimo esempio dell’Intelligenza artificiale emozionale, sempre più utilizzata sia in contesti autoritari, come quello cinese, sia nelle democrazie occidentali. Queste tecnologie sono spesso usate per fini commerciali, per decidere chi e come assumere personale, per verificare le reazioni emotive di una persona durante un’attività (ad esempio mentre guida).

Se in Cina diventano strumento di repressione di una minoranza etnica, in altri contesti risultano più affini a strumenti di controllo che, seppure non dando vita a incarcerazioni o schedature di massa, rischiano di ledere i diritti alla privacy. O quanto meno di segnare il passo di tempi sotto sorveglianza costante. è il caso della Danimarca, segnalato da Algorythm Watch, un’organizzazione no profit che si occupa dell’invasività degli algoritmi nelle nostre vite; in 30 palestre danesi sono attivi sistemi di riconoscimento facciale capaci di «scansionare circa 36.000 punti dati per ogni volto e anche in grado di determinare umore, sesso, età ed etnia».

Il sistema inoltre controlla anche il certificato vaccinale, già in prova in Danimarca da aprile.