Gli automatismi del pensiero sessista
Che gender di ricerca Anche i social network hanno avuto problemi di discriminazione riguardo il «profilo di utenti» e ora stanno studiando il modo di correre ai ripari
Che gender di ricerca Anche i social network hanno avuto problemi di discriminazione riguardo il «profilo di utenti» e ora stanno studiando il modo di correre ai ripari
Una recente ricerca pubblicata su Nature il 19 febbraio scorso mostra che il 43% delle donne americane lascia la carriera full-time in ambito scientifico a causa della nascita del primo figlio. La scienza sembra non essere un lavoro per madri. Il ritmo richiesto alle scienziate non sembra conciliarsi con la vita privata e familiare. Questo contribuisce a fare dell’ambito Stem (science, technology, engineering and mathematics), un ambiente di preferenza maschile.
Secondo una statistica della National Science Foundation (Nsf) gli uomini impegnati come scienziati o ingegneri rappresentano il 71% del totale. Un’analisi dei dati dal punto di vista intersezionale ci indica che il 49% dei lavoratori in questi settori non solo sono maschi, ma anche bianchi. Tale stato di fatto finisce per penalizzare ancora di più la carriera femminile a causa del pregiudizio che gli uomini tendono ad avere, frutto inevitabile dell’omofilia degli esseri umani, anche in assenza di una esplicita posizione sessista. Gli uomini sono più indulgenti e meglio disposti verso le persone che somigliano loro.
Non potendo fidarsi della fragilità e inaffidabilità del giudizio umano, si è ritenuto di migliorare i risultati sostituendolo con la valutazione automatizzata offerta da una nuova generazione di algoritmi di machine learning che dovrebbero essere in grado di valutare le persone e i curricula e di non discriminare su caratteristiche come il genere, l’età, l’origine etnica e quella sociale. Tuttavia gli studi sui comportamenti di questi algoritmi usati per esempio nella ricerca di lavoro mostrano che le cose non sono così semplici.
Un’analisi dell’agenzia americana Upturn a proposito degli algoritmi usati nella ricerca di lavoro (Help Wanted: An Examination of Hiring Algorithms, Equity, and Bias) mostra come non siano privi di pregiudizi, sia perché in generale chi scrive le regole del loro funzionamento tende, come abbiamo visto, a essere maschio, sia perché questi strumenti vengono addestrati su delle basi di dati di training che possono implicitamente orientare la scelta a favore di una visione pregiudiziale della realtà, anche quando non prendono esplicitamente in considerazione le caratteristiche considerate sensibili.
Gli algoritmi possono avere un ruolo anche nella fase di pubblicizzazione dell’offerta lavorativa. Se si usano le piattaforme digitali, è possibile che l’agente che ricerca personale definisca un target preferenziale. Tale operazione potrebbe quindi ridurre le opportunità, per alcune categorie di persone, di venire in contatto con l’informazione.
A settembre del 2018 la Bbc, il New York Times e altri giornali hanno riportato che Facebook permetteva agli annunci di lavoro di scegliere il profilo degli utenti che lo dovevano visualizzare. Mestieri come poliziotti, guidatori per Uber o camionisti potevano essere mostrati solo a target maschili. Da allora Facebook ha cercato di porre rimedio limitando la possibilità di definire i target in modo da discriminare alcune categorie considerate deboli. Anche Linkedin ha avuto i suoi problemi sulla discriminazione di genere. Sembra che facendo la ricerca usando un nome femminile, la piattaforma suggerisse lo stesso nome declinato al maschile. La medesima scelta dell’ordine dei candidati selezionati da un algoritmo potrebbe avere impatto psicologico sui selezionatori umani.
Non possiamo dimenticare, inoltre, che le basi dati su cui si addestrano gli algoritmi come quelli per il riconoscimento del linguaggio naturale nell’ambito del Natural language processing (Npl) vengono definite dai corpora disponibili in rete, come Wikipedia, o raccolte di testi giornalistici (GigaWord) o di pagine web (Common Score). Tutti questi corpora sono portatori di una rappresentazione ampiamente pregiudiziale legata agli autori umani di questi testi.
Secondo alcuni studi, gli algoritmi tendono ad associare le donne con la cura domestica e privata e gli uomini con la carriera e le attività pubbliche. Non è corretto quindi sperare che gli algoritmi come una bacchetta magica siano in grado da soli di liberarci dal sessismo diffuso tra gli esseri umani. Per risolvere questo problema sarebbe meglio concentrarsi sul processo educativo per eliminare gli stereotipi dalla mentalità delle nuove generazioni, oltre a cercare di aprire l’accesso alle professioni scientifiche ai diversi gruppi etnici, sociali e di genere.
I consigli di mema
Gli articoli dall'Archivio per approfondire questo argomento