Le aziende di New York City che utilizzano dei programmi d’intelligenza artificiale per gestire le assunzioni dovranno dimostrare che il software che impiegano non segue criteri discriminatori, sessisti o razzisti. Questa nuova legge, entrata in vigore mercoledì, è la prima al mondo del suo genere, e sicuramente detterà la linea da seguire per le aziende che vogliono avvalersi dell’ausilio di intelligenze artificiali per assumere personale

Questi software, chiamati automatic employment decision tool, strumento di decisione automatica sull’occupazione, o Aedt, hanno la funzione sia di segnalare i candidati promettenti, che di scartare quelli ritenuti non idonei, aprendo così la strada a tutta una serie di preoccupazioni riguardanti i criteri di valutazione delle intelligenze artificiali. Una donna in età fertile è una candidata appetibile al pari di un uomo della stessa età? E una persona non bianca?
Secondo la nuova legge newyorchese le aziende che ricorrono all’ausilio di questi software per le assunzioni dovranno pubblicare i risultati delle ricerche di lavoro, avvisare i candidati e i dipendenti che verranno valutati da un’Ai, pubblicare su i loro siti web un avviso sul tipo e l’origine dei dati utilizzati e sulla politica di conservazione dei dati, e in ogni caso non potranno usare i software di intelligenza artificiale se prima i loro parametri non verranno controllati.
Cathy O’Neil, Ceo di Orcaa, una società di consulenza che ha condotto le ricerche sugli strumenti di assunzione per le aziende che vogliono essere in regola con la nuova legge di New York, ha dichiarato che il numero di strumenti che selezionano i candidati avvalendosi dell’uso di intelligenza artificiale è in continua crescita, e che un controllo e una regolamentazione di questi strumenti è diventato necessario per proteggere i diritti e la privacy delle persone che cercano lavoro. Ma anche che è tutto il sistema di ricerca di un impiego ad essere cambiato. «Nell’era di Internet, è molto più facile mettersi alla ricerca di lavoro – ha spiegato O’Neil durante una conferenza stampa – I candidati hanno molti più strumenti per ampliare la propria ricerca. Esistono programmi, anche questi di Ai, che gestiscono i curriculum e fanno domanda per fino a 400 posti di lavoro per un unico candidato. Il risultato è che le aziende ricevono troppe domande e così si rivolgono ad algoritmi di selezione del personale, che però nella loro operazione di scrematura mostrano dei pregiudizi  derivanti dai dati su cui sono formati». Da tempo, ha aggiunto,  «più studi hanno dimostrato come i programmi che utilizzano l’apprendimento automatico o l’intelligenza artificiale mostrino elementi di razzismo e sessismo».
La legge di New York è un passo importante per i diritti dei lavoratori, ma è comunque un passo che mostra dei limiti Julia Stoyanovich, professoressa di informatica alla New York University e fra i fondatori dell’Automatic Decisions Systems Task Force della città, ha dichiarato che questa manovra rappresenta non una soluzione, ma un primo passo, e ci sono ancora molte lacune, in quanto lo spettro di pregiudizi che non vengono analizzati è ancora vasto e al momento non include quelli riguardanti, ad esempio, l’età e la disabilità.
Inoltre non è ancora chiaro come verrà applicata la legge o in che misura.
Stoyanovich è andata anche oltre, ed ha parlato di strumenti di assunzione automatizzati che semplicemente non funzionano, perché la curva di apprendimento della Ai pesca dati sparsi e a volte finisce per produrre e basarsi su un sistema di scelta formato da elementi sconnessi fra loro.
«Una delle cose da cui questa legge non ci protegge é da un criterio di scelta privo di senso. Posso parlarvi di alcuni di software di AI che ho analizzato io stessa insieme a un team di collaboratori, ed ho visto più casi in cui il software di intelligenza artificiale non era prevenuto, ma solo casuale. E diventava così un sistema ugualmente assurdo, per gli uomini e per le donne, per i neri e per i bianchi».