Skip to content

Pregiudizi Intelligenza Artificiale

Se i pregiudizi dell’intelligenza artificiale sono gli stessi dell’uomo

Se sei una donna hai meno possibilità di essere assunta nel settore tech, se parli tedesco sei più competente in inglese e se ti chiami Jared sei semplicemente più favorito. Gli occhiali penalizzano mentre il velo mostra apertura. Sono solo alcuni dei pregiudizi riscontrati negli strumenti di intelligenza artificiale coinvolti nei processi di assunzione. Ecco perché a New York è entrata in vigore una legge che vuole combatterli. Tutti i dettagli

 

A New York la paura che l’intelligenza artificiale (IA) possa sostituire i lavoratori è già stata affiancata da un altro timore: che oltre a rubare il posto, decida – non senza pregiudizi – chi assumere e chi no, tanto che dal 5 luglio una nuova legislazione definisce i confini che l’IA può avere nel processo di reclutamento.

PERCHÉ UNA LEGGE SULL’IA NELLE ASSUNZIONI

Come osserva Quartz, le aziende stanno integrando sempre più gli strumenti algoritmici nei loro processi di assunzione, dai software che leggono i nostri curricula ai bot di intelligenza artificiale che valutano i primi colloqui. Ma, secondo alcuni, come può accadere nel caso di persone in carne e ossa, anche l’IA espone i candidati a pregiudizi.

Ecco perché i regolatori del Dipartimento per la Protezione dei Consumatori e dei Lavoratori della città di New York hanno iniziato ad applicare una legge, la prima nel suo genere, che ha proprio l’obiettivo di garantire equità.

Secondo la presidente della Commissione statunitense per le pari opportunità, Charlotte Burrows, “ben 4 datori di lavoro americani su 5 utilizzano un qualche tipo di tecnologia automatizzata per prendere decisioni in materia di occupazione”.

COSA PREVEDE

La legge richiede una maggiore trasparenza da parte dei datori di lavoro che utilizzano l’IA e gli strumenti algoritmici per prendere decisioni in materia di assunzioni e promozioni; inoltre impone alle aziende di sottoporsi a verifiche annuali per individuare potenziali pregiudizi all’interno delle macchine.

Stabilisce inoltre che le aziende che utilizzano tali strumenti debbano informare tutti i candidati, i quali possono chiedere quali dati personali vengono raccolti.

I più critici, tuttavia, temono che una legge non sarà sufficiente a proteggere i candidati da pregiudizi nelle assunzioni.

DI CHE STRUMENTI SI TRATTA

Attualmente, riferisce Quartz, c’è un’IA per ogni fase del processo di assunzione. Da quelle in grado di leggere le candidature e consigliare i migliori candidati per un ruolo aperto, agli algoritmi che setacciano milioni di annunci di lavoro per suggerire i ruoli ai candidati e viceversa, fino ai social media scrapers, che raccolgono dati sui candidati per compilare profili di personalità in base a ciò che hanno trovato online.

E questa è solo la fase di pre-selezione. Altri strumenti di IA esistenti, come i chatbot, pongono ai candidati domande sulle loro qualifiche e poi decidono se procedere nel processo di colloquio; piattaforme video algoritmiche fanno rispondere i candidati alle domande del colloquio con la telecamera, registrano le loro risposte, le trascrivono e analizzano i loro modelli vocali o facciali per individuare tratti soggettivi come “apertura” o “coscienziosità”; e, infine, giochi logici che hanno l’obiettivo di identificare qualità come l’“assunzione di rischi” o la “generosità”.

PERCHÉ DIFFIDARE…

Secondo alcune analisi, tuttavia, è emerso che le tecnologie basate sull’IA usate per le assunzioni prendono decisioni “inaffidabili, arbitrarie e spesso discriminatorie, che mettono in cattiva luce i candidati”.

Stando a Quartz, per esempio, “gli algoritmi scartano le donne per i ruoli tecnologici, valutano le persone di lingua tedesca come competenti in inglese o semplicemente favoriscono i candidati di nome Jared”. Altri strumenti hanno generato, invece, punteggi di personalità diversi quando un candidato indossava gli occhiali o il velo, o se non riusciva a trascrivere gli accenti regionali del Regno Unito.

I controlli annuali da parte di valutatori indipendenti, previsti dalla legge in vigore a New York, dovranno infatti verificare che, nonostante l’utilizzo di strumenti di IA, le assunzioni di gruppi protetti vengano rispettate altrimenti i datori di lavoro andranno incontro a una multa.

Torna su