Come il pregiudizio algoritmico danneggia le persone con disabilità

algoritmo

Uno strumento di assunzione analizza i movimenti del viso e il tono della voce per valutare le interviste video dei candidati. Uno studio riporta che l’algoritmo di Facebook mostra automaticamente agli utenti annunci di lavoro basati su inferenze su genere e razza. Gli strumenti di riconoscimento facciale funzionano in modo meno accurato sulle persone con tonalità della pelle più scure. Mentre sono sempre più i casi di pregiudizio algoritmico, i responsabili politici stanno cercando delle soluzioni. Viene, però, trascurata un’area critica: l’impatto sulle persone con disabilità.

Un’enorme fetta della popolazione vive con disabilità, che ha molte forme diverse, rendendo difficile individuare, provare e progettare pregiudizi. Nell’assumere, ad esempio, i nuovi strumenti basati su algoritmi identificheranno le caratteristiche condivise dai dipendenti “di successo” di un’azienda, quindi cercheranno quelle caratteristiche quando valutano i candidati. Poiché il modello tratta i tratti sottorappresentati come indesiderati, le persone con disabilità (come altri gruppi emarginati) rischiano di essere escluse.

Nonostante il gran numero di persone che vivono con disabilità, la popolazione è composta da molti gruppi statisticamente piccoli di persone le cui disabilità si manifestano in modi diversi. Quando un algoritmo di assunzione studia i movimenti facciali dei candidati durante un’intervista video o le loro prestazioni in un gioco online, una persona cieca può incontrare barriere diverse rispetto a una persona con disabilità motoria o disabilità cognitiva.

Nonostante queste sfide, alcuni fornitori di strumenti di assunzione che utilizzano l’IA stanno commercializzando i loro prodotti come “verificati per pregiudizio”, cercando di rassicurare i datori di lavoro di fronte a crescenti preoccupazioni. Ma molte di queste aziende fanno affidamento su linee guida obsolete che la Commissione sulle pari opportunità di lavoro ha pubblicato negli anni ’70.

Queste linee guida spiegano la cosiddetta “regola dei quattro quinti”, che cerca di vedere se un test di assunzione seleziona un determinato gruppo protetto ad un tasso inferiore rispetto alla sua controparte maggioritaria. Se un audit scopre che un algoritmo non sta rispettando la regola dei quattro quinti, il fornitore lo modificherà per una migliore parità e presenterà il loro strumento come “controllato”. Ma questo approccio semplicistico ignora la diversità della nostra società. Più criticamente, esamina solo le categorie semplificate di genere, razza ed etnia.

Il difetto di questo approccio diventa di nuovo chiaro se si considera la disabilità. Le diverse forme rendono praticamente impossibile rilevare l’impatto negativo con il tipo di audit che le aziende utilizzano attualmente: mostrare con significato statistico, ad esempio, che le persone il cui autismo si presenta in un modo particolare se la cavano meno bene rispetto agli altri i candidati. Semplicemente non ci sono abbastanza punti dati per vedere l’impatto dei diversi candidati autistici, soprattutto perché molte persone scelgono di non rivelare il proprio stato di disabilità. Mentre alcuni hanno cercato di risolvere questo problema di dati raccogliendo informazioni più dettagliate sulle disabilità dei candidati, ulteriori raccolte sollevano preoccupazioni distinte e molto reali sulla privacy e la discriminazione.

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi