Facebook non è immune da pregiudizi: discriminazioni di genere nelle offerte di lavoro

Facebook non è immune da pregiudizi: discriminazioni di genere nelle offerte di lavoro
di Sonia Montegiove
4 Minuti di Lettura
Sabato 1 Maggio 2021, 12:55 - Ultimo aggiornamento: 19 Febbraio, 03:37

Se su Facebook ci si è dichiarati “femmina” si vedranno annunci di lavoro pubblicati da aziende che presentano già una buona percentuale di lavoratrici al proprio interno. Il “postino” algoritmico di Facebook preposto alla consegna degli annunci infatti, come afferma una ricerca della University of Southern California, «impara e perpetua le attuali differenze demografiche nel mondo del lavoro», ovvero si fa influenzare dalla presenza o meno di donne già impiegate nelle posizioni per le quali si apre una ricerca di personale. Problema vecchio, dirà qualcuno, visto che già nel 2016 si era evidenziato il rischio di discriminazione in base a genere, razza ed età da parte dell’organizzazione americana Propublica, che si occupa di giornalismo investigativo.

LA CASISTICA

«Il bias algoritmico descrive la casistica di algoritmi che discriminano in modo “sistematico e ingiusto” privilegiando alcuni aspetti e rafforzando pregiudizi sociali di genere, razza o etnia», spiega Monica Franceschini, Big Data Practice Manager e Data & Analytics in Engineering. «Il problema è spesso (ma non solo) insito nei dati che alimentano l’apprendimento dei modelli analitici, e che ne determina risultati non imparziali come ci si aspetterebbe da uno strumento di intelligenza artificiale laddove il fattore umano è limitato». I ricercatori californiani, per poter “dimostrare” le possibili discriminazioni di genere delle piattaforme social, hanno fatto un esperimento monitorando la visibilità di un annuncio di lavoro da ingegnere o ingegnera del software pubblicato da due diverse aziende: Netflix, dove le donne che ricoprono ruoli in ambito IT sono il 35%, e Nvidia, dove sono invece impiegate soltanto il 14% di “tecniche”. L’esperimento ha dimostrato come su Facebook le donne alle quali viene visualizzato l’annuncio di lavoro di Netflix è maggiore rispetto a quello di Nvidia. Cosa che non viene invece evidenziata su LinkedIn, altra piattaforma social messa al microscopio dai ricercatori. Lo stesso comportamento “discriminatorio” si ha per posizioni di lavoro meno qualificate, quali la consegna di pizza o di spesa a domicilio per le aziende Domino’s, dove ci sono più uomini e l’annuncio è presentato a uomini, e Instacart, dove sono invece presenti e quindi “scelte” prevalentemente donne.

Intelligenza Artificiale: tante opportunità di lavoro, poche donne?

Intelligenza Artificiale, la scienziata Francesca Rossi (IBM): «Insegno l'etica ai robot per un impatto positivo su persone e società»

Il mondo è sessista: nove persone su 10 hanno pregiudizi nei confronti delle donne

«L’intervento del data scientist o dell’analista dati – spiega Monica Franceschini - può avere un impatto sui risultati, così come banali concomitanze di fattori che generano una base dati per l’addestramento non sufficientemente rappresentativa. Le tecniche di acquisizione e pre-processamento dei dati destinati alle analisi possono generare un fenomeno distorsivo nel funzionamento dell’algoritmo senza necessariamente che ve ne sia l’intenzionalità. Altro fattore che mette a rischio l’imparzialità del modello è costituita dal fatto che molto spesso i dati su cui sono pre-addestrati gli algoritmi sono forniti da colossi digitali, (uno tra tutti Google) che applicano le logiche a loro più congeniali per mettere a disposizione di un vasto pubblico di utenti il risultato della raccolta di considerevoli moli di dati che, inutile dirlo, se dovesse essere replicata avrebbe un costo significativo». Lo studio del comportamento degli algoritmi è indubbiamente necessario, visto che elevate sono le probabilità che ci si possa accorgere tardivamente di eventuali forme di discriminazione, anche involontarie, che potrebbero penalizzare determinate categorie di persone.

LA RISPOSTA

Facebook per rispondere ai risultati della ricerca, tramite il suo portavoce Joe Osborn, ha dichiarato che la piattaforma ha adottato “misure significative per affrontare i problemi di discriminazione negli annunci”, anche attraverso la costituzione di uno specifico team di lavoro, e che sta «continuando a lavorare a stretto contatto con la comunità dei diritti civili, le autorità di regolamentazione e gli accademici su queste importanti questioni». Affermare semplicemente «è colpa dell’algoritmo», come si fa solitamente, non risolve il problema e soprattutto non tiene conto del fatto che le intelligenze artificiali apprendono dai dati che vengono dati loro in pasto. A dati carichi di stereotipi corrisponderanno decisioni stereotipate. Come a dire che i dati dovrebbero essere “unbiased” e rappresentativi di tutte le possibilità. Un aspetto al quale si dovrà porre un’attenzione crescente, visto il diffondersi dell’intelligenza artificiale. Giulia Baccarin, ingegnera biomedico definita anche “regina degli algoritmi”, nel corso di un TED talk pose una domanda: «Siamo disposti ad accettare il fatto che a decidere il lavoro del futuro della nostra bambina sia un algoritmo che la discrimina perché il suo genere non è rappresentato nelle stanze in cui viene costruito?».

© RIPRODUZIONE RISERVATA