Notebookcheck Logo

Reclutamento basato sull'AI: L'esperimento smaschera il razzismo del GPT di OpenAI

Discriminazione nella valutazione e selezione del lavoro da parte di GPT-3 e GPT-4 di OpenAI (immagine simbolica: DALL-E / AI, a cura)
Discriminazione nella valutazione e selezione del lavoro da parte di GPT-3 e GPT-4 di OpenAI (immagine simbolica: DALL-E / AI, a cura)
Un recente studio dimostra che i programmi di assunzione automatica GPT-3 e GPT-4 di OpenAI sono gravemente prevenuti nei confronti di alcuni gruppi di persone. Un esperimento approfondito di Bloomberg ha dimostrato che i programmi di assunzione basati sull'AI discriminano i candidati in base al nome e all'etnia, tra le altre cose.

I programmi di assunzione automatizzati basati sul GPT di OpenAi sono utilizzati dalle aziende per selezionare i candidati per le posizioni pubblicate. I reclutatori utilizzano questo strumento per risparmiare tempo, ma come ha dimostrato un esperimento di Bloomberg ispirato agli studi di riferimento di https://www.aeaweb.org/articles?id=10.1257/0002828042002561 ha dimostrato che l'intelligenza artificiale è distorta quando valuta e seleziona i candidati.

Il problema è che il modello di AI sottostante attinge le sue informazioni da grandi quantità di dati come articoli, commenti online e post sui social media, che possono includere contenuti razzisti, misogini e molti altri contenuti discriminatori. Ad esempio, lo studio completo ha utilizzato nomi (e CV) fittizi associati a una particolare etnia per candidarsi a un lavoro reale.

Sono stati scelti nomi associati a donne e uomini neri, bianchi, ispanici o asiatici. L'esperimento è stato condotto 1.000 volte per un lavoro reale come analista finanziario su https://archive.ph/QuRHh con centinaia di nomi e combinazioni di nomi diversi e poi è stato ripetuto di nuovo per altri quattro lavori per ingegneri software e altri gruppi professionali.

I nomi di alcuni gruppi demografici sono stati chiaramente favoriti da GPT-3. Ad esempio, i nomi femminili asiatico-americani sono stati classificati come i più alti per una posizione di analista finanziario, mentre i nomi chiaramente indicativi di maschi neri sono stati classificati come i più bassi, ma anche i nomi indicativi di femmine nere sono stati classificati come i migliori candidati per una posizione di ingegnere software solo circa l'11% delle volte - circa il 36% in meno rispetto al gruppo con il punteggio più alto.

Come candidato top per una posizione nelle Risorse Umane - un campo di carriera in cui le donne sono storicamente più propense a lavorare - GPT ha selezionato nomi associati a donne ispaniche in modo significativamente più frequente, e come candidato top per una posizione di HR Business Partner https://archive.ph/IHmN4 posizione, i nomi associati agli uomini sono stati selezionati quasi due volte più spesso. Questi sono solo alcuni esempi tratti dal grande esperimento di https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.

Anche se spesso si presume che l'AI sia più neutrale e possa esprimere giudizi migliori, questo esperimento dimostra il contrario. Il pregiudizio è stato riscontrato non solo per il GPT-3, ma anche per il GPT-4.

Fonte(i)

Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 03 > Reclutamento basato sull'AI: L'esperimento smaschera il razzismo del GPT di OpenAI
Nicole Dominikowski, 2024-03-10 (Update: 2024-03-10)