Notebookcheck Logo

Anche dopo la formazione anti-razzismo, i chatbot AI come ChatGPT mostrano ancora pregiudizi razziali

I ricercatori affermano che i produttori di LLM come OpenAI devono esaminare in modo più approfondito le loro IA per individuare il "razzismo occulto". (Immagine: OpenAI)
I ricercatori affermano che i produttori di LLM come OpenAI devono esaminare in modo più approfondito le loro IA per individuare il "razzismo occulto". (Immagine: OpenAI)
I ricercatori hanno scoperto che i chatbot AI come ChatGPT-4 possono ancora produrre risposte con pregiudizi razziali, anche dopo una formazione sulla sicurezza. Lo studio evidenzia la necessità di una maggiore attenzione e di una verifica dei "pregiudizi occulti" prima che i LLM siano resi disponibili al pubblico.

I ricercatori che hanno testato chatbot AI basati su modelli linguistici di grandi dimensioni, come Chat GPT4 di OpenAI, hanno scoperto che possono ancora mostrare pregiudizi razziali, anche dopo essere stati sottoposti a una formazione anti-razzismo. L'ultimo sviluppo fa seguito alla recente iniziativa di Google Gemini AI dopo che il suo nuovo LLM ha corretto in modo eccessivo il razzismogenerando quelle che alcuni hanno definito reinterpretazioni "woke" della storia, dove gli uomini afroamericani, ad esempio, sono stati raffigurati come soldati nazisti della Seconda Guerra Mondiale. A quanto pare, trovare il giusto equilibrio in materia di razza si sta rivelando difficile per i creatori di modelli di LLM.

Nell'ultimo studio, evidenziato da New Scientist, i ricercatori hanno scoperto che decine di diversi modelli LLM testati mostravano ancora pregiudizi razziali quando venivano presentati con testi che utilizzavano dialetti afroamericani. Questo nonostante i modelli testati fossero stati specificamente addestrati per evitare pregiudizi razziali nelle risposte fornite dai chatbot. Tra questi c'è ChatGPT-4 di OpenAI ChatGPT-4 e GPT-3.5 di OpenAI. In un caso, è stato dimostrato che GPT-4 è più propenso a raccomandare una condanna a morte se si parla in inglese con un dialetto afroamericano.

Lo stesso "pregiudizio occulto" era evidente anche nelle raccomandazioni di lavoro che abbinavano gli afroamericani a carriere che avevano meno probabilità di richiedere una laurea o si spingevano fino ad associare le persone di origine afroamericana senza un lavoro, rispetto all'input standard basato sull'inglese americano. I ricercatori hanno anche scoperto che più grande è il modello linguistico, maggiore è la probabilità che presenti questi pregiudizi di fondo. Lo studio solleva preoccupazioni in merito all'uso di tecnologie AI generative per scopi di screening, tra cui la revisione delle domande di lavoro.

I ricercatori hanno concluso che il loro studio solleva dubbi sull'efficacia degli interventi di formazione sulla sicurezza dell'AI basata sull'uomo, che sembrano eliminare il razzismo e i pregiudizi solo ad alto livello, ma faticano a sradicarli dai modelli attuali a un livello inferiore, quando la terminologia specifica dell'identità razziale non viene menzionata durante gli input degli utenti. I ricercatori raccomandano alle aziende che sviluppano LLM di fare attenzione a rilasciare chatbot LLM al pubblico prima che siano stati accuratamente verificati.

Fonte(i)

New Scientist [sub. req.]

Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 03 > Anche dopo la formazione anti-razzismo, i chatbot AI come ChatGPT mostrano ancora pregiudizi razziali
Sanjiv Sathiah, 2024-03-11 (Update: 2024-03-11)