Notebookcheck Logo

Uno studio mostra che i chatbot AI forniscono informazioni meno accurate agli utenti vulnerabili

Un'immagine decorativa che mostra l'acronimo
ⓘ Igor Omilaev via Unsplash
Un'immagine decorativa che mostra l'acronimo "AI"
Un recente studio del MIT Center for Constructive Communication rivela che i principali modelli linguistici di grandi dimensioni forniscono risposte meno accurate, a volte paternalistiche, agli utenti con una minore conoscenza dell'inglese, un'istruzione meno formale e origini non statunitensi.

I grandi modelli linguistici sono stati ampiamente sostenuti come strumenti rivoluzionari in grado di democratizzare l'accesso globale alle informazioni. Tuttavia, una nuova ricerca del Massachusetts Institute of Technology Center for Constructive Communication indica che questi sistemi di intelligenza artificiale hanno sistematicamente prestazioni inferiori per le fasce demografiche vulnerabili che potrebbero trarne i maggiori benefici.

Presentato alla Conferenza AAAI sull'Intelligenza Artificiale, lo studio ha analizzato i chatbot di ultima generazione, tra cui GPT-4 di OpenAI, Claude 3 Opus di Anthropic e Llama 3 di Meta. I ricercatori hanno testato i modelli utilizzando i dataset TruthfulQA e SciQ per misurare l'accuratezza e la veridicità dei fatti, aggiungendo le biografie degli utenti che variavano per livello di istruzione, conoscenza dell'inglese e Paese di origine. I risultati hanno dimostrato un calo significativo dell'accuratezza per gli utenti con un'istruzione formale inferiore o con una minore conoscenza dell'inglese. Questi effetti negativi si sono aggravati gravemente per gli utenti che si trovano all'incrocio di entrambe le categorie.

La ricerca ha anche evidenziato disparità allarmanti nel modo in cui i modelli gestiscono le query. Claude 3 Opus, ad esempio, ha rifiutato di rispondere a quasi l'11% delle domande degli utenti meno istruiti e non madrelingua inglese, rispetto ad appena il 3,6% degli utenti di controllo. In molti di questi rifiuti, il modello ha risposto con un linguaggio condiscendente, paternalistico o beffardo, a volte mimando l'inglese non corretto. I modelli hanno anche rifiutato informazioni fattuali su argomenti come l'energia nucleare e gli eventi storici, in particolare agli utenti meno istruiti provenienti da Paesi come l'Iran o la Russia, nonostante avessero risposto correttamente alle stesse richieste per altri profili demografici.

I ricercatori avvertono che, man mano che le funzioni di personalizzazione diventano sempre più comuni, questi pregiudizi sociocognitivi intrinseci rischiano di esacerbare le disuguaglianze informative esistenti, diffondendo in modo silenzioso comportamenti dannosi e disinformazione a coloro che sono meno attrezzati per identificarli.

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 02 > Uno studio mostra che i chatbot AI forniscono informazioni meno accurate agli utenti vulnerabili
Chibuike Okpara, 2026-02-24 (Update: 2026-02-24)