Notebookcheck Logo

Lo studio rileva: Gli utenti sono la vera causa delle allucinazioni dell'IA

Secondo un nuovo studio, le allucinazioni dell'AI sono influenzate dal modo in cui gli utenti comunicano. (Fonte: Pexels/Ketut Subiyanto)
Secondo un nuovo studio, le allucinazioni dell'AI sono influenzate dal modo in cui gli utenti comunicano. (Fonte: Pexels/Ketut Subiyanto)
Uno studio pubblicato di recente dimostra che i suggerimenti dati agli assistenti AI giocano un ruolo importante nel verificarsi delle cosiddette allucinazioni AI. Questa è una buona notizia per gli utenti, in quanto suggerisce che possono ridurre attivamente le risposte false o inventate attraverso una progettazione più efficace dei prompt.

Fatti fittizi, citazioni inventate o fonti che appaiono completamente inventate - l'AI può essere incredibilmente utile, ma comporta comunque il rischio di allucinazioni. Secondo i ricercatori di OpenAI, un fattore chiave è un semplice meccanismo di ricompensa che incoraggia l'AI a fare delle ipotesi. Uno studio di https://www.arxiv.org/pdf/2510.02645 pubblicato il 3 ottobre su arXiv.org suggerisce anche che gli utenti stessi possono giocare un ruolo nell'innescare queste risposte allucinate.

Lo studio intitolato "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" suggerisce che molte delle cosiddette allucinazioni dell'AI possono avere origine dal modo in cui gli utenti comunicano. I ricercatori hanno analizzato oltre 13.000 conversazioni da uomo a uomo e 1.357 interazioni reali tra persone e chatbot AI. I risultati mostrano che gli utenti tendono a scrivere in modo molto diverso quando parlano con le IA - i messaggi sono più brevi, meno grammaticali, meno educati e utilizzano un vocabolario più limitato. Queste differenze possono influenzare la chiarezza e la sicurezza con cui i modelli linguistici rispondono.

L'analisi si è concentrata su sei dimensioni linguistiche, tra cui la grammatica, l'educazione, il vocabolario e il contenuto informativo. Mentre la grammatica e l'educazione erano più alte del 5% e del 14% nelle conversazioni tra umani, le informazioni effettive trasmesse sono rimaste quasi identiche. In altre parole, gli utenti condividono lo stesso contenuto con le AI, ma con un tono notevolmente più duro.

I ricercatori si riferiscono a questo come a un "cambiamento di stile" Poiché i grandi modelli linguistici come ChatGPT o Claude sono addestrati su un linguaggio ben strutturato ed educato, un cambiamento improvviso di tono o di stile può causare interpretazioni errate o dettagli inventati. In altre parole, le AI hanno maggiori probabilità di avere allucinazioni quando ricevono input poco chiari, maleducati o scritti male.

Possibili soluzioni sia da parte dell'AI che dell'utente

Se i modelli di AI vengono addestrati a gestire una gamma più ampia di stili linguistici, la loro capacità di comprendere le intenzioni degli utenti migliora, almeno del 3%, secondo lo studio. I ricercatori hanno testato anche un secondo approccio: parafrasare automaticamente l'input dell'utente in tempo reale. Tuttavia, questo ha ridotto leggermente le prestazioni, in quanto spesso si perdevano le sfumature emotive e contestuali. Di conseguenza, gli autori raccomandano di fare della formazione consapevole dello stile un nuovo standard nella messa a punto dell'AI.

Se vuole che il suo assistente AI produca meno risposte inventate, lo studio suggerisce di trattarlo più come un essere umano - scrivendo con frasi complete, usando una grammatica corretta, mantenendo uno stile chiaro e adottando un tono educato.

Fonte(i)

Arxiv.org (Studio / PDF)

Fonte dell'immagine: Pexels / Ketut Subiyanto

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2025 10 > Lo studio rileva: Gli utenti sono la vera causa delle allucinazioni dell'IA
Marius Müller, 2025-10-18 (Update: 2025-10-18)