Fatti fittizi, citazioni inventate o fonti che appaiono completamente inventate - l'AI può essere incredibilmente utile, ma comporta comunque il rischio di allucinazioni. Secondo i ricercatori di OpenAI, un fattore chiave è un semplice meccanismo di ricompensa che incoraggia l'AI a fare delle ipotesi. Uno studio di https://www.arxiv.org/pdf/2510.02645 pubblicato il 3 ottobre su arXiv.org suggerisce anche che gli utenti stessi possono giocare un ruolo nell'innescare queste risposte allucinate.
Lo studio intitolato "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" suggerisce che molte delle cosiddette allucinazioni dell'AI possono avere origine dal modo in cui gli utenti comunicano. I ricercatori hanno analizzato oltre 13.000 conversazioni da uomo a uomo e 1.357 interazioni reali tra persone e chatbot AI. I risultati mostrano che gli utenti tendono a scrivere in modo molto diverso quando parlano con le IA - i messaggi sono più brevi, meno grammaticali, meno educati e utilizzano un vocabolario più limitato. Queste differenze possono influenzare la chiarezza e la sicurezza con cui i modelli linguistici rispondono.
L'analisi si è concentrata su sei dimensioni linguistiche, tra cui la grammatica, l'educazione, il vocabolario e il contenuto informativo. Mentre la grammatica e l'educazione erano più alte del 5% e del 14% nelle conversazioni tra umani, le informazioni effettive trasmesse sono rimaste quasi identiche. In altre parole, gli utenti condividono lo stesso contenuto con le AI, ma con un tono notevolmente più duro.
I ricercatori si riferiscono a questo come a un "cambiamento di stile" Poiché i grandi modelli linguistici come ChatGPT o Claude sono addestrati su un linguaggio ben strutturato ed educato, un cambiamento improvviso di tono o di stile può causare interpretazioni errate o dettagli inventati. In altre parole, le AI hanno maggiori probabilità di avere allucinazioni quando ricevono input poco chiari, maleducati o scritti male.
Possibili soluzioni sia da parte dell'AI che dell'utente
Se i modelli di AI vengono addestrati a gestire una gamma più ampia di stili linguistici, la loro capacità di comprendere le intenzioni degli utenti migliora, almeno del 3%, secondo lo studio. I ricercatori hanno testato anche un secondo approccio: parafrasare automaticamente l'input dell'utente in tempo reale. Tuttavia, questo ha ridotto leggermente le prestazioni, in quanto spesso si perdevano le sfumature emotive e contestuali. Di conseguenza, gli autori raccomandano di fare della formazione consapevole dello stile un nuovo standard nella messa a punto dell'AI.
Se vuole che il suo assistente AI produca meno risposte inventate, lo studio suggerisce di trattarlo più come un essere umano - scrivendo con frasi complete, usando una grammatica corretta, mantenendo uno stile chiaro e adottando un tono educato.
Fonte(i)
Fonte dell'immagine: Pexels / Ketut Subiyanto
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones