Notebookcheck Logo
Un robot umanoide generico e un segno di domanda. (Fonte immagine: Valeria Nikitina - Unsplash)

Dai dati all'illusione: Come si verificano le allucinazioni dell'AI

Le allucinazioni dell'AI si verificano quando i chatbot inventano cose... con sicurezza. Scopra perché accade, come viene risolto e come può avere un impatto su di lei.
Darryl Linington (traduzione a cura di Ninh Duy) Pubblicato 🇺🇸 🇪🇸 ...
AI Opinion / Kommentar
Opinione da Darryl Linington
Pensieri e opinioni espressi nel testo appartengono esclusivamente all'autore

Che cos'è un'allucinazione? In termini di AI, comunque

Quindi, ecco come funziona. Lei chiede al suo chatbot qualcosa. Le dà una risposta che sembra intelligente, usa tutte le parole giuste, inserisce persino una o due citazioni. Poi la cerca e la risposta è completamente inventata.

Benvenuti nel meraviglioso mondo delle allucinazioni dell'intelligenza artificiale.

Non si tratta di un bug. Non è colpa sua. E no, l'intelligenza artificiale non sta "cercando di mentire" Sta solo... facendo quello per cui è stata progettata: mettere insieme parole che statisticamente sembrano appartenere l'una all'altra. Tutto qui.

Non è "pensare" Sta giocando con le regole del gioco.

Questi modelli linguistici - ChatGPT, Claude, Gemini, tutti - non comprendono i fatti. Non sanno nulla. Hanno letto miliardi di parole e ora stanno giocando a questo gioco di autocompletamento senza fine. In realtà non fanno altro.

Quindi, cosa succede quando c'è una lacuna in ciò che hanno 'visto' durante la formazione? Tirano a indovinare. A volte in modo azzardato. Ma sempre con fiducia.

Ecco come avviene il pasticcio sotto il cofano

I modelli linguistici di grandi dimensioni (LLM) vengono addestrati su quantità sbalorditive di testo - pensi a libri, siti web, sfoghi su Reddit, riviste accademiche, tutti messi insieme in un frullatore. Il modello non "ricorda" queste informazioni come facciamo noi. Invece, impara i modelli: quali parole tendono a seguire altre parole, quali concetti appaiono spesso insieme, quali strutture di frase sembrano "corrette" e così via.

Quando si digita un prompt, il modello inizia a prevedere, un token (pezzo di parola) alla volta. Non pianifica un paragrafo o controlla se ciò che sta dicendo è vero. Cerca di mettere insieme una risposta statisticamente probabile... nessuna consapevolezza, nessun controllo, nessuna coscienza.

Ora, se i dati di addestramento non coprivano correttamente la sua domanda - o se lo facevano, ma il modello non lo 'ricordava' bene - le cose si complicano. Potrebbe iniziare a dedurre la risposta in base a cose simili. Si tratta di un completamento automatico con gli steroidi, che inventa connessioni.

Un esempio? Se si chiede di un caso giudiziario che suona familiare, il modello potrebbe mescolare i dettagli di casi simili che ha visto durante l'addestramento. Improvvisamente, si ottiene una sentenza Frankenstein di un giudice inesistente su una legge che non è mai stata approvata.

Il problema? Non sa che è sbagliato. Non è stato costruito per saperlo. È stato costruito per tirare a indovinare.

Alcuni modi comuni in cui questo va fuori dai binari:

  • Non ci sono abbastanza dati sull'argomento → L'AI riempie gli spazi vuoti con assurdità.
  • Le si pone una domanda vaga o complicata → inventa una risposta pulita per sembrare utile.
  • Vuole sembrare intelligente → quindi imita il modo in cui scrivono le persone intelligenti, anche se sta inventando tutto.
  • Ha visto milioni di citazioni → quindi formatta magnificamente quelle false.

Non si tratta di un'ipotesi: le persone sono state scottate

Probabilmente l'ha già visto in azione. Ma se così non fosse, ecco come si presenta:

  • Studi accademici falsi: Sembrano reali. Ha autori, un titolo, una rivista. Non esiste.
  • Casi giudiziari immaginari: Avvocati veri hanno presentato questi casi nei depositi. I giudici non ne sono stati entusiasti.
  • Consigli medici inventati: Il bot potrebbe dirle che il cavolo nero interagisce con l'ibuprofene. Non è così. (Probabilmente.)

E sì, le persone credono a queste cose. Perché sembrano giuste. Questa è la trappola.

Può perfino gettare benzina su di lei

Ed ecco la vera sorpresa: se si oppone? Chieda: "Sei sicuro?" L'intelligenza artificiale potrebbe raddoppiare. Riformula la bugia. Ammorbidirla. Cita un'altra fonte falsa. Non è maliziosa, è solo che non ne sa di più. Pensa: "Oh, vuoi una versione migliore dell'ultima allucinazione? Non dica altro"

Benvenuti alla parata del gaslight, ora con citazioni.

Cosa si sta facendo al riguardo (a parte i piagnistei)

Per essere onesti, gli sviluppatori stanno cercando di risolvere il problema. Nessuno vuole che il proprio strumento sia conosciuto per la sua sicurezza nel dire bugie. Ecco cosa sta succedendo:

1. Formazione Human-in-the-loop (RLHF)
Fondamentalmente: le persone reali forniscono un feedback sulle risposte dell'AI, assegnando loro un punteggio come le recensioni negative su Yelp. Aiuta, in un certo senso.

2. Lasciare che l'AI "cerchi qualcosa" (RAG)
Invece di affidarsi solo alla memoria, alcuni modelli ora attingono dati in diretta da Wikipedia o dalle basi di conoscenza. È come dare allo stagista l'accesso a Internet, invece di lasciarlo indovinare.

3. Componenti aggiuntivi per il fact-checking
Alcune piattaforme installano dei fact-checker o rifiutano di rispondere se l'AI non è sicura. Si tratta di una novità, ancora un po' difficile da trovare.

4. Richieste più intelligenti = meno BS
Se pone una domanda chiara e specifica, è meno probabile che l'AI faccia teatro di improvvisazione. Esempio: "Mi fornisca cinque fonti con revisione paritaria sui benefici del frutto del drago" è meglio di "Il frutto del drago è salutare?"

5. Filtri di fiducia
Alcune AI ora diranno "Non sono sicuro di questo" invece di inventare qualcosa. Il che, onestamente, è un sollievo.

Perché questa non è solo una stranezza divertente

Queste cose sono importanti. Un'allucinazione in una conversazione informale è normale. Ma in tribunale? In una redazione? In un ospedale? È un pasticcio.

Immagini uno studente che viene segnalato per plagio perché l'AI ha inventato una fonte. O un paziente che riceve un consiglio sbagliato. O una decisione aziendale presa sulla base di un dato statistico che il bot ha estratto dal nulla.

Questi modelli sono stati integrati nei motori di ricerca e negli strumenti aziendali. Il rischio è già presente.

Parola d'ordine finale

L'intelligenza artificiale è straordinaria. Può aiutarla a fare brainstorming, a riassumere, a riscrivere, a tradurre... insomma, può fare di tutto. Ma non dimentichi mai che non sa cosa sta dicendo. Vuole solo sembrare convincente.

Se non si fiderebbe di uno sconosciuto che parla con disinvoltura in un bar e che "ha letto qualcosa una volta", non si fidi ciecamente nemmeno del suo chatbot.

Lo usi. Ma verifichi tutto. Sempre.

Perché quando si sbaglia, non esiterà. Si limiterà a far apparire un Emoji che ride e continuerà a parlare.

Fonte(i)

Ricerca ed esperienza personale

Fonte dell'immagine: Valeria Nikitina - Unsplash

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2025 07 > Dai dati all'illusione: Come si verificano le allucinazioni dell'AI
Darryl Linington, 2025-07-20 (Update: 2025-07-20)