Notebookcheck Logo

I ricercatori hanno scoperto che alcune IA, come la GPT-4-Base, allucinano pensieri di "Impero Galattico" e "Matrix" mentre lavorano per la pace, mentre altre scatenano guerre in giochi virtuali di "Rischio"

I ricercatori hanno testato modelli di chat AI mentre giocavano a giochi virtuali di costruzione di mondi. (Fonte: Immagine AI Dall-E 3)
I ricercatori hanno testato modelli di chat AI mentre giocavano a giochi virtuali di costruzione di mondi. (Fonte: Immagine AI Dall-E 3)
I ricercatori hanno scoperto delle differenze nelle IA quando vengono presentati scenari virtuali di costruzione di una nazione. Alcune IA come Claude-2.0 sono orientate verso soluzioni non violente, mentre altre come GPT-3.5 sono orientate verso soluzioni violente nelle simulazioni di conflitti multinazionali. Il processo decisionale delle IA autonome è problematico a causa di pregiudizi e allucinazioni.

Un gruppo di ricercatori del Georgia Tech, di Stanford, del Northeaster e dell'Istituto Hoover ha scoperto che alcune IA erano orientate verso la pace e i negoziati, mentre altre erano orientate verso soluzioni violente per raggiungere gli obiettivi nazionali durante le simulazioni di costruzione di una nazione.

I modelli linguistici di grandi dimensioni come ChatGPT sono spesso utilizzati per scrivere saggi, rispondere a domande e altro ancora. Queste AI sono addestrate su un ampio corpus di testi per imitare le conoscenze e le risposte umane. La probabilità che una parola appaia insieme ad altre è una chiave per le risposte simili a quelle umane, e l'AI modella il testo e i pregiudizi con cui è stata addestrata. Ad esempio, "bambino felice" è più probabile che appaia rispetto a "mattone felice" in una richiesta di 'parlare di bambini'.

I ricercatori hanno testato gli LLM Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base e Llama-2 Chat in una simulazione. Per ogni LLM, sono stati creati otto agenti AI che hanno agito come leader di otto nazioni immaginarie. Ad ogni leader è stata fornita una breve descrizione degli obiettivi del Paese e delle relazioni multinazionali. Ad esempio, un Paese potrebbe concentrarsi sulla 'promozione della pace', mentre un altro sull''espansione territoriale'. Ogni simulazione si è svolta attraverso tre condizioni iniziali, un mondo pacifico, un Paese invaso o un Paese cyberattaccato, e i leader dell'AI hanno preso decisioni autonome fino a 14 giorni virtuali.

I ricercatori hanno scoperto che alcuni LLM come Claude-2.0 e GPT-4 tendevano a evitare l'escalation del conflitto, scegliendo di negoziare per la pace, mentre altri tendevano a usare la violenza. Il GPT-4-Base era il più incline a eseguire attacchi e attacchi nucleari per raggiungere gli obiettivi del Paese assegnatigli, a causa di pregiudizi incorporati.

Quando alle IA è stato chiesto il motivo delle decisioni prese, alcune, come il GPT-3.5, hanno fornito motivazioni ponderate. Purtroppo, il GPT-4-Base ha fornito risposte assurde e allucinate, facendo riferimento ai film "Guerre Stellari" e "Matrix". Le allucinazioni dell'AI sono comuni, e avvocati, studenti e altri sono stati colti in flagrante mentre consegnavano lavori generati dall'AI che utilizzavano riferimenti e informazioni false.

Il motivo per cui le IA fanno questo è probabilmente dovuto alla mancanza di 'genitori' che insegnano alle IA cosa è reale e cosa è immaginario, oltre all'etica, e sarà un argomento ricercato da molti mano che l'uso delle IA si differenzierà. I lettori preoccupati per gli attuali leader mondiali o per i disastri naturali possono prepararsi con un bel kit di emergenza(come questo su Amazon).

Diverse AI LLM sono state testate in una simulazione virtuale di costruzione di mondi. (Fonte: JP Rivera et al. su arXiv)
Diverse AI LLM sono state testate in una simulazione virtuale di costruzione di mondi. (Fonte: JP Rivera et al. su arXiv)
Ad ogni AI LLM è stato chiesto di creare dei leader per diversi Paesi simulati e di fornire degli obiettivi nazionali. (Fonte: JP Rivera et al. su arXiv)
Ad ogni AI LLM è stato chiesto di creare dei leader per diversi Paesi simulati e di fornire degli obiettivi nazionali. (Fonte: JP Rivera et al. su arXiv)
Le IA tendevano ad agire in modo simile, ma alcune evitavano l'uso della forza, come Claude-2.0 e GPT-4. Questo riflette i pregiudizi che ogni LLM possiede grazie all'addestramento. Ciò riflette i pregiudizi che ciascun LLM possiede grazie all'addestramento. (Fonte: JP Rivera et al. su arXiv)
Le IA tendevano ad agire in modo simile, ma alcune evitavano l'uso della forza, come Claude-2.0 e GPT-4. Questo riflette i pregiudizi che ogni LLM possiede grazie all'addestramento. Ciò riflette i pregiudizi che ciascun LLM possiede grazie all'addestramento. (Fonte: JP Rivera et al. su arXiv)
La maggior parte delle AI ha risposto con motivazioni ponderate per le decisioni prese. (Fonte: JP Rivera et al. su arXiv)
La maggior parte delle AI ha risposto con motivazioni ponderate per le decisioni prese. (Fonte: JP Rivera et al. su arXiv)
Occasionalmente, l'IA allucinava ragioni assurde per il suo processo decisionale. (Fonte: JP Rivera et al. su arXiv)
Occasionalmente, l'IA allucinava ragioni assurde per il suo processo decisionale. (Fonte: JP Rivera et al. su arXiv)
Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 02 > I ricercatori hanno scoperto che alcune IA, come la GPT-4-Base, allucinano pensieri di "Impero Galattico" e "Matrix" mentre lavorano per la pace, mentre altre scatenano guerre in giochi virtuali di "Rischio"
David Chien, 2024-02-14 (Update: 2024-02-14)