Notebookcheck Logo

I ricercatori mettono in guardia dagli sciami di AI che creano una falsa opinione pubblica

Un'immagine decorativa che mostra un chip con l'acronimo
ⓘ Igor Omilaev via Unsplash
Un'immagine decorativa che mostra un chip con l'acronimo "AI"
Un team internazionale di ricercatori ha lanciato un avvertimento sui pericoli degli sciami di AI per quanto riguarda la produzione di falso consenso pubblico, notando che potrebbe essere già accaduto.

Immagini un mondo in cui un grande gruppo di persone possa parlare di un determinato argomento, facendolo diventare un trend online. Oppure un mondo in cui queste persone possono forzare la mano a personaggi pubblici o addirittura diffondere disinformazione. Ora immagina un mondo in cui le "persone" sono in realtà profili alimentati dall'AI che agiscono all'unisono imitando voci umane uniche.

Questo pericolo è ciò che gli scienziati di una serie di istituzioni di tutto il mondo ci mettono in guardia in una recente pubblicazione sulla rivista Science.

Un team di ricerca internazionale ha dettagliato come la fusione di modelli linguistici di grandi dimensioni (LLM) con sistemi multi-agente consenta di creare sciami di IA malevoli. A differenza dei tradizionali bot copia-incolla facilmente identificabili, questi sciami avanzati sono costituiti da personaggi controllati dall'AI che mantengono identità persistenti, memoria e obiettivi coordinati. Possono adattare dinamicamente il loro tono e contenuto in base all'impegno umano, operando con una supervisione minima su più piattaforme.

La minaccia principale rappresentata da queste reti è la produzione di "consenso sintetico" Inondando gli spazi digitali con chiacchiere inventate ma altamente convincenti, questi sciami creano la falsa illusione che un punto di vista specifico sia universalmente accettato. I ricercatori osservano che questo fenomeno mette a rischio le fondamenta del discorso democratico, in quanto un singolo attore malintenzionato può mascherarsi da migliaia di voci indipendenti.

Questa influenza persistente va oltre lo spostamento di opinioni temporanee; può alterare fondamentalmente il linguaggio, i simboli e l'identità culturale di una comunità. Inoltre, questa produzione coordinata minaccia di contaminare i dati di addestramento dei normali modelli di intelligenza artificiale, estendendo la manipolazione alle piattaforme AI consolidate.

Per contrastare questa minaccia in evoluzione, gli esperti sostengono che la tradizionale moderazione dei contenuti post per post non è più efficace. I meccanismi di difesa devono orientarsi verso l'identificazione di un coordinamento statisticamente improbabile e il monitoraggio dell'origine dei contenuti. I ricercatori sottolineano anche la necessità di applicare le scienze comportamentali per studiare le azioni collettive degli agenti AI quando interagiscono in grandi gruppi. Le soluzioni proposte includono l'impiego di metodi di verifica che preservano la privacy, la condivisione di prove attraverso un Osservatorio distribuito sull'influenza dell'IA e la limitazione degli incentivi finanziari che guidano l'impegno inautentico.

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 02 > I ricercatori mettono in guardia dagli sciami di AI che creano una falsa opinione pubblica
Chibuike Okpara, 2026-02-16 (Update: 2026-02-16)