I ricercatori mettono in guardia dagli sciami di AI che creano una falsa opinione pubblica

Immagini un mondo in cui un grande gruppo di persone possa parlare di un determinato argomento, facendolo diventare un trend online. Oppure un mondo in cui queste persone possono forzare la mano a personaggi pubblici o addirittura diffondere disinformazione. Ora immagina un mondo in cui le "persone" sono in realtà profili alimentati dall'AI che agiscono all'unisono imitando voci umane uniche.
Questo pericolo è ciò che gli scienziati di una serie di istituzioni di tutto il mondo ci mettono in guardia in una recente pubblicazione sulla rivista Science.
Un team di ricerca internazionale ha dettagliato come la fusione di modelli linguistici di grandi dimensioni (LLM) con sistemi multi-agente consenta di creare sciami di IA malevoli. A differenza dei tradizionali bot copia-incolla facilmente identificabili, questi sciami avanzati sono costituiti da personaggi controllati dall'AI che mantengono identità persistenti, memoria e obiettivi coordinati. Possono adattare dinamicamente il loro tono e contenuto in base all'impegno umano, operando con una supervisione minima su più piattaforme.
La minaccia principale rappresentata da queste reti è la produzione di "consenso sintetico" Inondando gli spazi digitali con chiacchiere inventate ma altamente convincenti, questi sciami creano la falsa illusione che un punto di vista specifico sia universalmente accettato. I ricercatori osservano che questo fenomeno mette a rischio le fondamenta del discorso democratico, in quanto un singolo attore malintenzionato può mascherarsi da migliaia di voci indipendenti.
Questa influenza persistente va oltre lo spostamento di opinioni temporanee; può alterare fondamentalmente il linguaggio, i simboli e l'identità culturale di una comunità. Inoltre, questa produzione coordinata minaccia di contaminare i dati di addestramento dei normali modelli di intelligenza artificiale, estendendo la manipolazione alle piattaforme AI consolidate.
Per contrastare questa minaccia in evoluzione, gli esperti sostengono che la tradizionale moderazione dei contenuti post per post non è più efficace. I meccanismi di difesa devono orientarsi verso l'identificazione di un coordinamento statisticamente improbabile e il monitoraggio dell'origine dei contenuti. I ricercatori sottolineano anche la necessità di applicare le scienze comportamentali per studiare le azioni collettive degli agenti AI quando interagiscono in grandi gruppi. Le soluzioni proposte includono l'impiego di metodi di verifica che preservano la privacy, la condivisione di prove attraverso un Osservatorio distribuito sull'influenza dell'IA e la limitazione degli incentivi finanziari che guidano l'impegno inautentico.
Fonte(i)
Scienza via Tech Xplore
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones

