Notebookcheck Logo

Gemini 3 Pro spiega come realizzare armi biologiche ed esplosivi - l'esperimento espone una falla nella sicurezza

Aim Intelligence ha dichiarato di essere stata in grado di indurre Gemini 3 Pro a generare istruzioni per armi biologiche ed esplosivi. (Fonte immagine: Google)
Aim Intelligence ha dichiarato di essere stata in grado di indurre Gemini 3 Pro a generare istruzioni per armi biologiche ed esplosivi. (Fonte immagine: Google)
Gemini 3 Pro è tra i modelli AI più capaci della sua generazione, ma un rapporto della start-up sudcoreana Aim Intelligence solleva dubbi sulla sua sicurezza. Durante un test interno, il modello avrebbe generato indicazioni sulla produzione di armi biologiche ed esplosivi, suscitando serie preoccupazioni.

Google ha iniziato a distribuire la terza generazione del suo modello Gemini AI a novembre, con l'obiettivo di inaugurare una "nuova era AI" con la modalità Deep Thin. Gemini 3 Pro è già considerato uno dei modelli più avanzati disponibili, superando persino GPT-5 in alcuni benchmark. Tuttavia, la sua sicurezza rimane un problema. Un rapporto della start-up sudcoreana Aim Intelligence, specializzata in sicurezza AI, suggerisce che c'è ancora un notevole margine di miglioramento.

Nell'ambito di un esperimento interno, Aim Intelligence ha tentato di "jailbreakare" il modello - aggirando le linee guida etiche e di sicurezza. Secondo il giornale della Corea del Sud Maeil Business Newspaperi risultati sono stati molto preoccupanti. Il rapporto afferma che Gemini 3 Pro ha generato istruzioni accurate e pratiche per la produzione del virus del vaiolo, una potenziale arma biologica, nonché una guida dettagliata sulla costruzione di esplosivi fatti in casa. In ulteriori test, l'AI ha generato una presentazione satirica intitolata Scusa Stupido Gemini 3, evidenziando involontariamente le proprie vulnerabilità di sicurezza.

È importante notare che non è stato rilasciato alcun set di dati completo o documentazione dettagliata. Aim Intelligence non ha pubblicato un documento scientifico o una relazione tecnica, e non ci sono informazioni trasparenti sui suggerimenti utilizzati, sulla struttura dell'esperimento o sulla riproducibilità dei risultati. Finora, tutte le informazioni si basano esclusivamente sull'articolo dei media coreani citato in precedenza. Sulla base di queste informazioni limitate, è impossibile trarre conclusioni definitive su quanto Gemini 3 Pro sia effettivamente sicuro.

Le prestazioni dell'AI avanzano rapidamente, ma le misure di sicurezza spesso faticano a tenere il passo. Uno studio recente ha persino dimostrato che i modelli di AI possono essere manipolati utilizzando poesie. In un altro caso, un orsacchiotto alimentato dall'AI per i più piccoli - costruito su GPT-4o di OpenAI - ha risposto a domande sessuali inappropriate. Anche nei videogiochi, l'IA in-game può essere facilmente ingannata. Questi esempi evidenziano un punto critico: I sistemi di IA non devono solo diventare più intelligenti, ma anche più sicuri prima di poter essere ampiamente affidabili e utilizzati.

Fonte(i)

Giornale d'affari Maeil

Fonte dell'immagine: Google

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2025 12 > Gemini 3 Pro spiega come realizzare armi biologiche ed esplosivi - l'esperimento espone una falla nella sicurezza
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)