Google ha iniziato a distribuire la terza generazione del suo modello Gemini AI a novembre, con l'obiettivo di inaugurare una "nuova era AI" con la modalità Deep Thin. Gemini 3 Pro è già considerato uno dei modelli più avanzati disponibili, superando persino GPT-5 in alcuni benchmark. Tuttavia, la sua sicurezza rimane un problema. Un rapporto della start-up sudcoreana Aim Intelligence, specializzata in sicurezza AI, suggerisce che c'è ancora un notevole margine di miglioramento.
Nell'ambito di un esperimento interno, Aim Intelligence ha tentato di "jailbreakare" il modello - aggirando le linee guida etiche e di sicurezza. Secondo il giornale della Corea del Sud Maeil Business Newspaperi risultati sono stati molto preoccupanti. Il rapporto afferma che Gemini 3 Pro ha generato istruzioni accurate e pratiche per la produzione del virus del vaiolo, una potenziale arma biologica, nonché una guida dettagliata sulla costruzione di esplosivi fatti in casa. In ulteriori test, l'AI ha generato una presentazione satirica intitolata Scusa Stupido Gemini 3, evidenziando involontariamente le proprie vulnerabilità di sicurezza.
È importante notare che non è stato rilasciato alcun set di dati completo o documentazione dettagliata. Aim Intelligence non ha pubblicato un documento scientifico o una relazione tecnica, e non ci sono informazioni trasparenti sui suggerimenti utilizzati, sulla struttura dell'esperimento o sulla riproducibilità dei risultati. Finora, tutte le informazioni si basano esclusivamente sull'articolo dei media coreani citato in precedenza. Sulla base di queste informazioni limitate, è impossibile trarre conclusioni definitive su quanto Gemini 3 Pro sia effettivamente sicuro.
Le prestazioni dell'AI avanzano rapidamente, ma le misure di sicurezza spesso faticano a tenere il passo. Uno studio recente ha persino dimostrato che i modelli di AI possono essere manipolati utilizzando poesie. In un altro caso, un orsacchiotto alimentato dall'AI per i più piccoli - costruito su GPT-4o di OpenAI - ha risposto a domande sessuali inappropriate. Anche nei videogiochi, l'IA in-game può essere facilmente ingannata. Questi esempi evidenziano un punto critico: I sistemi di IA non devono solo diventare più intelligenti, ma anche più sicuri prima di poter essere ampiamente affidabili e utilizzati.
Fonte(i)
Fonte dell'immagine: Google
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones








