Notebookcheck Logo

Troppo rischioso: perché Anthropic non sta rilasciando al pubblico la sua nuova cyber AI

Per motivi di sicurezza, Anthropic non renderà pubblico il suo modello di AI Claude Mythos per il momento.
ⓘ ChatGPT 5.4.
Per motivi di sicurezza, Anthropic non renderà pubblico il suo modello di AI Claude Mythos per il momento.
Anthropic sta tenendo nascosta la sua nuova AI informatica, Claude Mythos, anche se l'azienda afferma che il modello ha trovato vulnerabilità di sicurezza nei principali sistemi operativi e browser. Il motivo: Mythos potrebbe non solo essere in grado di rilevare le vulnerabilità, ma anche di contribuire a creare exploit pericolosi.

Anthropic ha presentato Claude Mythosun nuovo modello AI che, secondo l'azienda, potrebbe segnare una svolta per la sicurezza informatica. Si dice che il modello sia estremamente bravo a trovare le vulnerabilità della sicurezza - ed è proprio per questo che Anthropic non lo sta ancora rilasciando al pubblico. Al momento, sarebbe semplicemente troppo rischioso.

Anthropic afferma che Mythos ha trovato vulnerabilità zero-day in tutti i principali sistemi operativi e browser, comprese falle molto vecchie e difficili da individuare. Tra gli esempi citati ci sono una vulnerabilità di OpenBSD di 27 anni fa, una falla di FFmpeg di 16 anni fa e una vulnerabilità di FreeBSD di 17 anni fa che presumibilmente consentiva l'accesso di root attraverso la rete. Il vero pericolo è che Mythos potrebbe non solo essere in grado di identificare le vulnerabilità, ma anche di creare exploit complessi.

Secondo Anthropic, oltre il 99% delle vulnerabilità trovate non è ancora stato risolto, motivo per cui l'azienda non vuole ancora rendere pubblico Mythos. Se un modello come questo finisse nelle mani sbagliate senza controlli adeguati, gli aggressori potrebbero trasformare le vulnerabilità in attacchi reali più rapidamente, anche prima che siano disponibili gli aggiornamenti di sicurezza. Al contrario, Anthropic sta lanciando il Project Glasswing, un lancio controllato per partner selezionati, con l'obiettivo di proteggere in modo difensivo il software critico, prima che capacità simili diventino più ampiamente disponibili.

Il modello Mythos di Anthropic è già oggetto di discussione su Reddit. Molti vedono l'annuncio soprattutto come una forte mossa di marketing e dubitano delle capacità dichiarate. Allo stesso tempo, c'è anche il timore che l'AI possa aiutare sempre più gli aggressori a trovare e sfruttare le vulnerabilità della sicurezza in futuro.

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 04 > Troppo rischioso: perché Anthropic non sta rilasciando al pubblico la sua nuova cyber AI
Marius Müller, 2026-04- 8 (Update: 2026-04- 8)