Notebookcheck Logo

Anthropic snobba la spinta del Pentagono ad aprire Claude AI per i sistemi di armi senza pilota o per l'uso della sorveglianza di massa

Il drone Textron Aerosonde Mk. 4.7 UAS.
ⓘ Textron Systems
Il drone Textron Aerosonde Mk. 4.7 UAS.
Anthropic rimarrà probabilmente l'azienda leader nel settore dell'AI per quanto riguarda la sicurezza e la responsabilità sociale dei suoi modelli. Nonostante tutte le potenziali ripercussioni, ha rifiutato la richiesta del Pentagono di rimuovere le protezioni contro l'uso militare e la sorveglianza inerenti al suo agente AI Claude.

Il gigante dell'AI Anthropic lascerà passare la scadenza del 27 febbraio fissata dal Pentagono per privare il suo modello Claude di tutte le garanzie per l'uso militare.

Secondo il CEO di Anthropic, Dario Amodei, l'azienda di AI non può aprire Claude per gestire sistemi di armi senza equipaggio o per la sorveglianza di massa dei cittadini statunitensi in "buona coscienza", perché non è né dimostrabile che sia sicuro né abbastanza affidabile per adattarsi allo scopo.

Claude di Anthropic è allo stesso tempo uno dei principali agenti AI in circolazione e il più orientato alla sicurezza, con protezioni integrate contro l'uso malevolo dei suoi strumenti AI. Il Dipartimento della Guerra degli Stati Uniti (DoW), tuttavia, richiede che i modelli di IA che acquista siano sviluppati che i modelli di IA che acquista siano privi di qualsiasi restrizione, se non le sue torbide restrizioni di "uso lecito":

Diversità, Equità e Inclusione e l'ideologia sociale non hanno posto nel DoW, quindi non dobbiamo impiegare modelli di AI che incorporino una "messa a punto" ideologica che interferisca con la loro capacità di fornire risposte oggettivamente veritiere alle richieste degli utenti

Il Dipartimento deve anche utilizzare modelli liberi da vincoli di politica d'uso che possano limitare le applicazioni militari lecite. Pertanto, ordino al CDAO di stabilire dei parametri di riferimento per l'obiettività dei modelli come criterio primario di approvvigionamento entro 90 giorni, e ordino al Sottosegretario alla Guerra per l'Acquisizione e il Mantenimento di incorporare il linguaggio standard "qualsiasi uso lecito" in qualsiasi contratto del Dipartimento della Difesa che preveda l'acquisto di servizi di IA entro 180 giorni.

Il Pentagono ha ora minacciato Anthropic con ripercussioni terribili che vanno oltre l'impatto sul suo bilancio. Oltre a mettere a rischio l'attuale contratto da 200 milioni di dollari per la fornitura di strumenti di IA al Pentagono, Anthropic rischia di essere designata come un rischio per la catena di fornitura o di essere invitata a rimuovere le barriere di Claude per l'uso militare, in base alla legge degli anni '50 progettata per costringere le aziende americane a rispettare la legge durante la Guerra di Corea per motivi di sicurezza nazionale.

La designazione di rischio della catena di fornitura è tipicamente riservata alle aziende con potenziali connessioni con attori statali maligni come la cinese Huawei o la russa Kaspersky, per cui l'inserimento di Anthropic in questa lista potrebbe assestare un colpo significativo al suo potenziale di guadagno. Nonostante il rischio di diventare un paria dell'AI per l'attuale amministrazione della Casa Bianca, Amodei insiste che gli attuali"sistemi di AI di frontiera non sono semplicemente abbastanza affidabili per alimentare armi completamente autonome", mentre"l'uso di questi sistemi per la sorveglianza domestica di massa è incompatibile con i valori democratici"

Claude di Anthropic è stato il modello di riferimento quando il Governo ha voluto utilizzare per la prima volta gli strumenti di IA per setacciare le informazioni riservate ed è stato di aiuto nella pianificazione del raid che ha catturato il presidente venezuelano Maduro, quindi Dario Amodei ha detto di sperare che il Pentagono riconsideri la sua posizione sui due scenari da linea rossa che continuerà a limitare nei suoi modelli di IA.

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 02 > Anthropic snobba la spinta del Pentagono ad aprire Claude AI per i sistemi di armi senza pilota o per l'uso della sorveglianza di massa
Daniel Zlatev, 2026-02-27 (Update: 2026-02-27)