Notebookcheck Logo

Anthropic accusa la cinese DeepSeek di plagiare l'IA di Claude per promuovere la censura

Le capacità dell'AI di Claude antropica.
ⓘ Anthropic
Le capacità dell'AI di Claude antropica.
I laboratori cinesi di AI stanno raccogliendo le risposte di Claude e di altri modelli linguistici di grandi dimensioni per imitarne le prestazioni per i propri prodotti, senza le dovute garanzie. Anthropic chiede una risposta a livello di settore e ha contattato le autorità competenti.

Mentre i modelli di AI delle aziende cinesi diventano sempre più sofisticati, Anthropic ha rivelato uno sforzo concertato da parte di aziende come DeepSeek per plagiare il funzionamento interno del suo pluripremiato Claude LLM e spacciarlo per una propria innovazione.

Anthropic teme che gli agenti di intelligenza artificiale risultanti siano privi delle protezioni contro l'uso malevolo insite in Claude e che l'approccio open-source di DeepSeek possa mettere potenti strumenti di intelligenza artificiale nelle mani di attori statali e non statali che hanno meno scrupoli sul loro utilizzo.

DeepSeek, per esempio, che ha scosso il settore con la sua efficienza di fare di più con meno in termini di potenza di calcolo dell'AI, ha privato il codice Claude delle sue garanzie di libertà di parola e ha fatto in modo che il suo agente aggirasse argomenti che la macchina della censura del governo cinese si sforza di evitare.

Anthropic, che realizza alcuni degli strumenti di AI più avanzati in circolazione, ha appena avuto uno scontro con il Pentagono in merito all'uso di Claude per scopi militari l'uso di Claude per scopi militari. L'azienda insiste sul fatto che Claude non viene utilizzato per controllare i sistemi di armi senza pilota o per la sorveglianza dei cittadini americani, mentre il Pentagono vuole avere più libertà nell'utilizzo del suo agente AI senza tali pesanti barriere.

Quando DeepSeek e altri acquisiscono gli algoritmi decisionali di Claude tramite una grande rete proxy distribuita che serve milioni di query attraverso account falsi, o la cosiddetta "distillazione", gli agenti risultanti possono essere utilizzati da un esercito statale senza tali restrizioni.

Ecco perché Anthropic sta lanciando l'allarme sulle pratiche che ha rintracciato in tre aziende cinesi di AI - DeepSeek, MiniMax e Moonshot - e sta introducendo dei modi per mitigarle. Nel caso di MiniMax, in particolare, la portata del plagio di modelli AI è mozzafiato. Anthropic ha rilevato più di 13 milioni di scambi di query con Claude, che spesso hanno portato a migliorare il modello MiniMax in tempo reale, mentre Anthropic stava lanciando i principali aggiornamenti di Claude.

Anthropic dispone ora di salvaguardie per rilevare milioni di query apparentemente innocue utilizzate per la distillazione, come chiedere a Claude come avrebbe raggiunto"l'obiettivo di fornire approfondimenti guidati dai dati - non sintesi o visualizzazioni - basati su dati reali e supportati da ragionamenti completi e trasparenti" e analizzare i risultati per migliorare gli LLM cinesi.

Avverte che non può combattere questa pratica da sola e sta cercando di coinvolgere altri giganti del settore come OpenAI o Google, in modo che possano influenzare i politici a migliorare la legislazione sul controllo delle esportazioni di IA con misure anti-distillazione, piuttosto che limitarsi a vietare le GPU Nvidia Blackwell e altri hardware.

Ottenere la GPU AI NVD RTX PRO 6000 Blackwell Professional Edition su Amazon

Fonte(i)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2026 02 > Anthropic accusa la cinese DeepSeek di plagiare l'IA di Claude per promuovere la censura
Daniel Zlatev, 2026-02-24 (Update: 2026-02-24)