Notebookcheck Logo

Anthropic anklagar Kinas DeepSeek för att plagiera Claude AI för att främja censur

Anthropic Claude AI:s kapacitet.
ⓘ Anthropic
Anthropic Claude AI:s kapacitet.
Kinesiska AI-laboratorier skördar svar från Claude och andra stora språkmodeller för att efterlikna deras prestanda för sina egna produkter utan skyddsåtgärder. Anthropic efterlyser en branschomfattande reaktion och har kontaktat berörda myndigheter.

I takt med att AI-modeller från kinesiska företag blir alltmer sofistikerade har Anthropic avslöjat en samlad insats från företag som DeepSeek att plagiera det inre arbetet i sin prisbelönta Claude LLM och skicka iväg det som sin egen innovation.

Anthropic är oroliga för att de resulterande AI-agenterna är befriade från de skyddsåtgärder mot skadlig användning som finns i Claude och att DeepSeeks öppna källkodsmetod kan placera kraftfulla AI-verktyg i händerna på både statliga och icke-statliga aktörer som har färre skrupler när det gäller deras användning.

DeepSeek, till exempel, som skakade om branschen med sin effektivitet att göra mer med mindre när det gäller AI-datorkraft, hade tagit bort Claude-koden från dess yttrandefrihetsgarantier och fått sin agent att kringgå ämnen som den kinesiska regeringens censurmaskin strävar efter att undvika.

Anthropic, som tillverkar några av de mest avancerade AI-verktygen där ute, hade just en sammanstötning med Pentagon angående användningen av Claude för militära ändamål. Pentagon insisterar på att Claude inte används för att styra obemannade vapensystem eller för övervakning av amerikanska medborgare, medan Pentagon vill ha mer frihet i hur man använder sin AI-agent utan sådana betungande skyddsräcken.

När DeepSeek och andra hämtar upp Claudes beslutsalgoritmer via ett stort distribuerat proxynätverk som serverar miljontals frågor via falska konton, eller den så kallade "destillationen", kan de resulterande agenterna användas av en statlig militär utan några sådana begränsningar.

Det är därför Anthropic slår larm om den praxis som spåras tillbaka till tre kinesiska AI-företag - DeepSeek, MiniMax och Moonshot - och introducerar sätt att mildra dem. I synnerhet när det gäller MiniMax är omfattningen av plagiering av AI-modeller hisnande. Anthropic upptäckte mer än 13 miljoner frågeutbyten med Claude som ofta resulterade i att MiniMax-modellen förbättrades i realtid medan Anthropic lanserade större Claude-uppdateringar.

Anthropic har nu skyddsåtgärder på plats för att upptäcka miljontals till synes oskyldiga frågor som används för destillation, som att fråga Claude hur det skulle gå med ett"mål att leverera datadrivna insikter - inte sammanfattningar eller visualiseringar - grundade i verkliga data och stöds av fullständig och transparent resonemang" och analysera resultaten för att förbättra kinesiska LLM.

Det varnar för att det inte kan bekämpa praxis ensam och försöker få andra branschjuggernauts som OpenAI eller Google ombord så att de kan påverka beslutsfattare att förbättra lagstiftningen om AI-exportkontroll med antidestillationsåtgärder snarare än bara förbud mot Nvidia Blackwell GPU: er och annan hårdvara.

Få NVD RTX PRO 6000 Blackwell Professional Edition AI GPU på Amazon

Källa(n)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2026 02 > Anthropic anklagar Kinas DeepSeek för att plagiera Claude AI för att främja censur
Daniel Zlatev, 2026-02-24 (Update: 2026-02-24)