Notebookcheck Logo

Anthropic avvisar Pentagons förslag om att öppna Claude AI för obemannade vapensystem eller massövervakning

Textron Aerosonde Mk. 4.7 UAS-drönare.
ⓘ Textron Systems
Textron Aerosonde Mk. 4.7 UAS-drönare.
Anthropic kommer sannolikt att förbli det ledande AI-företaget när det gäller säkerhet och socialt ansvar för sina modeller. Trots alla potentiella återverkningar har företaget tackat nej till Pentagons begäran om att ta bort de skyddsmekanismer mot militär användning och övervakning som finns i dess AI-agent Claude.

AI-jungfrun Anthropic kommer att låta Pentagons deadline den 27 februari passera för att ta bort alla skyddsåtgärder för militär användning av Claude-modellen.

Enligt Anthropics VD Dario Amodei kan AI-företaget inte öppna Claude för att köra obemannade vapensystem eller för massövervakning av amerikanska medborgare med "gott samvete" eftersom det varken är bevisligen säkert eller tillförlitligt nog för att passa ändamålet.

Anthropics Claude är samtidigt en av de ledande AI-agenterna på marknaden och den mest säkerhetsorienterade, med inbyggda skyddsräcken mot skadlig användning av dess AI-verktyg. USA:s krigsdepartement (DoW) kräver dock chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF att de AI-modeller som köps in ska vara fria från alla andra begränsningar än sina egna skumma "lagliga användningsområden":

Mångfald, rättvisa och inkludering och social ideologi hör inte hemma i DoW, så vi får inte använda AI-modeller som innehåller ideologisk "tuning" som stör deras förmåga att ge objektivt sanningsenliga svar på användarens uppmaningar

Avdelningen måste också använda modeller som är fria från användningspolicybegränsningar som kan begränsa lagliga militära tillämpningar. Därför uppmanar jag CDAO att fastställa riktmärken för modellobjektivitet som ett primärt upphandlingskriterium inom 90 dagar, och jag uppmanar Under Secretary of War for Acquisition and Sustainment att införliva standardspråket "all laglig användning" i alla DoW-kontrakt genom vilka AI-tjänster upphandlas inom 180 dagar.

Pentagon har nu hotat Anthropic med allvarliga återverkningar som går utöver en påverkan på företagets balansräkning. Förutom att äventyra det nuvarande takkontraktet på 200 miljoner dollar för att tillhandahålla AI-verktyg till Pentagon, riskerar Anthropic att betecknas som en risk i leveranskedjan eller uppmanas att ta bort Claudes hinder för militär användning enligt den lag från 1950-talet som utformades för att tvinga amerikanska företag att följa under Koreakriget av nationella säkerhetsskäl.

Riskbeteckningen för leveranskedjan är vanligtvis reserverad för företag med potentiella kopplingar till skadliga statliga aktörer som Kinas Huawei eller Rysslands Kaspersky, så att placera Anthropic på den listan kan ge ett betydande slag mot dess intjäningspotential. Trots risken att bli en AI-paria för den nuvarande Vita huset-administrationen insisterar Amodei på att nuvarande"AI-system i gränsområdet helt enkelt inte är tillräckligt tillförlitliga för att driva helt autonoma vapen", medan "attanvända dessa system för massövervakning av hushåll är oförenligt med demokratiska värderingar"

Anthropics Claude var den modell som användes när regeringen först ville använda AI-verktyg för att gå igenom sekretessbelagd information och var till hjälp när man planerade den räd som grep Venezuelas starke man Maduro, så Dario Amodei sa att han hoppas att Pentagon omprövar sin inställning till de två scenarier med röda linjer som man kommer att fortsätta att begränsa i sina AI-modeller.

Källa(n)

Please share our article, every link counts!
Mail Logo
> Bärbara datorer, laptops - tester och nyheter > Nyheter > Nyhetsarkiv > Nyhetsarkiv 2026 02 > Anthropic avvisar Pentagons förslag om att öppna Claude AI för obemannade vapensystem eller massövervakning
Daniel Zlatev, 2026-02-27 (Update: 2026-02-27)