Anthropic avvisar Pentagons förslag om att öppna Claude AI för obemannade vapensystem eller massövervakning

AI-jungfrun Anthropic kommer att låta Pentagons deadline den 27 februari passera för att ta bort alla skyddsåtgärder för militär användning av Claude-modellen.
Enligt Anthropics VD Dario Amodei kan AI-företaget inte öppna Claude för att köra obemannade vapensystem eller för massövervakning av amerikanska medborgare med "gott samvete" eftersom det varken är bevisligen säkert eller tillförlitligt nog för att passa ändamålet.
Anthropics Claude är samtidigt en av de ledande AI-agenterna på marknaden och den mest säkerhetsorienterade, med inbyggda skyddsräcken mot skadlig användning av dess AI-verktyg. USA:s krigsdepartement (DoW) kräver dock chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF att de AI-modeller som köps in ska vara fria från alla andra begränsningar än sina egna skumma "lagliga användningsområden":
Mångfald, rättvisa och inkludering och social ideologi hör inte hemma i DoW, så vi får inte använda AI-modeller som innehåller ideologisk "tuning" som stör deras förmåga att ge objektivt sanningsenliga svar på användarens uppmaningar
Avdelningen måste också använda modeller som är fria från användningspolicybegränsningar som kan begränsa lagliga militära tillämpningar. Därför uppmanar jag CDAO att fastställa riktmärken för modellobjektivitet som ett primärt upphandlingskriterium inom 90 dagar, och jag uppmanar Under Secretary of War for Acquisition and Sustainment att införliva standardspråket "all laglig användning" i alla DoW-kontrakt genom vilka AI-tjänster upphandlas inom 180 dagar.
Pentagon har nu hotat Anthropic med allvarliga återverkningar som går utöver en påverkan på företagets balansräkning. Förutom att äventyra det nuvarande takkontraktet på 200 miljoner dollar för att tillhandahålla AI-verktyg till Pentagon, riskerar Anthropic att betecknas som en risk i leveranskedjan eller uppmanas att ta bort Claudes hinder för militär användning enligt den lag från 1950-talet som utformades för att tvinga amerikanska företag att följa under Koreakriget av nationella säkerhetsskäl.
Riskbeteckningen för leveranskedjan är vanligtvis reserverad för företag med potentiella kopplingar till skadliga statliga aktörer som Kinas Huawei eller Rysslands Kaspersky, så att placera Anthropic på den listan kan ge ett betydande slag mot dess intjäningspotential. Trots risken att bli en AI-paria för den nuvarande Vita huset-administrationen insisterar Amodei på att nuvarande"AI-system i gränsområdet helt enkelt inte är tillräckligt tillförlitliga för att driva helt autonoma vapen", medan "attanvända dessa system för massövervakning av hushåll är oförenligt med demokratiska värderingar"
Anthropics Claude var den modell som användes när regeringen först ville använda AI-verktyg för att gå igenom sekretessbelagd information och var till hjälp när man planerade den räd som grep Venezuelas starke man Maduro, så Dario Amodei sa att han hoppas att Pentagon omprövar sin inställning till de två scenarier med röda linjer som man kommer att fortsätta att begränsa i sina AI-modeller.
Källa(n)
Topp 10...
» Topp 10: Bästa bärbara allround/multimediadatorerna
» Topp 10: Bästa bärbara speldatorerna
» Topp 10: Bärbara budget/kontorsdatorer
» Topp 10: Bästa bärbara kontors/premiumdatorerna
» Topp 10: Bärbara arbetsstationer
» Topp 10: De bästa små/kompakta bärbara datorerna
» Topp 10: Bästa ultrabooks
» Topp 10: Bästa hybriddatorerna
» Topp 10: Bästa surfplattorna
» Topp 10: Marknadens bästa smartphones










