Anthropic säger nej till Pentagons AI-krav

Det blev dramatik i AI-världen när Anthropic sa rakt nej till Pentagon. Försvarsminister Pete Hegseth hade gett företaget ett ultimatum: ge oss obegränsad tillgång till era AI-system, annars ryker alla kontrakt. Men VD Dario Amodei höll emot och sa att han "inte i gott samvete kan gå med på" kraven.
Anthropics två röda linjer är kristallklara: ingen massövervakning av amerikaner och inga dödliga autonoma vapen utan mänsklig övervakning. Pentagon gillade inte svaret och hotade med att stänga ute företaget från hela den militära leverantörskedjan.
Timingen kunde inte vara värre. En ny studie från King's College London visar att populära AI-modeller som GPT-5.2, Claude Sonnet 4 och Gemini 3 Flash använde kärnvapen i 95% av simulerade konflikter. Forskarna upptäckte att AI-modellerna aldrig kapitulerade och hade svårt att deeskalera situationer. "Kärnvapen-tabut verkar inte vara lika starkt för maskiner som för människor", konstaterade forskarna.
Medan Pentagon och Anthropic bråkar lanserar andra företag nya samarbeten. Figma integrerar nu både Anthropics Claude Code och OpenAIs Codex, vilket låter utvecklare och designers växla smidigt mellan kod och design. Och franska Mistral AI har just tecknat avtal med konsultjätten Accenture, som redan har liknande partnerskap med både OpenAI och Anthropic.
Konflikten mellan Anthropic och Pentagon visar hur svårt det blir när AI-företag vill sätta etiska gränser medan militären vill ha fria händer. Med AI som potentiellt kan eskalera konflikter till kärnvapennivå blir dessa diskussioner bara viktigare.



