Anthropic stämmer Pentagon – får stöd från OpenAI och Google

Det här är en av de märkligaste AI-striderna vi sett på länge. Anthropic, företaget bakom Claude AI, har stämt Pentagon efter att Trump-administrationen klassificerat dem som en "leverantörskedjerisk" – samma typ av beteckning som vanligtvis används för utländska företag som anses vara säkerhetsrisker.
Vad som gjorde situationen extra bisarr är att nästan 40 anställda från konkurrenterna OpenAI och Google – inklusive Googles chefsforskarе Jeff Dean – lämnade in ett juridiskt stöddokument för Anthropics stämning bara timmar efter att den lämnades in.
Konflikten började när Anthropic satte upp "röda linjer" för hur deras AI får användas militärt. De sa nej till massövervakning av amerikanska medborgare och helt autonoma vapen – alltså vapen som kan döda utan mänsklig kontroll. Pentagon gillade tydligen inte dessa begränsningar.
Anthropics argument är enkelt: de påstår att regeringen straffar dem olagligt för att ha en viss åsikt om AI-säkerhet. Det är lite som om regeringen skulle svartlista ett företag för att de vägrar bygga atomvapen åt dem.
Att konkurrerande företag hoppar in och stöttar Anthropic visar hur allvarligt AI-branschen tar det här. När OpenAI och Google – som själva konkurrerar om samma militära kontrakt – ställer sig bakom Anthropic, säger det något om var de tycker gränserna bör gå.
Det hela speglar en större diskussion: hur långt ska AI-företag gå för att tillfredsställa militära kunder? Och vad händer när privata företag säger nej till vissa användningsområden som regeringen vill ha?


