Anthropic stämmer Pentagon efter att ha märkts som säkerhetsrisk
AI-företaget Anthropic (som gör Claude) har stämt den amerikanska regeringen efter att Pentagon klassificerat dem som en leverantörskedjerisk. Företaget hävdar att regeringen kränkt deras grundlagsenliga rättigheter och försöker "förstöra det ekonomiska värdet" i ett av världens snabbast växande privata företag.
Djupdykning
Anthropic hamnar just nu i en riktigt ful juridisk konflikt med Pentagon, som klassificerat AI-företaget som en "leverantörskedjerisk" – en beteckning som Anthropic nu stämmer mot och menar kränker deras grundlagsrättigheter. Det som gör den här dispyten extra intressant är att den handlar om mycket mer än bara affärskontrakt; den blottlägger den amerikanska regeringens långa historia av att töja övervakningslagar på kreativa sätt som vanliga människor aldrig skulle tolka dem. För oss som jobbar med sociala medier är det här avgörande att förstå, eftersom AI-verktyg som Claude och ChatGPT snart kommer att användas för storskalig innehållsövervakning och moderering – och regeringar världen över tittar noga på hur den här tekniken kan användas för att spåra vad vi säger och gör online. Mike Masnick från Techdirt, som följt dessa frågor i årtionden, förklarar varför vi inte kan lita på att myndigheter följer sina egna regler när det kommer till övervakning, särskilt inte när AI gör det möjligt att skala upp på sätt vi aldrig sett förut. Nyckelinsikt: När AI-företag börjar säga nej till regeringskontrakt av integritetsskäl, är det dags för alla som jobbar med digital kommunikation att vakna upp och förstå hur övervakningstekniken utvecklas.