Anthropic läckte 500 000 rader Claude-kod och försökte sedan radera internet

En paketering som gick fel ledde till att Anthropic exponerade halva miljonen rader kod från Claude Code, komplett med referenser till funktioner som aldrig meddelats officiellt. I den läckta koden finns spår av "Proactive mode" för kodning dygnet runt och något som kallas "Dream" för bakgrundsproblemlösning.
Vad som började som en klassisk "oops, vi inkluderade fel saker i builden" eskalerade snabbt när Anthropic försökte stoppa spridningen. Företaget bombarderade GitHub med takedown-meddelanden och träffade tusentals repositories som inte hade något med läckan att göra. Tänk dig att försöka hitta en specifik droppe i havet genom att dränka hela kusten.
Det intressanta här är inte bara vad som läckte, utan vad läckan avslöjar om Anthropics interna prioriteringar. "Proactive mode" låter som kontinuerlig kodgenerering — exakt den typ av "always-on AI" som skulle förändra hur utvecklare arbetar. Om du bygger dev tools just nu borde du fundera på om ditt verktyg är designat för sporadisk användning eller för en framtid där AI:n aldrig går av.
Anthropics panikreaktion med överbreda takedowns visar också hur nervösa AI-företagen är för att visa sina kort. När Meta läckte LLaMA-vikter blev det faktiskt bra för ekosystemet. Men när du är Anthropic och konkurrerar direkt med OpenAI om enterprise-kunder är varje teknisk detalj värd att skydda.
Förmodligen får vi snart se officiella meddelanden om dessa "hemliga" lägen. När källkoden redan cirkulerar är det svårt att hålla funktionerna hemliga mycket längre.



