OpenAI lanserar säkerhets-AI bara en månad efter Anthropics 'för farliga' verktyg

OpenAI släpper Daybreak, en AI som automatiskt hittar och lappar säkerhetsluckor i kod innan angripare hinner upptäcka dem. Verktyget använder Codex Security AI-agenten som lanserades i mars för att skapa hotmodeller baserat på organisationers kod, identifiera möjliga attackvägar och automatisera upptäckten av de mest riskfyllda sårbarheter.
Timingen är inte slumpmässig. Bara drygt en månad sedan meddelade Anthropic att de utvecklat Claude Mythos, en säkerhetsfokuserad AI-modell som företaget påstår är "för farlig" för offentlig distribution. Istället delar de den bara privat som del av ett eget initiativ.
Kontrasten är slående: OpenAI paketerar sin säkerhets-AI som en kommersiell produkt medan Anthropic gömmer sin bakom varningar om farlighet. Antingen har OpenAI byggt något betydligt mindre kraftfullt, eller så har de helt enkelt valt en annan marknadsföringsstrategi.
Daybreak riktar sig mot organisationer som vill automatisera sin sårbarhetsskanning. Det är ett crowdat område där traditionella verktyg som Veracode och Checkmarx redan kämpar om uppmärksamhet, men AI-driven automatisering av hotmodellering kan faktiskt vara värd att betala för om den levererar färre falska positiva resultat.
För utvecklingsteam som redan kör kontinuerlig integration kan Daybreak potentiellt bli ytterligare ett steg i pipeline:n. Frågan är om det kommer integrera smidigt med befintliga DevSecOps-verktyg eller om det kräver en helt ny arbetsprocess. OpenAI har inte delat prissättning än, men med tanke på deras track record kommer det troligen inte vara billigt.



