OpenAI lanserar GPT-5.5-Cyber för säkerhetsforskare
OpenAI rullar ut GPT-5.5-Cyber till godkända säkerhetsforskare via programmet Trusted Access for Cyber, en månad efter att föregångaren GPT-5.4-Cyber lanserades. Den nya modellen har färre inbyggda skyddsvallar än vanliga GPT-5.5 för att enklare kunna identifiera sårbarheter i operativsystem och mjukvara, och konkurrerar direkt med Anthropics Claude Mythos.
Djupdykning
OpenAI går här all-in på en riskabel balansgång genom att medvetet försvaga sina AI-modellers säkerhetsbarriärer för cybersäkerhetsforskare. GPT-5.5-Cyber är designad med färre skyddsmekanismer än vanliga modeller, vilket gör den bättre på att hitta sårbarheter men också potentiellt farligare i fel händer. Programmet "Trusted Access for Cyber" fungerar som en grindvakt, men historien visar att även de mest selektiva säkerhetsprogrammen kan läcka - se bara vad som hände med NSA:s hackerverktyg som slutade hos cyberkriminella. Det mest fascinerande är hur AI-branschen nu aktivt bygger "osäkra" versioner av sina kraftfullaste modeller, vilket påminner om hur läkemedelsbolag måste skapa både mediciner och motgifter samtidigt.