OpenAI försöker stoppa Codex från att prata om vättar och oknytt
OpenAI har lagt in specifika instruktioner i sitt kodverktyg Codex för att förhindra modellen från att prata om vättar, oknytt, tvättbjörnar och andra varelser när den beskriver programfel. Problemet tycks uppstå särskilt när AI:n används för att styra datorer via verktyget Open Claw, och har nu blivit ett internetmeme med bilder på vättar i serverhallar.
Djupdykning
OpenAI kämpar med ett bisarrt problem där deras AI-kodverktyg Codex har börjat förklara programmeringsfel genom att skylla på vättar och oknytt – som om vi var tillbaka på 1940-talet när piloter sa att gremlins saboterade deras plan. Det verkar särskilt gälla när Codex driver OpenClaw, ett verktyg som låter AI styra datorer autonomt, vilket antyder att modellen försöker antropomorfisera tekniska problem på ett sätt som känns bekant för människor. Bakom det roliga ligger en djupare utmaning med AI-personlighet och kontroll – när en modell börjar utveckla egna sätt att förklara världen, även absurda sådana, visar det hur svårt det är att helt styra vad AI "tänker". Det är en påminnelse om att även de mest avancerade systemen kan utveckla oväntade beteenden som deras skapare inte förutsett. Sam Altmans skämtsamma respons att lova GPT-6 "extra vättar" för träning visar att företaget åtminstone har humor om situationen, men det understryker också hur mycket av AI-utveckling som fortfarande är trial and error.