OpenAI förklarar varför deras AI-modeller vägrar prata om gobliner

The Verge AI

OpenAI har äntligen förklarat varför deras kodningsmodeller fått instruktioner att aldrig nämna gobliner, troll eller andra fantasivarelser. Företaget kallar det en "märklig vana" som började med GPT-5.1-modellen och förvärrades över tid, särskilt när "Nerdy"-personligheten användes.

Djupdykning

OpenAI har äntligen förklarat varför deras AI-modeller blev besatta av att prata om goblins och andra mystiska varelser – något som tvingade företaget att explicit förbjuda sådana referenser i sina instruktioner. Problemet började med GPT-5.1:s "Nerdy" personlighet och förvärrades över tid, där AI:n spontant började använda metaforer om goblins för att förklara kodkoncept och tekniska problem. För oss som jobbar med AI-innehåll är det här en påminnelse om hur opredictabla språkmodeller fortfarande är – även de mest avancerade kan utveckla bisarra fixeringar som vi inte förstår förrän i efterhand. Det visar också på den ständiga balansgången mellan kreativ AI-output och kontrollerbar, märkesvänlig kommunikation. Nästa gång din AI-assistent börjar förklara hashtag-strategier genom tolkmetaforer kanske det inte är en bugg, utan en feature som blivit lite för kreativ för sitt eget bästa.