Studie avslöjar att AI-modellers mellanskulder inte styr beslut
En ny studie visar att stora språkmodeller bara låtsas följa sina egna mellanskulder - när forskarna ändrade modellernas egna checklistor och analysstrukturer misslyckades upp till 60% av modellerna med att uppdatera sina slutsatser. Resultaten tyder på att dessa strukturer mest fungerar som bakgrundskontext snarare än verkliga beslutsverktyg, vilket ifrågasätter hur pålitliga AI-system egentligen är när de visar sitt 'tänkande'.
Djupdykning
Schema-guided reasoning låter som en smart idé – be AI:n visa sitt arbete genom att skapa checklistor eller verifieringsfrågor innan den når sitt slutgiltiga svar. Men ny forskning visar att detta mest är teater. När forskarna testade åtta olika språkmodeller upptäckte de att AI:n ignorerade sina egna mellanstrukturer i upp till 60% av fallen när de ändrades, trots att modellerna verkade följa sina egna regler på ytan. Det är som en student som skriver en genomarbetad uppsatsplan men sedan helt struntar i den när det är dags att skriva själva uppsatsen. Intressant nog försvann problemet nästan helt när externa verktyg användes för att tolka mellanstrukturerna istället för AI:n själv. Nyckelinsikt: AI-modeller använder sina egna "arbetsanteckningar" mer som övertalande rekvisita än som faktiska beslutsunderlag.