Forskare upptäcker begränsningar i visuella AI-modellers tankeprocesser
arXiv cs.AI
Nya studier av Qwen3-VL-8B visar att så kallade sparse autoencoders (SAE) - verktyg som ska göra AI-modellers beslutsprocess mer förståelig - inte fungerar modulärt som forskare trott. När forskarna försökte kombinera olika funktioner för att styra modellens resonemang så försämrades noggrannheten märkbart, vilket tyder på att AI-modellernas interna vägar är mer sammankopplade än väntat.