Forskare testar om grafiska "tankekartor" gör AI-modeller smartare i samarbete
Nya experiment med över 3000 tester visar att så kallade "belief graphs" (grafiska representationer av vad AI:n tror att andra vet) bara hjälper språkmodeller när de används för att styra beslut, inte bara som bakgrundsinformation. Intressant fynd: Gemini-modeller följer nästan alltid rekommendationer medan Llama 70B trotsigt ignorerar 90% av de korrekta råden den får.
Djupdykning
Forskarna här gör något smart: istället för att bara mata AI:er med grafer över vad andra spelare tror (som mest blir fancy dekoration), tvingar de AI:erna att faktiskt använda graferna för att fatta beslut. Det visar sig att det spelar roll *hur* du integrerar information – att bara berätta för en AI om andras tankar är ungefär som att ge råd till en tonåring, men att bygga in det i beslutsprocessen gör skillnad även för de starkaste modellerna. Det mest fascinerande är "Planner Defiance" – när AI:er aktivt ignorerar korrekta rekommendationer trots att de vet att de är rätt, vilket varierar drastiskt mellan olika modeller (Gemini lyssnar, Llama 70B trotsar 90% av tiden). Det antyder att olika AI-familjer har fundamentalt olika förhållningssätt till auktoritet och tillit, nästan som personlighetsskillnader. Paradoxalt nog visar resultaten att djupare förståelse för andras mentala tillstånd kan skada prestationen i större grupper – kanske för att överanalys leder till handlingsförlamning när komplexiteten ökar.