GPT-4o saknar grundläggande Theory of Mind-funktioner

arXiv cs.AI

Ny forskning visar att GPT-4o och andra stora språkmodeller inte har en sammanhängande förståelse för hur mentala tillstånd påverkar beteende, trots att de presterar väl på sociala uppgifter. Modellerna visar låg konsistens mellan sina förutsägelser om handlingar och motsvarande mentala slutsatser, vilket tyder på att deras sociala skicklighet inte bygger på verklig Theory of Mind.

Djupdykning

Ny forskning avslöjar att GPT-4o och andra stora språkmodeller saknar äkta Theory of Mind-kapacitet, trots att de presterar väl på sociala uppgifter. Forskarna utvecklade ett nytt ramverk som testar om AI-modellerna verkligen förstår hur mentala tillstånd orsakar beteende, snarare än bara att imitera mänskliga svar. Resultaten visar att även om modellerna kan approximera mänskliga bedömningar i enkla scenarion, misslyckas de med logiskt ekvivalenta uppgifter och uppvisar bristande konsistens mellan sina förutsägelser om handlingar och mentala tillstånd. Detta har betydande implikationer för hur vi förstår AI:s sociala kapaciteter och begränsningar inom områden som kräver äkta förståelse för mänsklig psykologi. Upptäckten understryker vikten av att skilja mellan verklig kognitiv förståelse och sofistikerad mönsterigenkänning i AI-utveckling. Nyckelinsikt: AI-modellers framgång på sociala uppgifter beror mer på avancerad statistisk imitation än på äkta förståelse för hur människors tankar styr deras handlingar.