Studie visar att stora språkmodeller inte agerar som rationella agenter

arXiv cs.AI

Forskare har testat om stora språkmodeller (LLMs) fattar beslut som rationella agenter med sammanhängande övertygelser, särskilt inom medicinsk diagnostik. Resultaten visar att modellernas rapporterade sannolikheter ofta inte kan motsvara verkliga övertygelser hos rationella agenter, vilket väcker frågor om deras användning i höginsatsbeslut.

Djupdykning

Forskare har undersökt om stora språkmodeller (LLMs) faktiskt agerar som rationella beslutsfattare när de ställs inför komplexa problem med osäkerhet, specifikt inom medicinsk diagnostik. Studien visar att LLMs ofta uppvisar inkonsekventa sannolikheter och beslut som inte överensstämmer med hur en rationell agent skulle agera enligt Bayesiansk beslutsteori. Detta är särskilt problematiskt eftersom LLMs i allt större utsträckning används för kritiska beslut inom sjukvård och andra högriskområden där felaktiga bedömningar kan få allvarliga konsekvenser. Resultaten tyder på att även om LLMs kan ge intrycket av att vara kompetenta beslutsfattare, saknar de den underliggande logiska konsistensen som krävs för tillförlitlig riskbedömning. Detta väcker viktiga frågor om hur vi bör använda och förlita oss på AI-system i situationer där mänskliga liv och välbefinnande står på spel. Nyckelinsikt: LLMs kan ge vilseledande intryck av rationalitet medan de i själva verket fattar inkonsekventa beslut som undergräver deras tillförlitlighet i kritiska tillämpningar.