Forskare löser problem med AI-agenters minnesförlust i långa samtal

arXiv cs.AI

Forskare har identifierat ett problem som kallas "Attention Latch" där AI-agenter fastnar i gamla instruktioner och ignorerar nya kommandon under långa konversationer. De utvecklade en lösning som separerar planering från utförande och lyckades öka framgångsfrekvensen från 0,1% till 71,5% i komplexa uppgifter. Metoden testades på stora språkmodeller som GPT och Claude med statistiskt signifikanta förbättringar.

Djupdykning

Den här forskningen träffar något grundläggande fel i hur AI-agenter fungerar i längre konversationer - de fastnar i gamla instruktioner även när de får helt nya direktiv. Forskarna kallar det "Attention Latch", vilket i grund och botten betyder att AI:n blir så fokuserad på tidigare context att den ignorerar nyare, viktigare information. Det är som att ha en kollega som fortsätter jobba på förra veckans prioriteringar trots att allt har ändrats. Lösningen de föreslår - att dela upp AI:ns "hjärna" i en arkitekt som planerar och en exekutör som genomför - låter teoretiskt vettig, men resultaten är nästan för bra för att vara sanna med 715 gångers förbättring. Det som är mest intressant är deras upptäckt av "Grounding Paradox" - att de mest stabila AI-modellerna faktiskt presterar sämre eftersom de vägrar att "hallucinera" när de behöver fylla i luckor med rimliga antaganden. Detta pekar på en fundamental designutmaning för AI-agenter: balansen mellan att vara pålitligt konsekvent och flexibelt adaptiv kommer bli avgörande när AI:n går från chattbots till faktiska digitala medarbetare.