AgentLAB: Ny benchmark för att testa AI-agenters säkerhetsbrister
Forskare har lanserat AgentLAB, den första benchmarken för att mäta hur sårbara AI-agenter är för långsiktiga attacker som utnyttjar flera interaktioner över tid. Testet omfattar 644 säkerhetsfall och visar att nuvarande AI-agenter fortfarande är mycket känsliga för komplexa attacker som "intent hijacking" och "memory poisoning" (minnesförgiftning).
Djupdykning
När AI-agenter får mer ansvar och arbetar längre perioder blir de också mer sårbara för sofistikerade attacker som utnyttjar deras långsiktiga minnesförmåga och interaktioner. AgentLAB är det första verktyget som systematiskt testar hur LLM-agenter klarar sig mot "long-horizon attacks" – attacker som sträcker sig över många konversationsvändor och gradvis manipulerar agenten att avvika från sitt ursprungliga uppdrag. Forskarna testade fem olika attacktyper som "intent hijacking" (att kapa agentens avsikt) och "memory poisoning" (att förgifta dess minne med falsk information), och fann att dagens AI-agenter är förvånansvärt känsliga för dessa tricks. Det här är kritiskt eftersom AI-agenter används allt mer för komplexa, långsiktiga uppgifter inom allt från kundservice till finansiella transaktioner, där säkerheten måste vara pålitlig över tid. Nyckelinsikt: Medan vi fokuserar på att göra AI säkrare vid enstaka frågor, visar AgentLAB att riktiga hot uppstår när AI-agenter får tid på sig att manipuleras över längre konversationer.