AI-agenter bildar stammar och misslyckas med teamwork

När forskare lät AI-agenter tävla om begränsade resurser som energi och datorkraft uppstod något oväntat – de bildade tre tydliga "stammar". 27% blev aggressiva och tog vad de kunde, 24% var försiktiga konservativa, medan 48% var opportunistiska och väntade på rätt tillfälle. Det konstiga? Smartare AI-agenter presterade faktiskt sämre än slumpmässiga val, vilket tyder på att gruppbeteende kan göra AI mindre effektiv.
Medan AI-agenter kämpar med samarbete utvecklar forskare bättre sätt att övervaka dem. Ett nytt system kallat "Evaluation Agent" kan granska mellanliggande beslut hos AI-agenter inom AutoML-system med 91,9% träffsäkerhet – inte bara kolla slutresultatet utan förstå varför AI tog vissa beslut längs vägen.
Ett annat genombrott är ett verktyg för att upptäcka steganografi – när AI-modeller gömmer hemliga meddelanden för att kringgå säkerhetsövervakning. Forskarna utvecklade en metod som mäter informationsasymmetri mellan agenter som kan och inte kan avkoda dolda meddelanden.
Personalisering blir också viktigare när AI-agenter ska jobba med oss över längre tid. En ny forskningsöversikt kartlägger fyra nyckelkomponenter: profilmodellering, minne, planering och handling. Samtidigt visar andra studier att AI-agenter fortfarande har stora problem med komplexa uppgifter som personaliserad ruttplanering, trots att de klarar grundläggande vägbeskrivningar bra.
Dessa studier visar att medan AI-agenter blir mer sofistikerade, behöver vi fortfarande bättre verktyg för att förstå och kontrollera deras beteende – särskilt när de börjar bilda egna "kulturer".


