KLong: Träning av LLM-agent för extremt långsiktiga uppgifter
Forskare har utvecklat KLong, en öppen AI-agent som tränas för att lösa extremt komplexa uppgifter som kräver många steg. Modellen på 106 miljarder parametrar presterar 11,28% bättre än Kimi K2 Thinking (1 triljon parametrar) på PaperBench-testet genom en ny träningsmetod som gradvis förlänger uppgifternas tidsramar.
Djupdykning
KLong representerar ett genombrott för AI-agenter som kan hantera extremt långa och komplexa uppgifter som tidigare varit utom räckhåll. Forskarna har utvecklat en smart träningsmetod som först "väcker" grundläggande agentförmågor hos modellen genom supervised fine-tuning (SFT), för att sedan skala upp kapaciteten genom progressiv förstärkningsinlärning som gradvis förlänger tidsgränserna för uppgifter. Det som gör KLong särskilt intressant är "Research-Factory" - en automatiserad pipeline som skapar träningsdata från forskningsartiklar och bygger tusentals långa uppgiftssekvenser baserade på Claude 4.5 Sonnets resonemang. När en 106-miljarders parametermodell som KLong kan slå en triljon-parametermodell som Kimi K2 Thinking med över 11% på komplexa forskningsbenchmarks, visar det att smart träning kan vara viktigare än rå storlek. Detta öppnar dörrar för mer tillgängliga AI-assistenter som kan hjälpa med allt från omfattande forskningsprojekt till komplicerad mjukvaruutveckling. Nyckelinsikt: Framtiden för AI-agenter handlar mindre om att bygga större modeller och mer om att träna dem smartare för långsiktigt tänkande.