ODAR: Adaptiv routing för LLM-resonemang via aktiv inferens
Forskare har utvecklat ODAR-Expert, ett system som gör språkmodeller smartare genom att dynamiskt välja mellan snabb och långsam bearbetning baserat på uppgiftens svårighet. Metoden uppnår 98,2% träffsäkerhet på MATH-dataset och 54,8% på Humanity's Last Exam, samtidigt som den minskar beräkningskostnader med 82%. Detta visar att framtidens AI-utveckling handlar mer om smart resursfördelning än bara större modeller.
Djupdykning
AI-forskning tar ett stort steg bort från "större är bättre"-mentaliteten genom ODAR-Expert, ett system som lär AI-modeller att tänka smartare istället för att bara tänka mer. Istället för att låta AI:n mala på alla problem med samma intensitet, använder ODAR en "svårighetsestimator" som bedömer varje fråga och skickar enkla problem till en snabb agent medan komplexa problem får gå till en långsam, noggrann agent. Det här är som skillnaden mellan att lösa 2+2 kontra att bevisa ett matematiskt teorem – båda kräver inte samma tankekraft. Systemet uppnådde imponerande 98,2% träffsäkerhet på matematiktest medan det samtidigt minskade beräkningskostnader med 82%, vilket visar att effektivitet och prestanda inte behöver stå i konflikt med varandra. Nyckelinsikt: Framtidens AI handlar inte om att bara kasta mer datorkraft på problem, utan om att utveckla system som kan anpassa sin "tankeenergi" efter uppgiftens svårighet.