Forskare visar att strukturerad LLM-routing kräver backend-specifika strategier

arXiv cs.AI

Ny forskning med över 15 000 förfrågningar visar att det inte finns en universell bästa metod för att styra LLM-svar i AI-agentsystem – prestandan beror kraftigt på vilken backend (OpenAI, Gemini eller Llama) som används. Metoder som fungerar bra på Gemini och OpenAI kan ge betydligt sämre resultat på Llama, vilket tvingar utvecklare att anpassa sina strategier per leverantör.