Ny arkitektur begränsar AI-agenters ekonomiska befogenheter baserat på robusthet

arXiv cs.AI

Forskare föreslår ett system där AI-agenters tillåtelse att utföra ekonomiska transaktioner begränsas av deras bevisade robusthet snarare än bara prestanda. Arkitekturen mäter robusthet i tre dimensioner och säkerställer att agenternas ekonomiska exponering aldrig överstiger deras verifierade säkerhetsnivå.

Djupdykning

AI-agenter får mer och mer ekonomisk makt – de kan göra affärer, hantera budgetar och till och med skapa egna underagenter – men problemet är att vi mäter deras kompetens helt fel. Istället för att bara kolla om de klarar olika tester föreslår forskarna bakom CGAE (Comprehension-Gated Agent Economy) att vi ska begränsa agenternas ekonomiska rättigheter baserat på hur robusta och pålitliga de faktiskt är under press. Systemet fungerar lite som ett körkort för AI – ju bättre du klarar säkerhetstester inom tre områden (regelefterlevnad, kunskapsintegritet och beteendeanpassning), desto mer pengar får du leka med. Det smarta är att detta skapar rätta incitament: AI-företag tjänar mer pengar på att göra sina agenter säkrare snarare än bara kapablare, vilket vänder hela "move fast and break things"-mentaliteten på huvudet. Nyckelinsikt: Detta är första gången någon formaliserat kopplar AI-säkerhet till ekonomiska rättigheter, vilket kan transformera säkerhet från kostnad till konkurrensfördel.