Nytt säkerhetsprotokoll ska styra autonoma AI-agenter
Forskare presenterar OpenKedge, ett protokoll som kräver att AI-agenter först förklarar sina intentioner innan de får utföra handlingar i system, istället för att bara köra API-anrop direkt. Systemet skapar en kryptografisk kedja som spårar varje steg från intention till utförande, vilket gör det möjligt att granska och förstå varför agenter gjorde som de gjorde. I tester kunde protokollet säkert hantera konflikter mellan flera agenter samtidigt som det behöll hög prestanda.
Djupdykning
När AI-agenter börjar agera självständigt i verkliga system stöter vi på samma problem som med tonåringars bilnycklar – de har kraften att göra saker, men inte alltid omdömet. OpenKedge försöker lösa detta genom att tvinga AI-agenter att först förklara vad de tänker göra och få godkännande innan de får röra vid något, som en slags "be om lov innan du ändrar något"-protokoll för robotar. Det verkligt smarta här ligger i att systemet skapar en kryptografisk kedja som spårar varje steg från "jag vill göra X" till "jag gjorde X" – tänk blockkedja fast för AI-beslut. Det betyder att om en AI-agent förstör något kan vi spela upp exakt vad som hände och varför, vilket är kritiskt när dessa system börjar hantera allt från ekonomiska transaktioner till infrastruktur. Forskarna visar att deras system kan hantera situationer där flera AI-agenter vill göra motstridiga saker samtidigt utan att krascha, vilket börjar låta mindre som sci-fi och mer som nästa års IT-problem.