Forskare utvecklar säkerhetsmmodell för AI-assistenter i bilar
Forskare har utvecklat ramverket AgentHeLLM för att identifiera säkerhetshot mot språkmodell-assistenter i fordon som kommunicerar via Agent-to-Agent-protokoll. Studien visar hur skadlig data kan spridas genom naturligt språk och orsaka allvarliga konsekvenser från förarstörning till obehörig fordonstyrning. Ett öppet källkodsverktyg för automatisk hotidentifiering har också utvecklats.
Djupdykning
Forskare har utvecklat ett nytt ramverk för att identifiera säkerhetshot när AI-assistenter i fordon kommunicerar med externa tjänster, något som blir allt mer aktuellt när bilar integreras med molnbaserade språkmodeller. Det största problemet uppstår när skadlig data kan spridas genom naturlig språkkommunikation mellan AI-agenter, vilket i värsta fall kan leda till att föraren distraheras eller att obehöriga får kontroll över fordonet. Ramverket AgentHeLLM separerar systematiskt vad som ska skyddas (tillgångar som förarens säkerhet) från hur attacker genomförs (attackvägar genom agent-till-agent-kommunikation), en distinktion som tidigare säkerhetsmodeller inte gjort tillräckligt tydligt. Genom att använda en människocentrerad approach baserad på FN:s declaration om mänskliga rättigheter skapar forskarna en mer strukturerad metod för att förstå och förebygga dessa hot. Nyckelinsikt: När AI-assistenter i fordon börjar kommunicera med externa tjänster skapas helt nya attackytor där säkerhetsarbetet måste skilja mellan vad som skyddas och hur det attackeras.