AI-verktyg hittar okända säkerhetshål i mjukvara

The Verge AI

DARPA:s AI-tävling visade hur automatiserade säkerhetsverktyg inte bara hittade planterade buggar i 54 miljoner kodrader, utan också upptäckte över ett dussin riktiga säkerhetshål som forskarna inte visste fanns. Detta illustrerar AI:ns potential inom cybersäkerhet - men också risken att samma teknik kan missbrukas av angripare.

Djupdykning

DARPA:s AI-säkerhetstävling i Las Vegas avslöjade något som borde få alla som ansvarar för mjukvarusäkerhet att tappa sömnen. När AI-systemen skulle hitta planterade buggar i 54 miljoner rader kod gjorde de något oväntat – de hittade över ett dussin riktiga säkerhetshål som ingen visste om. Det här är inte längre science fiction där AI:n sakta lär sig hitta kända sårbarhetsmuster, utan vi ser system som upptäcker helt okända säkerhetsbrister i produktionskod. Kombinera det med Anthropics senaste Claude Mythos-modell som verkar ha ännu bättre förmåga att hitta sårbarheter, och plötsligt står vi inför en verklighet där AI kan automatisera det som tidigare krävde expertsäkerhetsteam månader att upptäcka. Problemet är att samma teknik som kan hjälpa företag säkra sin kod också kan användas av angripare för att systematiskt leta efter säkerhetshål i andras system. Vi närmar oss en tid där cyberkrigsföring inte längre handlar om att rekrytera de skickligaste hackarna, utan om vem som har tillgång till de mest avancerade AI-verktygen för att skanna hela internet efter sårbarheter.