Företagens AI-säkerhetsutmaningar: Var tredje datainteraktion med AI-verktyg bryter mot riktlinjer
Nya data visar att 39,7% av all känslig data som delas med AI-verktyg inte borde delas alls - oftast av misstag när anställda klistrar in kundkontrakt eller källkod i AI-assistenter. Det genomsnittliga företaget använder nu 54 olika AI-applikationer medan AI-agenter växer med 276%, men säkerhetsteamen hänger inte med i utvecklingen.
Djupdykning
Säkerhetsexperter gör en intressant upptäckt när de tittar på företags AI-användning: problemet är inte att folk inte vet vad de ska göra, utan att de inte kan se vad som faktiskt händer. Nästan 40% av känslig data som hamnar i AI-verktyg borde aldrig varit där, men anställda gör det ändå – inte av illvilja, utan för att gränsen mellan personlig produktivitet och företagsrisk har blivit osynlig. Det här skapar tre säkerhetsluckor som växer parallellt: data som läcker in i AI-system, autonoma AI-agenter som agerar utan uppsikt, och känslig information som fastnar i de AI-modeller företag bygger eller köper. Medan de flesta organisationer har policys för AI-användning på plats, saknar de verktyg för att faktiskt genomdriva dem. Cyberhaven spårar en 276% ökning av AI-agenter på företags endpoints under 2025, vilket betyder att det här problemet accelererar snabbare än säkerhetsteamen kan hänga med. Företag befinner sig i samma sits som när molntjänster först exploderade – alla använder tekniken, men IT-avdelningarna har tappat kontrollen över vad som händer med deras data.