EU:s AI-lag lämnar lucka för militär AI som används civilt
EU:s AI-lag har ett stort undantag för militära AI-system, vilket skapar en oklar gräns när försvarstech börjar användas i civila sammanhang. Kommissionen erkänner att Europa ligger efter USA och Kina i försvarsinvesteringar medan man samtidigt "radikalt ökar" satsningarna på försvarstech. Problemet blir allt tydligare när AI-företag som Anthropic vägrar ta bort säkerhetsspärrar som hindrar deras modeller från att användas för autonoma vapen.
Djupdykning
EU:s AI-lag, som lanserades som världens mest ambitiösa AI-reglering, visar sig ha en betydande svaghet när det gäller militär AI som används i civila sammanhang. Medan Europa strävar efter att öka sina försvarsinvesteringar och bli mer strategiskt oberoende, särskilt efter Ukrainakriget, finns det ett brett militärt undantag som placerar försvars-AI utanför lagens riskbaserade ramverk. Detta skapar en gråzon där teknologi som utvecklats för militära ändamål kan sippra in i civila tillämpningar utan samma tillsyn – ett problem som redan syns i USA där AI-företag som Anthropic motsätter sig Pentagonpåtryckningar om att ta bort säkerhetsåtgärder. Frågan blir alltmer akut eftersom gränsen mellan civil och militär AI-teknik suddas ut i takt med att regeringar söker djupare partnerskap med de stora AI-företagen. Detta riskerar att undergräva hela idén med EU:s AI-reglering om vi inte kan säkerställa att militär AI som används i civila sammanhang följer samma säkerhetsstandarder. Nyckelinsikt: EU:s AI-lag riskerar att bli tandlös om den inte kan hantera den växande gråzonen där militär AI används i civila tillämpningar.