Nytt ramverk för att hantera integritets- och värdighetsrisker från AI-system
Forskare från Carnegie Mellon och University of Michigan presenterar CA-CI-ramverket för att hantera integritets- och värdighetsrisker från moderna AI-system. Ramverket kombinerar kontextuella normer med universella värdighetsrequirement och kan användas för att implementera EU:s AI-lags grundläggande rättighetsbedömningar.
Djupdykning
Forskare har utvecklat ett nytt ramverk som kombinerar "contextual integrity" (hur information bör flöda i olika sammanhang) med "capabilities approach" (fokus på mänskliga rättigheter och värdighet) för att hantera AI-systemens växande hot mot integritet och värdighet. Detta är särskilt viktigt för så kallade foundation models – de stora AI-system som OpenAI:s GPT eller Googles Bard – som kan anpassas till helt olika uppgifter och därmed skapa oförutsedda risker. Ramverket CA-CI kan hjälpa att implementera EU:s AI-lag i praktiken genom att ge verktyg för att bedöma grundläggande rättighetsrisker innan skador uppstår. Det här är avgörande eftersom traditionella sätt att övervaka AI-system fallerar när systemen blir så komplexa att de lär sig och generaliserar på egen hand, vilket gör det svårt att förutsäga vad som kan gå fel. Nyckelinsikt: När AI-system blir så avancerade att de kan hoppa mellan olika användningsområden behöver vi regelverk som är lika flexibla som tekniken själv.