Ny säkerhetsprotokoll stoppar AI-beslut innan de verkställs
Forskare föreslår ett "Right-to-Act" protokoll som fungerar som en säkerhetsspärr som kan blockera AI-beslut innan de verkställs i verkligheten. Till skillnad från nuvarande system som försöker förutsäga risker, använder detta en strikt checklista där alla villkor måste uppfyllas - annars stoppas handlingen helt. Det är som att ha en säkerhetsbromse som inte kan överröstas av hög AI-konfidans.
Djupdykning
Forskare föreslår nu något som låter banalt men egentligen är ganska radikalt: ett "rätt att agera"-protokoll som kan stoppa AI-system från att utföra handlingar även när de är säkra på att de har rätt. Istället för att bara göra AI:n bättre på att fatta beslut, bygger de en grindvakt som frågar "får du ens göra det här?" innan något händer. Det smarta med deras "non-compensatory" approach är att den inte låter AI:n kompensera för brister – om du inte uppfyller alla krav så spelar det ingen roll hur säker du är på ditt beslut. Tänk som flygtrafikledning: oavsett hur erfaren piloten är kan hen inte landa utan klartecken från tornet. Det här handlar egentligen om att flytta makten från AI-modellerna till de strukturer som omger dem. Medan alla andra försöker göra AI smartare, bygger dessa forskare damascener som säger nej.