Den 'mänskliga undantaget' inom AI-styrning: Tar vi det på allvar eller bockar vi bara av rutor?
AI-styrning bygger på en farlig fiktion - att människor automatiskt fungerar som pålitliga säkerhetsstopp medan AI-agenter ses som den primära risken. Trots att vi känner till mänskliga begränsningar som kognitiva bias, trötthet och grupptänk, behandlas människor fortfarande som den "kända kvantiteten" i styrningsramverk. Det här kan bli ett allvarligt problem när AI-system agerar i övermänsklig hastighet och skala.
Djupdykning
Tech-politikernas favoritlösning på AI-risker börjar låta allt mer ihålig: "bara se till att en människa har sista ordet." Artikeln pekar på hur nästan alla AI-regelverk bygger på myten att människor är de pålitliga vakterna i systemet, medan AI-agenterna är de opålitliga skurkarna som behöver övervakas. Det här är bekvämt eftersom vi redan har hundratals år av lagar och normer för att hantera människor, så varför inte bara lägga till "en människa ska godkänna" som en magisk säkerhetsventil? Problemet är att människor inte är särskilt bra på att övervaka system de inte förstår, särskilt inte när dessa system arbetar i millisekunder medan vi behöver sekunder för att ens registrera vad som hänt. Vi bygger regelramverk som förutsätter att en stressad, förbisedd eller korrupt människa alltid kommer att vara mer tillförlitlig än en AI som faktiskt kan förklara sina beslut steg för steg. När Tesla-bilar kraschar pratar vi om självkörning som problemet, inte om att mänskliga förare dödar 38 000 amerikaner årligen genom ren inkompetens.