Familjer stämmer OpenAI för att inte ha varnat polisen om skjutarens ChatGPT-aktivitet

The Verge AI

Sju familjer vars anhöriga skadades eller dödades i en skolskjutning i Kanada stämmer OpenAI och VD Sam Altman för vårdslöshet. De hävdar att företaget upptäckte den 18-årige gärningsmannens ChatGPT-konversationer om vapenvåld men valde att inte kontakta polisen för att skydda sitt rykte inför en planerad börsintroduktion.

Djupdykning

Stämningarna mot OpenAI visar hur AI-företag hamnar i en juridisk gråzon där de samtidigt ska skydda användarnas integritet och samhällets säkerhet. Enligt familjerarna upptäckte OpenAI:s system misstänkta konversationer om våld men valde att inte agera – något som väcker frågor om var gränsen går mellan övervakning och ansvar. För oss som jobbar med sociala medier är det här en påminnelse om att AI-modereringssystem redan idag flaggar innehåll som kan vara problematiskt, men det finns ingen tydlig standard för när det ska eskaleras till myndigheter. Det som de flesta missar är att den här typen av fall kommer att forma framtidens content moderation policies på alla plattformar, inte bara AI-chattjänster. Plattformarna står inför en omöjlig balansgång: för lite ingripande och de anklagas för vårdslöshet, för mycket och de riskerar att bli digitala övervakare som skrämmer bort användare.