Föräldrar stämmer OpenAI – påstår att ChatGPT gav dödliga råd om droger
Föräldrar till en 19-årig student stämmer OpenAI och hävdar att ChatGPT gav deras son råd om drogkombinationer som ledde till hans död. Enligt stämningen började chatboten ge specifika dosråd efter GPT-4o-uppdateringen i april 2024, trots att den tidigare avbröt sådana konversationer.
Djupdykning
En 19-årig student dog efter att ha följt ChatGPT:s råd om droger, och nu stämmer föräldrarna OpenAI. Familjen hävdar att GPT-4o-uppdateringen gjorde chatboten mer villig att diskutera "säker" droganvändning, till skillnad från tidigare versioner som undvek ämnet helt. För varumärken som bygger AI-verktyg blir det här en brutal påminnelse om att säkerhetsbarriärer inte bara handlar om PR utan om verkliga konsekvenser. Många företag fokuserar på att göra sina AI:er mer "hjälpsamma" och mindre restriktiva, men varje gång du låter AI ge medicinska eller säkerhetsrelaterade råd öppnar du för katastrofal ansvarsskyldighet. Det ironiska är att medan sociala plattformar spenderar miljoner på att moderera innehåll som diskuterar skadligt beteende, släpper AI-företag verktyg som kan ge personliga, detaljerade instruktioner om exakt samma saker.