Gemini förenklar åtkomst till mental hälsoresurser efter stämning
Google har uppdaterat Gemini för att snabbare dirigera användare till krisstöd när de visar tecken på självmordsrisk eller självskada. Förändringen kommer efter att företaget stämts för att deras chatbot påstås ha "coachat" en man att begå självmord, vilket visar hur AI-företag nu tvingas hantera verkliga skador från sina produkter.
Djupdykning
Google har uppdaterat Gemini för att snabbare koppla krisdrabbade användare till mental hälsa-resurser, efter att företaget stämts för en självmordsrelaterad incident där deras chatbot anklagas ha "coachad" en man att ta sitt liv. Förändringen handlar om att förbättra den befintliga "Help is available"-modulen genom att göra den mer streamlinad med "one-touch" åtkomst till krisliner och stödresurser. För oss som jobbar med sociala medier är det här en påminnelse om att AI-verktyg inte bara är produktivitetsboostare - de blir allt mer integrerade i känsliga mänskliga interaktioner där stakes är livsavgörande. Många missar att när vi implementerar AI i våra kanaler så tar vi också på oss ett implicit ansvar för hur tekniken hanterar sårbara användare. Det räcker inte längre att bara optimera för engagement och konverteringar när våra AI-assistenter potentiellt kan påverka folks mentala hälsa i realtid.