MHDash: Plattform för att testa AI-assistenter inom mental hälsa

arXiv cs.AI

Forskare har lanserat MHDash, en öppen plattform för att utvärdera hur väl AI-system kan identifiera högriskbeteenden som självmordsbenägenhet inom mental hälsa. Studien visar att avancerade språkmodeller presterar lika bra som enkla metoder i genomsnitt, men skiljer sig markant åt när det gäller att upptäcka allvarliga fall. Prestandagapen förstärks i flerturssamtal där risksignaler utvecklas gradvis.

Djupdykning

Forskare har utvecklat MHDash, en ny öppen plattform för att utvärdera AI-assistenter inom mental hälsa, där säker igenkänning av högriskbeteenden som suicidtankar är kritiskt viktigt. Plattformen avslöjar allvarliga brister i nuvarande utvärderingsmetoder - även avancerade språkmodeller som presterar bra på generella mått kan missa farliga situationer eller ge för många falsklarm på allvarliga fall. Särskilt problematisk är AI:ns prestanda i flervändiga samtal där risksignaler framträder gradvis, något som bättre speglar verkliga terapeutiska situationer än enkla fråga-svar-test. Resultaten visar att traditionella benchmarks är otillräckliga för säkerhetskritiska tillämpningar inom mental hälsa, där en missad varningssignal kan få förödande konsekvenser. MHDash:s öppna tillvägagångssätt möjliggör transparent forskning och säkrare utveckling av AI-system för mental hälsostöd. Nyckelinsikt: Nuvarande AI-utvärderingar inom mental hälsa döljer kritiska säkerhetsbrister som först blir synliga vid detaljerad analys av högriskfall och realistiska samtalsförlopp.