Kintsugi stänger ner efter sju år: AI som skulle höra depression misslyckades med FDA

Kintsugi har spenderat sju år på att träna AI att höra depression i hur folk pratar, inte vad de säger. Nu är pengarna slut och FDA-godkännandet uteblev, så företaget stänger ner och släpper tekniken som öppen källkod.
Det är en påminnelse om hur svårt det är att navigera regulatoriska processer för medicinsk AI. Mental hälsobedömning bygger fortfarande i stort sett på enkäter och kliniska intervjuer istället för objektiva tester som blodprov eller röntgen. Kintsugi försökte bygga bron dit, men FDA var inte redo.
Nu när koden blir öppen kan den få ett andra liv utanför sjukvården. Företaget nämner specifikt deepfake-detection, vilket faktiskt är ett smartare användningsområde. Att upptäcka om en röst är artificiell kräver samma typ av subtil ljudanalys som Kintsugi utvecklade, men utan samma regulatoriska hinder.
Det här mönstret kommer att upprepa sig: AI-startups som siktar på sjukvård men fastnar i regulatoriska processer medan deras teknik fungerar utmärkt för andra användningsområden. Kintsugi hann bara inte vänta ut FDA:s tidsplan.
Öppen källkod-beslutet är klokt. Istället för att tekniken försvinner med företaget kan andra nu bygga vidare, både inom och utanför sjukvården. Sju års utveckling behöver inte gå till spillo för att affärsmodellen inte fungerade.


