Multi-agent system förbättrar osäkerhetskalibrering för medicinsk AI

arXiv cs.AI

Forskare har utvecklat ett multi-agent system som använder fyra specialiserade AI-agenter för att besvara medicinska flervalsfrågor med betydligt bättre kalibrerad självförtroende. Systemet reducerade kalibreringsfelet (ECE) med 49-74% genom att låta agenterna verifiera sina svar i två faser och vikta slutresultatet baserat på intern konsistens. Detta ger mer tillförlitliga osäkerhetsestimat som kan hjälpa läkare avgöra när AI-systemet är osäkert och behöver mänsklig bedömning.

Djupdykning

Forskare har utvecklat ett system med fyra AI-"specialister" inom olika medicinska områden som jobbar tillsammans för att besvara medicinska frågor, och det viktiga här är att systemet faktiskt kan säga "jag är osäker" på ett tillförlitligt sätt. Problemet med dagens medicinska AI är att den ofta låter säker ut även när den har fel, vilket är livsfarligt i sjukvården. Det nya systemet låter varje specialist göra sin diagnos, sedan verifierar de sina egna svar i två steg för att mäta hur konsistenta de är, och slutligen vägs alla svar ihop baserat på hur säkra specialisterna känner sig. Resultatet är att systemets osäkerhetsmått blev 49-74% mer träffsäkra, vilket betyder att läkare faktiskt kan lita på när AI:n säger "jag vet inte" och då själva ta över beslutet. Nyckelinsikt: Genom att låta AI-system erkänna och kvantifiera sin osäkerhet på ett tillförlitligt sätt tar vi ett avgörande steg mot säker AI i sjukvården.