Google släpper MedGemma 1.5 - AI-modell för medicinska bilder och journaler
Googles nya MedGemma 1.5 kan nu analysera CT- och MRI-bilder i 3D samt läsa patologiska preparat och elektroniska journaler - förbättringar på 11% för MRI-diagnoser och hela 47% för vävnadsanalys. Modellen kombinerar bildanalys med textförståelse i en enda arkitektur, vilket gör den till en komplett AI-assistent för sjukvården.
Djupdykning
Google har just släppt MedGemma 1.5, och det här är den första AI-modellen som faktiskt kan hantera medicin som läkare gör det – genom att titta på bilder, läsa journaler och följa patienters utveckling över tid. Tidigare medicinska AI-modeller kunde antingen läsa text eller analysera bilder, men MedGemma kombinerar allt: från 3D-skanning av hjärnan till mikroskopbilder av vävnadsprover och patientjournaler. Det som gör det här riktigt stort är att modellen förstår sammanhang mellan olika datatyper – den kan till exempel se en bröströntgen från förra månaden, jämföra med en ny, och koppla det till labvärden. Det som de flesta missar är att Google gör detta som öppen källkod, vilket betyder att sjukhus och forskare kan bygga vidare på tekniken utan att betala licensavgifter. När Apple håller sina AI-framsteg för sig själva satsar Google på att skapa en standard som alla kan använda – ungefär som Android gjorde för smartphones fast för medicinsk AI.