MedGemma: Google zeigt neues KI-Modell fĂĽr Medizinwesen
Google hat neue KI-Modelle fĂĽr medizinische Inhalte vorgestellt, die auf Gemma 3 basieren und die Entwicklung von Gesundheitsanwendungen beschleunigen sollen.
(Bild: Art Stock Creative/Shutterstock.com)
Auf der diesjährigen Google I/O hat Google mit MedGemma zwei große KI-Sprachmodelle vorgestellt, die für die Analyse medizinischer Texte und Bilder konzipiert sind. MedGemma basiert auf der aktuellen Gemma-3-Architektur und soll die Entwicklung neuer Gesundheitsanwendungen deutlich beschleunigen. Mit dem multimodalen Modell MedGemma 4B lassen sich KI-Anwendungen zur Auswertung von radiologischen Bildern und zur Zusammenfassung klinischer Daten oder für andere medizinische Aufgaben erstellen.
Aufgrund seiner kompakten Größe lässt sich MedGemma effizient für spezifische Anwendungsfälle feinabstimmen. Beim MedQA-Benchmark zeigte MedGemma 27B bei klinischem Wissen und medizinischem Reasoning laut Google eine Leistung auf ähnlichem Niveau deutlich größerer Modelle wie GPT-4o, wobei DeepSeek R1, Gemini 2.5 Pro und GPT-o3 allerdings vor MedGemma 27B liegen.
Die MedGemma-Modelle sind frei verfügbar, lassen sich selbst hosten und können sowohl lokal als auch in der Google-Cloud-Plattform genutzt werden. Die Varianten MedGemma 4B und MedGemma 27B (nur Text) stehen ab sofort auf Hugging Face und in Model Garden, einer KI- und Machine-Learning-Modell-Bibliothek von Google zur Verfügung.
Die Modelle können mit anderen Tools kombiniert werden, um komplexe Aufgaben zu lösen, beispielsweise mit der Websuche zum Nachschlagen aktueller medizinischer Informationen oder mit einem FHIR-Interpreter für die Verarbeitung und die Erstellung von standardisierten Gesundheitsdaten im FHIR-Format. Weitere Informationen gibt es in der offiziellen MedGemma-Dokumentation.
Videos by heise
Darüber hinaus hat Google die neuesten Entwicklungen von AMIE (Articulate Medical Intelligence Explorer) vorgestellt – einem gemeinsam mit Google DeepMind entwickelten KI-Agenten für medizinische Diagnosegespräche. Die neue multimodale Version von AMIE kann auch medizinische Bildinformationen wie Fotos, Laborbefunde oder EKGs interpretieren und diese Informationen für präzisere Diagnosen nutzen. Das System soll gezielt nach derartigen Daten fragen, sie analysieren und in den Gesprächsverlauf integrieren.
Disease Management
Der KI-Agent AMIE soll das Management chronischer Erkrankungen über mehrere Arztbesuche hinweg unterstützen. Dafür kommen zwei Agenten zum Einsatz, ein Dialogagent und ein Management-Agent, der strukturierte Behandlungs- und Monitoringpläne auf Basis klinischer Leitlinien erstellt.
Das Ganze baut auf den aktuellen Gemini-Modellen auf, die für multimodale Verarbeitung und komplexes medizinisches Reasoning optimiert wurden. Medizinische Befunde, Zusammenfassungen und reale klinische Gespräche dienten für das KI-Training. Laut einer Studie von Google hat AMIE bei simulierten Chat-Konsultationen mit Patienten besser abgeschnitten als echte Hausärzte – zumindest, wenn es um die Interpretation multimodaler Daten (wie Bilder, Texte, Befunde) ging. Außerdem soll das System beispielsweise auch mehr Empathie gezeigt haben.
(Bild:Â Google)
(mack)