DFKI-Projekt: KI-generierter Hautkrebs
Eine KI-gestützte Diagnose von Hautkrankheiten ist bislang nicht für alle Personengruppen zuverlässig. Ein DFKI-Projekt könnte Abhilfe schaffen
KI-generierte Bilder von Hautkrankheiten auf dem Messestand des DFKI.
(Bild: Robin Ahrens / heise medien)
Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) hat auf der Hannover Messe ein Projekt vorgestellt, das die Zuverlässigkeit und Fairness der KI-unterstützten Diagnose von Hautkrankheiten verbessern soll. Im Projekt „MedGenAI“ generierten die Forschenden Bilder von Hautkrebs und anderen Erkrankungen der Haut mittels KI. Die synthetischen Bilder können dann genutzt werden, um die Voreingenommenheit von diagnostischen KI-Modellen zu reduzieren.
Insbesondere von jungen Menschen und Personen mit dunkleren Hauttypen ist deutlich weniger Bildmaterial in den Trainingsdaten enthalten, mit denen die in der dermatologischen Diagnostik eingesetzten KI-Modelle trainiert werden. In der Folge sind die Modelle voreingenommen und erkennen Hautkrankheiten dieser Personengruppen unzuverlässiger.
Vor allem in der medizinischen Diagnostik ist es aber besonders wichtig, dass KI-Modelle möglichst fair und zuverlässig arbeiten. Deshalb versucht man explizit, den Bias der Trainingsdatensets zu reduzieren – etwa mit synthetischen Daten. Synthetische Daten können dabei vollständig oder teilweise KI-generiert sein. Als partiell synthetische Daten bezeichnet man etwa reale Daten, die mit synthetischen Daten angereichert wurden.
Neuester Stand der Bildgenerierung
Um die Voreingenommenheit von KI-Modellen in der medizinischen Diagnostik zu reduzieren, entwickelten die Forscherinnen und Forscher vom DFKI einen modernen Diffusion-Transformer (DiT). Damit lassen sich Bilder von Hautkrankheiten generieren. Das im „MedGenAI“-Projekt genutzte DiT-Modell ist relativ kompakt – es kann in nur einem Tag auf einem System mit acht Grafikkarten trainiert werden.
Im Gegensatz zu Diffusionsmodellen, die in frühen Versionen der Bildgenerierungs-Tools Stable Diffusion, DALL-E oder Midjourney zum Einsatz kamen, modellieren Diffusions-Transformer räumliche Abhängigkeiten in Bildkompositionen besser. Neue KI-Generierungstools wie Nano Banana von Google oder die mittlerweile eingestellte generative Video-KI Sora von OpenAI setzen deshalb vermehrt auf Transformer-Architekturen.
Vom Melanom zur Gefäßverletzung
Das von den Wissenschaftlern vom DFKI trainierte DiT-Modell kann außerdem sogenannte Counterfactuals erstellen. So wird aus einem KI-generierten Melanom mal eben eine Gefäßläsion, also eine Verletzung der Blutgefäße. Diese minimalen Abweichungen von einem Krankheitsbild sind mit bloßem Auge kaum zu erkennen. Medizinische KI-Tools erkennen diese Unterschiede aber und würden folglich eine andere Diagnose stellen.
Mithilfe der generierten Counterfactuals lässt sich feststellen, wie fehleranfällig ein medizinisches Analysemodell ist. Die gewonnenen Erkenntnisse können dann genutzt werden, um die KI-Modelle in der dermatologischen Diagnose zu verbessern.
(rah)