Digital Health: Politik nimmt KI-Risiken in den Blick

Führende Gesundheitspolitiker schätzen die Risikopotenziale von Künstlicher Intelligenz in der Gesundheitsversorgung unterschiedlich ein.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Smart,Medical,Technology,Concept,advanced,Robotic,Surgery,Machine,At,Hospital,,Robotic

(Bild: Monopoly919/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Christiane Schulzki-Haddouti
Inhaltsverzeichnis

KI-Technologien können in Zukunft Ärzte und Pflegende entlasten. Die Digitalisierungsstrategie des Bundesministeriums für Gesundheit (BMG) will den Einsatz von KI in der Medizin denn auch fördern. "Das unterstütze ich", sagt Matthias Mieves, stellvertretender gesundheitspolitischer Sprecher der SPD-Bundestagsfraktion, gegenüber heise online. Der Fortschritt in diesem Bereich biete großes Potenzial für die Verbesserung der Diagnose, Behandlung und Prävention von Krankheiten, betont Mieves. Auch Regelungen zum Schutz der Patientendaten und der Qualität und Zuverlässigkeit der KI-Anwendungen seien wichtig.

Biomedizinische Sprachmodelle wie BioGPT von Microsoft, BioMedLM der Stanford University oder Med-PaLM 2 von Google können Ärzten im Idealfall helfen, medizinische Dokumentationen zu erstellen und auszuwerten oder umfangreiche Fachliteratur im Blick zu halten. Einzelne KI-Anwendungen versuchen sich allerdings auch bereits an medizinischen Diagnosen und Therapievorschlägen sowie an der Patientenkommunikation, um Ärzte zu entlasten. Die Debatte um notwendige Safeguards in Forschungsmodellen wie BioGPT und BioMedLM steht allerdings noch am Anfang. Forschende können sich damit nämlich nicht nur schnell über Antibiotika-, sondern auch über Giftstoffforschung informieren.

Matthias Mieves verweist hier lediglich auf das Positionspapier der SPD-Bundestagsfraktion (PDF) "Der Artificial Intelligence Act: Regulierung für vertrauenswürdige KI", das auf die Transparenz von Algorithmen abzielt, allerdings nicht weiter auf Details eingeht. Andrew Ullmann, gesundheitspolitischer Sprecher der FDP-Bundestagsfraktion, spricht sich gegen zu viel Regulierung aus: "Wir haben im Bereich der medizinischen Forschung ethische Richtlinien, die etwaigen Missbrauch vorbeugen." Wenn man über die Potenziale und gegebenenfalls die Regulierungen im Bereich der KI-gestützten Gesundheitsforschung nachdenke, müsse man aber die Prämissen richtig setzen: "Weder führt die Einbindung von KI dazu, dass wir jetzt neue Antibiotika am Laufband finden, noch wird sie dazu führen, dass die Giftstoffentwicklung richtig Fahrt aufnimmt."

Tino Sorge, gesundheitspolitischer Sprecher der oppositionellen CDU/CSU-Bundestagsfraktion hingegen zeigt sich deutlich besorgter: "KI ist ein mächtiges Instrument, das bei missbräuchlichem Vorsatz große Gefahren bergen kann", sagt er. Für ihn steht fest: "Ermöglicht künstliche Intelligenz die Identifikation tödlicher Substanzen, muss der Staat regulierend eingreifen." KI dürfe "kein Instrument werden, mit dem leichtfertig Gifte oder andere gefährliche Stoffe entwickelt werden können". Bei allen Chancen müsse das Missbrauchsrisiko bedacht werden.

Ähnlich sieht das auch Kathrin Vogler, gesundheitspolitische Sprecherin der Linken im Bundestag. Sie verweist darauf, dass KI im engeren medizinischen Forschungsbereich für ihre Lernprozesse auch persönliche Daten aus Patientenakten benötige. Es sei daher wichtig, die Privatsphäre der Betroffenen zu schützen und klare Grenzen festzulegen, was die KI mit den Daten tun darf. Auch sei es im sensiblen medizinischen Bereich gefährlich, wenn falsche Informationen die medizinische Entscheidungsfindung beeinflussen könnten. Vor etwaigen Fehlinformation hatte auch die Weltgesundheitsorganisation WHO in ihrem ersten Bericht über KI im Gesundheitswesen gewarnt.

Bis Ende des Jahres will die EU die "Verordnung über Künstliche Intelligenz" verabschieden. Mit der Verabschiedung der KI-Verordnung durch das Europäische Parlament vergangene Woche hat die letzte Verhandlungsphase begonnen: Parlament, EU-Kommission und die Mitgliedstaaten verhandeln nun über die finale Fassung. Auf der letzten Verhandlungsstrecke geht es nun vor allem darum, dass die KI-Verordnung mit ihren Auflagen die Entwicklung auch in kleinen und mittleren Unternehmen nicht blockiert. Zudem soll der geplante europäische KI-Kodex auf den Weg gebracht werden, bis die KI-Verordnung greift.

Das Thema Gesundheit dürfte hierbei zu den umstrittenen Anwendungsgebieten gehören. Denn erst in letzter Minute hatten Abgeordneten dafür gesorgt, dass KI-Systeme, die die Gesundheit gefährden können, als Hochrisiko-Anwendungen gelten sollen. Dazu zählen chirurgische Roboter, aber auch biomedizinische Sprachmodelle.

Als Hochrisiko-Anwendungen müssten Anbieter künftig Gesundheits- und Sicherheitsrisiken abschätzen und mindern und ihre Modelle – bevor sie in der EU auf den Markt kommen – in einer entsprechenden EU-Datenbank registrieren. Generative KI-Systeme, die auf solchen Modellen beruhen, sollten zudem die Transparenzanforderungen erfüllen und dafür sorgen, dass keine rechtswidrigen Inhalte erzeugt werden. Dazu gehört etwa, die Qualität und Herkunft der Daten zu dokumentieren und Aussagen zur Prognosegenauigkeit zu treffen.

(mack)