eHealth-Interview: KI-Verordnung und DSGVO, Risiken und Co.

Seite 3: KI nicht unfehlbar

Inhaltsverzeichnis

Wird es möglich sein, dass hierzulande Daten aus den elektronischen Patientenakten mithilfe von KI-gestützten Tools analysiert werden?

Aus rechtlicher Sicht dürfte das möglich sein. Die Datenexploration selbst ist noch kein Medizinprodukt und würde daher nicht unter die MDR fallen. Datenschutzrechtlich ist das natürlich eine Herausforderung, weil wir die Zwecke erst einmal formulieren müssten. Es bedarf einer Rechtsgrundlage für die Datenverarbeitung. Interessant ist hierbei die Frage, wer als technischer Dienstleister die Daten verarbeitet. Für die Verarbeitung von Gesundheitsdaten gelten allgemein sehr strenge datenschutzrechtliche Vorgaben.

Welche Änderungen wären für die KI-gestützte Verarbeitung von Daten aus der Patientenakte denn notwendig?

Im nationalen Recht können gesetzliche Grundlagen für die Verarbeitung von Gesundheitsdaten geschaffen werden, wenn die besondere Gefährdungslage und die Anforderungen an die technisch-organisatorische Sicherheit berücksichtigt und beachtet werden. Da stellt sich die Frage, inwiefern der Patientenwille dabei noch berücksichtigt werden kann, ob Versicherte sich da aus dieser Exploration ausnehmen könnten und ob ein Widerspruchsverfahren möglich ist und weitere Fragen. Auf der Basis ist es denkbar, eine groß angelegte Datenverarbeitung zu realisieren.

In Zukunft kommen die Anforderungen der KI-Verordnung hinzu. Dabei ist zum Beispiel wichtig, wie robust die Ergebnisse sind. Es ist möglich, dass es hier zum Bias kommt, weil bestimmte Muster in bestimmten Konstellationen auftauchen.

Ebenso müssen Vorgaben an die menschliche Aufsicht berücksichtigt werden. Eine grundlegende Herausforderung ist dabei, wie der Mensch das KI-Ergebnis auswertet. Die Mensch-Maschine-Kommunikation haben wir sowohl in diesem Beispiel als auch bei ganz anderen KI-Anwendungen wie beispielsweise in der Radiologie.

Die Herausforderung ist, wie sie einem behandelnden Arzt dauerhaft nahebringen, dass das KI-Ergebnis in der Regel sehr verlässlich und treffsicher ist. Gleichwohl gibt es dann aber einzelne Fälle, in denen die KI falsch liegt. Dabei besteht die Gefahr, dass Ärzte sich auf die KI verlassen, weil sie in den meisten Fällen richtig liegt (sogenannter "automation bias").

(mack)