IT-Experte zu Datenräumen: Warum beginnen wir ausgerechnet mit Gesundheitsdaten?
Gesundheitsdaten sollen breit nutzbar gemacht werden. Doch Experten warnen: Selbst militärische Organisationen oder Geheimdienste verlieren regelmäßig Daten.
Moderatorin Alexa von Busse, Dr. Christoph Kollwitz, Prof. Thorsten Strufe vom KIT und Rechtsanwalt Prof. Hans Hermann Dirksen diskutieren auf der Anosidat-Konferenz ĂĽber den Schutz von Gesundheitsdaten.
(Bild: Marie-Claire Koch / heise medien)
Die Nutzung von Gesundheitsdaten ist eines der zentralen Zukunftsthemen der EU. Im Zuge des Aufbaus gemeinsamer europäischer Datenräume – etwa für Industrie, Mobilität, Finanzen und Agrar – soll der im März in Kraft getretene Europäische Gesundheitsdatenraum den Anfang machen.
Auf der Fachveranstaltung Anosidat diskutierten Expertinnen und Experten aus IT, Industrie und Recht die Chancen und Risiken einer großflächigen, sicheren Datennutzung – besonders im Gesundheitswesen. Dabei wurde auch ein verbreitetes Narrativ hinterfragt, nämlich dass Datenschutz den medizinischen Fortschritt bremse oder sogar gefährde. Prof. Thorsten Strufe, IT-Sicherheitsexperte vom Karlsruher Institut für Technologie (KIT), kritisierte das: "Was mich in dem Kontext manchmal ein bisschen erschreckt, ist, dass man solche Aussagen hört wie: 'Datenschutz tötet Menschen.'"
Experten mahnen zu Vorsicht bei Gesundheitsdaten
"Ich habe mich gefragt, warum wir ausgerechnet bei den Gesundheitsdaten anfangen, wo die Sensibilität der Daten am größten ist. Wir könnten doch erst in anderen Domänen Erfahrungen sammeln – bei Mobilität, bei Wetterdaten, bei Energieverbrauch – um zu verstehen, ob und wie Anonymisierung überhaupt funktioniert", so Strufe, der auch für das EU-geförderte Projekt SynthiClick (Anonymization and Synthesis of Click Paths and Behavior on the Web) verantwortlich ist. Die Kombination von biometrischen oder langfristig erhobenen Vital- und Bewegungsdaten könne eine eindeutige Zuordnung zu Personen ermöglichen, auch wenn sie formal anonymisiert seien. "Bei Gesundheitsdaten bin ich deutlich nervöser als bei anderen Datensätzen", sagte Strufe. "Wir können nicht davon ausgehen, dass biometrische Zeitreihen wie etwa Herzfrequenzverläufe oder Bewegungsmuster dauerhaft anonym bleiben."
Digital Health abonnieren
Alle 14 Tage bieten wir Ihnen eine Ăśbersicht der neuesten Entwicklungen in der Digitalisierung des Gesundheitswesens und beleuchten deren Auswirkungen.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Nach Sicht von Strufe brauche es eine ehrliche Auseinandersetzung mit der technischen Realität: "Wir behaupten alle, dass wir super anonymisieren und dass alle Daten DSGVO‑konform sind; [das] stimmt in 98 Prozent der Fälle nicht wirklich." Er findet es naiv, dass davon ausgegangen werde, dass die Daten sicher genug geschützt sind: "Selbst militärische Organisationen oder Geheimdienste verlieren jedes Jahr Daten – und wir glauben, das passiert uns im Gesundheitswesen nicht?", so Strufe. Er gehe nicht davon aus, dass das Bundesinstitut für Arzneimittel und Medizinprodukte besser geschützt sei. Es sei nur eine Frage der Zeit, bis etwas passiere. Daher fordert er von den Verantwortlichen Ehrlichkeit und Transparenz.
Eine vollständig effektive Anonymisierung medizinischer Daten sei derzeit nicht möglich. Dennoch gebe es mit mathematischen Verfahren wie Differential Privacy Ansätze, um personenbezogene Informationen zu schützen, indem Daten "verrauscht" und so Rückschlüsse auf Individuen verhindert werden. Er warnte zudem vor einem blinden Vertrauen in Technologien wie homomorphe Verschlüsselung oder der Nutzung synthetischer Datensätze. Entscheidend sei, Aggregatdaten zu bilden und sie statistisch zu schützen, statt einzelne Personen zu analysieren.
Videos by heise
Neben den technischen Risiken warnte Strufe auch vor einer ökonomischen Schieflage bei der Datennutzung: "Ich habe manchmal den Eindruck, dass es – wie so häufig – um Socializing Costs und Privatizing Profits geht. Natürlich ist es immer schön, wenn die Bevölkerung alles Mögliche Gute tut, die Investitionen trägt, und große Firmen davon profitieren – insbesondere deren Eigentümer." Auch Dirksen warf die Frage auf, warum die Pharmabranche, wenn Gesundheitsdaten tatsächlich so wertvoll sind, nicht selbst die Erhebung mitfinanziere.
Datenpotenziale und praktische HĂĽrden
Für Dr. Christoph Kollwitz, Chief Product Officer beim Leipziger Unternehmen Docyet, wird das Potenzial von Gesundheitsdaten bislang nicht ausgeschöpft. "Die Daten sind in der Regel vorhanden, aber sie sind nicht zugänglich, nicht zugreifbar und nicht bei der richtigen Person am richtigen Ort, um Entscheidungsunterstützung leisten zu können", erklärte er. Fehlende Struktur, inkompatible Formate und isolierte Systeme verhinderten, dass vorhandene Informationen zur Verbesserung der Versorgung genutzt werden.
Kollwitz erklärte, wie digitale Anwendungen helfen können, Patientenbedürfnisse strukturiert zu erfassen, Versorgungspfade zu optimieren und Gesundheitsdaten sicher zu nutzen. Das Ziel sei dabei eine individuelle, datengestützte Patientenversorgung bei gleichzeitigem Schutz sensibler Informationen.
Rechtliche Perspektive
Keinen grundsätzlichen Gegensatz zwischen Datenschutz und Datennutzung sieht Prof. Hans Hermann Dirksen, Jurist und Rechtsanwalt bei Liebenstein Law: "Die großflächige Nutzung von Gesundheitsdaten ist kein Sicherheitsrisiko per se, sondern eine Gestaltungsaufgabe."
Er betonte, dass Transparenz, klare Verantwortlichkeiten und Vertrauen die Voraussetzungen für eine gesellschaftlich akzeptierte Datennutzung seien: "Die Bevölkerung ist grundsätzlich gewillt, Daten zu spenden und zur Verfügung zu stellen". Es müssten nur bestimmte Vorbedingungen erfüllt sein, um Vertrauen zu schaffen, Missbrauch auszuschließen und Transparenz und Nachvollziehbarkeit zu gewährleisten. "Wenn Sie sich den Broad Consent der Medizininformatik‑Initiative ansehen – ich sage: Der ist völlig illegal. Aber wir haben keine Angst, weil wir das gut finden. Und tatsächlich kommt ja etwas zustande – das ist der Punkt", so Dirksen.
Zur rechtlichen Klarstellung verwies Dirksen auf den European Health Data Space (EHDS) und das Gesundheitsdatennutzungsgesetz (GDNG). Diese sollen künftig die sichere Forschung in sogenannten geschützten Datenräumen ermöglichen. Forschende erhalten Zugriff auf pseudonymisierte Daten, ohne dass diese den Datenraum verlassen. Die Idee der Datenspende sei richtig, die gesetzliche Grundlage dafür aber unzureichend. Eine rechtssichere Verarbeitung könne künftig über Datentreuhandstellen erfolgen, wie sie der Data Governance Act vorsieht. Diese sollen Datensätze verwalten, kontrollierten Zugriff gewähren und die Nachvollziehbarkeit von Forschung gewährleisten.
Dirksen erinnerte zudem an das Urteil des Europäischen Gerichtshofs zur Pseudonymisierung: "Wenn Sie den Schlüssel nicht haben, um die Pseudonymisierung aufzuheben, sind die Daten für Sie anonym. Aber die Frage ist natürlich: Sind Sie jetzt also der Schlüsselmeister oder sind Sie es nicht?" Der rechtliche Status von Anonymisierung hänge immer vom Kontext ab und davon, wer technisch oder organisatorisch in der Lage ist, Daten wieder einer Person zuzuordnen.
Warten auf europäische Guidelines zur Anonymisierung
Bei der Anonymisierung selbst fehle bislang ein einheitlicher rechtlicher Maßstab. Dirksen wies darauf hin, dass Forschungsinstitutionen und Unternehmen seit Langem auf verbindliche Leitlinien des Europäischen Datenschutzausschusses warten: "Es wäre wunderbar, wenn die Europäische Datenschutzbehörde endlich mal sagen würde, wie sie Anonymisierung rechtlich definiert. Da warten wir schon seit vielen Monaten drauf."
Er wünscht sich mehr Klarheit darüber, wann eine Anonymisierung rechtlich belastbar ist und welche Kriterien angewendet werden müssen, um rechtssicher zu forschen. "Vom Aufwand her muss es immer teurer sein, die Daten zu entschlüsseln, als sie am Ende wert sind", so Dierksens Ansatz. Er sieht darin einen realistischen Maßstab, um Datenschutz und Datennutzung miteinander zu vereinen – ausreichend sicher, aber nicht innovationsfeindlich.
Vertrauen als SchlĂĽssel
Kollwitz forderte mehr interdisziplinäre Zusammenarbeit bei der Entwicklung datengetriebener Gesundheitslösungen: "Datenschutz wird häufig rein juristisch diskutiert. Wir brauchen aber auch Entwickler, Ärzte und Prozessexperten am Tisch."
Dem stimmte Strufe zu. Forschung, Technik und Recht müssten gemeinsam Verantwortung tragen und offen mit Unsicherheiten umgehen, statt perfekte Sicherheit zu versprechen. Nur so könne das notwendige Vertrauen entstehen, das Bürgerinnen und Bürger zur Datenfreigabe motiviere. Datenschutz sei kein Forschungshemmnis, sondern die Voraussetzung dafür, dass Forschung gesellschaftlich akzeptiert bleibe.
Hightech‑Agenda Deutschland
Die Nutzung von Gesundheitsdaten wird künftig auch im Rahmen der Hightech‑Agenda Deutschland (HTAD) vorangetrieben, die von der Bundesregierung Mitte 2025 vorgestellt wurde. Sie soll die technologische Wettbewerbsfähigkeit Deutschlands in sechs zentralen Zukunftsfeldern sichern – darunter Biotechnologie und Künstliche Intelligenz, die direkt mit der Gesundheitsforschung verknüpft sind.
Bei der geplanten Auftaktveranstaltung, unter der Leitung von Bundesforschungsministerin Dorothee Bär, wird es auch um Gesundheitsthemen gehen. Mit Priorität behandelt werden sollen unter anderem Reallabore und die "Verabschiedung des Forschungsdatengesetzes", die "Weiterentwicklung des Gesundheitsdatennutzungsgesetzes und die Anbindung an Europäische Datenräume, um das Innovationspotenzial von Daten für Forschung, Gesellschaft und Staat noch besser auszuschöpfen", wie aus Hightech-Agenda hervorgeht.
(mack)