Europäischer Datenschutztag: Begriff "anonym" wird oft irreführend verwendet
Anonymisierung und Pseudonymisierung sind fragil. Besonders brenzlig wird es, wenn die politische Lage kippt. Das ergab eine Diskussion zum EU-Datenschutztag.
Prof. Paulina Jo Pesch, Prof. Thorsten Strufe, Susanne Dehmel, Prof. Fabian Prasser, Dr. Dennis Kraft und Dr. Ulrich Vollmer
(Bild: Marie-Claire Koch / heise medien)
Anlässlich des EU‑Datenschutztags diskutierten Expertinnen und Experten aus Wissenschaft, Aufsicht, Wirtschaft und Technik in Berlin über den verantwortungsvollen Umgang mit personenbezogenen Daten. Im Zentrum der Veranstaltung stand die Frage, welche Risiken moderne Datenverarbeitung insgesamt birgt.
Prof. Pauline Jo Pesch, Juniorprofessorin an der FAU Erlangen, kritisierte gleich zu Beginn, dass der Begriff der Anonymität häufig falsch verstanden und verwendet werde: „Anonymität klingt so, als sei das etwas Endgültiges. Als könne man einmal anonymisieren und dann ist das Thema erledigt.“ Gerade im Kontext großer KI-Sprachmodelle sei diese Vorstellung gefährlich.
„Existierende Modelle [...] die den Chatbots zugrunde liegen, die erlauben alle die Extraktion von teilweise umfangreichsten – auch wörtlichen – Auszügen aus den Trainingsdaten.“ Problematisch sei dabei nicht nur die Reproduktion realer Daten, sondern auch die Erzeugung falscher Aussagen über reale Personen. Als Beispiel nannte sie den bekannten Fall eines Journalisten, dem Taten zugeschrieben wurden, über die er berichtet hatte.
Anonymität sei zudem kein stabiler Zustand, sondern abhängig von technischen Entwicklungen: „Vielleicht ist etwas jetzt einigermaßen anonym – und morgen nicht mehr.“ Die DSGVO vermittle zwar den Eindruck einer klaren Trennlinie, technisch sei Anonymität jedoch graduell. Die Frage ist, wie viel Rechenzeit und wie viel Rechenleistung und Zeit ich brauche, um eine Re-Identifikation zu machen.“
Videos by heise
Anonymisierung für medizinische Forschung oft keine Lösung
In der medizinischen Forschung sei Anonymisierung häufig nicht praktikabel, weil Forschungsergebnisse wieder einzelnen Patientinnen und Patienten zugutekommen sollen. „Null Risiko kriegt man nur, wenn man keine Daten verarbeitet“, sagte Prof. Fabian Prasser von der Charité.
Gerade bei multizentrischen Studien, Real‑World‑Evidence‑Forschung oder KI‑gestützter Diagnostik seien kontrollierte Re‑Identifizierbarkeit und Datenverknüpfungen notwendig. Gleichzeitig warnte Prasser davor, unterschiedliche Anwendungsfelder gleichzusetzen, etwa die Online-Werbeindustrie mit der medizinischen Forschung. Statt absoluter Sicherheitsversprechen brauche es realistische Abwägungen.
Aus technischer Perspektive ordnete Prof. Thorsten Strufe vom Karlsruher Institut für Technologie viele gängige Schutzmaßnahmen ein. Besonders deutlich äußerte er sich zur Pseudonymisierung: „Pseudonymisierung ist sehr häufig sehr leicht zu brechen.“ Menschen teilten zwar viele Informationen über sich, allerdings „nicht in der Erwartung, dass sie für andere Zwecke genutzt werden.“
Skeptisch zeigte sich Strufe auch bei Mobilitäts‑ und IP‑Adressdaten, etwa in den 13 weiteren geplanten Europäischen Datenräumen: „Auch wenn IP‑Adressdaten pseudonymisiert weitergegeben werden habe ich da kein Vertrauen.“
Wirtschaft unsicher und sorglos?
Die Perspektive der Wirtschaft brachte Susanne Dehmel, Mitglied der Geschäftsleitung des Bitkom, ein. Sie widersprach der Vorstellung, Unternehmen gingen leichtfertig mit Datenschutz um. Der Aufwand sei hoch, die Unsicherheit groß. Besonders problematisch sei die uneinheitliche Auslegung der DSGVO. Zugleich warnte Dehmel vor überzogenen Anforderungen: „Wenn wir jedes Risiko mitigieren müssen, können wir wirklich nicht viel machen.“ Gerade kleine und mittlere Unternehmen hätten Schwierigkeiten, mit dieser Unsicherheit umzugehen, während große Konzerne über entsprechende Ressourcen verfügten.
Dr. Dennis Kraft aus Googles Anonymisierungsteam warnte, dass Anonymisierung „häufig gleichgesetzt [wird] mit einem Prozess, der dafür sorgt, dass die Daten am Ende nicht mehr sensibel sind.“ Das sei nicht korrekt. Sensible Daten blieben sensibel, auch wenn sie nicht mehr direkt zuordenbar seien. Er plädierte für technische Begrenzungen wie sichere Verarbeitungsumgebungen, kontrollierte Zugriffe und Verfahren wie Secure Multi‑Party Computation oder „Data Clean Rooms“, in denen speziell aufbereitete Daten nur temporär in sicheren Verarbeitungsumgebungen für die Datenanalyse bereitstehen.
ICE nutzt AirTag-Daten
Mehrfach wurde betont, dass Datenschutz heute nicht losgelöst vom politischen Kontext betrachtet werden könne. „Allen war Cookie‑Tracking scheißegal. Jetzt nutzt ICE Daten von AirTag‑Providern, um Menschen aufzuspüren,“ verwies Pesch auf aktuelle Entwicklungen in den USA.
Vollmer zog zum Abschluss ein deutliches Fazit: Der Datenschutz stehe vor „schicksalhaften Jahren“ – und brauche neue, realistischere Antworten. Dazu gehörten Reallabore, stärkere Kooperation zwischen Aufsichtsbehörden und mehr Transparenz gegenüber Betroffenen. Nur so lasse sich Datenschutz weiterentwickeln, ohne Innovation zu blockieren oder falsche Sicherheit zu versprechen. Zwar gebe es keine absolute Sicherheit – weder durch Anonymisierungsmethoden noch durch Pseudonymisierung. Entscheidend sei aber der ehrliche Umgang mit verbleibenden Risiken.
(mack)