DAFTA: Personenbezug als "Elefant im Raum" bei Künstlicher Intelligenz

Bei der Datenschutztagung wurden die Herausforderungen bei Künstlicher Intelligenz diskutiert. Wichtig seien klare datenschutzrechtliche Verantwortlichkeiten.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Cartoon mit Steinzeitmenschen auf der Datenschutzfachtagung

KI war das zentrale Thema auf der 47. DAFTA

Lesezeit: 4 Min.
Inhaltsverzeichnis

Zentrales Thema auf der 47. Datenschutzfachtagung (DAFTA) 2023 in Köln war "Künstliche Intelligenz (KI), Gesetzgeber und EuGH – Neue Herausforderungen für den betrieblichen Datenschutz". Der seit Mai amtierende Landesbeauftragte für Datenschutz und Informationsfreiheit Baden-Württemberg, Prof. Tobias Keber, warnte vor einer Vermenschlichung von KI-Systemen und hob in seinem Vortrag die Relevanz klarer datenschutzrechtlicher Verantwortlichkeiten hervor. Der "Elefant im Raum" beim Thema Künstliche Intelligenz sei die Frage des Personenbezugs.

In einer Podiumsdiskussion debattierten Dr. Marit Hansen, Datenschutzbeauftragte von Schleswig-Holstein, und Tobias Haar, General Counsel des KI-Startups Aleph Alpha über die Bedeutung eines individuellen Ansatzes bei der datenschutzrechtlichen Bewertung des Einsatzes von KI in Unternehmen. Im Mittelpunkt der Diskussion standen jedoch Haftungsfragen, die sich durch die Entwicklung von KI-Systemen stellen.

Zwar drehte sich vieles bei der DAFTA um Datenschutzrisiken und Haftungsfragen durch KI. Es wurden jedoch auch positive Eigenschaften hervorgehoben, etwa dass Machine Learning die IT-Sicherheit stärken könne, beispielsweise bei Intrusion Detection, Erkennung von Anomalien, Seitenkanalangriffen und mehr. Der zugeschaltete Digitalreferent im Europäischen Parlament, Kai Zenner, gab ein Update zum Fortschritt des Gesetzgebungsverfahrens für die europäische KI-Verordnung (AI Act), das unter einem "wahnsinnigen Zeitdruck" stehe. Die Wahrscheinlichkeit, dieses Jahr noch eine politische Einigung zu erzielen, sieht Zenner allerdings nur bei 50:50.

Überdies vergab die Gesellschaft für Datenschutz und Datensicherheit (GDD) auf der DAFTA vier Wissenschaftspreise. Einer ging an Dr. Gordian Konstantin Ebner für seine Dissertation "Weniger ist Mehr? Die Informationspflichten der DSGVO – Eine kritische Analyse". Die Arbeit analysiert den Zweck und die Wirksamkeit der Informationspflichten im Datenschutzrecht und kommt zu dem Schluss, dass diese Pflichten wichtig, aber in ihrer derzeitigen Form zu umfangreich und komplex sind. Studien zeigen, dass weniger, aber besser gestaltete Informationen effektiver sind.

Dr. Robin L. Mühlenbeck wurde für seine Dissertation "Anonyme und pseudonyme Daten" ausgezeichnet. Mühlenbeck widmete sich der wichtigen Frage, wann Daten nach der DSGVO als personenbezogen, pseudonym oder anonym gelten. Ausgehend von den Vorgaben der DSGVO und der Rechtsprechung des EuGH entwickelt er ein erweitertes relatives Verständnis des Personenbezugs und definiert die wesentlichen rechtlichen Anforderungen für die Beurteilung des Personenbezugs sowie der Pseudonymität und Anonymität von Daten.

Dr. Scott Thiebes erhielt einen Preis für seine Dissertation "A socio-technical analysis of genetic privacy and its role in genetic data sharing". Er untersuchte unter anderem Unternehmen, die Gentests für Verbraucher anbieten. Eine Schlussfolgerung seiner Dissertation: "Das Dilemma zwischen dem Recht auf informationelle Selbstbestimmung jedes Einzelnen und den durch das Teilen der genetischen Daten entstehenden Datenschutzrisiken für die eigenen Verwandten lässt sich weder rein technisch noch allein durch Gesetze und Richtlinien auflösen". Thiebes betonte, dass genetische Daten schwer zu anonymisieren seien und deren Teilung auch Verwandte betreffe, was in den USA bereits zur Verurteilung von Straftätern führte, basierend auf den Daten entfernter Familienangehöriger.

Einen Förderpreis erhielt Jessica Hertenstein für ihre Masterarbeit "Risikobeurteilung in der Datenschutz-Folgenabschätzung im Kontext von Seniorenpflegeeinrichtungen". Besonders Anbieter im Gesundheitsbereich wie Pflegeeinrichtungen, die eine Vielzahl sensibler personenbezogener Daten verarbeiten, stellt die Anforderung zur Durchführung einer Risikobeurteilung über die Verarbeitung personenbezogener Daten vor eine große Herausforderung. Daher entwickelte Hertenstein mit ihrer Arbeit "eine ganzheitliche Methode zur Durchführung einer Datenschutz-Folgenabschätzung".

Mit dem GDD-Datenschutzpreis 2023 wurde der Journalist und Autor Jörg Schieb ausgezeichnet. Er erhielt den Preis für seine Arbeit in den Medien und Expertise in Digitalisierung und Datenschutz. Die GDD würdigt damit seine Fähigkeit, komplexe Datenschutzthemen einem breiten Publikum verständlich zu machen und betont seinen Beitrag zur Förderung von Transparenz und Verbraucherbelangen im Bereich Datenschutz.

(mack)