Datenschutzkonformes KI-Training sicherstellen – so geht's

KI-Trainigsdaten enthalten oft personenbezogene Daten. Mit Differential Privacy und Generative Adversarial Networks lassen sie sich vor Missbrauch schützen.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
Lesezeit: 13 Min.
Von
  • Marco Barenkamp
Inhaltsverzeichnis

Fragen des Datenschutzes sind oft eine Herausforderung für den Einsatz von KI. Ein großes Problem beim Training von KI besteht in potenziellen Verletzungen der Privatsphäre, da man beim KI-Training oft riesige Datenmengen sammelt, die persönliche Informationen von Menschen enthalten. Die Systeme verarbeiten diese Daten, um Muster und Trends zu erkennen.

Dabei besteht die Gefahr, dass sensible Informationen aus den Trainingsdaten herausgefiltert werden, ohne dass die betroffenen Personen davon Kenntnis erlangen oder dies kontrollieren können. Wenn man diese sensiblen Informationen nicht angemessen schützt oder anonymisiert, können sie in die falschen Hände geraten oder für unerwünschte Zwecke verwendet werden.

Mehr zum Thema Künstliche Intelligenz (KI)
Prof. Dr. Marco Barenkamp

(Bild: 

Lisa Finsterwalder

)

Prof. Dr. Marco Barenkamp ist Wirtschaftsinformatiker, Jurist und Gründer & Aufsichtsrat des KI-Unternehmens LMIS AG. Er engagiert sich in Themen der KI.

Mit Differential Privacy und Generative Adversarial Networks (GANs) gibt es zwei vielversprechende Verfahren, um datenschutzrechtliche Anforderungen bereits beim Training der KI zu erfüllen. Anhand des Einsatzes dieser Verfahren im Bereich des autonomen Fahrens lässt sich exemplarisch zeigen, wie sie einen entscheidenden Beitrag leisten können.