Datenethik-Kommission: Verbot von De-Anonymisierung und Profilbildung

Die Datenethik-Kommission empfiehlt, Algorithmen in fünf Risikostufen einzuteilen. Facebook & Co. müssten sich Programmroutinen vorab freigeben lassen.

In Pocket speichern vorlesen Druckansicht 73 Kommentare lesen
Netzwerk, Globus, Vernetzung
Lesezeit: 5 Min.
Inhaltsverzeichnis

Nach einem guten Jahr Arbeit hat die Datenethik-Kommission (DEK) der Bundesregierung am Mittwoch ihr Abschlussgutachten präsentiert. Die DEK gibt darin auf knapp 240 Seiten 75 Handlungsempfehlungen. Zentral ist dabei der Ruf nach einem "risikoadaptierten Regulierungssystem für den Einsatz algorithmischer Systeme". Programmroutinen sollen demnach nach "Kritikalität" bewertet und ja nach "Schädigungspotenzial" in fünf Stufen eingeteilt werden.

"Anwendungen mit unvertretbarem Schädigungspotenzial“ auf Stufe 5 sollen demnach komplett oder teilweise verboten werden. Zu derart "ethisch nicht-vertretbaren Datennutzungen" zählen die Autoren etwa Totalüberwachung, die Integrität der Persönlichkeit verletzende Profilbildung oder gezieltes ausnutzen von Schwachstellen und Angriffspunkten. Auch Design-Tricks wie Dark Patterns, die Nutzer gläsern oder abhängig machen sollen, finden sich in dieser Kategorie. Dazu kommen "dem Demokratieprinzip zuwiderlaufende" Versuche, politische Wahlen zu beeinflussen, Lock-ins, die "systematische Schädigung von Verbrauchern sowie viele Formen des Handels mit personenbezogenen Daten".

Bereits die etwa auf "Likes" basierende Nutzeranalyse von Facebook fällt für die Medizinethikerin Christiane Woopen in diesen verbotswürdigen Sektor. Der Nutzer gebe darüber Informationen über sich preis, da er etwa ein Bild schön oder eine Nachricht interessant finde, erläuterte die Co-Sprecherin der DEK. Gleichzeitig rechne Facebook mit Scoring-Verfahren aber aus, welche sexuellen Neigungen, persönlichen Umstände oder Persönlichkeitsmerkmale ein Nutzer habe. Daran richte er dann aus, welche News oder Werbung ein Mitglied bevorzugt erhalten oder wie es angesprochen werden solle, um möglichst viel zu kaufen oder eine bestimmte Partei zu wählen. Dies greife in den Kern der intimen Lebensgestaltung ein.

Viele andere Algorithmen-getriebene Anwendungen großer Plattformen wie auch Google, YouTube oder Twitter dürften nach dem Modell unter Stufe 4 fallen, da sie ein "erhebliches Schädigungspotenzial" aufweisen. Dies führe dazu, dass etwa eine "Live-Schnittstelle zur kontinuierlichen Kontrolle durch Aufsichtsinstitutionen" bereitgehalten und Algorithmen vorab freigeben lassen müssten. Generell rät die Kommission dazu, den mit der "Torwächterfunktion" solch großer Portale verbundenen Gefahren strenger zu begegnen.

Für Dienste mit geringem Gefahrenpotenzial schlagen die Experten diverse "formelle und materielle Anforderungen" wie Transparenz-, Kennzeichnungs- oder Informationspflichten vor sowie eine Risikofolgenabschätzung. Dazu sollten stärkere Kontrollen durch die Behörden treten. Für den Markt sehen sie eine "Zentralisierung der Datenschutzaufsicht" in einem Amt auf Bundesebene vor, das mit einem weiteren Mandat als die Bundesdatenschutzbehörde ausgestattet und eng mit anderen Fachaufsichtsstellen kooperieren sollte.