Gegen Diskriminierung durch Big Data: Forscher treten für Datengerechtigkeit ein

Beim "Predictive Policing" fließen Vorurteile in Polizeiarbeit ein, Scoring sorge für Benachteiligung aufgrund der Nachbarschaft, meinen britische Medienwissenschaftler. Sie haben auf der re:publica ein Projekt vorgestellt, mit dem sie dem begegnen wollen

In Pocket speichern vorlesen Druckansicht 48 Kommentare lesen
Lina Dencik von der School of Journalism

Lina Dencik von der School of Journalism, Media and Cultural Studies der britischen Cardiff-Universität auf der re:publica.

(Bild: heise online / Stefan Krempl)

Lesezeit: 3 Min.

Lina Dencik und Arne Hintz von der School of Journalism, Media and Cultural Studies der britischen Cardiff-Universität haben am Dienstag auf der re:publica in Berlin dafür geworben, "Datengerechtigkeit" direkt in die Informationstechnik einzubauen. Nach "Privacy by Design" sei es an der Zeit, "Data Justice" von vornherein schon während der Arbeit an Algorithmen für die Analyse von Big Data zu berücksichtigen und "alternative Datensysteme zu entwerfen", erklärte Dencik auf der Internetkonferenz.

"Datengerechtigkeit" wollen die Medien- und Kulturwissenschaftler ähnlich wie die Kategorie sozialer Gerechtigkeit verstanden wissen. Die Debatte über den Datenschutz müsse neu gefasst und mit Fragen zur Gleichheit, Fairness und Macht personenbezogener oder von Maschinen generierter Informationen und Messwerte zusammen gedacht werden. Sämtliche datengetriebenen Prozesse müssten zur Rechenschaft gezogen und transparent gemacht werden.

Hintz beschrieb die laufende "Datafizierung" als "Transformation unserer Leben in Datenpunkte". Immer mehr Bewegungs- oder Gesundheitsinformationen entstünden etwa mit Smartphones, Wearables sowie beim Surfen im Web. Betreiber sammelten diese Datenmengen, werteten sie aus und leiteten daraus etwa Verhaltensmuster ab. Die Folge seien Entwicklungen wie Predictive Policing und Risikoeinschätzungen per Scoring durch die Finanz- oder Versicherungswirtschaft. Am weitesten gehen wolle hier China bis 2020 mit einem "Citizen Score", der letztlich der sozialen Kontrolle dienen solle.

Das größte Problem ist laut Hintz dabei, dass die eingesetzten Algorithmen geheim, die resultierenden Schätzwerte undurchsichtig seien. Schon beim Geoscoring werde anhand der Nachbarschaft, in der man wohne, "systematisch diskriminiert". In die "vorausschauende Polizeiarbeit" flössen vor allem bestehende Vorurteile in die Algorithmen mit ein, sodass etwa Schwarze oder Aktivisten schlechter gestellt und stärker überwacht würden. Edward Snowden habe am Beispiel der NSA zudem enthüllt, dass die Geheimdienste längst die Leben der Bürger komplett datafiziert hätten.

Die technische Antwort darauf sei, dass vor allem Experten ihre Kommunikation zunehmend verschlüsselten und Anonymisierungsdienste nutzten. Dazu komme der rechtliche Weg mit Klagen gegen überbordende Überwachung. Beide Wege hätten aber ihre Grenzen und bezögen sich meist nur auf individuelle Handlungen, während der Großteil der Gesellschaft weiter durchrastert werde, was letztlich die sozialen Teilhabemöglichkeiten gefährde.

Die Forscher haben daher im März ein Online-Labor für Datengerechtigkeit ins Leben gerufen, um zunächst die europäische Debatte über das Konzept voranzubringen und mehr Interessenvertreter einzubinden. Denkbar sei es etwa, über die Plattform Allianzen zwischen verschiedenen Communities zu schließen, führte Dencik aus. So könnten sich Datenschützer mit Kämpfern für erschwingliches Wohnen unter dem Dach der neuen Form einer Anti-Diskriminierungskampagne vereinen. Parallel müsse stärker über die Datenethik geforscht werden. (anw)