zurück zum Artikel

Können Maschinen rassistisch sein?

Eva Wolfangel

Intelligente Algorithmen können uns Menschen viele lästige Entscheidungen abnehmen. Doch das kann auch zu drastischen Auswirkungen auf die Betroffenen führen.

Je mehr Margarine US-Bürger essen, umso mehr Menschen lassen sich im US-Staat Maine scheiden. Steigt der Käsekonsum, sterben mehr Menschen daran, dass sie sich in ihrem Bettzeug verheddern. Und parallel zum Erscheinen eines Films mit Nicolas Cage ertrinken verstärkt Menschen nach einem Sturz in einen Pool.

Offensichtlicher Unfug? All diese seltsamen Zusammenhänge, die der Harvard-Student Tyler Vigen auf seiner Internetseite "Spurious Correlations" [1] zusammengetragen hat, sind "statistisch signifikant". Das heißt, die Daten passen so gut zusammen, dass rein statistisch eigentlich kein Zufall möglich ist. Und alle diese Zusammenhänge haben Computer gefunden, schreibt Vigen in seinem gleichnamigen Buch. Die Software nimmt einen Datensatz und vergleicht systematisch, ob sich ein anderer Datensatz mathematisch genauso verhält.

Jeder Mensch sieht auf den ersten Blick, dass es keinen kausalen Zusammenhang zwischen der Scheidungsrate und dem Käseverbrauch gibt. Das kleine Problem ist: Eine Maschine erkennt das nicht. Dennoch fällt sie auf der Basis von Mustern in Daten Entscheidungen. Entscheidungen, die für Menschen existenzielle Auswirkungen haben können – beispielsweise ob sie einen Kredit oder einen Job bekommen oder eine Grenze überqueren dürfen. "Im 21. Jahrhundert haben wir es mit Maschinen zu tun, die handeln. Maschinen, die in Zukunft beispielsweise entscheiden, wer eingestellt oder wer als Terrorist verdächtigt wird", warnt die US-amerikanische Techniksoziologin Zeynep Tufekci von der School of Information and Library Science an der University of North Carolina.

Zumindest die ersten Erfahrungen geben ihr recht. Jenseits von Kaufempfehlungen bei Amazon, bei denen seltsame Korrelationen höchstens nervig sind, gehen derzeit vor allem Anwendungen im Sicherheitsbereich auf das Konto intelligenter Algorithmen: Sie sollen lernen, Verdächtige selbstständig zu erkennen. Verhält sich jemand im Bereich einer Kameraüberwachung anders als die Mehrheit? Ist er irgendwie auffällig? Schon hier zählt die Frage nicht mehr, wieso sich jemand beispielsweise anders bewegt, sondern nur die Tatsache, dass er es tut – und das macht ihn im Zweifel verdächtig. Solche Menschen überprüfen dann Polizisten oder Wachleute. Aus den USA gibt es erste Berichte von Transsexuellen, die von Körperscannern am Flughafen geoutet wurden: Der Algorithmus erkannte "falsche" Geschlechtsteile, beispielsweise einen Penis bei einer Frau – und schlug Alarm.

Nebenbei Transsexuelle zu outen, sei natürlich nicht das Ziel gewesen, verteidigen sich die Verantwortlichen. Aber genau das ist das Problem: Solcherlei selbstlernende Systeme ziehen ihre Schlüsse selbst. Die Kontrolle über sie geht verloren. "Man kann am Ende nicht mehr genau sagen, welche Eigenschaften der Trainingsdaten sich wie im Modell niederschlagen", sagt Tobias Matzner, Philosoph und Informatiker an der Uni Tübingen.

Auch der Informatiker Kavé Salamatian von der Université de Savoie in Annecy sieht ein grundsätzliches methodisches Problem: "Früher hatte man eine These, hat dazu ein Experiment gemacht und die Hypothese entweder bestätigt oder verworfen", sagt er. Heute stehe das Experiment am Anfang: in Form bereits vorhandener Daten. "Aus den Mustern entsteht die These – und wir bekommen erst am Ende raus, was die Frage war." Eine kritische Bewertung der Hypothese entfällt.

Salamatian befürchtet zudem, dass Anwender dieser Sicherheitstechnologien – wie die meisten Menschen – kein Verständnis für Wahrscheinlichkeiten haben: "Es gibt einen riesigen Unterschied zwischen Wahrscheinlichkeit und Realität", sagt er. Berechne ein System etwa, dass jemand zu 99 Prozent ein Mörder ist, sage das zwar nichts darüber aus, ob er tatsächlich einen Menschen umgebracht hat. Dennoch könnte das Ergebnis die Unschuldsvermutung aushebeln – erst recht dann, wenn ein aufgebrachtes Volk einen vermeintlichen Täter jagt.

Derartige Vorverurteilungen sind zugegeben nicht neu, aber maschinelle Entscheidungen verschleiern die Verantwortung. Die Sicherheitsbeamten werden sich immer darauf zurückziehen, dass nicht sie, sondern das System eine Entscheidung getroffen habe. "Wir dürfen unsere Verantwortung nicht abgeben", warnt Salamatian. Sein wichtigster Rat für die Zukunft lautet daher: Stets einen Menschen definieren, der das System überwacht, dafür verantwortlich ist und im Notfall einen "Ausknopf" drücken kann, wenn ihm die Ergebnisse seltsam vorkommen. Nur: "In vielen computerisierten Systemen hat man diesen Knopf heute nicht."

Aber wie kann ein Mensch erkennen, wann der Computer die falsche Abzweigung nimmt? Wer kann in komplexeren Fällen überprüfen, ob die Algorithmen "sinnvolle" Muster erkennen, jenseits zufälliger Zusammenhänge? Überzeugte Anhänger solcher Verfahren fordern in so einem Fall noch mehr Daten, um logische Zusammenhänge von zufälligen zu trennen. Matzner hingegen findet diese Herangehensweise falsch. Schließlich nutzen wir Maschinen, "weil sie eine andere Sicht auf die Welt haben". Es liegt in der Natur der Sache, dass sie auch unsinnige Korrelationen ausspucken. Um das Ergebnis mit der Realität abzugleichen, "muss am Ende der Mensch wieder ins Spiel kommen", fordert Matzner. Nur er weiß um die Stärken und eben auch Schwächen solcher Verfahren und kann sie ausbügeln.

Ein Problem aber bleibt: Die Gründe für maschinelle Entscheidungen werden immer schwerer nachvollziehbar. Am Ende könnten sie sich genau deshalb der gesellschaftlichen Kontrolle entziehen. Die Schwierigkeiten erläutert Eric Horvitz, leitender Forscher bei Microsoft Research, am Beispiel der sozialen Medien: "Maschinelles Lernen erschwert es dem Einzelnen zunehmend zu verstehen, was andere über ihn wissen können auf der Basis jener Dinge, die er bewusst geteilt hat." Studien zeigen, dass mittels Daten aus sozialen Netzwerken depressive Nutzer mit hoher Treffergenauigkeit erkannt werden können. Wenn Algorithmen auf dieser Datenbasis vorhersagen, dass ein Mensch vermutlich eine Depression entwickeln wird, kann ein Arbeitgeber entsprechende Bewerber legal ablehnen. Denn nur akute Krankheiten schützen den Bewerber, keine drohenden. "Die Gesetze sind nicht auf dem Stand der Technologie", moniert Horvitz. Die Politik müsse nacharbeiten: "Auch wenn das eine Herausforderung ist, sind solche Gesetze ein wichtiger Teil der rechtlichen Landschaft der Zukunft. Sie werden helfen, Freiheit, Privatsphäre und das Allgemeinwohl voranzubringen."

Noch schwieriger wird es, wenn Algorithmen bei Antworten weit subtiler agieren: Wenn sie also Antworten auf Fragen liefern, für die es keine eindeutig richtigen oder falschen Antworten gibt, und damit Haltungen von Menschen gezielt beeinflussen können. Bekanntestes Beispiel ist Facebook: Das Unternehmen hat selbst in mehreren Studien gezeigt, dass nur winzige Veränderungen im Newsfeed-Algorithmus die Meinung der Nutzer zu den geteilten Inhalten anderer verändern. Auch die Wahlbeteiligung kann Facebook laut eigener Studien beeinflussen, indem es Nutzern vor Augen führt, dass beispielsweise deren Freunde wählen waren. In einem konkreten Versuch ließen sich 2010 knapp 0,4 Prozent der angesprochenen 60 Millionen Nutzer überzeugen. Das sind immerhin mehrere Hunderttausend zusätzliche Wähler. Bei einem knappen Ausgang kann diese Manipulation wahlentscheidend sein, wie die Präsidentschaftswahl 2000 zeigte: Knapp 600 Stimmen in Florida gaben den Ausschlag für George W. Bush.

"Google und Twitter können Wahlen beeinflussen – ohne dass wir das nachweisen können", warnt Zeynep Tufekci. Denn der Ranking-Algorithmus bevorzugt bestimmte Inhalte und empfiehlt Nutzern Beiträge – und zwar abhängig davon, was er glaubt, was der jeweilige Nutzer sehen möchte. Besonders brisant dabei: Nur eine kleine Minderheit der Nutzer weiß, dass ihre Ergebnisse maschinell sortiert werden. Die meisten halten die Auswahl schlicht für eine Abbildung der Realität. Solche Algorithmen nennt man "Gatekeeper", da sie entscheiden, welche Inhalte zum Nutzer durchdringen und welche nicht. Google und Facebook haben damit eine ähnliche Rolle und Verantwortung wie die klassischen analogen "Gatekeepers" – beispielsweise Journalisten, die auswählen, welche Nachrichten es in die Zeitung schaffen. Nur bekommen in einer Zeitung alle Leser das Gleiche zu sehen. Sie wissen zudem, dass es eine Auswahl ist.

Um die Brisanz zu veranschaulichen, zeichnet Tufekci als Vergleich das Bild eines Telecom-Konzerns, der berechnet, mit welchen unserer Freunde wir am längsten telefonieren. Anschließend lässt er deren Anrufe lauter und länger klingeln, weil mit ihnen schließlich am meisten Geld zu verdienen ist. Andere Anrufer hingegen, mit denen wir eher kurze Gespräche führen, werden automatisch stumm geschaltet. "Das gäbe einen Aufschrei", so Tufekci. Der Fall Facebook liege zwar ähnlich, sei aber weniger offensichtlich. "Algorithmen handeln als heimliche und extrem machtvolle Gatekeeper, die nicht von Transparenz und Sichtbarkeit begleitet werden."

Das Problem ist bekannt. Glaubt man Insidern, haben die großen amerikanischen Unternehmen allerdings keine Ahnung, wie sie es lösen sollen. "Larry Page hat mich gefragt: Wie können wir unseren Ranking-Algorithmus so verändern, dass er bessere ethische Entscheidungen trifft?", berichtet ein Google-Mitarbeiter, der nicht genannt werden will. "Der Wille ist da, aber die Lösung fehlt." Was sollten Google oder Facebook idealerweise an den Top-Positionen zeigen? "Darauf gibt es keine einfache, keine richtige Antwort", sagt auch Tufekci.

Aber trotz aller Kritik sind sich alle befragten Forscher einig: Wir sollten die neuen technischen Möglichkeiten auf jeden Fall nutzen. Denn richtig eingesetzt, könnten die Algorithmen tatsächlich objektivere Entscheidungen treffen als Menschen. "Die menschliche Entscheidung ist schließlich fehleranfällig", sagt Tufekci – zum Beispiel von Vorurteilen geprägt. Was also tun? Gesellschaftliche Aufklärung ist das Erste, das alle Experten vorschlagen: Informatik und Statistik als Schulfächer, soziale Verantwortung als Pflichtteil des Informatikstudiums beispielsweise.

Ohne flankierende Gesetze wird es aber nicht gehen, meint Viktor Mayer-Schönberger, Professor of Internet Governance and Regulation in Oxford: "Ethisch problematische Verwendungen müssen jetzt eingeschränkt werden." Generell rät er davon ab, mittels Daten aus der Vergangenheit Entscheidungen für die Zukunft zu treffen. Denn wenn der Algorithmus eines Tages nicht mehr sagt: "Menschen wie Sie interessieren sich auch für folgende Bücher", sondern "Menschen wie Sie fahren in der Regel rowdyhaft, Sie bekommen schon präventiv keinen Führerschein", sieht er die menschliche Freiheit in Gefahr.

Auch Salamatian plädiert dafür, manche Anwendungsfälle auszuschließen: Vorhersagende Systeme jeder Art wie Predictive Policing sollte sich der Mensch zurückholen. "Wir können nicht überschauen, ob der Algorithmus richtig liegt", sagt er. "Wenn ich die Menschen ausblende, blende ich auch die Vorannahmen aus und tue so, als wäre das reine Empirie", sagt er. Und das ist gefährlich. So entstehe bei den Nutzern der Eindruck, diese Systeme seien unfehlbar: Was die Maschine aufgrund reiner Beobachtung der Realität errechnet hat, könne doch unmöglich falsch sein. Diskriminierende Annahmen verstecken sich dabei unter vielen Schichten von Technik und tun so, als seien sie objektiv.

Ein gutes Beispiel dafür sind maschinelle Personalentscheidungen: So finden Algorithmen etwa einen Zusammenhang zwischen steigender Wegstrecke zum Arbeitsplatz und Fluktuation entsprechender Mitarbeiter. Der Computer rät also zu Bewerbern, die näher am Unternehmen wohnen. Zumindest in den USA trifft diese Korrelation aber vermehrt Schwarze, die häufig in den Außenbezirken leben. Der Rassismus hat sich durch die Hintertür eingeschlichen. Salamatian ist überzeugt, dass wir die meisten derartigen Probleme gar nicht mitbekommen. Sein Fazit: "Diese ganzen inhärenten Probleme zeigen, dass man die Technologie in Bereichen mit weitreichenden Konsequenzen für die Betroffenen nicht anwenden darf." (bsc [2])


URL dieses Artikels:
https://www.heise.de/-3193900

Links in diesem Artikel:
[1] http://www.tylervigen.com/spurious-correlations
[2] mailto:bsc@heise.de