re:publica 2018: Danah Boyd, die Algorithmen und die Macht

Die Medienforscherin Danah Boyd plädiert für eine neue Verantwortungskultur für Medien und Technik-Plattformen. Wer Algorithmen bändigen will, müsse den Kontext verstehen, in dem sie eingesetzt werden und wirken.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
re:publica 2018: Danah Boyd, die Algorithmen und die Macht

Danah Boyd auf der re:publica 2018: "Technik ist nicht der Grund für die Probleme, sie kann sie aber verstärken."

(Bild: heise online / Torsten Kleinz)

Lesezeit: 5 Min.
Von
  • Torsten Kleinz
Inhaltsverzeichnis

In ihrer Keynote auf der Internet-Konferenz re:publica in Berlin hat die Expertin für Social Media und leitende Wissenschaftlerin bei Microsoft Research für einen kompetenteren Diskurs über die negativen Effekte von Algorithmen geworben. "Technik ist nicht der Grund für die Probleme, sie kann sie aber verstärken", erklärte die Medienwissenschaftlerin.

Boyd skizzierte die vielfältigen Wechselwirkungen zwischen Technik und verschiedenen Gesellschaftsbereichen, insbesondere der Massenmedien. So hätten es beispielsweise die Mitglieder des Imageboards 4chan und später auch viele Gruppen von Trollen geschafft, die derzeit wirksamen Aufmerksamkeitssysteme zu hacken und somit für ihre Zwecke einzusetzen.

Als frühes Beispiel nannte Boyd einen Auftritt der TV-Moderatorin Oprah Winfrey im Jahr 2008, bei dem sie das Manifest einer frei erfundenen Gruppe von pädophilen Straftätern vorgelesen hatte. Die Trolle hatten sich dabei die teilweise hysterische Berichterstattung über die Online-Gefahren für Kinder zu Nutze gemacht.

Die Technik, mit gezielter Provokation in den öffentlichen Diskurs einzugreifen, sei mittlerweile von vielen Gruppen perfektioniert worden. Der zunehmende Einsatz von Algorithmen erleichtere die Medienmanipulation. So nutzten Troll-Gruppen soziale Medien, um bei Ereignissen wie zum Beispiel Amokläufen mit vielen Toten das Narrativ der Medien zu übernehmen.

So hätten es sich rechtsextreme Gruppen zur Taktik gemacht, nach jeder publikumswirksamen Straftat Antifa-Aktivisten dafür verantwortlich zu machen. Sie streuten Gerüchte und schrieben Journalisten gezielt an. Sobald ein Medienmitarbeiter nach den genannten Schlagworten auf Google suche, werde er zwangsläufig auf die Spuren stoßen, die die Trolle vorher an zahlreichen Plätzen gelegt hätten, um die vermeintliche Relevanz ihrer Verschwörungstheorien zu belegen.

Solchen Strategien hätten insbesondere Suchmaschinen derzeit wenig entgegenzusetzen. Wenn beispielsweise ein Amoklauf publik wird, orientiere sich Google an sozialen Medien wie Reddit oder Twitter, in denen gezielt Gerüchte gestreut werden können. Dies führt zu einer Rückkopplung: Kaum seien die Gerüchte in den ersten Suchmaschinentreffern zu finden, würden sie von immer mehr Menschen schließlich auch von Medien aufgegriffen.

Dabei verstünden die Redaktionen hierbei die Wirkung ihrer Arbeit nicht, kritisierte die Medienforscherin. So verwies Boyd auf einen Artikel auf Newsweek, in dem eigentlich die Berichte über einen Antifa-Mörder als substanzlose Verschwörungstheorien der extremen Rechten dargestellt werden sollten. Auf Google News landete jedoch nur der erste Teil der Überschrift. "Antifa Responsible for Sutherland Springs Murders" – "Die Antifa ist für die Morde in Sutherland Springs verantwortlich". Dies reiche schon, um bestimmte Zielgruppen von der Gültikeit ihres extremen Weltbildes zu überzeugen. Als Gegenmittel empfiehlt Boyd den Medien daher "strategisches Schweigen".

Boyd verwies hier auf die Geschichte der Radikalisierung des Mörders Dylann Roof, der sich über das Lesen eines Wikipedia-Artikels über den Mordfall Trayvon Martin radikalisiert habe. Denn in dem neutral geschriebenen Artikel sei die Phrase "black on white crime" aufgetaucht. Als Roof danach bei Google suchte, sei er ausschließlich auf rechtsradikale Foren gestoßen, in denen die Existenz oder die Notwendigkeit eines Rassenkrieges in den USA debattiert wird.

Nachdem Roof in diese Zirkel vorgedrungen sei, habe er immer mehr vermeintliche Belege für seine Idee des Rassenkampfes gesehen. Dieses Phänomen wird nach dem Film "Matrix" mittlerweile "red pilled" genannt. Wer einmal einen bestimmten Weg eingeschlagen habe und ein radikales Weltbild als Ausgangspunkt nehme, sehe bereitwillig jede Information als weiteren Beleg für seine Thesen.

Generell zeichnete Boyd ein pessimistisches Bild vom Einsatz algorithmischer Entscheidungssysteme. "Es ist durchaus möglich, dass eine Software zur Dienstplanerstellung dazu verwendet wird, die Zufriedenheit der Arbeitnehmer einzusetzen", sagte Boyd. Doch in der Realität würde die Software in den USA derzeit dafür optimiert, die Bildung von Gewerkschaften zu verhindern.

Auch die menschliche Kontrolle von Algorithmen sei eher eine Fiktion. So diene ein Pilot in einem Verkehrsflugzeug eher als Babysitter für die algorithmischen Systeme und greife im Alltag noch manuell in den Flugbetrieb ein. Wenn dann die automatischen Systeme versagten, sei auch der Mensch überfordert, das Flugzeug wieder in den Griff zu bekommen. Dies sei auch den Fluggesellschaften bewusst. Der Mensch im Cockpit diene dazu, ihn im Falle des Falles haftbar zu machen, der Pilot sei eine "moralische Knautschzone".

Insgesamt plädierte Boyd dafür, die Macht von Algorithmen differenzierter zu betrachten. Letztlich hänge ihre Wirkung von vielen Faktoren ab. Alleine über den Einsatz von Algorithmen seien gesellschaftliche Probleme eher nicht zu lösen. Wenn das Umfeld nicht stimme, in denen die Automatismen eingesetzt werden, neigten sie dazu, die Probleme sogar zu verschlimmern. (anw)