Firewall gegen Hass

Inhaltsverzeichnis

Vom Tisch ist das Löschen von Hassbotschaften und gezielten Unwahrheiten damit jedoch nicht. Vor allem nach der US-Wahl wuchs der Druck auf die großen Plattformen, Verantwortung für die auf ihnen verbreiteten Inhalte zu zeigen. Facebook-Chef Mark Zuckerberg bezeichnete es zwar als "verrückte Idee", dass gefälschte Facebook-News Einfluss auf die Wahl gehabt haben sollten. Aber selbst eigene Mitarbeiter widersprachen ihm da öffentlich. Wenige Tage nach der Wahl kündigten Facebook und Google daher an, Webseiten mit gefälschten Nachrichten aus ihrem Werbenetzwerk auszuschließen. Um die Ankündigung wirklich umzusetzen, müsste speziell Facebook gleich zweimal über den eigenen Schatten springen: Erstens versteht sich der Konzern als reine Vermittlungsplattform ohne Verantwortung für die Inhalte der Nutzer. Zweitens entscheidet bei ihm traditionell nur ein Kriterium über den Wert einer Nachricht: ihre Popularität, nicht ihr Wahrheitsgehalt.

Technisch ist es jedenfalls machbar, den gröbsten Nonsens herauszufiltern. Vier Princeton-Studenten schrieben in nur 36 Stunden eine Erweiterung für den Chrome-Browser, der die Nachrichten in der Facebook-Timeline mit einem "Trust Score" versieht. Dazu überprüft ein Programm im Hintergrund die Vertrauenswürdigkeit der Quellen. Die gleiche Software warnt auch, wenn ein Nutzer sich anschickt, mutmaßlich falsche Meldungen weiterzuverbreiten.

Deutlich schwieriger ist es hingegen, Hass im Netz zu entdecken. Im Laufe des Jahres gab es immer wieder Versuche, doch die Rückschläge folgten meist auf den Fuß: "Häufig erwischt es die Falschen", sagt der ISD-Aktivist Amanullah aus Erfahrung. Denn im Zweifelsfall benutzen die Gegenredner die gleichen Worte wie die Hassredner. Und selbst Künstliche-Intelligenz-Algorithmen, die auch in automatischen Übersetzungen eingesetzt werden und die Struktur der menschlichen Sprache verstehen sollen, scheitern an versteckten Verneinungen, Ironie und Sätzen, die sich erst aus dem Kontext erschließen. Computerlinguisten waren deshalb bis vor Kurzem mehrheitlich skeptisch, ob automatische Hasserkennung eine Zukunft hat. Erst mit dem Siegeszug von Deep Learning haben sich die Aussichten verbessert: Die dafür eingesetzten neuronalen Netze aus vielen Schichten sind besonders gut
darin, Satzstrukturen und Zusammenhänge selbstständig zu erkennen.

Yahoo präsentierte im August eine Studie, die als Durchbruch gesehen werden kann: Der Konzern trainierte einen Algorithmus mit mehreren Millionen von Menschen bewerteten Kommentaren. Anschließend konnte das System bei 90 Prozent aller neuen Kommentare korrekt einschätzen, ob es sich dabei um Hassrede handelte oder nicht. Überprüft wurde das mithilfe von Menschen, die Yahoo über den Amazon-Dienst Mechanical Turk anheuerte.

Ähnliche Bemühungen gibt es auch in Deutschland. So hat Sebastian Köffer, Wirtschaftsinformatiker an der Universität Münster, mit Studenten das Analysesystem hatemining.de entwickelt. Die Gruppe ließ zunächst 12.000 Kommentare zur Flüchtlingsdebatte von Menschen bewerten und trainierte damit ihren Algorithmus. In 70 Prozent der Fälle erkannte er Hassreden dann korrekt. Noch ist "das aber nicht mehr als ein Proof of Concept", schränkt Köffer ein. Man habe viel zu wenige Trainingsdaten und kaum repräsentative Nutzer gehabt.

Trotzdem ist er überzeugt, dass Computer Hassrede in Zukunft recht treffsicher erkennen. Ganz ohne Menschen wird es aber nicht gehen: Sie müssen die Computerentscheidungen überprüfen. Denn: "Ironie wird ein Problem bleiben für die automatische Erkennung."

Radikale Befürworter des Rechts auf freie Meinungsäußerung werden ihm Zensur vorwerfen. "Die Gefahr besteht", räumt der Forscher ein. Dennoch sei ein System, wie es ihm vorschwebt, im Zweifelsfall transparenter und weniger beliebig als die aktuelle Praxis, bei der häufig Praktikanten entscheiden, welche Kommentare gelöscht werden und welche nicht.

(grh)