zurück zum Artikel

Firewall gegen Hass

Eva Wolfangel, Gregor Honsel

Die dunkle Seite des Netzes hat 2016 eine steile Karriere hingelegt. Den Anfang machten hasserfüllte Kommentare oder Posts, dann folgten im Zuge des US-Wahlkampfs gefälschte Nachrichten. Was hilft gegen Hass und Lüge im Netz

Im Herbst 2016 tobt auf Twitter eine Schlammschlacht: Das Projekt #nichtegal [1], finanziert von YouTube und unterstützt von der Bundesregierung, trifft auf tiefes Misstrauen. Dabei geht es in dem Projekt lediglich darum, Nutzer für Hassrede im Netz zu sensibilisieren und über Cybermobbing aufzuklären; gelöscht oder gar strafrechtlich verfolgt werden soll nichts.

Ähnliche Initiativen betreibt YouTube schon seit 2009 – nur offenbar weitgehend unbemerkt von der Öffentlichkeit. Aber die Netzgemeinschaft war sensibel nach einem Jahr, in dem das Phänomen "Hatespeech" – also beleidigende oder rassistische Äußerungen im Internet – bislang unbekannte Ausmaße erreicht hat. Und als wenn das noch nicht gereicht hätte, zeigte sich im Umfeld der US-Präsidentschaftswahl mit dem Überraschungssieger Donald Trump, dass sich gefälschte Nachrichten über seine Gegnerin Hillary Clinton in den sozialen Medien größerer Beliebtheit erfreuten als die Wahrheit.

Zu Beginn des Jahres herrschte vor allem Bestürzung darüber, wie erfolgreich die Terrororganisation Islamischer Staat junge Menschen in Europa rekrutiert. Schnell wurde klar, dass die Islamisten die Schneeballeffekte des Netzes geschickter ausnutzen als die meisten Werbenetzwerke. Dann erfasste die Debatte auch die Internet-Hetze deutscher Extremisten gegen Minderheiten oder Flüchtlinge. Im Sommer schaltete sich sogar Justizminister Heiko Maas ein und drängte die Social-Media-Größen zum Handeln.
In den USA ist das Problem des Hasses im Netz noch weiter verbreitet als in Europa. Bei Twitter stellen weiße Nationalisten sogar die Propaganda des IS in den Schatten, wie eine Studie von September 2016 zeigte. Denn ihre Aktivitäten auf der Plattform nehmen schneller zu als die der Islamisten – bezogen sowohl auf die Zahl der Follower als auch die der Tweets.

Im US-Präsidentschaftswahlkampf machten sich parallel dazu zwei neue Spielarten entgleister Kommunikation bemerkbar: Social Bots und Fake-Nachrichten. Forscher der University of Southern California fanden heraus, dass sich allein auf Twitter 400.000 Social Bots in die politische Debatte einmischten [2]. Die Textroboter lassen sich nur schwer von menschlichen Nutzern unterscheiden und waren für rund 20 Prozent aller Wahlkampf-Tweets verantwortlich. 75 Prozent von ihnen dienten der Unterstützung von Trump.

Der Republikaner bekam noch weiteren Rückenwind aus unvermuteter Richtung – aus der mazedonischen Kleinstadt Veles. Dort hat sich nach Recherchen des Online-Magazins Buzzfeed eine kleine Industrie gebildet, die von Angriffen auf Hillary Clinton lebte. Jugendliche nutzen Facebook, um Traffic auf eigens eingerichtete Webseiten voller skandalheischender Geschichten zu lenken und dort mit Werbebannern Geld zu verdienen. Vier ihrer fünf erfolgreichsten Meldungen waren erfunden. Sie erhielten trotzdem mehr als eine Millionen Shares, Reaktionen oder Kommentare auf Facebook.

Wer die USA regiert, ist den mazedonischen Klickfischern laut Buzzfeed völlig egal. Aber Clinton-Bashing erzeugte erfahrungsgemäß mehr Traffic. Insgesamt, berichtet Buzzfeed, waren Fake-Meldungen in den Monaten vor der Wahl erfolgreicher als die Nachrichten etablierter Medien. Die 20 erfolgreichsten Fake-News kamen demnach auf 8,7 Millionen Facebook-Reaktionen, gegenüber 7,3 Millionen bei den klassischen Meldungen. Es wäre naiv anzunehmen, würde die Bundestagswahl 2017 von solchen Auswüchsen verschont bleiben.

Was also lässt sich gegen sie unternehmen? Zahed Amanullah [3] vom Londoner Institute for Strategic Dialogue (ISD) hat sich vor dem Hintergrund der IS-Propaganda intensiv mit dieser Frage beschäftigt. Mit Löschen kommt man kaum hinterher, ist seine Erfahrung. "Die Inhalte verbreiten sich zu schnell", sagte er im Januar im Gespräch mit Technology Review [4]. Sein Institut versucht es daher auf einem anderen Weg: Gegenrede. Die große Herausforderung ist allerdings, Positionen gegen extremistische Haltungen und Unwahrheiten möglichst effizient zu verbreiten. Ohne Hilfe der großen US-amerikanischen Digitalunternehmen und deren Algorithmen ist das nahezu unmöglich, befand das ISD. Seit März bekommen zum Beispiel Facebook-Nutzer, die von einem Algorithmus als offen für problematische Inhalte erkannt wurden, Links zu korrigierenden Informationen in ihre Timeline gestellt.

In Deutschland ist das beispielsweise die Hoaxmap, eine Karte, auf der eine junge Leipzigerin Falschmeldungen über Flüchtlinge enttarnt. Denn als der Strom der Migranten ab dem Sommer immer weiter anschwoll, wurden auch immer mehr hässliche Stimmen über sie und die dafür verantwortlichen Politiker laut. 2,5 Millionen Nutzer in Deutschland, Frankreich und Großbritannien habe man in vier Monaten erreicht, sagt Erin Saltman vom ISD: "Das ist eine große Zahl – und dank Targeting wissen wir, dass wir die richtigen Leute erreichen." Ähnlich funktioniert ein Projekt des ISD mit YouTube, bei dem junge Nutzer, die sich in Google-Suchen als anfällig für IS-Propaganda gezeigt haben, Videos von IS-Aussteigern präsentiert bekommen. Ist das nicht Manipulation, wenn auch für einen guten Zweck? "Wir tun nur das, was die Marketingindustrie auch macht", sagt Amanullah dazu.

Vom Tisch ist das Löschen von Hassbotschaften und gezielten Unwahrheiten damit jedoch nicht. Vor allem nach der US-Wahl wuchs der Druck auf die großen Plattformen, Verantwortung für die auf ihnen verbreiteten Inhalte zu zeigen. Facebook-Chef Mark Zuckerberg bezeichnete es zwar als "verrückte Idee", dass gefälschte Facebook-News Einfluss auf die Wahl [5] gehabt haben sollten. Aber selbst eigene Mitarbeiter widersprachen ihm da öffentlich. Wenige Tage nach der Wahl kündigten Facebook und Google daher an, Webseiten mit gefälschten Nachrichten aus ihrem Werbenetzwerk auszuschließen. Um die Ankündigung wirklich umzusetzen, müsste speziell Facebook gleich zweimal über den eigenen Schatten springen: Erstens versteht sich der Konzern als reine Vermittlungsplattform ohne Verantwortung für die Inhalte der Nutzer. Zweitens entscheidet bei ihm traditionell nur ein Kriterium über den Wert einer Nachricht: ihre Popularität, nicht ihr Wahrheitsgehalt.

Technisch ist es jedenfalls machbar, den gröbsten Nonsens herauszufiltern. Vier Princeton-Studenten schrieben in nur 36 Stunden eine Erweiterung für den Chrome-Browser, der die Nachrichten in der Facebook-Timeline mit einem "Trust Score" versieht. Dazu überprüft ein Programm im Hintergrund die Vertrauenswürdigkeit der Quellen. Die gleiche Software warnt auch, wenn ein Nutzer sich anschickt, mutmaßlich falsche Meldungen weiterzuverbreiten.

Deutlich schwieriger ist es hingegen, Hass im Netz zu entdecken. Im Laufe des Jahres gab es immer wieder Versuche, doch die Rückschläge folgten meist auf den Fuß: "Häufig erwischt es die Falschen", sagt der ISD-Aktivist Amanullah aus Erfahrung. Denn im Zweifelsfall benutzen die Gegenredner die gleichen Worte wie die Hassredner. Und selbst Künstliche-Intelligenz-Algorithmen, die auch in automatischen Übersetzungen eingesetzt werden und die Struktur der menschlichen Sprache verstehen sollen, scheitern an versteckten Verneinungen, Ironie und Sätzen, die sich erst aus dem Kontext erschließen. Computerlinguisten waren deshalb bis vor Kurzem mehrheitlich skeptisch, ob automatische Hasserkennung eine Zukunft hat. Erst mit dem Siegeszug von Deep Learning haben sich die Aussichten verbessert: Die dafür eingesetzten neuronalen Netze aus vielen Schichten sind besonders gut
darin, Satzstrukturen und Zusammenhänge selbstständig zu erkennen.

Yahoo präsentierte im August eine Studie, die als Durchbruch gesehen werden kann: Der Konzern trainierte einen Algorithmus mit mehreren Millionen von Menschen bewerteten Kommentaren. Anschließend konnte das System bei 90 Prozent aller neuen Kommentare korrekt einschätzen, ob es sich dabei um Hassrede handelte oder nicht. Überprüft wurde das mithilfe von Menschen, die Yahoo über den Amazon-Dienst Mechanical Turk anheuerte.

Ähnliche Bemühungen gibt es auch in Deutschland. So hat Sebastian Köffer, Wirtschaftsinformatiker an der Universität Münster, mit Studenten das Analysesystem hatemining.de [6] entwickelt. Die Gruppe ließ zunächst 12.000 Kommentare zur Flüchtlingsdebatte von Menschen bewerten und trainierte damit ihren Algorithmus. In 70 Prozent der Fälle erkannte er Hassreden dann korrekt. Noch ist "das aber nicht mehr als ein Proof of Concept", schränkt Köffer ein. Man habe viel zu wenige Trainingsdaten und kaum repräsentative Nutzer gehabt.

Trotzdem ist er überzeugt, dass Computer Hassrede in Zukunft recht treffsicher erkennen. Ganz ohne Menschen wird es aber nicht gehen: Sie müssen die Computerentscheidungen überprüfen. Denn: "Ironie wird ein Problem bleiben für die automatische Erkennung."

Radikale Befürworter des Rechts auf freie Meinungsäußerung werden ihm Zensur vorwerfen. "Die Gefahr besteht", räumt der Forscher ein. Dennoch sei ein System, wie es ihm vorschwebt, im Zweifelsfall transparenter und weniger beliebig als die aktuelle Praxis, bei der häufig Praktikanten entscheiden, welche Kommentare gelöscht werden und welche nicht.

(grh [7])


URL dieses Artikels:
https://www.heise.de/-3554090

Links in diesem Artikel:
[1] https://twitter.com/hashtag/nichtegal
[2] https://www.heise.de/blog/Der-Nacht-in-der-die-Daten-starben-3462245.html
[3] https://www.heise.de/hintergrund/Loeschen-trifft-die-Falschen-3235715.html
[4] https://shop.heise.de/katalog/loschen-trifft-die-falschen
[5] https://www.heise.de/news/Fake-News-auf-Facebook-Falschmeldungen-ueberfluegelten-Nachrichten-3489029.html
[6] https://www.hatemining.de/
[7] mailto:grh@technology-review.de