Firewall gegen Hass

Die dunkle Seite des Netzes hat 2016 eine steile Karriere hingelegt. Den Anfang machten hasserfüllte Kommentare oder Posts, dann folgten im Zuge des US-Wahlkampfs gefälschte Nachrichten. Was hilft gegen Hass und Lüge im Netz

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Lesezeit: 8 Min.
Von
Inhaltsverzeichnis

Im Herbst 2016 tobt auf Twitter eine Schlammschlacht: Das Projekt #nichtegal, finanziert von YouTube und unterstützt von der Bundesregierung, trifft auf tiefes Misstrauen. Dabei geht es in dem Projekt lediglich darum, Nutzer für Hassrede im Netz zu sensibilisieren und über Cybermobbing aufzuklären; gelöscht oder gar strafrechtlich verfolgt werden soll nichts.

Ähnliche Initiativen betreibt YouTube schon seit 2009 – nur offenbar weitgehend unbemerkt von der Öffentlichkeit. Aber die Netzgemeinschaft war sensibel nach einem Jahr, in dem das Phänomen "Hatespeech" – also beleidigende oder rassistische Äußerungen im Internet – bislang unbekannte Ausmaße erreicht hat. Und als wenn das noch nicht gereicht hätte, zeigte sich im Umfeld der US-Präsidentschaftswahl mit dem Überraschungssieger Donald Trump, dass sich gefälschte Nachrichten über seine Gegnerin Hillary Clinton in den sozialen Medien größerer Beliebtheit erfreuten als die Wahrheit.

Zu Beginn des Jahres herrschte vor allem Bestürzung darüber, wie erfolgreich die Terrororganisation Islamischer Staat junge Menschen in Europa rekrutiert. Schnell wurde klar, dass die Islamisten die Schneeballeffekte des Netzes geschickter ausnutzen als die meisten Werbenetzwerke. Dann erfasste die Debatte auch die Internet-Hetze deutscher Extremisten gegen Minderheiten oder Flüchtlinge. Im Sommer schaltete sich sogar Justizminister Heiko Maas ein und drängte die Social-Media-Größen zum Handeln.
In den USA ist das Problem des Hasses im Netz noch weiter verbreitet als in Europa. Bei Twitter stellen weiße Nationalisten sogar die Propaganda des IS in den Schatten, wie eine Studie von September 2016 zeigte. Denn ihre Aktivitäten auf der Plattform nehmen schneller zu als die der Islamisten – bezogen sowohl auf die Zahl der Follower als auch die der Tweets.

Im US-Präsidentschaftswahlkampf machten sich parallel dazu zwei neue Spielarten entgleister Kommunikation bemerkbar: Social Bots und Fake-Nachrichten. Forscher der University of Southern California fanden heraus, dass sich allein auf Twitter 400.000 Social Bots in die politische Debatte einmischten. Die Textroboter lassen sich nur schwer von menschlichen Nutzern unterscheiden und waren für rund 20 Prozent aller Wahlkampf-Tweets verantwortlich. 75 Prozent von ihnen dienten der Unterstützung von Trump.

Der Republikaner bekam noch weiteren Rückenwind aus unvermuteter Richtung – aus der mazedonischen Kleinstadt Veles. Dort hat sich nach Recherchen des Online-Magazins Buzzfeed eine kleine Industrie gebildet, die von Angriffen auf Hillary Clinton lebte. Jugendliche nutzen Facebook, um Traffic auf eigens eingerichtete Webseiten voller skandalheischender Geschichten zu lenken und dort mit Werbebannern Geld zu verdienen. Vier ihrer fünf erfolgreichsten Meldungen waren erfunden. Sie erhielten trotzdem mehr als eine Millionen Shares, Reaktionen oder Kommentare auf Facebook.

Wer die USA regiert, ist den mazedonischen Klickfischern laut Buzzfeed völlig egal. Aber Clinton-Bashing erzeugte erfahrungsgemäß mehr Traffic. Insgesamt, berichtet Buzzfeed, waren Fake-Meldungen in den Monaten vor der Wahl erfolgreicher als die Nachrichten etablierter Medien. Die 20 erfolgreichsten Fake-News kamen demnach auf 8,7 Millionen Facebook-Reaktionen, gegenüber 7,3 Millionen bei den klassischen Meldungen. Es wäre naiv anzunehmen, würde die Bundestagswahl 2017 von solchen Auswüchsen verschont bleiben.

Was also lässt sich gegen sie unternehmen? Zahed Amanullah vom Londoner Institute for Strategic Dialogue (ISD) hat sich vor dem Hintergrund der IS-Propaganda intensiv mit dieser Frage beschäftigt. Mit Löschen kommt man kaum hinterher, ist seine Erfahrung. "Die Inhalte verbreiten sich zu schnell", sagte er im Januar im Gespräch mit Technology Review. Sein Institut versucht es daher auf einem anderen Weg: Gegenrede. Die große Herausforderung ist allerdings, Positionen gegen extremistische Haltungen und Unwahrheiten möglichst effizient zu verbreiten. Ohne Hilfe der großen US-amerikanischen Digitalunternehmen und deren Algorithmen ist das nahezu unmöglich, befand das ISD. Seit März bekommen zum Beispiel Facebook-Nutzer, die von einem Algorithmus als offen für problematische Inhalte erkannt wurden, Links zu korrigierenden Informationen in ihre Timeline gestellt.

In Deutschland ist das beispielsweise die Hoaxmap, eine Karte, auf der eine junge Leipzigerin Falschmeldungen über Flüchtlinge enttarnt. Denn als der Strom der Migranten ab dem Sommer immer weiter anschwoll, wurden auch immer mehr hässliche Stimmen über sie und die dafür verantwortlichen Politiker laut. 2,5 Millionen Nutzer in Deutschland, Frankreich und Großbritannien habe man in vier Monaten erreicht, sagt Erin Saltman vom ISD: "Das ist eine große Zahl – und dank Targeting wissen wir, dass wir die richtigen Leute erreichen." Ähnlich funktioniert ein Projekt des ISD mit YouTube, bei dem junge Nutzer, die sich in Google-Suchen als anfällig für IS-Propaganda gezeigt haben, Videos von IS-Aussteigern präsentiert bekommen. Ist das nicht Manipulation, wenn auch für einen guten Zweck? "Wir tun nur das, was die Marketingindustrie auch macht", sagt Amanullah dazu.