Experten im Bundestag: "Soziale Netzwerke verdienen sehr gut an Fake News"
Digitalpolitiker wollten sich im Vorwahlkampf über Gefahren durch Falschmeldungen, Social Bots und Hacks für die Demokratie aufklären lassen. Auch die Sachverständigen stocherten vielfach im Nebel, hatten aber einige Ratschläge parat.
Im Blick auf die Bundestagswahl im Herbst und den Sieg von Donald Trump bei der Präsidentenkür in den USA heizt sich auch hierzulande die Debatte über Fake News, Social Bots und Hacks auf. Der Ausschuss digitale Agenda des Bundestag lud daher am Mittwoch zu einem Fachgespräch, um "Manipulationsversuche demokratischer Willensbildungsprozesse im Netz" auszuleuchten.
Aktionismus vorbeugen
Ein Allheilmittel gegen Propaganda, Meinungsmache oder Hass in sozialen Netzwerken oder Foren jenseits von Bildung, Aufklärung und Medienkompetenz zeichnete sich dabei nicht ab. Die Experten warnten vor allem vor dem Glauben, mit einem einzelnen Gesetz die noch gar nicht klar umrissene Misere beheben zu können. Es sei nicht angebracht, in eine "Trump-Panik" zu verfallen.
"Es ist wichtig, dass man vorsichtig agiert", versuchte der Münchner Politologe Simon Hegelich Aktionismus vorzubeugen. Die auf der Agenda stehenden Online-Phänomene seien schwierig empirisch zu erfassen. "Wir sind relativ blind, reden über Big-Data-Fragen", die sich nicht an einem Nachmittag beantworten ließen, räumte der Forscher ein. Zudem gestalte sich die Situation rund um die Medien- und Politiklandschaft hierzulande etwas anders als in den USA. Letztlich sei aber "jede politische Debatte, die in sozialen Netzwerken geführt wird, manipuliert". Überall fänden sich Bots oder hyperaktive Nutzer, "die systematisch Beiträge liken oder teilen".
Markus Reuter von Netzpolitik.org ergänzte, dass die Rede davon, die Demokratie werde zerstört, "alarmistisch" sei. Zuviel werde in der Debatte in einen Topf geworfen. Dies führe in der Regel zu Vorschlägen, die zu "Einschränkungen von Grund- und Freiheitsrechten" führten. Dabei hielten hierzulande etwa "Polizei und Medien" schon recht gut gegen fremdenfeindliche Gerüchte auf Facebook und Twitter.
Reaktion ohne Regulation
Im Namen der Amadeu-Antonio-Stiftung erachtete es Christina Dinar für unerlässlich, eine demokratische digitale Gegenkultur zu Hate Speech zu entwickeln und den "emanzipatorischen Raum des Web 2.0 zurückzuholen". Die Nutzer seien herausgefordert, "stärker zu hinterfragen, was sie sehen, posten und liken und wen sie damit gegebenenfalls unterstützen".
Christian Stöcker von der Hamburger Hochschule für angewandte Wissenschaften machte ein "insgesamt gesunkenes Vertrauen in traditionelle Medien und Institutionen" dafür verantwortlich, dass die politische Debatte stärker polarisiert und verzerrt werde. Damit wachse auch die "Verwundbarkeit für gezielte Desinformationen und Propaganda-Angriffe". Für den früheren Spiegel-Online-Journalisten ist klar: "Die Gesellschaft muss reagieren, aber nicht primär mit regulatorischen Maßnahmen".
Schon den Begriff "Fake News" hielt Daniel Fiene, Leiter Digitalstrategie der Rheinischen Post, "für total unbrauchbar". Bei umstrittenen Medienportalen wie Breitbart etwa sei "nicht alles falsch, aber sie sind ganz groß darin, Zweifel zu säen". Trump verwende die Wortkombination gar dazu, um alle Publikationen niederzuschmettern, die sich nicht mit seinem Meinungsbild deckten. Der neue US-Präsident wisse auch genau, dass angesichts der herrschenden "Twitter-Hysterie" schier jeder seiner Tweets eine Eilmeldung erzeuge.
Lukrative Fake News
Der Vertreter der alt-neuen Medien plädierte dafür, Plattformbetreiber viel stärker in die Pflicht zu nehmen. "Soziale Netzwerke verdienen sehr gut an Fake News", kam Fiene an dem ungeliebten Begriff dann doch nicht vorbei. Falschmeldungen könnten schließlich mit dem entsprechendem Budget werblich stärker verbreitet werden. Aber auch die "Quellen" müssten schärfer adressiert werden.
Aus dem politischen Raum gibt es bereits Rufe nach einem Gegendarstellungsrecht auf Facebook & Co., strafrechtlichen Konsequenzen bei Verstößen gegen Geschäftsbedingungen, scharfen Löschpflichten oder einer Kennzeichnungspflicht für Social Bots. Letzteres bezeichneten die Experten prinzipiell als sinnvoll. Der Nutzer habe "ein Recht zu wissen, ob ich mit einer Maschine rede", meinte Stöcker. Über die Programmierschnittstellen der Plattformbetreiber ist es laut Hegelich auch einfach, automatisch generierte Inhalte zu kennzeichnen. Davon wären dann aber wohl etwa 90 Prozent der Social-Media-Beiträge von "Spiegel Online" betroffen.
Kooperationen sozialer Netzwerke mit externen Partnern wie dem Recherchekollektiv Correctiv, um Falschmeldungen zu enttarnen, hielten die Sachverständigen für sinnvoll. Hier stelle sich aber die Finanzierungsfrage, gab Stöcker zu bedenken. Er brachte hier eine Zusammenarbeit mit Stiftungen oder Landesmedienanstalten ins Spiel. Es spreche auch nichts dagegen, wenn die Plattformen Ansprechteams vergleichbar zu internen Daten- oder Jugendschutzbeauftragten vorhalten müssten.
"Verantwortung zur Meinungsbildung"
Weiter auseinander gingen die Meinungen, was Pflichten zur Gegendarstellung betraf. "Die Lüge erzielt im Zweifelsfall eine höhere Reichweite als die Wahrheit", philosophierte Stöcker hier zunächst. Sie sei "interessanter, emotionaler, verblüffender". Für Facebook wäre es zugleich relativ einfach möglich, eine Richtigstellung in den News-Feeds der irregeführten Mitglieder anzuzeigen. Die Plattformen würden hier ihrer "Verantwortung zur Meinungsbildung nicht gerecht" und müssten "mehr Ressourcen" einsetzen. Problematischer sei es aber, zunächst eine Lüge als solche zu identifizieren und über das Schicksal einschlägiger Beiträge zu entscheiden.
"Gesetzliche Mindeststandards" für einschlägige Melde- und Bewertungsstellen sozialer Netzwerke bezeichnete Fiene als guten Weg. Dahingestellt sei, ob eine Pflicht zur Reaktion binnen 24 Stunden ausreiche, da die schädliche Wirkung eines gestreuten Gerüchts oder einer Persönlichkeitsverletzung dann kaum mehr einzuholen wäre. Letztlich sei etwa Facebook längst eine Art Medienfirma, da die Betreiber Informationen zusammenstellten, auf große Verweildauer der Nutzer setzten und dadurch "Öffentlichkeit herstellen".
Hegelich vertrat dagegen die These, dass man Facebook nicht wie einen Medienkonzern behandeln könne, da prinzipiell die Nutzer die Inhalte zur Verfügung stellten. Bewertet werden müssten wohl Millionen von Meldungen täglich, wobei schon Fans von Fußballvereinen jeden Bericht über einen unerwünschten Transfer als "Fake News" einstufen dürften. Reuter monierte, dass strenge Löschvorgaben zu einer "privatisierten Rechtsdurchsetzung" führten und viele zulässige Meinungsäußerungen unterdrückten. Facebook dürfe hier nicht zum "Richter und Henker" zugleich gemacht werden. (kbe)