Studie: Der Staat kann allein wenig gegen Desinformation ausrichten

Laut einem Gutachten für die Landesmedienanstalten ist staatliche Regulierung im Kampf gegen Falschinformationen auf wenige schwerwiegende Fälle zu beschränken.

In Pocket speichern vorlesen Druckansicht 128 Kommentare lesen
Fake News

«Ihr Kernphänomen ist nicht deren Existenz, sondern dass sie sich so gut im Netz verbreiten können,» erklärt Michael Kreil zum Phänomen der Fake News.

(Bild: dpa, Jens Kalaene/Symbolbild)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Während der Coronavirus-Pandemie sind Warnungen vor einer damit verknüpften "Infodemie" mit "Fake News" etwa über Impfungen laut geworden. Desinformation zählt zudem zu einem Instrument im Rahmen der "hybriden Kriegsführung", die Propaganda einen besonders hohen Stellenwert beimisst. Angesichts der Bedeutung von Grundrechten wie der Geschäfts-, Informations- und Meinungsfreiheit sind Demokratien im Kampf gegen Falschinformationen aber weitgehend die Hände gebunden.

"Klassische Regelungsformen" erschienen als Gegenmaßnahmen "nicht zulässig, nicht hilfreich oder in der Praxis nicht umsetzbar", lautet zumindest eine Schlussfolgerung in einem jetzt veröffentlichten rechtswissenschaftlichen Gutachten des Leibniz-Instituts für Medienforschung für die Landesmedienanstalt Nordrhein-Westfalen (NRW). Ein Grund dafür sei, dass für deren Umsetzung regelmäßig private Akteure wie die großen Plattformbetreiber Facebook, Google und Twitter zuständig wären, "die ihrerseits über große Gestaltungsfreiheiten ihrer Angebote und Vertragsbedingungen verfügen".

"Abgesehen von kontradiktorischen Verfahren vor unabhängigen Gerichten" sei die Wahrheitsfindung generell keine Aufgabe des Staates, postulieren die Wissenschaftler einen Vorrang des Diskurses. Zum Tragen kommen müsse vor allem "ein gesellschaftlicher Prozess kommunikativer Konstruktion" der Realität, "in dem Begründen und Zweifeln eine wichtige Rolle spielen". In diesem Prozess ergäben sich – zumindest zeitweise – durchaus geteilte Verständnisse darüber, "was der Fall ist".

Vor diesem Hintergrund "erscheinen nur wenige Pfade als zielführend, um Probleme der Desinformation weiter regulatorisch einzuhegen", arbeiten die Forscher heraus. An die Unwahrheit anknüpfende Maßnahmen etwa kämen nur in Betracht, "wenn mit hoher Wahrscheinlichkeit unmittelbare Gefahren für höchste individuelle Rechtsgüter wie Leben und körperliche Unversehrtheit drohen".

Dabei sei an Beiträge zu denken, "die möglicherweise einen Lynchmob mobilisieren", oder an Tatsachenbehauptungen, "die das Potenzial aufweisen, unmittelbar Selbstschädigungen auszulösen", ist der Studie zu entnehmen. In diesen Fällen könnten Plattformbetreiber Äußerungen nach Abwägung ausnahmsweise erst löschen "und dann im Rechtsschutzverfahren auf ihre Unwahrheit" überprüfen.

Ein "weiterer Bereich gesetzlicher Rahmung" kann sich der Analyse zufolge auf unwahre Äußerungen beziehen, "die in unmittelbarem zeitlichem Zusammenhang mit dem Wahlakt getätigt werden". Auch dabei sei der Gesellschaft die Möglichkeit entzogen, "die Wahrheit der Behauptung auszuhandeln". Soweit dadurch Wähler manipuliert werden könnten, überwiege das gesellschaftliche Interesse an der Wahlfreiheit das Recht auf freie Meinungsäußerung.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Selbst Maßnahmen, die Zweifel an bestimmten Behauptungen sichtbar machen und überprüfen, wie Kennzeichnungsformen, Fact-Checking-Verfahren sowie Hinweise und Warnungen "können für legale Inhalte gesetzlich nicht verpflichtend eingeführt werden", meinen die Autoren. Auch diese seien "der Freiwilligkeit der Plattformen unterstellt". Der bestehende Rechtsrahmen zur Stabilisierung des Vertrauens in journalistisch-redaktionell gestaltete Inhalte, für die spezielle Sorgfaltspflichten gelten, stelle aber eine Option dar, um "Äußerungen mit erhöhtem Wahrheitsanspruch an damit einhergehende erhöhte Pflichten zur Wahrheitsfindung zu koppeln".

Dem Drängen auf eine Herausgabe von Daten rund um den Einsatz von Algorithmen etwa für News-Feeds bescheinigen die Verfasser im Bereich möglicher Desinformation "einen spezifischen Sinn": Nur so könne die Gesellschaft lernen, welche der diskursorientierten Maßnahmen wie das Anbringen von Kennzeichen oder das Fördern von "Gegenrede" entsprechende Folgen haben. Die Politik könne dafür ein institutionalisiertes Verfahren etablieren.

Auch Regeln gegen "nichtauthentisches Verhalten auf Plattformen" wie den Einsatz von Bots und gefälschter Profile zum Teilen oder Befürworten von Inhalten betrachten die Experten als einen Weg, um "die virale Verbreitung von Desinformation zu verlangsamen". Die Betreiber sozialer Netzwerk hätten daran aber oft kein Interesse.

"Die Governance von Desinformation ist komplex", erläuterte Wolfgang Schulz aus dem Autorenteam: "Es gibt dafür in einem Rechtsstaat keine einfachen Lösungen, auch wenn man sich das wünschen mag." Zumindest müsse zunächst eine unabhängige Stelle wie ein Gericht einschlägige Fälle prüfen. Dies könne – auch angesichts der Menge von Kommunikation im Netz – aber nur bei extremen Beispielen erfolgen. Daher müssten – je nach Gefährdungspotenzial – unterschiedliche Akteure Gegenmaßnahmen ergreifen. Es gelte, Gesetze, staatsferne Regulierung und anbietereigene Steuerungsformen eng zu verzahnen.

"Oberste Priorität im Kampf gegen Desinformation hat der Schutz der Meinungsfreiheit – und damit auch das Prinzip der Staatsferne", unterstrich Tobias Schmid, Direktor der Medienaufsicht NRW. "Die Angst vor staatlicher Einflussnahme bleibt eine der größten Befürchtungen, wenn es um die Reaktion auf Falschmeldungen geht." Trotzdem gäben Handlungen gewisser staatlicher Akteure in diesem Umfeld zu denken.

Die EU-Kommission will mit einem "europäischen Aktionsplan für Demokratie" schärfer gegen Desinformation vorgehen. Ein bereits bestehender Verhaltenskodex, den etwa Betreiber sozialer Netzwerke und von Suchmaschinen unterzeichnet haben, soll dafür erweitert werden. Geplant ist etwa, Verbreitern von Unwahrheiten Kosten aufzuerlegen und sie von Werbeeinnahmen abzuschneiden. Politische Anzeigen sollen strenger reguliert werden.

(tiw)