Facebook-"Wahrheitsprüfer" Correctiv verstrickt sich in Widersprüche

Die Faktenchecker von Correctiv können bislang nicht sagen, nach welchen Kriterien sie "Fake News" auf Facebook kennzeichnen wollen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

David Schraven tanzt zur Zeit auf vielen Hochzeiten. Parallel zur Leitung seines Recherche-Portals Correctiv gründet er gerade eine Reporterfabrik und will nebenbei mit seinem gut 20-köpfigen Team nun auch noch für Facebook "Fake News" kennzeichnen und gegebenenfalls nachrecherchieren. Die Fragen, die sich dazu stellen, sind zahlreich und auf die wenigsten hat Schraven bisher eine Antwort. Stattdessen verstrickt er sich schon vor Beginn seiner Arbeit für Facebook in Widersprüche.

Am vergangenen Freitag äußerte er sich auf der Webseite von Correctiv zu den "häufigsten Fragen", die ihn zum Thema erreicht hätten. Zur Frage "Zensiert ihr Inhalte?" heißt es dort:

Nein, das ist falsch. Zensur geht in der Regel von staatlichen Stellen aus. Wir sind uns der angesprochenen Problematik aber sehr bewusst. Wir sehen es als Gefahr, dass man Berichte, deren politische oder gesellschaftliche Haltung einem nicht passt, kritischer bewertet als andere. Aber erstens wählen wir die Artikel, die wir überprüfen, nicht beliebig aus (dies geschieht in der Testphase ausschließlich aufgrund von Meldungen von Facebook-Nutzer*innen, außerdem müssen die beanstandeten Posts eine gewisse Verbreitung erreicht haben). Zweitens, und das ist entscheidend, prüfen wir keine unliebsamen Meinungen, sondern Fakten oder Tatsachenbehauptungen.

David Schraven

Ich fragte daraufhin bei Schraven nach, nach welchen Kriterien Correctiv denn Meinungen von Tatsachenbehauptungen unterscheiden wolle. Die beiden Begriffe haben eine gemeinsame Schnittmenge und lassen sich nicht immer sauber trennen. Als Beispiel nannte ich Schraven einige denkbare Aussagen:

  • "Trump gefährdet die Demokratie."
  • "Angela Merkel ist eine Marionette der USA."
  • "Putin bedroht die Sicherheit Europas."

Sind solche Aussagen nun Meinungen oder Tatsachenbehauptungen? Welche präzisen Kriterien will Correctiv zur Trennung der Begriffe anlegen? Wann ist eine Aussage ein Fall für den Faktencheck und wann nicht? Wenn man keine Meinungen zensieren will, muss das vorab geklärt werden.

Was wird als "Fake News" gekennzeichnet?

Andere denkbare Aussagen sind fraglos Tatsachenbehauptungen, müssten demzufolge also - bei häufiger Meldung als "Fake News" durch die Facebook-User - von Correctiv eindeutig als wahr oder falsch definiert werden, zum Beispiel:

  • "Russland hat die US-Wahlen manipuliert."
  • "Die Anschläge von 9/11 waren ein Inside Job."
  • "Assad hat Giftgas gegen sein eigenes Volk eingesetzt."
  • "Den Bürgerkrieg in der Ostukraine hat nicht Moskau begonnen, sondern Kiew."

Das Problem hier: All diese Tatsachenbehauptungen sind strittig. Es besteht kein öffentlicher Konsens über ihre Wahrheit. Und alle diese Aussagen sind politisch brisant. Wenn Correctiv hier über "wahr" oder "gelogen" entscheidet und der entsprechende Facebook-Eintrag dann gegebenenfalls in seiner "Sichtbarkeit reduziert" wird, wie Facebook mitteilte, dann ist die Schwelle zur Zensur sicherlich überschritten.

Schraven schilderte ich diese Beispiele und fragte ihn, ob Correctiv tatsächlich alle Tatsachenbehauptungen checken wolle, sofern sie nur zahlreich als "Fake News" gemeldet werden, oder ob man noch nach weiteren Kriterien aussieben werde?

Seine Antwort war kurz und bündig: Er habe "derzeit nicht mehr zu sagen". Vielleicht später, "wenn wir soweit sind", so der Correctiv-Chef. Und weiter: "Das Spekulieren über irgendwelche Aussagen, die möglicherweise kritisiert werden könnten, bringt wenig. Ich würde das lieber im Indikativ anschauen, statt im Konjunktiv zu rätseln."

Somit scheint klar: Correctiv hat noch keinerlei konkrete Kriterien für die hochsensible Arbeit entwickelt. Doch ohne diese wird es nicht gehen. Die zuständigen Mitarbeiter brauchen schriftlich fixierte Anleitungen, wie sie beim Kennzeichnen von "Fake News" vorgehen sollen. Entscheidend ist, wie diese Kriterien dann aussehen und - wohl am wichtigsten - ob sie transparent für die Öffentlichkeit sein werden. Dazu befragt kam von Schraven bis Montag keine weitere Antwort.

Geheime Kriterien beim Facebook-"Löschteam"

Ein ähnliches Problem stellt sich für Facebook, abseits der "Fake News"-Debatte, bei der routinemäßigen Löschung von solchen Text-, Bild-, oder Video-Beiträgen, die als unangemessen, gewalttätig oder "hate speech" eingeordnet werden.

Die Süddeutsche Zeitung berichtete im Dezember 2016 erstmals exklusiv aus dem Inneren des damit beauftragten "Löschteams". Gut 600 Mitarbeiter seien dafür in Berlin eingesetzt, nicht direkt bei Facebook, sondern ausgelagert auf die Bertelsmann-Tochter Arvato.

Interessant vor allem: Die Kriterien, nach denen entschieden wird, was gelöscht wird und was nicht, hält Facebook streng geheim. Der Süddeutschen Zeitung wurden einige Regeln zugespielt. Sie zitierte Insider mit der Aussage, die Vorschriften seien undurchsichtig und änderten sich oft. 2.000 Beiträge müsse jeder Mitarbeiter pro Tag prüfen. So hoch ist offenbar das Aufkommen, das durch Meldungen der Nutzer entsteht. Die Zeitung spricht von einer "firmenintern definierten Form der Meinungsfreiheit".