Superwahljahr: Wachsende Sorge um Desinformation nach Corona-Muster

Experten gehen davon aus, dass die durch Corona eröffnete Angriffsfläche für Fake News auf die bevorstehenden Wahlen übertragbar ist.

In Pocket speichern vorlesen Druckansicht 122 Kommentare lesen

(Bild: Dilok Klaisataporn/Shutterstock.com)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Die Corona-Pandemie und die damit einhergehende Infodemie "hat eine riesige Angriffsfläche für Falschinformationen geboten", weiß Alice Echtermann aus dem Faktencheck-Team der Medienorganisation Correctiv. Mit dem Phänomen hätten sich viele Menschen "neu in diese Sphären begeben", sodass es nun die ganze Gesellschaft treffe. Die Journalistin geht daher davon aus, dass Fake News auch im Superwahljahr 2021 mit Landtagswahlen etwa in Baden-Württemberg, Rheinland-Pfalz und Sachsen-Anhalt sowie der Bundestagswahl im September eine große Rolle spielen.

Corona dürfte insgesamt "die ganze politische Debatte beeinflussen", erklärte Echtermann am Dienstag auf einer Online-Konferenz des Bundesjustizministeriums und des IT-Verbands Bitkom zum Safer Internet Day. Dazu würden aber auch "die üblichen Vorwürfe über Wahlbetrug und -manipulation" auftauchen. Zu erwarten seien etwa auch Kampagnen, um Leute davon abzuhalten, zum Wählen zu gehen, oder sie im Umgang mit Stimmzetteln zu verwirren. Dies habe man auch bei der US-Präsidentschaftswahl im November wiederholt gesehen.

"Wir unterschätzen die Auswirkungen des Problems", warnte Lutz Güllner, Referatsleiter Strategische Kommunikation beim Europäischen Auswärtigen Dienst (EAD). Akteure könnten "mit relativ kleinen Mitteln große Effekte erzielen". Sie versuchten nicht nur zu beeinflussen, "was die Leute wählen", sondern ob sie dies überhaupt tun. Nicht zu vergessen sei: "Man kann auch viel Geld mit Desinformation verdienen."

Dem Propaganda-Experten zufolge gilt es zu differenzieren zwischen unabsichtlich geteilten Falschinformationen und gezielt eingesetzter Desinformation. Bei letzterer komme oft auch eine außen- und eine sicherheitspolitische Komponente dazu, wobei man entsprechende "hochkomplexe Gebilde" nicht auf einen Akteur oder eine Ursache "herunterdrücken" könne. Zugleich gab er zu bedenken, dass das Streuen oder Verbreiten falscher Informationen nicht verboten sei. Öffentliche Stellen sollten nicht darüber entscheiden, "was wir sehen wollen oder nicht".

Auch wenn drum herum schon ein "gesamtes Ökosystem" entstanden sei, sieht Güllner soziale Netzwerke als "Vervielfältigungsfaktor" für Fake News. Auch Anika Geisel, die bei Facebook in Europa für das Zusammenspiel mit der Politik und der Öffentlichkeit rund um Wahlen zuständig ist, spricht beim Kampf gegen Desinformation von einem "schmalen Grat" zwischen den Zielen, Diskussionen zu ermöglichen und schädliche Inhalte zu entfernen: "Wir wollen nicht entscheiden, was ist wahr oder falsch."

Facebook arbeite daher mit Faktenprüfern wie Correctiv zusammen, um die Echtheit von Nachrichten zu bewerten, erläuterte Geisel. Als falsch eingestufte Inhalte versehe der Betreiber mit entsprechenden Hinweisen und reduziere gegebenenfalls ihre Sichtbarkeit. Für politische Wahlwerbung gebe es eine Bibliothek, die von Forschern überprüft werden könne. Zu wenig, zu spät, kritisieren Wissenschaftler diese Maßnahmen, deren Effektivität generell umstritten ist.

35.000 Content-Moderatoren beschäftigen sich laut Geisel bei Facebook direkt mit Sicherheitsthemen, über 40 Teams konkret mit Wahlmanipulation. Aussagen im Stil von: "Du bekommst Corona, wenn du zur Wahl gehst." verstießen gegen die Richtlinien der Plattform und würden genauso entfernt wie Netzwerke mit "inauthentischen Accounts", die bewusst auf Manipulation aus seien. Facebook gehe es nun darum, mit Behörden und der Zivilgesellschaft an weiteren Regulierungsschritten zu arbeiten.

Die Politik könne hier nur einen Rahmen mit Pflichten zu Rechenschaft und Transparenz vorgeben, meinte Güllner. Medienrechtliche Konzepte wie die Sorgfaltspflicht sollte zudem stärker in den Online-Raum übertragen werden. Bei den Verbrauchern sei Medienkompetenz entscheidend, um gewisse Reflexe im Umgang mit umstrittenen Äußerungen zu vermeiden. Einig war sich der Diplomat mit Echtermann, dass Social Bots "nicht mehr das große Problem" darstellten. Journalisten würden vielmehr etwa getäuscht über falsche Webseiten. Debatten könnten zwar gepusht werden durch Bots, ergänzte die Faktenprüferin. Irreführende Berichte schrieben aber ausschließlich Menschen.

Der Bitkom hat mit einer repräsentativen Umfrage herausgefunden, dass seit Pandemie-Ausbruch die Mehrheit der Verbraucher häufiger auf digitale Plattformen zurückgreift. 59 Prozent nutzen Facebook, YouTube, TikTok, Twitter & Co. seit einem Jahr intensiver. 97 Prozent der Bundesbürger informieren sich über das TV, 71 Prozent übers Internet. Verbraucher nehmen laut den Ergebnissen über alle Medien hinweg Fake News wahr. 92 Prozent sind in den vergangenen zwölf Monaten Falschnachrichten in sozialen Netzwerken aufgefallen, über Messenger wie WhatsApp oder Telegram hat jeder zweite Nutzer Falschmeldungen erhalten.

Zweidrittel der Mitglieder sozialer Netzwerke geben an, schon mehr oder weniger zufällig auf Hassrede gestoßen zu sein. Null Prozent wollen aber selbst schon solche Äußerungen gepostet haben. Nur ein Prozent hat Strafanzeige gestellt, zwei Prozent haben ihr Konto gelöscht, jeder Siebte das Portal für eine Zeit lang nicht mehr aufgesucht. 13 Prozent sagen, dass Hate Speech zu einer offenen Diskussionskultur gehört. Neun Prozent fordern, sie sollte toleriert werden. 90 Prozent sind aber dafür, dass Strafverfolgungsbehörden verstärkt gegen Hassrede vorgehen sollten.

Die Strafverfolgungslage verbessere sich beim Vorgehen gegen Hassrede, betonte Markus Hartmann von der Zentral- und Ansprechstelle Cybercrime (ZAC) bei der Staatsanwaltschaft Köln. Auch beim Auskunftsverhalten der Betreiber etwa zu Bestandsdaten bei Hetzern verzeichnete er Fortschritte. Es gebe aber Abwanderungstendenzen zu sperrigeren Plattformen. Der Staat könne aber nur verfolgen, was tatsächlich strafrechtlich relevant sei. Instrumente wie Gegenrede und zivilgesellschaftliches Engagement seien daher ebenfalls nötig.

Oft bleibe Opfern von Hass im Netz, die teils etwa auf kommunaler Ebene sich und ihre Familien mit dem Tod bedroht sähen, nur der teure zivilrechtliche Weg, führte die Geschäftsführerin der Hilfsorganisation HateAid, Anna-Lena von Hodenberg, aus. "Wir haben ungefähr 300 Verfahren angestrengt", aber allein die erste Instanz dauere in der Regel neun bis 12 Monate. Sie hofft trotzdem, Täter mittelfristig abschrecken zu können.

(axk)