"Missing Link": Manipulation, Meinungsfreiheit und Propaganda bei Facebook & Co.

Große Medienhäuser haben sich neben Facebook, Twitter & Co. und Sonderermittlern daran gemacht, Vorwürfe im US-Wahlkampf 2016 aufzuarbeiten. Es geht nicht nur um russische Trollarmeen, sondern auch um Macht und Verantwortung der sozialen Netze.

In Pocket speichern vorlesen Druckansicht 69 Kommentare lesen
"Missing Link": Manipulation, Meinungsfreiheit und Propaganda bei Facebook & Co.

(Bild: ariapsa)

Lesezeit: 23 Min.
Inhaltsverzeichnis

Im November soll die Wahrheit ans Licht kommen. Vertreter von Facebook, Google, Twitter & Co. müssen dann in Anhörungen im US-Kongress Farbe bekennen über mögliche russische Informationsoperationen auf ihren Plattformen im US-Präsidentschaftswahlkampf 2016. Schon vor dem Termin hat sich der neue "Kalte Krieg" im Internet mit den Untersuchungen des Ex-FBI-Chefs Robert Mueller und mehrerer Kongressausschüsse zu möglichen Verbindungen zwischen Donald Trumps Wahlkampfteam und russischen Stellen deutlich verschärft.

So vergeht kaum ein Tag mehr, an dem US-Medien nicht vermeintliche Enthüllungsberichte bringen und dabei vor allem die sozialen Medien im Blick haben. Auch die Financial Times spricht von schweren Bedenken, dass Russland vor allem Facebook in eine "Waffe" verwandelt habe und das "Produkt Mark Zuckerbergs" außer Kontrolle zu geraten drohe.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Prinzipiell sehen sich die Betreiber sozialer Netzwerke selbst eigentlich als neutrale Vermittler von nutzergenerierten Inhalten, die sich aus der Meinungsmache herauszuhalten versuchen. Doch Politiker in immer mehr Ländern betonen, dass mit wachsender Reichweite der übertragenen Botschaften auch eine größere Verantwortung einhergeht. Die bislang propagierte Selbstregulierung reiche da nicht mehr aus. Das Geschäftsmodell der Plattformen, das auf der algorithmischen Einstufung von Inhalten und größtmöglicher Automatisierung beruht, könnte damit ins Wanken geraten.

Zwei Tage nach der US-Wahl, aus der für viele überraschend der Immobilienmogul und Reality-TV-Star Trump als Sieger hervorging, tat Facebook-Gründer Zuckerberg im vorigen November auf einer Konferenz noch seine persönliche Meinung kund, er halte es für eine "verrückte Idee", dass "Fake News" auf der Plattform in irgendeiner Form den Ausgang des Urnengangs beeinflusst haben könnten. Auch weil Falschmeldungen generell nur einen "sehr kleinen Anteil" der dortigen Inhalte ausmachten.

Sein Kommentar zur Bundestagswahl ein knappes Jahr später hört sich ganz anders an. "Wir haben daran gearbeitet, die Integrität der deutschen Wahl sicherzustellen", konstatierte der Konzernchef im September. Das klingt in seiner Allgemein- und Vagheit beruhigend und erinnert an die Sprache von Politikern oder Parteien. Hinter der neuen Diktion steckt offenbar eine Kehrtwende um schier 180 Grad.

Erstmals räumte Facebook Ende April öffentlich ein, dass es staatlich unterstützte Versuche gebe, das weltgrößte Online-Netzwerk als Instrument zur Beeinflussung der öffentlichen Meinung zu missbrauchen. Die Sicherheitsabteilung des Konzerns erklärte, dass vor allem mit Hilfe gefälschter Profile bestimmte Meinungen und teils auch falsche Informationen in den Vordergrund gerückt werden sollen. Ziel sei es, konzertiert gewisse Ansichten unters Volk zu bringen, die sonst kaum eine entsprechende Verbreitung fänden. Automatisierte "Social Bots" oder kompromittierte Konten kämen dafür weniger zum Einsatz.