95 Prozent der gemeldeten Troll-Konten bleiben bei Facebook & Co. online
Stratcom konnte fĂĽr 300 Euro 54.000 "nicht-authentische" Interaktionen bei groĂźen sozialen Netzwerken kaufen. Die Betreiber unternahmen nicht viel dagegen.
Facebook, Google und Twitter betonen immer wieder, dass sie Lehren aus den Manipulationskampagnen etwa rund um den US-Wahlkampf 2017 gezogen haben und massiv gegen Falschmeldungen sowie gegen Konten von Bots und Trollen vorgehen. Laut einer Studie des Strategic Communication Centre of Excellence (Stratcom) der Nato ist es aber nach wie vor möglich, sich für kleines Geld im Handumdrehen gefälschte Meinungsmacht für die großen sozialen Netzwerke zu kaufen, die auch über längere Zeit online bleibt.
Die in Riga beheimatete Denkfabrik, die auf die Abwehr von Propaganda ausgerichtet ist, hat nach ihrem am Freitag veröffentlichten Bericht für nur 300 Euro bei kommerziellen "Manipulation Service Providers" (MSPs) 3530 Kommentare, 25.750 Likes, 20.000 Seitenabrufe und 5100 Follower auf Facebook, Instagram, Twitter und YouTube erstehen können. Insgesamt sei man so auf 54.000 "nicht-authentische" Interaktionen rund um 105 verschiedene Beiträge gekommen.
Einflussnahme auf politische Seiten und offizielle Regierungsauftritte
Unter MSPs versteht Stratcom Troll-Fabriken, für die es einen florierenden, von Russland dominierten Markt gebe. Für den Test griff die Einrichtung nach eigenen Angaben auf elf russische, zwei deutsche sowie jeweils einen polnischen, französischen und italienischen Anbieter von Meinungsmache in sozialen Medien zurück. Auf Grundlage der dort ausgelösten Aufträge habe man 18.739 Konten identifiziert, die im Sinne der bestellten Interaktionen tätig geworden seien.
90 Prozent der gekauften Aktivitäten dienten den Forschern zufolge "kommerziellen Zwecken". Zumindest auf Facebook hätten sich aber 80 Prozent der eingesetzten Konten im weitesten Sinne politisch betätigt. Generell habe man gezielte Versuche der Einflussnahme bei 721 politischen Seiten und 52 offiziellen Regierungsauftritten festgestellt. Darunter seien die Konten zweier Präsidenten, einer europäischen Partei sowie einer Reihe von jüngeren und kommunalen Politikern in Europa und den USA gewesen. Der Großteil der Bemühungen zur politischen Meinungsmache habe aber auf nicht-westliche Seiten abgestellt.
Gekaufte Kommentare
Die Betreiber hatten den Manipulationsversuchen, deren Einfluss auf die politische Meinung angezweifelt wird, laut der Analyse wenig entgegenzusetzen. Vier Wochen nach den getätigten Deals waren noch 80 Prozent der bezahlten Aktivitäten online, schreiben die Macher. Noch ernüchternder fallen die Ergebnisse aus, nachdem die Experten ein beispielhaftes Set der entdeckten gefälschten Konten eigenhändig bei den Plattformbetreibern meldeten: drei Wochen später seien trotz der Eingaben noch 95 Prozent der gebrandmarkten Accounts weiterhin aktiv gewesen.
Die Forscher schätzten zudem die Leistung der Social-Media-Firmen, den "bösartigen" Einsatz ihrer Dienste zu bekämpfen, anhand verschiedener Kriterien ein. Dabei machten sie "signifikante Herausforderungen" der Betreiber aus. Generell schnitten diese demnach besser dabei ab, gefälschte Konten und Follower zu blockieren als gekaufte Kommentare und Abrufe. Am billigsten seien Manipulationsversuche bei Instagram gewesen, am teuersten bei YouTube mit Ausnahme von Kommentaren.
Die Selbstregulierung funktioniert nicht
Die erworbenen Interaktionen fanden sich durchschnittlich binnen 24 Stunden auf den Plattformen, heißt es in der Untersuchung. Nur bei Twitter habe es länger gedauert. Insgesamt habe der Kommunikationsdienst 35 Prozent der Troll-Konten blockiert und damit noch am besten abgeschnitten. Instagram habe nur fünf Prozent der gekauften Kommentare und so gut wie keine der Likes oder Views korrigiert. Die Facebook-Tochter landete damit auf dem vierten und letzten Platz. YouTube sei der einzige Dienst gewesen, der erfolgreich manipulierte Inhalteabrufe wieder richtig gestellt habe, was für Rang zwei reicht. Bei Facebook (Platz 3) falle es zwar schwer, "Fake Accounts" zu generieren. Gelinge dies aber, stünden Beeinflussungsmaßnahmen Tür und Tor offen.
Stratcom schlussfolgert aus dem Experiment und "mehreren anderen" in den vergangenen zwei Jahren durchgeführten einschlägigen Studien: "Die Selbstregulierung funktioniert nicht." Die Manipulationsindustrie wachse jedes Jahr, doch es werde trotz aller Bemühungen der Social-Media-Betreiber nicht "substanziell teurer oder schwieriger", auf ihren Seiten weitverbreite Manipulationskampagnen anzustoßen. Die militärische Institution sieht daher den Gesetzgeber gefordert.
Standards fĂĽr die Verantwortlichkeit, Transparenz und Zurechenbarkeit
Gegenüber der EU-Kommission hatten sich die großen US-Plattformen sowie weitere Akteure im Rahmen eines Verhaltenskodex im September 2018 freiwillig verpflichtet, enttarnte "Fake Accounts" und Social Bots rasch zu entfernen. Konten und Webseiten, die Desinformationen verbreiten, sollen die Werbeeinnahmen entzogen werden. Die Brüsseler Regierungseinrichtung attestierte den Unternehmen immer wieder Rückschläge und Fortschritte auf dem eingeschlagenen Weg. Zuletzt zeigte sie sich Ende Oktober insgesamt noch zufrieden mit den Anstrengungen. Endgültig bewerten will die Kommission die Implementierung des Selbstregulierungsansatzes Anfang nächsten Jahres. Der EU-Ministerrat drängt derweil auf höhere Standards für die Verantwortlichkeit, Transparenz und Zurechenbarkeit der Netzwerkbetreiber. (bme)