Covid-19: Epidemie auch bei Bot-Anteil von Beiträgen in sozialen Medien

Fragwürdige Aussagen über Corona verbreiten sich selbst wie ein Virus. Laut Forschern könnten 60 Prozent der Twitter-Beiträge zum Thema von Maschinen stammen.

In Pocket speichern vorlesen Druckansicht 30 Kommentare lesen
Covid-19: Epidemie auch bei Bot-Anteil von Beiträgen in sozialen Medien

(Bild: Shutterstock/Michael Candelori)

Lesezeit: 5 Min.
Von
Inhaltsverzeichnis

Kathleen M. Carley und ihr Team am Center for Informed Democracy & Social Cybersecurity der Carnegie Mellon University beschäftigen sich schon lange mit Bots und Kampagnen in sozialen Medien. Nach ihren Angaben machen automatische Konten bei Wahlen in den USA wie im Ausland, Naturkatastrophen und anderen Ereignissen mit politischer Bedeutung normalerweise 10-20 Prozent der Online-Aktivitäten aus.

Bei der Covid-19-Pandemie aber könnte es ganz anders aussehen: Nach Erkenntnissen der Forscher um Carley könnten zwischen 45 Prozent und 60 Prozent aller Twitter-Beiträge zu dem Thema von Bots stammen. Viele der Konten dahinter wurden im Februar angelegt. Seitdem verbreiten und verstärken sie Falschinformationen wie unkorrekte medizinische Einschätzungen oder Verschwörungstheorien über die Herkunft des Virus; ebenso wird auf das Ende von Corona-Sperren gedrängt.

Diese Bots agieren in gut bekannten Mustern von koordinierten Einfluss-Kampagnen. Und – die Strategie geht auf: Seit Beginn der Krise haben die Forscher eine zunehmende Polarisierung bei Twitter-Diskussionen über das Virus und seine Folgen beobachtet.

Dazu könnten eine Reihe von Faktoren beitragen. Der globale Charakter der Pandemie bedeutet, dass mehr Akteure ein Interesse daran haben, sie zum Vorteil ihrer politischen Agenda zu nutzen. Außerdem ist Desinformation heutzutage allgemein besser koordiniert, denn viele Unternehmen bieten ihre Hilfe bei Kampagnen zur Beeinflussung an.

Aber nicht nur die schiere Menge der Bot-Konten macht Carley Sorgen – sie sind auch raffinierter geworden. Heutige Bots sind oft tief mit anderen Konten vernetzt, was es ihnen leichter macht, ihre Botschaften breit zu streuen. Außerdem wird verstärkt versucht, auf gefährdete Gruppen wie Einwanderer oder Minderheiten abzuzielen, und echten Nutzern, die mit Hass-Reden aufgefallen sind, Unterstützung beim Aufbau von Gruppen angeboten.

Für ihre neueste Analyse haben die Forscher um Carley 200 Millionen Twitter-Nachrichten zum Thema Covid-19 seit diesem Januar untersucht. Mit Hilfe von Maschinenlernen und Techniken für Netzwerk-Analysen identifizierten sie, welche Konten Falschinformationen verbreiteten und welche am ehesten Bots oder Cyborgs (Kombinationen aus menschlichen und maschinellen Nutzern) waren.

Dabei wird nach 16 unterschiedlichen Taktiken gesucht, die zum Einsatz kommen können. So gibt es zum Beispiel "bridging" zwischen Gruppen (also das Verbinden von zwei Online-Gemeinschaften), "backing" von bestimmten Konten (ihnen wird gefolgt, um den vermuteten Einfluss der Person dahinter zu erhöhen) oder das "nuking" von Gruppen, also gezielte Aktionen gegen ihr Weiterbestehen.

Mehr Infos rund um das Coronavirus

Bei der Analyse erkannten die Forscher 100 unterschiedliche Arten von falschen Geschichten über Covid-19. Bots sammelten damit reichlich Follower und machten dann 82 Prozent der wichtigsten 50 Retweeter und 62 Prozent der wichtigsten 1.000 aus. Der Grad des Einflusses wurden sowohl anhand der Zahl der Follower selbst als auch der Follower dieser Follower ermittelt.

Nach Twitter untersucht das Carnegie-Team jetzt auch Facebook, Reddit und YouTube, um herauszufinden, wie sich Desinformation auf verschiedenen Plattformen ausbreitet. Bereits im aktuellen frühen Stadium dieser Arbeit zeigen sich überraschende Muster. So stammen viele der falsch informierenden Geschichten von normalen Webseiten oder Blogs und werden dann in sozialen Medien multipliziert. Für unterschiedliche Arten von Geschichten gibt es außerdem unterschiedliche Herkunftsmuster. Behauptungen, bei dem Virus handele es sich um eine Biowaffe, stammen zum Beispiel oft von "black news"-Seiten, die gezielt falsche Informationen verbreiten und oft von außerhalb der USA operieren. Rufe nach dem Ende von Corona-Beschränkungen dagegen gehen zumeist von heimischen Blogs oder Facebook-Seiten aus.

Inzwischen arbeitet Twitter nach eigenen Angaben an der Identifizierung von Tweets mit Falschinformationen im Zusammenhang mit Covid-19. "Vorrang hat für uns die Entfernung von Covid-19-Inhalten, wenn dieser zu Handlungen aufruft, die Schaden anrichten können", heißt es in einem Statement von Twitter. Bereits in einem Firmenblog-Post vom 16. März erklärt Twitter, man setze mehr und mehr auf Maschinenlern-Algorithmen und Automatisierung, um irreführenden Content zu entdecken. Zugleich betont das Unternehmen: "Wir werden keine Konten auf Grundlage unserer automatisierten Systeme dauerhaft sperren. Stattdessen werden wir weiterhin nach Möglichkeiten suchen, die Überprüfung durch einen Menschen dort einzubauen, wo sie am wirkungsvollsten ist."

Auch den Forschern ist klar: Einfache Lösungen gegen das Bot-Problem gibt es nicht. Konten zu sperren oder zu löschen, reicht nicht aus, weil sich schnell neue anlegen lassen. Auch mit Sperren wegen der Verbreitung von falschen Informationen ist nicht viel zu erreichen: "Viel davon wird über Andeutungen gemacht oder über unlogische Aussagen, und das ist schwer zu entdecken", erklärt Carley.

Nach ihrer Einschätzung müssten Forscher, Unternehmen und Regierungen ihre Gegenmaßnahmen besser koordinieren. "Ich glaube, wir brauchen eine Art übergreifender Kontrolle", sagt die Forscherin, "eine Gruppe allein kann es nicht schaffen."

(jle)