34C3: Grundlose Hysterie um Social Bots

Wie groß ist die Gefahr durch automatisierte Social-Media-Accounts? Ein Datenjournalist hat dazu die Daten bei Twitter analysiert. Wirklichen Einfluss hätten Social Bots nicht, echte Menschen seien viel erfolgreicher, resümiert er in Leipzig.

In Pocket speichern vorlesen Druckansicht 60 Kommentare lesen
34C3: Hysterie um Social Bots ohne Grundlage in den Daten

(Bild: LoboStudioHamburg)

Lesezeit: 2 Min.

Angesichts der Warnungen vor Social Bots hat der Datenjournalist Michael Kreil auf dem 34C3 dafür geworben, die zugrundeliegenden Studien ernsthaft zu überprüfen. Er selbst hat bei einer ausführlichen Analyse von Twitter-Konten keine Hinweise darauf gefunden, dass automatisierte Accounts einen großen Einfluss auf die politische Meinungsbildung haben. Im Zusammenhang mit der Debatte über sogenannte "Fake News" plädiert er anhand seiner Ergebnisse dafür, diese eher als eine besondere Art der sogenannten Meme zu sehen, denn diese propagandistischen Falschnachrichten würden im Netz auf die gleiche Art verbreitet: Erst nach mehreren Anläufen habe sich eine von ihm untersuchte "Fake News" schließlich rasant verbreitet, aber nur unter einer bestimmten Gruppe von Twitter-Nutzern.

Kreil hat für seine Analysen ein Tool gebaut, mit dem er dank gespendeter Ressourcen ausführliche Anfragen an die Twitter-API schicken kann, ohne dass diese wegen der hohen Frequenz gesperrt werden. Außerdem hat er sich Tausende Twitter-Bots – also automatisch befüllte Accounts – gekauft, um herauszufinden, welche Gemeinsamkeiten sie aufweisen. Die große Mehrheit dieser Accounts sei leicht als solche erkennbar gewesen, einige hätten aber von außen wie die Konten echter Menschen gewirkt. Teilweise seien sie das wohl auch einmal gewesen, bevor sie vermutlich gehackt wurden. Ein gemeinsames Merkmal, an sie erkennbar seien, hat er nicht gefunden. Die Frequenz der Interaktionen auf Twitter sei keine gute Grundlage, da einige besonders aktive Accounts lediglich von besonders aktiven Nutzern stammten.

Seine Analysen haben aber ergeben, dass sich die Warnungen vor Social Bots häufig gegen bestimmte Nutzergruppen richteten, die relativ neu auf sozialen Netzwerken – in diesem Fall Twitter – sind, sich intensiv engagierten und keine Scheu davor hätten, Falschnachrichten zu teilen. Armeen automatischer Accounts, die in großem Stil Debatten beeinflussen, hat er zumindest hierzulande nicht gefunden. Warnungen vor derartigen Phänomenen basierten oft auf unzureichend dokumentierten Grundlagen, weswegen sie sich nur schwer überprüfen ließen. Deswegen plädiert er für viel mehr Forschung anhand überprüfbarer Daten. Seine Werkzeuge legt er offen und hat auf dem Congress auch gleich zu weitergehenden Gesprächen aufgefordert, um die Interaktionen auf Twitter besser verstehen zu lernen. (mho)