Die direkte Botokratie

Spätestens seit der US-Präsidentenwahl gelten Social Bots als tückische politische Geheimwaffe. Auch beim Bundestagswahlkampf dürften sie ein großes Thema werden. Wie gefährlich sind sie wirklich?

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 9 Min.
Von
Inhaltsverzeichnis

Auf den ersten Blick klingt die Analyse von Emilio Ferrera beruhigend. Rund 400.000 Bots hat Ferrara, der an der Universität Southern California forscht, beim Nachrichtendienst Twitter identifiziert. Bei 317 Millionen aktiven Usern im dritten Quartal 2016 sind 400.000 Bots nicht viel. Wenn man aber berücksichtigt, dass diese Bots 20 Prozent aller Tweets zur US-Wahl abgesetzt haben, sieht die Sache schon anders aus.

Zu diesem Ergebnis kamen Ferrara und seine Kollegen, nachdem sie 20 Millionen wahlbezogene Tweets von September und Oktober 2016 analysiert hatten. Bis heute weiß niemand, wer diese Bots programmiert hat. Offenbar überwiegend Republikaner, denn 75 Prozent von ihnen unterstützten Donald Trump.

Inwiefern können solche Bots die öffentliche Meinung beeinflussen? Immerhin informieren sich nach aktuellen Zahlen des Pew Research Center 62 Prozent der erwachsenen Amerikaner vor allem mit sozialen Medien über das Weltgeschehen. Und selbst gut informierte Nutzer können Bots kaum noch von echten Menschen unterscheiden: "Social Bots fangen an, menschliches Verhalten zu adaptieren, sie simulieren sogar einen menschlichen Tagesablauf mit Essens- und Schlafpausen", sagt der Sozialwissenschaftler Andree Thieltges von der Uni Siegen.

Auch US-Forscher Ferrara fand es bei einem Selbsttest "unglaublich schwierig", maschinelle Beiträge als solche zu erkennen. Anfangs posten die Bots häufig Witze oder belanglose Worte zum Wetter. Außerdem folgen sie anderen Nutzern, damit diese ihnen ebenfalls folgen. Dank künstlicher Intelligenz können sie zunehmend sinnvolle Gespräche führen. So gewinnen sie an Einfluss und Glaubwürdigkeit.

Solche Bots zu programmieren ist längst keine Geheimwissenschaft mehr. Soziale Netze wie Twitter stellen Programmierschnittstellen zur Verfügung, über die Bots nach angesagten Themen suchen, auf das Auftauchen bestimmter Stichworte warten und eigene, vorgefertigte Beiträge posten können. Diese an sich schon recht mächtigen Methoden können ambitionierte Bot-Programmierer mithilfe von Amazon, Google, IBM oder Microsoft noch weiter frisieren, denn fast alle großen Online-Plattformen stellen heutzutage KI-Baukästen bereit. Microsoft etwa hat in seinem Entwicklerkit gleich 22 "kognitive Schnittstellen" integriert.

Für Social Bots am wichtigsten dürfte die automatische Textanalyse sein. Sie erkennt die Kernsätze und Schlüsselwörter, identifiziert Themen und wertet die emotionale Einstellung zu vorgegebenen Stichwörtern aus. Theoretisch könnte ein Bot also so lange ausgewählte Hassbotschaften posten, bis die Diskussion zu vorgegebenen Stichworten negativ genug geladen ist.

Noch sind die Bots auf vorgefertigte Textbausteine angewiesen, die sie nach bestimmten Regeln zusammenfügen. Die Kunst besteht darin, daraus völlig neue Botschaften zu erzeugen. Ein Beispiel dafür ist "Markovbot" von Edwin Dalmaijer. Dalmaijer, Psychologe an der Oxford University, hat das im Quelltext veröffentlichte Programm "Sigmund Freud" virtuell wiederbelebt, benannt nach dem Erfinder der Psychotherapie. Die Software analysiert in einem vorgegebenen Text, mit welcher Wahrscheinlichkeit ein Wort auf ein anderes folgt, und hängt es daran an.

Dann nimmt sie das angehängte Wort als neues Startwort und so weiter – bis eine vorgegebene Satzlänge erreicht ist. Füttert man den Markovbot also mit den Werken von Freud, lesen sich seine Tweets wie tiefsinnige Bemerkungen des Österreichers selbst. Gleichzeitig aber zeigt der Textroboter auch die Grenzen des Ansatzes. Denn was im Englischen gut klappt. führt in Deutsch zu rätselhaften Sätzen wie: "Also zwei Antworten im Sinne und diese infolgedessen besser kennenlernt als jeder Einzelne sich selbst."

Bis zu einer künstlichen Intelligenz, die völlig neue Botschaften erzeugen kann, ist es also noch ein weiter Weg. Auch wenn die tiefen neuronalen Netze von Google oder Facebook sehr viel leistungsfähiger sind als dieser einfache Code, kämp-fen sie mit demselben Problem: Sie werten Muster in großen Datenmengen aus, Sinn und Bedeutung aber können sie darin nicht erkennen. Software, die auf Knopfdruck maßgeschneiderte Propaganda erzeugt, ist also vorerst noch nicht in Sicht.

Doch auch vergleichsweise dumme Bots können einiges bewirken – allein schon durch die schiere Masse ihrer Beiträge. "Social Bots manipulieren die Trends in sozialen Netzwerken, und diese Trends fließen in politische und wirtschaftliche Entscheidungsprozesse ein", ist Simon Hegelich überzeugt. Der Professor für politische Datenwissenschaft an der TU München hat ähnlich alarmierende Erkenntnisse wie seine US-Kollegen gemacht: Er deckte eine Bot-Armee von 15000 Twitterern auf, die sich mit dem Ukraine-Konflikt beschäftigten und pro Tag 60.000 antirussische Tweets posteten.

Manche Bots gehen auch weniger plump vor und spielen über Bande: Sie geben sich als Fan einer Partei, übersteigern deren Aussagen aber ins Absurde – so wie ein Bot im US-Wahlkampf, der rassistische Parolen von sich gab, um in die Filterblase der Trump-Anhänger zu gelangen, und dann Falschaussagen Trumps korrigierte. Auch als die FDP 2013 über Nacht zu ihren 5000 auf einmal weitere 30.000 gekaufte Twitter-Follower hinzubekam, war das mutmaßlich eine Aktion politischer Gegner, um die Partei zu diskreditieren.