MIT Technology Review 1/2017
S. 80
Fokus
Künstliche Intelligenz
Aufmacherbild
Illustration: Mathis Rekowski

Die direkte Botokratie

Spätestens seit der US-Präsidentenwahl gelten Social Bots als tückische politische Geheimwaffe. Auch beim Bundestagswahlkampf dürften sie ein großes Thema werden. Wie gefährlich sind sie wirklich?

Auf den ersten Blick klingt die Analyse von Emilio Ferrera beruhigend. Rund 400000 Bots hat Ferrara, der an der Universität Southern California forscht, beim Nachrichtendienst Twitter identifiziert. Bei 317 Millionen aktiven Usern im dritten Quartal 2016 sind 400000 Bots nicht viel. Wenn man aber berücksichtigt, dass diese Bots 20 Prozent aller Tweets zur US-Wahl abgesetzt haben, sieht die Sache schon anders aus. Zu diesem Ergebnis kamen Ferrara und seine Kollegen, nachdem sie 20 Millionen wahlbezogene Tweets von September und Oktober 2016 analysiert hatten. Bis heute weiß niemand, wer diese Bots programmiert hat. Offenbar überwiegend Republikaner, denn 75 Prozent von ihnen unterstützten Donald Trump.

Inwiefern können solche Bots die öffentliche Meinung beeinflussen? Immerhin informieren sich nach aktuellen Zahlen des Pew Research Center 62 Prozent der erwachsenen Amerikaner vor allem mit sozialen Medien über das Weltgeschehen. Und selbst gut informierte Nutzer können Bots kaum noch von echten Menschen unterscheiden: „Social Bots fangen an, menschliches Verhalten zu adaptieren, sie simulieren sogar einen menschlichen Tagesablauf mit Essens- und Schlafpausen“, sagt der Sozialwissenschaftler Andree Thieltges von der Uni Siegen. Auch US-Forscher Ferrara fand es bei einem Selbsttest „unglaublich schwierig“, maschinelle Beiträge als solche zu erkennen. Anfangs posten die Bots häufig Witze oder belanglose Worte zum Wetter. Außerdem folgen sie anderen Nutzern, damit diese ihnen ebenfalls folgen. Dank künstlicher Intelligenz können sie zunehmend sinnvolle Gespräche führen. So gewinnen sie an Einfluss und Glaubwürdigkeit.

Sie wollen wissen, wie es weitergeht?

Die Wahrheit über das Lügen

Der Maschinenethiker Oliver Bendel hat einen lügenden Chatbot entwickelt mit dem Ziel, Menschen besser vor der Unwahrheit zu schützen.

Technology Review: Normalerweise wollen Maschinenethiker wie Sie moralische Maschinen bauen. Sie haben dagegen einen lügenden Chatbot entworfen. Wieso?

Oliver Bendel ist Dozent für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz. Foto: Kai R. Joachim

OLIVER BENDEL: Mindestens ebenso wichtig wie die Frage, wie moralische Maschinen entstehen, ist doch jene, wie wir uns vor unmoralischen Maschinen schützen können. Dafür muss man sie kennen und verstehen. Zudem gibt es eine spannende Diskussion in unserem Fach: Ein paar Kollegen sind der Ansicht, dass Maschinen nicht lügen können. Ich fand das falsch und wollte es ausprobieren.