Putin lässt den Bären los

Seite 4: Warner schießen übers Ziel hinaus

Inhaltsverzeichnis

Tatsächlich verfügt die russische Regierung über einen reichen Erfahrungsschatz an psychologischer Kriegsführung, der weit über das Konzept der "dezinformatsiya" aus dem Zweiten Weltkrieg hinausgeht. Dmitri Alperowitsch, Mitbegründer der IT-Sicherheitsfirma CrowdStrike, die den E-Mail-Diebstahl bei den US-Demokraten untersuchte, verweist gar auf die zaristische Ära. Damals wurde einer der ersten modernen Geheimdienste der Welt, die Ochrana, geschaffen. "Nach der Revolution von 1917 öffneten die Bolschewiki seine Archive. Sie waren schockiert darüber, wie infiltriert sie waren und wie viel Desinformation ihre Bewegung geschwächt hatte", sagt er. "Also formten sie den KGB nach dem Vorbild von Ochrana."

Natürlich schießen die Warner immer wieder übers Ziel hinaus – ein altbekanntes Muster aus dem Konflikt zwischen Russland und dem Westen. In diversen Veröffentlichungen warnen Militärtheoretiker und Sicherheitsexperten zudem etwa vor der Methode der "reflexiven Kontrolle". Der angeblich äußerst ausgeklügelte Mechanismus psychologischer Manipulation wurde in den 1950er-Jahren entwickelt. Die zugrunde liegende Theorie des russischen Mathematikers und Psychologen Vladimir Lefebvre ist eine mathematische Formulierung der Sozialpsychologie von Entscheidungsprozessen.

Mithilfe von algebraischen Methoden berechnete Lefebvre, mit welcher Wahrscheinlichkeit ein Individuum eine bestimmte Entscheidung treffen würde – unter Berücksichtigung seines Selbstbildes. Durch Manipulation dieses Selbstbildes – etwa mit gezielter Desinformation – oder durch die Veränderung der Beziehungen zu anderen Individuen könnte man, so die Theorie, den Entscheidungsspielraum gezielt einengen. Der Gegner ließe sich so zu falschen, schädlichen Entscheidungen hinreißen. Sie hätte damit eine ähnliche Funktion wie die Spieltheorie des Westens. Die Faktenlage dazu ist allerdings dünn. Ob und, wenn ja, wann diese Theorie jemals angewandt wurde, lässt sich nicht belegen.

Für Andrew Andersen, ein in Russland geborener Sicherheitsanalytiker an der Universität von Calgary, ändert das jedoch nichts an der Tatsache, dass die Putin-Regierung Methoden des kalten Krieges nutzt, um das Immunsystem der liberalen Demokratien des Westens zu kompromittieren. "An diesem Punkt verliert der Westen", sagt Andersen. "Das Erste, was man verstehen muss, ist, dass das ein Krieg ist. Das ist kein Witz und kein Spiel. Es geht nicht um Geselligkeit mit Freunden in sozialen Netzwerken. Sogar diejenigen, die nicht teilnehmen wollen, müssen sich nach den Gesetzen des Krieges verhalten."

Die martialische Rhetorik ist kein Einzelfall. Nato-Experten und US-Denkfabriken wie der Atlantic Council oder das Center for European Policy Analysis warnen plakativ davor, dass der Westen in diesem Informationskrieg den Anschluss verlieren könnte. Für europäische Wissenschaftler ist "Krieg" dagegen ein viel zu scharfer Begriff. Der Münchner Politologe Simon Hegelich spricht lieber von Manipulationsstrategien. Er glaubt nicht an hochgeheime Methoden aus dem Kreml. "Wir haben es eher mit Strategien zu tun, die zwar im militärischen und Geheimdienstumfeld entwickelt wurden, die inzwischen aber frei auf dem Markt erhältlich sind", sagt Hegelich, der an der TU München einen Lehrstuhl für "Political Data Science" hat und Bots und Fake News in sozialen Netzen erforscht. "Das würde die Situation aber noch viel gefährlicher machen." Denn damit sei der Geist aus der Flasche, und niemand könne ihn mehr kontrollieren.

Mit "Geist" meint Hegelich einerseits einfach gestrickte Bots, um beispielsweise "kurzfristig Effekte über Masse zu erzielen". Mit ihnen lassen sich unter anderem bestimmte Hashtags in sozialen Netzen prominenter aussehen, als sie es in Wirklichkeit sind. Journalisten springen auf den vermeintlichen Aufreger an – schon entsteht Öffentlichkeit. "Das konnte man beispielsweise bei Fernsehduellen zu den US-Wahlen sehen."

Mehr Handarbeit erfordern Fake-News, Gerüchte und Diffamierung. Sie würden sorgfältig von menschlichen Usern platziert und immer wieder optimiert, bis sie sich viral weiterverbreiten. Gerade im US-Wahlkampf kursierten verschiedene Verschwörungstheorien. "Die Pizzagate-Geschichte ist relativ bekannt geworden, aber es gab auch noch andere Sachen: Die CIA hat Julian Assange ermordet, Hillary Clinton hat Parkinson, und so weiter", sagt Hegelich. Die "orchestrierte Verbreitung" dieser Geschichten sollte offenbar Unsicherheit schüren. Mittelfristig könne das Hegelich zufolge dazu führen, "dass die Leute nur noch einfachen Antworten von populistischen Parteien glauben".

Die gute Nachricht ist: Demokratien sind diesen Manipulationsmethoden keineswegs ausgeliefert. Ob sie wirken, scheint unter anderem von der politischen Lage und dem Wahlsystem eines Landes abzuhängen. Die USA sind Hegelich zufolge deshalb anfällig, weil das Land seit Jahren tief gespalten und die Bevölkerung durch die Finanzkrise schwer verunsichert war.

In Deutschland dagegen ist diese Art der Einflussnahme immer noch gering. Zu diesem Schluss kommt jedenfalls Lisa-Maria Neudert, die am Oxford Internet Institute in der Arbeitsgruppe "Computational Propaganda" forscht. Mit ihren Kollegen hat Neudert Twitter-Bots zur Bundespräsidentenwahl und der Landtagswahl im Saarland untersucht. "Ihre Aktivität in politischen Diskussionen auf Twitter ist im Vergleich zu anderen Ländern gering", sagt sie.

Während hierzulande zwischen 4 und 15 Prozent aller Tweets zu diesen Wahlen offenbar von automatisierten Accounts verbreitet wurden, sind "in Russland 45 Prozent des Twitter-Traffics zu politischen Themen automatisch generiert", sagt Neudert. Auch der Fake-News-Anteil sei in deutschen sozialen Medien geringer. Vorsicht sei dennoch wichtig, denn mit 20 Prozent Anteil ist die Menge immer noch "ganz schön substanziell".

Ihr Fazit: "Social Bots, Desinformation und Leaks gehören heutzutage leider zum politischen Diskurs", sagt Neudert. "Man sollte aber keine Panik verbreiten. Ich denke, wir brauchen einen Mittelweg zwischen Angstmache und Naivität." Dabei hilft eine gute Portion Skepsis: Was in sozialen Netzen wichtig ist, muss nicht den realen Interessen der Bevölkerung entsprechen.

(wst)