Wann ist ein Bann gerechtfertigt?

Deplatforming und eine Charta der digitalen Redefreiheit (Teil 2 und Schluss)

Die im ersten Teil erwähnten Beispiele belegen, dass die rechtliche Grauzone bereits heute unter verschiedenen Szenarien dazu einlädt, eine digitale Totalzensur einzurichten.

Im Falle des Attentäter-Videos und MAGA-Coups haben die Internet-Provider ohne rechtlichen Zwang Maßnahmen ergriffen, die vermutlich auf Basis bestehenden Rechts ohnehin von einem Richter angeordnet worden wären. Die Gefahr eines Nachahmer-Effekts beim Terroranschlag kann als gewichtiges Argument angeführt werden, im Falle des Attentäters von Christchurch eine so harte Maßnahme zu ergreifen. Im Falle der jüngsten Maßnahmen gegen die Rädelsführer und Fußsoldaten des MAGA-Sturms auf das Kapitol könnte man ebenfalls die öffentliche Sicherheit als Grund anführen.

Aber der vorauseilende Gehorsam macht viele Netzaktivisten nervös. Es ist heute kein absurder Gedanke, dass die nächste Regierung oder der nächste CEO eines großen Tech-Unternehmens autoritäre Tendenzen hat. Die digitale Zensur könnte dann schnell zu einem Mittel des Machterhalts werden, der an das chinesische Modell erinnert. Selbst in rechtsstaatlichen Strukturen haben Maßnahmen, welche in die Grundrechte der Bürger eingreifen, eine Tendenz schleichend ausgeweitet zu werden (siehe das Beispiel der Telefonüberwachung).

Manche Kritiker könnten vermuten, dass heute Terror-Propaganda unterbunden wird, morgen politisch Andersdenkende marginalisiert (und in der Tat ist das aktuell der Vorwurf vieler US-Republikaner, der unter dem Hashtag #liberalbias Echo findet), dann Banns und Blockaden aufgrund von Urheberrechtsverstößen vorgenommen werden (siehe die Gema) oder zur Unterdrückung regierungskritische Stimmen (man denke an die Querdenker-Bewegung - und auch hier gibt es erste Beispiele, wie ein solcher Block begründet werden könnte).

Megaphon oder Flüsterpost: die Bedeutung der algorithmischen Reichweite

Doch das reine Vorhandensein einer bestimmten Botschaft oder eines bestimmten Akteurs auf einem Netzwerk ist nicht die einzig relevante Frage. Es geht auch um die Amplifizierung der Botschaften. Dabei spielen zwei Faktoren eine Rolle:

  1. Das Angebot des Netzwerkes, also die Frage, wie bereitwillig es Posts anbietet.
  2. Die Möglichkeit des einfachen und kostenfreien Zugriffs.

Wie oben erwähnt, könnte sich jeder von Twitter Verbannte ein eigenes digitales Angebot aufbauen, müsste aber die Kosten dafür selbst tragen. Wer also eine Twitter-Alternative kreiert, muss den Anwendern möglicherweise eine Nutzungsgebühr abverlangen. Gleichzeitig ist es nicht trivial, ein gut funktionierendes, auf Bedienerfreundlichkeit ausgelegtes Netzwerk zu schaffen.

Wenn sich die Anhänger des US-Präsidenten also über den Twitter-Bann ihres Idols beschweren, dann beklagen sie in erster Linie, dass sie seine Botschaften nicht mehr mit der gleichen Bequemlichkeit empfangen können. Denn über offizielle Kanäle und klassische Medien (oft und gerade auch politisch nahestehende wie OANN) ist er weiterhin deutlich zu hören.

Doch es ist vor allem das Angebot der Netzwerke, der Sozial-, Politik- und Medienwissenschaftlern Kopfzerbrechen bereitet. Viele Entwicklungen der letzten Jahre, welche die Polarisierung innerhalb der Gesellschaft befeuern - vom Aufstieg der Impfgegner-Bewegung und anderer Verschwörungstheorien über die zunehmende Gewaltbereitschaft - können auf den Einfluss der sozialen Medien zurückgeführt werden. Immer öfter heißt es bei der Aufarbeitung von Anschlägen und Attentaten, der Täter habe sich selbst im Internet radikalisiert.

Doch Untersuchungen zeigen: es ist keinerseits nur der freie Wille des Einzelnen, der eine Radikalisierung herbeiführt. Die Algorithmen der Plattformen spielen eine erhebliche Rolle. Sie sind darauf ausgelegt, den Nutzer anzuregen, um so seinen weiteren Konsum von Inhalten zu sichern. Dabei wirken die gleichen Auslöser, die dem Menschen in der prähistorischen Vergangenheit gut gedient haben.

Einer davon ist die Angst. Nichts erregt so sehr wie die Befürchtung von Unheil, und nichts motiviert so stark dazu, aktiv zu werden, wie die Notwendigkeit, Schaden abzuwenden. Ebenso effektiv sind die Wut und die Empörung. Verschwörungstheorien sprechen diese drei emotionalen Spielarten in perfekter Weise an: sie stiften Verunsicherung und schildern eine schwer zu fassende Bedrohung, motivieren so dazu, Erklärungen zu suchen und liefern diese gleich mit - meist gekoppelt mit einem Aufruf zur Empörung und konkreten Vorschlägen, den Missstand zu beheben.

Attila Hildmanns Fieberträume satanischer Kulte im Pergamon-Museum und die "Stop the Steal"-Bewegung in den USA haben den gleichen Motor: eine Verschwörungstheorie, die komplexe Zusammenhänge in einfach zu verstehende Konzepte packt und den Anhängern das Gefühl der Handlungsfähigkeit gibt.

Es versteht sich von selbst, dass dieses Rezept von Angst und Ermächtigung einen nicht zu überbietenden Anstoß zum Konsum der entsprechenden sozial medialen Inhalte gibt. Facebook, Twitter et al. profitieren davon direkt und unmittelbar. Lange Zeit haben ihre Algorithmen die Eskalation der Verschwörungstheorien befördert, indem sie Nutzern nach einem Video, einem Post gleich den nächsten, ähnlichen empfahlen.

Eine junge Mutter, die sich über die anstehenden Impfungen ihres Kindes informieren wollte, wurde erst mit den aufmerksamkeitsstarken Videos der Anti-Vaxxer konfrontiert, und dann in Folge mit einer Verschwörungstheorie nach der anderen. So kommt es, dass sich etwa in der Querdenker-Bewegung Menschen höchst unterschiedlicher Ideologien wiederfinden. Viele von ihnen wurden über die Vorschlags-Algorithmen zusammen gebracht und radikalisiert.

Viele Akteure haben sich diese Mechanik zunutze gemacht. So verfolgt der Propaganda-Kanal RT offenbar eine Taktik, " ...Videos von Tsunamis, Meteoriteneinschlägen in Gebäuden, Haifischattacken, Unfällen in Freizeitparks..." einzusetzen, um Reichweite über algorithmische Empfehlungen zu generieren. Mit Erfolg - über 7 Milliarden gesehener Videos sind eine Reichweite, welche die herkömmlicher Medien übertrifft.

Die "Big Five" der Tech-Branche haben diese Problematik inzwischen erkennt. Facebook gibt zu, dass rund zwei Drittel aller neuen Teilnehmer extremer Facebook-Gruppen durch seinen Vorschlags-Algorithmus dorthin gelangt sind. Youtube schätzt, dass 70 Prozent aller Videos auf eine Empfehlung hin aufgerufen werden. Google reagiert inzwischen schnell auf Hinweise, wenn die (von den Suchen der Anwender getriebenen) Vorschläge bei seiner Suchmaschine eine gefährliche Wendung nehmen, und greift manuell ein.