Internet-Zensur: Wie Algorithmen die Wahrheit filtern
Zensur zeigt sich heute selten als Verbot. Sie wirkt über Filter, Geschäftsmodelle und Regulierung – oft im Namen des Schutzes, meint Hartmut Gieselmann.
(Bild: Lightspring/Shutterstock.com/heise medien)
Die wirkungsvollste Zensur unserer Zeit kommt nicht von Diktatoren – sie kommt von Algorithmen, Geschäftsmodellen und gut gemeinten Gesetzen. Sie ist unsichtbar, und genau das macht sie so gefährlich.
Ein Beispiel: Im syrischen Bürgerkrieg dokumentierten Aktivisten mit ihren Handys Giftgasangriffe, Fassbomben auf Krankenhäuser, Massaker an Zivilisten. Sie luden die Videos auf YouTube hoch – als Beweis, als Hilferuf, als letzte Spur der Wahrheit. YouTube löschte hunderttausende dieser Videos. Nicht weil jemand es angeordnet hätte, sondern weil ein Algorithmus sie als „gewaltverherrlichend“ einstufte. Darunter war Beweismaterial für Kriegsverbrechen, das vor internationalen Gerichten hätte verwendet werden können. Unwiederbringlich verloren – gelöscht von einer Maschine, die nicht zwischen einem ISIS-Propagandavideo und der Dokumentation eines Giftgasangriffs unterscheiden kann. Internet-Archive wie das von Mnemonic versuchen derweil, das Beweismaterial in Archiven zu sichern.
Informationskontrolle auf fĂĽnf Ebenen
Die neue Architektur der Informationskontrolle hat fünf Ebenen, die ineinandergreifen. Staaten wie China und Russland zensieren auf der ersten Ebene ganz offen – Sperren, Shutdowns, Strafverfolgung. Westliche Demokratien bemühen sich auf der zweiten Ebene, den Schein der Meinungsfreiheit aufrechtzuerhalten. Und doch verbannte die EU 2022 erstmals Medien per Verordnung ohne Gerichtsbeschluss, als sie RT und Sputnik sperrte. Das mag eine Mehrheit in Kriegszeiten inhaltlich nachvollziehbar finden. Aber ein Präzedenzfall ist geschaffen: Wenn die EU heute russische Staatsmedien verbieten kann, könnte sie morgen auch Al Jazeera verbieten. Oder einen unbequemen europäischen Sender.
Auf der dritten Ebene üben Politiker indirekt Einfluss auf die Internet-Plattformen aus. Diese kontrollieren durch Algorithmen und Moderationsregeln, was Milliarden Menschen sehen – ohne demokratische Legitimation, ohne Rechenschaftspflicht. Auf der vierten Ebene kommen wirtschaftliche Interessen hinzu, die Inhalte an ihrer Verbreitung hindern, die dem Geschäftsmodell der Plattformen schaden. YouTube demonetarisiert Kriegsberichterstattung, weil Coca-Cola seine Werbung nicht neben Bildern aus Gaza sehen will. Die Videos werden nicht gelöscht – aber niemand sieht sie, und die Journalisten können ihre Arbeit nicht mehr finanzieren.
Und es gibt noch einen fünften Mechanismus, an dessen Hebel Geheimdienste sitzen, die die gesamte Infrastruktur überwachen. Am DE-CIX in Frankfurt, dem weltweit größten Internetknoten, darf der BND bis zu 20 Prozent des Datenverkehrs abgreifen – anlasslos, massenhaft. Das ist keine direkte Zensur, führt aber zum sogenannten Chilling-Effekt: Wenn Personen wissen, dass sie beobachtet werden, halten sie sich mit offener Meinungsäußerung aus Angst vor Repressionen zurück. Die Überwachung muss dazu nicht nahtlos sein. Es genügt, wenn sie den Anschein erweckt, wie Jeremy Bentham bereits im 18. Jahrhundert beim Entwurf seines Panopticons feststellte.
Benthams Panopticon ist keine historische Fußnote, sondern ein Denkmodell, das heute in Sicherheitsapparaten und digitalen Kontrollsystemen neue Anhänger findet. Wer Freiheit ernst nimmt, muss dieser utilitaristischen Logik widersprechen – der Vorstellung, Überwachung sei ein legitimes Mittel, solange sie angeblich dem Wohl der Mehrheit dient. Im Kleinen führt das gerade Kulturstaatsminister Wolfram Weimer vor, wenn er drei Buchhandlungen vom Deutschen Buchhandelspreis ausschließt, weil dem Verfassungsschutz angeblich „Erkenntnisse“ vorlägen. Wer nicht auf Linie ist, soll auch nicht Fressen dürfen.
Die Macht der Plattformen
Die Macht der Plattformen ist dabei das am meisten unterschätzte Problem. Meta entscheidet für drei Milliarden Menschen, was sichtbar ist und was nicht. Nach dem 7. Oktober 2023 dokumentierte Human Rights Watch über 1050 Fälle, in denen Instagram und Facebook pro-palästinensische Inhalte unterdrückten – Nachrichtenberichte, humanitäre Appelle, persönliche Erfahrungsberichte. Über 95 Prozent dieser Entscheidungen trifft eine KI, kein Mensch. Und im Januar 2025 schaffte Mark Zuckerberg die unabhängigen Faktenchecker komplett ab – über Nacht, ohne Debatte, ohne Rechenschaft. Ein Mann entschied für fast die Hälfte der Menschheit über die Regeln des öffentlichen Diskurses auf den Plattformen von Meta.
Gleichzeitig werden dieselben KI-Modelle, die weltweit Social-Media-Feeds kuratieren, in den Militärapparat integriert. OpenAI hatte Anfang 2024 stillschweigend sein Verbot militärischer Nutzung gestrichen und arbeitet eng mit dem Pentagon zusammen. Die Zusicherung: Man werde die eigene Bevölkerung nicht überwachen. Was sie nicht sagen: Für die restlichen 7,7 Milliarden Menschen – darunter alle Europäer – gilt dieses Versprechen nicht. FISA Section 702 erlaubt die anlasslose Überwachung aller Nicht-US-Bürger. Jede Interaktion mit ChatGPT fließt auf US-Server, die dem US-Geheimdienstzugriff unterliegen. Auch hier greift wieder der genannte Chilling-Effekt.
Und Europa?
Europa reguliert – mit dem Digital Services Act, dem ambitioniertesten Plattformgesetz der Welt. Der DSA schafft echte Fortschritte: Begründungspflicht bei Löschungen, Widerspruchsrecht, Transparenzberichte. Aber er hat einen Konstruktionsfehler: Die EU-Kommission – eine politische Institution ohne direkte demokratische Legitimation – ist zugleich Gesetzgeber, Aufsichtsbehörde und Richter über die größten Plattformen der Welt.
Als der damalige EU-Kommissar Thierry Breton im Oktober 2023 Elon Musk öffentlich mit DSA-Sanktionen drohte, wenn X nicht „Desinformation“ zum Hamas-Angriff bekämpfe, war das kein Regulierungsvollzug. Das war ein Politiker, der in Echtzeit definierte, was in einem laufenden Krieg „Desinformation" ist – mit Milliarden-Bußgeldern als Drohkulisse. In der Folge unterdrückten die Algorithmen nicht mehr nur Enthauptungsvideos, sondern auch viele andere Kriegsberichte, die der Aufklärung und Beweismittelsicherung hätten dienen können.
Die vielleicht größte Gefahr aber lauert im Jugendschutz. Wer kann schon gegen den Schutz von Kindern sein? Niemand. Und genau deshalb ist Jugendschutz das perfekte trojanische Pferd. Die Logik ist bestechend einfach: Altersverifizierung erfordert Identitätsfeststellung. Identitätsfeststellung bedeutet das Ende der anonymen Internetnutzung. Netzsperren sind mit VPNs umgehbar. Also müssen VPNs eingeschränkt werden, wie es SPD-Generalsekretär Tim Klüssendorf gegenüber der dpa forderte. VPN-Erkennung erfordert jedoch eine Deep Packet Inspection – die Analyse des gesamten Internetverkehrs.
Wenn man die Argumentationskette zu Ende denkt, steht am Ende eine Ăśberwachungsinfrastruktur, die von der chinesischen Great Firewall nicht mehr zu unterscheiden ist. Parallel dazu warnen ĂĽber 400 Wissenschaftler vor der geplanten EU-Chatkontrolle, die auch mit dem Schutz von Kindern begrĂĽndet wird und eine Ende-zu-Ende-VerschlĂĽsselung faktisch abschaffen wĂĽrde.
Die einzigen Länder, die bisher VPNs verbieten, sind China, Russland und Iran. Will Deutschland in dieser Reihe stehen?
Videos by heise
Transparenz statt Kontrolle
Die entscheidende Frage ist nicht, ob wir regulieren sollen. Straftaten im Netz müssen verfolgt und Kinder geschützt werden. Aber die Frage muss lauten: Bauen wir dafür eine Infrastruktur, die jede künftige Regierung zur Zensur nutzen kann? Stimmungen und Machtverhältnisse können schnell kippen. Deshalb sollte sich jeder bei allen staatlichen Kontrollwerkzeugen die Frage stellen: Wie hoch ist das Missbrauchspotenzial, wenn der schlimmste politische Feind sie in die Finger bekommt?
Die Antwort auf Desinformation ist nicht weniger Information, sondern bessere Information. Die Antwort auf Plattform-Monopole ist nicht staatliche Inhaltskontrolle, sondern offene Protokolle und Interoperabilität. Die Antwort auf Straftaten im Netz ist nicht Massenüberwachung, sondern gezielte Strafverfolgung. Und die Antwort auf die Abhängigkeit von US-Konzernen, die gleichzeitig unsere Kommunikation moderieren und KI-Modelle ans Pentagon liefern, ist: europäische digitale Souveränität.
Die Forderung der SPD, die algorithmische Optimierung der zentralen Feeds kommerzieller Social-Media-Plattformen zu verbieten, ist richtig – sie betrifft allerdings nicht nur Jugendliche, sondern das gesamte Geschäftsmodell dieser Firmen. Wenn Aufmerksamkeit die maßgebliche Ware ist, lassen sich manipulative Feeds nicht einfach regulieren, ohne das Plattformmodell selbst infrage zu stellen. Konsequenter wäre es deshalb, solche Systeme gar nicht erst zuzulassen und stattdessen offene Alternativen wie das Fediverse zu stärken, in denen keine zentrale Instanz den Informationsfluss algorithmisch steuert.
Ein freies Internet ist unbequem. Es enthält Dinge, die falsch sind, die wehtun, die uns abstoßen. Aber die Alternative – ein Internet, in dem Algorithmen, Konzerne und Regierungen entscheiden, was wir sehen dürfen – ist keine Lösung. Sie ist das Problem, vor dem wir die nächste Generation schützen müssten.
(hag)