Von Tittmoning nach Tuntenhausen

Zensur zwischen öffentlich und privat. Teil 3: Technische Zensur

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Neben der institutionellen ist auch eine "technische" Zensur denkbar, etwa durch Filterprogramme. Problematisch daran ist zum einen, dass komplexe rechtliche Abwägungsprozesse zugunsten eines "lieber zu viel als zu wenig" aufgegeben werden. Zum anderen öffnet die im Zusammenhang mit technischer Zensur häufig angestrebte "Selbstverwaltung" den Bereich der Zensur für wirtschaftliche Interessen.

Perkeo

Eine bereits seit längerer Zeit staatlich anerkannte technische Lösung ist das Programm Perkeo, mit dem Unternehmen, Behörden und Provider ihre Netzwerke nach strafrechtlich relevanten Inhalten durchsuchen. Der Perkeo-Hersteller Autem GmbH hat einen Exklusivvertrag mit dem Bundesinnenministerium. Das BKA erzeugt Hashes von Bildern und Filmen mit strafbarem Inhalt – hauptsächlich Kinderpornographie - und gibt sie für die Integration in Perkeo weiter. Diese Hash-Bibliothek wird vom BKA laufend erweitert. Wenn Perkeo eine Datei findet, die mit einem Hash aus der Liste übereinstimmt, erfolgt eine Meldung an das BKA. Die Treffer haben vor deutschen Gerichten Beweiskraft. Die Zukunft des Systems ist allerdings durch den in Teil 2 ausführlicher geschilderten Entwurf des Bundeskabinetts für ein Gesetz zur Umsetzung des Rahmenbeschlusses des Rates der Europäischen Union zur Bekämpfung der sexuellen Ausbeutung von Kindern und der Kinderpornographie gefährdet. Weil die Umsetzung des Rahmenbeschlusses im Schutzmaß nicht zwischen Kindern und Jugendlichen differenziert, die Altersgrenze von 14 auf 18 heraufsetzt, und die Pornographiedefinition gleichzeitig um "anzügliche Posen" erweitert, ist es mit der bisher gegebenen relativ klaren Erkennbarkeit von Kinderpornographie nach Umsetzung der Richtlinie vorbei. Bisher verweigert das BKA eine Auskunft dazu, wie sich die Novelle auf Perkeo auswirkt und ob das System dann überhaupt noch funktionieren kann, mit dem Hinweis darauf, dass dies ein "laufendes Gesetzgebungsverfahren" sei.

Wortlisten und Sperren

Hat man keine feste Liste mit Hashes, gibt es unterschiedliche Prinzipien, um problematische Angebote auszusperren. Eines davon ist das Wortlistenprinzip. Hier arbeitet das Filterprogramm mit einer Liste von unerwünschten Wörtern. Wenn eine Internetseite aufgerufen wird, prüft das Programm, ob auf der Seite Wörter vorkommen, die in der Liste enthalten sind. Wenn ja, wird die Seite gesperrt. Wortlisten haben den Nachteil, dass sie den Kontext nicht erkennen, also zum Beispiel auch Seiten sperren, in denen eine Buchstabenkombination wie "Tit" im nicht jugendgefährdenden Kontext vorkommt - wie etwa im Namen der oberbayrischen Ortschaft Tittmoning. Sperrt jemand mit einer solchen Filtersoftware etwa das Wort "Tunten" aus, so wird seinen Kindern auch der Zugriff auf die Webseiten verweigert, die sich mit der Marianischen Männerkongregation in Tuntenhausen beschäftigen.

Eine solche Erfahrung musste auch der ehemalige Leiter der Abteilung Handels- und Wirtschaftsrecht im deutschem Bundesministerium für Justiz, Dr. Elmar Hucko, machen, als ihm die regierungseigene Zensursoftware die Teilnahme an einer Online-Diskussion über Urheberrechtsfragen mit dem Verweis auf angebliche "jugendgefährdende Inhalte" zeitweise verweigerte. Gemildert werden können solche ungewollten Effekt durch Software, die Zensurgegner auf ihren Webseiten kostenlos zur Verfügung stellen. Allerdings unterliegen diese Lösungen seit dem 13. September 2003 einer besonderen Zensurproblematik: Durch den Paragrafen 111a Abs. 1b des geänderten Urheberrechtsgesetzes ist es mittlerweile in Deutschland strafrechtlich riskant, über solche Lösungen näheres zu berichten. Wir werden und mit dieser Problematik in Teil 4 der Serie noch näher befassen.

Eine andere Methode ist das Sperren von Webadressen. Hier erhält das Filterprogramm eine Liste mit gesperrten URLs oder Domainnamen, auf denen unerwünschte Angebote gehostet sind (Vgl. Trojaner vom Chef). Filterprogramme, die mit URL-Listen arbeiten und diese sperren, sind schon nach kurzer Zeit veraltet, weil das Angebot im Web sich sehr schnell ändert. Eine weitaus rigorosere Zensur bieten Filterprogramme, die nur eine Liste mit erlaubten Webadressen zulassen.

Rating

Eine dritte Möglichkeit ist das Rating- oder Einstufungsprinzip. Die Idee dabei ist, dass die Hersteller von Webangeboten den Inhalt ihrer Seiten einstufen und dafür ein Zertifikat erhalten. Mit Hilfe von darauf ausgelegter Filtersoftware können Anwender dann Kategorien von Inhalten zulassen oder verbieten. Das Filterprogramm prüft die angewählten Angebote und lässt sie – je nach Zertifikat und Einstellung – zu oder nicht.

Die bekannteste Ratinginitiative ist der unter anderem vom Verband der deutschen Internetwirtschaft, vom IT-Branchenverband Bitkom und vom Bundesverband der Deutschen Industrie (BDI) propagierte ICRA-Filter. ICRA steht für "Internet Content Rating Association." Das ist eine Organisation an der sich unter anderem die Bertelsmann-Stiftung, AOL, die deutsche und die britische Telekom, IBM und Microsoft beteiligen.

Der ICRA-Filter integriert die verschiedenen Prinzipien: Er bietet sowohl Negativlisten von nicht eingestuften Internetadressen als auch Positivlisten für besonders strenge Eltern oder Aufseher, die ihren Kindern nur eine eng begrenzte Auswahl von Seiten erlauben wollen. Im Gegensatz zur Vorläuferinitiative PICS arbeitet ICRA nicht im Browser, sondern direkt an der Netzwerkverbindung des Computers. Die Konzerne wollen die Auswahl der zensierten Inhalte anderen Gruppen "flexibel nach Alter, Kulturraum und Weltanschauung" überlassen.1 Diese Flexibilität öffnet jedoch Zensurexzessen Tür und Tor. Fragen nach "Verletzung von Tieren", "Gotteslästerung" und der "Darstellung von Tabakkonsum" beim Rating der Seiten lassen einen sehr umfassenden Zensureinsatz von ICRA zu.

Bei der Regulierung von Inhalten durch ICRA können Kirchen und Schulen, aber auch weniger vertrauenswürdige Gruppen jeweils eigene Rating-Datenbanken betreiben, die dem User die Entscheidung abnehmen, welche Angebote für ihn geeignet sind oder nicht. Außerdem kann dieser Ansatz von Zensur auch auf der Ebene von Internet-Providern und von Suchmaschinen regeln, welche Angebote zum Anwender durchgelassen werden ­ mit dem Resultat, dass Unliebsames einfach unsichtbar wird.

Die Anwendersoftware ICRAplus arbeitet darüber hinaus mit Filterprogrammen wie Optenet zusammen, die automatisch pornographische Texte und Bilder suchen und Klassifikationen vergeben. Auch das angeblich von der "deutschen Adultbranche", tatsächlich aber eher vom Verlagsriesen Bauer entworfene Jugendschutzprogramm JusProg läuft zusammen mit ICRAplus. Hier werden die Bewertungen nicht mehr auf den Computern der einzelnen Anwender gespeichert, sondern auf einem zentralen Server – mit entsprechenden Problemen für Datenfluss und Datenschutz. Die kombinierte Lösung nennt sich "Jugendschutzprogramm.de".

Bedenklich an ICRA stimmt – neben der Unverträglichkeit mit Virenscannern - auch, dass gerade die großen Konzerne bzw. deren Ableger wie AOL, IBM, Microsoft, die Telekom und die Bertelsmann-Stiftung das Filtersystem entwickeln. Thomas Middelhoff, damals Vorstandsvorsitzender von Bertelsmann hatte schon 1999 eine Art weltweiten Presserats vorgeschlagen, bei dem eine "Internet-Schutztruppe" der Medienkonzerne ungenehme Inhalte aufspüren sollte.2 Damit würde der Unterschied des Internets zu anderen Medien, die Veröffentlichungsmacht für jeden einzelnen Teilnehmer, ausgehebelt und den Medienkonzernen ein wirksames Mittel zur Beseitigung potentieller Konkurrenz in die Hand gegeben. Sogar Beth Simone Noveck, Direktorin für internationale Angelegenheiten des Information Society Projects an der Yale Law School und Gutachterin der Bertelsmann-Stiftung warnte vor den Gefahren solch einer Privatzensur: "[...] where unaccountable technologies merely give the appearance of self-empowerment and enable private censorship, technological solutions can be far less free or democratic than publicly enacted laws."

Die KJM

Problematisch sind in dieser Hinsicht jedoch nicht nur die leicht als Privatzensur erkennbaren Filter, sondern auch "Selbstkontrollorgane" die mit staatlichen Institutionen zusammenwirken.

So ist beispielsweise im § 11 des Jugendschutz-Staatsvertrages (JMStV) festgelegt, dass "Anbieter von Telemedien" von der medienwirksam in der ostdeutschen Amokstadt Erfurt angesiedelten Kommission für Jugendmedienschutz (KJM) "anerkannte" Filterprogramme einsetzen müssen, um Kindern und Jugendlichen den Zugang zu "erziehungs- oder entwicklungsbeeinträchtigenden" Inhalten zu verwehren.

Nachdem sich lange Zeit nichts tat, ließ die KJM am 1. März 2007 per Pressemitteilung verlautbaren, dass das "Prüflabor" bei jugendschutz.net nun "erstmals" Jugendschutzfilter für das Internet getestet habe, wobei "erhebliche Defizite" festgestellt worden seien. Einerseits sei die Effizienz, besonders bei der Blockade rechtsextremer Inhalte, unzulässiger Darstellungen von Gewalt, Suizidforen und Glücksspielen zu gering, zum anderen sperrten sie harmlose Inhalte für Kinder und Jugendliche. Getestet wurden drei Lösungen: eine speziell auf Deutschland zugeschnittene version von ICRA, Cybit und die oben geschilderte Kombilösung Jugendschutzprogramm.de, bestehend aus der ICRA-Software und dem JusProg-Filter. Der KJM-Vorsitzende "bedauerte", dass seiner Kommission noch kein Jugendschutzfilter vorgelegt worden sei, der den gesetzlichen Anforderungen genüge. Er setze aber, so Ring, weiterhin darauf "im Dialog mit der Internetbranche zu anerkennungsfähigen Lösungen zu kommen."

Auch bei der Aufsicht für Rundfunk und Internet setzt die KJM auf eine von ihr hoheitlich zertifizierte "Selbstregulierung" der "Branche". Die Überprüfung des Privatfernsehens erledigt sie mit der "Freiwilligen Selbstkontrolle Fernsehen" (FSF), die von den großen Medienkonzernen bezahlt und geführt wird. Dabei ist die KJM auch einem gewissen Regulierungsdruck von Seiten der großen Fernsehsender ausgesetzt, die verstärkt auf eine Regulierung ihrer Konkurrenz drängen oder, wie Georg Kofler, Geschäftsführer des Pay-TV-Senders Premiere es auf den Münchner Medientagen formulierte: "Dass ihnen das Mühe macht, das möchten wir auch." Als Internet-Äquivalent zur FSF gilt die Freiwillige Selbstkontrolle Multimedia (FSM), die seit November 2005 von der KJM als Einrichtung der Freiwilligen Selbstkontrolle anerkannt ist. Sie wurde von Konzernen wie Bertelsmann, der Telekom und Microsoft gegründet und steht unter der Leitung der Jugendschutzbeauftragten der Deutschen Telekom AG, Gabriele Schmeichel.

Die Alternative zu den nur für das Fernsehen durchsetzbaren Sendezeiten sollte ein elektronischer Altersnachweis sein. Hier akzeptierte die KJM bisher "unter dem Vorbehalt einer entsprechenden Umsetzung im Regelbetrieb" siebzehn Altersverifikationssysteme, überwiegend von großen Unternehmen oder deren Ablegern wie Vodafone, Arcor, der Telekom und dem Zentralen Kreditausschusses. Genutzt werden die Systeme nur von sehr wenigen Anbietern. Ein weitaus größerer Teil verlagerte aufgrund der erwarteten erheblichen Umsatzeinbrüche sein Angebot ins Ausland.

Initiativen zur Altersverifizierung blieben nicht nur in diesem Fall von fragwürdigem Nutzen. Sie versagten auch deshalb, weil das Netz sich weniger als ein Publikationsforum erwies, denn als ein Kommunikationsmittel. Es besteht nicht nur aus Angeboten von Medienkonzernen, sondern auch aus Foren, Chatrooms, Mailinglisten, Newsgroups und P2P-Austausch. Mit zunehmender Zensur des Webs verlagerten sich auch Nachrichteninhalte, die von traditionellen Medien nicht gezeigt wurden in diesen privaten Kommunikationsteil. Das Spektrum reicht von terroristischen und staatsterroristischen Enthauptungs- und Foltervideos Information und Spektakel, bis zum Tausch schwer zugänglicher Regierungsdokumente. P2P-Programme mit Verschlüsselungs- und Anonymisierungsfunktionen wie Freenet oder Entropy wurden von ihren Entwicklern sogar explizit als Waffen gegen Zensur und Überwachung entworfen.

Zu Teil 1: Wer wacht über die Wächter?

Zu Teil 2: Kinder, Pornos, Killerspiele

In den Teilen 4 bis 6 der Serie wird es um privatisierte und um Zensur durch Überwachung gehen.