Terrorbekämpfung: EU-Kommission legt Richtlinie für Upload-Filter im Netz vor

Neben Upload-Filtern nach der Urheberrechtsrichtlinie kommt noch mehr auf Online-Plattformen zu: Die EU-Kommission will, dass sie auch Terrorinhalte filtern.

In Pocket speichern vorlesen Druckansicht 73 Kommentare lesen
Vorratsdatenspeicherung

Justizminister Maas will zur Bekämpfung von Terror und Verbrechen eine Speicherung von Telekommunikationsdaten für maximal zehn Wochen zulassen.

(Bild: dpa, Felix Kästle)

Lesezeit: 3 Min.
Von
  • Monika Ermert

Innerhalb einer Stunde sollen Hoster, Cloudprovider und allerlei andere Internet- oder Sharingplattformen terroristische Inhalte aus ihren Angeboten löschen. Diesen Vorschlag legte die EU Kommission am Mittwoch vor und sie geht noch weiter: Anbieter sollen auch proaktiv Terrorpropaganda, die Anleitung zu Terrorakten oder auch nur die Glorifizierung von als terroristisch einzustufenden Straftaten filtern. Die Löschanordnung soll von Europol oder der zuständigen Behörde eines Mitgliedsstaates kommen.

Ausnahmen für kleinere und mittlere Dienstleister gibt es nicht in dem Vorschlag zur Bekämpfung der Verbreitung terroristischer Inhalte im Netz. Anbieter, die ihren Hauptsitz nicht in der Union haben, aber deren Dienste von EU-Bürgern genutzt werden, haben sich ebenfalls daran zu halten. Der Aufwand für die Firmen dafür ist nicht gering, heißt es doch im Verordnungs-Entwurf, der informierte Anbieter müsse vor dem Take-Down selbst noch einmal den Inhalt und dessen Löschung auf der Basis der eigenen Geschäftsbedingungen prüfen und der Behörde das Ergebnis zurückmelden. Den von einer behördlich angeordneten Löschung Betroffenen steht ein Widerspruchsrecht zu.

Mit Anordnungen allein gibt man sich in Brüssel allerdings nicht zufrieden. Anbieter, die einmal eine Anordnung erhalten haben, sollen künftig vielmehr auch selbst nach neuen Terrorinhalten fahnden. Einerseits haben sie Re-Uploads der einmal auf Anordnung gelöschten Inhalte zu verhindern. Gleichzeitig sollen sie "Terrorinhalte" ihrer Kunden "suchen, erkennen und unverzüglich löschen oder für den Zugang sperren". Für die Definition, was eigentlich terroristisch ist, greift die Kommission auf die Richtlinie zur Terrorismusbekämpfung zurück. Der Aufruf zur Sitzblockade eines Castor-Transports wäre demnach wohl schon einschlägig.

Die Verordnung sieht dafür auch den Einsatz automatischer Filter vor. Über die Ergebnisse ihrer detektivischen Dienste haben sie einmal jährlich Bericht zu erstatten. Die Behörden können dann entscheiden, ob die getroffenen Maßnahmen ausreichen, das betroffene Unternehmen mehr tun oder wieder von der Verpflichtung befreit werden kann.

Während die Kommission in ihrem Entwurf notiert, dass dieser kostenneutral für die Gemeinschaft sei, obwohl gewisse Kooperationspflichten zwischen den anordnenden Behörden der Mitgliedsländer vorgesehen sind, müssen Firmen mit weiteren Kosten rechnen. Denn natürlich dürfen sie mit ihren Filteranstrengungen Grundrechte nicht verletzten. Dazu haben sie eine Reihe von Transparenz- und Reporting-Auflagen zu erfüllen.

Gegen die mögliche Klage, dass zu Unrecht gefiltert wurde, sollen sich die Anbieter nach den Vorstellungen der Kommission offenbar mit der Aufnahme von Klauseln zur Terror-Filterung in ihre Geschäftsbedingungen schützen. Zusätzlich zu den automatischen Terrorfiltern empfiehlt der Kommissionstext die "Überprüfung durch Menschen". Die vorgesehenen Bußgeldhöhen sollen, je nach Schwere des Vergehens der Firmen, bis zur Höhe von Vergehen gegen die Datenschutz-Grundverordnung, also bis zu vier Prozent des weltweit erzielten Umsatzes reichen. Der Vorschlag geht nun in die Beratung durch das Parlament.

Der eco Verband verurteilte den Kommissionsvorschlag als Symbolpolitik, die suggeriere, "dass Behörden bislang vergeblich versuchten, terroristische Inhalte durch die Betreiber zeitnah löschen zu lassen." Das stimme aber nicht, übrigens werde die geplante Regelung vor allem kleinere Unternehmen vor unüberwindbare Probleme stellen. (axk)