YouTube patzt beim Löschen von Terrorvideos

Das Counter Extremism Project hat herausgefunden, dass Filter bei YouTube noch viel IS-Propaganda durchlassen und einschlägige Konten nicht gesperrt werden.

In Pocket speichern vorlesen Druckansicht 31 Kommentare lesen
YouTube

(Bild: dpa, Nicolas Armer)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Obwohl Google bei der Tochter YouTube nach eigenen Angaben Künstliche Intelligenz (KI) und spezielle Hash-Technologien einsetzt, um Terror-Propaganda aufzuspüren und frühzeitig zu löschen, funktionieren die eingesetzten Filter nicht zuverlässig. Dies hat das Counter Extremism Project (CEP) einer am Dienstag veröffentlichten Studie zufolge herausgefunden. Demnach schlüpfen immer wieder zu Anschlägen im Westen aufrufende Videos durch die Mechanismen zum Aussieben einschlägiger Inhalte, die binnen kurzer Zeit auch ein recht großes Publikum finden.

Forscher der zivilgesellschaftlichen Organisation haben für die Analyse ein Vergleichsset von 229 Terror-Spots aus dem Umfeld der Extremistengruppe "Islamischer Staat" (ISIS) festgelegt und zwischen 8. März und 8. Juni untersucht, inwieweit Videos daraus auf YouTube auftauchen und wie lange diese verfügbar sind. Um die Propaganda-Inhalte auszumachen, verwendeten die CEP-Forscher unter anderem einen Webcrawler, der in Titeln und Beschreibungen einschlägige Schlüsselbegriffe wie "Märtyrertum", "Mudschaheddin" oder "ISIS" suchte. Ferner kam mit "eGlyph" ein selbstentwickeltes, auf die Hash-Technik setzendes Content-Identifikationssystem zum Einsatz.

Laut Studie gelang es ISIS-Unterstützern, während der drei Monate insgesamt 1348 Videos aus dem Sample auf das Portal hochzuladen, die insgesamt 163.391 mal angeschaut wurden. 24 Prozent davon blieben über zwei Stunden auf YouTube und erzeugten dabei mit 148.590 Klicks 91 Prozent aller einschlägigen Abrufe. 76 Prozent waren nach spätestens zwei Stunden gelöscht, kamen bis dahin aber immer noch auf 14.801 Ansichten, was neun Prozent der gesamten Klicks entspricht.

Die Propagandavideos wurden über 278 Nutzerkonten hochgeladen. Von diesen blieben 60 Prozent online, auch nachdem auf sie zurückgehende Beiträge wegen Verstoß gegen die Regeln der Plattform entfernt worden waren. 91 Prozent des gesamten Materials konnte mehrfach hochgeladen werden.

Das in New York angesiedelte Anti-Extremismus-Projekt sieht anhand der Ergebnisse die Behauptung der Google-Tochter infrage gestellt, proaktiv gegen terroristische Inhalte vorzugehen. YouTube schloss sich vor über zwei Jahren zusammen mit Facebook und Twitter dem "Global Internet Forum to Counter Terrorism" an, um extremistische und terroristische Inhalte im Netz besser zu bekämpfen und Gruppen wie ISIS die Online-Rekrutierung von Anhängern zu erschweren. Seit Ende 2015 engagieren sich die US-Konzerne zusammen etwa mit Microsoft auch im "EU Internet Forum". Sie haben damit zugesichert, Hinweise auf "schädliche Online-Inhalte" wie Terrorpropaganda oder Hasskommentare innerhalb von 24 Stunden prüfen und gegebenenfalls aus dem Netz entfernen zu wollen.

In beiden Gremien geht es auch um die Entwicklung technischer Standards. So sollen etwa "digitale Fingerabdrücke" in Form von Hashes ausgetauscht werden, die auf extremistische Videos hinweisen. Die Resultate ziehen den Erfolg dieser Bemühungen laut dem CEP aber massiv in Zweifel, auch wenn die Erkennungstechnik Fortschritte gemacht zu haben scheine. Das Hash-Verfahren werde offensichtlich nicht angemessen verwendet.

Die auf menschliche Prüfer setzenden Hinweisverfahren seien ferner ebenfalls offenbar unzureichend, um bekannte terroristische Inhalte auszumachen und zu löschen. Angesichts der Tatsache, dass 24 Prozent der gefundenen einschlägigen Videos länger als zwei Stunden auf YouTube verbleibe, macht die Organisation der Google-Tochter den Vorwurf, ihre Kontrolleure nicht hinreichend mit ISIS-Materialien vertraut zu machen und nicht richtig zu schulen.

In einer anderen Studie hatte das CEP jüngst ermittelt, dass auch bei der von YouTube implementierten "Redirect"-Methode noch nicht alles nach Plan läuft. Das Verfahren soll eigentlich dafür sorgen, dass Nutzer bei der Suche nach Enthauptungsvideos oder anderen Propaganda-Inhalten von ISIS & Co. auf anti-terroristische Aufklärungsspots umgeleitet werden. Die Projektmacher empfehlen Google daher, die eigenen und mit Partnern ergriffenen Hashing-Bemühungen transparenter zu machen und Dritten Einblicke in einschlägige Datenbanken zu gewähren. Nötig sei zudem eine konsistente Linie, um Mitgliederkonten unverzüglich zu sperren oder zu löschen, über die Terrorvideos hochgeladen wurden.

Gesetzgebern rät die Initiative, nicht allein auf die Zeit zu schauen, wie lange einschlägiger Content sich online befinde. Einbezogen werden müsse auch, wie viele Nutzer sich solches Material schon binnen kürzester Fristen anschauten. EU-Politiker warben jüngst vor der Uno-Vollversammlung dafür, dass Online-Plattformen extremistische und schädliche Inhalte innerhalb von zwei Stunden löschen sollten. Bürgerrechtsorganisationen wie die Initiative European Digital Rights (EDRI) rügen dagegen seit Langem, dass die "Internet-Foren" der Industrie nicht demokratisch legitimiert seien, das Problem nicht deutlich umrissen werde, Ergebnisse nicht überprüft werden könnten und die Kollateralschäden für die Meinungsfreiheit sowie die Demokratie groß seien.

Nebenbei geht es dem CEP offenbar darum, stärker für das eigene eGlyph-Verfahren zur Content-Erkennung zu werben. Entwickelt hat es der CEP-Berater Hany Farid, der auch einer der führenden Köpfe hinter der vergleichbaren Technik PhotoDNA aus dem Hause Microsoft ist.

Auf diese Technik setzt etwa das National Center for Missing and Exploited Children im Kampf gegen sexuelle Missbrauchsdarstellungen von Kindern im Netz. Insgesamt wächst so seit einiger Zeit der Druck auf die großen Internetkonzerne, Erkennungstechnologien und Upload-Filter im Kampf gegen Terror-Propaganda und Missbrauchsbilder einzusetzen. (olb)