Google und Facebook sollen Automatisierung zum Blocken extremistischer Videos nutzen

Da der politische Druck auf die Webunternehmen steigt, nutzen einige laut eines Exklusivberichts automatisierte Verfahren zum Entfernen extremistischer Inhalte.

In Pocket speichern vorlesen Druckansicht 26 Kommentare lesen
Google+ und Facebook

(Bild: dpa, Julian Stratenschulte/Archiv)

Lesezeit: 3 Min.
Von
  • Julia Schmidt

Statt eventuellen Verstößen gegen die eigene Nutzungsrichtlinien weiter durch bloßes Nutzerfeedback und Mitarbeiter auf den Grund zu gehen, haben sich einige Internetdienste laut eines Berichts des Nachrichtendiensts Reuters automatische Hilfe geholt. Dort zitierten anonymen Quellen zufolge nutzen unter anderem YouTube und Facebook derzeit Systeme, um extremistische Inhalte zu blocken oder wenigstens schnell zu entfernen. Die Unternehmen bestätigten den Einsatz nicht.

Arbeiten sollen die Systeme wohl mit Hashes, die die Organisationen speziellen Inhalten als eine Art digitaler Fingerabdruck mitgeben. Durch sie soll sich unter anderem feststellen lassen, wenn bereits blockierte Inhalte erneut hochgeladen werden, neue Videos hingegen würden nicht direkt gesperrt. Informationen dazu, wie viel manuelle Arbeit in diesem Zusammenhang erbracht wird und welche Kriterien zur Klassifikation herhalten, gaben die Informanten nicht bekannt.

Dass sich die angesprochenen Unternehmen nicht zu den Details der von ihnen genutzten Techniken oder deren Einsatz überhaupt äußern, lasse sich damit erklären, dass man fürchte, Terroristen könnten so lernen, die Systeme zu manipulieren. Außerdem wolle man repressiven Regierungen die Chance nehmen, den Einsatz der Techniken zur Zensur zu erwirken.

Bereits im April 2016 hätten sich Unternehmen wie das zu Alphabet gehörende YouTube, aber auch Twitter und Facebook unter dem Druck von US-Präsident Obama und anderen US-amerikanischen sowie europäischen Politikern telefonisch über mögliche Optionen für schnellere Reaktionen auf unerwünschte Inhalte ausgetauscht. Reuters Quellen zufolge stellte Facebooks Monika Bickert während des Gesprächs unter anderem ein System des gemeinnützigen Counter Extremism Project vor. Weitere diskutierte Vorgehensweisen waren wohl die Gründung eines neuen Non-Profit-Projekts oder der Ausbau bestehender Projekte, beides jeweils unter Führung der Branche und unter Einsatz von Hashing.

Gegen das Counter Extremism Project, das unter anderem George-W.-Bush-Berater Frances Townsend und Wahlkampfmanager Mark Wallace ins Leben riefen, spricht unter anderem, das sich die Unternehmen nicht wohl damit fühlen, Dritte auf ihre Kontrollmechanismen Einfluss nehmen zu lassen. Der dazu von Reuters befragte Seamus Hughes, Vizedirektor des Extremismusprogramms der George Washington University, begründet das mit dem Spektrum, auf dem sich extremistische Inhalte bewegten. Bei Delikten wie der Verletzung des Urheberrechts oder Kinderpornographie sei eher klar, was illegal ist, während die Webunternehmen unterschiedliche Grenzen bezüglich dessen Zögen, was tatsächlich extremistisch sei. Daher setzen die Unternehmen derzeit viel auf die Meldungen ihrer Nutzer und ein Team von Redakteuren, die die entsprechenden Inhalte einzeln prüfen und dann bei tatsächlichen Verstößen sperren.

Reuters zufolge befragt Facebook derzeit andere Unternehmen zu den unterschiedlichen Herangehensweisen. Als Modell für eine von der Branche gestützte Organisation soll etwa das National Center for Missing and Exploited Children dienen, dass durch ein PhotoDNA genanntes Projekt bekannte kinderpornographische Bilder identifiziert. Das System lizenziert Microsoft kostenlos. Derzeit hilft das Unternehmen wohl zudem Wissenschaftler und PhotoDNA-Mitentwickler Hany Farid technisch und finanziell, die Technik zum Auffinden von Verstößen gegen offenkundig terroristische Inhalte auszubauen. Farid selbst arbeitet wohl wiederum selbst mit dem Counter Extremism Project zusammen.

Die von Reuters um Stellungnahme gebetenen Unternehmen verweigerten diese zum Teil. Andere gaben nur an, sich noch mit den Vorschlägen zu befassen oder eigene Systeme auf Weiterverwendbarkeit zu prüfen. (jul)