Facebook löscht immer mehr terroristische Beiträge

Vor allem mit automatischen Tools findet Facebook nach eigenen Angaben inzwischen Millionen unerwünschter Beiträge, die als terroristisch eingestuft werden.

In Pocket speichern vorlesen Druckansicht 28 Kommentare lesen
Facebook

(Bild: dpa, Fabian Sommer)

Lesezeit: 2 Min.

Facebook hat auch im zweiten und dritten Quartal des laufenden Jahres Millionen Einträge gelöscht, weil es sich dabei um terroristische Inhalte handeln soll. Hatte Facebook im ersten Quartal noch 1,9 Millionen Beiträge unter dieser Zuschreibung entfernt, waren es im zweiten Quartal ganze 9,4 Millionen und im dritten Quartal noch einmal 3 Millionen. Der immense Anstieg zwischen April und Juni geht auf verbesserte Erkennungswerkzeuge zurück, die auch alte Inhalte zutage gefördert hätten, schreibt Facebook. weiterhin würden 99 Prozent der Inhalte gefunden, bevor Nutzer sie dem Netzwerk melden.

Angesichts der anhaltenden Debatte über die Rolle sozialer Medien bei der Verbreitung terroristischer Propaganda und bei der Rekrutierung von Terroristen hatte Facebook schon länger ein härteres Vorgehen dagegen versprochen. Im Frühjahr hatte das Unternehmen dazu Zahlen veröffentlicht und die hauseigene Definition von Terrorismus genannt: "Jede Nichtregierungsorganisation, die vorsätzliche Gewalttaten gegen Personen oder Eigentum begeht, um eine zivile Bevölkerung, Regierung oder internationale Organisation einzuschüchtern, um ein politisches, religiöses oder ideologisches Ziel zu erreichen."

Den neuen Zahlen zufolge waren Inhalte, die von Nutzern richtigerweise als terroristisch gemeldet wurden, immer kürzer online, bis sie gelöscht wurden. Blieben solche Inhalte Anfang des Jahres im Schnitt 43 Stunden online, seien es zuletzt nur noch 18 gewesen. Gleichzeitig besteht Facebook aber darauf, dass diese Metrik für sich genommen nicht die wichtigste sei. Manche Inhalte würden schon nach Minuten vielfach angeklickt, andere für Tage nicht gesehen. Es sei wichtig, die gefährlichsten Inhalte schnellstmöglich zu sperren.

Im zweiten Quartal gab es demnach auch Probleme mit den Werkzeugen, die terroristische Inhalte automatisch finden sollen. Waren derartige von der KI gefundenen unerwünschten Inhalte Anfang des Jahres im Schnitt weniger als eine Minute und im dritten Quartal weniger als zwei Minuten online, schnellte dieser Wert dazwischen auf ganze 14 Stunden nach oben. Verantwortlich war demnach unter anderem eine interne Fehlerbehebung, wegen der die Löschung ausgesetzt werden musste.

Facebook weist außerdem darauf hin, dass die Werkzeuge zur automatischen Suche verbessert worden seien. So könnten die Algorithmen inzwischen unerwünschte Texteinträge in 19 Sprachen erkennen, schreibt Facebook. Welche das sind, listet das Unternehmen nicht auf, klar scheint aber, dass damit weite Bereiche des Portals noch nicht erfasst werden. (mho)