Facebook löscht fast zwei Millionen extremistische Beiträge

Facebook setzt das Großreinemachen im eigenen Netzwerk fort: Im ersten Quartal löschte oder markierte Facebook rund 1,9 Millionen Beiträge mit terroristischem Bezug. Intelligente Algorithmen helfen den Begutachtern beim Aufspüren dieser Inhalte.

In Pocket speichern vorlesen Druckansicht 61 Kommentare lesen
Löschzentrum von Facebook

Blick ins Löschzentrum von Facebook in einem Service-Center in Berlin.

(Bild: dpa, Soeren Stache)

Lesezeit: 2 Min.

Facebook geht nach eigenen Angaben härter denn je gegen extremistische Inhalte auf seiner Plattform vor: Im ersten Quartal 2018 löschte das weltgrößte Online-Netzwerk hunderttausende Beiträge mit Bezug zu den Terrororganisationen Islamischer Staat (IS) und al-Qaida. Insgesamt seien 1,9 Millionen Beiträge entfernt oder mit Warnhinweisen versehen worden – doppelt so viele wie im vorangehenden Quartal, teilte Facebook am Montag mit. 99 Prozent davon wurden demnach nicht von Benutzern gemeldet, sondern von automatisierter Software und eigenen Prüfern entdeckt. Im Durchschnitt seien solche Beiträge für weniger als eine Minute auf der Plattform verfügbar, hieß es.

Zugleich veröffentlichte der Online-Dienst seine Definition von Terrorismus: "Jede Nichtregierungsorganisation, die vorsätzliche Gewalttaten gegen Personen oder Eigentum begeht, um eine zivile Bevölkerung, Regierung oder internationale Organisation einzuschüchtern, um ein politisches, religiöses oder ideologisches Ziel zu erreichen." Regierungen hingegen dürften nach rechtlichem Verständnis unter bestimmten Umständen rechtmäßig Gewalt anwenden.

Mit dem Aufspüren extremistischer Beiträge befasst sich ein auf Terror-Inhalte spezialisiertes Team. Laut Facebook ist die Gruppe seit Juni vergangenen Jahres von 150 auf 200 Mitarbeiter angewachsen, weitere sollen hinzukommen. Auf künstlicher Intelligenz (KI) basierende Algorithmen helfen den Begutachtern dabei, Inhalte mit terroristischem Hintergrund aufzuspüren und schneller löschen zu können.

Facebook gibt an, dass im ersten Quartal 2018 rund 99 Prozent dieser Inhalte von der KI und dem eigenen Team entdeckt wurden, lediglich ein Prozent wurde von Benutzern des sozialen Netzwerkes gemeldet. Dabei wird nicht nur neu eingestellter Content begutachtet, sondern es werden auch bereits länger vorhandene Seiten und Posts untersucht. Etwa 600.000 dieser älteren Inhalte hat Facebook im ersten Quartal identifizieren und löschen können. Facebook teilte mit, dass die verwendeten Algorithmen nicht alle kritischen Inhalte auffinden könne, man aber ständig an der Weiterentwicklung der KI arbeite.

Anfang März hatte die Europäische Kommission neue Richtlinien zur Entfernung terroristischer und anderer illegaler Inhalte auf Facebook und anderen Online-Plattformen erlassen, um den Druck auf die Anbieter zu erhöhen. (olb)