Facebook: Mit Künstlicher Intelligenz gegen Kindesmissbrauch

Das soziale Netzwerk hat im vergangenen Quartal 8,7 Millionen Beiträge gelöscht, die Kinder nackt oder sexuellen Missbrauch zeigen. Dabei ist auch KI am Werk.

In Pocket speichern vorlesen Druckansicht 46 Kommentare lesen
Facebook

(Bild: dpa, Thibault Camus/AP)

Lesezeit: 3 Min.

Facebook arbeitet eigenen Angaben zufolge seit einem Jahr an neuen technischen Verfahren für die Erkennung und Beseitigung von Abbildungen sexuellen Kindesmissbrauchs. Demnach setzt der Betreiber des sozialen Netzwerks inzwischen auch Verfahren der Künstlichen Intelligenz (KI) wie Maschinenlernen ein, um "proaktiv" schon beim Upload Bilder oder Videos ausfindig machen, auf denen Kinder nackt oder bei sexuellen Handlungen zu sehen sind.

Die neuen Verfahren, zu denen Facebook keine Details verrät, kommen laut dem US-Konzern zusätzlich zu der von Microsoft entwickelten Technik PhotoDNA zum Einsatz. Dieses Programm dient dazu, entdeckte Aufnahmen von sexuellem Missbrauch an das National Center for Missing and Exploited Children (NCMEC) zu senden. Zugleich kann über die Software verdächtiges Material mit der Datenbank des Hilfszentrums abgeglichen und so als Missbrauchsdarstellung identifiziert werden. So soll verhindert werden, dass entsprechende Aufnahmen weiterverbreitet werden.

Mit dem KI-Ansatz will Facebook nun vor allem bislang unbekannte Fotos oder Videos frühzeitig identifizieren und seine Gemeinschaftsstandards stärker durchsetzen. Demnach sollen auf der Plattform auch keine Bilder auftauchen, die ein "Potenzial für Missbrauch" haben. Entfernt würden daher auch harmlose Fotos etwa von Kindern beim Baden, erläutert die Sicherheitsbeauftragte der Kalifornier, Antigone Davis.

Mit diesem "umfassenden Ansatz" hat das Unternehmen laut der Managerin allein zwischen Juli und September 8,7 Millionen Beiträge entfernt, die gegen die internen Richtlinien sowie die Gesetze verstoßen hätten. 99 Prozent davon seien gelöscht worden, bevor ein Nutzer auf die Inhalte aufmerksam geworden sei und sie gemeldet habe. Parallel sperre Facebook auch Nutzerkonten, "die diese Art von Content verbreiten". Dafür seien speziell geschulte Teams im Einsatz mit Erfahrungen im Bereich Strafverfolgung, Analyse oder forensischen Untersuchungen.

Die eingesetzten Systeme sind aber nicht perfekt. Immer wieder gibt es Beschwerden über die Zensur mehr oder weniger harmloser oder gar zeitgeschichtlich bedeutsamer Fotos. So stellte Facebook vor zwei Jahren nach massiven Protesten einen Zeitungsartikel mit einer 1972 entstandenen Aufnahme aus dem Vietnam-Krieg wieder online, auf der ein unbekleidetes Mädchen nach einem Napalm-Angriff schreiend auf einer Straße rennt. Andererseits könnte die Zuhilfenahme von KI die menschlichen Begutachter unerwünschter Bilder entlasten.

Facebook baut seit über einem Jahr bereits auf KI und spezielle Hash-Technologien, um Terrorpropaganda sowie zu Hass und Gewalt aufrufende Inhalte aufzuspüren. Google startete kurz darauf eine vergleichbare Initiative. Kritiker monieren, dass die dortige Filtertechnik mehr schlecht als recht funktioniert. (vbr)