Facebook wehrt sich gegen Vorwürfe, KI erkenne Hassrede nicht

Facebook steht weiterhin in der Kritik und kontert: Die Verbreitung von Hassrede auf der Plattform sei mittels KI um fast 50 Prozent zurückgegangen.

In Pocket speichern vorlesen Druckansicht 20 Kommentare lesen

(Bild: Facebook)

Lesezeit: 2 Min.

Die Verbreitung von Hassrede auf Facebook ist nach Angaben des zuständigen Managers Guy Rosen in den vergangenen drei Quartalen um 50 Prozent zurückgegangen. Vorwürfe, die zur Bekämpfung von Hassrede eingesetzte KI reiche nicht aus, seien nicht gerechtfertigt, meint Rosen.

Damit widerspricht er Berichten auf Basis geleakter Dokumente, denen zufolge die Technik zur Bekämpfung von Hassrede auf der Plattform unzureichend sei. "Diese Dokumente zeigen, dass unsere Arbeit eine mehrjährige Reise ist. Wir werden zwar nie perfekt sein, aber unsere Teams arbeiten kontinuierlich daran, unsere Systeme weiterzuentwickeln, Probleme zu identifizieren und Lösungen zu entwickeln", meint hingegen Rosen in einem Blogeintrag.

In dem am Sonntag vom Wall Street Journal veröffentlichten Artikel ging es um Dokumente, die erneut die Mängel der Facebook-KI thematisierten. So sei sie nicht in der Lage, Ego-Shooter-Videos, rassistische Äußerungen und den Unterschied zwischen Hahnenkämpfen und Autounfällen zu erkennen. Immer wieder kam es in der Vergangenheit zu Verwechselungen durch die von Facebook eingesetzte KI. Jüngst sorgte ein Fall für Aufregung, bei dem Facebooks Gesichtserkennung einen schwarzen Mann für einen Affen hielt. Zudem schätzten die Facebook-Mitarbeiter, dass das Unternehmen nur einen Bruchteil der Beiträge entfernt, die gegen die Nutzungsrichtlinien verstoßen.

Zwar würde die Reichweite fragwürdiger Inhalte begrenzt, dennoch würden keine Konten gesperrt, die das Material gepostet haben. Ein bei Facebook arbeitender Forscher teilte dem Wall Street Journal außerdem mit, dass es kein Modell gibt und auch nie geben werde, das den Großteil der "Integritätsschäden" erfasst.

Laut Rosen sei es allerdings der falsche Weg, sich nur auf die Entfernung von Inhalten zu konzentrieren. Falls ein Beitrag, eine Seite oder eine Gruppe gegen die Richtlinie verstößt, müsse sichergestellt sein, dass die Inhalte die Voraussetzungen für eine Entfernung auch wirklich erfüllen. Wenn darüber Unsicherheit herrsche, würde die Reichweite des Beitrags, der Seiten oder der Personen, die solche Inhalte posten, begrenzt oder aus Empfehlungen entfernt werden.

Nachdem die Whistleblowerin Frances Haugen dem Wall Street Journal umfangreich Dokumente zugespielt hatte, veröffentlichte die Zeitung eine Reihe von Enthüllungsberichten über Facebook – darunter auch einen über die verheerenden Auswirkungen von Instagram auf die psychische Gesundheit von Kindern.

(mack)