Meldung von Missbrauchsbildern: NGO kritisiert Apple für "Underreporting"

Entdecktes Missbrauchsmaterial, CSAM genannt, muss von den großen Netzkonzernen gemeldet werden. Eine britische Kinderschutzorganisation kritisiert nun Apple.

In Pocket speichern vorlesen Druckansicht 16 Kommentare lesen
Illustration: Kind mit Teddy

(Bild: Pikul Noorod/Shutterstock.com)

Lesezeit: 2 Min.

Apple sieht sich in Großbritannien dem Vorwurf ausgesetzt, Missbrauchsmaterial nicht oder nicht ausreichend zu melden. Wie der Guardian in dieser Woche berichtet, kritisiert die Organisation National Society for the Prevention of Cruelty to Children (NSPCC) den iPhone-Hersteller, weil dieser angeblich ein massives "Underreporting" betreibe.

Laut Daten, die die NSPCC über das britische Informationsfreiheitsgesetz bezogen hat, soll Apple zwischen April 2022 und März 2023 in England und Wales insgesamt 337 "offenses of child abuse images" gemeldet haben. Für ganz 2023 seien für alle Plattformen an das amerikanische National Center for Missing & Exploited Children (NCMEC) nur 267 Fälle von Missbrauchsmaterial gemeldet worden. Das ist signifkant weniger, als andere große Netzkonzerne melden: Google gab 1,47 Millionen Fälle und Meta gar 30,6 Millionen Fälle durch, heißt es im NCMEC-Jahresbericht.

"Es besteht eine besorgniserregende Diskrepanz zwischen der Zahl der in Großbritannien über Apple-Dienste verübten Missbrauchsbildertaten und der fast vernachlässigbaren Zahl von Meldungen über Missbrauchsinhalte an die Behörden weltweit", so Richard Collard, Leiter der Abteilung Online-Kinderschutz bei der NSPCC. Apple liege hier "klar zurück" gegenüber den anderen Tech-Firmen.

Apple wollte Fragen des Guardian nicht beantworten, verwies aber auf seine Richtlinien. Das Unternehmen hatte sich entschieden, ein Programm zum direkten CSAM-Scanning von iCloud-Fotos nicht einzuführen, nachdem es massive Kritik gegeben hatte, weil dies Verschlüsselung brechen könnte oder andere negative Auswirkungen auf den Privatssphärenschutz hätte. Die Kinderschutzorganisation Heat Initiative aus Los Angeles teilte mit, Apple erkenne CSAM "in der Mehrzahl seiner Umgebungen" größtenteils "überhaupt nicht". Apple habe "nicht ausreichend in Teams für Trust & Safety investiert".

Das NSPCC befürchtet nun, dass Apples Rollout von KI-Funktionen im Rahmen von Apple Intelligence aufgrund computergenerierter Missbrauchsbilder zum Problem werden könnten. Allerdings dürfte der Konzern hier Filter benutzen, geht sowieso deutlich vorsichtiger vor als Konkurrenten. So kann man etwa keine fotorealistischen Bilder erzeugen, wie das Unternehmen ankündigte. Laut der Heat Initiative sei Apple "ein schwarzes Loch" in Sachen CSAM-Tracking.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(bsc)