US-Sammelklage: Apple ignoriert Material von Kindesmissbrauch in iCloud

Apple nutze Datenschutz als Ausrede, um sich aus der Verantwortung für CSAM-Inhalte in iCloud zu stehlen, so der Vorwurf. Klägerin ist eine 9-Jährige.

In Pocket speichern vorlesen Druckansicht 49 Kommentare lesen
Rostov-on-don,/,Russia,-,October,28,2019:,The,Iphone,With

(Bild: nikkimeel/Shutterstock.com)

Lesezeit: 3 Min.

Eine Klage will Apple dazu zwingen, schärfer gegen den Vertrieb von Missbrauchsinhalten in iCloud vorzugehen. Der Konzern wisse, dass er ein "verheerendes Problem" mit Material von Kindesmissbrauch (Child Sexual Abuse Material – CSAM) habe und sei trotzdem untätig geblieben, heißt es in der Eingabe vor einem US-Gericht. Als Klägerin tritt eine 9-Jährige auf, die den Angaben zufolge selbst Opfer von Kindesmissbrauch ist: Unbekannte hätten sie über iMessage dazu gebracht, CSAM-Inhalte von sich selbst anzufertigen und diese über iCloud zu teilen (Jane Doe vs. Apple, United States District Court, Northern District Of California, Aktenzeichen 5:24-cv-510).

Die Klage stützt sich hauptsächlich auf die iMessage-Nachricht eines hochrangigen Apple-Managers. Darin schreibt dieser an einen Kollegen, der Konzern biete wegen seiner Datenschutzbemühungen die "beste Plattform, um Kinderpornografie etc. zu vertreiben". Diese interne Konversation aus dem Jahr 2020 wurde durch die große Klage von Epic Games gegen Apple öffentlich.

Konkret wird Apple nun vorgeworfen, iCloud-Inhalte nicht zu scannen, obwohl es dafür Technik wie PhotoDNA gibt, auf die auch andere Cloud-Riesen setzen. Viele iCloud-Inhalte seien zudem nicht durch Ende-zu-Ende-Verschlüsselung geschützt und wären damit letztlich überprüfbar, merkt die Klägerin an. Für verschlüsseltes Material könne der Hersteller eine Meldevorrichtung integrieren, heißt es weiter. Moniert wird auch, dass iCloud das Teilen von Fotoalben sehr einfach gestaltet, Spuren lassen sich dabei angeblich leicht verwischen.

Die Klage richte sich weder gegen Ende-zu-Ende-Verschlüsselung noch generell gegen Datenschutz, schreiben die Anwälte. Gefordert wird die Zulassung als Sammelklage, Schadenersatz in Millionenhöhe und mehrere Vorgaben für Apple, in iCloud nach Missbrauchsmaterial zu scannen.

Vor drei Jahren kündigte Apple eine Technik zur CSAM-Erkennung an, die iCloud-Fotos lokal auf dem iPhone scannen sollte. Das Vorhaben wurde allerdings nach massiver Kritik von Kunden, Sicherheitsforschern, Bürgerrechtlern und Datenschützern begraben. Ein solcher hybrider Ansatz sei letztlich "unmöglich umsetzbar gewesen, ohne Sicherheit und Privatsphäre der Nutzer zu gefährden", räumte dann auch Apples Datenschutzchef im Nachgang ein – und reagierte damit auf Kritik einer US-Kinderschutzinitiative, die eine Umsetzung der Technik weiterhin forderte. Auch die Klage legt Apple jetzt erneut zur Last, das höchst umstrittene Vorhaben nicht umgesetzt zu haben.

JĂĽngst gab es zudem Kritik aus GroĂźbritannien: Im Unterschied zu Konkurrenten wie Google und Meta melde Apple nur eine winzige Zahl an CSAM auf seinen Servern und investiere zu wenig in Schutzfunktionen, so eine Kinderschutzorganisation. Apple selbst verwies als Schutzfunktion zuletzt auf den in seine Betriebssysteme integrierten Nacktfilter, der pornografisches Bildmaterial automatisch unkenntlich macht und erst auf ein Antippen hin zeigt.

(lbe)