Kinderporno-Scan auf dem iPhone: Apple hält am Aus der Funktion fest

Eine US-Initiative drängt Apple, doch noch invasiv nach Missbrauchsmaterial in iCloud zu forsten. Der Konzern winkt ab und verweist auf den Nacktfilter.

In Pocket speichern vorlesen Druckansicht 92 Kommentare lesen
Kinder mit Smartphones

(Bild: REC Stock Footage/Shutterstock.com)

Lesezeit: 4 Min.

Apple hat die Forderung einer US-Kinderschutzinitiative zurückgewiesen, die Arbeit an einer auf Eis gelegten Kinderporno-Scan-Funktion für iPhones wieder aufzunehmen. Das Unternehmen habe die Weiterentwicklung der Funktion aus einer Reihe "guter Gründe" gestoppt, betont Apples Datenschutzchef Erik Neuenschwander in einem Schreiben. Der von Apple geplante "hybride Client-Server-Ansatz" zur Erkennung von sexuellem Kindesmissbrauchsmaterial (Child Sexual Abuse Material – CSAM) in iCloud sei letztlich "unmöglich umsetzbar gewesen, ohne Sicherheit und Privatsphäre der Nutzer zu gefährden".

Stattdessen verweist der Manager auf Apples neue Funktionen rund um den in das Betriebssystem integrierten Nacktfilter: Dieser ist ab iOS 17 für Kinder und Jugendliche bis 16 Jahren automatisch aktiviert und auch Erwachsene erhalten erstmals die Option, diesen auf dem eigenen iPhone anzuschalten. Apple integriert den Filter zudem in weitere Apps und Funktionen wie AirDrop sowie der Fotoauswahlfunktion – nicht aber der Fotos-App selbst. Für Dritt-Entwickler gibt es eine neue Schnittstelle, mit der sich die Funktion ebenfalls verwenden lässt, das wollen laut Apple etwa Apps wie Discord nutzen.

Der Filter arbeitet lokal auf dem Gerät und soll Nacktbilder (und Videos) unkenntlich machen, Nutzer können diese dann wahlweise trotzdem einfach durch Antippen ansehen. Ursprünglich beabsichtigte Apple, dass der Nacktfilter bei Kindern unter 13 Jahren die Eltern über den Empfang oder Versand solchen Bildmaterials informiert – dieses Vorhaben wurde nach Kritik aber begraben. Ziel dieser Funktion sei es vor allem, Versuche von "Grooming" direkt zu stoppen, erklärte Neuenschwander in dem von Wired veröffentlichten Brief.

Im Vorfeld hat die US-Organisation "Heat Initiative" Apple aufgefordert, nach CSAM-Material in iCloud zu scannen und einen Mechanismus zu integrieren, mit dem Nutzer solche Inhalte melden können. Man werde diese Forderungen in Kürze auch öffentlich machen, heißt es in dem Schreiben der Chefin der Initiative, die sich enttäuscht darüber zeigte, dass Apple die ursprünglich geplante CSAM-Scan-Funktion nicht umgesetzt hat.

Apple hatte vor rund zwei Jahren ein CSAM-Erkennungs-Tool vorgeschlagen, das iCloud-Fotos direkt beim Upload prüfen sollte. Dafür wären die Fotos auf iPhones mit einer Datenbank abgeglichen werden, die die Hashes von durch verschiedene Organisationen dokumentiertem Missbrauchsmaterial enthält. Ab circa 30 Treffern hätte das Betriebssystem dann Apple-Mitarbeiter informiert. Diese hätten einem Whitepaper zufolge dann eine niedrig aufgelöste Version des Bildmaterials entschlüsseln und einsehen können. Im Fall von tatsächlichem Missbrauchsmaterial sollten die Apple-Mitarbeiter in den USA dann die Organisation NCMEC zuschalten, die wiederum Strafverfolger informieren kann.

Apple argumentierte ursprünglich, dieser Ansatz sei datenschutzfreundlicher als das bei anderen Anbietern bereits gängige CSAM-Scanning in der Cloud. Das Vorhaben wurde derart massiv von Bürgerrechtlern, Sicherheitsforschern ebenso wie von Kunden und Kinderschutzorganisationen kritisiert, dass Apple es zuerst aufschob und dann – Ende des Jahres 2022 – nach eigener Angabe komplett auf Eis gelegt hat.

"Das Scannen nach einer Art von Inhalt öffnet die Tür für Massenüberwachung und könnte das Begehren wecken, andere verschlüsselte Messaging-Systeme quer durch Inhaltstypen und Kategorien zu durchsuchen", führt Apples Datenschutzchef nun ins Feld und übernimmt damit einen der meist geäußerten Kritikpunkte an Apples ursprünglichem Vorhaben. Solche Scanning-Systeme arbeiten zudem nicht fehlerfrei und es gebe "dokumentierte Beweise von anderen Plattformen", dass dadurch auch unschuldige Nutzer, die nur "völlig normale Fotos ihrer Babys teilen", zu "Opfern dystopischer Rasterfahndungen" werden können, schreibt Neuenschwander.

(lbe)