Apple: Kein lokaler CSAM-Scan gegen Kinderpornos auf iPhones mehr geplant

Apple hat das umstrittene Vorhaben begraben, auf iPhones nach illegalen Inhalten zu scannen. Der Konzern will sich auf den optionalen Nacktfilter konzentrieren.

In Pocket speichern vorlesen Druckansicht 67 Kommentare lesen

(Bild: REC Stock Footage/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Leo Becker
Inhaltsverzeichnis

Apple will den massiv kritisierten Plan zur lokalen Erkennung von Missbrauchsfotos auf iPhones doch nicht umsetzen. Das Unternehmen hat sich dazu entschieden, mit dem angekündigten Erkennungs-Tool für Bildmaterial, das sexuellen Missbrauch von Kindern zeigt, "nicht voranzuschreiten", erklärte Apple in einer Stellungnahme gegenüber dem Magazin Wired. "Kinder lassen sich schützen, ohne dass Firmen dafür persönliche Daten durchkämmen müssen".

Im Austausch mit Kinderschutzorganisationen will sich Apple nun ganz darauf konzentrieren, Funktionen rund um die "Kommunikationssicherheit" auszubauen. Das ist aktuell ein optionaler Nacktfilter mit Hilfematerial, der in iMessage respektive die App "Nachrichten" integriert ist und den Eltern auf den verwalteten Geräten von Kindern aktivieren können. Die Erkennung von Nacktaufnahmen soll dabei rein auf dem Gerät erfolgen, ohne Dritte zu benachrichtigen.

Der Kommunikationssicherheit-Filter soll künftig auch Nacktheit in Videos erkennen können, erläuterte Apple gegenüber Wired. Man wolle die Option außerdem in weiteren eigenen Kommunikations-Apps anbieten und es auch Dritt-Entwicklern ermöglichen, den Nacktfilter in ihre Apps zu integrieren. Auf diesem Wege könne man "möglichen Kindesmissbrauch schon unterbrechen, bevor er passiert". Das Unternehmen sehe sich verpflichtet, sogenanntes CSAM ("Child Sexual Abuse Material") zu bekämpfen und trotzdem die "spezifischen Datenschutzanforderungen persönlicher Kommunikation und Datenspeicherung zu berücksichtigen".

Apples im Jahr 2021 angekündigtes CSAM-Erkennungs-Tool sah eine Prüfung der iCloud-Fotos direkt auf den Geräten der Kunden vor. Dafür sollten die Bilder auf iPhones mit einer Datenbank abgeglichen, in der Hashes von durch verschiedene Organisationen dokumentiertem Missbrauchsmaterial gespeichert sind.

Ab rund 30 Treffern sollte das Betriebssystem dann Apple-Mitarbeiter informieren, die dem Plan zufolge eine niedrig aufgelöste Version des Bildmaterials entschlüsseln und einsehen können. Beim Fund von CSAM, sollte in den USA dann die Organisation NCMEC zugeschaltet werden, die wiederum Strafverfolger informieren kann. Apple argumentierte, das sei datenschutzfreundlicher als gängiges CSAM-Scanning in der Cloud.

Der Plan stieß auf massive Kritik von Sicherheitsforschern, Bürgerrechtlern und Datenschutzorganisationen – das iPhone werde damit letztlich zum Spitzel, das den Nutzer dauerüberwacht. Apple verteidigte das Projekt anfangs, lenkte schließlich aber ein und legte das Projekt auf Eis.

Auch bei dem Nacktfilter besserte das Unternehmen nach und strich die ursprünglich geplante automatische Benachrichtigung der Eltern bei Empfang oder Versand vermuteter Nacktinhalte. Der Nacktfilter ist bereits als Option im Betriebssystem verfügbar, inzwischen auch in Deutschland. Apple hat am Mittwochabend angekündigt, dass Nutzer viele zentrale iCloud-Daten bald mit Ende-zu-Ende-Verschlüsselung schützen können, darunter auch iCloud-Fotos. (lbe)