Kinderporno-Scan auf iPhones: Apple streicht Funktionsbeschreibung von Webseite

iOS 15.2 enthält den iMessage-Nacktfilter. Zu den Plänen für die scharf kritisierte Erkennung von Missbrauchsfotos auf iPhones schweigt das Unternehmen.

In Pocket speichern vorlesen Druckansicht 51 Kommentare lesen

(Bild: REC Stock Footage/Shutterstock.com)

Update
Lesezeit: 3 Min.

Apple hat alle Verweise auf die für iOS 15 geplante Erkennung von Missbrauchsmaterial von seiner Website entfernt. Welche weiteren Pläne Apple nun für eine Erkennung von CSAM (Child Sexual Abuse Material) verfolgt, bleibt unklar: Es gibt derzeit keine neue Ankündigung zu der Funktion, teilte ein Sprecher des Unternehmens auf Nachfrage mit.

Nach massiver Kritik von Datenschützern, Bürgerrechtlern, Sicherheitsforschern und Kunden hatte Apple die Einführung der CSAM-Erkennung auf unbestimmte Zeit aufgeschoben. Man wolle über die "kommenden Monate" Rückmeldungen sammeln und Verbesserungen vornehmen, teilte der Konzern im September mit – auch dieser Hinweis ist jetzt verschwunden.

Apples ursprünglich angekündigter Plan sieht eine Prüfung der iCloud-Fotos auf den Geräten der Kunden vor. Dafür werden die Bilder auf iPhones mit einer Datenbank abgeglichen, die Hashes von durch verschiedene Organisationen dokumentiertem Missbrauchsmaterial enthalten soll. Ab rund 30 Treffern sollte das Betriebssystem Apple-Mitarbeiter informieren, die eine niedrig aufgelöste Version des Bildmaterials entschlüsseln und einsehen können. Sollten diese die Fotos als CSAM einstufen, wird in den USA die Organisation NCMEC zugeschaltet, die wiederum Strafverfolger informieren kann.

Apple hatte argumentiert, ein solches System sei datenschutzfreundlicher als das sonst gängige CSAM-Scanning in der Cloud. Kritiker warnten eindringlich vor dem Präzedenzfall: Ist eine Scan-Funktion für illegale Inhalte erst vorhanden, werden andere Hersteller mit ähnlichen Systemen nachziehen – und Begehrlichkeiten geweckt, die Technik auch zur Meldung weiterer unerwünschter Inhalte einzusetzen. iPhones würden damit letztlich ihre Besitzer verraten, schrieb der NSA-Whistleblowser Edward Snowden und warnte vor der Schaffung eines Überwachungssystems.

Apples Webseite zu Kinderschutz führt nun nur noch die neue Warnfunktion für Nacktfotos in iMessage-Nachrichten auf, die mit iOS und iPadOS 15.2, macOS 12.1 und watchOS 8.3 in die Betriebssysteme integriert wurde. Hier hat Apple auf Feedback gehört und die ursprünglich geplante automatische Benachrichtigung der Eltern bei Empfang oder Versand vermuteter Nacktinhalte gestrichen.

Die Nachrichten-App prüfe Bildanhänge auf Nacktheit, schreibt Apple – die Ende-zu-Ende-Verschlüsselung von iMessage sei dadurch nicht beeinträchtigt. Die Nacktfotoerkennung arbeite rein lokal und dabei sollen keinerlei Informationen das Gerät verlassen. Weder erhalte Apple Einblick noch werden Nachrichten "an die Eltern oder irgendjemand anderen" verschickt. Die optionale Filterfunktion ist bislang nur in den USA im Rahmen der Familienfreigabe verfügbar.

[Update 15.12.21 19:55 Uhr:] Apple zufolge bedeutet die Streichung der Erwähnung der CSAM-Erkennung von Apple.com nicht, dass man seine Pläne geändert habe. Die im vergangenen September kommunizierte Haltung, laut der man sich mehr Zeit lassen will, um Feedback "von Endkunden, Aktivisten, Forschern und anderen" einzuholen, um dann Verbesserungen vorzunehmen, "bevor wir diese Kinderschutzfunktionen von kritischer Wichtigkeit herausbringen", besteht demnach weiter, so ein Sprecher des Konzerns gegenüber dem IT-Blog The Verge. Die umstrittene Funktion wird also laut aktuellem Stand nicht gestoppt, sie verzögert sich nur (weiter).

(lbe)