iPhones sollen Missbrauchsfotos melden: Apple will Bedenken zerstreuen

Apples geplante CSAM-Erkennung stößt auf massive Kritik. Wer nichts zu verbergen hat, habe nichts zu befürchten, heißt es beim iPhone-Hersteller.

In Pocket speichern vorlesen Druckansicht 175 Kommentare lesen

(Bild: Farknot Architect/Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Apple tritt Kritik und Bedenken rund um die geplanten Kinderschutzfunktionen in iOS 15 entgegen. Man wolle mit zusätzlichen Angaben für mehr "Klarheit und Transparenz" sorgen und auf offene Fragen reagieren, erläuterte der Konzern. Apple-Geräte wie iPhones und Macs sollen die Fotos der Nutzer vor dem iCloud-Upload künftig eigenständig auf Bildmaterial prüfen, das sexuellen Missbrauch von Kindern zeigt. Bei einer gewissen Zahl an Treffern erfolgt eine Benachrichtigung an den Gerätehersteller.

Datenschützer und Bürgerrechtler kritisierten das Projekt als eine "Hintertür" und die mögliche Einrichtung einer Überwachungsinfrastruktur auf den Endgeräten. Apples Datenschutzchef betonte zuvor gegenüber der New York Times, das System sei nur dann "schlecht für Dich, wenn Du CSAM-Material sammelst". Für alle anderen gebe es aber gar "keinen Unterschied". CSAM steht für "Child Sexual Abuse Material" – Bildmaterial, das sexuellen Missbrauch von Kindern zeigt.

Die geplante Erkennung von Missbrauchsfotos bezieht sich ausschließlich auf Bilder, die mit iCloud synchronisiert werden, bekräftigte das Unternehmen erneut – man werde nicht alle auf dem iPhone gespeicherten Fotos scannen. Das System arbeite bei den Nutzern nicht, die iCloud-Fotos deaktiviert haben. Die Erkennung sei zudem rein darauf ausgelegt, solches bereits bestehendes und von Kinderschutzorganisationen wie dem NCMEC zusammengestelltes Bildmaterial zu erkennen.

Anfragen von Regierungen, die das System zur Prüfung auf anderes unliebsames Bildmaterial einsetzen wollen, werde man zurückweisen, so Apple lapidar – solche Anfragen habe man schon immer abgelehnt. Auch habe man die Erkennungstechnik derart gestaltet, dass Nutzer durch Erhalt manipulierten Bildmaterials nicht unter den Verdacht geraten sollen, Missbrauchsfotos zu besitzen. Es gebe auch keine automatische Übermittlung an Strafverfolgungsbehörden, das Bildmaterial werde erst von Apple gesichtet.

Ausführliche Details zu dem Erkennungssystem und dem NeuralHash genannten künstlichen neuronalen Netzwerk, das das Hash-basierte Foto-Matching durchführt, hat das Unternehmen – über ein erstes Whitepaper hinaus – nicht veröffentlicht. So bleibt etwa offen, unter welchen Sicherheitsvorkehrungen die Datenbank mit den Hashes des illegalen Bildmaterials genau erstellt und verteilt wird – und wer deren Inhalt jeweils überprüft, bevor Apple sie per System-Update auf Geräten installiert. Die lokale Fotoprüfung durch die Geräte sei datenschutzfreundlicher als das CSAM-Scanning in der Cloud, das andere Firmen einsetzen, betonte Apple erneut – das Cloud-Scanning berge Datenschutzrisiken. Nähere Angaben dazu wurden nicht gemacht.

Von Apple zitierte Kryptografiespezialisten scheinen das System selbst bislang noch nicht in Aktion gesehen zu haben, sondern nur in Beschreibungen. Ob geplant ist, das die CSAM-Erkennung durch externe Spezialisten prüfen zu lassen, bleibt unklar – gewöhnlich lässt sich Apple nur ungerne in die Karten schauen.

In der neuen FAQ betont Apple auch, dass die geplanten Funktionen zur Erkennung von Nacktfotos in iMessage und die CSAM-Erkennung für die Fotomediathek zwei unterschiedliche Funktionen sind, die nicht dieselbe Technik verwenden. Die für die App "Nachrichten" vorgesehene Schutzfunktion sei optional und müsse von den Erziehungsberechtigten erst aktiviert werden. Sie soll Bilder mit "sexuell expliziten" Inhalten lokal erfassen, unkenntlich machen und mit einem Warnhinweis versehen. Nacktfotos würden dabei weder an Apple noch an Strafverfolgungsbehörden gemeldet, betont das Unternehmen.

Nach Apples Ansicht wird dadurch auch die Ende-zu-Ende-Verschlüsselung des Messaging-Dienstes nicht beeinträchtigt – Apple erhalte keinen Zugriff auf die per iMessage geführten Konversationen und darüber ausgetauschten Bilder. Die Funktion verhindere auch nicht, dass Kinder in einem missbräuchlichen Zuhause nach Hilfe suchen können, so Apple. (lbe)