iPhones sollen Missbrauchsfotos melden: Apple will Bedenken zerstreuen
Apples geplante CSAM-Erkennung stößt auf massive Kritik. Wer nichts zu verbergen hat, habe nichts zu befürchten, heißt es beim iPhone-Hersteller.
Apple tritt Kritik und Bedenken rund um die geplanten Kinderschutzfunktionen in iOS 15 entgegen. Man wolle mit zusätzlichen Angaben für mehr "Klarheit und Transparenz" sorgen und auf offene Fragen reagieren, erläuterte der Konzern. Apple-Geräte wie iPhones und Macs sollen die Fotos der Nutzer vor dem iCloud-Upload künftig eigenständig auf Bildmaterial prüfen, das sexuellen Missbrauch von Kindern zeigt. Bei einer gewissen Zahl an Treffern erfolgt eine Benachrichtigung an den Gerätehersteller.
Datenschützer und Bürgerrechtler kritisierten das Projekt als eine "Hintertür" und die mögliche Einrichtung einer Überwachungsinfrastruktur auf den Endgeräten. Apples Datenschutzchef betonte zuvor gegenüber der New York Times, das System sei nur dann "schlecht für Dich, wenn Du CSAM-Material sammelst". Für alle anderen gebe es aber gar "keinen Unterschied". CSAM steht für "Child Sexual Abuse Material" – Bildmaterial, das sexuellen Missbrauch von Kindern zeigt.
CSAM-Erkennung fĂĽr iCloud-Fotos
Die geplante Erkennung von Missbrauchsfotos bezieht sich ausschließlich auf Bilder, die mit iCloud synchronisiert werden, bekräftigte das Unternehmen erneut – man werde nicht alle auf dem iPhone gespeicherten Fotos scannen. Das System arbeite bei den Nutzern nicht, die iCloud-Fotos deaktiviert haben. Die Erkennung sei zudem rein darauf ausgelegt, solches bereits bestehendes und von Kinderschutzorganisationen wie dem NCMEC zusammengestelltes Bildmaterial zu erkennen.
Anfragen von Regierungen, die das System zur Prüfung auf anderes unliebsames Bildmaterial einsetzen wollen, werde man zurückweisen, so Apple lapidar – solche Anfragen habe man schon immer abgelehnt. Auch habe man die Erkennungstechnik derart gestaltet, dass Nutzer durch Erhalt manipulierten Bildmaterials nicht unter den Verdacht geraten sollen, Missbrauchsfotos zu besitzen. Es gebe auch keine automatische Übermittlung an Strafverfolgungsbehörden, das Bildmaterial werde erst von Apple gesichtet.
Viele Details bleiben offen
Ausführliche Details zu dem Erkennungssystem und dem NeuralHash genannten künstlichen neuronalen Netzwerk, das das Hash-basierte Foto-Matching durchführt, hat das Unternehmen – über ein erstes Whitepaper hinaus – nicht veröffentlicht. So bleibt etwa offen, unter welchen Sicherheitsvorkehrungen die Datenbank mit den Hashes des illegalen Bildmaterials genau erstellt und verteilt wird – und wer deren Inhalt jeweils überprüft, bevor Apple sie per System-Update auf Geräten installiert. Die lokale Fotoprüfung durch die Geräte sei datenschutzfreundlicher als das CSAM-Scanning in der Cloud, das andere Firmen einsetzen, betonte Apple erneut – das Cloud-Scanning berge Datenschutzrisiken. Nähere Angaben dazu wurden nicht gemacht.
Lesen Sie auch
Kommentar: Apple setzt die falschen Prioritäten
Von Apple zitierte Kryptografiespezialisten scheinen das System selbst bislang noch nicht in Aktion gesehen zu haben, sondern nur in Beschreibungen. Ob geplant ist, das die CSAM-Erkennung durch externe Spezialisten prüfen zu lassen, bleibt unklar – gewöhnlich lässt sich Apple nur ungerne in die Karten schauen.
Nacktfilter für iMessage eigenständige Funktion
In der neuen FAQ betont Apple auch, dass die geplanten Funktionen zur Erkennung von Nacktfotos in iMessage und die CSAM-Erkennung für die Fotomediathek zwei unterschiedliche Funktionen sind, die nicht dieselbe Technik verwenden. Die für die App "Nachrichten" vorgesehene Schutzfunktion sei optional und müsse von den Erziehungsberechtigten erst aktiviert werden. Sie soll Bilder mit "sexuell expliziten" Inhalten lokal erfassen, unkenntlich machen und mit einem Warnhinweis versehen. Nacktfotos würden dabei weder an Apple noch an Strafverfolgungsbehörden gemeldet, betont das Unternehmen.
Nach Apples Ansicht wird dadurch auch die Ende-zu-Ende-Verschlüsselung des Messaging-Dienstes nicht beeinträchtigt – Apple erhalte keinen Zugriff auf die per iMessage geführten Konversationen und darüber ausgetauschten Bilder. Die Funktion verhindere auch nicht, dass Kinder in einem missbräuchlichen Zuhause nach Hilfe suchen können, so Apple. (lbe)