Umstrittenes iPhone-Scanning auf Kinderpornos: Apple verteidigt Pläne

Die Maßnahmen seien "keine Überwachung", behauptet der Konzern in einer FAQ. Entsprechende Begehrlichkeiten von Regierungen werde man "verweigern".

In Pocket speichern vorlesen Druckansicht 178 Kommentare lesen

(Bild: bluesroad/Shutterstock.com)

Lesezeit: 3 Min.

Apple versucht weiter, Befürchtungen zu zerstreuen, dass sein angekündigtes System zum lokalen Scanning von iPhones und iPads auf Missbrauchsbilder, das Teil von iOS 15 und iPadOS 15 werden soll, zur Überwachung verwendet werden könnte. Das Unternehmen werde jegliche Versuche von Regierungen zurückweisen, das Verfahren für die Suche nach anderen Inhalten zu missbrauchen, versicherte der Konzern in einer FAQ, die auf seiner Website veröffentlicht wurde. "Wir werden solche Verlangen verweigern", schrieb er.

Der iPhone-Konzern hatte in der vergangenen Woche "Maßnahmen für mehr Kinderschutz" angekündigt. Dazu gehört auch, dass zunächst nur in den USA auf den Geräten der Nutzer Bilder mit kinderpornografischem Material entdeckt werden sollen ("Child Sexual Abuse Material", kurz CSAM), wenn sie den hauseigenen Online-Speicherdienstes iCloud für Fotos verwenden. Das Scanning soll automatisch vor dem Upload geschehen.

Dabei geht es laut dem Konzern nicht darum, den Inhalt aller vorhandenen Bilder zu analysieren. Stattdessen soll auf die Geräte eine Datei mit sogenannten "Hashes" von bereits bekannten kinderpornografischen Inhalten geladen werden – ein digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit einem von Apple verfeinerten Verfahren ("NeuroHash") eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden.

Bei einer Übereinstimmung werden verdächtige Bilder mit einer Markierung versehen, dank der Apple sie nach dem Hochladen zur iCloud dann öffnen – das Material ist zwar Server-seitig verschlüsselt, Apple hat dafür aber einen Nachschlüssel – und einer menschlichen Prüfung unterziehen kann. Das System schlägt laut Apples Angaben erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt. Wie viele es dafür sein müssen, wird allerdings nicht öffentlich gemacht. Wird dann bei Apples internem Check der Fotos tatsächlich kinderpornografisches Material entdeckt, meldet Apple dies der US-Nichtregierungsorganisation NCMEC ("National Center for Missing & Exploited Children"), die wiederum Behörden einschalten kann.

Die Idee war von Kryptografie-Experten und IT-Sicherheitsforscher massiv kritisiert worden. Ein offener Brief erhielt innerhalb kurzer Zeit Tausende Unterschriften vieler prominenter Branchenvertreter. Selbst Vertreter von Konkurrenten wie der Facebook-Manager und WhatsApp-Chef Will Cathcart betonten, sie würden dem Beispiel nicht folgen.

Allein schon die Schaffung eines solchen Systems öffne autoritären Regierungen die Möglichkeit, von Apple die Aufnahme anderer Inhalte in die Datenbank mit den Hashes zu fordern und damit politische Überwachung zu betreiben, heißt es von den Kritikern. Als Beispiel wurden etwa bekannte Bilder von dem gewaltsam niedergeschlagenen Protest auf dem Platz des Himmlischen Friedens in Peking 1989 genannt.

Lesen Sie zum iPhone-Scanning:

"Von uns wurde schon früher gefordert, mit von Regierungen vorgeschriebenen Änderungen den Schutz der Privatsphäre der Nutzer aufzuweichen und wir haben dies standhaft abgelehnt", schrieb Apple in Fragen und Antworten nach der Kritik. Das Verfahren sei zudem so konzipiert, dass nicht heimlich Hashes zu anderen Inhalten auf die Geräte geschleust werden könnten. Updates könnten nur die gesamte installierte Basis adressieren, nicht einzelne Geräte. Die Datenbank bestehe ausschließlich aus bekannten Abbildungen von schwerem Kindesmissbrauch, die von Kinderschutzorganisationen bestätigt werden. Der Konzern plant allerdings bereits, die Funktion Drittentwicklern anzubieten. (mit Material der dpa) / (bsc)