iPhones als Foto-Spitzel: Apples Software-Chef weist Backdoor-Vorwürfe zurück

Bei Apple herrscht Unverständnis, dass der iPhone-Scan auf Missbrauchsmaterial als Hintertür kritisiert wird. Rufe nach dem Stopp der Funktion werden lauter.

In Pocket speichern vorlesen Druckansicht 167 Kommentare lesen
iPhone

(Bild: dpa, Karl-Josef Hildenbrand)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Apple versucht mit Nachdruck, die Einführung umstrittener Kinderschutzfunktionen in iOS 15 zu rechtfertigen: Das lokale Scannen auf iPhone und iPad nach bekanntem Bildmaterial, das sexuellen Missbrauch von Kindern zeigt, sei datenschutzfreundlicher und "besser überprüfbar", als die Erkennung nur in der Cloud durchzuführen, bekräftigte Apples Software-Chef Craig Federighi am Freitag in einem Interview mit dem Wall Street Journal. Man sehe das Vorhaben "sehr positiv" und sei "zutiefst davon überzeugt".

Die gemeinsame Ankündigung einer Nacktbilderkennung für iMessage und die lokale Entdeckung von Fotomaterial mit bekanntem Missbrauchsmaterial (Child Sexual Abuse Material – CSAM) habe allerdings Verwirrung gestiftet und zu vielen "Missverständnissen" geführt, erklärte Federighi gegenüber dem Wall Street Journal. Er betonte nochmals, dass es sich dabei um zwei komplett getrennte Systeme handele.

Prominente Bürgerrechtler, Sicherheitsforscher und Datenschützer kritisierten das Projekt als eine "Backdoor": Apple hat mit dem System "die Hintertür für mehr globale Überwachung und Zensur geöffnet", meint etwa die Electronic Frontier Foundation (EFF). Apples Software-Chef zeigte Unverständnis über diese Charakterisierung der Kinderschutzfunktionen – er glaube, das sei "absolut keine Backdoor". Es würden auch nur iCloud-Fotos geprüft und nicht andere lokale Bilder.

Die Datenbank mit den Hashes zum Abgleich des illegalen Bildmaterials solle Teil des Betriebssystems werden, das weltweit überall gleich sei, sagte Federighi. Da die Erkennung auf dem Gerät lokal stattfindet, seien Sicherheitsforscher in der Lage, das zu überprüfen – und sofort auf von Apple vorgenommene undokumentierte Änderungen aufmerksam zu machen. So gebe es gleich "mehrere Stufen der Überprüfbarkeit", man müsse Apple also nicht blind vertrauen.

Erst wenn das System "rund 30 bekannte Kinderpornographie-Bilder" erkannt hat, wird Apple laut Federighis Schilderung darüber benachrichtigt – und kann erst dann die Fotos durch Mitarbeiter prüfen. Sollte es sich tatsächlich um Missbrauchsmaterial handeln, werde dies an die zuständigen Behörden gemeldet. Es habe "keinen Druck" gegeben, eine derartige Funktion einzuführen, so der Top-Manager. Aber man habe etwas gegen dieses Material unternehmen wollen und sei nun mit der Technik dafür fertig.

In Hinblick auf den lokalen Nacktbildfilter in iMessage verwies Federighi auf "Grooming" als Problem, eine Mitteilung an Eltern könne hier helfen. Die Erkennung von Nacktinhalten oder pornographischem Bildmaterial per maschinellem Lernen funktioniere – könne aber Fehler machen und getäuscht werden, räumte Federighi ein.

Erste Sicherheitsspezialisten haben Apple inzwischen aufgefordert, die Einführung der Scan-Funktion für Fotos zu stoppen. Apple müsse die "Ziele, Bedrohungsmodellierung und mögliche Kompromisse" vor einer Umsetzung erst öffentlich erklären und klare Prinzipien und Richtlinien zum Einsatz von maschinellem Lernen auf Endgeräten aufstellen, so der an der Universität Stanford tätige Sicherheitsspezialist Alex Stamos, der zuvor Facebooks Sicherheits-Team leitete. Er würde sich wünschen, alle Plattformen würden gemeinsam das wichtige Vorgehen gegen CSAM koordinieren.

Auch mehrere Bürgerrechtsorganisationen planen nach Informationen der Nachrichtenagentur Reuters, Apple zum Einstellen des Projektes aufzufordern. Intern diskutieren Apple-Mitarbeiter ebenfalls intensiv über die geplanten Funktionen und äußern Bedenken über eine mögliche Zweckentfremdung auf Druck von Regierungen, so die Nachrichtenagentur.

(lbe)