Lokales Kinderporno-Scanning auf dem iPhone: Gegenwind auch bei Apple selbst

In internen Chats machen Mitarbeiter des iPhone-Konzerns ihrem Ärger über das umstrittene neue Feature Luft. SIe fürchten Reputationsschäden.

In Pocket speichern vorlesen Druckansicht 138 Kommentare lesen
Rückseite eines iPhone 6

(Bild: Daniel AJ Sokolov)

Lesezeit: 3 Min.

Apple erlebt nach Bekanntgabe des Plans, iPhones und iPads künftig lokal auf Missbrauchsinhalte absuchen zu wollen, auch intern eine kleine Revolution: In langen Slack-Threads sollen sich Mitarbeiter des Unternehmens kritisch zu dem für iOS 15 und iPadOS 15 geplanten neuen Kinderschutz-Feature geäußert haben. Mehr als 800 Nachrichten soll es nach Ankündigung des von Sicherheitsforschern massiv kritisierten Vorhabens vor zwei Woche gegeben haben, meldete die Nachrichtenagentur Reuters. Das ist umso erstaunlicher, als dass es bei Apple, einem auf Geheimhaltung sehr bedachten Unternehmen, intern sonst eher wenig Diskussionen gibt, die nach außen dringen – zuletzt gab es allerdings eine größere Debatte um eine mögliche Rückkehrpflicht ins Büro nach Corona, über die dann auch Medien berichteten.

In den Slack-Nachrichten brachten Apple-Angestellte ihre Sorgen zum Ausdruck, dass das lokale Kinderporno-Scanning künftig von repressiven Regierungen ausgenutzt werden könnte, die ihnen nicht genehmes Material zensieren und Leute ins Gefängnis stecken wollen. Apples Softwarechef Craig Federighi hatte dies zuletzt in einem Interview zurückgewiesen, zudem gab der Konzern in einer FAQ an, man werde sich solchen Begehrlichkeiten "verweigern". Letztlich läuft dies allerdings auf ein Vertrauen in Apple hinaus, das so mancher Nutzer nach Ankündigung des umstrittenen Schrittes verloren haben könnten.

Frühere Sicherheitsneuerungen hätten auch Bedenken bei einigen Mitarbeitern ausgelöst, heißt es bei Reuters weiter, doch die Breite der Debatte um das sogenannte CSAM-Scanning ("Child Sexual Abuse Material") sei ungewöhnlich. Zu den geäußerten Ängsten gehört, dass Apple mit dem Schritt seine führende Reputation in Sachen Privatsphärenschutz gefährden könnte. Apple pocht hingegen nach wie vor darauf, nur "missverstanden" worden zu sein. Mitarbeiter im Bereich Software-Sicherheit sollen sich laut Reuters in Slack bislang zurückgehalten haben. Einige teilten mit, Apples Lösung sei "vernünftig" um gegen illegales Material vorzugehen. Andere sagten, sie hofften, dies sei ein Schritt, iCloud endlich voll zu verschlüsseln – derzeit hat Apple hier einen Nachschlüssel und lässt sich in China sogar alle Daten abnehmen, dort werden sie bei einer Staatsfirma gehostet.

Apple-Softwarechef Federighi hatte in einem Interview mit dem Wall Street Journal argumentiert, das lokale Kinderporno-Scanning auf dem iPhone sei keine "Hintertür" und "wortwörtlich Teil der Pipeline, mit der Bilder in iCloud gespeichert werden". Damit versuchte er darzulegen, dass Apple die Funktion nicht für sonstige Aufnahmen – etwa aus dem Browser oder aus anderen Apps – verwendet. Das Problem: iCloud-Fotos wird bei jedem iPhone standardmäßig aktiviert, entsprechend landen dann alle in der Fotomediathek abgelegten Aufnahme auch in jener "Pipeline". Zahlreiche Nutzer dürften im Rahmen des Einrichtungsdialogs nicht einmal wahrnehmen, dass ihre Bilder automatisch in iCloud hochgeladen werden. (bsc)