Apple-Manager: iCloud "beste Plattform" für Pädokriminalität

Apple lege den Fokus auf Datenschutz und schaue bewusst nicht genau hin, so ein Manager in einem internen Chat. Auch Grooming per iMessage sei eine Bedrohung.

In Pocket speichern vorlesen Druckansicht 64 Kommentare lesen
Umfrage: Drei Viertel aller 10-Jährigen haben ein eigenes Smartphone

(Bild: 21MARCH, Shutterstock.com)

Lesezeit: 3 Min.

Bei Apple gab es intern offenbar Bedenken, dass die Dienste des Konzerns in erheblichem Umfang für Pädokriminalität missbraucht werden. Im Unterschied zu Facebook lege Apple den Fokus auf Datenschutz und weniger auf Schutzfunktionen in Hinblick auf Fake-Accounts und ähnliches, wie der Leiter von Apples Anti-Betrugs-Team (FEAR – Fraud, Engineering, Algorithms and Risk) Eric Friedman im vergangenen Jahr in einem internen Chat an einen Kollegen schrieb. Deshalb sei iCloud auch die "beste Plattform zur Verbreitung von Kinderpornographie".

Auf Nachfrage des Kollegen, ob viel solches Material in Apples Ökosystem sei, antwortet Friedman mit einem "Ja" – man habe sich bewusst dazu entschieden, das für "genug Orte nicht zu wissen", so dass man es für diese "wirklich nicht sagen kann".

Die im Februar 2020 geführte iMessage-Konversation der Apple-Manager wurde im Rahmen des großen Rechtsstreits zwischen Epic Games und Apple durch das Beweisverfahren publik und nun von The Verge veröffentlicht. Gewöhnlich werden dabei interne E-Mail-Threads dokumentiert, in diesem Fall aber auch die per iMessage geführte Unterhaltung, die in den Gerichtsunterlagen als "streng vertraulich" markiert ist.

In dem Chat wird auch ein Artikel der New York Times erwähnt, in dem Apple vorgeworfen wurde, zu wenig gegen Missbrauchsmaterial zu unternehmen – auch im Vergleich zu anderen Plattformen wie Facebook, die ein Vielfaches an Missbrauchsmaterial an die Organisation National Center for Missing & Exploited Children (NCMEC) melden.

Unter den mit "unzureichenden Ressourcen" bedachten Herausforderungen führte Friedman in einer internen Präsentation zudem "Grooming" per iMessage auf, also die Kontaktaufnahme von Erwachsenen zu Kindern in Missbrauchsabsicht. Es handle sich um eine "aktive Bedrohung", heißt es auf der Folie. Beide Bereiche will Apple mit neuen Funktionen in iOS 15 angehen, wie der Konzern vor Kurzem ankündigte.

Apples Pläne, die Erkennung von Nacktbildern in iMessage lokal durchzuführen (und unter Umständen die Eltern zu informieren) sowie die Foto-Datenbank von iPhones mit einem Hash-basierten Erkennungssystems auf dokumentiertes Missbrauchsmaterial in iCloud-Fotos zu prüfen, haben für massive Kritik gesorgt: Datenschützer, Bürgerrechtler, Informatiker, Sicherheitsforscher und viele weitere Organisationen haben Apple in den vergangenen zwei Wochen dazu aufgerufen, die Pläne einzustampfen, um keine Tür für Überwachung auf den Geräten zu öffnen. Bislang ist Apple nicht öffentlich von dem Vorhaben abgerückt. Der Konzern scheint bislang nur seinen iCloud-E-Mail-Dienst Server-seitig auf Missbrauchsmaterial zu scannen, nicht aber iCloud-Fotos.

(lbe)