iCloud: Apple scannt bislang nur E-Mails auf Missbrauchsfotos

Das Scannen von Fotos auf illegale Inhalte behält Apple sich seit 2019 vor, das greift aber nur bei E-Mails. iCloud-Fotos sollen auf iPhones geprüft werden.

In Pocket speichern vorlesen Druckansicht 59 Kommentare lesen

(Bild: Sundry Photography/Shutterstock.com)

Lesezeit: 2 Min.

Apple scannt bereits serverseitig auf Inhalte, die sexuellen Missbrauch von Kindern zeigen. Das System kommt aber nur zur Prüfung von E-Mails zum Einsatz, die über iCloud laufen, wie das Unternehmen jetzt gegenüber Medienvertretern bestätigte. Über den Dienst iCloud-Fotos synchronisierte Fotomediatheken seien bislang hingegen nie auf solches Material überprüft worden.

Seit 2019 hält sich Apple mit einer Änderung der Datenschutzrichtlinien vor, "hochgeladene Inhalte auf potenziell illegale Inhalte" zu scannen, "darunter Materialien in Zusammenhang mit der sexuellen Ausbeutung von Kindern". Bislang hatte der Konzern aber nicht konkret erläutert, welche iCloud-Dienste geprüft werden – und in welcher Form. Das System setze auf "elektronische Signaturen" und funktioniere "ähnlich wie Spam-Filter für E-Mails", teilte das Unternehmen zuvor lediglich mit.

Erst ein Anfang 2020 publik gemachter Durchsuchungsbeschluss führte aus, dass Apple dafür Hashes und einen automatisierten Abgleich mit Datenbanken von bekanntem Missbrauchsmaterial setzt – ähnlich wie andere IT-Konzerne mit Cloud-Diensten. Ein Apple-Mitarbeiter sichte markierte E-Mails und melde den Fall bei Verdacht auf Kindesmissbrauch direkt an die zuständigen US-Behörden, hieß es in dem Durchsuchungsbeschluss. Strafverfolger können dann weitere iCloud-Daten bei Apple anfragen.

Für iCloud-Fotos hat sich Apple gegen ein rein serverseitiges Scannen auf Missbrauchsmaterial entschieden: Die serverseitige Prüfung sei invasiv, undurchsichtig und könnten einzelne Accounts ins Fadenkreuz nehmen. Der Konzern will stattdessen mit iOS 15 die Erkennung von bekanntem Missbrauchsmaterial in iCloud-Fotos direkt auf iPhones und iPads durchführen – durch einen lokalen Abgleich mit einer Hash-Datenbank, die Kinderschutzorganisationen beisteuern. Welche Organisationen – abgesehen vom National Center for Missing & Exploited Children (NCMEC) – dafür Hashes liefern, wollte Apple aktuell noch nicht sagen. Zu einem späteren Zeitpunkt soll aber eine Liste mit den Partnern folgen.

Apples Pläne stoßen auf erheblichen Widerstand: Bürgerrechtler, Sicherheitsforscher und Datenschützer warnen vor einer ständigen anhaltslosen Überwachung des Nutzers durch das eigene Gerät – und der Zweckentfremdung des Systems für Zensur und staatliche Überwachung.

(lbe)