Apple: Bürgerrechtler beklagen Verschlüsselungsbruch mit Backdoor

Die Ankündigung von Apple, einen Nacktfilter für iMessage und Kinderporno-Scans für iCloud einzuführen, bringt Datenschutzaktivisten auf die Barrikaden.

In Pocket speichern vorlesen Druckansicht 157 Kommentare lesen

(Bild: BeeBright / Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

US-Bürgerrechtsorganisationen laufen Sturm gegen das Vorhaben von Apple, zunächst in den USA einen Nacktfilter für iMessage einzusetzen sowie in die iCloud hochgeladene Fotos auf Darstellungen sexuellen Kindesmissbrauchs zu scannen. Das Center for Democracy & Technology (CDT) etwa befürchtet, die Initiative werde letztlich die sichere Nachrichtenübermittlung über den Messaging-Dienst des iPhone-Herstellers "auf der ganzen Welt gefährden".

Der von Apple ins Feld geführte Kinderschutz sei fraglos ein wichtiges Ziel, heißt es beim CDT. Die zivilgesellschaftliche Institution zeigt sich aber "zutiefst besorgt darüber", dass die Änderungen "in Wirklichkeit neue Risiken für Kinder und alle Nutzer mit sich bringen und eine deutliche Abkehr von seit langem geltenden Datenschutz- und Sicherheitsprotokollen darstellen".

"Apple ersetzt sein branchenübliches, durchgängig verschlüsseltes Messaging-System durch eine Infrastruktur für Überwachung und Zensur, die nicht nur in den USA, sondern auf der ganzen Welt missbrauchsanfällig ist", beklagt Greg Nojeim, Co-Direktor des "Security & Surveillance" Projekts des CDT. Der Konzern sollte auf diesen Schritt verzichten "und das Vertrauen seiner Nutzer in die Sicherheit und Integrität ihrer Daten auf Apple-Geräten und -Diensten wiederherstellen".

Das Unternehmen schaffe keine Alternative zu einer Hintertür, wie es selbst angebe, sondern eindeutig "eine Backdoor", erläutert die Organisation. iMessage werde dann keine Ende-zu-Ende-Verschlüsselung mehr bieten. Dies würde einen gefährlichen Präzedenzfall kreieren, mit dem ein Nutzerkonto ein anderes überwachen könnte. Es werde eine Funktion zu iOS hinzugefügt, die Bilder in iMessages scannt, die ein Familienkonto haben. Auf diesen Accounts führte Apple ein auf maschinellem Lernen basierendes "clientseitiges Scannen" durch, um sexuell eindeutiges Bildmaterial zu erkennen. Bei einem mutmaßlichen Treffer erfolge eine Warnung an die Eltern.

Mit der neuen Foto-Regel werde zudem eine Datenbank mit Hashes von Material über sexuellen Kindesmissbrauch auf den iPhones der Nutzer gespeichert, führt das CDT aus. Nach einem Abgleich mit unveröffentlichten Algorithmen und einer menschlichen Überprüfung sende Apple unter anderem einen Bericht an das National Center for Missing and Exploited Children (NCMEC).

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.