Apple iMessage erhält Meldefunktion für Nacktinhalte
Wie lassen sich Ende-zu-Ende-Verschlüsselung und der Kampf gegen sexuellen Missbrauch unter einen Hut bringen? Apple wählt einen neuen Ansatz.
Apple integriert eine Meldefunktion für Nacktinhalte in den Krypto-Messenger iMessage. Ab iOS 18.2 wird es für erste Nutzer möglich, vom Betriebssystem lokal als Nacktinhalte erkannte Fotos und Videos direkt an Apple zu melden, wie der Guardian berichtet. Das ist Bestandteil der in alle Apple-Betriebssystemen integrierten Funktion "Kommunikationssicherheit", die bei Kindern unter 13 Jahren inzwischen standardmäßig aktiviert ist. Eltern können die Funktion außerdem auf Geräten von Teenagern einrichten und wahlweise auch für sich selbst aktivieren – oder auch abschalten.
Nutzer können Nacktfotos und Nachrichten an Apple weiterleiten
Erkennt das System etwa ein per iMessage empfangenes Nacktfoto, wird dieses automatisch unkenntlich gemacht und der Empfänger vor dem sensiblen Inhalt gewarnt. An dieser Stelle gibt es künftig die neue Funktion, die erhaltenen Aufnahmen an Apple zu übermitteln. Neben den jeweiligen Fotos oder Videos werden zusätzlich auch "begrenzte umgebende Textnachrichten" sowie der Name respektive Account des Hinweisgebers an den Konzern übermittelt, wie ein vom Guardian veröffentlichter iPhone-Hinweisdialog aufführt. Apple werde die Inhalte prüfen und möglicherweise Schritte einleiten, heißt es dort. Dazu gehört demnach, iMessage-Accounts zu blockieren und möglicherweise auch Strafverfolgungsbehörden zu informieren.
Die neue Funktion wird zuerst in Australien eingeführt, weil dort bald neue gesetzliche Regeln für Messaging- und Cloud-Dienste gelten, merkt der Guardian an. Die weltweite Einführung der neuen Meldefunktion ist aber geplant.
Apple hatte sich ursprünglich gegen den Gesetzesentwurf in Australien (ebenso wie in anderen Ländern) positioniert und darauf verwiesen, dass dies die durch Ende-zu-Ende-Verschlüsselung gewährte Vertraulichkeit von Kommunikation bedroht. Das Gesetz lässt Anbietern jetzt mehr Spielraum, um illegale Inhalte zu melden – ohne Hintertür für die Verschlüsselung.
Apple wollte ursprünglich iCloud-Fotos auf iPhones überprüfen
Um besser gegen Material von Kindesmissbrauch (Child Sexual Abuse Material – CSAM) vorzugehen, hatte Apple vor mehreren Jahren angedacht, iCloud-Fotos lokal auf dem iPhone zu scannen – und dabei möglicherweise gefundene CSAM-Inhalte im Hintergrund automatisiert an Apple zu übermitteln. Nach massiver Kritik von Kunden, Sicherheitsforschern und Bürgerrechtlern stoppte der Konzern das Projekt.
Die parallel geplanten Kinderschutzfunktionen wie der Nacktfilter wurden überarbeitet und schließlich in die Betriebssysteme integriert. Nutzer können auf solche unkenntlich gemachten Bilder klicken, um sie sich letztlich trotzdem anzusehen. Auf Geräten von Kindern unter 13 Jahren muss dafür ab iOS 18 zusätzlich der – im Idealfall nur den Eltern bekannte – Bildschirmzeit-Code eingegeben werden.
Apple wurde jüngst von verschiedenen Seiten vorgeworfen, zu wenig gegen CSAM zu unternehmen, speziell in iCloud. Über geteilte Alben werde dort auch Missbrauchsmaterial verteilt, so der Vorwurf. Eine US-Sammelklage wirft dem Konzern vor, solches Material zu ignorieren.
(lbe)