Nacktfoto-Filter für iMessage: Apple bereitet Einführung vor

Einen Teil der nach massiver Kritik aufgeschobenen Kinderschutzfunktionen will Apple mit iOS 15.2 einführen – in überarbeiteter Form.

In Pocket speichern vorlesen Druckansicht 108 Kommentare lesen

(Bild: Farknot Architect/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Leo Becker

Apple integriert einen Nacktfoto-Filter in die auf iPhones und iPads vorinstallierte App "Nachrichten". Eltern können die Funktion voraussichtlich ab iOS 15.2 auf den Geräten ihrer minderjährigen Kinder aktivieren. Per iMessage ausgetauschte Bilder werden dann lokal durch das Betriebssystem analysiert: Als Nacktbilder eingestufte Fotos soll iOS verschwommen darstellen sowie einen Warnhinweis zu "möglicherweise sensiblen" Inhalten einblenden.

Empfänger oder Empfängerin steht frei, das Foto dennoch im unverschleierten Original anzuzeigen. Auch vor dem Verschicken von Nacktfotos per iMessage und MMS erfolgt eine Nachfrage in der Nachrichten-App. Apple selbst erhalte dadurch keinen Zugriff auf die Fotos, betonte das Unternehmen.

Nachdem die ursprüngliche Ankündigung der Funktion auf erhebliche Kritik gestoßen war, hat Apple eine wichtige Anpassung vorgenommen: Eltern von unter 13-Jährigen sollen nicht länger automatisch per Benachrichtigung über das Ansehen oder Verschicken eines als Nacktbild eingestuften Fotos informiert werden, wie das Unternehmen gegenüber US-Medien mitteilte.

Bürgerrechtsorganisationen hatten unter anderem angeführt, Apple breche mit einer solchen automatisierten Mitteilung an Dritte das Versprechen der Ende-zu-Ende-Verschlüsselung seines Kommunikationsdienstes. Kinderschutzorganisationen monierten zudem, dass eine Benachrichtigung der Eltern Kindern nicht zwangsläufig nutzt, sondern diese sogar gefährden kann, wenn sie sich in einer häuslichen Missbrauchssituation befinden.

Kinder können in der Neuauflage der Funktion selbst wählen, ob sie eine Vertrauensperson über die sensiblen Inhalte informieren wollen. Für Erwachsene scheint keine Möglichkeit vorgesehen, den Nacktfoto-Filter für die eigene iMessage-Kommunikation zu aktivieren.

Ob Apple die auf maschinelles Lernen setzende Bildanalyse noch überarbeitet hat, bleibt unklar. Die Erkennung von Nacktinhalten und pornografischen Bildern funktioniere meist, könne aber Fehler machen und getäuscht werden, schränkte Apples Software-Chef Craig Federighi im August ein. Apples Sprachassistenzsystem Siri und die systemweite Suchfunktion sollen künftig außerdem Hilfestellung geben, wenn nach Missbrauchsmaterial oder nach Hilfe bei Kindesmissbrauch gefragt wird.

Unabhängig von dem iMessage-Nacktfilter hat Apple ursprünglich den Plan gehabt, auf den Geräten seiner Kunden nach Bildmaterial zu scannen, das sexuellen Missbrauch von Kindern zeigt. Dafür sollten iCloud-Fotos lokal auf dem Gerät mit einer Datenbank abgeglichen werden, die Hashes von bekanntem Missbrauchsmaterial (Child Sexual Abuse Material – CSAM) enthalten soll. Bei einer bestimmten Anzahl von Treffern sollten Apple-Mitarbeiter informiert werden, um das Material zu prüfen und bei tatsächlichen Missbrauchsfotos in den USA die Organisation NCMEC zu informieren. Diese kann sich dann an Strafverfolgungsbehörden wenden.

Kritiker warnten eindringlich vor einem Präzedenzfall: Ist ein lokaler Scan auf illegale Inhalte auf iPhones erst etabliert, würden andere Hersteller mit ähnlichen Systemen nachziehen, hieß es. Bei Regierungen wecke das zwangsläufig Begehrlichkeiten, damit auch die Verbreitung anderer Inhalte zu überwachen und unterdrücken. Apple ruderte im September – kurz vor Ankündigung der neuen iPhones und der Freigabe von iOS 15 – zurück: Es wolle "Input sammeln" und "Verbesserungen vornehmen", erklärte das Unternehmen. Wann und in welcher Form ein CSAM-Scanning in iOS oder iCloud-Fotos umgesetzt wird, bleibt weiterhin unklar.

(lbe)