iOS 15.2 Beta: Erste Anzeichen fĂĽr Apples umstrittene Kinderschutzfunktion
Die Vorabversion enthält Code für neue "Child Safety Features", mit denen Nacktbilder Eltern gemeldet werden sollen. Wann sie aktiviert werden, bleibt unklar.
Apple scheint in einer Vorabversion von iOS 15 erstmals Programmelemente integriert zu haben, die einen Teil der neuen (und stark umstrittenen) Kinderschutzfunktionen darstellen. Das berichtet MacRumors nach einer Untersuchung von iOS 15.2 Beta. Demnach ist entsprechender Code zwar vorhanden, vom iPhone-Hersteller aber noch nicht aktiviert. Apple soll auĂźerdem offenbar nicht planen, die Features bereits in der Finalversion von iOS 15.2 zu aktivieren.
CSAM-Scanning und Kinderschutz
Der Konzern plant für iOS 15 drei neue "Child Safety"-Funktionen, von denen mindestens zwei als problematisch gelten. Funktion eins ist ein in das Gerät eingebauter Scanner für kinderpornografisches Material (CSAM, Child Sexual Abuse Material), von der bislang im Betriebssystem nichts zu finden ist. Funktion zwei ist ebenfalls noch nicht aufgetaucht, sie ergänzt Siri und Suche um Hinweise, wo Kinder und ihre Eltern bei Missbrauch Hilfe bekommen können und fragt Nutzerinnen und Nutzer, die nach CSAM-Begriffen suchen, ob sie das "wirklich wollen". Funktion drei, die sich nun in iOS 15.2 Beta andeutet, betrifft einen Nacktfilter für die iMessage-App (Nachrichten), der Kinder schützen soll.
Kritiker meinen, CSAM-Scanning auf dem Gerät sei ein Dammbruch, weil Apple nun plötzlich regelmäßig private Daten durchsucht, ohne dass der Nutzer dem zustimmt (die Verwendung von iCloud-Fotos reicht). Der Nacktfilter in Nachrichten wird wiederum kritisiert, weil er automatisch Eltern aufmerksam machen kann, wenn Kinder solches Material betrachten – in problematischen Eltern-Kind-Beziehungen könnte dies zu schweren Problemen führen, etwa bei Personen, die sich nicht geoutet haben, sagen Kritiker.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Textstrings aus Apples Kinderschutzfunktion
Zum Nacktfilter, wahlweise auch Nacktscanner genannt, finden sich nun in iOS 15.2 Beta erste Details. So gibt es zahlreiche Text-Strings, die Apple bereits in seinem Vorab-Bildmaterial zu den Kinderschutzfunktionen verwendet hatte. Darin heißt es unter anderem, man solle sich Hilfe bei "Erwachsenen, denen Du vertraust" suchen, wenn man problematische Bilder erhält. Das System werde Bilder nicht mit Apple teilen, allerdings könne man dem Konzern helfen, Fehltreffer zu erkennen, heißt es in einem anderen String. Außerdem ist etwa zu lesen, dass "es nicht Dein Fehler ist, aber sensible Fotos können verwendet werden, um Dir wehzutun". Ein anderer String besagt, dass das Teilen von Nacktbildern von Unter-18-Jährigen "rechtliche Konsequenzen" haben könne.
Apple nutzt je nach Altersgruppe unterschiedliche Ansätze. So werden nur Fotos mit Eltern geteilt, wenn das Kind unter 13 ist. Die Funktion muss jeweils im Rahmen der Familienfreigabe von Eltern freigeschaltet werden. Laut MacRumors gibt es keine Hinweise darauf, dass Apple die Funktionen mit iOS 15.2 freischalten wird. Der Konzern hatte die Einführung der Features zunächst verschoben, nachdem es viel Kritik gegeben hatte. (bsc)