Kinderschutz: iMessage-Nacktscanner kommt nach Großbritannien
"Communication Safety" ist seit iOS 15.2 in den USA verfügbar. Nun startet einem Bericht zufolge die Ausdehnung auf einen zweiten Markt – leicht entschärft.
Apple wird eine seit iOS 15.2 verfügbare Funktion, die dem Kinderschutz auf seinen iPhones dienen soll, erstmals auch international anbieten. Das anfangs umstrittene Feature namens "Communication Safety" werde "bald" auch auf Geräten in Großbritannien aktiv geschaltet, so der Konzern laut einem Bericht der Zeitung The Guardian. Zuvor war die Funktion im Dezember 2021 nur in den Vereinigten Staaten von Amerika eingeführt worden, andere Weltregionen blieben außen vor.
Automatisches Scannen auf Nacktbilder
Communication Safety soll dazu dienen, bei Kinder und Jugendlichen ein- und ausgehende iMessage-Nachrichten auf explizite Inhalte zu überprüfen. Werden diese entdeckt, werden sie zunächst nur versteckt dargestellt und es gibt eine Warnmeldung an den Nachwuchs. In Apples ursprünglicher Funktionsbeschreibung hieß es, dass bei Ignorierung der Warnung eine Kontaktierung der Eltern erfolgt. Diese müssen Communication Safety-Funktion zuvor aktivieren, was wiederum über die Familienfreigabe läuft. Gegenüber dem Guardian hieß es nun, dass auch Eltern keine Information erhalten sollen – Apple hat also offenbar eine Entschärfung vorgenommen. Das System soll automatisch "intime Teile des Körpers" erkennen können und auch vor einem Absenden warnen. "Es ist nicht Dein Fehler, aber sensible Fotos und Videos können verwendet werden, um Dich zu verletzen", heißt es in einem der Hinweise von Apple.
Den Nacktscanner hat Apple in iMessage eingebaut. Er arbeitet lokal auf dem Gerät. Neben iOS 15, iPadOS 15 soll er auch in macOS 12 alias Monterey vorhanden sein. Communication Safety war teilsweise scharf kritisiert worden, weil es bei einer automatischen Benachrichtigung der Eltern dazu führen könnte, dass es Konflikte zwischen Eltern und Kindern – etwa solchen, die noch nicht "out" sind – anheizt. Apple selbst sieht den Nacktscanner als wichtige Sicherheitsfunktion, um Kinder zu schützen.
Weitere umstrittene Funktion kommt noch
Apple betont, dass das System nur direkt in Messages Bildanhänge analysiere und dann entscheide, ob es sich um Nacktheit handelt. Die Ende-zu-Ende-Verschlüsselung bleibe aktiv. "Die Funktion ist so gestaltet, dass keine Anzeichen für die Erkennung von Nacktheit jemals das Gerät verlässt." Apple erhalte keine Informationen und auch Benachrichtigungen an Eltern "oder irgendjemand anderen" würden nicht verschickt. Ursprünglich sollte bei Kindern unter 13 Jahren eine utomatische Benachrichtigung der Erziehungsberechtigten erfolgen, falls Nacktmaterial entdeckt wird.
Communication Safety ist nicht die einzige derartige Funktion, die Apple plant. So sollen Geräteinhalte bei aktivem iCloud-Foto-Upload künftig auf Kindesmissbrauchsinhalte automatisch gescannt werden. Bei Überschreiten eines bestimmten Grenzwertes dieses CSAM-Materials ("Child Sexual Abuse Material") sollen Mitarbeiter die Inhalte überprüfen und an eine Clearing-Stelle melden. Sicherheitsexperten hatten die Idee scharf kritisiert, weil sie missbraucht werden könne.
Neben Großbritannien will Apple das neue Feature auch in Kanada aktivieren, außerdem sind offenbar Australien und Neuseeland geplant. In Siri, Spotlight und der (Web-)Suche soll das iPhone Nutzer zudem warnen, wenn sie nach problematischen Begriffen aus dem Missbrauchskontext suchen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
(bsc)