Kinderporno-Scan auf iPhones: Apple schweigt, wie's weitergeht

Die umstrittene automatische KI-Analyse von Fotos auf illegale CSAM-Inhalte hatte Apple zunächst auf Eis gelegt. Wie stehen die Chancen, dass sie noch kommt?

In Pocket speichern vorlesen Druckansicht 57 Kommentare lesen
Onlinespeicher - iCloud

iCloud: Bald mit integrierter Überwachung?

(Bild: dpa, Armin Weigel/Symbolbild)

Lesezeit: 3 Min.

Nach wie vor ist unklar, ob Apple auf iPhones und iPads Speicherinhalte künftig automatisch auf Missbrauchsbilder scannen wird. Eine entsprechende Funktion hatte der Konzern vor ziemlich genau einem Jahr angekündigt, sie nach massiver Kritik von Sicherheitsexperten, Bürgerrechtlern und Politikern dann aber zunächst zurückgehalten. Allerdings sind zwei weitere Aspekte eines Gesamtpakets zum Kinderschutz, dass der Konzern geschnürt hatte, mittlerweile umgesetzt.

Apple hatte im August 2021 angekündigt, man wolle künftig mehr gegen kinderpornografische Inhalte tun, die über die Geräte des Unternehmens verbreitet werden. Dazu sollten Bilder von Nutzerinnen und Nutzer, die die iCloud-Foto-Funktion auf iPhone und iPad verwenden, mittels KI-Routinen automatisch auf sogenannten CSAM-Content ("Child Sexual Abuse Material") gescannt werden. Nach Erkennung wären Apple-Mitarbeiter alarmiert worden, um sich den Fall anzusehen; sollte sich der Verdacht bewahrheiten, hätte Apple diesen dann an Kinderschutzorganisationen wie das US-Non-Profit National Center for Missing and Exploited Children (NCMEC) weitergegeben, die dann die Behörden einschalten sollten.

Sicherheitsforscher machten schnell darauf aufmerksam, dass eine solche Funktion ein massives Missbrauchspotenzial habe – die Datenbank mit sogenannten NeuroHashes könne auch für andere Formen von Inhalten verwendet werden, die Apple dann auf den privaten Geräten seiner Nutzer detektieren könnte. Zahlreiche zivilgesellschaftliche Organisationen baten Apple, das Feature zu überdenken. Der Konzern wies die Vorwürfe zunächst zurück. Im September 2021 kam dann jedoch die Entscheidung, das für iOS und iPadOS 15 geplante Feature zunächst zurückzustellen – auch aufgrund der starken Kritik. Apple strich im Dezember sogar die Funktionsbeschreibung des CSAM-Scanners, gab allerdings an, dass die Pläne noch immer bestünden.

Seither hat sich allerdings nichts mehr getan. Zwei mit dem CSAM-Scanner angekündigte Features sind jedoch mittlerweile in ersten Ländern aktiviert worden. So untersucht Apple die iMessage-Nachrichten von Minderjährigen per KI auf Nacktinhalte (falls Eltern dies im Rahmen der Familienfreigabe aktiviert haben) und warnt diese vor negativen Konsequenzen. Zudem meldet sich Siri beim Versuch, nach CSAM-Inhalten zu suchen, mit einer Warnung, dass es sich um illegale Taten handelt. Diese "erweiterten Hinweise" erfolgen auch in Spotlight und der Safari-Suche. Sie sollen der Intervention dienen, um potenzielle Täter abzuhalten.

Ob Apple das CSAM-Scanning nachträglich einführt, bleibt unklar. Der letzte Stand der Debatte stammt aus dem vergangenen September. Damals hieß es, Apple benötige "zusätzliche Zeit", um die Rückmeldungen von Kunden, Opferorganisationen, Forschern und anderen zu verarbeiten. Auf Nachfrage von US-Medien, wie es mit dem CSAM-Scanning weitergeht, gab es zunächst keinen Kommentar aus Cupertino. Dass eine solche Technik durchaus anschlagen kann, wenn es sich um harmlose Inhalte handelt, zeigt unterdessen ein Fall, den die New York Times beschreibt. Ein Vater hatte den offenbar entzündeten Genitalbereich seines Kindes mit einem Android-Handy fotografiert, um die Bilder an einen Arzt zur telemedizinischen Diagnose zu schicken. Die Aufnahmen landeten in der Google Photo Cloud, wo sie prompt als CSAM klassifiziert wurden. Zwar kam es nach einer polizeilichen Untersuchung nicht zu einer Strafverfolgung, doch der Betroffene verlor den kompletten Zugang zu seinem Google-Account – mit allen Daten der vergangenen Jahre.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(bsc)