iPhone erkennt illegale Inhalte: Informatiker warnen vor Apples Scanning-Plänen

Zwei Princeton-Forscher, die ein Apple-ähnliches System zur lokalen Erkennung von Missbrauchsfotos entwickelt haben, halten die Technik für gefährlich.

In Pocket speichern vorlesen Druckansicht 133 Kommentare lesen

(Bild: WDnet Creation/Shutterstock.com)

Lesezeit: 2 Min.

Die Warnungen vor Apples geplantem System zur Erkennung von Missbrauchsfotos reißen nicht ab: Eine solche Technik ist "gefährlich", warnen nun zwei Forscher der Universität Princeton, die selbst ein ähnliches System zur lokalen Erfassung illegaler Inhalte in Krypto-Messengern entwickelt haben. Man sei nicht besorgt über Apples Technik, weil man sie nicht verstehe, sondern weil man genau wisse, wie diese funktioniert, schreiben die Wissenschaftler.

Apple hatte nach erstem Gegenwind erklärt, es handele sich bei der Kritik an den geplanten Funktionen auch um "Missverständnisse".

Ziel der Forscher war es, einen Weg für Kommunikationsdienste mit Ende-zu-Ende-Verschlüsselung zu entwickeln, der trotzdem eine Erkennung von illegalen und "schädlichen" Inhalten wie Child Sexual Abuse Material (CSAM) und extremistischem Content erlaubt – in möglichst datenschutzkonformer Form, wie das Paper ausführt.

Ähnlich wie Apple verlagern die beiden Wissenschaftler die Erkennung auf das Endgerät – und setzen ebenfalls auf Perceptual Hash Matching, um Hashes der Bilder des Nutzers lokal mit den Hashes einer Datenbank abzugleichen. Verschiedene Schutzmechanismen sollen dafür sorgen, dass der Dienst nur bei Treffern informiert wird und sonst keinen Einblick in die Kommunikation erhält.

Man habe nach mehreren Anläufen zwar einen funktionierenden Prototypen des Systems entwickelt, sei aber auf ein "eklatantes Problem" gestoßen, erläutern die Wissenschaftler in einem Gastbeitrag für die Washington Post: Ein solches System lasse sich "leicht für Überwachung und Zensur missbrauchen".

Apples Umsetzung sei zwar "effizienter und leistungsfähiger", weise aber dieselben grundsätzlichen Probleme und Risiken auf. Auch habe der iPhone-Konzern bislang nur wenige und unzureichende Antworten zu den möglichen Folgen der Technik geliefert, argumentieren die Forscher. Für viele der Risiken eines solchen Systems gebe es wohl gar keine technische Lösung – Apple setze damit Sicherheit, Datenschutz und Meinungsfreiheit auf der ganzen Welt aufs Spiel.

(lbe)