Kommentar: Apples CSAM-Scans – Ein Tabubruch, der in die Totalüberwachung führt

CSAM-Scanning ist gar nicht so schlimm und auch clever? Nein, meint Jürgen Schmidt: Überwachung auf Gerätebasis ist ein Dammbruch, der verhindert werden muss.

In Pocket speichern vorlesen Druckansicht 423 Kommentare lesen

(Bild: Scharfsinn/Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Nach meinem ersten Kommentar zu Apples neuen Kinderschutzfunktionen und der #heiseshow zum Thema erreichten mich einige Einwände, die das aktuelle Vorgehen von Apple verteidigen. Auch Apple hat auf Maßnahmen verwiesen, die verhindern sollen, dass ihre Maßnahmen zum Kinderschutz in einen Überwachungs-Alptraum münden. Das wichtigste Argument ist:

Der Scan betrifft nur Bilder, die der Anwender ohnehin in die iCloud hochlädt. Damit untersucht Apple faktisch nur das, was alle anderen sowieso bereits scannen. Nur eben ein wenig cleverer. Und der Benutzer kann es noch dazu abschalten, indem er keine Bilder in die iCloud hochlädt.

Ein Kommentar von Jürgen Schmidt

Jürgen Schmidt - aka ju - ist leitender Redakteur von heise Security und Senior Fellow Security bei heise. Von Haus aus Diplom-Physiker, arbeitet er seit über 15 Jahren bei Heise und interessiert sich auch für die Bereiche Netzwerke, Linux und Open Source.

Darüber hinaus wird der Alarm erst ausgelöst, nachdem eine gewisse Anzahl von Bildern – im Gespräch sind 30 – als Kinderpornografie identifiziert wurde. Außerdem muss diese Klassifizierung durch zwei unabhängige Institutionen vorgenommen worden sein. Und es passiert vorerst nur in den USA. Also reihenweise Gründe, warum wir uns vor diesen Scans nicht fürchten müssten. Doch das alles lenkt nur ab.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Ja, Apple wird im ersten Aufschlag eine Kinderschutzfunktion abliefern, vor der sich niemand fürchten muss. Auch nicht die Täter, die diese Bilder machen oder konsumieren: Denn die CSAM-Scan-Funktion wird so weichgespült sein, dass sie auch nahezu nutzlos ist – oder meint hier jemand, der Trick mit dem Abschalten des iCloud-Uploads wird sich nicht zu denen rumsprechen? All das verstellt nur den Blick auf das große GanzeTM – also auf das, was da eigentlich passiert.

Man betrachte das mal aus einer anderen Richtung: Wer Cloud-Speicher vermietet, hat eine gesetzliche Verpflichtung, dafür zu sorgen, dass dieser nicht für das Verbreiten von kinderpornografischem Material missbraucht wird beziehungsweise derlei Aktivitäten den zuständigen Behörden zu melden. Das ist nachvollziehbar und das machen auch alle Anbieter, insbesondere die Großen wie Apple, Microsoft, Google oder Amazon. Ausnahme sind die Anbieter, die argumentieren, "unser Speicher ist so verschlüsselt, dass wir selbst keinerlei Zugriff darauf haben".

Smartphone-Hersteller sind nicht zu solchen Scans oder gar zum Melden gesetzeswidriger Nutzung verpflichtet und es gibt dafür auch bisher kein etabliertes technisches Verfahren. Eine Überwachung, bei der das Gerät selbst kontrolliert, ob es für illegale Dinge wie den Upload von strafbarem Material genutzt wird, ist nicht vorgesehen. Dass uns unsere eigenen Smartphones, Autos oder Fernseher routinemäßig und ohne Anlass überwachen, um dem Hersteller Verstöße gegen Gesetze zu melden, findet faktisch nicht statt. Es ist sogar mit einem Tabu belegt – aus gutem Grund.

Apple führt jedoch jetzt eine technische Lösung ein, mit der genau das möglich wird. Die geplanten Kinderschutzfunktionen überwachen Bilder auf dem Gerät und melden illegales Material erst bei Apple und schlussendlich den Behörden. Damit ist der Damm gebrochen, das Tabu aufgehoben. Alles Weitere ist nur noch ein langsames, graduelles Anziehen der Überwachungsschrauben.

Die gesetzliche Verpflichtung, so etwas einzubauen, wird folgen. Dann werden die Regeln, wie und wonach gescannt wird, ebenfalls erweitert. Als Erstes wird die unsinnige Beschränkung auf iCloud-Uploads fallen. Schließlich werden das Material und die Personen dahinter kein Stück weniger böse, wenn sie andere Speicher- und Austauschplattformen nutzen. Das ist keine bloße Vermutung, es ist die bittere Erfahrung aus vielen Jahren. Existierende Überwachungstechnologie wird maximal genutzt – Versprechen, "das" dann aber ganz bestimmt nicht zu tun, sind wertlos.

Die Folge wird sein, dass Smartphones und danach alle anderen "intelligenten" Geräte eingebaute Überwachungsfunktionen haben, die sich gegen dessen Eigentümer richten, dessen Verhalten überwachen und Missbrauch automatisch melden. Und jetzt schaue man sich mal um, wie viele solcher "Geräte" uns umgeben: Computer, Autos, Audio-Video-Receiver, Staubsauger-Roboter, digitale Assistenten und Smarthome-Steuerungen mit Spracherkennung – das nimmt kein Ende.

Es geht also bei Apples Schritt nicht darum, etwas ein wenig cleverer zu machen, was alle anderen auch schon tun. Apples Tabubruch ebnet den Weg in eine Totalüberwachung, wie wir sie bisher nur aus dystopischen Science-Fiction-Filmen kennen. Da hilft es herzlich wenig, dass die Version 1.0 noch wenig realen Schaden anrichtet. Wir müssen das jetzt mit einem lauten und eindeutigen "Apple, lass den Scheiß!" verhindern – sonst ist das nicht mehr aufzuhalten.

(ju)