EU-Projekt: Freiwilliger Geräte-Scanner soll von Kindesmissbrauch abhalten

Die Charité will mit Partnern im Projekt Protech einen Filter gegen Darstellungen zu sexuellem Kindesmissbrauch entwickeln. Die EU gibt 2 Millionen Euro dazu.

In Pocket speichern vorlesen Druckansicht 74 Kommentare lesen

(Bild: Ann in the uk/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Personen, die pädophil veranlagt sind oder bereits Kinder sexuell missbraucht haben, sollen sich freiwillig einen Scanner für sogenanntes Child Sexual Abuse Material (CSAM) auf ihren Endgeräten wie Smartphones installieren. Diesen Ansatz verfolgt das europäische Projekt Protech, das die Berliner Universitätsklinik Charité koordiniert. Die EU-Kommission fördert die Entwicklung eines einschlägigen Prototyps und zugehöriger Studien zu dessen erhoffter Präventionswirkung mit 2 Millionen Euro.

Die Menge an online verfügbarem Material über sexuellen Kindesmissbrauch und die weltweite Nachfrage danach "haben ein noch nie dagewesenes Ausmaß erreicht", heißt es in dem einschlägigen Eintrag in der Datenbank für öffentliche Ausschreibungen der Kommission. Belege für diese Behauptung liefern die Beteiligten nicht mit. Die britische Kinderschutzorganisation Internet Watch Foundation (IWF), die an Protech trotz der EU-Geldspritze maßgeblich beteiligt ist, zitiert den Direktor des Instituts für Sexualwissenschaft und Sexualmedizin der Charité, Klaus Beier, in einer Mitteilung mit der Warnung: "Der zunehmende Konsum und die Verbreitung von Material zur sexuellen Ausbeutung von Kindern ist ein Problem von internationaler Bedeutung."

Beier hält es daher für nötig, vor allem CSAM-bezogenes Nutzerverhalten in den Fällen zu erforschen, "die den Justizbehörden nicht bekannt sind". Dies sei in der Vergangenheit weitgehend vernachlässigt worden, "obwohl hier das größte Präventionspotenzial liegt". Denn die entsprechende Dunkelziffer sei hoch. Mit dem Scanner ziele man daher auch auf selbstmotivierte und kooperative, potenzielle oder tatsächliche Nutzer von sexuellen Missbrauchsbildern von Kindern ab, die den Beginn oder die Fortsetzung des Konsums vermeiden wollen".

Das vorgesehene Filterinstrument haben die Beteiligten auf den Namen Salus getauft, nach der römischen Göttin der Gesundheit, der Heilung und des Wohlergehens. Entwickeln soll es die britische Firma SafeToNet, die auf Cybersicherheit spezialisiert ist und laut der IWF bereits "innovative Echtzeit-Überwachungstechnologie einsetzt". Um beim Design der App zu helfen, sollen weitere Team-Mitglieder wie ein auf die Polizeiarbeit spezialisiertes Institut der Anglia Ruskin University in Großbritannien und die Abteilung für Entwicklungspsychologie der Universität Tilburg in den Niederlanden untersuchen, warum und wie Straftäter mit dem CSAM-Konsum beginnen und was ihnen helfen könnte, damit aufzuhören.

Die IWF, die sich als Europas größte Hotline zum Aufspüren und Löschen von Bildern und Videos von sexuellem Kindesmissbrauch im Internet bezeichnet, will "eine sichere Umgebung bereitstellen, um die maschinelle Lernsoftware der App zu trainieren und zu testen". Damit soll sichergestellt werden, dass die Anwendung CSAM "korrekt erkennt". Die Funktionsfähigkeit einschlägiger, auf Künstlicher Intelligenz (KI) beruhender Filter ist umstritten. Während Bürgerrechtler und Forscher skeptisch sind, schätzt die Kommission die Genauigkeit der derzeit verwendeten Scanner als gut ein: Die Fehlerquote liege teils bei 0,1 Prozent sogar der nicht gehashten, also noch nicht bekannten Inhalte. Dabei stützt sich die Brüsseler Regierungsinstitution aber auf unbelegte Angaben der US-Organisationen Thorn und Safer, die der Schauspieler Ashton Kutcher mitgegründet hat.

Salus soll laut der IWF "in Echtzeit arbeiten, um die Anzeige krimineller Inhalte zu erkennen und zu stoppen, bevor sie vom Nutzer gesehen werden". Genauere Details zur eingesetzten Technik machten die Beteiligten bislang noch nicht. In der EU tobt parallel der Streit über die Initiative der Kommission zur Chatkontrolle. Damit sollen auch Anbieter durchgängig verschlüsselter Messaging- und anderer Kommunikationsdienste wie WhatsApp, Apple, Signal und Threema über behördliche Anordnungen verpflichtet werden können, Fotos und Videos von Kindesmissbrauch in den Nachrichten ihrer Nutzer ausfindig zu machen. Dabei dürften Mitteilungen an einen Server übermittelt oder direkt auf den Endgeräten untersucht werden. Die Bundesregierung ist vor allem gegen dieses letztere "Client-Side-Scanning" (CSS), mit dem Ende-zu-Ende-Verschlüsselung unterlaufen werden könnte.

Protech wird im März starten. Sobald der Scanner einsatzbereit ist, soll eine Pilotphase in Deutschland, den Niederlanden, Belgien, Irland und dem Vereinigten Königreich anlaufen, an der mehr als 50 Fachleute und mindestens 180 Nutzer über einen Zeitraum von 11 Monaten beteiligt sind. SafeToNet wird laut der IWF während dieses Testbetriebs deren Rückmeldungen "zur weiteren Verbesserung und Anpassung der Software verwenden". Ein Teil des Projekts bestehe darin, die potenzielle Reichweite und Wirkung der "Intervention" in Europa zu evaluieren. Dabei würden Empfehlungen von Experten berücksichtigt, "wie sie als Teil von Präventionsprogrammen im Bereich der öffentlichen Gesundheit wirksam umgesetzt werden könnte".

Die Beteiligten hoffen über den Ansatz, mittelfristig "die Verfügbarkeit und Qualität von Präventionsprogrammen durch frühzeitiges Eingreifen bei denjenigen zu erhöhen, die gefährdet sind, eine erste CSAM-Straftat zu begehen". Gefahren für Opfer, erneut missbraucht zu werden, sollen ebenfalls reduziert werden. Insgesamt baue man darauf, die weltweite Nachfrage nach Missbrauchsdarstellungen sowie die Arbeitsbelastung der Strafverfolgungsbehörden zu verringern. Ella Jakubowska von der Bürgerrechtsorganisation European Digital Rights (EDRi), mahnte gegenüber dem Portal "Euractiv" an, dass "strenge Sicherheitsvorkehrungen erforderlich sind, um ein 'Ausufern' zu verhindern". Es müsse gewährleistet sein, dass die Technologie am Ende nicht für die Überwachung von Geräten durch Dritte eingesetzt werde.

(tiw)