Kindesmissbrauch stoppen: Mit Algorithmen illegale Bilder erkennen

Perzeptive Hashes wie Apples NeuralHash werden schon lange zur Erkennung von Material aus Kindesmissbrauch genutzt. Ein technischer Überblick.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen

(Bild: Composing | Quellen: Nichizhenova Elena, WALL-E | stock.adobe.com)

Lesezeit: 18 Min.
Inhaltsverzeichnis

Um sexuellen Missbrauch von Kindern zu bekämpfen, nutzen Strafverfolgungsbehörden, Kinderschutzorganisationen und Cloud-Provider verschiedene technische Systeme. Ein zentrales Werkzeug ist die automatische Erkennung von Bild- und Videomaterial, das solche Handlungen zeigt (Child Sexual Abuse Material, CSAM). Die manuelle Auswertung von Bildern und Videos durch Menschen kommt in vielen Fällen schon aufgrund der schieren Menge von zu inspizierendem Material nicht infrage. Auch unter den Gesichtspunkten Datenschutz und Privatsphäre ist so eine (anlasslose) manuelle Sichtung unerwünscht.

Datenverarbeitung zum Schutz vor Kindesmissbrauch

Bei der automatisierten Suche nach CSAM nutzt man unter anderem maschinelle Bilderkennung auf Basis tiefer neuronaler Netze. Also dieselben Verfahren, die sich beispielsweise bereits bei der Bildersuche im Internet etabliert haben und die erkennen sollen, ob auf einem Bild eine Katze zu sehen ist. Solche Systeme weisen jedoch erhebliche Probleme und Fehlerraten auf, weshalb sie im Kontext von CSAM eher als Vorfilter vor einer manuellen Inspektion dienen. Sie eignen sich beispielsweise für Ermittlungsbehörden, um sichergestellte Datenbestände schneller zu sichten.

Zur massenhaften präventiven Analyse von Bildern eignet sich KI-gestützte Bilderkennung hingegen weniger. Denn bei genügend Eingabedaten führen auch eher geringe Fehlerraten zu enormen Mengen an falsch-positiven Treffern. Um diese auszusortieren, wären sehr viele menschliche Nachprüfer erforderlich, die die Privatsphäre der Nutzer verletzen würden – noch dazu bei Bildern, die legitime, aber oftmals dennoch intime Bereiche ihres Lebens abbilden.

Das war die Leseprobe unseres heise-Plus-Artikels "Kindesmissbrauch stoppen: Mit Algorithmen illegale Bilder erkennen". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.