KI-generierte Kinderpornografie stellt Ermittler vor neue Herausforderungen

Die Bundesregierung rechnet mit steigenden Fallzahlen bei KI-generierter Kinderpornografie.​ Wie viel Material derzeit im Umlauf ist, sei aktuell noch unklar.

In Pocket speichern vorlesen Druckansicht 216 Kommentare lesen
Ein Teddybär liegt auf dem Boden vor verschwommenen Hintergrund in Schwarz-Weiß

Die Bundesregierung rechnet damit, dass die Zahl kinderpornografischer Inhalte, die durch KI generiert sind, steigen wird.

(Bild: Ann in the uk/Shutterstock.com)

Lesezeit: 4 Min.

In einer Antwort auf eine kleine Anfrage der CDU/CSU-Bundestagsfraktion gibt die Bundesregierung Einblick in ihre Einschätzungen und vorliegenden Zahlen zu KI-generierten Darstellungen sexuellen Kindesmissbrauchs. Zwar sei bekannt, dass es das Phänomen gebe und die Zahl steigen würde. Allerdings gebe es zum Gesamtumfang derzeit keine validen Zahlen, antwortet die Bundesregierung.

Ein Indiz wären die vom National Center for Missing and Exploited Children (NCMEC) gemeldeten Inhalte: etwa 4700 Reports zu KI-generierten Missbrauchsdarstellungen habe die private US-Institution mitgeteilt. NCMEC wird wesentlich von privaten Plattformbetreibern wie Meta oder Google mit Informationen versorgt. Die großen KI-Anbieter würden versuchen, mit Sicherheitsmechanismen die Generierung zu unterbinden – allerdings gebe es Umgehungsstrategien und Anleitungen zur Umgehung für diese sogenannten Ethik-Filter im Netz.

Die CDU-Bundestagsabgeordnete Catarina dos Santos-Wintz sieht ihre Befürchtungen bestätigt, dass Künstliche Intelligenz zunehmend missbraucht werde, um kinder- und jugendpornografisches Foto- und Filmmaterial zu erstellen. "Insbesondere Open-Source-Software verfügt oftmals nicht über sogenannte Ethik-Filter, um die Erstellung strafrechtlich relevanten Materials zu verhindern." Sie fordert daher auch von Open-Source-KI den Einsatz solcher Filter, um die Erstellung derartiger Inhalte zu verhindern.

Laut Bundesregierung gibt es dazu allerdings keine direkte rechtliche Verpflichtung für die KI-Betreiber und -Entwickler, derartige Materialerstellung von vornherein zu verhindern. Verbreitung und Besitz sowie das Verschaffen von wirklichkeitsnahen Darstellungen sexuellen Missbrauchs stehen demnach in Deutschland unter Strafe, die Erstellung selbst nicht. Die Gesetzeslage zielt hier also auf den Täter ab, der eine KI für diese Zwecke instrumentalisiert. Wie allerdings ein Anbieter verbotene Inhalte erstellen will, ohne zumindest vorübergehend auch in deren Besitz zu sein, dazu lässt sich die Bundesregierung in ihrer Antwort nicht ein. Strafbarkeitslücken im deutschen Recht sieht sie jedenfalls derzeit keine, gibt aber an, dass sie laufend prüfe, "ob aufgrund aktueller und insbesondere auch neuer technologischer Entwicklungen gesetzgeberischer Handlungsbedarf besteht."

Als weiteres Problem identifiziert die CDU-Politikerin dos Santos-Wintz Unterschiede in der Rechtslage. Insbesondere die japanische Rechtslage unterscheidet sich in Bezug auf die Strafbarkeit maßgeblich – was in der internationalen Verfügbarkeit von Inhalten Probleme verursacht. "Der Bundesregierung sind verschiedene japanische Webseiten im Zusammenhang mit von KI generierter (Kinder- und Jugend-) Pornografie bekannt. Nach dortiger Rechtslage sind diese Inhalte, im Gegensatz zu Deutschland, allerdings nicht strafbar", heißt es in der Antwort der Bundesregierung.

Die KI-Generierung von Missbrauchsbildern und -videos stellt die Ermittler allerdings vor eine ganz neue Art von Herausforderung: Geht es bei realen Opfern nicht zuletzt um den Opferschutz und das Auffinden dieser, um sie vor weiteren Taten zu schützen, entfällt der Teil bei KI-generierten Inhalten oft – sofern diese nicht auf Basis realer Bilder erstellt wurden. Die Komplexität nimmt also weiter zu. Angesichts des eh schon enormen Meldeaufkommens, dem auch die Ermittlungsbehörden mithilfe von KI zu Leibe rücken, wäre eine Kennzeichnungspflicht für KI-generierte Inhalte, wie in der EU-KI-Verordnung vorgesehen, möglicherweise arbeitserleichternd. Allerdings sei das vor allem eine Hoffnung, meint dos Santos-Wintz: "Strafbares Material wird vermutlich in vielen Fällen nicht gekennzeichnet werden."

Welchen Einfluss die KI-Möglichkeiten auf Täter und Personen mit entsprechender Neigung haben, ist dabei unbekannt. Es lägen "keine evidenzbasierten Studien vor, die sich konkret mit dieser Fragestellung befassen", so die Antwort der Bundesregierung.

(are)