Missbrauchsbilder per KI: Justizminister befürchtet Strafbarkeitslücke

KI-generierte Darstellungen von Kindesmissbrauch nehmen zu. Das reine Herstellen solcher Bilder könnte straflos bleiben, moniert ein Landesjustizminister.

In Pocket speichern vorlesen Druckansicht 78 Kommentare lesen

(Bild: Pikul Noorod/Shutterstock.com)

Lesezeit: 4 Min.

Vor einer Flut an Darstellungen sexuellen Kindesmissbrauchs, die sich mittlerweile mit Systemen Künstlicher Intelligenz (KI) besonders einfach erstellen lassen, warnt die Internet Watch Foundation (IWF) seit Monaten. Allein im September fand die britische Organisation in einem einzigen Darknet-Forum über 11.000 solche KI-generierten Bilder, von denen sie fast 3000 als rechtswidrig einstufte. In Deutschland ist die Verbreitung, der Erwerb und der Besitz von "kinder- oder jugendpornografischen Abbildungen" nach den Paragrafen 184b und c des Strafgesetzbuchs (StGB) zwar prinzipiell verboten – und zwar weitgehender als in vielen anderen Ländern. Trotzdem haben hiesige Rechtspolitiker eine potenzielle Strafbarkeitslücke ausgemacht.

Bislang gebe es kaum Rechtsprechung zu KI-generierten Missbrauchsdarstellungen, erklärte der Justizminister von Rheinland-Pfalz, Herbert Mertin (FDP), gegenüber dem SWR. Das sorge für Ungewissheiten: "Ein Problem könnte sein, dass das bloße Herstellen, ohne es vertreiben zu wollen, gegebenenfalls straflos bleibt", wenn KI im Spiel sei. Stellten Täter solches Material mit echten Kindern her, sei dies eindeutig strafbar. Daher habe die Justizministerkonferenz Bundesjustizminister Marco Buschmann (FDP) gebeten, eine Expertenkommission einzusetzen. Diese soll sich mit den neuen technologischen Entwicklungen und ihren rechtlichen Auswirkungen auseinandersetzen.

Grundsätzlich sind hierzulande auch fiktive Missbrauchsdarstellungen und einschlägige Texte strafrechtlich relevant. Neben realitätsnahen Zeichnungen zählen dazu auch abgewandelte Darstellungen von Comic-Formaten, Mangas und Hentais. In vielen anderen Ländern wie Japan seien solche virtuellen Abbildungen aber gar nicht vom Gesetz erfasst, erläutert die Bundesregierung regelmäßig in ihren Berichten zur Umsetzung des Prinzips "Löschen statt Sperren". Das gelte auch für sogenannte Posen-Darstellungen. Dennoch könnten das Bundeskriminalamt (BKA) und Internet-Beschwerdestellen oft "über die direkte Kontaktaufnahme mit Diensteanbietern" eine Löschung erzielen. Das Bundesjustizministerium geht davon aus, dass auch "regelmäßig mittels KI generierte kinder- und jugendpornografische Darstellungen" strafbar sind. Würden rechtswidrige Inhalte über Online-Plattformen im In- und Ausland verbreitet, greife der Digital Services Act (DSA).

Dem SWR zufolge werden etwa über Instagram unter bestimmten Hashtags tausende künstlich generierte Bilder von Kindern und Jugendlichen verbreitet. Viele würden in knapper Unterwäsche, Badebekleidung oder sexualisierten Posen dargestellt. Einige Accounts, die solche Bilder teilen, verlinkten auf Handels-, Crowdfunding- oder Community-Plattformen wie eine japanische Webseite. Letztere sei auch dem BKA bekannt und diene den User-Kommentaren zufolge Menschen mit pädophiler Störung zur Vernetzung. Mehrere Nutzer verlinkten von dort auf andere Angebote, die echte Abbildungen von Kindesmissbrauch enthalte. Das BKA erfasst Fälle von KI-generierter Pornografie bislang nicht gesondert, verweist aber auf einen allgemeinen Anstieg bei Missbrauchsdarstellungen 2022. Künstliche Abbildungen seien kaum von echten zu unterscheiden. Reale Fotos dienten zudem teils als Basis für KI-Bilder.

Forscher entdeckten jüngst im Laion-5B-Datensatz 1679 Links zu von ihnen als illegal eingestuften Missbrauchsaufnahmen. Mit dem Open-Source-Trainingsset arbeitet etwa Stablity AI, der Entwickler des KI-Bildgenerators Stable Diffusion. Die hinter Laion stehende Stiftung teilte daraufhin mit, die Datensätze seien aus dem Web entfernt worden. Stablity AI beteuerte, beim Training habe man sich auf einen auf Sicherheit ausgelegten Teil des Datensatzes konzentriert. Berichten zufolge kursiert im Darknet aber eine alte Version des Modells, mit dem sich einfach Missbrauchsmaterial generieren lässt. Oberstaatsanwalt Markus Hartmann von der Zentral- und Ansprechstelle Cybercrime (ZAC) in NRW sorgt sich, dass Ermittler KI-generierte Bilder fälschlicherweise als neuen tatsächlichen Missbrauch bewerten und dadurch ressourcentechnisch an ihre Grenzen kommen. Sexualmediziner warnen, dass auch "künstliche" Bilder bei Pädophilen zu Wahrnehmungsverzerrungen führen könnten.

(olb)