Mit Künstlicher Intelligenz gegen Kinderpornografie: "eine Frage der Ressourcen"

Kinderpornografie im Internet nimmt immer mehr zu. Zur Bekämfung setzen Niedersachsen und weitere Bundesländer auch auf künstliche Intelligenz.

In Pocket speichern vorlesen Druckansicht 46 Kommentare lesen
Mit Künstlicher Intelligenz gegen Kinderpornografie: "eine Frage der Ressourcen"
Lesezeit: 7 Min.
Von
  • Thomas Strünkelnberg
  • dpa

Es war noch nie so leicht, an Kinderpornografie zu kommen; es wird für die Täter aber auch wegen verschärften Ermittlungen immer gefährlicher, da die Strafverfolger ihnen immer besser auf die Spur kommen. Einige Bundesländer wollen die Ermittlungen zudem mit Hilfe künstlicher Intelligenz beschleunigen. 13 Bundesländer hätten Interesse an einem niedersächsischen System geäußert, sagte der Präsident des Landeskriminalamts Niedersachsen, Friedo de Vries. Acht Länder setzten das System schon ein. Ziel sei, nicht nur Abbildungen schweren sexuellen Kindesmissbrauchs zu verhindern, sondern auch die Missbrauchsfälle.

Künstliche Intelligenz soll helfen, Kinderpornografie aufzudecken – wie weit sind Sie gekommen?

Friedo de Vries: Wir sind sehr zufrieden, auch wenn wir wussten, dass wir uns auf einen langen Weg machen. Zu Beginn war die Erwartungshaltung, dass ab sofort alles ganz einfach ist – wir sind aber noch in der Entwicklungsphase. Wir wussten, dass wir kein hundertprozentiges Instrument ausrollen, aber wir sind an einem Punkt, wo wir ausrollen können. Das Interesse ist bundesweit groß, 13 Bundesländer sind interessiert, acht Bundesländer – einschließlich Niedersachsen – haben die Software bereits. Die künstliche Intelligenz leistet heute schon die Kategorisierung sichergestellter Dateien, seien es Fotos oder Videos, und unterscheidet zwischen pornografisch und nicht pornografisch. Pornografisch heißt aber nicht automatisch strafbar. Das muss man sich anschauen. Und weil wir in der Entwicklungsphase sind, muss ein Sachbearbeiter auch die Bilder anschauen, die als nicht pornografisch eingestuft sind. So trainieren wir unser Netz.

Friedo de Vries, 56, ist seit 2018 Präsident des Landeskriminalamts Niedersachsen. Zuvor war er Polizeivizepräsident der Polizeidirektion Osnabrück, seit 1981 arbeitet er als Polizeibeamter für das Land Niedersachsen.

(Bild: Axel Hindemith, Lizenz CC BY-SA 3.0)

An wie vielen Orten ist die Software denn im Land im Einsatz?

de Vries: Wir bekommen Rückmeldung aus 30 Inspektionen in Niedersachsen, aber auch aus anderen Bundesländern. Das ist ein ganz anderer Fundus als vorher im Testlabor, mit dem wir das Netz weiter entwickeln können. Allerdings ist die Annahme etwas realitätsfern, dass eine Maschine aus einer Million Bildern kein einziges falsch einordnet. Wünschenswert wären natürlich 100 Prozent Trefferquote, aber ob die Maschine das jemals wird leisten können? Wir entwickeln uns stetig weiter.

Sehen Sie eine Chance, das Problem Kinderpornografie mittels künstlicher Intelligenz in den Griff zu bekommen?

de Vries: Die sexualisierte Gewalt an Kindern sicherlich nicht. Dazu braucht es komplexere Ansätze. Aber in der Bearbeitung der Straftaten ist es die einzige Option, die wir haben. Wir stellen einen enormen Anstieg bei Verbreitung und Besitz von kinderpornografischem Material fest. Dazu dürfte auch beigetragen haben, dass Jugendliche in Chatgruppen Bilder austauschen, die man als pornografisch einstufen muss. Vor allem aber ist das Teilen von Millionen von Bildern einfach geworden in der digitalen Welt. In den USA hat man mit Netzanbietern und Suchmaschinen Vereinbarungen, kinderpornografisches Material an die Sicherheitsbehörden weiterzugeben. So kommen wir auch in Besitz dieser Daten – über das BKA. Die Menge ist in den letzten Jahren exorbitant gestiegen, das waren mal 12.000, dann 30.000, inzwischen sind es über 100.000 Hinweise. Die Kurve geht steil nach oben.

Was tun Sie also?

de Vries: Wir straffen unsere Prozesse, die Bilder auszuwerten. Dabei ist die künstliche Intelligenz der entscheidende Punkt. Erfahrungsgemäß sind bis zu 75 Prozent der sichergestellten Bilder nicht relevant, das sind Urlaubsbilder vom Eiffelturm oder ähnliches. Bei einem Viertel aber sagen wir: Die sind strafrechtlich relevant. Nur wenn wir uns von vorherein auf dieses Material konzentrieren, können wir erfolgreicher und schneller werden. Schwer – auch für die künstliche Intelligenz – ist dann die Kategorisierung: Ist der abgebildete Mensch schon 14, ist er 12 oder 16? Das ist wichtig für die Strafbarkeit. Das ist eine besondere Herausforderung, hier muss die Trefferquote der Maschine noch besser werden.

Laufen Sie Gefahr, Bilder zu übersehen?

de Vries: Ich denke, es ist realitätsfern, anzunehmen, dass wir jedes der Millionen Bilder richtig erkennen und einordnen. Letztlich wird man akzeptieren müssen, vielleicht auch mal ein Bild nicht gesehen zu haben. Selbst bei allergrößter Sorgfalt. Es stellt sich die Frage der Ressourcen – am Ende schauen die Mitarbeiterinnen und Mitarbeiter allein in einem Verfahren monatelang Bilder an und bewerten sie. Die Bewertung durch den Menschen ist auch weiterhin unstrittig und zwingend, dennoch brauchen wir zur Selektierung die Unterstützung der künstlichen Intelligenz. Zudem geht es mir darum, unsere Ressourcen in die Ermittlungen in den entsprechenden Foren zu steuern und nicht nur sichergestelltes Material auszuwerten. Im Netz bewegen sich täglich, auch jetzt im Moment, Menschen, die sexuelle Kontakte zu Kindern anbahnen wollen. In diese Szene möchte ich rein, aktuellen Missbrauch verhindern.

Wie wollen Sie Missbrauch verhindern?

de Vries: Inzwischen ist der Einsatz von computergenerierten Bildern möglich. Wir wollen dies nutzen, um mit verdeckten Ermittlungen die anonymen Täter dingfest zu machen. Wir wollen mehr hin zu den Tätern, die aktiv handeln, die aktuell Kinder missbrauchen und diesen unendliches Leid zufügen. Vor dem Hintergrund der bekannten Fälle Lügde, Münster oder Bergisch-Gladbach: Da sind Menschen aus dem sozialen Nahbereich – Väter, teils Mütter, der Onkel, Bekannte, die ihre Kinder angeboten haben. Letztlich geht es auch um die Frage der Haltung. Es ist nicht nur ein lästiges Thema "der anderen". Es geht um schwerste Straftaten zum Nachteil der Schwächsten, Verbrechen an Kindern.

Was sagen Sie zu einer Strafverschärfung?

de Vries: Ich begrüße ausdrücklich die aktuelle Diskussion um Strafverschärfung. Auch wenn dieser Ansatz das Elend nicht allein beseitigen wird, führt es doch zu einem achtsameren Umgang der Gesellschaft mit dem Thema. Und eines ist auch klar: Wir als Polizei werden das Problem nicht alleine lösen können. Die vermehrte Aufmerksamkeit wird helfen, das riesige Dunkelfeld von etwa 95 Prozent aufzuhellen. Die Fallzahlen werden weiter steigen. Ein weiteres Argument, warum es ohne Hilfe von Künstlicher Intelligenz nicht gehen wird.

Wie viele Menschen beschäftigen sich mit dem Komplex?

de Vries: Es ist im dreistelligen Bereich in Niedersachsen. In 30 Inspektionen im Land haben wir Mitarbeiter, die sich um den Komplex kümmern. Im LKA haben wir eine Ansprechstelle, Sachbearbeitung und eine koordinierende Funktion, außerdem haben wir eine Expertengruppe eingesetzt, um die Prozesse schneller zu machen. Hilfreich wäre es, wenn wir eine Plattform für Niedersachsen – oder irgendwann bundesweit – hätten, wo sichergestellte Dateien abgelegt und von der Software analysiert werden können.

Können Sie schon für 2020 prognostizieren, wie stark die Fallzahlen zunehmen werden?

de Vries: Nein, für 2020 haben wir noch keine Prognose. Aber wir haben extreme Steigerungsraten gehabt. Von 2018 auf 2019 hatten wir einen Anstieg um 90 Prozent – nur in Niedersachsen. Und es wird weiter steigen. Im kommenden Jahr wird das Netzwerkdurchsetzungsgesetz greifen, dann werden die Provider in Deutschland auch angewiesen sein, die Daten ans BKA zu leiten.

Müssen Sie die zuständigen Polizeibeamten therapeutisch begleiten? Die Arbeit dürfte belastend sein.

de Vries: Therapeutisch ist eine Spur zu viel, aber es gibt Angebote der Polizeiseelsorge oder unserer Beratungsstellen. Sachbearbeiter können in Gruppen über Dinge sprechen, die sie belasten. Allerdings stellen wir darauf ab, dass die Kollegen das freiwillig machen und die Hand heben, wenn es ihnen zu viel wird. Niemand wird gegen seinen – oder ihren – Willen verpflichtet, das über Jahre zu machen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

(jk)