KI-Werkzeug: Medienanstalten kämpfen "ganzheitlich" gegen Hass und Pornos

Seit Anfang April nutzen 13 von 14 Landesmedienanstalten eine KI-Anwendung aus NRW, um die Aufsicht über das Internet zu beschleunigen und zu verschärfen.

In Pocket speichern vorlesen Druckansicht 173 Kommentare lesen

(Bild: Shutterstock/Empirephotostock)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Die Medienaufseher der Bundesländer haben in den vergangenen zwei Jahren technisch aufgerüstet und setzen nun gemeinsam auf ein Instrument auf Basis von Künstlicher Intelligenz (KI), um automatisiert nach potenziellen Rechtsverstößen im Bereich Jugendmedienschutz im Internet zu suchen. Das Werkzeug soll helfen, Nutzer "vor der unmittelbaren Konfrontation mit Gewaltdarstellungen, Hardcore-Pornografie und Hassrede" zu schützen.

Seit Anfang April verwendeten 13 von 14 Landesmedienanstalten in Deutschland das neue "KI-Tool", teilte die federführende Landesanstalt für Medien Nordrhein-Westfalen (LfM NRW) am Donnerstag mit. In Zusammenarbeit mit den Aufsichtsbehörden in den anderen Bundesländern sei dieses technische Hilfsmittel in den vergangenen Monaten realisiert und jetzt deutschlandweit verfügbar gemacht worden.

Eine Sprecherin der LfM NRW erläuterte gegenüber heise online, dass die vergleichsweise kleine Bremische Landesmedienanstalt als einzige der einschlägigen Behörden keinen eigenen Zugang zu der Plattform habe. Sie werde aber über die LfM NRW "mitversorgt", sodass eine bundesweite Abdeckung gegeben sei.

Das Instrument "beschleunigt, vereinfacht und verbessert" laut der LfM NRW die Medienaufsicht im Netz. Durch eine automatisierte Kontrolle von Social-Media-Plattformen wie Facebook, Instagram, TikTok, Telegram und Twitter sowie Webseiten würden potenzielle Rechtsverletzungen identifiziert und zur Prüfung durch die Mitarbeiter der Aufsichtsinstanzen vorbereitet. So lasse sich auch häuserübergreifend "der große Berg an Verstößen bearbeiten, bei denen uns die Herkunft eines Hass-Postings oder Gewalt-Videos nicht bekannt ist". Strafrechtlich relevante Fälle werden im Anschluss insbesondere im Bereich des politischen Extremismus an die Staatsanwaltschaft weitergegeben.

Mit dem gemeinsamen Vorgehen "beweist der Föderalismus seine Leistungsfähigkeit", betonte Tobias Schmid, Direktor der LfM NRW, bei der Präsentation der Technik. "Es sind die deutschen Medienanstalten, die als erste ganzheitlich den Kampf gegen Hass und Jugendgefährdung im Netz aufnehmen können."

Für Schmid, der etwa auch den Kampf gegen Porno-Plattformen ohne rechtsgültige Altersverifikation wie xHamster mit Websperren vorantreibt, steht außer Frage, dass die Regulierung des Internets auch aus NRW heraus Sinn macht. Der Einsatz Künstlicher Intelligenz ermögliche eine Form von Medienaufsicht, "die menschliche Expertise und höchste technologische Standards vereint". Zugleich werde dabei die Meinungsfreiheit im Netz gewährleistet. Denn dies könne "nur gelingen, wenn wir Regeln zu ihrem Schutz haben und durchsetzen".

Nach einer Machbarkeitsprüfung legte die LfM NRW Ende 2020 in Zusammenarbeit mit der Firma Condat einen ersten Prototyp vor. Seitdem wird das KI-Tool in Nordrhein-Westfalen eingesetzt. Schon jetzt werden laut der federführenden Behörde täglich mehr als 10.000 Seiten automatisch auf Rechtsverstöße geprüft. In der Konsequenz habe die Zahl der Strafanzeigen der Medienanstalt im Vergleich zu früheren ähnlichen Bearbeitungszeiträumen verdoppelt werden können.

Die Trefferquote des Instruments liegt den Entwicklern zufolge im Bereich Pornografie derzeit bei 94 Prozent mit steigender Tendenz, weil dank des Feedbacks der Kollegen "täglich die automatisierte Suchpraxis verbessert" werde. Die zugrundeliegende KI könne dynamisch an die Anforderungen angepasst werden, etwa durch die Integration neuer Webseiten und Angebote oder die Anpassung von Verstoß- und Aufsichtskategorien. Das Werkzeug lerne "jeden Tag und bei jeder Nutzung" und bleibe so "immer aktuell".

Der LfM NRW zufolge gibt es auch aus dem europäischen Ausland bereits erste Anfragen, sodass der neue Ansatz bald zu "einer grenzüberschreitenden Rechtsdurchsetzung" beitragen könnte. Schützen lasse sich damit ferner die psychische Gesundheit von Mitarbeitern, "die unvermittelt auf diese Inhalte stoßen". So sei es möglich, "potenzielle Verstöße nach Kategorien geordnet anzeigen zu lassen und visuelle Inhalte zunächst unscharf darzustellen". In den Ohren von Kritikern wie Medienanwälten klingt das Vorgehen dagegen nach "Big Brother".

(mho)