Soziale Medien: Kontrolleure drängen auf Einsatz von KI zum Jugendschutz

Jugendschutz.net hat Mechanismen für maschinelles Lernen etwa gegen Pornografie und Gewalt getestet und will soziale Netze in die Pflicht nehmen.

In Pocket speichern vorlesen Druckansicht 83 Kommentare lesen
Soziale Medien: Kontrolleure drängen auf Einsatz von KI zum Jugendschutz

(Bild: Rido/Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Betreiber sozialer Netzwerke wie Facebook mit Instagram oder YouTube setzen bereits Verfahren der Künstlichen Intelligenz (KI) ein, um etwa die Verbreitung von sexuellen Missbrauchsdarstellungen von Kindern, Rachepornos oder urheberrechtlich geschützten Materials zu verhindern oder durch Upload-Filter von vornherein zu blockieren. Jugendschützer wollen nun erreichen, dass die Anbieter solche automatisierten Erkennungsmechanismen auch breit verwenden, damit Kinder und Jugendliche für sie ungeeignete Inhalte nicht sehen.

Dienstebetreiber und Programmierer "haben die Technik in der Hand, sie sollen daher Lösungen entwickeln", erklärte Wolfgang Kreißig, Vorsitzender der Kommission für Jugendmedienschutz (KJM), am Donnerstag in Berlin. Traditionelle Ansätze wie Zeitschranken, Altersverifikationssysteme oder Ausweischecks würden von vielen Online-Unternehmen als Hemmschwelle angesehen. Jugendschutzprogramme basierten nur auf Windows und bildeten so die Lebenswirklichkeit der jungen Smartphone-Generation nicht mehr ab. Es sei daher naheliegend, auch für den allgemeinen Jugendschutz im Internet auf KI zu setzen und die Anbieter hier gegebenenfalls "in die Pflicht zu nehmen".

Eine Probe aufs Exempel hat jugendschutz.net bereits gemacht und dafür drei Systeme mit Fähigkeiten maschinellen Lernens getestet in Bezug auf Einzelinhalte wie Texte, Bilder oder Video. Auf den Zahn fühlten Experten des Kompetenzzentrums von Bund und Ländern etwa der Pogrammbibliothek fastText von Facebook, die als Open Source frei verfügbar ist. Dieses neuronale Netz habe man mit rund 6000 Einzelseiten aus dem Nachrichtenbereich des eigenen Testbettes trainiert, erläuterte Andreas Marx, Referent für Technischen Jugendmedienschutz bei jugendschutz.net.

Er sei überrascht gewesen von den so "ad-hoc erreichten hohen Erkennungsraten", bekundete der Techniker. Diese hätten in der Kategorie Pornografie 83 bis 90 Prozent, bei Gewalt 77 und Extremismus 78 Prozent betragen. Eine extremistische Propagandaseite etwa werde "sofort als Hass" eingestuft, brachte er ein Beispiel. Noch besser sei die Leistung des bereits vortrainierten Modells TensorFlow alias Inception von Google zur Bilderkennung: Hier liege die Treffergenauigkeit bei Selbstverletzungen bei 95 Prozent, bei davon schwer abzugrenzenden Tattoos bei 94 Prozent sowie bei Gewalt Alltagsdarstellungen jeweils bei 88 Prozent. Bei einer Demo mit 23 Bildern ratterten diese in Sekundenschnelle durch und es kam nur zu einem Fehler, bei dem eine Körperverschönerung als Hautritzen eingeschätzt wurde.

Im Bereich Foto & Co. experimentierten die Jugendschützer noch mit dem kostenpflichtigen Webdienst Vision API von Google, die der Suchmaschinenkonzern auch für die eigene Funktion "SafeSearch" nutzt. Pornografie erkannte diese fertige Cloud-Anwendung demnach schier zu 100 Prozent, Tattoos zu 93 Prozent, Gewalt dagegen nur noch mit einer Genauigkeit von 76 und Selbstverletzung zu 61 Prozent. Trotz dieser Schwäche erlaubt die Schnittstelle laut Marx aber eine gute Kontextsuche, die dann als erstes bei einem Bild eines geritzten Arms eine Selbstverletzung diagnostiziere.

TensorFlow im Einsatz

(Bild: heise online/Stefan Krempl)

"Wir sehen hier ein großes Potenzial", fasste der Praktiker die Ergebnisse zusammen, die auch in einen von jugendschutz.net veröffentlichten Lagebericht eingeflossen sind. Die vorhandenen Modelle müssten eigentlich nur noch zusammengeführt werden, um beeinträchtigende Inhalte zu identifizieren. Grenzen der KI seien dabei, dass die Erkennungsleistung von der Wahl des Trainingsmaterials abhängig sei und es sich bei den eingesetzten Algorithmen um intransparente Blackbox-Verfahren handle.

Stefan Glaser, der Leiter der Bund-Länder-Stelle, schwebt eine Schaltstelle vor, bei der Eltern einschlägige Funktionen per Knopfdruck durch eine Altersangabe für ihre Heranwachsenden aktivieren könnten. Parallel sollten Inhalte durch den Dienst mithilfe von KI oder die Nutzer in eigener, keine Expertise benötigenden Einschätzung klassifiziert und mit Labeln versehen werden. Um zu letzterem einen Anreiz zu bieten, sei es vorstellbar, allen Content zunächst standardmäßig erst auf die Altersbegrenzung 12 zu stellen. Der Betreiber stelle dann automatisch den sicheren Modus ein, wenn er die Info bekomme, dass ein Kind oder Jugendlicher seinen Dienst nutze.

Bei dem Einsatz der "spannenden Schnittstelle" gebe es zwar noch "große Herausforderungen", räumte KJM-Chef Kreißig ein. Es sei aber an der Zeit, den Dialog mit allen Beteiligten zu führen. Anbieter seien schon jetzt über den Jugendmedienschutz-Staatsvertrag (JMStV) verpflichtet, Schutzbedürftigen etwa Selbstverletzungen vorzuenthalten, da diese entwicklungsbeeinträchtigend wirkten. Die Länder machten sich daher Gedanken, ob sie auch weitere Akteure wie Hersteller von Betriebssystemen in die Verantwortung nehmen könnten. Vom Bund her solle es bis Ende des Jahres ebenfalls einen Entwurf für eine Jugendschutzreform geben. (mho)