Hate Speech: KI "BoTox" soll Hass im Netz automatisiert melden​

Eine in Darmstadt entwickelte Software soll strafrechtlich relevante Hasskommentare erkennen, auswerten und direkt an eine öffentliche Meldestelle weiterleiten.

In Pocket speichern vorlesen Druckansicht 60 Kommentare lesen
Blue,Neon,Glowing,Weight,Balance,Scale,Holding,Red,Alphabet,Ai

(Bild: Shutterstock)

Lesezeit: 3 Min.

Ein Team der Hochschule Darmstadt arbeitet seit August mit dem Forschungsprojekt BoTox (Bot- und Kontexterkennung im Umfeld von Hasskommentaren) an einem System, das mithilfe Künstlicher Intelligenz sogenannte "Hate Speech" im Internet finden soll. BoTox soll automatisch erkennen, wann Social-Media-Postings und Kommunikationsverläufe Aspekte wie Beleidigung, Volksverhetzung oder Gewaltandrohungen erfüllen.

"Wir haben zwölf unterschiedliche Straftatbestände herausgearbeitet", erläutert die Computerlinguistin Melanie Siegel. Die geplante Software soll darunter fallende Äußerungen mithilfe von maschinellem Lernen und Künstlicher Intelligenz (KI) nicht nur automatisiert identifizieren, sondern auch auswerten, vorklassifizieren und an die Meldestelle HessenGegenHetze weiterleiten können.

Juristische Kenntnisse und Grundlagen steuert der Digitalforensiker Dirk Labudde von der Hochschule Fresenius in Idstein bei. Zugleich soll BoTox unterscheiden können, ob ein Bot oder ein Mensch einen Hasskommentar verfasst hat. In Zeiten von generativer KI wie ChatGPT sei dies keine leichte Aufgabe, weiß die Professorin. Ethische Leitplanken der Chatbots ließen sich mit den richtigen Fragen und Aufgaben umgehen.

Über Kontextanalysen will das Team etwa auch herausfinden, ob es sinnvoller ist, Trolle nicht zu füttern oder bewusst toxische Aussagen zu kritisieren. Um die Software auf die automatische Erkennung von Hassrede und all diese Aspekte zu trainieren, sind große Datenmengen nötig. Die Wissenschaftler greifen dafür auf Schnittstellen etwa von Telegram, Facebook und YouTube zurück.

X ist im Gegensatz zum Vorläuferprojekt DeTox nicht mehr dabei: Nach der Übernahme von Twitter durch Elon Musk habe die Plattform Forschungslizenzen derart verteuert, moniert Siegel, "dass sie sich keiner mehr leisten kann". Das bis 2025 laufende Projekt wird vom hessischen Innenministerium mit 292.000 Euro gefördert.

Bereits vorhandene Trainingsdaten auch von Twitter nutzt das Team aber weiter. Zwar spiegelten sich aktuellere Themen wie die Corona-Pandemie oder der Krieg in der Ukraine darin noch nicht wider, führt die Forscherin aus. "Aber wir arbeiten daran, die Daten übertragbar zu machen." Bei manchen sei das leicht: "Zu Kanzlerin Merkel etwa gab es eine ähnliche Wortwahl wie heute zur Ampel." Sonst geht es meist um Antisemitismus, Holocaust-Leugnung, Ausländerfeindlichkeit, Migration, Rassismus oder Diskriminierung von Minderheiten.

Die Anforderungen an das Übungsmaterial seien hoch, berichtet Siegel. Hate Speech werde deutlich häufiger von Männern als von Frauen gepostet. Solche Realitäten müssten die Datensätze wiedergeben. Wichtig sei ferner die Bewertungsgrundlage. Drei studentische Hilfskräfte stuften die Kommentare danach ein, ob es sich um eine extreme Meinung, eine hinzunehmende Beleidigung oder eine strafrechtlich relevante Äußerung sei. Im Anschluss werde verglichen, ob die Bewertungen bei Mensch und Maschine ähnlich ausfielen.

(vbr)