Hass im Internet: Software soll Fahndern bei Schnellerkennung helfen

Hass und Hetze sind im Internet Alltag. Eine Software soll hessischen Ermittlern helfen, gemeldete Verdachtsfälle schnell zu priorisieren.

In Pocket speichern vorlesen Druckansicht 47 Kommentare lesen

(Bild: Shutterstock)

Lesezeit: 4 Min.
Von
  • Oliver Pietschmann
  • dpa
Inhaltsverzeichnis

"Toxizität", "Hatespeech", "Extremismus", "Gefahr" steht auf dem Computermonitor von Melanie Siegel. Mit einem Forschungsprojekt in Zusammenarbeit mit dem Fraunhofer-Institut für Sichere Informationstechnologie (Fraunhofer SIT) will die Professorin für Informationswissenschaft an der Hochschule Darmstadt künftig Ermittlern unter die Arme greifen. Die Forscher erstellen eine Software, die mit Methoden der Künstlichen Intelligenz Hasskommentare im Netz schneller erkennen soll. Im Auftrag des hessischen Innenministeriums soll das Programm potenzielle Gefahren und strafrechtsrelevante Tweets schneller klassifizieren. "Das, was wir hier in dem Projekt untersuchen, sind Hasskommentare", sagt Siegel.

Bedrohung von Amtsträgern, Verhöhnung von Gewaltopfern oder der pure Antisemitismus: Blanker Hass und Hetze auch mit strafrechtlicher Relevanz sind längst Alltag im Internet. In Hessen soll bei Ermittlern ab Mitte des Jahres die neue Software bei der schnelleren Einordnung der Relevanz gemeldeter Hasskommentare im Netz helfen und im Fall akuter Gefahr auch warnen. Nach 18 Monaten läuft im Juni das Forschungsprojekt "Detektion von Toxizität und Aggression in Postings und Kommentaren im Netz" – kurz Detox – aus.

Bei einer vom Innenministerium vor zwei Jahren als Reaktion auf die Ermordung des ehemaligen Kasseler Regierungspräsidenten Walter Lübcke im Sommer 2019 geschaffenen Meldestelle "Hessen gegen Hetze" können Bürger verdächtige Tweets melden. Bislang muss dies von einem Mitarbeiterteam ausgewertet werden. Das soll sich mit der neuen Software ändern. "Es geht darum, dass die Maschine alles, was gemeldet wird, auch gleich verarbeitet. Das geht dann auch schneller", sagt Siegel. Das heiße nicht, dass dann gleich ein Strafverfahren eingeleitet werde. "Im Prinzip geht es um eine Hilfestellung, die schon mal klassifiziert, und dann damit weitergearbeitet werden kann." Es sei nicht angedacht, dass die Software selbstständig Portale durchsucht.

Die Funktionsweise: "Man versucht, eine bestimmte Kombination von Wörtern automatisch zuzuordnen und zu sagen, das ist jetzt toxisch", sagt Siegel. Wichtig seien dafür richtig gute Daten. Die kämen derzeit vom Innenministerium und seien teils auch selbst ausgesucht. Bis Ende März solle der komplette Datensatz mit rund 10.000 Einträgen stehen, die von sechs Studenten eingetragen werden. "Auf Basis dieser Daten kann die Maschine auch automatisch lernen und dann neue Daten auch automatisch klassifizieren. Das ist die Idee."

Man müsse aber auch permanent Daten einstellen und pflegen, da ja auch die Themen wechseln, zum Beispiel von Kommentaren über Flüchtlinge hin zu Gegnern von Impfungen und Corona-Maßnahmen hin möglicherweise auch zu Auswirkungen des russischen Angriffs auf die Ukraine. Hier gebe es bislang aber eher "Fake News". "Das System wird nie auslernen. Sprache ist unheimlich kreativ, Sprache ist sehr lebendig", sagt Siegel.

Die Liste strafrechtlich relevanter Inhalte, nach denen die Software suchen soll, ist lang. Sie reicht von Propaganda oder Kennzeichen verfassungsfeindlicher Organisation, Aufforderung zu Straftaten, Volksverhetzung, Billigung von Straftaten, Beleidigung oder Verleumdung gegen politische Einstellungen, sexuelle Identitäten, Nationalitäten, Religionszugehörigkeit oder auch Menschen anderer Hautfarbe. Hier soll die Software mögliche relevante Inhalte rausfiltern. "Dann muss aber immer noch einer darauf schauen, am Ende muss da eine juristische Einschätzung stehen", sagt Siegel.

"Aus fachlicher Sicht ist von besonderem Interesse, ob sich aus den Forschungsergebnissen praktische Anwendungsverfahren entwickeln lassen, die eine möglichst treffsichere Vorklassifizierung hinsichtlich konkreter Gefährdungen oder Bedrohungen, Hatespeech, strafbarer oder extremistischer Inhalte zulassen", heißt es beim Innenministerium. Ziel sei eine schnelle Priorisierung und gezielte Zuweisung von solchen Vorgängen.

Seit Bestehen wurden dem Innenministerium zufolge der Meldestelle "Hessen gegen Hetze" rund 4850 Beiträge aus sozialen Netzwerken, Webseiten, Blogs und Kommentarspalten gemeldet. Davon seien 58 Prozent als Hatespeech eingestuft worden. 54 Fälle seien wegen des Verdachts einer konkreten Gefährdung oder Bedrohung dem Landeskriminalamt und rund 1890 Vorgänge wegen des Verdachts auf strafbare Inhalte an die Generalstaatsanwaltschaft Frankfurt weitergegeben worden.

Am häufigsten sei es hier um die Straftatbestände der Beleidigung (31 Prozent), der Volksverhetzung (30 Prozent) und der öffentlichen Aufforderung zu Straftaten (8 Prozent) gegangen. Rund 950 Meldungen gingen aufgrund von extremistischen Anhaltspunkten an das Landesamt für Verfassungsschutz. Wegen der Meldungen an "Hessen gegen Hetze" leitete die Generalstaatsanwaltschaft 1200 Ermittlungsverfahren ein.

(tiw)