Siri-Schöpfer arbeiten an KI gegen Cyberbullying

Die Forscher hinter der Apple-Sprachassistenz Siri wollen ein System entwickeln, das Beleidigungen im Internet automatisch erkennt und so Moderatoren bei ihrer Arbeit entlastet.

In Pocket speichern vorlesen Druckansicht 35 Kommentare lesen
Cybermobbing

(Bild: dpa, Oliver Berg)

Lesezeit: 2 Min.
Von
  • Denise Bergert

Das Forschungsinstitut SRI International, welches auch für die Entwicklung der Apple-Sprachassistenz Siri verantwortlich ist, arbeitet derzeit an einem Computeralgorithmus, der Belästigungen im Internet automatisch erkennen und darauf reagieren soll.

SRI Ventures steht der Zunahme von Cyber-Mobbing sehr kritisch gegenüber. Eine händische Kontrolle der zahllosen Beiträge im Internet sei kaum noch möglich, erklärten die Entwickler gegenüber dem Magazin Wired. Ein Algorithmus könnte hier helfen.

Beleidigungen im Internet seien jedoch schwierig zu erkennen, da man sie immer in den jeweiligen Kontext setzen müsse. Das Absuchen der Texte nach Schimpfwörtern oder Flüchen reiche dafür nicht aus. Vielmehr müssten Drohungen oder negative Stimmungen erkannt werden. Menschen würde diese Aufgabe eher leicht fallen, Maschinen hingegen fehle diese Fähigkeit. Bei ihrer Arbeit kommt den Forschern die Erfahrung zugute, die sie bei der Entwicklung von Systemen wie Siri sammeln konnten. Das Verstehen von Texten dient als Grundlage für die Erkennung beleidigender oder diffamierender Beiträge im Internet.

Erste Modelle für Testläufe könnten laut SRI bereits in sechs bis zwölf Monaten zur Verfügung stehen. Bis diese jedoch fehlerfrei arbeiten, sei deutlich mehr Zeit nötig. Die Anforderungen an eine KI zur Erkennung von Cyberbullying sind hoch: Zuerst müsse das System die Bedeutung der Wörter erfassen, die Grammatik und den Satzaufbau analysieren, um schließlich zu erkennen, ob der Text beleidigende oder bedrängende Aussagen enthält.

Hierfür arbeitet sich das System durch riesige Datenmengen, die teilweise schon von menschlichen Moderatoren auf Beleidigungen hin kontrolliert wurden. Dadurch soll der Algorithmus lernen und künftig eigenständig Angriffe erkennen können. Das Ziel der AI sei eine Entlastung der bei Unternehmen oder bei externen Dienstleistern beschäftigten Moderatoren, die durch ihre Arbeit einem enormen Druck ausgesetzt sind. Der Algorithmus könne zwar das Cyberbullying selbst nicht verhindern, aber dessen Effekte reduzieren. (axk)