IGF: Künstliche Intelligenz versagt oft im Kampf gegen Hass und Terror

Facebook kann seine Regeln gegen "Hate Speech" nicht durchsetzen, beklagte ein Forscher aus Sri Lanka. Zum Beispiel, weil es in seiner Sprache kein Futur gibt.

In Pocket speichern vorlesen Druckansicht 46 Kommentare lesen
IGF: Künstliche Intelligenz versagt oft im Kampf gegen Hass und Terror

Yudhanjaya Wijeratne

(Bild: heise online / Stefan Krempl)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Eine "fantastische Richtlinie" sei der "Christchurch Call", auf den sich Regierungen und Online-Plattformen im Mai als Reaktion auf ein live gestreamtes Attentat in Neuseeland verständigt hatten. Das meinte Yudhanjaya Wijeratne, Big-Data-Forscher der Denkfabrik LIRNEasia in Sri Lanka, am Mittwoch auf dem Internet Governance Forum (IGF) in Berlin. Er bedauerte aber, dass es großen Social-Media-Betreibern wie Facebook nicht ansatzweise gelinge, die Erklärung zum Kampf gegen Extremismus im Netz mithilfe der von ihnen hauptsächlich eingesetzten Standardsysteme für Künstliche Intelligenz (KI) durchzusetzen.

Hasskommentare in Sri Lanka zu erkennen und zu löschen sei schon wegen der dort vorherrschenden sprachlichen Gegebenheiten schwierig, führte Wijeratne aus. Bei Facebook schlügen Algorithmen etwa Alarm, wenn sie in einer Äußerung eine "konkrete künftige Bedrohung" ausmachten wie in der Ankündigung, morgen zu jemand zu gehen und ihn erschießen zu wollen. "In meiner Sprache gibt es aber gar kein Futur", erläuterte der Wissenschaftler. Die gängigen Warnsysteme könnten so drohende Gefahren kaum ausmachen.

Dazu kommen laut Wijeratne weitere Besonderheiten wie Mehrdeutigkeiten. Das Wort für "jüngerer Bruder" etwa werde in der Regel gebraucht, um jemanden zu unterstützen. Gegenüber Muslimen oder Tamilen, die vor Ort am häufigsten mit Hass überzogen würden, diene es aber der Beschimpfung. Der Algorithmus müsse also die Umstände und den Kontext der Konversation verstehen können. Zusätzlich kompliziert werde die Sache, da der Ausdruck in dem sozialen Netzwerk eventuell auf Englisch geschrieben werden könnte.

Für Wijeratne ist damit klar: "Hate Speech kann man nicht mit einem Knopfdruck aus dem Netz befördern." Selbst für halbwegs vernünftige Ansätze, Maschinenlernen zur Plattformregulierung einzusetzen, müssten die Betreiber viel stärker mit Entwicklern vor Ort zusammenarbeiten. "Wie soll jemand in Menlo Park das programmieren können?", fragte er.

Zugleich warnte der Forscher davor, nationalen Strafverfolgungsbehörden in Echtzeit einen Zugriff auf Inhalte in sozialen Netzwerken und Messenger-Diensten zu geben, wie es ein Diskussionsteilnehmer aus Indien im Interesse der nationalen Sicherheit forderte: Als an Ostern an Hotels und Kirchen Bomben explodierten, habe die Regierung des Landes sich sechs Stunden lang überhaupt nicht zu den Anschlägen geäußert. Politiker und von ihnen gesteuerte Behörden seien oft nicht kompetent oder handelten nicht im besten Interesse der Bürger.

Ermittler nutzten "Terrorismus" oft als Aufhänger, um gegen legitime Aktivisten und Demonstrationen vorzugehen, pflichtete Edison Lanza, Berichterstatter für Meinungsfreiheit der Inter-amerikanischen Kommission für Menschenrechte, Wijeratne bei. Es sei schon schwierig, "Hass" zu definieren, geschweige denn "Terrorismus". Solche Taten seien zwar genauso wie die gerade in Lateinamerika grassierende organisierte Kriminalität "gezielte Angriffe auf die Meinungsfreiheit und die Demokratie". Staaten reagierten darauf aber oft mit Zensur und trieben Akteure weiter in den Untergrund. Nötig seien "abgestufte Antworten abgestimmt auf den lokalen Kontext", keine "Kill Switches" fürs Netz.

Australien habe mit einem Anti-Terror-Gesetz eine Pflicht für Provider zur allgemeinen Überwachung und zur Vorzensur durch Upload-Filter eingeführt, zeigte sich auch Kyung Sin Park von der Korea University Law School besorgt über staatliche Regulierungsauswüchse. Damit sei die Politik auf dem Kontinent noch weiter gegangen als Deutschland mit dem Netzwerkdurchsetzungsgesetz (NetzDG). Er bezeichnete das Haftungsprivileg für Diensteanbieter, wonach diese erst nach Kenntnis für Inhalte Dritter verantwortlich seien, als "Standard für die Meinungsfreiheit", der aber immer weiter unter Druck gerate.