IGF: Künstliche Intelligenz versagt oft im Kampf gegen Hass und Terror

Seite 2: Overblocking in Südkorea

Inhaltsverzeichnis

Auch in Südkorea führten staatliche Löschvorgaben vielfach zu einem Overblocking, konstatierte Park. So hätten Betreiber selbst Warnungen von Nutzern vor gesundheitsschädlichen Produkten heruntergenommen, weil sie Abmahnungen von den Herstellern erhalten hätten. Viele nationale Löschvorschriften festigten zudem die Position der großen Plattformen, da sich kleinere Konkurrenten die Kontrolltechnik und das zusätzliche Personal nicht leisten könnten.

Sharri Clark, Beraterin für "Cyber" und Anti-Extremismus-Initiativen im US-Außenministerium, warnte davor, das Internet "weniger offen" zu machen. Staatliche Antworten auf Bedrohungen wie Hate Speech "die positiven Seiten des Internets nicht beeinträchtigen" und sollten keinen Abschreckungseffekt auf die Meinungsfreiheit ausüben. Sie zeigte sich besorgt darüber, dass das NetzDG in Fachartikeln bereits als "Modell für Zensur weltweit" behandelt werde. Besser seien Ansätze der freiwilligen Zusammenarbeit zwischen Staat und Wirtschaft: "Die Firmen wissen am besten, wie sie strafbare Inhalte erkennen und löschen können."

Schon die Kooperation mit Regierungen öffne in vielen Ländern "die Tür für viele andere Missbräuche", gab Facebooks Anti-Terror-Experte Brian Fishman zu bedenken. Prinzipiell setzte sein Unternehmen daher auf globale Richtlinien etwa gegen Hassäußerungen. Er räumte aber ein, dass etwa in Regionen mit vielen Dialekten Klassifizierungen durch Algorithmen nicht gut funktionierten, da es hier auch meist an Trainingsdaten mangele.

Löschen und Blockieren seien zudem nicht immer die richtigen Mittel. So befänden sich die Taliban etwa zwar auf der UN-Sanktionsliste und ihre Inhalte könnten damit generell in Facebooks Sperren auslösende "Hash-Datenbank" eingespielt werden. Falls die Gruppe Friedensverhandlungen führen wollte, würden so Beiträge dazu aber auch pauschal unterdrückt.

Der deutsche Justizstaatssekretär Gerd Billen verteidigte das NetzDG, da Facebook & Co. damit deutlich mehr Personal fürs Prüfen von Inhalten eingestellt hätten und die Löschrate zu Beschwerden bei 20 bis 25 Prozent liege. Die Plattformbetreiber versuchten folglich abzuwägen, was als "Hasskriminalität" strafbar sei oder was unter die Meinungsfreiheit falle.

Paul Ash, Sicherheitsberater des neuseeländischen Premierministers, warb für einen "ganzheitlichen Ansatz" im Sinne des Christchurch Call: Kein Mensch habe das Recht, Morde live ins Internet zu übertragen. Das größte Risiko sei es, dass ein "toxisches Internet" die Nutzung von Online-Medien verringere. (anw)