Digital Services Act: Youtube sieht mögliche Behinderung

Der Digital Services Act könnte ein Handeln gegen Fehlinformationen und Hassrede behindern, so die Einschätzung von Youtubes Chief Product Officer Neal Mohan.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: Cristian Storto/Shutterstock.com)

Lesezeit: 2 Min.
Von
  • dpa

Das geplante europäische Gesetz über digitale Dienste – der Digital Services Act (DSA) – kann nach Einschätzung von Youtube die Bekämpfung von Hassrede und Fehlinformationen behindern. In seiner jetzigen Fassung könne der DSA verlangen, dass Youtube zuerst "eine systematische und detaillierte Bewertung durchführen" müsse, bevor ein Produkt oder ein Dienst eingeführt wird, erklärte der Chief Product Officer, Neal Mohan, zur Vorlage des vierteljährlichen Transparenz-Berichtes von Youtube.

Mit den geplanten Vorgaben sollen Verbraucher im Netz besser vor Desinformation, Hassrede und Produktfälschungen geschützt werden. Außerdem soll geregelt werden, wie Digital-Riesen, also auch Google oder Facebook, mit illegalen Inhalten oder Hassrede umgehen sollen. Dabei soll gelten: je größer die Plattform, desto strenger die Regeln.

Youtube befürchtet, dass jede Anpassung der Algorithmen zur Eindämmung schädlicher Inhalte unter die Bestimmung des DSA fallen, über den derzeit zwischen der EU-Kommission, dem Europäischen Parlament und den EU-Staaten verhandelt wird. Wenn eine neue Bedrohung durch Fehlinformationen auftaucht, müsse aber schnell gehandelt werden, sagte Mohan.

Als Beispiel führte Mohan die Bekämpfung von Falschinformationen zur Corona-Pandemie an. Dieses Thema habe in den vergangenen zwei Jahren zu einem starken Anstieg von Fehlinformationen geführt. "Wir waren eine der ersten Plattformen, die eine Covid-19-Richtlinie für medizinische Fehlinformationen einführte, und wir haben sie allein im Jahr 2020 zehnmal aktualisiert, um die Zuschauer vor schädlichen Inhalten zu schützen."

Im vierten Quartal 2021 habe Youtube weltweit mehr als 58.000 Videos wegen Verstoßes gegen die Covid-19-Richtlinie entfernt. Weltweit hat Youtube zwischen Oktober und Dezember 2021 über 3,7 Millionen Videos gelöscht, weil sie gegen die Community-Richtlinien des Dienstes verstoßen haben. In Deutschland wurden über 48.000 Videos entfernt, deutlich mehr als in Frankreich (knapp 32.000), Spanien (knapp 22.000) und Niederlanden (knapp 20.000). 92 Prozent dieser Videos weltweit seien zuerst von Maschinen entdeckt und nicht von Menschen markiert worden.

Mohan erklärte, Youtube unterstütze die allgemeinen Ziele des DSA. "Wir sind uns sicher, dass langsamere Reaktionszeiten bei der Bekämpfung von Fehlinformationen nicht das sind, was alle Beteiligten an diesen Verhandlungen wollen. Aber es besteht ein echtes Risiko, wenn dieser spezielle Vorschlag bestehen bleibt."

(mack)