Mozilla: Youtube hält sich bei Videovorschlägen nicht an eigene Richtlinien

Die Mozilla Foundation hat herausgefunden, dass der Vorschlag-Algorithmus von Youtube häufig Videos mit Hassrede und Falschinformationen empfiehlt.

In Pocket speichern vorlesen Druckansicht 35 Kommentare lesen

(Bild: Sam Wordley/Shutterstock.com)

Lesezeit: 4 Min.

Die Mozilla Foundation hat in einer breit angelegten 10-monatigen Untersuchung der Video-Plattform Youtube herausgefunden, dass der Algorithmus zum Vorschlagen von Videos den Nutzerinnen und Nutzern häufig Videos mit verstörenden und hasserfüllten Inhalten sowie Falschinformationen empfiehlt. Diese Videos verstoßen dabei oft gegen die eigenen Inhaltsrichtlinien, schreibt die Mozilla Foundation in einer Zusammenfassung ihrer Untersuchungsergebnisse am Mittwoch.

Den Ergebnissen der Studie zufolge konnte Mozilla seit September 2020 auf die Unterstützung von Mitstreitern zurückgreifen, die dazu die Open Source Browser-Erweiterung "Regrets Reporter" für Firefox und Chrome freiwillig nutzten. Darüber stellten rund 37.000 Unterstützende Daten darüber bereit, welche Youtube-Videos ihnen vom Algorithmus vorgeschlagen wurden und bei welchen sie das Ansehen hinterher bereut haben. Ohne die Mithilfe der Freiwilligen und ihre Datenspende wäre eine Analyse des Vorschlag-Algorithmus von Youtube nicht möglich gewesen.

Wie die Mozilla Foundation schreibt, reicht die Bandbreite dieser Videos von Angstmacherei über COVID-19 und politische Falschinformationen, über Hassrede bis hin zu unangemessenen "Kinder"-Cartoons. Dabei sollen Youtube-Nutzer in nicht-englischsprachigen Ländern stärker betroffen gewesen sein als solche in Ländern mit Englisch als Hauptsprache. Mozilla spricht hier von einer 60 Prozent höheren Rate.

71 Prozent aller Videos, die von den Freiwilligen als "bedauerlich" angesehen wurden, waren von Youtubes eigenem Algorithmus empfohlen worden. Insgesamt wurde das Anschauen von Youtubes empfohlenen Videos 40-mal häufiger bereut als die über eine Nutzersuche gefundenen und angesehen Videos. Etwa 9 Prozent der auffälligen Videos hat Youtube mittlerweile entfernt, weil erkannt wurde, dass Verstöße gegen die eigenen Inhaltsrichtlinien vorliegen. Bis zur Löschung von der Plattform hatten diese Videos insgesamt 160 Millionen Aufrufe erzielt. Mit den Videos, die sich die Freiwilligen bis dahin angeschaut hatten, standen die von Youtube empfohlenen und von den Nutzerinnen und Nutzern bereuten Videos in 43,6 Prozent der Fälle in keinen Zusammenhang.

Die Mozilla Foundation kommt aufgrund der Datenauswertung zu dem Schluss, dass der Algorithmus von Youtube aktiv Videos mit problematischen Inhalten empfiehlt, die die Policies von Youtube verletzen. "Youtube muss eingestehen, dass sein Algorithmus so konzipiert ist, dass er Menschen schadet und falsch informiert", fasst Brandi Geurking, zuständig für juristische Kampagnen bei der Mozilla Foundation die Ergebnisse zusammen.

Die Mozilla Foundation hat dann auch gleich ein paar Vorschläge parat, wie das Problem gelöst werden kann. Denn es geht der Mozilla Foundation nicht nur darum, den Umstand aufzudecken. So empfiehlt die Mozilla Foundation, dass Youtube und andere Plattformen häufiger eindeutige Transparenzberichte veröffentlichen. Diese müssten dann auch genaue Informationen zu den Empfehlungsalgorithmen enthalten. Auch sollten solche Empfehlungen von den einzelnen Nutzerinnen und Nutzern abgelehnt und abgeschaltet werden können.

Um zu vermeiden, dass eine Empfehlungs-KI keine unerwünschten Nebenwirkungen hat, sollten Risikomanagementsysteme geschaffen werden. Der Politik komme es zu, dem einen entsprechenden rechtlichen Rahmen zu geben: Sie sollen Gesetze erlassen, die eine Transparenz von KI-Systemen vorschreibt und zusätzlich unabhängige Forscher schützt. Geurking hofft, dass die Untersuchung dazu beitragen kann, die Öffentlichkeit und den Gesetzgeber davon zu überzeugen, dass Youtube mehr Transparenz bei seinen KI-Algorithmen zeigt.

Bereits Mitte 2020 hatten die Designer Tomo Kihara und Polina Aexeenko mit Hilfe der Mozilla Foundation mit dem Projekt "TheirTube" gezeigt, dass Youtube bestrebt ist, seine Nutzerschaft möglichst lange auf der Plattform zu halten, indem der Videodienst sie in einer die eigene Meinung stützenden Filterblase leben lässt und entsprechenden Content auf der Startseite anzeigt. Die Filterblase wird dabei vom Youtube-Empfehlungsalgorithmus unterstützt. TheirTube stellt auf einer Website dar, wie Youtube von unterschiedlichen Charakteren wie etwa Liberale, Konservative, Klimawandelleugner wahrgenommen wird.

(olb)