Toxisches Mitbringsel: Wie sich die YouTube-Adpocalypse auf Patreon auswirkte
Im Jahr 2017 schreckten veränderte Werbealgorithmen auf YouTube zahlreiche Creator auf. Dies hatte spürbare Auswirkungen auf Patreon, wie eine Studie aufzeigt.
Der Digital Services Act (DSA) soll Hassrede im Netz eindämmen. Dafür werden vor allem große Plattformen in die Pflicht genommen. Dass jedoch auch von den laut Gesetz vermeintlich kleineren Plattformen eine große Wirkung ausgehen kann, zeigt eine neue Studie des ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung in Mannheim, die gemeinsam mit Forschern der University of Nevada in Las Vegas und der Universität Télécom Paris erarbeitet wurde. In dieser wurde die sogenannte YouTube-Adpocalypse untersucht.
Primär ging es dabei darum, wie sich YouTuber infolge der veränderten Werbealgorithmen auf der Videoplattform mit Einnahmen über die Social-Payment-Plattform Patreon ein weiteres finanzielles Standbein schufen. Hierfür wurden 2,8 Millionen Patreon-Inhalte untersucht. Doch das Mitziehen der Abonnenten der YouTuber hatte auch Auswirkungen auf den Anteil toxischer Inhalte auf Patreon.
Wir haben darĂĽber mit Raphaela Andres, Wissenschaftlerin im ZEW-Forschungsbereich "Digitale Ă–konomie", gesprochen:
Sie haben in einer Studie die Folgen der sogenannten YouTube-Adpocalypse im Jahr 2017 untersucht. Worum ging es damals genau?
Raphaela Andres: Auf YouTube gab es insbesondere vor der Verschärfung der Inhaltsmoderation im Jahr 2018 viele anstößige Inhalte – beispielsweise extremistische und obszöne Videos. Im Jahr 2017 kam es daher zu einem massenhaften Rückzug von Werbetreibenden auf YouTube aus Angst, dass die Markennamen der Werbetreibenden mit anstößigen YouTube Inhalten verbunden werden und sie somit einen Reputationsschaden erleiden könnten. Dieser Rückzug umfasste Markennamen wie Coca-Cola und Amazon und war von YouTube von großer Bedeutung, da Werbung für YouTube die Haupteinnahmequelle ist.
Einige YouTuber suchten neue Erlösmodelle bei Patreon. In welchem Umfang war das zu beobachten?
Die Anzahl an Video Creators stieg um knapp 10 Prozent in den ersten 5 Monaten nach Einführung der Content Moderation. Unsere Ergebnisse beziehen sich aber insbesondere auf Patreon-Creator, die sowohl vor als auch nach der YouTube-Adpocalypse auf Patreon aktiv waren. Dies ist für unsere Ergebnisse wichtig, da wir so sicherstellen können, dass sich tatsächlich das Verhalten der Patreon-Creator ändert und sie somit strategisch agieren, und wir das nicht damit vermischen, dass eventuell eine andere Art von Content Creator von YouTube auf Patreon wechselt.
Wie ist die Situation heute? Über die Werbeerlöse wird immer noch verschiedentlich geklagt. Ist Patreon für YouTuber interessant geblieben?
Auch heute lässt sich oft beobachten, dass YouTuber in ihren YouTube-Inhalten auf ihre Präsenz auf Patreon verweisen und dort um finanzielle Unterstützung bitten. Allerdings ist die Creator Economy ein sehr dynamisches Feld, das sich schnell entwickelt. So ist inzwischen beispielsweise auch Tiktok sehr interessant geworden für YouTuber.
Ihre Studie zeigt auf, dass es für Plattformen lohnenswert ist, Creators auch Erlöse durch Abomodelle anzubieten.
Ja, es kann lohnenswert sein für Plattformen, verschiedene Erlösmodelle anzubieten, die alle ihre eigenen Vor- und Nachteile haben, aber so ein stabileres Gesamtsystem darstellen können. Auf YouTube gibt es inzwischen auch Abomodelle: Durch YouTube Premium können Zuschauer alle YouTube-Inhalte ohne Werbung schauen und durch eine Kanalmitgliedschaft können sie einzelne Kanäle unterstützen und werbefrei verfolgen. Allerdings spielen beide Modelle eine geringe Rolle auf YouTube und die Haupteinnahmequelle der Plattform sind nach wie vor die Werbeeinnahmen.
Ein weiterer Punkt streift das Thema Hatespeech. Mit der Masse der Nutzer kamen auch Probleme herüber zu Patreon. Bislang stehen in Sachen Hatespeech vor allem die großen Plattformen im Fokus. Ihrer Studie entnehme ich, dass Sie befürworten, dass auch kleinere mehr gegen Hatespeech unternehmen. Wie könnte das gehen?
Plattformen mit weniger als 45 Millionen Nutzenden in Europe werden bislang vom Europäischen Digitale-Dienste-Gesetz (DDG) komplett ausgenommen. Meiner Meinung nach können Plattformen damit schon eine recht große Tragweite bekommen, bevor sie unter gesetzliche Verpflichtungen fallen. Die Inhaltsmoderation, die das DDG von den großen Plattformen erfordert, ist natürlich eine aufwendige und kostspielige Angelegenheit. Wie momentan aber bereist schon nach Plattformgröße unterschieden wird, könnte man das auch weiterhin tun, nur dass die Anforderungen der kleineren Plattformen nicht auf Null gesetzt werden. Die Algorithmen, die Hassrede erkennen, werden immer besser und können eine immer bessere Vorauswahl von zu kontrollierenden Inhalten treffen. Ich finde es wichtig, dass die letztendliche Entscheidung über die Rechtmäßigkeit von Inhalten immer noch ein Mensch trifft. Bei kleinerem Plattformen mit kleinerem Traffic und einem Algorithmus, der eine Vorauswahl trifft, könnten da aber bereits wenige Stellen einen großen Unterschied machen.
(mki)