Substack will nun doch Nazi-Beiträge löschen – zumindest manche

Substack will nun offensichtliche Nazi-Beiträge und Publikationen doch löschen – zumindest arbeitet man an Moderations-Tools.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Email,Marketing,Concept,,Company,Sending,Many,E-mails,Or,Digital,Newsletter

(Bild: Shutter z/Shutterstock.com)

Lesezeit: 2 Min.

Substack wird von Nazis genutzt. Dieser Vorwurf ist nicht neu. Die Plattform-Betreiber äußerten sich dazu bisher mit viel Gelassenheit: Man würde die Meinungsfreiheit schätzen und deshalb nicht eingreifen. Nun scheint sich das zu ändern. Substack kündigt an, Möglichkeiten schaffen zu wollen, über die Beiträge und Personen gemeldet werden können. Wenn gemeldete Inhalte gegen die Richtlinien verstoßen, werde man handeln. Die Richtlinien umfassen allerdings nur ein Verbot von Inhalten, die zu Gewalt aufrufen.

Dem Wandel ging ein Protest von zahlreichen Substack-Nutzern voraus, darunter Newsletter-Schreiber von The Verge und Forbes. Sie beschwerten sich über die fehlende Moderation des Dienstes, bei dem man Newsletter und andere Inhalte im Abonnement anbieten kann, und dass "zahlreiche Nazis und 'white supremacists' als "Besteller" gekennzeichnet seien. Diese Einordnung bedeutet, dass sie mindestens Tausende Dollar im Jahr mit Substack verdienen.

Dem Platformer hat Substack in einem Statement geschrieben: "Wir arbeiten an neuen Tools zum Melden von Inhalten, die potenziell unsere Richtlinien verletzen." Zudem werde man weiter daran arbeiten, Werkzeuge zur Verfügung zu stellen, mit denen Nutzer die Plattform so einstellen können, wie sie sie erleben wollen.

Rechtsextreme Inhalte, wie etwa die Verleugnung des Holocaust, und Aufrufe zu Gewalt sind auch im Internet verboten und strafbar. In der EU gilt nicht zuletzt der Digital Service Act (DSA), der Plattformen Regeln an die Hand gibt, wie Inhalte gemeldet werden können und in welchem Umfang es Moderation geben muss. Hinzu kommen Transparenzpflichten und weitere Auflagen.

Die EU-Kommission hat gegen X, vormals Twitter, eine förmliche Untersuchung eingeleitet. Auf dem Prüfstand steht dabei, wie die Plattform mit illegalen Inhalten umgeht. Besonders große Plattformen (Very Large Online Platforms, VLOPs) müssen erweiterte Pflichten einhalten.

(emw)