Vor der Wahl: Meta und X akzeptieren Werbung mit Hass und Hetze
Meta und X sind bei einem Test durchgefallen, ob sie Anzeigen mit illegalen Inhalten wie dem Ruf nach der Tötung von Migranten auf ihren Plattformen entfernen.

(Bild: metamorworks / Shutterstock.com)
Bei Anzeigen, auf denen die Inhaftierung und Ermordung von Einwanderern und das Niederbrennen von Moscheen mit menschenverachtenden Ausdrücken gefordert wird und auf denen Migranten mit Tieren und Krankheitserregern gleichgesetzt werden, erkennen Meta und X zunächst kein Problem. Das hat eine Probe aufs Exempel ergeben, welche die internationale Verbraucherorganisation Ekō kurz vor der Bundestagswahl durchgeführt hat. Die Vereinigung, die die Macht von Konzernen eindämmen will, reichte vorige Woche bei Meta und X zehn Banner ein, die solche klaren Beispiele extremistischer Hassrede und Aufstachelung zu Gewalt enthielten. Obwohl die Betreiber der Social-Media-Plattformen die Anzeigen eigentlich blockieren müssten, gingen sie größtenteils durch.
Die Inhalte dürften hierzulande größtenteils erkennbar als rechtswidrig einzustufen sein. Sie waren angereichert mit Bildern, die mithilfe von Systemen mit Künstlicher Intelligenz (KI) erzeugt wurden und gewalttätige Szenen zeigten. Zu sehen waren etwa brennende Synagogen oder Innenaufnahmen einer Gaskammer. Laut den Forschern genehmigte Meta die Hälfte der unterbreiteten Werbebanner innerhalb von 12 Stunden, wie das Magazin Euractiv berichtet. X habe alle eingereichten Anzeigen zur Veröffentlichung freigegeben. Die Ekō-Tester entfernten die Bannervorlagen aber, bevor sie online gingen, sodass sie von den Nutzern der Plattformen nicht gesehen wurden.
Die Anzeigen sollten geografisch auf Deutschland beschränkt sein und in deutscher Sprache erscheinen. Die von Meta betriebenen Plattformen Instagram und Facebook gehören genauso wie X zu den Unterzeichnern des EU-Verhaltenskodex zur Bekämpfung illegaler Hassrede im Internet. Die EU-Kommission überarbeitete diesen zusammen mit den Beteiligten aus der Wirtschaft vorigen Monat und integrierte ihn in den Digital Services Act (DSA). Die Selbstverpflichtung verlangt von den Unterzeichnern, proaktive Maßnahmen zu ergreifen, um potenziell illegale Hassrede und Hetze zu bekämpfen und den Zugriff auf einschlägige Inhalte zu sperren. Die erweiterte Übereinkunft ist eigentlich nicht nur reaktiv und auf das Entfernen von solchem Content angelegt. Vielmehr soll der Kodex die beteiligten Diensteanbieter auch zu mehr Prävention und Antizipation von Bedrohungen bewegen.
Kommission hat "Wahl-Toolkit" herausgegeben
Die Experten von Ekō haben dem Bericht zufolge die Ergebnisse ihrer Untersuchung bereits der Kommission vorgelegt. Diese fühlt Meta und X ohnehin schon auf den Zahn, ob diese DSA-Vorgaben einhalten. Betreiber sehr großer Plattformen müssen laut der Verordnung Risikoabschätzungen durchführen und ausgemachte Gefahren etwa für die Demokratie, die öffentliche Sicherheit, die Grundrechte und den Jugendschutz minimieren.
Die Kommission hat am Freitag ein "Wahl-Toolkit" veröffentlicht, um die Umsetzung der Wahlrichtlinien aus dem DSA zu erleichtern. Der Instrumentenkoffer richtet sich an die sogenannten Digital Services Coordinators der nationalen Regulierungsbehörden wie etwa der Bundesnetzagentur. Er fasst bewährte Praktiken zusammen, um Risiken auf sehr großen Online-Plattformen während Wahlen zu mindern. Im Zentrum stehen Risiken wie Hassrede, Online-Belästigung und die Manipulation der öffentlichen Meinung, denen begegnet werden soll. Es geht zudem etwa um KI-generierte Inhalte und Identitätsdiebstahl.
"Diese Anzeigen verstoßen gegen unsere Richtlinien", erklärte eine Meta-Sprecherin zu dem Bericht. "Keine davon wurde veröffentlicht und unsere Systeme haben die Seite des Werbetreibenden erkannt und deaktiviert, bevor wir von dieser Untersuchung Kenntnis erlangten. Unser Anzeigenüberprüfungsprozess umfasst mehrere Analyse- und Erkennungsebenen, sowohl vor als auch nach der Schaltung einer Anzeige. Wir haben umfangreiche Schritte im Einklang mit dem DSA unternommen und investieren weiterhin erhebliche Ressourcen, um Wahlen zu schützen."
(nie)