Expertin: Ohne Transparenz geht bei der Social-Media-Moderation nichts

Facebook oder Twitter sagen ihren Nutzern nur lückenhaft, warum sie Inhalte löschen oder verstecken. Der sich daraus ergebende Zensur-Vorwurf wiegt schwer.

In Pocket speichern vorlesen Druckansicht 23 Kommentare lesen

(Bild: Prateek Katyal / Unsplash)

Lesezeit: 9 Min.
Von
  • Joan Donovan
Inhaltsverzeichnis

Joan Donovan ist Direktorin des "Technology and Social Change Research Project" am Shorenstein Center der John F. Kennedy School of Government an der Harvard University.

Im Jahr 2016 konnte man noch an einer Hand abzählen, inwieweit Tech-Firmen in Sachen Fehlinformationen, Hate Speech und Diskriminierung bereit waren zu intervenieren. Doch im Laufe der Jahre haben sich grobe Mechanismen wie das Blockieren von Inhalten oder Sperren von Profilen in ein komplexeres Set an Anwendungsmöglichkeiten weiterentwickelt. Mittlerweile werden Themen eingeschränkt, Posts bei Suchergebnissen nicht angezeigt, Empfehlungen verboten und Einträge je nach Priorität hierarchisiert.

Und doch – auch mit erweiterten Optionen bleibt die Verbreitung von Fehlinformationen ein ernsthaftes Problem. Auch am Wahltag der letzten US-Präsidentschaft waren Fake News ein großes Thema – die Journalistin Emily Drefyuss fand beispielsweise heraus, dass Twitter zwar versuchte, den Hashtag #BidenCrimeFamily mit Taktiken wie "De-Indexing" (Suchergebnisse werden blockiert) zu reduzieren. Doch Nutzer, einschließlich Donald Trump selbst, passten sich an, indem sie einfach Varianten desselben Tags verwendeten. Noch immer ist nicht viel darüber bekannt, wie Twitter ursprünglich mit diesen Dingen umgehen wollte oder wie viel Gewicht die Reaktion der Nutzer auf die Moderation hat, welche Lehren daraus gezogen werden.

Als die Betreiber der Sozialen Medien anfingen, Profile zu suspendieren und Posts zu markieren und zu löschen, hatten viele zivilgesellschaftliche Organisationen und Journalisten Schwierigkeiten damit, diese Entscheidungen nachzuvollziehen. Die fehlende Transparenz über diese Entscheidungsprozesse bedeutete für viele, dass die Wahlergebnisse der US-Präsidentschaft aus dem Jahr 2020 mit einem ähnlichen Sternchen versehen werden müssen wie schon 2016.

Was haben die Unternehmen unternommen? Wie funktionieren deren Moderationsteams? Wie werden Entscheidungen getroffen? In den letzten Jahren haben Firmen sozialer Plattformen große Task Forces zusammengerufen, die sich der Beseitigung von Fehlinformationen zur Wahl widmen und verfrühte Siegeserklärungen entsprechend markieren sollen. Sarah Roberts, Professorin an der UCLA, hat die unsichtbare Arbeit der Content-Moderatoren auf den Plattformen als eine Schattenindustrie beschrieben, ein Labyrinth von Auftragnehmern und komplexen Regeln, über welche die Öffentlichkeit nur wenig weiß. Warum ist dazu nicht mehr bekannt?

Im Dunst nach der Wahl werden Soziale Medien zu einem Kriegsgebiet , indem um kognitive Sicherheit gekämpft wird – dabei wuchern Kampagnen mit Fehlinformationen und Verschwörungstheorien. Als noch die Rundfunknachrichten die Rolle des Informations-Gatekeepers eingenommen hatten, war das verbunden mit einer Verpflichtung gegenüber dem öffentlichen Interesse. Das bedeutete beispielsweise, dass Informationen aktuell, lokal und relevant sein müssen. Soziale Medien haben eine ähnliche gesellschaftliche Position geerbt, aber sie haben nicht dieselben Verantwortungen übernommen. Diese Situation hat die Kanonen geladen: Anschuldigungen werden laut, dass wahlbezogener Content voreingenommen moderiert und zensiert werde.

Im Oktober 2020 fand für das House Permanent Select Committee on Intelligence ein Experten-Panel statt, bei dem es um Fehlinformationen, Verschwörung und Infodemics (ein englisches Kofferwort aus Information und Epidemie) ging. Neben mir waren Cindy Otis (ex-CIA Analystin), Nina Jankowicz (Fellow im Bereich Fehlinformationen am Wilson Center) und Melanie Smith (Leiterin der Analyse-Abteilung bei Graphika) auf dem Podium. Als ich meinen Beitrag vorbereitete, hatte Facebook gerade Schwierigkeiten damit QAnon zu umzugehen, jene militarisierte soziale Bewegung, die von deren "Gefährliche-Organisationen"-Abteilung beobachtet und vom Repräsentatenhaus in einem parteiübergreifenden Beschluss verurteilt wurde. Diese spezielle Verschwörungstheorie ist zu einem beliebten Thema geworden unter Fehlinformations-Forschern, denn sie hat sich auf vielfältige Weise als erweiterbar, anpassungsfähig und belastbar erwiesen, trotz all der Unternehmungen der Betreiber Sozialer Medien, sie einzuschränken und zu entfernen.

QAnon ist auch zu einem Problem für den Kongress geworden, denn es geht nicht einfach mehr um Leute, die an einer seltsamen Online-Spielerei teilnehmen: Es hat die Leben vieler Politiker wie einen Tornado getroffen. Sie werden nun zu Zielscheiben von Schmierkampagnen, im Rahmen derer die fieberhaften Fantasien von Verschwörungstheoretikern in echte Gewalt ausarten. Am dramatischsten wurde das beim tödlichen Sturm auf das US-Kapitol im Januar sichtbar, an dem QAnon wesentlich beteiligt war.

Darüber hinaus hat sich all dies rasant entwickelt, und zwar auf bislang ungekannte Weise. Normalerweise brauchen Verschwörungstheorien Jahre, um sich gesellschaftlich zu verbreiten. Sie sind auf die Unterstützung von einflussreichen Persönlichkeiten aus der Politik, den Medien oder den Glaubensgemeinschaften angewiesen. Soziale Medien aber haben diesen Prozess durch die unaufhörliche Bereitstellung von Inhalten beschleunigt. QAnon-Anhänger kommentieren nicht einfach nur die aktuellen Nachrichten, sie unterwerfen diese ihrem Narrativ.

Meine Aussage auf dem Podium bezog sich auf die vielen ungenannten Schäden, die entstehen, wenn Betreiber Sozialer Medien unfähig sind zu verhindern, dass Desinformationen ihre Dienste fluten. Journalisten, Fachkräfte des öffentlichen Gesundheitswesens und der Medizin, führende Persönlichkeiten der Zivilgesellschaft und Stadtverwalter wie Strafverfolgungs- und Wahlbeamte tragen dafür die Kosten und die Last, mit den Auswirkungen umzugehen. Viele Menschen tänzeln zwar im Gespräch mit Freunden und Familie um politische Themen herum, doch als falsche Informationen über Proteste verbreitet wurden, führten eine Art Weiße Bürgerwehr und medizinische Unwahrheiten dazu, dass Menschen die Pandemie herunterspielten.

Gleichzeitig nahmen andere Berufsbereiche wichtige neue Rollen als Verfechter der Wahrheit ein. So geschehen bei den Fachkräften des öffentlichen Gesundheitswesens und der Medizin: Sie mussten Ressourcen entwickeln, um die Glaubwürdigkeit medizinischer Ammenmärchen über COVID-19 zu schwächen. Ärzte versuchen sich mittlerweile als Online-Influencer, um die schwindelhaften Ratschläge und falschen Behauptungen über angebliche Wunderheilungen zu korrigieren – das raubt der Patientensorge und der Entwicklung von Behandlungen wertvolle Zeit. Viele Nachrichtenredaktionen haben sich mittlerweile daran angepasst, dass eine Flut von Fehlinformationen völlig normalisiert in den Sozialen Medien grassiert und dafür einen "Fehlinformations-Rhythmus" entwickelt. Hier sollen Verschwörungstheorien oder Fake News entlarvt werden, welche die Leserinnen und Leser beeinflussen könnten. Besser wäre es jedoch, diese Ressourcen für die Aufrechterhaltung des Journalismus zu verwenden und nicht dafür, im Grunde als eine Art Drittpartei-Moderation zu fungieren.

Auch Organisationen der Zivilgesellschaft wurden dazu gezwungen, ihre Kräfte und Mittel in das Monitoring von Fehlinformationen zu investieren, um ihre Basis vor solchen gezielten Kampagnen zu schützen. In der Verbreitung spielt auch ethnische Identität eine Rolle: Gezielte Desinformation ist eine altbewährte Taktik der inländischen als auch ausländischen Einflussnahme. Kampagnentreiber geben sich entweder fälschlicherweise als People of Color aus oder Rassismus wird eingesetzt, um eine Polarisierung bei Streitpunkten zusätzlich zu verstärken. So werden Bevölkerungsgruppen bewusst gegeneinander ausgespielt und die Gesellschaft gespalten. Schutz der Bevölkerung geht vor

Brandi Collins-Dexter sagte zu diesen Problemen bei einer Anhörung im US-Kongress im Juni 2020 aus und verdeutlichte, wie Tech-Firmen sich hinter der Behauptung, die freie Rede, um jeden Preis schützen zu wollen, verstecken. Sie tun damit nicht genug, um Menschen schwarzer Hautfarbe zu schützen, die auf den Sozialen Medien täglich medizinischen Fehlinformationen, Hate Speech, Aufhetzung und Belästigungen ausgesetzt sind. Wenn sich Gerüchte und Verschwörungstheorien online verbreiten, werden Wahlbeamte, Strafverfolgungsbeamte und Ersthelfer in der Ausführung ihrer Arbeit ernsthaft behindert. Nicht umsonst hatten sich Strafverfolgungsbehörden auf einen gewalttätigen Wahltag vorbereitet.

Wenn Fehlinformationen von der digitalen in die physische Welt überschwappen, werden öffentliche Mittel umgewidmet und die Sicherheit der Menschen wird gefährdet. Deshalb müssen Betreiber der Sozialen Medien das Problem genauso ernst nehmen wie ihr Streben nach Profitmaximierung.

Aber es braucht dafür einen konkreten Weg der Besserung. Die Section 230 des Communications and Decency Acts ermöglicht es Sozialen Medien, die Content-Moderation zu verbessern. Doch Politiker haben damit gedroht, diese Schutzregeln aufzuheben, nur damit sie mit ihren eigenen Propaganda-Kampagnen weiterverfahren können.

Während der gesamten Anhörung im Oktober letzten Jahres zeichnete sich schematisch die Idee einer neuen unabhängigen Behörde ab, die Bürgerrechtsverletzungen und Fragen des Datenschutzes überprüfen sowie die externen Marktauswirkungen der Branche in andere Sektoren bewerten könnte.

Aufgrund der enormen, globalen Reichweite Sozialer Medien ist es wichtig, dass Regulierung nicht damit beginnt, Section 230 zu demontieren, solange noch kein neues Gesetz bereitsteht. Bis dahin ist mehr Transparenz vonnöten. Fehlinformationen betreffen nicht nur die Fakten; es geht auch darum, wer festlegen darf, was Fakten sind. Eine gerechte Content-Moderationsführung ist der Schlüssel zu einer öffentlichen Rechenschaftspflicht.

Anstelle sich an eine Tech-Nostalgie früherer, besser Zeiten zu klammern, wäre es manchmal wertvoller, sich ein Internet vorzustellen, indem es noch keine Soziale Medien gibt – so kann man von Neuem einen Plan für ein Netz entwickeln, das Demokratie, Wissen, Fürsorge und Gerechtigkeit fördert. Andernfalls werden intransparente Entscheidungen von Tech-Firmen in Sachen Informationszugänglichkeit zum Nährboden für Verschwörungstheoretiker und – schlimmer noch – zu einer Grundlage für die Überschreitung von Gesetzen.

(bsc)