Elon Musks Meinungsmaschine: X-Algorithmus beeinflusst politische Einstellungen

Ein europäisches Forschungsteam konnte erstmals zeigen, wie der Empfehlungsalgorithmus von X politische Meinungen beeinflusst: ein bisschen.

vorlesen Druckansicht 11 Kommentare lesen
X-Logo auf einem Smartphone

(Bild: sdx15/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Wolfgang Stieler
Inhaltsverzeichnis

Der Empfehlungsalgorithmus der Plattform X (ehemals Twitter) kann politische Einstellungen seiner Nutzer messbar verändern. Zu diesem Ergebnis kommt eine in der Fachzeitschrift Nature veröffentlichte Studie.

Soziale Medien stehen im Verdacht, Wahlen zu beeinflussen, indem sie extremistische Inhalte verstärken. Allerdings ist es sehr schwierig, die konkreten Effekte von Empfehlungsalgorithmen in sozialen Netzen tatsächlich zu messen. Germain Gauthies und seinem Team ist das jetzt erstmals gelungen.

Die Forschenden hatten rund 5000 für die Studie rekrutierte aktive US-Nutzer von X im Sommer 2023 zufällig in zwei Gruppen eingeteilt: Eine der beiden Gruppen nutzte sieben Wochen lang den „For You“-Feed, die andere den rein chronologischen „Following“-Feed. Vor und nach dem Experiment wurden politische Einstellungen, Prioritäten und Wahrnehmungen aktueller Ereignisse abgefragt.

User, die vom chronologischen in den algorithmischen Feed wechselten, zeigten danach eine kleine, aber statistisch signifikante Verschiebung hin zu rechten Positionen. Das wurde etwa bei der Frage deutlich, wie wichtig ihnen die Themen Migration und Kriminalität sind und wie sie die Ermittlungen gegen Donald Trump beurteilen. Die gemessene Verschiebung lag im Bereich von rund 0,1 Standardabweichungen – ein in der politischen Einstellungsforschung üblicher, aber klar nachweisbarer Effekt.

Bemerkenswert ist aber, dass der Effekt im umgekehrten Fall nicht eintrat. Während das Einschalten des Algorithmus messbare Effekte hatte, führte das Abschalten zurück zum chronologischen Feed nicht zu einer entsprechenden Gegenbewegung. Die Forscher führen das darauf zurück, dass die User auch nach dem Abschalten der Empfehlungen weiter den zuvor empfohlenen Accounts folgten. Das Ergebnis deckt sich mit einer Studie bei Facebook und Instagram von 2023, die ebenfalls keinen Effekt beim Abschalten des Empfehlungsalgorithmus zeigte.

Mithilfe eines Browser-Plug-ins konnten die Forschenden zudem analysieren, wie sich die in den Feeds angezeigten Inhalte verändern. Dabei zeigte sich, dass der algorithmische Feed Inhalte rechter Influencer und Aktivisten häufiger ausspielt und Beiträge klassischer Nachrichtenmedien seltener anzeigt als der chronologische Feed. Gleichzeitig steigert der Algorithmus das Engagement deutlich: Beiträge im „For You“-Feed erhielten ein Vielfaches an Likes, Kommentaren und Weiterverbreitung.

Videos by heise

Die Autoren betonen, dass ihre Ergebnisse spezifisch für aktive US-Nutzer von X und nur für den Untersuchungszeitraum gelten. Für andere Plattformen müsse das so nicht gelten. Ganz allgemein könne man jedoch festhalten, dass „die Feed-Algorithmen sozialer Medien eine wichtige Rolle bei der Entwicklung politischer Orientierung und dem Online-Verhalten spielen“.

Was das konkret für Wahlkämpfe und insbesondere für die Situation in Europa bedeutet, lässt sich aus dieser Untersuchung allein nicht ableiten. „Im deutschen Kontext ist es noch wichtig zu berücksichtigen, dass nur fünf Prozent der Bevölkerung X zum Nachrichtenkonsum nutzen“, sagte Judith Möller von der Universität Hamburg und dem Leibniz-Institut für Medienforschung in einer Stellungnahme für das Science Media Center.

„Für Deutschland müsste erst noch überprüft werden, ob es eine Verzerrung zugunsten konservativer Themen und Einstellungen gibt." Andererseits hält sie „insbesondere das Herunterranken von Nachrichtenorganisationen“ durch den Feed für problematisch. „Das bedeutet nämlich, dass die algorithmische Gruppe nicht nur konservativere Inhalte gesehen hat, sondern auch weniger Inhalte, die mit journalistischen Mitteln überprüft und eingeordnet wurden.“

„Um etwas über Langzeiteffekte und reale Auswirkungen sagen zu können, bräuchten wir deutlich größer skalierte Feld-Experimente“, sagt Philipp Lorenz-Spreen von der Technischen Universität Dresden. „Dafür bräuchten wir entweder Zusammenarbeit mit existierenden Plattformen – auch gesetzlich gefordert. Ich bin da aber wenig hoffnungsvoll. Oder wir bräuchten größer skalierte, eigene experimentelle Plattformen für die Forschung.“

Dieser Beitrag ist zuerst auf t3n.de erschienen.

(jle)