X veröffentlicht Timeline-Algorithmus

Der Aufbau von X' „For You“-Algorithmus lässt sich jetzt bei GitHub nachvollziehen. Doch wie genau der Algorithmus welche Inhalte bewertet, bleibt unklar.

vorlesen Druckansicht 4 Kommentare lesen
Silhouette von Elon Musk vor dem X-Logo

(Bild: kovop / Shutterstock.com)

Lesezeit: 3 Min.
Von
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Die Plattform X hat den Quellcode ihres Empfehlungsalgorithmus „For You“ auf GitHub veröffentlicht. Firmeninhaber Elon Musk kündigte an, dass der Code künftig alle vier Wochen aktualisiert werde. In einem Posting auf seinem Netzwerk gab er freimütig zu: „Wir wissen, dass dieser Algorithmus dumm ist und massive Verbesserungen benötigt, aber wenigstens könnt ihr uns in Echtzeit dabei zuschauen, wie wir kämpfen, ihn besser zu machen.“

Der neue Algorithmus sammelt zunächst die Kandidaten ein, die für die Timeline infrage kommen. Dabei liefert „In-Network“-Kandidaten eine Komponente namens Thunder liefert „In‑

X hat den Aufbau des For-You-Algorithmus ausfĂĽhrlich dokumentiert.

Die für das Ranking zentrale Komponente trägt ebenfalls den Namen Phoenix. Phoenix basiert auf dem KI-Modell Grok von Musks Firma xAI. Das Modell analysiert die Verhaltenshistorie jedes Nutzers: Likes, Antworten, Verweildauer, Profilbesuche, aber auch Blocks und Stummschaltungen.

Daraus sagt es für jeden Beitrag mögliche Nutzerreaktionen voraus: positive Aktionen wie Liken, Antworten, Retweeten, Zitieren, Klicken, Profilbesuch, Videowiedergabe über 50 Prozent, Bildvergrößerung, Teilen, lange Verweildauer und Folgen – sowie negative wie "Nicht interessiert", Blockieren, Stummschalten und Melden. Jede vorhergesagte Aktion wird mit ihrer Wahrscheinlichkeit multipliziert und mit einem Gewichtungsfaktor versehen. Die Summe ergibt den finalen Score. Je höher der Score, desto prominenter erscheint der Beitrag im Feed.

Phoenix unterscheidet sich somit grundlegend von der 2023 veröffentlichten Version namens „Heavy Ranker“. Damals setzte Twitter noch auf klassisches maschinelles Lernen: Ingenieure definierten händisch hunderte Features – ob ein Beitrag Bilder enthielt, wie viele Follower der Autor hatte, wann gepostet wurde – und gewichteten diese manuell.

Die aktuelle Dokumentation stellt klar: „Wir haben alle manuell erstellten Funktionen und die meisten Heuristiken aus dem System entfernt. Der Grok-basierte Transformer übernimmt die ganze Arbeit, indem er Ihre Interaktionshistorie (was Ihnen gefallen hat, worauf Sie geantwortet haben, was Sie geteilt haben usw.) analysiert und anhand dieser Informationen ermittelt, welche Inhalte für Sie relevant sind.“

Videos by heise

Das zentrale Problem des freigegebenen Algorithmus: X veröffentlicht zwar die Architektur und die Logik, aber nicht die konkreten Gewichtungsfaktoren. Nutzer und Forscher können also nachvollziehen, dass ein Block negativ und ein Reply positiv gewertet wird – aber nicht, wie stark.

Neben den Gewichtungen fehlen weitere zentrale Informationen: Die internen Parameter des Phoenix-Modells sind nicht öffentlich. Das Gleiche gilt für die Trainingsdaten – welche Nutzerinteraktionen in welchem Zeitraum für das Training verwendet wurden, bleibt im Dunkeln. Alles in allem erfährt man also, dass Phoenix eine gewichtete Summe aus Verhaltensvorhersagen berechnet – aber nicht, was in der Blackbox des neuronalen Netzes genau passiert.

Die Veröffentlichung scheint nicht zufällig zu kommen, denn X steht unter erheblichem Druck europäischer Regulierungsbehörden. So laufen auf Grundlage europäischer Digitalgesetze bereits mehrere Untersuchungen und Verfahren. Erst Anfang Dezember hatte die EU gegen Musks Online-Plattform wegen Transparenzmängeln eine Strafe von 120 Millionen Euro verhängt. Die Open-Source-Strategie kann in diesem Kontext als Versuch gelesen werden, dem Vorwurf mangelnder Transparenz proaktiv zu begegnen und den Regulierungsbehörden entgegenzukommen.

X hat mit der Veröffentlichung mehr offengelegt als andere soziale Netzwerke. Forscher und Regulierer können die grundlegende Architektur des Netzwerks nachvollziehen. Für eine echte Überprüfbarkeit der algorithmischen Entscheidungen – etwa ob bestimmte politische Inhalte systematisch bevorzugt oder benachteiligt werden – reicht das jedoch nicht.

(jo)