Trainingsdaten vergiften: Russische Propaganda für KI-Modelle
Newsguard hat russische Propaganda-Webseiten gefunden, mit denen gezielt KI-Chatbots manipuliert werden sollen.

(Bild: photoschmidt/ Shutterstock.com)
Bei ihren Antworten geben ChatGPT, Copilot, Grok und andere KI-Chatbots laut einer systematischen Analyse auch russische Propaganda wieder. Demnach zielt ein prorussisches Netzwerk namens "Pravda" – das russische Wort für "Wahrheit" – darauf ab, möglichst viel russlandfreundliche Falschinformationen in die Trainingsdaten der KI-Modelle zu bekommen sowie die Echtzeit-Suche zu beeinflussen.
Zu dieser These kommt eine Studie, die das privatwirtschaftliche Unternehmen Newsguard veröffentlicht hat, welches sich für Glaubwürdigkeit und Transparenz bei Online-Medien einsetzt, dabei aber auch schon selbst in die Kritik geraten ist. Die getesteten Chatbots waren ChatGPT von OpenAI, der Smart Assistant von You.com, Grok von xAI, Pi von Inflection, le Chat von Mistral, Copilot von Microsoft, Meta AI, Claude von Anthropic, Gemini von Google und die KI-Suchmaschine von Perplexity. Newsguard testete die Chatbots mit einer Stichprobe von 15 Falschmeldungen, die von einem Netzwerk von 150 Kreml-nahen Websites zwischen April 2022 und Februar 2025 verbreitet wurden. In 33 Prozent der Fälle wiederholten die Chatbots Inhalte von Falschmeldungen.
Lesen Sie auch
NewsGuard: Dubiose US-Firma spielt Medienwächter
Das russische Desinformationsnetzwerk "Pravda" verfolgt diesen Effekt laut Newsguard ganz gezielt. Dabei wird Propaganda auf dafür erstellten Webseiten von den Crawlern der KI-Anbieter in das Repertoire der Trainingsdaten aufgenommen sowie bei der Echtzeit-Suche genutzt. Laut der Analyse gibt es 3,6 Millionen Artikel, die alleine im Jahr 2024 mit dieser Absicht veröffentlicht wurden. Bereits seit 2022 soll das Netzwerk Falschinformationen verbreiten und das auch in zahlreichen Sprachen.
"LLM Grooming" – vergiftete Trainingsdaten
Die Webseiten mit den Artikeln sollen dabei gezielt für die Crawler und weniger für den menschlichen Leser ausgelegt sein. Verbreitet werden vor allem bestehende Inhalte aus den russischen Staatsmedien und von Kreml-freundlichen Influencern. Das heißt, es geht um eine Multiplikator-Wirkung, die durch häufiges Veröffentlichen und Teilen der Inhalte geschieht und so die Wahrscheinlichkeit erhöhen soll, von KI-Modellen genutzt zu werden.
Newsguard und eine weitere Non-Profit-Organisation aus den USA, Sunlight Project, sprechen von "LLM Grooming". Grooming bezeichnet eigentlich den Versuch erwachsener Personen, an Kinder und Jugendliche heranzutreten und diese zu manipulieren. In der Regel geht es um sexuellen Missbrauch. Die Übertragung des Begriffs auf KI und Propaganda ist fragwürdig.
Im Falle von Künstlicher Intelligenz spricht man davon, dass Trainingsdaten vergiftet werden. KI-Modelle lernen aus Trainingsdaten und leiten Wahrscheinlichkeiten ab. Sie geben wieder, was sie im Training gelernt haben. Vergiftete Trainingsdaten sind also insbesondere solche, die falsche Informationen enthalten. KI-Anbieter sind freilich daran interessiert, möglichst gute Trainingsdaten für ihre Modelle zu nutzen. Sie werden daher von Menschen kontrolliert. Um Propaganda wiederzugeben, muss diese aber auch die wahrscheinlichste Antwort sein.
Es gibt Methoden und Werkzeuge, die etwa von Künstlern eingesetzt werden, um ihre eigenen Bilder für das Training unbrauchbar zu machen und um explizit Trainingsdaten zu vergiften, indem Informationen und das, was auf einem Bild zu sehen ist, nicht zusammenpassen. So lernt ein Modell aus einem Bild im Zweifel, dass eine Katze eine Handtasche ist. Soll ein Bildgenerator dann eine Handtasche generieren, hat diese etwa einen Katzenschwanz. Die Masse an Katzenbildern im Internet verhindert allerdings, dass einige wenige falsche Bildbeschreibungen die KI-Modelle wirklich durcheinanderbringen.
Auch im Falle der Echtzeit-Suche im Internet nutzen KI-Modelle für die Gewichtung der Antworten Informationen, die besonders häufig vorkommen. Dabei ist die Bewertung von Informationen relativ unklar. Das gilt jedoch auch für Googles klassische Linklisten. Auch Google zeigt russische Propaganda-Webseiten an, sucht man nach den richtigen Schlagwörtern. Was ganz oben in den Treffern steht, was weiter unten, hängt von zahlreichen Faktoren ab. Dazu zählt beispielsweise auch, wie gut eine Webseite gebaut ist und wie oft sie besucht wird.
(emw)