ChatGPT nutzt Grokipedia – Musks Wikipedia-Konkurrent

Grokipedia ist eine KI-generierte Enzyklopädie, betreut von Elon Musks xAI-Team. ChatGPT greift auf die teils kruden Inhalte zu.

vorlesen Druckansicht 21 Kommentare lesen
Geschäftsmann mit KI-Interface

(Bild: PopTika / Shutterstock.com)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

xAI veröffentlichte im Oktober eine KI-generierte Enzyklopädie im Stile von Wikipedia. Sie heißt Grokipedia, angelehnt an den Namen des Chatbots Grok. Inhalte aus Grokipedia tauchen nun auch in Antworten von ChatGPT und Claude auf.

Der Guardian hat sich die Antworten von ChatGPT mit Version GPT-5.2 angeschaut und dabei die auffälligen Inhalte gefunden. Grundsätzlich ist es nicht verwerflich, verschiedene Quellen und eben auch Grokipedia zu verwenden. Doch die Enzyklopädie war bereits mit Ungenauigkeiten und speziellen Deutungen aufgefallen. Dazu gehört, dass Pornografie laut Grokipedia zur Aids-Krise beigetragen habe. Außerdem sollen dort abwertende Begriffe für Transgender-Personen genutzt sowie ideologische Rechtfertigungen für Sklaverei niedergeschrieben worden sein.

Hintergrund der Grokipedia ist, dass Musk Wikipedia einen Bias vorwirft, nämlich einen, bei dem konservative Ansichten weniger sichtbar sind. Das ist sicherlich alles nicht sehr verwunderlich, bedenkt man, dass Musk meint, man müsse irreführende oder sexualisierte Chatbot-Inhalte nur einfach mit mehr Humor sehen. Alles andere sei Zensur. Zuletzt hatten zahlreiche Menschen Grok genutzt, um damit zum Teil pornografische Bilder zu generieren.

Nichtsdestotrotz zeigen die gefundenen Antworten, wie Grokipedia auch andere Chatbots und Informationsquellen infiltrieren kann. Zudem soll ChatGPT die Quelle nicht richtig ausgewiesen haben. Während die Antworten klar von Grokipedia stammen sollten, war die Enzyklopädie nicht als Quelle gelistet.

Videos by heise

Auch andere Webseiten können freilich Einfluss auf die Suchergebnisse und Antworten von Chatbots nehmen. Das sollen sich russische Propaganda-Netzwerke beispielsweise bereits zunutze machen. Das Vergiften von Trainingsdaten oder Verstecken von Anweisungen auf Webseiten sind grundsätzliche Gefahren für KI-Modelle und Anwender.

(emw)