OpenAI sperrt Tiktok aus – Bytedance soll bei ChatGPT klauen

Bytedance will ein chinesisches ChatGPT entwickeln. Dafür soll der Tiktok-Mutterkonzern bei OpenAI geklaut haben. Die untersuchen den Fall.

In Pocket speichern vorlesen Druckansicht 29 Kommentare lesen

(Bild: Skorzewiak/Shutterstock.com)

Lesezeit: 2 Min.

OpenAI hat einen Account gesperrt, mit dem Bytedance via API auf ChatGPT beziehungsweise GPT-4 zugreifen konnte. Der Mutterkonzern von Tiktok soll auf diesem Weg Daten abgegriffen haben, was einen Verstoß gegen die Nutzungsbedingungen von OpenAI darstellt. Bytedance möchte ein chinesisches ChatGPT aufbauen und hat dafür die Informationen genutzt.

Über den Vorfall berichtet Alex Heath im kostenpflichtigen Newsletter von The Verge. Heath wurden Dokumente zugespielt, die zeigen, dass Bytedance bei der Entwicklung seines KI-Modells auf die Technik von OpenAI zurückgegriffen hat. Dafür sollen sie über ihre Microsoft-Partnerschaft die API genutzt haben. Das Modell heißt laut der internen Dokumente "Project Seed", der Chatbot von Bytedance nennt sich Doubao. Mitarbeiter sollen sich des Fehlverhaltens bewusst gewesen sein. Sie sollen darüber geschrieben haben, wie sie das Vorgehen vertuschen können. Auch diese Informationen sind bei Heath gelandet.

Der Journalist fragte bei OpenAI nach. Deren Sprecher bestätigte, dass ein Bytedance-Konto gesperrt und die Vorwürfe untersucht würden. Allerdings heißt es da, Bytedance habe den Zugang via API wenig genutzt. Sollte sich jedoch bestätigten, dass gegen die Nutzungsbedingungen verstoßen wurde, werde der Account grundlegend gelöscht – oder Bytedance müsse sein Verhalten ändern.

Bytedance erklärte auf Nachfrage, dass sie GPT-generierte Daten nur zu Beginn der Entwicklung ihres Projektes genutzt hätten, konkret zur Annotation. Inzwischen seien die Daten entfernt worden. Bytedance sei jedoch ein lizenzierter Microsoft-Partner und verwende GPT-Modelle entsprechend für die eigenen Produkte außerhalb Chinas, heißt es in dem Statement weiter.

Daten aus anderen KI-Modellen für das Training eigener KI-Modelle zu verwenden, kann zwar die Entwicklung beschleunigen, aber auch dazu führen, dass eventuelle Fehler und Verzerrungen, wie etwa ein Bias, noch verstärkt werden – die Qualität also leidet.

(emw)