OpenAI sperrt Tiktok aus – Bytedance soll bei ChatGPT klauen
Bytedance will ein chinesisches ChatGPT entwickeln. Dafür soll der Tiktok-Mutterkonzern bei OpenAI geklaut haben. Die untersuchen den Fall.
OpenAI hat einen Account gesperrt, mit dem Bytedance via API auf ChatGPT beziehungsweise GPT-4 zugreifen konnte. Der Mutterkonzern von Tiktok soll auf diesem Weg Daten abgegriffen haben, was einen Verstoß gegen die Nutzungsbedingungen von OpenAI darstellt. Bytedance möchte ein chinesisches ChatGPT aufbauen und hat dafür die Informationen genutzt.
Über den Vorfall berichtet Alex Heath im kostenpflichtigen Newsletter von The Verge. Heath wurden Dokumente zugespielt, die zeigen, dass Bytedance bei der Entwicklung seines KI-Modells auf die Technik von OpenAI zurückgegriffen hat. Dafür sollen sie über ihre Microsoft-Partnerschaft die API genutzt haben. Das Modell heißt laut der internen Dokumente "Project Seed", der Chatbot von Bytedance nennt sich Doubao. Mitarbeiter sollen sich des Fehlverhaltens bewusst gewesen sein. Sie sollen darüber geschrieben haben, wie sie das Vorgehen vertuschen können. Auch diese Informationen sind bei Heath gelandet.
OpenAI bestätigt, Bytedance erklärt sich
Der Journalist fragte bei OpenAI nach. Deren Sprecher bestätigte, dass ein Bytedance-Konto gesperrt und die Vorwürfe untersucht würden. Allerdings heißt es da, Bytedance habe den Zugang via API wenig genutzt. Sollte sich jedoch bestätigten, dass gegen die Nutzungsbedingungen verstoßen wurde, werde der Account grundlegend gelöscht – oder Bytedance müsse sein Verhalten ändern.
Bytedance erklärte auf Nachfrage, dass sie GPT-generierte Daten nur zu Beginn der Entwicklung ihres Projektes genutzt hätten, konkret zur Annotation. Inzwischen seien die Daten entfernt worden. Bytedance sei jedoch ein lizenzierter Microsoft-Partner und verwende GPT-Modelle entsprechend für die eigenen Produkte außerhalb Chinas, heißt es in dem Statement weiter.
Daten aus anderen KI-Modellen für das Training eigener KI-Modelle zu verwenden, kann zwar die Entwicklung beschleunigen, aber auch dazu führen, dass eventuelle Fehler und Verzerrungen, wie etwa ein Bias, noch verstärkt werden – die Qualität also leidet.
Lesen Sie auch
Google KI: Gemini in Python-Programmen einsetzen
KI-Assistenten helfen Entwicklern, die Qualität ihres Codes zu verbessern
Das bringt generative KI wirklich: Cases & Ergebnisse aus dem Alltag von heise
KI-Boom: Nvidia wächst rasant weiter
Donnerstag: Sicherheitslücke bei Bonitätsdaten, Chinas KI-Modell mit Reasoning
(emw)