Anthropic wirft chinesischen Unternehmen unlautere Praktiken vor
Nach OpenAI beschuldigt nun auch Anthropic DeepSeek und andere chinesische Firmen, zur Verbesserung ihrer KI-Modelle „Destillation” einzusetzen.
(Bild: Tada Images/Shutterstock)
Das US-amerikanische KI-Start-up Anthropic wirft drei chinesischen KI-Unternehmen vor, mehr als 24.000 betrügerische Konten mit Anthropics KI-Modell Claude eingerichtet zu haben, um die eigenen KI-Modelle zu verbessern. Die Unternehmen DeepSeek, Moonshot AI und MiniMax hätten auf diese Weise mehr als 16 Millionen Interaktionen mit Claude generiert, um ihre eigenen Systeme zu trainieren. Das erklärte Anthropic am Montag in einem Blogbeitrag und bemängelte Verstöße gegen die Nutzungsbedingungen und regionalen Zugangsbeschränkungen.
Die chinesischen Konkurrenten verwendeten eine Technik, die „Destillation“ genannt wird, bei der ein weniger leistungsfähiges Modell anhand der Ergebnisse eines leistungsstärkeren Modells trainiert wird. Anthropic erklärte, dass Destillation eine weitverbreitete und legitime Trainingsmethode sei. Beispielsweise destillierten führende KI-Anbieter routinemäßig ihre eigenen Modelle, um ihren Kunden kleinere und kostengünstigere Versionen zur Verfügung zu stellen.
Destillation könne jedoch auch für illegale Zwecke genutzt werden: Wettbewerber könnten mittels dieser Methode leistungsstarke Konkurrenzprodukte „in einem Bruchteil der Zeit und zu einem Bruchteil der Kosten, die für die eigenständige Entwicklung erforderlich wären“, entwickeln.
Ähnliches Vorgehensmuster
Die drei chinesischen Unternehmen seien nach einem ähnlichen Muster vorgegangen, so Anthropic. Sie nutzten betrügerische Konten und Proxy-Dienste, um in großem Umfang auf Claude zuzugreifen und unentdeckt zu bleiben. „Das Volumen, die Struktur und der Schwerpunkt der Anfragen unterschieden sich von normalen Nutzungsmustern und spiegelten eher eine absichtliche Ausbeutung der Funktionen als eine legitime Nutzung wider“, schreibt Anthropic. Man habe anhand von IP-Adresskorrelationen, Metadaten von Anfragen, Infrastrukturindikatoren und in einigen Fällen durch Bestätigung von Partnern, die dieselben Akteure und Verhaltensweisen auf ihren Plattformen beobachtet hatten, „jede Kampagne mit hoher Sicherheit einem bestimmten Labor zuordnen“ können.
Der Umfang der Destillationsaktivitäten der verschiedenen Unternehmen variierte. DeepSeek führte laut Anthropic 150.000 Interaktionen mit Claude durch, während Moonshot und MiniMax mehr als 3,4 Millionen bzw. mehr als 13 Millionen Interaktionen verzeichneten. Solche Kampagnen würden „immer intensiver und ausgefeilter“, klagt Anthropic und mahnt „schnelle, koordinierte Maßnahmen der Akteure der Branche, der Politik und der globalen KI-Gemeinschaft“ an.
OpenAI vs. DeepSeek
Zahlreiche chinesische KI-Unternehmen haben kürzlich ihre neuesten KI-Modelle vorgestellt, darunter Moonshot und MiniMax. Laut der US-Tageszeitung Wall Street Journal verfügen viele dieser neuen Modelle über verbesserte Fähigkeiten im Bereich des logischen Denkens und der Programmierung. In Kürze dürfte dann auch das KI-Modell der nächsten Generation von Chinas KI-Vorreiter DeepSeek vorgestellt werden. Als das Unternehmen Anfang vergangenen Jahres sein Reasoning-Modell R1 präsentierte, schockierte dessen Konkurrenzfähigkeit die Branche – zumal das Unternehmen für das KI-Training nur einen Bruchteil der immensen Kosten der US-Konkurrenz aufwendete. Es gab Zweifel, ob die teils hunderte Milliarden US-Dollar teure KI-Infrastruktur, die vor allem von US-Unternehmen aufgebaut wird, überhaupt notwendig ist.
Schnell gab es Gerüchte und Vermutungen, vornehmlich aus den USA, DeepSeek habe für die Entwicklung seiner KI-Modelle Destillation genutzt. OpenAI warf DeepSeek vor, seinen Chatbot mit ChatGPT trainiert zu haben. Im September veröffentlichte die Fachzeitschrift Nature dann erstmals konkrete Informationen zum Training von DeepSeek. Das KI-Training habe demnach weniger als 300.000 US-Dollar gekostet. Der Artikel zu Deepseek-R1 zeigt, wie das chinesische Unternehmen ein automatisiertes Ausprobieren („trial and error“) eingeführt hat, bei dem die Technik belohnt wurde, wenn sie korrekte Antworten ermittelte.
Dennoch schickte nach Informationen des Wall Street Journal OpenAI Anfang dieses Monats ein Memo an Abgeordnete des US-Repräsentantenhauses, in dem DeepSeek beschuldigt wird, Destillation zu verwenden, um die Produkte von OpenAI nachzuahmen.
Videos by heise
Warnungen von Anthropic
Anthropic warnt nun in dem Blogbeitrag, dass Destillationsangriffe Exportkontrollen untergraben, die eingeführt wurden, um die Führungsposition der Vereinigten Staaten im Bereich der KI gegenüber Konkurrenten wie China zu erhalten. Destillation erfordere in großem Maße Zugang zu fortschrittlichen Chips, so Anthropic weiter, woraus das Unternehmen die Schlussfolgerung ableitet: „Der eingeschränkte Zugang zu Chips begrenzt sowohl das direkte Modelltraining als auch das Ausmaß der illegalen Destillation.“
Auch werfe das Vorgehen derchinesischenn Unternehmen „erhebliche Risiken für die nationale Sicherheit“ der Vereinigten Staatenaufs. „Ausländische Labore, die amerikanische Modelle destillieren, können diese ungeschützten Funktionen dann in Militär-, Geheimdienst- und Überwachungssysteme einspeisen.“
(akn)