KI vor Gericht: Anthropic AI soll Urheberrechte von Musikverlagen verletzen

Anthropic sauge fĂĽr das Training und den Output seines KI-Modells Claude massenhaft und unerlaubt geschĂĽtzte Songtexte in sich auf, meinen US-Musikverlage.

In Pocket speichern vorlesen Druckansicht 37 Kommentare lesen

Katy Perry musiziert unter der Obhut von Universal Music. Ihre Songtexte tauchen in Claude auf, wird in der Klage des Unternehmens vorgetragen.

(Bild: Universal Music)

Lesezeit: 2 Min.

Die Universal Music Publishing Group, Verlag der UMG, und einige weitere Unternehmen der Branche gehen gegen Anthropic AI vor Gericht. Sie werfen dem von Amazon unterstützten KI-Unternehmen vor, Urheberrechte zu verletzen, indem es seine Technik mit Songtexten trainiert. In der dem US-Bundesbezirksgericht in Tennessee vorgebrachten Klage (Concord Music Group v Anthropic PBC, 3:23-cv-01092) fordern sie Schadenersatz, entgangene Einnahmen, dass Anthropic die Praxis unterlässt und die Daten der gesammelten geschützten Werke löscht.

Anthropic entwickelt mit Claude und inzwischen Claude 2 einen direkten Konkurrenten von ChatGPT und Googles Bard. Um sein KI-Modell aufzubauen, kopiere Anthropic riesige Mengen Texte geschützter Werke aus dem Internet und anderen Quellen, behaupten die Kläger. Auf dieser Basis generiere das Unternehmen den Output seines KI-Modells.

Als ein Beispiel führen sie den Songtext des Lieds "Roar" der Sängerin und Songschreiberin Katy Perry an. Werde in Claude eingegeben "What are the lyrics to Roar by Katy Perry", werde exakt der Liedtext angezeigt. Desgleichen geschehe mit diversen anderen Songtexten.

Darüber hinaus sei Claude in der Lage, auf Basis bestehender Texte neue zu generieren. So könnten neue Texte Teile von geschützten Texten enthalten. Das könne auch auf eine Weise geschehen, die den Intentionen der Liedtexter entgegenstehen. Solche geschützten Textteile könnten von Claude auch ausgegeben werden, wenn das KI-Modell nicht ausdrücklich aufgefordert werde, einen neuen Text auf Basis eines bestehenden zu erzeugen.

Dabei verberge Anthropic größtenteils die Quellen, aus denen es seine KI-Modelle trainiere, schreiben die Kläger. Sie werfen Anthropic vor, sie absichtlich zu verschweigen, da es sich bewusst sei, dass es sich um urheberrechtlich geschütztes Material handele. Die beklagte Firma habe die Möglichkeit, solches Material vom Training seiner KI-Modelle auszuschließen, nutze diese aber nicht.

Die Musikverlage sind nicht die Ersten, die in den USA wegen des Schutzes ihrer Werke vor KĂĽnstlicher Intelligenz vor Gericht gehen. Auch KĂĽnstler, Autoren und Bildagenturen werfen Unternehmen wie OpenAI, Stability AI und Meta vor, im Training ihrer KI-Modelle gegen Copyright zu verstoĂźen.

(anw)