OpenAI und das Urheberrecht: Inhalte kostenlos nutzen sei "fair"

Sie werfen der Times vor, Sachen zu verheimlichen, sie selbst gingen fair vor. OpenAI wehrt sich gegen Klagen zu Urheberrechtsverletzungen durch KI-Training.

In Pocket speichern vorlesen Druckansicht 205 Kommentare lesen

(Bild: Blogbeitrag OpenAI: Illustration: Justin Jay Wang × DALL·E)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Vier Gründe seien es, weshalb OpenAI im Streit um Urheberrechtsverletzungen Recht behalten werde, erklärt das KI-Unternehmen in einem Blogbeitrag. Es wehrt sich gegen eine Klage der New York Times, will aber offensichtlich auch anderen potenziellen Klägern Wind aus den Segeln nehmen. Zu den Argumenten gehört, dass man bereits mit Verlagen nach Kooperationswegen suche und auch, dass die New York Times nicht alles erzählen würde, was relevant sei.

OpenAI führt im Blogbeitrag zunächst an: "Wir arbeiten mit Nachrichten-Organisationen zusammen und schaffen neue Möglichkeiten." Man "unterstütze" Verlage und Journalisten sogar und wolle ein gesundes Nachrichten-Ökosystem schaffen. Wenn ChatGPT Inhalte in Echtzeit anzeigen kann, sei das ein neuer Weg, wie Verlage mit ihren Lesern in Verbindung treten können. Das zeigten auch die ersten Partnerschaften mit dem Axel Springer Verlag, der Nachrichtenagentur AP und der Privatuniversität New York University.

Axel Springer bekommt mehrere Millionen Euro dafür, dass OpenAI auf alle Inhalte von Bild, Welt, Politico und Business Insider zugreifen darf. Wie Verlage konkret davon profitieren könnten, wenn ihre Inhalte bei ChatGPT auftauchen, schreibt OpenAI nicht. Partnerschaften mit allen Verlagen der Welt dürften sehr teuer werden. Microsoft hatte ursprünglich angekündigt, Verlagen Anteile zu zahlen, wenn ihre Inhalte in der neuen Suchmaschine Bing auftauchen. Dazu ist es bisher nicht gekommen.

Dass für das Training der KI-Modelle frei zugängliche Inhalte aus dem Internet genutzt werden, sei "fair", so OpenAi – "fair für Creator, unerlässlich für Innovationstreiber und essenziell wichtig für den US-Wettbewerb." Nicht nur OpenAI sehe das so, auch Wissenschaftler, Bürgerrechtsorganisationen, große US-Unternehmen, aber auch Inhalteersteller und Autoren seien dieser Meinung. Sowohl die US-Gesetzgebung, als auch die in der EU, in Japan, Singapur und Israel erlaubten die derartige Nutzung von Inhalten – dies sei "ein Vorteil für KI-Innovation, Förderung und Investition."

Weil es aber OpenAI wichtiger ist, ein "guter Bürger" zu sein, als das Gesetz auf der eigenen Seite zu haben, bietet man seit dem vergangenen Sommer die Möglichkeit an, Crawler auszuschließen, sodass die eigenen Inhalte nicht in das KI-Training fallen. Neben der New York Times sehen aber auch andere Autoren, Verlage und Inhalteersteller die Sache anders und klagen gegen OpenAI wegen möglicher Urheberrechtsverletzungen. Die Gesetzeslage kennt den Fall bislang nicht, dass Inhalte für das Training von KI-Modellen genutzt werden.

Die Wiedergabe (Regurgitation) von gelernten Inhalten sei ein seltener Bug, erklärt das Unternehmen des Weiteren. Die New York Times hat in ihrer Anklage gegen OpenAI wegen Verletzung des Urheberrechts hervorgebracht, dass Artikel nahezu eins zu eins ausgegeben wurden, wenn man in etwa den ersten Absatz als Prompt eingibt. OpenAI hatte dies bereits als Verstoß gegen die eigenen Nutzungsbedingungen gewertet. Man arbeite daran, dass diese Wiedergabe so nicht mehr stattfindet. Bis dahin setze man auf den respektvollen Umgang der Nutzenden – also darauf, dass Menschen den Chatbot nicht anders nutzen, als gedacht. Bisher zeigte sich aber eher Gegenteiliges: Menschen versuchen dem Chatbot von Beginn an Geheimnisse zu entlocken.

OpenAI wendet sich konkret gegen die New York Times, die mit der Klage auf Schadenersatz hofft, vor allem aber Vorreiter sein will. Die beiden Parteien seien laut OpenAI noch bis Mitte Dezember in guten Gesprächen gewesen, bei denen es um eine Kooperation ging. Dabei habe man dem Verlag auch gesagt, dass er nicht bedeutend für das eigene Training der KI-Modelle sei – wie jede andere Quelle auch nur einen kleinen Teil ausmache.

Im Sommer 2023 hatte OpenAI ChatGPT ins Internet gelassen. Die Funktion wurde kurz darauf eingestellt. OpenAI begründete den Schritt damit, dass der Chatbot offensichtlich hinter Bezahlschranken schauen konnte. Um zu beweisen, dass sie wirklich an einem gemeinsamen Weg interessiert sind, hat OpenAI die Funktion sofort wieder zurückgezogen. Erst später im Jahr durfte ChatGPT wieder auf das Web zugreifen.

Beispiele, die die Times anführt, die von ChatGPT wiedergegeben worden sein sollen, seien alt und schon längst an anderen Stellen im Internet offen aufgetaucht, argumentiert OpenAI. Zudem wirft OpenAI der New York Times im Blogbeitrag erneut vor, Prompts genutzt zu haben, die nicht genutzt werden dürfen. Man arbeite jedoch daran, solche Möglichkeiten und Adversarial Attacks zu verhindern, also solche, bei denen manipulative Eingaben gemacht werden.

(emw)