Wie sich Künstler gegen die Nutzung ihrer Bilder als KI-Vorlagen wehren

Die Bilder des Digitalkünstlers Greg Rutkowski dienen KI-Bildgeneratoren als beliebte Vorlage. Doch glücklich ist er darüber nicht.

In Pocket speichern vorlesen Druckansicht 175 Kommentare lesen

"Secret Pass - Eagle Nest" ist ein eigenes Werk, das in Rutkowskis ArtStation-Portfolio zu finden ist.

(Bild: Greg Rutkowski)

Lesezeit: 11 Min.
Von
  • Melissa Heikkilä
Inhaltsverzeichnis

Sie haben diese coolen KI-generierten Bilder im Internet gesehen? Die Wahrscheinlichkeit ist groß, dass sie auf den Werken von Greg Rutkowski basieren. Rutkowski ist ein polnischer Digitalkünstler, der klassische Malstile verwendet, um verträumte Fantasielandschaften zu schaffen. Er hat Illustrationen für Spiele wie Sonys Horizon Forbidden West, Ubisofts Anno, Dungeons & Dragons und Magic: The Gathering angefertigt. Nun ist Rutkowski plötzlich auch in der neuen Welt der Text-zu-Bild-KI-Generierung ein Hit geworden.

Sein unverwechselbarer Stil ist jetzt einer der am häufigsten verwendeten Eingabevorschläge in dem neuen Open-Source-KI-Generator Stable Diffusion, der Ende August veröffentlicht wurde. Zusammen mit anderen beliebten KI-Modellen zur Bilderzeugung ermöglicht das Werkzeug jedem User, beeindruckende Bilder auf der Grundlage von Textvorgaben zu erstellen.

Gibt man zum Beispiel ein: "Zauberer mit Schwert und einer glühenden Kugel aus magischem Feuer kämpft gegen einen wilden Drachen Greg Rutkowski", wird das System etwas produzieren, das nicht weit von Werken im Stil Rutkowskis entfernt ist.

(Bild: MS Tech via Stable Diffusion)

Diese Open-Source-Programme werden mithilfe von aus dem Internet geklaubten Bildern erstellt, oft ohne Erlaubnis und ohne angemessene Nennung der Künstler. Daher werfen sie heikle Fragen zu Ethik und Urheberrecht auf. Jetzt haben Künstler wie Rutkowski genug davon.

Laut der Webseite Lexica, die über zehn Millionen von Stable Diffusion generierte Bilder und Prompts, also Vorlagen für die KI, verfolgt, wurde Rutkowskis Name rund 93.000 Mal als Prompt verwendet. Einige der berühmtesten Künstler der Welt, wie Michelangelo, Pablo Picasso und Leonardo da Vinci, wurden jeweils nur etwa 2.000 Mal oder weniger aufgerufen. Rutkowskis Name taucht auch tausende Male als Eingabevorschlag auf dem Discord-Server eines anderen Text-zu-Bild-Generators, Midjourney, auf.

Rutkowski war zunächst überrascht, dachte aber, dass dies eine gute Möglichkeit sei, neue Zielgruppen zu erreichen. Dann versuchte er, nach seinem Namen zu suchen, um zu sehen, ob ein Werk, an dem er gearbeitet hatte, veröffentlicht worden war. Die Online-Suche ergab Arbeiten, die mit seinem Namen versehen waren, aber nicht von ihm stammten.

(Bild: MS Tech via Stable Diffusion)

"Es ist erst einen Monat her. Wie wird es in einem Jahr aussehen? Wahrscheinlich werde ich meine Werke nicht mehr finden können, weil [das Internet] mit KI-Kunst überflutet sein wird", sagt Rutkowski. "Das ist besorgniserregend."

Das Unternehmen Stability.AI, das Stable Diffusion entwickelt hat, hat das Modell mit dem von der deutschen gemeinnützigen Organisation LAION zusammengestellten LAION-5B-Datensatz trainiert. LAION grenzte den Datensatz ein, indem es mit einem Wasserzeichen versehene Bilder herausfilterte, ebenso wie nicht ästhetisch Bilder wie Logos, sagt der Technologe und Autor Andy Baio. Er hat 12 Millionen der 600 Millionen Stable-Diffusion-Bilder, die zum Trainieren des Modells verwendet wurden, heruntergeladen und analysiert. Dabei stellte er fest, dass ein großer Teil davon von Drittanbieter-Websites wie Pinterest und Kunsthandelsseiten wie Fine Art America stammt.

Viele von Rutkowskis Kunstwerken wurden von ArtStation entnommen, einer Webseite, auf der viele Künstler ihre Online-Portfolios hochladen. Seine Popularität als KI-Souffleur ist auf mehrere Gründe zurückzuführen. Erstens sieht sein fantastischer und ätherischer Stil sehr cool aus. Außerdem ist er sehr produktiv, und viele seiner Illustrationen sind online in ausreichender Qualität verfügbar, so dass es viele Beispiele gibt, aus denen man wählen kann. Ein früher Text-zu-Bild-Generator namens Disco Diffusion schlug "Rutkowski" von selbst als Beispiel für eine Eingabeaufforderung vor.

Was das Einsammeln von Rutkowskis Bildern aus dem Internet zusätzlich erleichtert, ist der englischsprachige Alt-Text, den er seinen online gestellten Arbeiten hinzufügt. Diese Bildbeschreibungen sind eigentlich für Menschen mit Sehbehinderungen gedacht, die eine Bildschirmlesesoftware verwenden, aber sie helfen auch Suchmaschinen, die Bilder einzustufen. Sie lassen des Weiteren das KI-Modell wissen, welche Bilder für Prompts wichtig sind.

Stability.AI hat das Modell kostenlos veröffentlicht und erlaubt jedem, es für kommerzielle oder nichtkommerzielle Zwecke zu nutzen. Tom Mason, Chief Technology Officer von Stability.AI, sagt jedoch, dass die Lizenzvereinbarung von Stable Diffusion ausdrücklich verbietet, das Modell oder seine Derivate in einer Weise zu nutzen, die gegen Gesetze oder Vorschriften, wie etwa Urheberrechte, verstößt. Damit wird die Verantwortung auf die Nutzer abgewälzt.

Neben Rutkowski sind auch andere Künstler von der offensichtlichen Beliebtheit ihrer Werke in Text-Bild-Generatoren überrascht worden. Einige wehren sich nun dagegen. Karla Ortiz, eine in San Francisco ansässige Illustratorin, die ihre Arbeiten im Datensatz von Stable Diffusion gefunden hat, versucht, auf die Problematik der KI-Kunst und des Urheberrechts aufmerksam zu machen.

Künstler sagen, dass ihnen Einkommensverluste drohen, wenn KI-generierte Bilder, die auf urheberrechtlich geschütztem Material basieren, zu kommerziellen Zwecken verwendet werden. Aber es ist auch viel persönlicher, sagt Ortiz, und argumentiert, dass Kunst so eng mit einer Person verbunden ist, dass es Probleme mit dem Datenschutz und der Privatsphäre aufwerfen könnte.

"Innerhalb der Künstlerbranche bildet sich eine Koalition, um herauszufinden, wie man dieses Problem angehen oder entschärfen kann", sagt Ortiz. Die Gruppe befindet sich noch in der Anfangsphase ihrer Mobilisierung, die auch die Forderung nach neuen Richtlinien oder Vorschriften beinhalten könnte.

Ein Vorschlag ist, dass KI-Modelle auf Bildern trainiert werden könnten, die öffentlich zugänglich sind, und KI-Unternehmen könnten Partnerschaften mit Museen und Künstlern eingehen, sagt Ortiz. "Es geht nicht nur um Künstler, sondern auch um Fotografen, Models, Schauspieler und Schauspielerinnen, Regisseure und Kameraleute", sagt sie. "Jede Art von visuellem Profi muss sich mit dieser speziellen Frage auseinandersetzen."

Derzeit haben Künstler nicht die Möglichkeit, sich in die Datenbank einzutragen oder ihre Werke entfernen zu lassen. Carolyn Henderson, die Managerin ihres Künstler-Ehemanns Steve Henderson, dessen Werke ebenfalls in der Datenbank enthalten sind, hat Stability.AI eine E-Mail geschickt, um die Entfernung der Werke ihres Mannes zu verlangen. Die Anfrage sei aber "weder bestätigt noch beantwortet" worden.

"Open-Source-KI ist eine großartige Innovation, und wir sind uns bewusst, dass es offene Fragen und unterschiedliche Rechtsauffassungen gibt. Wir gehen davon aus, dass diese im Laufe der Zeit geklärt werden, wenn KI allgegenwärtiger wird und verschiedene Gruppen einen Konsens darüber finden, wie die Rechte des Einzelnen und die grundlegende KI/ML-Forschung in Einklang gebracht werden können", so Mason von Stability.AI. "Wir bemühen uns, ein Gleichgewicht zwischen Innovation und Unterstützung der Gemeinschaft zu finden."

Mason ermutigt alle Künstler, die nicht wollen, dass ihre Werke in den Datensatz aufgenommen werden, sich mit LAION in Verbindung zu setzen, das eine von dem Start-up unabhängige Entität ist. LAION reagierte nicht sofort auf eine Bitte um Stellungnahme.

Die in Berlin lebenden Künstler Holly Herndon und Mat Dryhurst arbeiten an Werkzeugen, die Künstlern helfen sollen, sich gegen die Aufnahme in Trainingsdatensätze zu entscheiden. Sie haben eine Website mit dem Namen "Have I Been Trained" (Wurde ich trainiert?) ins Leben gerufen, auf der Künstler nachsehen können, ob ihr Werk unter den 5,8 Milliarden Bildern des Datensatzes ist, der für das Training von Stable Diffusion und Midjourney verwendet wurde. Einige Online-Kunst-Communities wie Newgrounds haben bereits Stellung bezogen und KI-generierte Bilder ausdrücklich verboten.

Eine Brancheninitiative namens Content Authenticity Initiative, der unter anderem Adobe, Nikon und die New York Times angehören, entwickelt einen offenen Standard, der eine Art Wasserzeichen auf digitalen Inhalten schaffen würde, um deren Authentizität zu belegen. Dies könnte dazu beitragen, Desinformation zu bekämpfen und sicherzustellen, dass die Urheber digitaler Inhalte angemessen gewürdigt werden.

"Es könnte auch eine Möglichkeit sein, mit der Urheber oder Inhaber von geistigem Eigentum das Eigentum an Medien geltend machen können, die ihnen gehören, oder an synthetischen Medien, die mit etwas erstellt wurden, das ihnen gehört", sagt Nina Schick, eine Expertin für Deepfakes und synthetische Medien.

KI-generierte Kunst wirft knifflige rechtliche Fragen auf. Im Vereinigten Königreich, wo Stability.AI seinen Sitz hat, könnte das Auslesen von Bildern aus dem Internet ohne die Zustimmung des Künstlers zum Trainieren eines KI-Tools eine Urheberrechtsverletzung darstellen, sagt Gill Dennis, Anwalt bei der Kanzlei Pinsent Masons. Urheberrechtlich geschützte Werke können zum Trainieren einer KI im Rahmen der "fairen Nutzung" verwendet werden, allerdings nur für nichtkommerzielle Zwecke. Während die Nutzung von Stable Diffusion kostenlos ist, bietet Stability.AI über eine Plattform namens DreamStudio auch einen Premium-Zugang zu dem Modell an.

"Castle Defense, 2018"

(Bild: Greg Rutkowski)

Das Vereinigte Königreich, das die heimische KI-Entwicklung ankurbeln möchte, will die Gesetze ändern, um KI-Entwicklern einen besseren Zugang zu urheberrechtlich geschützten Daten zu ermöglichen. Nach diesen Änderungen könnten Entwickler urheberrechtlich geschützte Werke nutzen, um ihre KI-Systeme sowohl für kommerzielle als auch nichtkommerzielle Zwecke zu trainieren.

Künstler und andere Rechteinhaber können sich zwar nicht aus dieser Regelung herausnehmen, aber sie können wählen, wo sie ihre Werke zur Verfügung stellen. Die Kunstszene könnte zu einem Pay-per-Play- oder Abonnement-Modell übergehen, wie es in der Film- und Musikindustrie üblich ist. "Das Risiko besteht natürlich darin, dass die Rechteinhaber sich einfach weigern, ihre Werke zur Verfügung zu stellen, was den eigentlichen Grund für die Ausweitung der fairen Nutzung im Bereich der KI-Entwicklung untergraben würde", sagt Dennis.

(Bild: MS Tech via Stable Diffusion)

In den USA hat LinkedIn einen Fall vor einem Berufungsgericht verloren, das im vergangenen Frühjahr entschied, dass das Auslesen öffentlich zugänglicher Daten aus Internetquellen keinen Verstoß gegen das Gesetzt gegen Computerbetrug und -missbrauch (Computer Fraud and Abuse Act) darstellt. Google gewann auch einen Prozess gegen Autoren, die sich dagegen wehrten, dass das Unternehmen ihre urheberrechtlich geschützten Werke für Google Books auswertet.

Rutkowski sagt, dass er den Leuten, die seinen Namen als Prompt verwenden, keinen Vorwurf macht. "Für sie ist es ein cooles Experiment", sagt er. "Aber für mich und viele andere Künstler sieht es langsam wie eine Bedrohung für unsere Karrieren aus."

(vsz)