Wie sich Künstler gegen die Nutzung ihrer Bilder als KI-Vorlagen wehren

Seite 2: Problematik der KI-Kunst

Inhaltsverzeichnis

Stability.AI hat das Modell kostenlos veröffentlicht und erlaubt jedem, es für kommerzielle oder nichtkommerzielle Zwecke zu nutzen. Tom Mason, Chief Technology Officer von Stability.AI, sagt jedoch, dass die Lizenzvereinbarung von Stable Diffusion ausdrücklich verbietet, das Modell oder seine Derivate in einer Weise zu nutzen, die gegen Gesetze oder Vorschriften, wie etwa Urheberrechte, verstößt. Damit wird die Verantwortung auf die Nutzer abgewälzt.

Neben Rutkowski sind auch andere Künstler von der offensichtlichen Beliebtheit ihrer Werke in Text-Bild-Generatoren überrascht worden. Einige wehren sich nun dagegen. Karla Ortiz, eine in San Francisco ansässige Illustratorin, die ihre Arbeiten im Datensatz von Stable Diffusion gefunden hat, versucht, auf die Problematik der KI-Kunst und des Urheberrechts aufmerksam zu machen.

Künstler sagen, dass ihnen Einkommensverluste drohen, wenn KI-generierte Bilder, die auf urheberrechtlich geschütztem Material basieren, zu kommerziellen Zwecken verwendet werden. Aber es ist auch viel persönlicher, sagt Ortiz, und argumentiert, dass Kunst so eng mit einer Person verbunden ist, dass es Probleme mit dem Datenschutz und der Privatsphäre aufwerfen könnte.

"Innerhalb der Künstlerbranche bildet sich eine Koalition, um herauszufinden, wie man dieses Problem angehen oder entschärfen kann", sagt Ortiz. Die Gruppe befindet sich noch in der Anfangsphase ihrer Mobilisierung, die auch die Forderung nach neuen Richtlinien oder Vorschriften beinhalten könnte.

Ein Vorschlag ist, dass KI-Modelle auf Bildern trainiert werden könnten, die öffentlich zugänglich sind, und KI-Unternehmen könnten Partnerschaften mit Museen und Künstlern eingehen, sagt Ortiz. "Es geht nicht nur um Künstler, sondern auch um Fotografen, Models, Schauspieler und Schauspielerinnen, Regisseure und Kameraleute", sagt sie. "Jede Art von visuellem Profi muss sich mit dieser speziellen Frage auseinandersetzen."

Derzeit haben Künstler nicht die Möglichkeit, sich in die Datenbank einzutragen oder ihre Werke entfernen zu lassen. Carolyn Henderson, die Managerin ihres Künstler-Ehemanns Steve Henderson, dessen Werke ebenfalls in der Datenbank enthalten sind, hat Stability.AI eine E-Mail geschickt, um die Entfernung der Werke ihres Mannes zu verlangen. Die Anfrage sei aber "weder bestätigt noch beantwortet" worden.

"Open-Source-KI ist eine großartige Innovation, und wir sind uns bewusst, dass es offene Fragen und unterschiedliche Rechtsauffassungen gibt. Wir gehen davon aus, dass diese im Laufe der Zeit geklärt werden, wenn KI allgegenwärtiger wird und verschiedene Gruppen einen Konsens darüber finden, wie die Rechte des Einzelnen und die grundlegende KI/ML-Forschung in Einklang gebracht werden können", so Mason von Stability.AI. "Wir bemühen uns, ein Gleichgewicht zwischen Innovation und Unterstützung der Gemeinschaft zu finden."

Mason ermutigt alle Künstler, die nicht wollen, dass ihre Werke in den Datensatz aufgenommen werden, sich mit LAION in Verbindung zu setzen, das eine von dem Start-up unabhängige Entität ist. LAION reagierte nicht sofort auf eine Bitte um Stellungnahme.

Die in Berlin lebenden Künstler Holly Herndon und Mat Dryhurst arbeiten an Werkzeugen, die Künstlern helfen sollen, sich gegen die Aufnahme in Trainingsdatensätze zu entscheiden. Sie haben eine Website mit dem Namen "Have I Been Trained" (Wurde ich trainiert?) ins Leben gerufen, auf der Künstler nachsehen können, ob ihr Werk unter den 5,8 Milliarden Bildern des Datensatzes ist, der für das Training von Stable Diffusion und Midjourney verwendet wurde. Einige Online-Kunst-Communities wie Newgrounds haben bereits Stellung bezogen und KI-generierte Bilder ausdrücklich verboten.