Wie Urheber ihre Werke vor unerlaubter KI-Nutzung schützen können

Entwickler beschaffen KI-Trainingsdaten oft mit unlauteren Methoden. Dagegen setzen sich Künstler und Autoren juristisch, technisch und inhaltlich zur Wehr.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 16 Kommentare lesen

(Bild: KI Midjourney | Collage: c’t)

Lesezeit: 20 Min.
Inhaltsverzeichnis

Damit sie an der Spitze bleiben, brauchen die großen KI-Firmen wie OpenAI, Microsoft und Alphabet einen ständigen Nachschub an frischen Daten für das Training: Texte, Bilder, Videos aus dem Internet. Ihre Sprachmodelle und Bildgeneratoren akkumulieren das Wissen von Millionen Autoren, Wissenschaftlern, Fotografen und Künstlern.

Dass sich die großen Unternehmen daran bedienen dürfen, hat die EU vor vier Jahren in ihrer Richtlinie 2019/790 erlaubt. Auf dieser Grundlage ist der § 44b im deutschen Urheberrecht entstanden. Er besagt, dass KI-Entwickler ihre Modelle mit allen ihnen zugänglichen Daten trainieren dürfen, solange ein Urheber nicht widerspricht (Opt-out-Regelung). Im Streitfall müssen nicht die KI-Entwickler nachweisen, dass alle ihre Daten zum Training freigegeben sind. Vielmehr müssen die Urheber nachweisen, dass sie widersprochen haben und ihre Werke trotzdem zum Training verwendet wurden.

KI-Kompendium: KI und Recht, Kunst und Bildung

Das ist auch der Grund, warum die großen KI-Entwickler ihr Trainingsmaterial geheim halten. Zum einen, um Urhebern keine Munition für Klagen zu liefern. Zum anderen, um sich die Konkurrenz vom Leib zu halten. Daran wird auch der künftige AI Act der EU wenig ändern.

Das war die Leseprobe unseres heise-Plus-Artikels "Wie Urheber ihre Werke vor unerlaubter KI-Nutzung schützen können". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.