YouTube: Mehr Schutz vor Deepfakes und unerlaubt geklonten Stimmen geplant
YouTube arbeitet an mehr Möglichkeiten, mit denen Künstler sich vor KI-generierten Inhalten schützen können, etwa vor unerlaubten Stimmklonen oder Deepfakes.
YouTube arbeitet zum Schutz vor KI-Kopien an mehr Kontrollmöglichkeiten für Künstler und Content-Ersteller. Laut YouTube sollen die neuen Technologien zum Schutz von Urheberrechten und Persönlichkeitsrechten beitragen und gleichzeitig die "kreativen Potenziale der KI" fördern. Content-Ersteller erhalten laut YouTube mehr Entscheidungsfreiheit darüber, wie Drittunternehmen ihre Inhalte auf der Plattform nutzen dürfen. Details sollen im Laufe des Jahres folgen.
Lesen Sie auch
Recht: Darf man die Stimme eines Menschen per KI klonen?
Für einen größeren Schutz der Inhalte seiner Nutzer arbeitet YouTube derzeit an einer Möglichkeit, geklonte Stimmen zu erkennen. Die geplante Funktion soll in dem 2018 ins Leben gerufenen Tool "Content ID" integriert werden, einem System, das YouTuber nutzen, um ihre urheberrechtlich geschützten Inhalte auf YouTube einfacher erkennen und verwalten zu können. Die zu schützenden Inhalte werden dabei, auf Ansinnen der Urheber, in einer Datenbank mit Audio- und Bilddateien gespeichert und mit neu hochgeladenen Videos abgeglichen.
Anfang 2025 soll es mit dem Tool – zunächst in einer Pilotphase – möglich sein, geklonte Stimmen von sich selbst zu erkennen. Bei erkannter Übereinstimmung "wird ein Content ID-Anspruch auf das übereinstimmende Video erhoben", erklärt YouTube. Anschließend lassen sich Maßnahmen wie das Sperren der Inhalte oder die Monetarisierung einleiten.
Deepfakes erkennen
Darüber hinaus entwickelt YouTube eine Technik, mit der sich KI-generierte Deepfakes auf YouTube erkennen und verwalten lassen. Im November 2023 hatte YouTube angemahnt, stärker gegen Musik vorzugehen, die auf Basis bestehender Musik von Künstlern geklont wurde. Die rasante Entwicklung generativer KI-Musiktools hatte bei Musikern Ängste hinsichtlich Plagiate und Urheberrechtsverletzungen geweckt. In einem offenen Brief hatten Anfang des Jahres über 200 Künstler eine verantwortungsbewusste Entwicklung von KI gefordert, um die Lebensgrundlage von Künstlern zu schützen.
Tool gegen Deepfakes in Entwicklung
Ein weiteres Tool, das sich bei YouTube in der Entwicklung befindet, soll demnach Deepfakes von Gesichtern "von Kreativen und Schauspielern bis hin zu Musikern und Sportlern" auf der Plattform erkennen können. Das System befindet sich noch in aktiver Entwicklung, und YouTube hat noch nicht angegeben, wann es voraussichtlich startet.
YouTube kündigt zudem an, härter gegen Personen vorzugehen, die die Plattform nutzen, um KI-Tools zu entwickeln. Der unautorisierte Zugriff auf Inhalte von Content-Erstellern verstößt gegen die Nutzungsbedingungen. Dennoch haben zahlreiche Unternehmen wie Nvidia, OpenAI und Anthropic ihre KI-Systeme anhand von Tausenden gescrapeter YouTube-Videos trainiert. Zu den Schutzmaßnahmen dagegen gehört das Blockieren von Scraping und Investitionen in Erkennungssysteme für das Sammeln von Inhalten.
Lesen Sie auch
Copyright-Sammelklage gegen Anthropic
(mack)