Missing Link: Musik ohne Musiker? KI schwingt den Taktstock

Seite 3: Neue Ausdrucksmöglichkeiten für Musiker

Inhaltsverzeichnis

Die Erkenntnisse des Wissenschaftlers decken sich weitgehend mit Ansichten, die Branchenvertreter und andere Experten zur laufenden Digitalisierungswelle im Musiksektor auf der Most Wanted Music vertraten. Die Idee von Melodrive sei es, mithilfe von KI Kollaborationswerkzeuge für neue Ausdrucksmöglichkeiten von Musikern zu schaffen, erklärte der Cheftechniker der Firma, Andy Elmsley. Es entstehe gerade dank der Technologie eine gigantische musikalische Spielweise, um adaptive und interaktive Formen hervorzubringen. Die erste Version der Melodrive-Software habe dabei noch zu viel aus dem kreativen Prozess mit dem Komponisten herausgenommen, räumte Elmsley ein. Für die zweite Stufe kündigte er mehr persönliche Einflussmöglichkeiten an, mit denen sich auch Spieler ihren "eigenen Soundtrack" schaffen könnten.

Die große Angst, dass gute Musik vom Computer zerstört wird, kann auch Jovanka v. Wilsdorf nicht teilen. Mit dem Heim-PC und dem Keyboard habe sich der Stil von Musik zwar geändert, echte Instrumente hätten aber auch ein Revival erlebt, weiß die Songschreiberin, die für BMG Rights Management auf der Talentsuche ist. Mit KI werde nun in dem Bereich sicher "viel Schrott" herauskommen ohne echte Schaffensfreude. Dazu träten aber mehr Optionen, das eigene Leben mit ständig neuen "Sound-Ästhetiken" zu untermalen. Außerdem sei die Gegenbewegung unvermeidlich, die auf den "echten Human Touch" setzen werde.

Die große Hoffnung, die v. Wilsdorf mit dem KI-Hype in der Industrie verbindet: Die "Pop-Blase" soll platzen. Dies sei absehbar, da sich auch auf weichgespülte Songs setzende Mainstream-Musiker künftig mehr anstrengen und sich differenzieren müssten, "um gegen die KI zu gewinnen".

Im Prinzip sei Künstliche Intelligenz ein Hilfswerkzeug für den Menschen, um Kunst zu generieren, sagt auch Diarmuid Moloney, Gründer von Rotor Video. Bei dem aktuellen Angebot des Startups kann der Nutzer "in zehn Minuten für 30 US-Dollar" ein Video für einen Song erzeugen. Das System, das in einer Betaversion online ist, untersucht die Musik anhand von Faktoren wie der Intensität des Begleitchors und produziert dazu passende visuelle Effekte.

Für die Sprachanalyse habe man "viel von Google" übernommen und darauf eigene Prozesse und Algorithmen aufgebaut, verrät Moloney. Auch "Elemente von Maschinenlernen und automatisierter Bilderkennung" seien im Spiel, um etwa sich bewegende Lippen auszumachen. Von "echter KI" will er aber noch nicht sprechen, lieber von einem "intelligenten Redaktionssystem". Um zu vermeiden, dass die davon produzierten Videos zu ähnlich aussehen, werde das visuelle Ausgangsmaterial immer wieder erneuert. Künftig wolle man auch mehr Personalisierungsmöglichkeiten schaffen oder Material etwa direkt von Drohnen aus einem Konzert einbinden. Ziel sei es, den Nutzern Optionen anzubieten, damit sie "unter die Haube der Technologie blicken können".

"Musik wird vollständig dynamisch", prophezeit der Berater Cliff Fluet. Die App AI Music weise in diese Richtung, da sie das Wesen der Musik an den Kontext anpasse, in dem sich der Hörer gerade befindet. Im Handumdrehen ließen sich mit der mobilen Anwendung etwa "Funky"-, "Chill down"- oder "Party"-Versionen bekannter Stücke erstellen. "Denken Sie dreidimensional, wenn es um Inhalte geht", empfahl der Brite dem Publikum. Vorbild sei der weitgehend personalisierte Newsfeed in sozialen Medien. KI sei aber auch ein wunderbares Kooperationswerkzeug, das Menschen zusammenbringen und gemeinsam einfacher musizieren lasse.

Vom "Tod der Musik" durch den smarten Rechner will auch Fluet nichts wissen. Schon die Beatles hätten im Studio produziert und die damals verfügbare Technik ausgereizt. Die Automatisierung verändere zwar viel, sie sei im kreativen Bereich aber kein Alleskönner und kein Patentrezept. Um lernende Systeme angemessen verwenden zu können, müssten sie einen handfesten Mehrwert für alle Beteiligten erzeugen.

Mehr Infos

(tiw)