Missing Link: Musik ohne Musiker? KI schwingt den Taktstock

Seite 2: Improvisations-Sets und dynamische Hintergrundmusik

Inhaltsverzeichnis

Auf dem Markt gibt es mittlerweile einige Anbieter von Software, mit der sich mithilfe neuronaler Netze und anderer lernender KI-Spielarten Musik erzeugen lässt. Dazu gehören Amper Music, Google Magenta mit NSynth Super, IBM Watson Beat, Melodrive oder Jukedeck. Mit dem System des zuletzt genannten Startups lassen sich hauptsächlich Soundtracks für Videos oder für Fotocollagen kreieren. Auswählbare Parameter sind etwa diverse Musikstile, Stimmungslagen, die gewünschte Länge, Instrumentierung und Tempo. Auch der ein oder andere orchestrale Höhepunkt ist einstellbar. Das Ergebnis hört sich in der Regel recht episch an ähnlich wie bei Filmmusik, wirkt auf die Dauer aber noch ziemlich eintönig.

Die Oberfläche der Lösung von Amper Music lobt Stober als weiter fortentwickelt und anspruchsvoller. So kann der Nutzer dort auch Klangformen wie "Band" auswählen, Instrumente hinzufügen oder Markierungspunkte setzen für diverse symbolische Akzente oder Anfang und Ende eines Stücks. Der Schwerpunkte liegt aber auch hier auf Soundtracks für Videos. Etwas enttäuscht hat den Wissenschaftler, dass der Hersteller nicht verrate, welche KI-Technik er im Hintergrund einsetze und wie diese prinzipiell funktioniere. Amper habe zudem eine Schnittstelle für professionelle Produktionssoftware wie Adobe Premiere. Dabei gehe es nicht darum, gleich einen großen Hit zu veröffentlichen, sondern musikalisch "einen bestimmten Zweck zu erfüllen".

Einen Schritt weiter geht die Lösung des Berliner Startups Melodrive, mit der sich Sound quasi in Echtzeit an diverse Umstände oder Umgebungen anpassen lässt. Am häufigsten wird das System derzeit dazu verwendet, dynamische Hintergrundmusik für individuelle Szenen in Computerspielen oder für Virtual-Reality-Anwendungen zu erzeugen. Sichtbare Objekte beeinflussen dabei automatisch den Sound: taucht etwa ein Hai auf, klingt die Begleitmusik dramatisch. Stober erläutert: "Um so überblenden zu können, ist es hilfreich, wenn die KI gelernt hat, die Dimensionen musikalischen Ausdrucks intern in einem Repräsentationsraum abzubilden".

Ein ähnliches Improvisationsset haben Forscher aus Tokio und Barcelona mit ihrer Demo für das System "JamSketch" geschaffen. Die "bluesigen" Trainingsdaten für das Programm stammen aus der öffentlichen Weimar Jazz Database. Daten aus der Public Domain sind in dem Sektor generell sehr gefragt, um die Algorithmen zu trainieren. Um keine Urheberrechte zu verletzen, stellen einige KI-Firmen auch Komponisten ein, um ihre Systeme mithilfe selbst kreierter Stücke auf Trab zu bringen. Die derzeitigen Möglichkeiten lassen sich etwa auch mit einem Interface von Google Magenta fürs automatisierte Klavierspiel einschätzen, das von "Guitar Hero" inspiriert ist. Bei diesem "Piano-Genie" muss man nur verschiedene bunte Knöpfe drücken, um die modernisierten Würfel Mozarts zu werfen und unterschiedliche Noten und Töne zu produzieren.

In diese Richtung geht auch die öffentlich geförderte, unter dem Dach von Sony durchgeführte Forschung zu Flow Machines, das eine ganze Reihe von ziemlich komplizierten generativen Techniken einsetzt. Das System ist so imstande, musikalische Stile aus Trainingsdaten herauszuziehen und nach Belieben neu zu arrangieren. Praktisch lässt sich so etwa Beethovens "Ode an die Freude" in verschiedensten Ausdrucksarten wiedergeben und beispielsweise mit dem Sound der Beatles mischen. Die Produzenten Benoit Carré und François Pachet haben mit der Lösung nach eigenen Angaben das erste, "Hello World" betitelte Album aufgenommen, bei dem der Computer einen Großteil der Kompositionsarbeit erledigte. Dabei legten sie etwa beim Einspielen der Werke aber auf eine enge Kooperation mit klassischen Musikern wert.

"Flow Machines" nehme "Inspiration in Form von Audio-Material und Notenbildern auf", erläutert das Fachblatt "Musikexpress" das Verfahren. Das könne ein einzelner Gitarren-Part genauso sein wie ein komplettes Orchester-Stück. Anschließend generiere die KI daraus neue Kompositionen. Menschliche Künstler entschieden dabei, woher die Vorgaben kommen und ob sich der Stil etwa an Bon Iver, Jeff Beck oder Chopin orientieren solle. Dies beeinflusse das finale, im Rechner produzierte Werk mit. Pachet ist inzwischen Direktor am Spotify Creator Technology Research Lab, sodass Beobachter damit rechnen, dass der Streaming-Dienst bald mit Playlists aufwartet, die sich dem Kontext des Hörers automatisch anzupassen suchen.

Stober hat auf dem größer werdenden Feld von Künstlicher Intelligenz und Musik so aktuell drei prägende Entwicklungen ausgemacht. Dazu gehören "KI-Musiker", die automatisch mehr oder weniger statisch klingenden Sound generieren. Weiter unterscheidet der Professor zwischen "KI-getriebenen Instrumenten-Interfaces", die es auch musikalisch Unbegabten ermöglichten, Songs zu erzeugen, sowie lernenden Systemen. Letztere ergänzen Fähigkeiten professioneller Komponisten oder anderer Musikmacher technisch beziehungsweise reichern sie mit den Schwerpunkten Inspiration, Kollaboration und stilistischer Ausdruck an.

Es gehe also nicht darum, dass KI "bessere" Musik erzeuge als der Mensch, sondern sich nützlich mache für Leute in der Kreativwirtschaft, meint der Wissenschaftler. Im Idealfall arbeiteten der Homo Sapiens und Maschinen auch in diesem Sektor künftig als Team zusammen. Dadurch werde der kreative Schaffensprozess erweitert, aber nicht ersetzt. Was oft noch fehle, seien Messwerte, mit denen Forscher automatisch erstellte Werke evaluieren könnten. Bisher sei es nur möglich, verfügbare Datensets zu vergleichen, womit Originalität aber nicht feststellbar sei. Eine Möglichkeit dafür könnte die Messung musikalischer Wahrnehmung im menschlichen Hirn sein.