Der Code macht die Musik

Ob beim Komponieren oder beim Erkennen des nächsten Superhits: In der Musik geben zunehmend Algorithmen den Takt an. Ist das noch Kunst?

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 10 Min.
Von
  • Katja Scherer
Inhaltsverzeichnis

Das ist Programmiersprache. Und: Es ist Musik. Genauer gesagt, ein kleiner Ausschnitt aus "A Study in Keith", einer Programmier-Performance des australischen Code-Musikers Andrew Sorensen. Nur dass die Takte nicht mit Noten auf einem Blatt Papier notiert wurden, sondern mittels kühl durchdachtem Code entstanden sind. In einem Internetvideo lässt sich beobachten, wie Sorensen Klammern und Buchstaben und damit auch sein Lied verändert.

Diese Variante mag noch als Komponieren durchgehen, aber die Technologie dahinter hat weit grundlegendere Auswirkungen. Wenn Noten zu Code werden, ist der Schritt nicht mehr weit, mit künstlicher Intelligenz Lieder zu schreiben. Tatsächlich gibt es schon erste Beispiele: Das Programm Melomics von Forschern der Universität Málaga etwa hat in den letzten sechs Jahren über eine Milliarde Songs aus unterschiedlichen Genres komponiert. Kein menschlicher Musiker war jemals so produktiv. Die Qualität? Selbst das London Symphony Orchestra hat bereits seine Stücke gespielt.

Musik gilt seit jeher als feinste Form des emotionalen Ausdrucks, als irrational und unberechenbar. Mozart wurde als Wunderkind gefeiert, Wagner als Genie. Heute aber können mithilfe von Software selbst Laienmusiker anspruchsvolle Werke komponieren. Und manche Computer schreiben ganz allein Symphonien – binnen weniger Minuten. Ihre Werke lassen sich sogar für geübte Hörer kaum von menschlichen Kompositionen unterscheiden. "Die Erforschung der künstlichen Intelligenz hat gewaltige Fortschritte gemacht", sagt Thomas Troge, Professor für Musikinformatik an der Hochschule für Musik in Karlsruhe. "Das verändert auch die Art, wie Musik bewertet wird."

Ist musikalischer Erfolg also in Wirklichkeit gar keine Kunst, sondern nur eine besonders gelungene Analyse statistischer Zusammenhänge? So ergreifend Musik oft ist, folgt sie doch bestimmten Regeln. Zum Beispiel der Harmonielehre: Welche Note darf auf eine andere folgen? Oder dem Kontrapunkt-Prinzip, bei dem eine Gegenstimme zu einer gegebenen Tonfolge kombiniert wird. Beim algorithmischen Komponieren werden diese Regeln in Formeln übersetzt, die der Computer ausführt. Und trotzdem – oder gerade deswegen – klingen die Stücke weich und in sich stimmig. Bestes Beispiel ist die 90-sekündige Pianomelodie, die Googles künstliche Intelligenz im Project Magenta komponiert hat: Die Harmonie stimmt, jeder Beat sitzt.

Versuche, das Komponieren zu automatisieren, gibt es schon seit Ende des 18. Jahrhunderts. Beim sogenannten Musikalischen Würfelspiel wurden Zufallszahlen erzeugt und dann je nach Augenzahl und Anzahl der Würfe Takte aus einer vorgegebenen Tabelle ausgewählt. Mit dem Aufkommen elektronischer Musik erhielt dieses Vorhaben neuen Aufwind. Ende der 1980er-Jahre schrieb der amerikanische Musikprofessor David Cope die Software "Experiments in Musical Intelligence". Cope fütterte den Computer mit unzähligen Symphonien von Händel bis Haydn. Seine Software untersucht die Stücke auf bestimmte Gesetzmäßigkeiten: Welche Intervalle werden oft benutzt? Welche Tonarten liegen vor? Dann erstellt sie neue Werke im gleichen Stil.

Was für Cope vor allem eine Spielerei war, hilft heute professionellen Musikern bei der Arbeit. Mithilfe von Computerprogrammen wie Alda, Avid Sibelius First oder Liquid Notes müssen sie nicht mehr stundenlang über Tonfolgen grübeln. Oft reichen schon wenige Klicks, und der Algorithmus schreibt die Akkorde fort oder checkt, ob die Harmonielehre beachtet wurde. Für Komponisten wie Max-Lukas Hundelshausen eine große Erleichterung. Der 25-Jährige verbindet bei seiner Arbeit elektronische Klänge mit Instrumentalkompositionen. Solche Programme erlaubten vor allem "analytischen Zugriff auf die Anatomie von Klängen" oder ermöglichten das "zeitnahe Ausgestalten" von Motivvariationen, so Hundelshausen.

Auch wer gern ein Instrument spielt, aber keine Bandkollegen findet, kann auf Software vertrauen. Das Programm "Band in a Box" ersetzt eine Begleitband, indem es automatisch ein Arrangement mit verschiedenen Instrumenten erzeugt und abspielt. Und wer gern singt, den dürften die Mi.mu Gloves interessieren: Die Handschuhe, eine Entwicklung der Musikerin Imogen Heap, sind über Funk mit einem Computer verbunden. Werden sie von einem Sänger getragen, kann dieser seine musikalische Begleitung über Gesten selbst erzeugen. Vereinfacht heißt das: Hand oben bedeutet hohe Töne, Hand unten tiefe. Eine wirklich wohlklingende Melodie auf diese Weise zu erzeugen, erfordert allerdings viel Übung und Konzentration.

Manchmal sind Computer sogar schon so gut, dass sie gar keine Komponisten mehr brauchen. So wie der Superrechner Iamus, der 2010 von Forschern an der Universität Málaga entwickelt wurde. Iamus besteht aus 1600 Prozessorkernen und hat die Rechenleistung von rund 500 PCs. Sein Algorithmus Melomics folgt dem Prinzip der biologischen Evolution: Er erzeugt aus vorhandenen Tönen zufällige Variationen, wählt die am besten passenden aus und kombiniert sie zu einem Schnipsel Musik. Abschließend setzt er die Schnipsel zu einem Stück zusammen. Dazu braucht er nur ein paar Parameter wie Stimmung oder Instrumente und liefert rund acht Minuten später eine fertige Partitur. Man kann sie auf der Website melomics.com anhören oder sich die zugehörige App aus dem Google Play Store herunterladen.