Klang und Konzentration: "Funktionale Musik bringt bestimmte kognitive Zustände"

Das Start-up Endel entwickelt Musik zum konzentrierten Arbeiten, die man per App anhören kann. Dabei kommt KI zum Einsatz – aber auch "echte" Künstler.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Endel

Website von Endel: Die App gibt's für viele Plattformen.

(Bild: Endel)

Lesezeit: 6 Min.

Das Berliner Start-up Endel macht funktionale Musik – also Klänge, mit denen Menschen besser entspannen, arbeiten oder einschlafen sollen. Die Technik dahinter nutzt KI – und das künftig auch in Verbindung mit bekannten Musikkatalogen, die von Labels wie Universal Music kommen. Im Interview mit MIT Technology Review erläutert Firmenchef Oleg Stavitsky, was dahinter steckt.

Herr Stavitsky, wenn man auf Ihre Website geht oder im App Store ihre Programme sieht, heißt es, Sie lieferten "personalisierte Klanglandschaften" an die Kunden. Was ist das Geschäftsmodell dahinter?

Oleg Stavitsky: Wir haben eine proprietäre, patentgeschützte und wissenschaftlich validierte Technik entwickelt, die KI-gestützte funktionale Klanglandschaften erzeugen kann. Daraus sind dann letztlich zwei Unternehmen entstanden. Das eine ist ein Ökosystem an Produkten, die direkt an den Endverbraucher gerichtet sind – Apps, die die Menschen abonnieren können, um Zugang zu diesen Klanglandschaften zu erhalten. Unsere personalisierten und in Echtzeit anpassbaren Soundscapes sind auf verschiedenen Plattformen verfügbar.

Zweites Standbein von Endel ist die Nutzung unserer Technologie, um statische Aufnahmen zu erzeugen, die dann auf verschiedenen digitalen Streaming-Plattformen vertrieben werden. Ein Beispiel hierfür ist Amazon Music, die uns beauftragt haben, eine Wiedergabeliste mit Klanglandschaften für ein besseres Einschlafen zu erzeugen. Außerdem werden wir künftig mit einigen der größten Musikfirmen der Welt zusammenarbeiten – darunter Universal Music, mit denen wir kürzlich eine Partnerschaft angekündigt haben – und dort auch Inhalte produzieren. Um es also zusammenzufassen: Wir sehen uns als technologiegetriebenes funktionales Musikunternehmen, das sowohl Echtzeitinhalte als auch statische Soundscapes anbietet.

Wozu verwenden die Menschen diese Klänge dann?

Wenn sie sich konzentrieren, entspannen oder schlafen wollen, zudem für spezifische Aktivitäten. Innerhalb dieser grundlegenden kognitiven Zustände gibt es natürlich eine Menge kleinerer Anwendungsfälle, die wir abdecken. Wenn man von Konzentration spricht, geht es dann beispielsweise über sogenannte "tiefe Arbeit", was man im englischen Deep Work nennt. Oder man benötigt Klänge, die einem helfen, eine kurze Sprintsitzung zu absolvieren oder eine Studienlektüre besser zu verstehen. Es geht aber auch um Yoga, Meditation, Powernaps, die Unterstützung längerer Schlafphasen. Das ist heute unser Fokus, wir kommen aber mit mehr und mehr weiteren Anwendungsfällen für unsere Technik heraus.

Was genau ist funktionale Musik?

Wir definieren funktionale Musik so, dass es sich um Musik oder Klänge handelt, die dem Nutzer helfen sollen, einen bestimmten kognitiven Zustand zu erreichen. Diese Klänge sind also nicht dafür gedacht, wirklich bewusst konsumiert zu werden. Es ist also eine Form von Hintergrundmusik, die unseren kognitiven Zustand beeinflusst oder Menschen hilft, einen bestimmten kognitiven Zustand zu erreichen.

Oleg Stavitsky, CEO von Endel.

(Bild: Endel)

Endel betont, dass die so erzeugten Klanglandschaften neurowissenschaftlich validiert sind. Was heißt das genau?

Das bedeutet zwei Dinge. Erstens wurde das KI-Modell hinter unser System auf Grundlage neurowissenschaftlicher Erkenntnisse entwickelt. Dazu arbeiten wir mit verschiedenen Hirnforschern, Schlafforschern und anderen Experten zusammen. Wir haben ein von Fachleuten geprüftes Whitepaper über die Wirksamkeit veröffentlicht. Es erschien im Fachjournal Frontiers of Computational Neuroscience, einer angesehenen wissenschaftlichen Zeitschrift.

Außerdem nehmen wir derzeit an einem sehr großen, mehrjährigen Projekt namens "Lullabyte" teil, bei dem sich fünf große europäischen Universitäten zusammengeschlossen haben, um die Wirkung von Klang und Musik auf den Schlaf zu untersuchen. Da gibt es dann buchstäblich Menschen, die in Schlaflaboren liegen, KI-erzeugte Klänge hören und dabei EEG-Stirnbänder tragen. Wir nehmen die wissenschaftliche Validierung von Endel also sehr, sehr ernst. Sie soll in einer richtigen Laborumgebung nachgewiesen werden.

Wie viel KI wird heute bei der Erzeugung Ihrer Klanglandschaften eingesetzt? Gibt es noch eine Zusammenarbeit mit "echten" Musikern?

Das ist eine etwas unfaire Frage, würde ich sagen. Jede KI-Firma in diesem Bereich tut das aktuell noch. Es geht dabei aber darum, welche Rolle sie konkret einnehmen. Wir produzieren natürlich keine Musik mehr per Hand, wo die Leute sich hinsetzen und ganze Stücke komponieren. Stattdessen erstellen unsere Musiker sogenannte Stems, also Klänge, die zwischen einer und zehn Sekunden lang sind. Diese werden dann in unser KI-Modell eingespeist und mit den internen Werkzeugen werden sie dann angepasst.

Unser Algorithmus analysiert die Stems und synthetisiert neue Stems aus den Quellstems – je nachdem, welche Modalität sie als Nutzer gewählt haben, sei es nun Konzentration, Entspannung oder Schlaf. Dann klicken Sie auf einen Knopf und die Klanglandschaft wird generiert. Man kann sie dann mit unseren Werkzeugen bearbeiten und so formen, dass man mit dem Ergebnis zufrieden ist. Oder Sie können auf einen Abschnitt klicken und dann zusätzliche Filter und Effekte anwenden. Und dann wird das Ergebnis schließlich als statische Klanglandschaft oder Echtzeit-Soundscape exportiert.

Endel hat kürzlich eine Zusammenarbeit mit Universal Music angekündigt. Dort werden Sie auch deren Katalog als Ausgangspunkt für funktionale Musik verwenden können. Wie hat man sich das vorzustellen?

Das funktioniert genau so, wie ich es beschrieben hatte: Wir bekommen Stems, also die Spuren, von einem bestimmten Song oder einem ganzen Album aus dem Katalog von Universal Music. Dann werden diese Stems von unserer Technologie analysiert und aus den Original-Stems werden neue erstellt. Dann werden sie zusammengefügt und mit einigen Nachbearbeitungseffekten überlagert. So entsteht eine neue Klanglandschaft, die dann als statische Aufnahme exportiert und an Universal Music zum Vertrieb ausgeliefert wird. Im Grunde genommen werden wir also funktionale Soundscape-Versionen des Katalogs von Universal Music produzieren. Stellen Sie sich vor, Sie hören dann Klänge von "The Weekend" zum Einschlafen oder nutzen Musik von Drake, um sich bei der Arbeit zu konzentrieren.

Wie reagieren Musiker auf diese Zusammenarbeit? Haben die das Gefühl, dass es sich um eine Art Remix handelt?

Die meisten Musiker sind davon begeistert, weil es ihnen die Möglichkeit gibt, ein neues Publikum und neue Märkte zu erschließen und ein wenig mit ihrem Sound zu experimentieren, ohne dass dies explizit als neues Album des Künstlers positioniert wird. Also, ja, es ist eine Art Remix oder eine Neuinterpretation des Originalwerks. Werden wir Zugang zu den Stems all ihrer Musik haben? Nicht auf alle, aber wir werden Zugang zu den Stems bekommen, die wir in funktionale Soundscapes verwandeln können.

Das Interview wurde per Sprachnachricht geführt und aus Gründen der Länge und Klarheit editiert.

(bsc)