Berlin Music Week: Data is big

Big Data spielt auch in der Musikbranche eine immer größere Rolle. Digitale Musikangebote setzen nicht nur bei der Strukturierung ihrer Kataloge auf Data Mining, sondern generieren selbst jeden Tage neue Datenberge. Damit lässt sich einiges anstellen.

In Pocket speichern vorlesen Druckansicht 55 Kommentare lesen
Lesezeit: 3 Min.

Es gibt eine Grenze, die Paul Lamere nicht überschreiten möchte. Der Entwicklungschef der Spotify-Tochter The Echo Nest experimentiert mit den gigantischen Datenbergen, die in der digitalen Musikbranche anfallen. "Wir nutzen Big Data, um die Musikerfahrung der Leute zu verbessern, ohne ihnen dabei unheimlich zu werden", erklärt Lamere und zeigt auf der Berlin Music Week anhand einiger Data Hacks, was sich mit Daten im Musikbereich alles anstellen lässt. Im Rahmen der Music Week gibt es in diesem Jahr erstmals auch zwei Music Hack Days.

Paul Lamere gibt einen Einblick in seine Arbeit für Echo Nest.

(Bild: heise online/vbr)

Die Dienste von Echo Nest nehmen Sender und Labels ebenso in Anspruch wie Streaminganbieter. Das im Jahr 2005 als Ausgründung eines Forschungsprojekts des MIT Media Labs ins Leben gerufene Unternehmen betreibt eine Plattform für Musikdaten, für die es Auswertungsmodelle entwickelt. Inzwischen von Spotify übernommen, errechnet Echo Nest aus Daten zu über 30 Millionen Songs Musikempfehlungen, die über das "was andere auch hören" hinausgehen. Dafür nutzt Echo Nest mehr als nur die Metadaten wie Interpret, Album und Titelliste.

Echo Nest verwertet auch, was Lamere "Cultural Data" nennt: Dafür werden zum Beispiel Kritiken im Netz oder Unterhaltungen in Social Media anhand der Häufung bestimmter Wörter und Begriffe ausgewertet, um ähnliche Künstler zu ermitteln. Auf der Website Boil the Frog demonstriert Echo Nest, wie man mit seinen Datenmodellen ähnliche Musik finden kann und so schrittweise zum Beispiel von den Sex Pistols zu Britney Spears kommt, fast ohne es zu merken.

Auch der Nutzer von Streamingdiensten generiert mit jeder Interaktion Daten. Wie oft wird ein Song abgebrochen, an welcher Stelle verlieren die Zuhörer den Spaß und schalten weiter – alles Daten, die Echo Nest auswertet. Eine Million Nutzer generieren so eine Milliarde Datenpunkte – jede Woche. Jeder Song bekommt so zum Beispiel sein typisches Ausstiegsprofil. So kann Lamere zum Beispiel an den Daten zu Phil Collins' "In the air tonight" ablesen, dass kurz bevor die Drums einsetzen, fast kein Zuhörer aussteigt.

Data Mining Music (5 Bilder)

Metadaten

Am Anfang waren die Metadaten: Genre-Zuordnung, Veröffentlichungsdatum, Tracklisten.
(Bild: heise online/vbr)

Auch die Musikdaten an sich verarbeitet Echo Nest. Aus der Analyse der Waveforms zieht das Unternehmen Erkenntnisse über die Struktur des Songs, die Tonart, Tempo und Stil. Lamere kann so mit ziemlicher Sicherheit sagen, ob ein echter Drummer den Song eingespielt hat oder ein Beattrack zum Einsatz kam. Die musikalische Analyse eröffnet darüber hinaus die Möglichkeit, einen Song neu zusammenzusetzen oder eine individuelle Endlosversion zu schaffen. Selbst bei Spielereien wie immer nur den ersten Beat eines Taktes zu nehmen kommt noch so etwas wie ein Song heraus.

Und wo verläuft nun diese Grenze, die man besser nicht überschreitet? Manchmal ist es schwierig, diese "creepy line" überhaupt zu definieren, erzählt Lamere. Was der eine Nutzer noch toll findet, jagt dem anderen schon einen Schrecken ein. Ziemlich unheimlich ist zum Beispiel der Player ohne Knöpfe: Es gibt kein Interface, der Player spielt die Musik selbständig. Dank Big Data weiß er, was der Mensch hören will. (vbr)