Customer Journey Analytics am Beispiel von Suchaktivitäten

Zum Thema Customer Journey findet sich eine wahre Informationsflut hinsichtlich Definitionen, Grundsätzen, ihrer Bedeutung, Produkten et cetera. Aber ein praktischer Einstieg in das Thema und zu den damit einhergehenden Techniken ist schwieriger zu finden.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 19 Min.
Von
  • Daniel Wrigley
Inhaltsverzeichnis

Zum Thema Customer Journey findet sich eine wahre Informationsflut hinsichtlich Definitionen, Grundsätzen, ihrer Bedeutung, Produkten et cetera. Aber ein praktischer Einstieg in das Thema und zu den damit einhergehenden Techniken ist schwieriger zu finden.

Ein früherer Artikel ist auf die wichtige Rolle der Customer Journey, also den Weg eines Kunden bis zum Kaufabschluss, sowie ihrer Analyse eingegangen. Hier findet sich die Fortsetzung, die mit einem Beispiel nun auch den technischen Einstieg in das Thema bietet.

Bei Customer Journey Analytics geht es um die Analyse von Daten. Sie sind Interaktionen von Personen mit Berührungspunkten eines Online-Shops, sogenannten Touchpoints. Ein solcher Touchpoint kann zum Beispiel das Einloggen in einen Online-Shop sein, der Abschluss eines Warenkorbs, eine Suchanfrage oder das Hinzufügen eines Produkts zu einer Wunschliste. An dieser Aufzählung ist bereits zu erkennen, dass es sich hierbei durchaus um ganz unterschiedliche Daten handelt und nur Touchpoints eines Online-Auftritts als Beispiele genannt wurden. Das Zurücksenden einer Lieferung, eine Retoure, ein Anruf im Service-Center und das Betreten eines Geschäfts (offline) verdeutlichen die Aussage, dass alle Interaktionen nicht einfach in ein Schema zu pressen sind, wie es etwa bei der Modellierung eines traditionellen Datenbankschemas der Fall ist.

Man muss bei Customer Journey Analytics demnach mit Daten unterschiedlicher Beschaffenheit umgehen. Warum also nicht ein Schema pro Touchpoint entwerfen? Manche Daten sind sicherlich einfach in einen solchen Kontext zu übertragen, bei strukturierten Daten etwa. Sie sind zum Beispiel in der Warenwirtschaft zu finden:

  • Welcher User hat zu welchem Zeitpunkt einen Warenkorb abgeschlossen?
  • Was war der teuerste Warenkorbabschluss des heutigen Tages?
  • Was der durchschnittliche Preis eines Warenkorbs? Aus welchen Produkten bestand ein Warenkorb?
  • ...

Was aber, wenn die Daten nicht mehr strukturiert sind? Beispiele hierfür sind eine Beschwerde, die ein Kunde per E-Mail schickt, ein Eintrag auf der Facebook-Seite des Unternehmens, auf dem der Benutzer mitteilen möchte, wie zufrieden er mit seiner letzten Bestellung war, oder Produktrezensionen im Online-Shop. Diese Daten gewinnen bei der ganzheitlichen Betrachtung noch an Bedeutung.

Zur unterschiedlichen Beschaffenheit der Daten, von (semi-)strukturierten bis hin zu unstrukturierten, kommt noch ein weiterer Aspekt hinzu: die Menge der an jedem Touchpoint generierten Daten. Hier fallen je nach Shop-Größe, Besucherzahl beziehungsweise der Menge der Touchpoints unterschiedlich viele Daten an. Aber selbst kleinere Shops kommen so schnell auf einige Hunderttausend Interaktionen im Jahr – auch wenn man nur die Suchfunktion betrachtet.

Da die Daten (oder zumindest Teile davon) außerdem historisch betrachtet werden wollen, um beispielsweise die Entwicklung eines Shops zu verfolgen, benötigt man ein skalierbares System, das mit einem derartigen Datenvolumen zurechtkommt. Außerdem spielt nicht nur das Speichern der Daten eine Rolle, sondern auch deren Verarbeitung. Dass sie beziehungsweise die Analyse größerer Datenmengen länger dauern als die Analyse kleinerer Datenmengen, mag vielleicht verschmerzbar sein, sie sollte aber auf jeden Fall möglich sein.

Diese Faktoren führen zu einem Grundgerüst an Anforderungen, das mit Techniken ausstaffiert sein soll. Es geht um eine Plattform, die keinerlei Einschränkungen bezüglich der Beschaffenheit von Daten mit sich bringt, skalierbar ist und eine Verarbeitung der Daten ermöglicht.

Hier kommt die Kerntechnik ins Spiel, die seit Jahren die Grundlage einer Vielzahl von Projekten mit dem schwammigen Oberbegriff "Big Data" ist – Apache Hadoop. Hoch skalierbar, agnostisch gegenüber Art und Beschaffenheit der Daten, ein reichhaltiges Ökosystem an Tools im Gepäck, die diese Aspekte berücksichtigen und für unterschiedlichste Arten von Arbeiten und Analysen geeignet sind: das Importieren in Hadoop (oder vielmehr HDFS, das verteilte Dateisystem von Hadoop) sowie das Verarbeiten, Kombinieren und die Analyse und Visualisierung der Daten. Hadoop und sein Ökosystem sollen nun anhand einer Fallstudie etwas detaillierter vorgestellt werden.