HPE will die verborgenen Daten-Schätze endlich heben​

Alle reden über den immensen Wert von Daten, nur wenige können sie wirklich nutzen. HPE meint, das liege an der Technik – aber auch an mangelnder Kompetenz.

In Pocket speichern vorlesen Druckansicht 13 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Harald Weiss
Inhaltsverzeichnis

Die Datenbestände wachsen weiter explosionsartig. Hewlett Packard Enterprise (HPE) meint, dass es bis 2025 über 175 ZByte sein werden. Doch die wirtschaftliche Datennutzung hinkt diesem Wachstum weit hinterher. Deshalb hat das Unternehmen mit dem Marktforschungsinstitut YouGov eine Umfrage vorgenommen, um herauszufinden, wie es gegenwärtig um die viel gepriesenen Datenschätze und deren Nutzung tatsächlich steht. Das Ergebnis ist vernichtend: Der durchschnittliche globale Datenreifegrad, also die Fähigkeit, aus Daten Mehrwert zu generieren, liegt auf einer 5-Punkte-Skala nur bei 2,6 – in Deutschland sogar nur bei 2,4. Nur drei Prozent aller befragten Unternehmen erreichen den höchsten Reifegrad von 5,0.

Eine der Ursachen für die schlechte Datenverwendung ist laut HPE-CEO Antonio Neri das Fehlen wichtiger Technologien und Tools, um beispielsweise Daten in hybriden Multi-Cloud-Umgebungen effizient zu nutzen und sie erfolgreich in Analyseprojekten einzusetzen. Die Antwort seines Unternehmens darauf ist die GreenLake-Plattform, die mit einem einheitlichen Betriebsmodell das Management der Daten über alle Standorte, Rechenzentren und Clouds hinweg ermöglichen soll. „Aufgrund des massiven Datenwachstums an der Peripherie benötigen die Unternehmen heute hybride Edge-to-Cloud-Architekturen, bei denen die Cloud zu den Daten kommt und nicht umgekehrt“, so Neri weiter. Laut HPE sind inzwischen 50 Milliarden IoT-Geräte vernetzt. Deshalb würde der Ansatz „Public Cloud First“ nicht mehr funktionieren.

Um die Datennutzung von GreenLake weiter zu verbessern, stellte das Unternehmen anlässlich einer Kundenveranstaltung in Frankfurt ein ganzes Bündel an Neuheiten und Erweiterungen vor. Um die Leistung geschäftskritischer Anwendungen zu steigern, gibt es künftig entsprechend optimierte Instanzen: General Purpose, Compute, Memory und Storage – alle für eine verbrauchsabhängige Abrechnung.

Ein neues Analysetool verbessert die Nutzung und senkt die Kosten von Anwendungen bei den drei Hyperscalern AWS, Azure und Google Cloud. Dazu gehören ein Showback-Reporting und ein Dashboard, das die Kapazitätsplanung und Budgetierung verbessert. HPE kündigte außerdem optimierte Workloads für Speicher, Rechenleistung und Arbeitsspeicher an, die mit AWS, Azure und GCP verknüpft sind; ein Beispiel dafür ist SAP S/4HANA. Auch die im November angekündigten Integration von VMware gehört zu den aktuellen Erweiterungen. Dabei wird VMware vollständig in das GreenLake-Portfolio integriert, sodass es on Premises, in Colocation-Einrichtungen oder an der Edge genutzt werden kann.

HPE hat GreenLake vor vier Jahren gestartet. Inzwischen nutzen mehr als 65 000 Kunden mit über zwei Millionen Geräten die Plattform und greifen dabei auf rund ein Exabyte an Daten zu. Die Zufriedenheit sei hoch: HPE berichtet von einer Kundenbindungsrate von 96 Prozent. Neben GreenLake gibt es noch ähnliche Angebote von Dell (Apex) und Cisco (Cisco+). Alle Angebote sind jedoch sehr proprietär, keines bietet eine einheitliche Managementkonsole an, über die auch konkurrierende Plattformen – sozusagen Multi-Private-Clouds – gemanagt werden können.

Ob die mangelnde Datennutzung im Business tatsächlich nur ein technologisches Problem ist, darf aber bezweifelt werden. Das liegt zunächst an dem von HPE selbst forcierten Service-Trend. „Die Kunden fragen nach SLAs – nicht nach der zugrundeliegenden Technologie“, bestätigt Neri. Viele Datenwissenschaftler sehen aber eine noch viel größere Schwierigkeit: das mangelnde Verständnis für Daten. Stichwort: Datenkompetenz, oder eher Dateninkompetenz.

„Datenkompetenz ist eine der wichtigsten Voraussetzungen für jede Digitalisierungsstrategie“, heißt es auch in einem Gartner-Report, der auf einer Umfrage unter Chief Data Officers (CDO) basiert. Dabei kam heraus, dass 80 Prozent der CDOs die mangelnde Datenkompetenz in ihrer Firma als größtes Hindernis für ihre Arbeit sehen. Das deckt sich mit einer Umfrage von New Vantage Partners, wonach 92 Prozent der Manager der Meinung sind, die Herausforderungen für ein datengetriebenes Unternehmen seien kulturell bedingt – nur acht Prozent sagten das über Technologien.

Gleiches trifft auf die KI-gestützte Datennutzung zu. Bernd Bachmann, KI-Berater bei HPE, weiß um dieses Problem. Er betrachtet sechs Parameter, um die Datennutzung in Unternehmen zu messen: die Strategie, die Organisation, das Umfeld, der Datenlebenszyklus, die Analytics und die Art der Datennutzung. Insgesamt gehören zu seiner Mess-Methode 80 bis 90 Einzelkriterien.

Das ist ein guter Ausgangspunkt zur Bestimmung der Ist- und Soll-Zustände, die entscheidende Frage ist jedoch, wie die Transformation vom Ist- zum Zielzustand gelingt. Da, so Bachman, brauche man einen Stakeholder, der im Unternehmen ziemlich weit oben angesiedelt sei und der nicht nur für IT verantwortlich sei, sondern auch die entsprechende Möglichkeit habe, um alle erforderlichen Maßnahmen umzusetzen. Seine Methodik ist noch relativ neu, bislang wurden erst vier Projekte damit erfolgreich durchgeführt. Doch er ist optimistisch, dass sich die Nutzung der Daten, sei es in Form von Analytics oder als KI, weiter durchsetzen wird.

()