Studie: Hadoop bei vielen Unternehmen immer noch in der Experimentierphase

Eine Studie des Business Application Research Center hat Informationen hinsichtlich der Erwartungen, Einsatzfelder und Stolpersteine in Unternehmen bei Hadoop gesammelt.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Hadoop
Lesezeit: 3 Min.
Von
  • Alexander Neumann

Zumeist wird bei der Betrachtung der Techniken hinter dem Schlagwort Big Data auf Apache Hadoop verwiesen. Das Framework wurde entworfen, um skalierbare, verteilter Anwendungen zu entwickeln, mit denen große Datenmengen analyisiert werden. Das Business Application Research Center (BARC) hat nun in der Studie "Hadoop als Wegbereiter für Analytics" die Nutzung der Big-Data-Technik untersucht.

Als vielleicht zentrales Ergebnis ist aus Studie herauszulesen, dass fehlendes technisches und fachliches Know-how aktuell das größte Problem ist, über das Unternehmen klagen, um das komplexe und technische Hadoop nutzbar machen zu können.

Hadoop befindet sich insgesamt noch in der Klärungs- und Experimentierphase. So sehen etwa drei Viertel der der etwas mehr als 250 Befragten aus 170 Unternehmen Hadoop noch als ein weniger beziehungsweise überhaupt nicht wichtiges Thema an. Das lässt laut den BARC-Analysten den Schluss zu, dass der Mehrwert von Big-Data-Initiativen und Analytics sowie das genaue Einsatzgebiet von Hadoop in vielen Unternehmen noch unklar sind. Dort scheint es aus Sicht der Studienautoren schlicht an geeigneter Aufklärung über den Nutzen Hadoops zu fehlen. Umgekehrt nimmt das Framework bei jedem vierten Unternehmen immerhin mindestens einen wichtigen Stellenwert ein.

Immerhin: Bei jedem vierten Unternehmen nimmt Hadoop einen wichtigen Stellenwert ein.

Zu einem ähnlichen Ergebnis waren im Mai die Analysten von Gartner gekommen. An der Spitze der Gründe, die gegen die Einführung von Hadoop sprechen, stand in der "2015 Hadoop Adoption Study" das Fehlen von Know-how und Erfahrungen – und das trotz hier Abhilfe versprechender Werkzeug. Denn bei denen sehen die Befragten, dass sie nur einer sehr geringen Anzahl an Experten helfen würden.

78 Prozent der Befragten setzen Hadoop ein oder planen das beziehungsweise können sich zumindest den Einsatz des Big-Data-Frameworks vorstellen. Derzeit wird der Einsatz der Apache-Technik vor allem durch die IT getrieben (52 Prozent) und soll vorrangig technische Themen adressieren. Häufigstes Ziel ist die Nutzung von Hadoop als Plattform für eine einfachere Verwaltung großer Datenvolumina (68 Prozent) sowie semi-/unstrukturierter Datenquellen (61 Prozent). An dritter Stelle folgen dann fachlich-analytische Anforderungen wie eine größere Flexibilität bei der Datenanalyse (44 Prozent) und nach erweiterten Analysefunktionen (42 Prozent), die Hadoop ermöglichen soll.

Derzeitige Treiber für Hadoop in Unternehmen

(Bild: BARC)

Es finden sich durchaus schon erste produktive Systeme beziehungsweise Unternehmen, die den Hadoop-Einsatz konkret vorbereiten und dabei ein durchaus breites Spektrum abbilden. Unter diesen Vorreitern ist die Nutzung von Hadoop als Ablaufumgebung für fortgeschrittene Analyse/Exploration zurzeit die häufigste Anwendung (24 Prozent). Das entspricht dem Wunsch vieler Fachbereiche nach einer eigenen, neben dem Data Warehouse existierenden Explorationsumgebung. Ein weiteres wichtiges Einsatzgebiet betrifft die erweiterte Nutzung von Daten – sei es als Staging/Landing Area oder zur Datenintegration polystrukturierter Daten (je 20 Prozent).

Siehe dazu auf heise Developer:

(ane)