Lars George: Große Datenmengen bedeuten große Änderungen

Bei der data2day-Keynote von Big-Data-Urgestein Lars George geht es um die großen Änderungen für Unternehmen und Entwickler, die sich durch die zunehmend besseren Big-Data-Techniken ergeben.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 2 Min.
Von
  • Alexander Neumann

Mit der Einführung der neuen Ansätze rund um Big Data entstehen zahlreiche Spannungen, die sich auf existierende Infrastrukturen und Prozesse auswirken. Zwar kann man einen Enterprise Data Hub (EDH) schrittweise in die IT-Landschaft implementieren, trotzdem sind die Auswirkungen auf die Datenverarbeitung fundamental: Die ganze isolierte, siloartige Architektur des existierenden Enterprise Data Warehouse (EDW) löst sich in ein vereintes, einzelnes, immer verfügbares System auf, welches neue Anforderungen an jede einzelne Phase der Verarbeitung stellt. Von der Aufnahme bis zum Bereitstellen und Erkunden sowie der Verarbeitung und letztlichen Ausgabe gibt es keinen Grund mehr, Daten zwischen System zu bewegen, sondern es benötigt nur eine zentrale Regelung für den Zugriff.

In dieser Keynote der data2day 2016 bespricht Lars George kritisch den Einfluss auf sowohl die physikalische Architektur als auch die organisatorischen Rollen. War es soweit üblich, Entwicklungsprojekte in 6- bis 12-Monatsphasen abzuwickeln, wird mit dem EDH eine kontinuierliche Umsetzung ermöglicht. Wurde bis dato auf lange Zeit geplant und umgesetzt, wird das heute in extrem verkürzten Zyklen durchgeführt. Eine unternehmensweite Datenstrategie ersetzt die bisherige Informationsabgrenzung auf Abteilungsebene und eröffnet damit neue Gelegenheiten, welche eine sorgfältige Planung in Bezug auf Änderungen auf allen organisatorischen Ebenen benötigt. Betrachtet werden Rollen wie Geschäfts- und Abteilungsleitung, IT-Mitarbeiter, Entwickler und Endanwender, um daran die Bedenken bei der Umstellung von EDW nach EDH zu beschreiben.

ist Founding Partner von OpenCore und berät Firmen und Partner weltweit im Bereich Hadoop, HBase und Anwendungen im Umfeld der großen Datenmengen. Er ist Autor des O'Reilly-Buches "HBase – The Definitive Guide" und beschäftigt sich seit Ende 2007 mit dem stetig wachsenden Hadoop-Ökosystem. George hat auf zahlreichen Konferenzen Vorträge in diesem Bereich gegeben. Im Zeitraum von mehr als 20 Jahren als professioneller Entwickler und Berater war er unter anderem der CTO und Mitgründer von WorldLingo, wo er sich intensiv mit maschineller Übersetzung, Machine Learning, Natural Language Processing und skalierbaren Webtechnologien beschäftigt hat. Von 2010 bis Ende 2015 arbeitete er als Clouderas EMEA Chief Architect, um für Kunden Sinnvolles aus dem Datenwirrwarr der "Big Data"-Welt zu gewinnen. (ane)