heise-Angebot

iX-Workshop zu Big Data mit Apache Hadoop

Die Verarbeitung großer Datenmengen mit dem Open-Source-Framework Hadoop ist Thema eines zweitägigen Workshops Ende August in Hannover.

In Pocket speichern vorlesen Druckansicht
iX-Workshop zu Big Data mit Apache Hadoop
Lesezeit: 1 Min.
Von
  • Jürgen Seeger

Das Thema "Big Data" hat seinen Weg aus den PowerPoint-Folien der Evangelisten in die Wirklichkeit gefunden. Spätestens mit dem Internet of Things fallen Datenmengen an, die mit herkömmlicher Datenbanktechnik nur schwer zu bewältigen sind. Schon früh wurde im Apache-Projekt das Java-Framework Hadoop entwickelt, das es durch Verfahren wie MapReduce möglich macht, Datenmengen im Petabyte-Bereich auf Computerclustern zu verarbeiten.

Wie sich in der eigenen Firma Apache Hadoop einsetzen lässt, können Sie in einem zweitägigen iX-Workshop erfahren (30. bis 31. August, Hannover). Von der Installation über die Cluster-Konfiguration bis zum Debugging und dem beispielhaften Auswerten von Log-Files zeigt ein Hadoop-Spezialist des Nürnberger Beratungshauses B1 Systems, wie das Framework sinnvoll genutzt werden kann.

Die Teilnehmer sollten ein grundlegendes Verständnis für die System- und Netzwerkadministration unter Linux mitbringen. Der Workshop ist auf 15 Teilnehmer begrenzt. Bei einer Buchung bis zum 19. Juli wird ein Frühbucherrabatt von 10 Prozent gewährt. Weitere Informationen und die Möglichkeit zur Buchung sind auf der Workshop-Site zu finden. (js)