heise-Angebot

iX-Workshop: Big Data mit Hadoop

Praxisorientierte Einführung in die Verarbeitung großer Datenmangen auf verteilten Systemen. Bei Buchung bis 22.7. gibt es 10% Frühbucherrabatt.

In Pocket speichern vorlesen Druckansicht
iX-Workshop: Big Data mit Hadoop
Lesezeit: 1 Min.
Von
  • Dr. Oliver Diedrich

Mit Hadoop lassen sich große Datenmengen auf verteilten Systemen schnell verarbeiten. Dieser Workshop gibt einen Überblick über die verschiedenen Hadoop-Distributionen und ihre Installation und Konfiguration auf einem Cluster. Sie lernen, wie man das das Hadoop Distributed File System (HDFS) nutzt, MapReduce-Jobs erstellt und die Hadoop-Aufsätze Hive für SQL-Abfragen, HBase zur Echtzeit-Datenverwaltung, Pig und sqoop einsetzt.

Weitere Themen sind die Nutzung von Apache Kafka und Spark mit Hadoop sowie die Hortonworks Data Platform (HDP) zur verteilten Speicherung und Verarbeitung großer Datensätze aus verschiedenen Quellen. Der Workshop ist auf 20 Teilnehmer begrenzt. Bei Anmeldung bis zum 22.7. erhalten Sie einen Frühbucherrabatt von 10 Prozent.

  • Big Data mit Hadoop: (3.–4.9.2019, Hannover, Heise Medien): Weitere Informationen und Anmeldung

(odi)