heise-Angebot

iX-Hadoop-Workshop: Noch Plätze frei

Ein 2-tägiges Seminar vermittelt die Einsatzgebiete des Hadoop-Framework zum Betrieb von skalierbarer, verteilt im Cluster arbeitender Software.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
iX-Workshop zu Big-Data-Verarbeitung mit Hadoop
Lesezeit: 1 Min.
Von
  • Jürgen Seeger

Wenn es um die Verarbeitung großer Datenmengen in verteilten Umgebungen geht, kommt man um das freie Framework Hadoop kaum herum.

Der Workshop am 19. und 20. Februar in Frankfurt am Main bringt den Teilnehmern am ersten Tag einen Überblick über die verschiedenen Hadoop-Distributionen und sie erfahren, wie man Hadoop installiert, konfiguriert, administriert und nutzt. Am zweiten Tag geht es dann in die Details – von der manuellen Cluster-Installation über die HDFS- und YARN-Konfiguration und die Installation von HDP bis hin zu Spark Data Frames und Spark SQLp

Den Referenten stellt das Schulungs- und Beratungshaus B1 Systems. Die Teilnehmerzahl ist auf 20 begrenzt; die Teilnehmer bekommen vonkonfigurierte Notebooks gestellt. Weitere Infomationen sowie die Möglichkeit zur Anmeldug gibt es auf der Workshop-Website. (js)