iX-Hadoop-Workshop: Noch Plätze frei
Ein 2-tägiges Seminar vermittelt die Einsatzgebiete des Hadoop-Framework zum Betrieb von skalierbarer, verteilt im Cluster arbeitender Software.
- Jürgen Seeger
Wenn es um die Verarbeitung großer Datenmengen in verteilten Umgebungen geht, kommt man um das freie Framework Hadoop kaum herum.
Der Workshop am 19. und 20. Februar in Frankfurt am Main bringt den Teilnehmern am ersten Tag einen Überblick über die verschiedenen Hadoop-Distributionen und sie erfahren, wie man Hadoop installiert, konfiguriert, administriert und nutzt. Am zweiten Tag geht es dann in die Details – von der manuellen Cluster-Installation über die HDFS- und YARN-Konfiguration und die Installation von HDP bis hin zu Spark Data Frames und Spark SQLp
Den Referenten stellt das Schulungs- und Beratungshaus B1 Systems. Die Teilnehmerzahl ist auf 20 begrenzt; die Teilnehmer bekommen vonkonfigurierte Notebooks gestellt. Weitere Infomationen sowie die Möglichkeit zur Anmeldug gibt es auf der Workshop-Website. (js)