heise-Angebot

Online-Workshop: Skalierbare Data Science mit Python und Spark

Über die PySpark-API spricht man Spark aus eigenen Python-Programmen an, um so skalierbare Big-Data- und Machine-Learning-Analysen zu entwickeln.

In Pocket speichern vorlesen Druckansicht
Online-Workshop: Big-Data-Analysen mit Python und Spark
Lesezeit: 1 Min.
Von
  • Dr. Oliver Diedrich

Mit Spark lassen sich Datenanalysen und Machine-Learning-Anwendungen flexibel über Rechencluster skalieren. Das bei der Apache Software Foundation beheimatete Tool ist ein Standardwerkzeug bei der Analyse und Auswertung großer Datenmengen. Die PySpark-API bildet dabei die Schnittstelle zwischen der Spark Engine und Ihren selbst geschriebenen Python-Programmen.

In der zweitägigen Online-Schulung Big-Data-Analyse mit PySpark erhalten Sie in vielen Praxisübungen eine gründliche Einführung in das Spark-Framework. Sie lernen dabei, produktiv nutzbare, skalierbare Python-Anwendungen auf Grundlage von Spark zu entwickeln. Sie erhalten Einblick in Spark SQL zur Arbeit mit tabellarischen Daten, in die Spark-Streaming-API, GraphX für Graphenberechnungen sowie in Spark ML.

Der Workshop findet vom 4. bis 5. November 2021 statt und ist auf maximal 15 Personen beschränkt, sodass ein intensiver Austausch zwischen dem Referenten und den anderen Teilnehmenden gewährleistet ist.

Der Referent, Dr. Christian Staudt, ist Informatiker und erfahrener Data Scientist. Seine Schwerpunkte sind Data Mining, Big Data, Machine Learning und künstliche Intelligenz. Zur erfolgreichen Teilnahme sollten Sie solide Grundkenntnisse in Python haben und erste Erfahrungen mit Big-Data-Anwendungen mitbringen.

Weitere Informationen und Anmeldung:

(odi)