Matthias Niehoff: IoT-Daten analysieren und speichern mit Spark und Cassandra

Im IoT fallen beispielsweise von Sensoren große Datenmengen an. Zu deren Verarbeitung eignet sich unter anderem eine Kombination aus Apache Spark und Cassandra.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 1 Min.

Der Vortrag von der building IoT 2016 zeigt, wie sich große Mengen von Daten, die beispielsweise von Sensoren stammen, verarbeiten und speichern lassen. Für die Persistenz der Time-Series-Daten eignet sich Cassandra hervorragend, für die Verarbeitung kommt Spark zum Einsatz.

Der Referent betrachtet dabei die Datenmodellierung für Time-Series-Daten in Cassandra, die Window- sowie Stateful-Verarbeitung in Spark und schließlich die Verbindung beider Tools. Ein Großteil der Vortrags besteht aus der praktischen Anwendung der IDE.

arbeitet als IT-Consultant bei der codecentric AG in Karlsruhe. Dort beschäftigt er sich insbesondere mit Big-Data- und Streaming-Anwendungen auf Basis von Apache Cassandra und Apache Spark. Dabei verliert er aber auch andere Tools und Werkzeuge im Big-Data-Bereich nicht aus dem Auge. Matthias teilt seine Erfahrungen auf Konferenzen, Meetups und Usergroup-Treffen. (rme)