Matthias Niehoff: IoT-Daten analysieren und speichern mit Spark und Cassandra

Im IoT fallen beispielsweise von Sensoren groĂźe Datenmengen an. Zu deren Verarbeitung eignet sich unter anderem eine Kombination aus Apache Spark und Cassandra.

vorlesen Druckansicht
Lesezeit: 1 Min.
Von
  • Rainald Menge-Sonnentag

Der Vortrag von der building IoT 2016 zeigt, wie sich groĂźe Mengen von Daten, die beispielsweise von Sensoren stammen, verarbeiten und speichern lassen. FĂĽr die Persistenz der Time-Series-Daten eignet sich Cassandra hervorragend, fĂĽr die Verarbeitung kommt Spark zum Einsatz.

Der Referent betrachtet dabei die Datenmodellierung fĂĽr Time-Series-Daten in Cassandra, die Window- sowie Stateful-Verarbeitung in Spark und schlieĂźlich die Verbindung beider Tools. Ein GroĂźteil der Vortrags besteht aus der praktischen Anwendung der IDE.

arbeitet als IT-Consultant bei der codecentric AG in Karlsruhe. Dort beschäftigt er sich insbesondere mit Big-Data- und Streaming-Anwendungen auf Basis von Apache Cassandra und Apache Spark. Dabei verliert er aber auch andere Tools und Werkzeuge im Big-Data-Bereich nicht aus dem Auge. Matthias teilt seine Erfahrungen auf Konferenzen, Meetups und Usergroup-Treffen. (rme)