Savanna: Hadoop auf OpenStack

Big Data goes Cloud: Die neue OpenStack-Komponente Savanna will das Aufsetzen von Hadoop-Clustern für verteilte MapReduce-Berechnungen in einer OpenStack-Umgebung vereinfachen. Hinter dem Projekt stehen Mirantis, Hortonworks und Red Hat.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 1 Min.

Big Data goes Cloud: Die neue OpenStack-Komponente Savanna, die auf dem OpenStack Summit vorgestellt wurde, will das Aufsetzen von Hadoop-Clustern für verteilte MapReduce-Berechnungen in einer OpenStack-Umgebung vereinfachen. Hinter dem Projekt stehen der OpenStack-Spezialist Mirantis, Hadoop-Distributor Hortonworks und Linux-Distributor Red Hat, der gerade ein verstärktes Engagement für OpenStack angekündigt hat.

Traditionell wird Hadoop direkt auf den Rechenknoten installiert; Savanna packt Hadoop in virtuelle Maschinen, die mit der OpenStack-Cmpute-Komponente Nova verwaltet werden. Für Test- und Entwicklungszwecke lassen sich so einfach "virtuelle" Hadoop-Cluster auf OpenStack bereitstellen. Zudem soll Savanna ungenutzte Rechenressourcen in einer OpenStack-Cloud für Hadoop zur Verfügung stellen. Schließlich geht es um "Analytics as a Service", um in Art von Amazons Elastic MapReduce dynamisch Rechenressourcen für aufwendige Datenanalysen bereitzustellen; diese Funktion wollen die Entwickler laut der Savanna-Roadmap bis September implementieren. (odi)