Big Data: Apache Sqoop neues Top-Level-Projekt der Apache Software Foundation

Die Apache Software Foundation hat das Datentransfer-Tool Sqoop als Top-Level-Projekt angenommen. Sqoop erlaubt das Transferieren von Daten zwischen dem NoSQL-Framework Hadoop und anderen SQL-Speichern.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 1 Min.
Von
  • Robert Lippert

Die Apache Software Foundation (ASF) hat das Datentransfer-Tool Sqoop als neues Top-Level-Projekt angenommen. Es ist vor allem für den Einsatz in Big-Data-Umgebungen interessant, da es einen Datenaustausch zwischen dem NoSQL-Framework Apache Hadoop und SQL-Datenbanken erlaubt. Knapp ein Jahr nach der Aufnahme in den Apache Incubator habe das Projekt bewiesen, dass seine Community und die Entwicklung selbst gut zum leistungsorientierten Prozess der ASF passen würden, so die Begründung der Foundation.

Die Entwicklung von Sqoop geht auf das Jahr 2009 zurück, in dem Entwickler Aaron Kimball Sqoop als Hadoop-Modul für den Datenbank-Import in Hadoop-Cluster vorschlug. Später wurde Sqoop in ein eigenes Projekt ausgegliedert, um die Entwicklung der Technik schneller vorantreiben zu können. Im Juni 2011 wurde es schließlich in den Apache Incubator aufgenommen. Letzterer gilt als Vorstufe für eine mögliche Aufnahme als Top-Level-Projekt und bietet die Gelegenheit, sich als Projekt und angeschlossener Community unter den Richtlinien der ASF zu bewähren.

Hadoop stellt die Grundlage diverser Hadoop-Distributionen, wie sie beispielsweise HortonWorks und Cloudera anbieten, sowie verschiedener kommerzieller Big-Data-Angebote unter anderem von IBM. Zahlreiche Anwender haben Hadoop-basierte Lösungen im Produktiveinsatz. (rl)