Apache Software Foundation erhebt Hudi zum Top-Level-Projekt

Apache Hudi, ein Tool zum Verwalten großer Datenströme, hat die Bewährungsphase im Apache Incubator abgeschlossen.

In Pocket speichern vorlesen Druckansicht
Apache Software Foundation erhebt Apache Hudi zum Top-Level-Projekt

(Bild: Gorodenkoff/Shutterstock.com)

Lesezeit: 2 Min.
Von
  • Madeleine Domogalla

Die Apache Software Foundation (ASF) entlässt Apache Hudi aus dem Inkubator befördert das Tool zur Verwaltung von Data Lakes zum Top-Level-Projekt.

Entwickler, die analytische Datensätze schnell auf dem Hadoop Distributed File System (HDFS)- oder in Cloud-Stores verwalten möchten, bekommen mit Apache Hudi ein Tool an die Hand, das beim Verwalten von Data Lakes im Größenbereich von Petabytes helfen soll. Hudi unterstützt Unternehmen beim Schreiben und Auslesen großer Mengen von Rohdaten für das Stream Processing. Dafür setzt die Speicherverwaltung auf Distributed File Systems (DFS) wie HDFS (Hadoop Distributed File System) oder dazu kompatiblen Cloud-Stores auf.

Das Kürzel Hudi, gesprochen Hoodie, steht für Hadoop Upserts Deletes and Incrementals. Uber hat das Projekt im Jahr 2016 entwickelt und den Code 2017 offen gelegt. Das Open-Source-Projekt startete im Januar 2019 in die Bewährungsphase im Apache Incubator der ASF. Inzwischen setzen neben Uber auch Firmen wie die Alibaba Group, EMIs Health, Linknovate, Tathastu.AI, und Tencent auf Apache Hudi. Eine Liste weiterer Firmen findet sich auf der Webseite zu Apache Hudi. Als Teil von Amazon Elastic MapReduce (EMR) wird es auch durch die Amazon Web Services unterstützt.

Weiterführende Informationen zu Apache Hudi finden sich auf der offiziellen Webseite des Projektes. Die Apache Software Foundation hat zudem einen Beitrag zur Beförderung des Projektes auf Top-Level-Ebene verfasst – Interessierte können sich auf dem Apache Blog informieren.

(mdo)