Confluent übernimmt Immerok: Apache Kafka und Flink rücken enger zusammen

Mit dem Kauf des Berliner Start-ups Immerok sichert sich Confluent umfassendes Flink-Know-how und einen Managed-Flink-Service für Stream Processing.

vorlesen Druckansicht 5 Kommentare lesen

(Bild: confluent.io)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Confluent, das Unternehmen hinter der gleichnamigen auf Apache Kafka basierenden Event-Streaming-Plattform, hat die Übernahme des Berliner Start-ups Immerok angekündigt. Das erst im Mai vergangenen Jahres in der bundesdeutschen Hauptstadt gegründete Unternehmen vereint ein Team von Apache-Flink-Entwicklern – darunter Holger Temme, Konstantin Knauf, Timo Walther und Johannes Moser –, die einen vollständig verwalteten, cloud-nativen Flink-Service für das Stream Processing aufgebaut haben. Confluent möchte sich durch die Akquise nicht nur das Know-how des Flink-Entwicklungsteams sichern, sondern seine Kafka-Plattform auch um das Flink-Framework zum Bau von Applikationen für die Stream-Verarbeitung in der Cloud erweitern.

Mit der Confluent Cloud auf der Basis des Open-Source-Message-Brokers Kafka könne Confluent seinen Unternehmenskunden Streaming-Funktionen bereits auf Anfrage einfach bereitstellen, um in Echtzeit Daten aus Anwenderinteraktionen auf Webseiten oder von Geräten im Internet der Dinge (IoT) auszuwerten. Das Führungsteam um Confluent-CEO Jay Kreps verfolgt darüber hinaus aber die Strategie, Streaming Data zum Kernelement moderner Datenarchitekturen zu machen und das Entwickeln von Anwendungen, die solche Datenströme verarbeiten, so einfach wie möglich zu gestalten: "Wir glauben, dass Flink die Zukunft der Stream-Verarbeitung ist", bringt Kreps die Motivation hinter der Übernahme von Immerok auf den Punkt.

Videos by heise

Mit einem auf Batch und Stream zugeschnittenen Verarbeitungsmodell sowie Support für wichtige Programmiersprachen wie Java, Python und SQL sei Apache Flink auf dem besten Weg, sich als De-facto-Standard für die Applikationsentwicklung im Stream Processing zu etablieren. Das Immerok-Team habe Kreps zufolge nicht nur die Weiterentwicklung von Flink maßgeblich mit vorangetrieben, sondern mit der Immerok-Cloud auch den "fortschrittlichsten" Managed Service an den Start gebracht, der das Bauen, Bereitstellen und Ausführen von Flink-Anwendungen ermögliche.

Immerok ist im Mai 2022 von einer Gruppe ehemaliger Ververica-Mitarbeiter (vormals data Artisans) gegründet worden, die mehrheitlich als Committer oder auch Teil des Project Management Committee (PMC) zu den aktiven Apache-Flink-Entwicklerinnen und -Entwicklern zählen. Im Herbst vergangenen Jahres konnte sich Immerok eine erste Finanzspritze über 17 Millionen US-Dollar von einer Investorengruppe sichern. Zu den Investoren zählt unter anderen Cortical Ventures, die in der Vergangenheit bereits data Artisans finanziert hatten, das von den ursprünglichen Flink-Entwicklern um Kostas Tzoumas und Stephan Ewen gegründete und 2019 an Alibaba verkaufte Unternehmen.

Der Firmenname Immerok steht einerseits für "immer okay" und soll den Anspruch des Stream-Processing-Unternehmens unterstreichen, er beinhaltet zugleich aber auch das Kürzel rok, das für die primäre Schnittstelle der Immerok Cloud steht. Dabei handelt es sich laut Firmenwebsite um eine Kubernetes-ähnliche CLI (Kommandozeile), über die sich Ressourcen des Clouddienstes sowohl imperativ als auch deklarativ konfigurieren und bearbeiten lassen. Den Prozess der Namensfindung hat Mitgründer Timo Walther in einem eigenen Blogbeitrag ausführlich dargelegt.

Zu den finanziellen Details der Übernahmetransaktion von Immerok durch Confluent haben sich die Beteiligten bisher nicht geäußert, der Wirtschaftsnachrichtendienst Finance Forward taxiert den Kauf aber auf rund 100 Millionen US-Dollar. Unterdessen freue sich Confluent-CEO Kreps darauf, die Flink-Spezialisten von Immerok künftig als Mitarbeiter in seinem Unternehmen begrüßen zu können und kündigt an, "noch in diesem Jahr die erste Version unseres Flink-Angebots in der Confluent Cloud auf den Markt zu bringen" – zunächst mit Support für SQL.

(map)