Kubernetes: KEDA 2.0 bringt separate Ressourcen zur Skalierung von Workloads

Das Microsoft-Tool soll Entwickler bei der automatischen Container-Skalierung in Kubernetes-Clustern unterstützen.

In Pocket speichern vorlesen Druckansicht

(Bild: Travel mania/Shutterstock.com)

Lesezeit: 3 Min.

Microsoft hat Version 2.0 des von Red Hat unterstützten Open-Source-Projekts KEDA vorgelegt, das sich seit April 2020 in der CNCF Sandbox bewähren muss. KEDA eröffnet Entwicklern die Möglichkeit, ereignisgesteuerte Serverless-Anwendungen auf Basis von Kubernetes zu deployen. Anstelle der reaktiven Skalierung der Container-Orchestrierung, die sich primär an der CPU- und Speicherauslastung orientiert, ermöglicht KEDA eine an den eingehenden Events ausgerichtete frühzeitigere Anpassung der Containerinstanzen im Kubernetes-Cluster.

Mit KEDA automatisiert Microsoft die Container-Skalierung in Kubernetes-Clustern. Dabei gibt es zwei Arten von Workloads, die sich in einem Cluster automatisch skalieren lassen. Neben den für das Deployment erforderlichen gibt es Job-typische Workloads. KEDA 1.x unterstützt die Skalierung von jeweils einem der beiden Typen anhand einer Spezifizierung in der ScaledObject-Ressource. Das aktuelle Release teilt beide Optionen auf und führt separate Ressourcen ein: ScaledObject und ScaledJob. Diese Änderung soll es Entwicklern ermöglichen, den Anforderungen an die Konfiguration und dem individuellen Verhalten der Workloads gerecht zu werden.

Darüber hinaus hält KEDA 2.0 ein Feature bereit, das es Entwicklern erlaubt, mehrere Trigger auf einer ScaledObject/ScaledJob-Ressource anzugeben. Dadurch soll sich der Workload auf Basis verschiedener Trigger wie Kafka oder Prometheus automatisch skalieren lassen. Das Tool wählt offenbar den maximalen Wert aus den Skalierern aus, um die Zielzahl der Replikate (Scaling Decision) zu definieren.

KEDA 2.0 hat gleich eine ganze Reihe neuer Skalierer im Gepäck. Dazu zählen beispielsweise die plattformunabhängige Message-orientierte Middleware-Software IBM MQ und Azure Log Analytics. Letzteres dient dem Schreiben von Protokollabfragen und zur Analyse der Ergebnisse in Microsofts Cloud-Plattform Azure. Neu ist auch der CPU/Memory Scaler, durch den Entwicklerinnen und Entwicklern das Mischen des Horizontal Pod Autoscalers (HPA) und des ScaledObjects erspart bleiben soll, da KEDA 2.0 sich offenbar um die HPAs kümmert.

KEDA ist seit April 2020 ein Sandbox-Projekt der Cloud Native Computing Foundation (CNCF). Bei der CNCF Sandbox handelt es sich um einen Platz für Projekte, die noch in der Anfangsphase ihrer Entwicklung stecken. Sie ist für Projekte vorgesehen, die die Arbeit der CNCF vorantreiben können und soll ihnen einen gewissen Grad der Sichtbarkeit verleihen.

Interessierte können KEDA mit OperatorHUB.io oder über Helm, den Kubernetes Package Manager, installieren. Eine Anleitung sowie weitere Informationen zur aktuellen Version des Kubernetes Event-Driven Autoscaler finden sich in den Release Notes auf dem KEDA-Blog und im Changelog

(mdo)