Serverless Computing, Teil 1: Theorie und Praxis

Seite 4: Fazit

Inhaltsverzeichnis

Große Enterprise-Projekte bringen eine entsprechende Komplexität mit sich. Nicht selten liegt der Fokus der Entwicklung mehr auf Infrastruktur und Technologie als auf der Umsetzung der Fachlichkeit. Abhilfe schafft eine Verlagerung einzelner Komponenten in die Cloud. Eine Grenze scheint erst bei der individuellen Business-Logik der eigenen Anwendung erreicht. Doch selbst diese Grenze wird es zukünftig nicht mehr geben. Verschiedene Cloud-Anbieter bieten die Möglichkeit, einzelne Funktionen als Services (FaaS) in der Cloud zu hinterlegen und so die eigene Fachlichkeit, aufgeteilt in kleinen Blöcken, abzubilden.

Angesprochen werden die Funktionen von außen über ein API Gateway oder Cloud-intern via Event einer anderen Cloud-Komponente. Die Skalierung zur Laufzeit erfolgt automatisch. Bezahlt wird pro Aufruf. Der Anwendungsentwickler muss sich um keinerlei Infrastruktur kümmern – Serverless ist das Schlagwort der Stunde.

Die Ablaufsteuerung der Anwendung ergibt sich impliziert durch die Komposition der Events. Orchestrierende Komponenten dagegen sucht man vergebens. Wie man dabei zur Entwicklungs- und Laufzeit den Überblick behalten kann und welche Chancen und Risiken der Schritt hin zu einer Serverless-Cloud-Architekur birgt, zeigt der zweite Teil.

Lars Röwekamp
ist Gründer des IT-Beratungs- und Entwicklungsunternehmens open knowledge GmbH und beschäftigt sich im Rahmen seiner Tätigkeit als "CIO New Technologies" mit der eingehenden Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit in den Bereichen Enterprise und Mobile Computing.
(ane)