20 Jahre: Happy Birthday RHEL

Vor 20 Jahren vollzog Red Hat einen fundamentalen Schnitt seines Geschäftsmodells in dessen Zentrum die erste Version von Red Hat Enterprise Linux (RHEL) stand.

In Pocket speichern vorlesen Druckansicht 69 Kommentare lesen

Red Hat

Lesezeit: 5 Min.
Von
  • Harald Weiss

20 Jahre sind in der IT-Welt eine äonische Zeit. Kaum jemand kann sich noch daran erinnern, wie die Anbieter und Systeme hießen, die Ende der 90er-Jahre die IT-Welt bestimmten. Sun, Compaq, Tandem und DEC waren damals die beherrschenden System-Anbieter. Und Cloud und Container gehörten in die Welt des Wetterdienstes, beziehungsweise der Logistik. VMware versuchte sich zwar schon in Virtualisierung, aber nur auf dem Desktop. „Linux gab es damals auch schon, aber es war eine exotische Randerscheinung. Es wurde auf Disketten zumeist an Hobby-Anwender verkauft“, erinnert sich Jan Wildeboer, ein Evangelist und Linux-Urgestein bei Red Hat. Doch dann begannen immer mehr Firmen, sich für Linux zu interessieren.

Jan Wildeboer kümmert sich seit vielen Jahren bei Red Hat als EMEA Open Source Evangelist um Aspekte freier Software.

(Bild: Red Hat)

Die aber wollten nicht nur die Software, sondern vor allem Support. „Sie benötigten eine Roadmap, die sich über viele Jahre erstreckt, also mussten wir unser gesamtes Geschäftsmodell umkrempeln“, so Wildeboer. Der Produktverkauf war plötzlich nicht mehr wichtig, sondern ein langfristiger Support. Das war die Geburtsstunde von RHEL und dem zugehörigen Abo-Modell. 2002 kam die erste Version davon heraus, die noch „Red Hat Advanced Server“ hieß. Man startete direkt mit der Versionsnummer 2.1, da man bei Red Hat meinte, dass „1.0 und .0 immer als zweifelhaft gelten“. Der „Nutzungskomfort“ war damals noch sehr gering. So mussten die User Paket für Paket installieren, was bedeutete, dass man bei der Installation einer Anwendung, die eine Handvoll RPMs erforderte, alles manuell machen musste – oft in der richtigen Reihenfolge – und ohne ein Abhängigkeits-Management. Erst nach einigen Releases übernahm Yum diesen Part, sodass sich fortan alle Pakete mit ein paar Befehlen aktualisieren ließen.

Eines der größten Probleme der ersten Tage war es, genügend Vertrauen bei den Entwicklern und IT-Chefs zu generieren. Dazu gehörten Testimonials, aber auch umfassende Infos, wie eine Liste zertifizierter Hardware, auf der Linux stabil ablief. Noch wichtiger war aber die Einlösung des Versprechens eines langen Support-Zeitraums. RHEL 2.2 wurde bis Mai 2009 unterstützt, also rund sieben Jahre. Das war damals revolutionär!

Anwendungsseitig war Linux vor allem bei neuen Anwendungen, insbesondere bei den aufkommenden Webservern verbreitet, wogegen High-Performance-Workloads weiterhin die Domäne von teuren UNIX-Systemen mit proprietärer Hardware waren.

Erst mit leistungsstärkeren x86-Servern eroberte Linux auch die Rechenzentren. Dabei tauchten neue Probleme auf: Die Systeme waren kaum ausgelastet. Das führte dann Mitte der 2000er Jahre zur Server-Virtualisierung. Hier experimentierte Red Hat zunächst mit dem Xen-Hypervisor, nutzte dann aber die Linux Kernel-based Virtual Machine (KVM). Die Virtualisierung öffnete das Tor zur nächsten großen Evolutionsstufe: Cloud Computing. Die Public Cloud, so wie wir sie heute kennen, entstand eigentlich nur dank dem Potenzial von Linux: Keine teuren Lizenzen, ständige Innovation und die Fähigkeit, auf standardisierter Hardware zu laufen. Hier hatte RHEL einen großen Vorteil: Es lief sowohl auf Bare-Metal, virtualisiert oder in der Cloud, also eine Lingua Franca, um Anwendungen über alle Footprints hinweg zu betreiben. Oder besser gesagt: Über alle Hybrid Clouds hinweg.

Doch die VMs brachten neue Probleme, denn das Hochfahren einer VM benötigt – rechnerisch gesehen – viel Zeit. Die Lösung dafür: Container! Mit RHEL 7 im Jahr 2014 kam dann der entsprechende Durchbruch in Form von Linux-Containern. Durch Docker populär gemacht, waren Linux-Container zwar nicht ganz neu, aber plötzlich viel benutzerfreundlicher. Jetzt konnten Programme auf dem Laptop entwickelt werden, um sie dann in die CI/CD-Pipelines einzubinden.

Viel hat sich in der IT-Welt in den vergangenen 20 Jahren verändert. Open Source hat die Server-Landschaft komplett übernommen. Proprietäre Hard- und Software sind nur noch in Nischen zu finden. Betriebssysteme sind nicht mehr das kleine Stück Software, das mit der Hardware kommuniziert, sondern sind das umfassende Fundament der gesamten IT-Infrastruktur. Das trifft auch auf RHEL zu. Hier wurde Insights hinzugefügt – was dazu beigetragen hat, die Arbeit der Systemadministratoren zu erleichtern. Mit Ansible Playbooks lassen sich heute viele Aufgaben automatisieren, die alltäglich und anfällig für menschliche Fehler sind. So ist das Systemmanagement trotz höherer Komplexität einfacher, schneller und einheitlicher geworden.

Und die IT-Entwicklung wird weiterhin dynamisch bleiben. Quantencomputer klopfen schon an die Türen der Rechenzentren und passende Anwendungen werden schon simuliert. Es bleibt also spannend!

(avr)