Nun offiziell: RHEL 10 ist da – mit KI für Admins
Die Images für RHEL 10 waren schon vor Ankündigung verfügbar – nun sind sie es offiziell. Neu an Bord sind unter anderem Post-Quanten-Krypto und KI für Admins.
(Bild: Generiert mit Midjourney durch iX)
- Udo Seidel
Das Flaggschiff aus dem Hause Red Hat ist nun auch ganz formal veröffentlicht. Große Sprünge zur Vorversion sind dabei nicht zu erwarten. Die meisten Innovationen finden im Bereich der KI statt. Drei Aspekte sind bei RHEL 10 von Interesse. So hat es jetzt den sogenannten Image-Modus integriert, den Red Hat schon letztes Jahr angekündigt hat. Die technische Grundlage dafür ist das bootc-Projekt – also bootbare Container mit Kernel und OSTree. Mit dem Image-Modus können Admins ihre Systeme viel einfacher und unterbrechungsfreier auf aktuellem Stand halten.
In diesem Zusammenhang könnte auch das neue "Security Select Add-On" von Interesse sein. Grob gesagt können Kunden Patches für bestimmte CVEs anfordern – auch wenn Red Hat das im Rahmen des normalen Supports nicht liefern würde.
Quantensichere Verschlüsselung und KI für Admins
Aspekt Nummer zwei kommt aus dem Bereich Vorbereitung auf die Zukunft. Das Schlüsselwort lautet: Post-Quanten-Kryptographie. Die gegenwärtige Annahme ist, dass die bekannten asymmetrischen Verschlüsselungsverfahren im Jahr 2029 nicht mehr sicher genug sind. Und 5 Jahre später sollen sie durch Quantencomputer komplett knackbar sein. Das US National Institute of Standards and Technology (NIST) hat aber schon erste Verschlüsselungsstandards herausgegeben, welche dieses Problem adressieren.
Eine Familie davon bringt RHEL 10 für OpenSSL, GnuTLS, NSS und OpenSSH mit. Letztere ist noch nicht ganz vollständig. Es funktioniert schon für OpenSSH-Verbindungen, ist aber noch nicht Teil von libssh. Wer diese Algorithmen systemweit benutzen will, muss die Pakete crypto-policies-pq-preview und crypto-policies-scripts installieren und dann über "update-crypto-policies --set DEFAULT:TEST-PQ" aktivieren.
Videos by heise
Der letzte neue Aspekt von RHEL 10 kommt aus dem Bereich KI. Vergangenes Jahr zeigte Red Hat die Integration von Lightspeed in das Ansible-Produkt. Nun ist das auch bei RHEL 10 der Fall. Mit Red Hat Enterprise Linux Lightspeed erhält der Admin Zugriff auf generative KI. Anstatt Hilfe-Seiten oder Knowledge-Base-Artikel zu lesen, kann der Admin a la ChatGPT auf Wissen, Anleitungen, Empfehlungen und Erfahrungen von Red Hat und seinen Kunden zugreifen. Zu guter Letzt sei noch die Erweiterung der Hardware-Plattform erwähnt. Im Sommer 2025 soll RHEL 10 als Entwicklervorschau für RISC-V verfügbar sein. Red Hat sich dafür mit der Firma SiFive zusammen getan. Deren HiFive Premier P550 ist die Referenzplattform.
Neuer Inferenz-Server
Im Hinblick auf KI gibt es außerdem ein neues Mitglied in der Produktfamilie von Red Hat – den Inference Server. Für Kenner der Szene ist das sicher keine Überraschung. Im Januar 2025 hatte Red Hat die Übernahme von Neural Magic abgeschlossen. Diese Firma war als Treiber des Projekts vLLM bekannt. Die Anfänge waren in den Sky Computing Labs der University of California Berkeley, Dabei steht vLLM für Virtual Large Language Model. Es ist eine quelloffene Bibliothek, die vor allem im Bereich Inferenz für generierende KI Bekanntheit erlangt hat. Durch clevere Nutzung von GPUs ist sie dabei besonders schnell.
Der Red Hat AI Inference Server ist die Enterprise-Variante von vLLM. Die Modelle sind auf Hugging Face unter Red Hat AI gespeichert. Der Inference Server lässt sich wohl unter RHLE AI als auch mit Openshift AI betreiben. Ein interessanter Aspekt ist, dass Red Hat das Produkt sogar auf Nicht-RHEL und Nicht-Openshift-Umgebungen unterstützt. Damit will die Firma auch dem eigenen Anspruch im Bereich KI gerecht werden. Dieser lautet: any model, any accelerator, any cloud – also freie Wahl bei den Modellen, den Berechnungsprozessoren und Infrastrukturen beziehungsweise Plattform.
KI einfacher skalieren
Apropos LLM: Das "L" – also "Groß" macht es im ersten Ansatz schwierig, die vorhandenen Berechnungskapazitäten effektiv zu nutzen. Red Hat meint, dass KI ohne die einfache Möglichkeit der Skalierung nur bedingt erfolgreich sein wird. Und diese Skalierung muss auch bezahlbar und effektiv sein. Zusammen mit anderen Größen im KI-Umfeld hat Red Hat das Projekt llm-d ins Leben gerufen. Das "d" steht für distributed. Die Idee ist, vLLM hochgradig verteilt verfügbar zu machen. Das Projekt ist dabei nur ein formaler Schritt, um die verschiedenen Aufgaben besser zu verwalten, zu kanalisieren und die Mitarbeit anderer zu erleichtern.
Die technische Idee dahinter ist schon sehr weit gediehen. Das Fundament ist Kubernetes und zwar für alle Komponenten. Damit ist die einfache Installation und Skalierung schon in der Basis von llm-d verankert. Der Einstiegspunkt für den Anwender ist das Inferenz-Gateway und dann gibt es einen Inferenz-Scheduler und einen Inferenz-Pool. Im Detail gibt es noch viel mehr zu entdecken – in der Projekt-Dokumentation. Bei den Gründern von llm-d finden sich neben Red Hat auch Google Cloud, IBM Research und Nvidia. Ebenfalls involviert sind AMD, Cisco, Intel, Lambda und Mistral AI.
()