SUSE AI Factory mit Nvidia: KI-Eigenbetrieb leicht gemacht
SUSE stellt auf der SUSECon die „SUSE AI Factory with Nvidia“ vor. Sie soll Unternehmen den Eigenbetrieb von KI erleichtern.
(Bild: heise medien)
- Udo Seidel
Auf seiner Hauskonferenz SUSECon in Prag hat SUSE einen engeren Schulterschluss mit Nvidia angekündigt. Den Anfang macht das Produkt SUSE AI Factory with Nvidia. Der Name ist Programm: Die schlüsselfertige Lösung soll Unternehmen den Eigenbetrieb von KI erleichtern.
Die Grundlage bilden die bekannten Komponenten SUSE AI, die Kubernetes-Plattform Rancher Prime sowie SUSE Linux Enterprise Server. Hinzu kommen zahlreiche Bausteine aus Nvidia AI Enterprise, darunter die NIM-Microservices mit optimierten Modellen, NeMo zum Erstellen und Ăśberwachen von KI-Agenten, Nvidias Plattform Run:ai, CUDA-X sowie die bekannten Kubernetes-Operatoren fĂĽr GPU-Nutzung, NIM und NeMo.
Schlüsselfertig wird das Produkt durch geprüfte Blueprints, die diese Komponenten zu einem fertigen Technologie-Stack zusammenfassen. Anwender können damit Kubernetes-Cluster für verschiedene KI-Anwendungsfälle wie gewohnt einrichten, aktualisieren und bei Bedarf abschalten. Derzeit stehen drei Blueprints bereit: Nvidia RAG (Retrieval-Augmented Generation), Nvidia AI-Q und NeMoClaw. Weitere dürften folgen, sobald SUSE das Produkt im Laufe des Jahres 2026 verfügbar macht.
Videos by heise
Initiative „Infrastructure for AI“
SUSE AI Factory with Nvidia ist Teil der Initiative „Infrastructure for AI“. Mit Produkten, Partnerschaften und Integrationen will SUSE das Bereitstellen von KI-Infrastruktur deutlich vereinfachen.
Daneben gibt es ein Pendant namens „AI for Infrastructure“. Auch hier vertieft SUSE die Zusammenarbeit mit Nvidia – und mit Switch kommt ein dritter Partner hinzu. Der Rechenzentrumsbetreiber setzt früh auf Nvidia-Hardware wie den Grace-Blackwell-Server und nutzt inzwischen den Omniverse-DSX-Blueprint, um digitale Zwillinge von Rechenzentren zu erstellen. Damit lassen sich komplexe thermische, elektrische und mechanische Systeme simulieren und Probleme oder Fehler vermeiden, bevor die Bauarbeiten beginnen. Künftig sind SUSE AI, Rancher Prime und SLES Teil des Switch-Blueprints. Die Integration der SUSE-Produkte mit der DGX-Hardware aus der Initiative „Infrastructure for AI“ zahlte sich dabei aus.
MCP-Server fĂĽr mehrere SUSE-Produkte
Auch an anderer Stelle hat der Nürnberger Softwarehersteller seine Hausaufgaben gemacht: Im Februar veröffentlichte SUSE einen Model-Context-Protocol-Server (MCP) für die KI-Integration des hauseigenen Multi-Linux-Managers. Laut Rick Spencer, General Manager Engineering, gibt es entsprechende Pendants auch für Rancher Prime, Observability, Security und SLES.
(fo)