Cisco Live 2025: Neues Servermodell für KI im RZ und optionale Cloud-Verwaltung

Den KI-Trend in den Rechenzentren will Cisco mit neuem Servermodell und Konzepten für den eigenen KI-Cluster bedienen.

vorlesen Druckansicht 1 Kommentar lesen

(Bild: thetahoeguy/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Jens Söldner
  • Marco Brinkmann
Inhaltsverzeichnis
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Vor rund 17.000 Teilnehmern bei der Amsterdamer Ausgabe seiner Hausmesse "Cisco Live” brachte Netzwerkspezialist Cisco einen ganzen Reigen von Ankündigungen rund um KI-Cluster aufs Podium. Den Anfang machte die Vorstellung des auf KI-Workloads optimierten neuen Rack-Servers UCS C845A M8 mit vier Höheneinheiten, den der Hersteller für Retrieval Augmented Generation und Inferenz-Aufgaben vorsieht.

Der Server basiert auf Nvidias modularem Referenzdesign MGX und lässt sich flexibel bestücken: Er erlaubt die Ausstattung mit zwei, vier, sechs oder maximal acht Nvidia-GPUs. Das soll Kunden abholen, die zu Beginn noch nicht absehen können, wie viele GPUs sie für ihre KI-Projekte wirklich benötigen und deshalb Nachrüstmöglichkeiten wünschen.

Neben dem Einsatz für generative KI sieht der Hersteller den Server auch für Renderfarmen oder für anspruchsvolle VDI-Aufgaben gerüstet. Laut Datenblatt können Kunden derzeit zwischen Nvidias GPU-Modellen H100 NVL, H200 NVL oder L40S wählen, künftig erscheinende GPUs aber nachrüsten. Bei Systemen auf Basis von Nvidias H100/H200-NVL-Karten liegt ferner eine Fünfjahreslizenz für das von Nvidia kuratierte Open-Source-Softwarepaket AI Enterprise bei.

CPU-seitig setzt der Server auf AMDs Turin-Serie und kann in der aktuell größten Konfiguration bis zu zwei AMD-Epyc-9655-Prozessoren mit jeweils 96 Kernen einsetzen. Beim Hauptspeicher liegt die maximale Bestückung bei 32 96 GByte DDR5-Modulen. Bei Bedarf kann der Server mit SmartNICs von Nvidia bestückt werden, um den Netzwerkverkehr mit zusätzlichem Security-Offloading durch Data Processing Units abzusichern.

Der Aufbau einer für KI-Workloads passenden Netzwerkinfrastruktur ist kompliziert: So ist das Design der Infrastruktur meist ziemlich komplex, Komponenten unterschiedlicher Hersteller müssen reibungslos zusammenarbeiten und an die Bandbreiten im Netzwerk und Speichersystem werden hohe Anforderungen gestellt. Kunden, die dabei auf Cisco-Produkte setzen wollen, bietet der Hersteller drei grundsätzliche Möglichkeiten: "Produkt", "Lösung" oder "Consumption".

Bei der ersten Strategie ("Produkt") beschaffen die Kunden die notwendigen Komponenten und installieren die Umgebung zusammen mit einem kundigen Partner nach eigenem Design. Wer es etwas strukturierter haben möchte, kann den "Lösungs"-Weg beschreiten. Hierfür stellt Cisco mit dem "AI Pod" eine ausführliche Anleitung auf Basis von Cisco Validated Designs – vergleichbar mit einem längeren IKEA-Bauplan – zur Verfügung, von der bekannt ist, dass sie gut funktioniert. Die Umsetzung liegt aber immer noch beim Kunden selbst. Ähnliche Konzepte hat Cisco auch schon im Virtualisierungsumfeld eingeführt, etwa die FlexPod-Architektur.

Wer als Kunde den Betriebsaufwand der eigenen Umgebung so gering wie möglich halten will, für den ist die dritte Option gedacht, die im Laufe des Jahres nun auch für KI-Infrastrukturen zur Verfügung stehen soll: Ciscos Nexus HyperFabric AI Cluster. Angekündigt hat der Hersteller sie bereits auf seiner Hausmesse in den USA im Sommer 2024 – allerdings ist bislang nur der nicht-KI-fähige HyperFabric lieferbar, die Variante für KI-Infrastruktur wird für Mitte oder Ende 2025 erwartet.

Der Nexus HyperFabric AI Cluster ist ein zusammen mit Nvidia entwickelter Dienst. Das Angebot kombiniert Ciscos Serverhardware in Nvidias MGX-Architektur, Ethernet-Switches und Glasfaseroptiken von Cisco, Nvidias GPUs und DPUs, das Softwarepaket Nvidia AI Enterprise sowie die VAST Data Platform als Speicher- und Datenbankbackend. Dazu kommen noch Hypervisoren- und Containermanagementplattformen, wie sie von VMware, Nutanix oder Red Hats OpenShift geliefert werden.

Die Verwaltung des Gesamtsystems folgt dabei in etwa dem Meraki-Ansatz bei Cisco: Die Hardware gehört und steht beim Kunden, die Verwaltungsoberfläche kommt aus der Cloud, konkret aktuell aus der US-amerikanischen AWS-Cloud.

Videos by heise

HyperFabric für KI dürfte wohl Ciscos Versuch sein, eine Brücke zwischen der Skalenökonomie mit Auslagerung in die Cloud sowie der sicheren Umgebung unter eigener Kontrolle zu bauen. Um die Akzeptanz dieses Ansatzes im deutschen Markt zu erhöhen, wäre es allerdings sinnvoll, eine in Deutschland gehostete "souveräne" Instanz der Management-Umgebung zu haben. Der reguläre HyperFabric-Dienst für die Verwaltung von herkömmlichen Infrastrukturen (ohne AI) ist auf der Cisco Live Amsterdam als jetzt lieferbar angekündigt worden.

(axk)