InfiniBand oder Ethernet für den KI-Cluster? Cisco und Nvidia lassen die Wahl
KI nimmt auch bei Ciscos Hausmesse großen Raum ein. Gemeinsam mit Nvidia will der Anbieter für bessere Ausstattung von KI-Rechenzentren sorgen.
- Jens Söldner
Auf der Hausmesse Cisco Live des Netzwerkherstellers standen erwartungsgemäß auch die derzeit alles dominierenden Themen KI und Machine Learning auf der Tagesordnung. Unangefochtener Hauptdarsteller ist hier Nvidia, dessen GPUs die KI-Anwendungen antreiben, die in großen Clustern laufen. Die Vernetzung dieser KI-Cluster mit hohen Bandbreiten und niedrigen Latenzzeiten stellt hier die Herausforderung dar, sodass bislang häufig dedizierte InfiniBand Netzwerke zum Einsatz kommen, die ebenfalls durch die im Jahr 2019 erfolgte Akquisition des Netzwerkherstellers Mellanox aus dem Hause Nvidia stammen.
Vor die Wahl zwischen InfiniBand und Ethernet gestellt, bevorzugen Rechenzentrumsbetreiber tendenziell eher Ethernet, da sie auf langjährige Erfahrung beim Aufbau und Betrieb dieser Netzwerke zurückgreifen können und den Aufbau eines zusätzlichen, wenig vertrauten Netzwerkstacks vermeiden möchten.
Wahlfreiheit beim Netzwerk-Aufbau
Auf der Cisco Live haben der Netzwerkhersteller und Nvidia eine Partnerschaft vorgestellt, die den Aufbau von Ethernet-basierten und für KI optimierten Netzwerken vereinfachen soll, sodass Nvidias GPU-Kunden Wahlfreiheit zwischen Ethernet und InfiniBand erhalten.
Cisco liefert hier gleich an mehreren Ecken, etwa mit den für die Anforderungen von AI-Netzwerkverkehr optimierten Switches der Nexus-9800-Serie. Diese fußen auf dem hauseigenen Switching-ASIC "Cisco Silicon One" und sollen den Aufbau von großen Spine-Leaf-Netzwerken mit hoher Bandbreite und niedrigen Latenzen ermöglichen.
Tensor Core GPUs für Cisco-Server
In den hauseigenen Cisco UCS und UCS-X Rack- und Blade-Servern der aktuellen M7-Generation können Kunden Nvidias Tensor-Core-GPUs einsetzen. Auch der neue Cisco UCS Server X-Series Direct kann ebenfalls die Nvidia-Karten einsetzen. Cisco hat den Server als integriertes Compute- und Netzwerk-Paket für Edge-Umgebungen entworfen, um komplexe Applikationen mit minimaler Infrastruktur zu unterstützen.
Direkt über die Cisco-Preisliste ist nun auch Nvidias hauseigenes AI Framework "Nvidia AI Enterprise" verfügbar, mit dem der Hersteller die Entwicklung und den Betrieb von KI-Applikationen für Unternehmenskunden vereinfachen möchte. Kunden haben hier die Wahl zwischen verschiedenen Hypervisoren wie VMware oder Nutanix sowie Containerorchestrierungsplattformen wie Kubernetes, Red Hat OpenShift und VMware Tanzu.
Motific für KI-Assistentenverwaltung
Um den Aufbau einer KI-Cluster-Umgebung zu vereinfachen, stellt Cisco mit Nvidia abgestimmte und optimierte Referenzdesigns, sogenannte "Cisco Validated Designs" (CVDs) bereit. Das soll das Design dieser Umgebungen für Cisco-Kunden vereinfachen und den Aufbau beschleunigen.
Über seine hauseigene Forschungs- und Denkfabrik (oder "hauseigenen Inkubator") Cisco Outshift steigt der Hersteller nun auch mit einem eigenen SaaS-Produkt namens Motific in den Markt generativer KI ein. Motific soll bei der herstellerübergreifenden Bereitstellung und Verwaltung von KI-Assistenten und APIs helfen und die Risiken der GenAI-Plattformen bei der Verarbeitung von kritischen Daten unter Kontrolle bringen.
(axk)