InfiniBand-Adapter für Cluster

Das US-Unternehmen Paceline kündigt für Anfang 2003 einen InfiniBand-Switch mit acht 10-GBit/s-Ports zur schnellen Verbindung von Cluster-Knotenrechnern an.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Lesezeit: 1 Min.

Das US-Unternehmen Paceline kündigt für Anfang 2003 einen InfiniBand-Switch mit acht 10-GBit/s-Ports zur schnellen Verbindung von Cluster-Knotenrechnern an. Der 4100 Intelligent Switch verknüpft acht 4x-InfiniBand-Ports miteinander und soll dabei Port-zu-Port-Latenzzeiten von 160 ns einhalten. Der Switch benötigt eine Höheneinheit im 19-Zoll-Rack und soll rund 8000 US-Dollar kosten. Als Übertragungsmedium kommen Kupferleitungen zum Einsatz; InfiniBand ist prinzipiell auch für Glasfaser geeignet und überbrückt darauf größere Distanzen. InfiniBand soll im Vergleich zu anderen Verbindungstechniken eine besonders gute Anbindung an den Hauptspeicher und geringen Protokoll-Overhead bieten.

Paceline verkauft auch ein knapp 10.000 US-Dollar teures Starterpaket, bestehend aus dem Switch, vier Host Channel Adapter (HCA) für den PCI-X-Bus und den nötigen Softwarelizenzen für das Message Passing Interface (MPI/Pro) der Firma MPI Software Technology. Den Hersteller der HCA nennt Paceline nicht, allerdings bietet unter anderem Mellanox einen InfiniHost-Chip für 4x-InfiniBand-Verbindungen an (den die taiwanische TSMC fertigt).

Auch Firmen wie Brocade oder InfiniSwitch arbeiten an InfiniBand-Geräten. InfiniBand soll künftig auch in Blade-Servern von IBM und Nexcom zum Einsatz kommen; damit deutet sich an, dass der schnelle serielle Standard sich zunehmend im Bereich des High-Performance Computing (HPC) etabliert. Bisher verbindet man Cluster häufig über Gigabit-Ethernet oder spezielle Adapter von Myricom oder Dolphin. (ciw)