zurück zum Artikel

InfiniBand-Adapter für Cluster

Christof Windeck

Das US-Unternehmen Paceline kündigt für Anfang 2003 einen InfiniBand-Switch mit acht 10-GBit/s-Ports zur schnellen Verbindung von Cluster-Knotenrechnern an.

Das US-Unternehmen Paceline [1] kündigt für Anfang 2003 einen InfiniBand [2]-Switch mit acht 10-GBit/s-Ports zur schnellen Verbindung von Cluster-Knotenrechnern an. Der 4100 Intelligent Switch [3] verknüpft acht 4x-InfiniBand-Ports miteinander und soll dabei Port-zu-Port-Latenzzeiten von 160 ns einhalten. Der Switch benötigt eine Höheneinheit im 19-Zoll-Rack und soll rund 8000 US-Dollar kosten. Als Übertragungsmedium kommen Kupferleitungen zum Einsatz; InfiniBand ist prinzipiell auch für Glasfaser geeignet und überbrückt darauf größere Distanzen. InfiniBand soll im Vergleich zu anderen Verbindungstechniken eine besonders gute Anbindung an den Hauptspeicher und geringen Protokoll-Overhead bieten.

Paceline verkauft auch ein knapp 10.000 US-Dollar teures Starterpaket, bestehend aus dem Switch, vier Host Channel Adapter (HCA) für den PCI-X-Bus und den nötigen Softwarelizenzen für das Message Passing Interface (MPI/Pro) der Firma MPI Software Technology [4]. Den Hersteller der HCA nennt Paceline nicht, allerdings bietet unter anderem Mellanox [5] einen InfiniHost-Chip für 4x-InfiniBand-Verbindungen an (den die taiwanische TSMC [6] fertigt).

Auch Firmen wie Brocade [7] oder InfiniSwitch [8] arbeiten an InfiniBand-Geräten. InfiniBand soll künftig auch in Blade-Servern von IBM [9] und Nexcom [10] zum Einsatz kommen; damit deutet sich an, dass der schnelle serielle Standard sich zunehmend im Bereich des High-Performance Computing (HPC) etabliert. Bisher verbindet man Cluster häufig über Gigabit-Ethernet oder spezielle Adapter von Myricom [11] oder Dolphin [12]. (ciw [13])


URL dieses Artikels:
https://www.heise.de/-70855

Links in diesem Artikel:
[1] http://www.pacelinesystems.com/
[2] https://www.heise.de/news/Erste-Version-der-InfiniBand-Spezifikation-32840.html
[3] http://www.pacelinesystems.com/prod_4100intel.html
[4] http://www.mpi-softtech.com/
[5] http://www.mellanox.com/products/InfiniHostOverview.html
[6] http://www.tsmc.com/
[7] https://www.heise.de/news/Brocade-Todesstoss-fuer-Fibre-Channel-43559.html
[8] http://www.infiniswitch.com/
[9] https://www.heise.de/news/IBMs-dicke-Blade-Server-64805.html
[10] http://www.infiniswitch.com/
[11] http://www.myri.com/
[12] http://www.dolphinics.com/
[13] mailto:ciw@ct.de