Schnelle Server-Verbindungen mit InfiniBand, EtherFabric und iWARP

Anlässlich der Supercomputer-Konferenz in Heidelberg kündigen mehrere Hersteller verbesserte Interconnect-Verfahren für Server an.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 3 Min.

Während die etablierten Hochleistungs-Verbindungstechniken (etwa InfiniBand, Quadrics QsNet, Dolphin SCI, Myrinet) für Server- und Clusterknoten kontinuierlich verbessert werden, drängen neue Verfahren auf den Markt. Und welcher Anlass zur Vorstellung könnte besser geeignet sein als die 2005 International Supercomputer Conference (ISC2005) in Heidelberg.

Die kleine kalifornische Firma Level 5 Networks offeriert mit EtherFabric eine Technik, die -- ähnlich wie iSCSI -- auf Ethernet-Hardware aufsetzt. Während aber der iSCSI-Standard auf die Anbindung von Speicher-Subsystemen in Storage Area Networks (SANs) über preiswerte und leistungsfähige Adapterkarten und Kabel zielt, ist EtherFabric sowohl für sehr schnelle TCP/IP-Verbindungen gedacht als auch zur Verbindung von Cluster-Knoten zum Austausch von Anweisungen und Daten (Message Passing Interface, MPI) und zum direkten Hauptspeicher-Fernzugriff (Remote Direct Memory Access, RDMA). Level 5 Networks betont vor allem die kurzen Latenzzeiten (weniger als 10 Mikrosekunden), die geringe Prozessorbelastung und die günstigen Kosten der Technik, die Gigabit-Ethernet-Infrastruktur nutzt. Außerdem erlauben es die zwischen 300 und 500 US-Dollar teuren Adapterkarten mit zwei Ports, zwei Gigabit-Ethernet-Links parallel zu betreiben (Striping). Auf der Karte sitzt ein Coprozessor, statt eines Kernel-Mode-Treibers soll unter Linux ein Userland-Treiber ressourcenschonender arbeiten.

Level 5 Networks streicht als Vorteil gegenüber InfiniBand heraus, dass viel preiswertere Kabel und Switches (siehe Mellanox, Topspin, Voltaire) ausreichen und Binärkompatibilität zu Ethernet-Software besteht -- prinzipiell lassen sich auch "gewöhnliche" Netzwerk-Zugriffe beschleunigen. Eine ganz andere Technik zur Optimierung von Gigabit-Ethernet-Netzwerk-Transfers hat übrigens Intel mit der I/O Acceleration Technology angekündigt. Auch TCP Offload Engines (TOE) verschiedener Hersteller sollen schnelle Ethernet-Verfahren (etwa 10GE, 40GE) beschleunigen.

Um diese (im Vergleich zu speziellen Cluster-Interconnects) weit verbreiteten Verfahren und ihre technische Infrastruktur auch für andere Zwecke nutzen zu können, entwickelt man neben dem erwähnten RDMA (mit dem Sub-Standards iSER und SDP) auch andere Verfahren, etwa iWARP. Dahinter verbirgt sich ein Verfahren für direkte Speicherzugriffe zwischen Internet-Servern, das über viele unterschiedliche Adapter und Kabel funktionieren soll.

Der InfiniBand-Spezialist PathScale behauptet unterdessen, dass dieses Verfahren in Bezug auf die Latenzzeiten kaum zu schlagen sei: Mit einem HTX-Adapter nämlich, der direkt an einen HyperTransport-Link andockt und dem Umweg über PCI-X oder PCI Express vermeidet, sollen sich Latenzzeiten von 1,32 Mikrosekunden (eine Richtung, 8-Byte-Nachricht, Switch eingeschlossen) erreichen lassen. Der so genannte Infinipath HTX Adapter soll als Onboard-Chip oder als Steckkarte für einen standardisierten HTX-Port verfügbar sein. (ciw)