Supercomputing-Netz schöpft 100-GBit-WAN fast aus
In einem Feldversuch übertrugen internationale Wissenschaftler über eine WAN-Verbindung 186 GBit/s und hoffen so, zukünftig die immensen Datenmengen verteilen zu können, die etwa beim LHC am CERN anfallen.
Ein internationales Wissenschaftler-Team hat auf der SuperComputing Conference 2011 Mitte November einen Netzwerkaufbau vorgeführt, der über vorhandene WAN-Verbindungen aufsummierte 186 GBit/s zwischen den Servern am Konferenzort Seattle und dem Rechenzentrum der University of Victoria (Kanada) übertragen hat. Das Netz schaufelte dabei von Seattle aus 98 GBit/s auf die Server in Victoria, in Empfangsrichtung von Kanada nach Seattle konnten die Forscher 88 GBit/s verbuchen. Die Summe beider Geschwindigkeiten von 186 GBit/s bricht nach Angaben der Forscher den im Jahr 2009 aufgestellten Rekord von 119 GBit/s.
Die beiden Standorte verbanden die Forscher über die Multi-Protokoll-Router Optical Multiservice Edge 6500 von Ciena sowie den Switch-Router MLXe-4 von Brocade, der per 10-GBit-Leitung in Viktoria mehrere Dell-Server PowerEdge R710 mit den Daten versorgte. Im Vorführraum in Seattle verteilte ein zusätzlicher Core-Switch vom Typ Dell Force10 Z9000 die ankommende Daten auf mehrere, mit 40 GBit/s angebundene Server von Supermicro respektive Dell. Als Speichermedien in den Servern kamen per PCIe 2.0 und 3.0 angeschlossene Solid State Disks zum Einsatz. Für die eigentliche Datenübertragung nutzte das Team die Weitverkehrs- und Forschungsnetze Canarie und BCNET, die auf ihren Leitungen bis zu 100 GBit/s weiterreichen können.
Im Vergleich zu anderen Rekordmeldungen klingt die hier genannten Zahl eher gering. So vermeldeten andere Forschungseinrichtungen wie das Berliner Heinrich-Hertz-Institut (HHI) und die Technischen Universität Kopenhagen beispielsweise Übertragungsraten von 10,2 Terabit/s auf einer Wellenlänge über 29 Kilometer. Allerdings handelt es sich bei diesen Versuchen um Labortests mit eigenen Netzen. Der Test zwischen Seattle und Viktoria lief hingegen über vorhandene Weitverkehrsnetze und beschränkt sich nicht nur auf die Leitungsgeschwindigkeit, sondern bezieht auch die Server respektive Massenspeicher mit ein. So geben die Forscher daher auch die Disk-to-Disk-Geschwindigkeit an, die beim Test zeitweise rund 60 GBit/s auf einigen der Server betrug.
Ziel des Versuchs sei es, die stetig wachsenden Datenmengen aus der Forschung schnell zwischen den beteiligten Instituten und Einrichtungen zu transportieren. Als Beispiel nennen die Forscher den Large Hadron Collider (LHC) am CERN, der bereits rund 100 Petabyte Forschungsdaten erzeugt habe. Für die Analyse müsse man diese Datenmenge an etwa 300 Labore und Forschungseinrichtungen auf der gesamten Welt verteilen. Zukünftig werde das Datenaufkommen sogar noch steigen, erklären die Forscher. Das internationale Team besteht aus Physikern, Informatikern und Netzwerkspezialisten des California Institute of Technology (Caltech), der University of Victoria, der University of Michigan, des Europäischen Kernforschungszentrums CERN sowie weiteren Partnern aus Brasilien und Südkorea. (rek)