Geschwindigkeitsrekord im Internet durch neue Software?

Mit Hilfe einer "neuen Software" soll der Datentransfer im Internet 3500 Mal schneller als über normale Breitbandanschlüsse erfolgen. Das stimmt zwar -- und führt doch in die Irre.

In Pocket speichern vorlesen Druckansicht 137 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Johannes Endres

Agentur-Meldungen, in denen ein Bericht des britischen Wissenschaftsmagazins nature zitiert wird, sorgen für Wirbel in den Medien: "Bei der Übertragung von Daten über das Internet haben US-Wissenschaftler einen Rekord gebrochen. Der Datentransfer soll mit Hilfe einer von ihnen entwickelten Software 3500 Mal schneller als über normale Breitbandanschlüsse erfolgen ..."

Daran stimmt einiges: Im November vergangenen Jahres gelang es einer internationalen Forschergruppe über eine dedizierte, mehr als 10000 Kilometer lange Gigabit-Ethernet-Leitung 6,7 Gigabyte in weniger als einer Minute zu übertragen. Das entspricht einer Datenrate von 925 MBit/s. Damals gaben die Forscher bekannt, dies sei der 3500-fache Durchsatz einer üblichen Breitbandverbindung -- und meinten damit die in den USA verbreiteten Leitungen von 256 kBit/s. Dieser Vergleich von Äpfeln mit Glühbirnen lieferte zwar eine spektakuläre Zahl, aber keinen großartigen Erkenntnisgewinn, denn mit einer üblichen Breitbandverbindung hat die eingesetzte Technik rein gar nichts zu tun.

Viel interessanter ist der Vergleich der Datenrate mit der über Gigabit-Ethernet und TCP/IP theoretisch möglichen Bandbreite: 925 MBit/s entsprechen 95 % des Maximalwertes. Und genau in diesem Prozentsatz liegt die eigentliche Bedeutung des Rekords. Denn bei der Übertragung von extrem großen Dateien über extrem schnelle Leitungen und extrem große Distanzen zeigt sich eine Schwäche von TCP. Bei diesem Protokoll wird jedes Datenpaket vom Empfänger quittiert. Je länger die Leitung, desto länger ist natürlich auch das Quittungspaket unterwegs (Latenz). Um dies auszugleichen, sendet TCP mehrere Pakete, ohne auf die Bestätigung zu warten (RWIN). Im Verlauf einer fehlerlosen Verbindung wird RWIN kontinuierlich vergrößert, bei Fehlern allerdings sofort halbiert. Bei einem einzelnen Download über eine Leitung mit hoher Geschindigkeit und hoher Latenz führt dies zu einer viel zu geringen Auslastung der Kapazität, denn das RWIN wächst zu langsam und schrumpft zu schnell.

Daher arbeiten mehrere Gruppen an anderen Algorithmen zur Anpassung der RWIN-Größe. Einer davon ist das Projekt Fast AQM Scalable TCP (FAST) des California Institute of Technology. Im Vergleich mit den anderen Bewerbern und dem herkömmlichen TCP steht es recht gut da und es kam dann auch beim Weltrekord zum Einsatz.

Bei der in den nun kursierenden Berichten versprochenen "Neuen Software", die "im Sommer" kostenlos im Internet bereitstehen soll, handelt es sich allerdings lediglich um einen Linux-Kernel-Patch, der FAST implementiert.

Das Verfahren ist jedoch lediglich für Internetanwender von Bedeutung, die Gigabit-Ethernet-Adapter in ihrem Rechner haben, denen eine über die gesamte Länge ebenso schnelle Verbindung bis zum Kommunikationspartner zur Verfügung steht und die dauernd so große Dateien per TCP übertragen, dass das Problem überhaupt auftritt. Die Übertragung physikalischer Daten von Teilchenbeschleunigern sind beispielsweise eine solche Anwendung; allgemein gewinnen solche TCP-Verbesserungen durch die neueren Entwicklungen bei den Wissenschaftsnetzen, die mit Hochgeschwindigkeitsleitungen und großen Datenmengen arbeiten, an Bedeutung.

Zur Beschleunigung einer normalen Breitbandverbindung hilft FAST leider kaum. Wirkungsvoller ist es, RWIN im Betriebssystem manuell auf einen größeren Wert zu stellen. (siehe dazu c't 20/2001, Seite 210). (je)