Internet-Sandkasten

Das gute alte Internet-Protokoll ist in die Jahre gekommen. Schon vor einiger Zeit begann man in den USA und später auch in Japan und Europa nach einem Nachfolger für TCP und IP zu suchen. Ab September beteiligt sich das German Lab (G-Lab) an dieser Suche. Insgesamt zwölf Millionen Euro lässt sich das Bildungsministerium (BMBF) dieses Projekt kosten.

vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Monika Ermert

Der Sandkasten, in dem die Forscher kĂĽnftige Internet-Technik erproben, besteht derzeit aus einem Testnetz mit sechs Knoten und 170 Servern. Seit Oktober 2008 haben Informatiker in Kaiserslautern, WĂĽrzburg, Darmstadt, Karlsruhe, Berlin und MĂĽnchen dieses G-Lab-Testnetz aufgebaut. Fast alle Teile sind laut dem WĂĽrzburger Informatiker und Projektkoordinator Phuoc Tran-Gia jetzt einsatzbereit. Diese erste Phase von G-Lab, in der auch nach Industriepartnern gesucht wurde, hat 3,8 Millionen Euro gekostet.

Zehn Hardware- und Netzwerkunternehmen sind mit von der Partie, außerdem elf weitere Universitäten, wenn ab September in Phase 2 die Tests für ein neues Internet über das G-Lab starten – so wie vor 40 Jahren vier US-amerikanische Unis die ersten IP-Pakete austauschten.

Die aktuellen Internet-Protokolle als Auslaufmodelle abzustempel wäre sicherlich verfrüht. Sie seien aber den Anforderungen an Flexibilität, Mobilität und Sicherheit nicht mehr gewachsen, warnen Forscher wie Tran-Gia oder Anja Feldmann, Inhaberin des T-Lab-Lehrstuhls an der TU Berlin. Auch bei der Hochverfügbarkeit, den Möglichkeiten zur Erkennung und Behebung von Fehlern, müsse man Abstriche machen. Feldmann hält außerdem die in wirtschaftlicher Hinsicht relevanten Aspekte Quality of Service und Zusammenwirken verschiedener Providertypen für schlecht abgedeckt im alten Netz.

IPsec, Mobile IP oder IPv6 – zum Internet-Protokoll werde ständig etwas dazugebaut, sagt Thomas Volkert, Informatiker der TU Ilmenau und Mitentwickler eines Testkandidaten fürs G-Lab. Die immer neuen „Patches“, wie Volkert es nennt, sorgten aber auch für Komplexität und Verlust an Sicherheit. Daher sei man in Ilmenau für ein Redesign, einen sogenannten Clean-Slate-Ansatz.

German Lab: Sechs deutsche Universitäten sind über ein Testnetz verbunden, in dem neue Konzepte und Techniken für das Internet der Zukunft erprobt werden sollen.

Feldmann aus Berlin sieht den großen Vorteil von Clean Slate darin, dass neue Ideen nicht allein deshalb scheitern, weil sie nicht zum bestehenden Netz passen. Denn Diensteanbieter und Netzbetreiber neigen dazu, das funktionierende System nicht anzutasten – nach dem Motto: „Never change a running system.“ Das zeigt sich etwa bei der zögerlichen Einführung von IPv6.

Immerhin zeigen Entwicklungen wie IPv6, IPsec oder Mobile IP, dass Internet-Betreiber und Entwickler bereits selbst an der Lösung vieler der von den G-Lab-Forschern genannten Probleme arbeiten. Auch die überquellenden Routing-Tabellen stehen seit einiger Zeit auf der Agenda der Internet Engineering Task Force (IETF); Router-Hersteller Cisco versucht hier bereits, sein Modell für das Entkoppeln von Locator- und Identifier-Information durchzudrücken. Konzepte für sicheres Routing bereiten die IP-Adressverwalter des Reseaux IP Europeens (RIPE) vor.

Auf Nachfrage räumen die G-Lab-Forscher und die Aspiranten für Clean-Slate-Ideen denn auch ein, dass sie im Wettbewerb zu der Evolution des Netzes stehen. Das neue Internet sei eine Forschungsfrage für die nächsten 10 bis 15 Jahre, meint Feldmann, die ihre Ideen für ein neues Routing schon bei der IETF vorgestellt hat. TCP/IP werde es noch sehr lange geben, sagt Projektleiter Tran-Gia. Die Forscher können auch kaum davon ausgehen, dass neue Konzepte zur Abschaltung des alten Internet führen. Dieses könne man aber, so beschreibt Feldmann es in einem Fachbeitrag, als eines von vielen virtuellen Netzwerken betrachten.

Die Virtualisierung von Netzen ist einer der Ansätze, die viele Forscher für vielversprechend halten. Eine solche Virtualisierung würde etwa erlauben, unterschiedliche Teilnetze auf unterschiedliche Ansprüche hin zu optimieren. Zum Beispiel die Widersprüche zwischen Anonymität und Authentisierung ließen sich durch jeweils auf spezielle Dienste zugeschnittene Teilnetze auflösen, sagt Feldmann.

Andererseits wäre es für manche Dienste sehr hilfreich, wenn es mehr Intelligenz innerhalb des Netzes gäbe, um ihre speziellen Anforderungen zu unterstützen. Diese Idee läuft dem alten Credo des Internet zuwider, dass ein dummes Kernnetz Innovationen an allen Rändern am besten unterstützt. Selbst heilige Kühe wie das End-to-End-Prinzip dürfe man durchaus hinterfragen, meint Tran-Gia. Doch da sind sich die Forscher noch längst nicht einig.

Einen Thronfolger für das heutige Internet kann man zum Start der Phase 2 von G-Lab noch nicht ausmachen. Die Ilmenauer Informatiker verweisen auf ihr neues Konzept für das Forwarding von Daten. Forwarding on Gates (FoG) wolle weg vom Konzept des Internet-Protokolls, das nur Knoten berücksichtigt, und werde auch die Kanten einbeziehen. Im Kern will man damit die Anzahl der Eingriffe beim Netzwerkmanagement drastisch reduzieren, Netzfunktionen abstrahieren und in einzelne Funktionsblöcke separieren, erklärt Volkert. So sollen neue Netzwerkteilnehmer bei der Anmeldung automatisiert die korrekte Route präsentiert bekommen, anstatt selbst eine Standardroute konfigurieren zu müssen: Plug and Play fürs Netzwerkmanagement lautet das Versprechen.

Im G-Lab lässt sich sogar der vollständige Verzicht auf IP über die installierten Generic-Route-Encapsulation-Tunnels (GRE) proben. Auf TCP aber will man nicht verzichten, sagt Volkert. Eine vollständige Revolution hat das ächzende, aber doch voraneilende Internet also noch nicht zu befürchten. Andererseits war auch TCP/IP dereinst nur einer von vielen Testkandidaten für die Netzwerkvernetzung. Damals gab es gut 30 Sandkästen, wie Pioniere der ersten Stunde berichten. So ist es nicht übertrieben, wenn mit G-Lab jetzt zu den Projekten in den USA, Japan und anderen EU-Ländern noch eine deutsche Spielwiese dazukommt. (ad)