Das Internet der Zukunft wird polymorph

Das Anwachsen der Adresstabellen in den Routern, die an den Netzübergängen jetzt teilweise schon mehr als 300.000 Einträge umfassen, ist einer der Gründe, über neue Architekturen und Protokolle für die Kernfunktionen des Internet nachzudenken: Forscher blicken auf einem Workshop zum Next-Generation-Internet in die Kristallkugel.

In Pocket speichern vorlesen Druckansicht 229 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Richard Sietmann

Das Anwachsen der Adresstabellen in den Routern, die an den Netzübergängen jetzt teilweise schon mehr als 300.000 Einträge umfassen, ist einer der Gründe, über neue Architekturen und Protokolle für die Kernfunktionen des Internet nachzudenken. "Bald wird diese Datenbank nicht mehr handhabbar sein", befürchtet der Würzburger Informatiker Phuoc Tran-Gia. Das ausufernde Nachschlagen von Routing-Informationen zur Vermittlung der IP-Pakete werde das Internet zwar nicht schlagartig zum Erliegen bringen, es aber allmählich ausbremsen. "Das ist so etwas wie das Jahr-2000-Problem, ohne das Jahr 2000", scherzte der Chefkoordinator des G-Lab-Projektes gestern auf einem Workshop zur Zukunft des Internet, den die Bitkom Akademie und die deutsche medienakademie in Berlin veranstalteten. "Es kann schon sein, dass die Router schneller gemacht werden, aber irgendwann ist man da auch am Ende."

Der Vorsitzende des 2007 gegründeten Deutschen IPv6 Rats, Christoph Meinel, unterstrich angesichts der Verknappung der IPv4-Adressräume die Notwendigkeit zur Transformation auf IPv6. So habe der US-Kabelnetzbetreiber und Internet Service Provider Comcast mehr als 20 Millionen Kunden, aber nur 16 Millionen IPv4-Adressen und könne seinen Kunden schon jetzt keine festen Adressen mehr geben. Derzeit gebe es weltweit rund 1,7 Millarden Internetnutzer sowie etwa 4 Milliarden Mobilfunkteilnehmer, zusätzlich drängen mit IPTV, der Car-to-Car-Kommunikation und dem Internet der Dinge neue Technologien auf den Markt – "all das schreit nach einer Erweiterung des Adressraumes." Behelfslösungen wie NAT, CIDR und DHCP würden den Umstieg nur hinauszögern und vielen Kommunikationslösungen, die eine direkte Kommunikation der Hosts voraussetzen, im Wege stehen.

"Das ist kein wissenschaftliches Thema", betonte Meinel], im Hauptberuf Professor und Leiter des Hasso-Plattner-Instituts für Softwaresystemtechnik an der Universität Potsdam; "IPv6 ist kein Experimentier-Protokoll." Warum es trotzdem noch der Werbung für den Umstieg bedürfe, begründete er mit dem Henne-Ei-Problem: "Niemand benutzt IPv6, weil niemand IPv6 benutzt". Er verglich die Umstellung mit der Migration von ASCII zu Unicode, die auch einen langen Vorlauf benötigte, bis sich der neue Zeichensatz schließlich durchsetzte.

Peter Feil von den T-Labs der Deutschen Telekom stellte auf der Berliner Veranstaltung die Verschlankung des Netzmanagements als eine wesentliche Anforderung an ein künftiges Internet heraus und drängte auf praktikable Lösungen. Die T-Labs sind unter anderem am G-Lab und den europäischen Future-Internet-Projekten 4WARD und TRILOGY beteiligt. Es gäbe viele Ideen und Ansätze, jetzt richte sich der Fokus verstärkt auf die Frage, "wie bringen wir die tollen Konzepte auch mal auf die Straße".

Die Europäische Kommission hat gerade eine Public-Private Partnership (PPP) von Ausrüstern, Netzbetreibern – darunter der Deutschen Telekom – und öffentlichen Forschungseinrichtungen ins Leben gerufen, die sie zusätzlich zu den rund 200 Millionen Euro jährlich, die sie bereits in laufende Forschungsprojekte zum Future Internet steckt, im Zeitraum von 2011 bis 2013 mit 300 Millionen Euro fördern will. Von den Industriepartnern in der PPP wird ein gleich großer Eigenanteil erwartet. Eine Ausschreibung zu Projektvorschlägen wird im kommenden Jahr erfolgen.

Ein Ansatz zur praktischen Erprobung und Umsetzung neuartiger Konzepte ist die Netzvirtualisierung, bei der ähnlich wie bei der Virtualisierung von Betriebssystemen auf derselben PC-Hardware mehrere Netze parallel auf einer gemeinsamen physischen Infrastruktur koexistieren. "Die Virtualisierung ist für uns das Schlüsselkonzept", erläuterte Feil auf dem Workshop. Aber dazu müssen die Parallelwelten verschiedener Netzarchitekturen auf derselben Hardware gegeneinander abgeschottet sein, und "man braucht eine Instanz, die das Ganze managt". Stefan Fischer, Professor am Institut für Telematik der Universität zu Lübeck und ein Spezialist für Sensornetze, der unter anderem das EU-Projekt WISEBED koordiniert, sieht in den Virtualisierungsplattformen eine große Chance, die Lücke zwischen Simulation und Wirkbetrieb zu schließen. "Simulationsergebnisse", so Fischer, "geben nur noch sehr bedingt Aufschluss über die Einsetzbarkeit eines Algorithmus oder eines Protokolls im Feld".

Die Perspektive des Electronic Commerce brachte der Leiter der Forschung und Entwicklung bei Hubert Burda Media, Marc Mangold, in den Workshop ein. Steuert das Future Internet unter dem Einfluss der neuen Möglichkeiten immer mehr auf ein Bewegtbildmedium zu? "Es wird ein Nutzwertmedium", glaubt Mangold. So werde es immer Zeitschriften geben, "weil es immer diese Nutzungssituation gibt", aber ob solche Nutzung an das Medium Papier gebunden bleibe, sei durchaus offen. Aus der Sicht der Medienhäuser und Werbetreibenden werde das Internet jedenfalls gezielte und genau auf den User zugeschnittene Angebote ermöglichen. "Das sind ganz neue Geschäftsmodelle, die da entstehen", verwies er auf Beispiele wie Like.com oder StyleFeeder, die Kunden aus der Verbindung von Such- und Empfehlungsdiensten beim Online-Einkauf einen Mehrwert bieten.

Das Internet der Zukunft wird vielgestaltiger. "Der Begriff des 'Polymorphic Internet' könnte den Weg weisen", meint Stefan Fischer. Auch Joachim Charzinski, der bei Nokia Siemens Networks über die Netzentwicklung forscht, glaubt, dass es künftig mehrere Internets geben wird. "Ein einziges Internet wird niemals in der Lage sein, die heutigen Freiheiten mit völliger Sicherheit zu verbinden." Am anderen Ende des Spektrums stünden viele spezifische Netze für jeweils einzelne Kommunikationsdienste. Doch das wäre wegen der Komplexität nicht beherrschbar -- die Zahl der Internets, die sich angesichts der unterschiedlichen Erwartungen und Anforderungen herauskristallisieren könnten, schätzt er eher auf "in der Größenordnung zehn". (jk)