In den Startlöchern

Die Devise „Never change a running system“ gilt für große Kommunikationsnetze ganz besonders. Doch die Diskussion über die Zukunft des Internet ist längst in vollem Gange. Und die Wünsche an das Netz der Netze sind kaum noch überschaubar.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Lesezeit: 29 Min.
Von
  • Richard Sietmann
Inhaltsverzeichnis

Die Zukunft des Internet oder das Next Generation Internet, das war lange Zeit IPv6. Die Umstellung des Adressschemas soll mit der Vergrößerung der IP-Paketadressen von 32 auf 128 Bit im Prinzip die eindeutige Adressierung von rund 3,4 x 1038 unterschiedlichen Hosts erlauben und würde damit jedem vernetzbaren Objekt eine fest zugewiesene Adresse ermöglichen. Doch IPv6, das war im letzten Jahrhundert – die „Recommendation for the IP Next Generation Protocol“ (RFC 1752 vom Januar 1995) liegt bereits eineinhalb Jahrzehnte zurück. Längst zeichnet sich ab, dass die Verknappung des IPv4-Adressraums nur ein kleines Teilproblem der überfälligen Runderneuerung des Internet darstellt.

Dessen Architektur stammt aus einer Zeit, in der staatliche Telefongesellschaften die Politik bestimmten, die Datenraten der aufkommenden digitalen Übertragung sich gerade mal bei 50 kBit/s bewegten, Lichtwellenleiter ein Laborwunder darstellten und weder PCs noch gar das World Wide Web am Horizont aufgetaucht waren. Bis zum Beginn der neunziger Jahre folgte die Evolution des Internet dann den Bedürfnissen der Forschung; die Protokolle entstanden aus den praktischen Erfordernissen der Vernetzung von Mainframes und dann Workstations. Was funktionierte, setzte sich durch. Das Motto „We reject: Kings, Presidents and Voting. We believe in: rough Consensus and running Code“ reichte als Verfassung des Cyberspace aus.

So gingen die Architekten des Internet in einem „end to end“-Ansatz (e2e) von Computern als intelligenten Endgeräten aus; die Zusammenschaltung und das Management des Netzes erfolgten kooperativ in gegenseitigem Vertrauen. Über Spam mussten sie sich seinerzeit noch keine Gedanken machen. Das Internet-Protokoll (IP) sollte „sicher“ sein gegenüber Ausfällen von Hosts und Leitungsunterbrechungen; auf Sicherheit gegenüber Angriffen aus dem Netz selbst heraus war es nicht angelegt. Es unterstützt keine Echtzeit-Dienste und bietet mit seiner „Best Effort“-Philosophie keine garantierte Dienstequalität (Quality of Service, QoS).

Aber die Endgeräte sind vielseitiger und vor allem mobiler geworden. Werbung, Gadgets und Unterhaltung haben die textbasierte Information an den Rand gedrängt. Konsumenten wollen Sicherheit für ihre Anwendungen, Verfügbarkeit und hohe Qualität bei der Audio- und Video-Interaktion; für die Technik interessiert sich nur noch eine Minderheit. Im Netzalltag ist die vertrauensvolle Kooperation dem kommerziellen Wettbewerb und der staatlichen Überwachung gewichen.

Einige der Wünsche an das Future Internet, wie „Sicherheit“, „Schutz der Privatsphäre“ oder „Vertrauenswürdigkeit“, ergeben sich unmittelbar als Spiegelbild der heutigen Defizite.
Mehr Infos

Defizite des Internet

„Uns auf das Internet zu verlassen macht uns zu Opfern seines Erfolgs und anfällig für seine Unzulänglichkeiten. Einige Defizite sind offensichtlich, wie etwa die Plage der Sicherheitseinbrüche, die Verbreitung von Würmern und Denial-of-Service-Angriffen. Selbst ohne solche Angriffe stehen Dienste aufgrund von Komponentenausfällen oder fragilen Routing-Protokollen oft nicht zur Verfügung und sein unkalkulierbares Verhalten macht das Internet für zeitkritische Anwendungen ungeeignet.

Andere Defizite sind weniger deutlich: Das Internet wurde für Computer an festen Orten konzipiert und eignet sich schlecht zur Unterstützung mobiler Endgeräte; es vermittelt Pakete und erschwert es daher, Vorteile aus den Entwicklungen in der optischen Vermittlungstechnik zu ziehen; es sichert weder Anonymität noch erleichtert es die Verantwortlichkeit; und das Ableben oder die Umstrukturierungen der meisten Netzbetreiber sind ein Anzeichen dafür, dass die Bereitstellung von Netzdiensten nicht profitabel ist.

Insgesamt glauben wir nicht, dass wir uns weiterhin auf ein Netz verlassen können oder sollten, das oft defekt, häufig unterbrochen, unvorhersehbar in seinem Verhalten, durchsetzt von (und ungeschützt vor) böswilligen Nutzern und wahrscheinlich wirtschaftlich nicht nachhaltig ist.“ Aus dem Clean-Slate-Stanford-Arbeitsprogramm: http://cleanslate.stanford.edu .

Erstaunlich nur, dass die ursprünglichen Design-Elemente so lange trugen. Sie waren jedenfalls tragfähig genug, dass die Internet Engineering Task Force (IETF) auftretende Probleme in unzähligen Einzelprojekten teils sehr erfolgreich angehen konnte. So überwanden CIDR, NAT und DHCP die Mängel der Adressvergabe; IntServ, DiffServ und MPLS sollten mehr Übertragungsqualität ins Netz bringen. Echtzeitprotokolle (wie RTP, RTCP), Ressourcenreservierung (RSVP) und Signalisierungsprotokolle wie SIP erlauben inzwischen – sofern genügend Bandbreite zur Verfügung steht – die Übertragung von Audio- und Videostreams sowie die Telefonie über das Internet.

IPsec führte durch die kryptografische Verschlüsselung jedes einzelnen IP-Paketes einschließlich der wesentlichen Teile des Headers die sichere Übertragung auf Links und in Virtual Private Networks (VPNs) ein; entsprechend soll derzeit die Einführung der Domain Name System Security Extensions (DNSsec) Schutz vor dem „DNS Spoofing“ bieten und sicherstellen, dass die Umsetzung eines Domain Names wirklich auf die zugehörige numerische IP-Adresse erfolgt, sodass Angreifer dem Mechanismus der Namensauflösung keine Fake-Adressen unterjubeln können.

Alles hängt mit allem zusammen: Das Future Internet wird von gesellschaftlichen und wirtschaftlichen Faktoren bestimmt und steht unter dem Druck milliardenschwerer Industrien, die um die Pole-Position ringen.

Man kann die unzähligen Protokollerweiterungen und Patches als Erfolgsgeschichte lesen, nur ist die Wunschliste der Entwickler dadurch nicht kürzer geworden. Ein neues Internet soll robust, fehlertolerant und so verfügbar, zuverlässig und kalkulierbar wie das Telefonnetz sein, heißt es in einem Arbeitsprogramm von Forschern der Stanford University. Die nahtlose Unterstützung mobiler Endgeräte, Ad-hoc- und Sensornetze stehen ebenso auf der Liste wie inhärente Sicherheit, die auch Schutz vor Denial-of-Service-Attacken bietet. Das Future Internet soll natürlich wirtschaftlich für die Betreiber sein, evolutionsfähig bleiben, und es wird den Teilnehmern Anonymität bieten, wo dies sinnvoll ist, und die Kommunikation zurechenbar machen, wo dies geboten ist.

Doch mit immer neuen, rückwärtskompatiblen Protokollen und Ergänzungen werden sich diese Ziele nicht erreichen lassen. Schon heute bietet das Internet den Anblick einer vielfach geflickten Laube, deren Statik durch die unzähligen Patches und Anbauten so aus den Fugen geraten ist, dass auch die nächste Erweiterung daraus keine tragfähige Architektur mehr herstellen kann. Von einer „architektonischen Verknöcherung“ spricht Mark Handley, Professor für vernetzte Systeme am University College London und einer der führenden Köpfe in der IETF. „Seit 1993 haben sich die Kernprotokolle, die die Grundlage des Internet bilden, nicht wesentlich geändert“, begründet er die Diagnose. „Über die Zeit haben sich beträchtliche Probleme aufgestaut, aber noch nie waren Änderungen am Internet so schwierig, um diese zu lösen.”

Wie eine Katze, die sich in einem Baum von Ast zu Ast verstiegen hat und ohne externe Hilfe nicht mehr herunterkommt, droht auch die inkrementelle Evolution des Internet in eine Sackgasse zu führen. Der User kennt Ähnliches von seinem PC: Ab einem gewissen Punkt sind die Updates seiner Anwendungen nicht mehr kompatibel und dann ist der Umstieg auf ein neues Betriebssystem angesagt. „Mit immer einem weiteren Patch für das nächste auftauchende Problem“, meint der Informatiker Larry Peterson von der Princeton University, „landet man nur bei einem zunehmend komplexeren und brüchigen System“. Der Direktor des PlanetLab-Consortiums in den USA und einer der führenden Köpfe in Sachen „Global Environment for Network Innovations“ (GENI) trommelt seit langem für einen „Clean-Slate-Approach“, die Rückkehr ans Reißbrett gewissermaßen.

Die Idee eines revolutionären Neubeginns gewinnt immer mehr Anhänger. Zu ihnen gehören etliche Entwickler der ersten Stunde wie Van Jacobson vom Palo Alto Research Center (PARC), der durch seine Revision des nach ihm benannten Algorithmus zur TCP/IP-Flusskontrolle das Internet Ende der achtziger Jahre vor dem Stau-Kollaps bewahrte.

Jacobson kritisiert insbesondere, dass die heutige IP-basierte Netzwerkschicht implizit auf einer Reihe überholter Grundannahmen beruhe: Etwa, dass Bandbreite knapp sowie Speicherkapazität und Prozessorleistung teuer seien, weshalb die Netzoptimierung von einer höchstens kurzzeitigen Speicherung der Pakete ausgehen müsse. Zudem setze es stets eine existierende Verbindung zwischen dem Switch und dem Zielpunkt voraus, sobald ein Paket gesendet werden soll, und „hält keinen Mechanismus zum Umgang mit Unterbrechungen oder partieller Konnektivität bereit“. Das Resultat ist eine Architektur, die quer zu der Art steht, wie das Internet heute weit überwiegend genutzt wird – für Downloads und zunehmend mobil, aber ohne permanente Erreichbarkeit.

Jacobson propagiert deshalb ein fundamental anderes Internet, das er „Content Centric Network“ (CCN) nennt und das eher einem verteilten Archivserver als einem Kommunikationsnetz gleicht. „Focus on Information, not Topology“, lautet die Devise: Die Netztopologie soll sich von den Leitungen und Knoten lösen und an den Inhalten und Informationsobjekten orientieren. Wo bisher der Zugriff auf Daten nur indirekt über die Host-Adresse erfolgt, auf dem die Daten liegen, würden in einem CCN Daten, Objekte oder Anwendungen selbst mit einer Adresse versehen und auf diese Weise unmittelbar adressierbar (siehe Kasten „Objektorientiertes Routing“).

„Nicht als Veränderung um der Veränderung willen, sondern als Chance, mit frischem Geist die Dinge anzupacken“, macht sich auch der frühere Vorsitzende des Internet Architecture Board, David Clark vom MIT Computer Science and Artificial Intelligence Laboratory, für eine völlig neue Architektur stark: Das künftige Internet soll Menschen und Computer in der Kommunikation authentisieren und vor Spam und Angriffen schützen; verbesserte Protokolle zum Peering zwischen Internet Service Providern sollten trotz des Wettbewerbs untereinander die Kooperation bei fortgeschrittenen Diensten voranbringen; im Future Internet würde die Zuweisung von IP-Adressen an kleine und mobile Endsysteme wie Handys, Sensoren oder Controllern deren sichere Vernetzung ermöglichen; und schließlich sollte jedes Netzelement die Fähigkeit besitzen, auftretende Probleme wie technische Ausfälle, Engpässe oder Viren zu detektieren und zu verarbeiten.

Mit ihren Anstößen haben die alten Herren erst in den USA, jetzt mit einiger Verzögerung auch in Europa eine Lawine in Gang gesetzt. Ob das Border Gateway Protocol (BGP) zum Interdomain-Routing an der kritischen Schnittstelle der Netzzusammenschaltung unter den Providern, die Mechanismen zur Stauvermeidung in der TCP-Transportschicht, das End-to-End-Prinzip oder sogar das Referenzmodell der modular aufgebauten Protokollschichten, das deren eigenständige Weiterentwicklung sichern soll, – mittlerweile gibt es praktisch nichts, was nicht auf dem Prüfstand stünde. Die Spannbreite der „Future Internet“-Projekte ist kaum noch überschaubar.

Seit Neuestem wirbt sogar eine eigene (Open Access) Fachzeitschrift „Future Internet“ um wissenschaftliche Beiträge [1] . Die EU-Generaldirektion für Informationsgesellschaft und Medien hat im siebenten Forschungsrahmenprogramm bisher 94 Projekte auf den Weg gebracht, die sich unterschiedlichen Aspekten des künftigen Internet widmen – mit einem Forschungs- und Entwicklungs-(FuE-)Volumen von insgesamt mehr als 400 Millionen Euro sind daran über 500 Unternehmen und Forschungseinrichtungen beteiligt. Damit die Arbeiten nicht auseinanderlaufen, wurde im vergangenen Jahr sogar eigens eine „Future Internet Assembly“ (FIA) geschaffen, die jetzt mit halbjährlichen Konferenzen für den inhaltlichen Zusammenhalt der Einzelprojekte sorgen soll.

Manche Vorhaben entpuppen sich bei näherer Betrachtung als alter Wein in neuen Schläuchen. „Future Internet“ bedeutet halt vielen vieles. Je nach Perspektive und Interessenlage verstehen darunter einige das Web 3.0, andere das Cloud-Computing und wieder andere das „Internet der Dinge“.

Doch bei den Arbeiten am Kern geht es um die Funktionen der Netzwerk- und Transportschicht TCP/IP. Und die befindet sich „in einer Art Midlife-Crisis“, wie Michael Scharf von den Alcatel-Lucent Bell Labs Deutschland betont. „Es passiert einfach eine ganze Menge auf der Physical und Link Layer, und mindestens genauso stark wachsen die Herausforderungen auf der Ebene der Anwendungen.” Tatsächlich ist das Internetprotokoll oft mit einer Sanduhr verglichen worden, deren schmaler Hals die Kommunikationsanwendungen mit den darunterliegenden physikalischen Netzen verknüpft.

„Alles über IP, IP über allem“ – so lässt sich die Funktion der Netz- und Transportschicht als Middleware zwischen Kommu- nikationsanwendungen und den Übertragungstechniken beschreiben.

„Any application over any net“ – diese programmatische Losung aus den Anfangsjahren beschreibt die Funktion als Network-Middleware, die den Anwendungen eine einheitliche Schnittstelle zu den unterschiedlichsten Netzen zur Verfügung stellt. Oberhalb unterstützt sie beispielsweise E-Mail, WWW, VoIP oder P2P-Protokolle, die dadurch wiederum eine gewaltige Spannbreite von Übertragungstechniken nutzen können, die sich von SDH-Links, ATM und Ethernet über WLANs und Mobilfunk bis zu Kabel-TV-, DSL- und Satellitenverbindungen erstreckt. Dank dieser Vermittlungsschicht spielen die Details der Implementierung von IP über der jeweiligen Link Layer dann für die Interoperabilität von Anwendungen wie E-Mail keine Rolle mehr.

Nur erweist sich diese Middleware zunehmend als Flaschenhals. Die beiden Trichter der Sanduhr haben sich enorm verbreitert: Oben sind die Anwendungen vielfältiger und anspruchsvoller, unten sind die Übertragungstechniken zahlreicher und vor allem schneller geworden, aber die Transport- und Netzwerkschicht TCP/IP ist immer noch dieselbe wie zu der Zeit, als die Teilnehmer mit 14,4-kBit/s-Modems ins Festnetz gingen und 155 MBit/s im Backbone der Standard war. So kann IP viele der Möglichkeiten, die die darunterliegenden Netze inzwischen bieten, nicht nutzen. Es stellt Pakete wie eh und je mit „best effort“ zu, so gut es eben geht. Das Internet macht keine Versprechungen über die Güte der Kommunikation. Es arbeitet effizient, aber nicht unbedingt zuverlässig. „Es ist gut genug für ein breites Spektrum von Anwendungen“, zieht Handley Bilanz [5] , „aber wenn jemand Telechirurgie oder die Fernsteuerung eines Kernkraftwerks in Betracht zieht, ist er gut beraten, sich nach etwas anderem umzusehen.“

Dabei hat es an Ansätzen zur Verbesserung der Dienstgüte nicht gefehlt. Bereits 1994 standardisierte die IETF in RFC 1633 mit IntServ ein End-to-End-Verfahren, das in Verbindung mit RSVP (RFC 2205) den Aufbau eines Pfades bestimmter Bandbreite von der Quelle bis zum Ziel definiert, sofern alle beteiligten Knoten die Ressourcenreservierung unterstützen – woran es in der Praxis denn auch haperte. DiffServ (RFC 2475) von 1998 hingegen ist ein „Hop by Hop“-Verfahren zur Priorisierung bestimmter Verkehrsarten durch die Router und benutzt zur Kennzeichnung die ersten sechs Bit des TOS-Bytes im IPv4-Paketkopf. Beide sind nicht sehr weit verbreitet.

Innerhalb ihrer eigenen Netze setzen die großen Carrier vor allem auf das Multiprotocol Label Switching (MPLS) gemäß RFC 3031 von 2001. Es versieht am Eingangsknoten die Pakete mit einem zusätzlichen Header (Label), der am Ausgang wieder entfernt wird, und der im eigenen Netz zur Beschleunigung des Routing über konfigurierbare Pfade unabhängig von den IP-Routingtabellen dient, aber auch zur Priorisierung von Verkehrsarten verwendet werden kann. Im Unterschied zum IP-Routing ist im MPLS-Netz ein fester Transportweg für die Datenpakete vorgegeben. In der Protokollhierarchie wird das Verfahren daher auf „Ebene 2,5“ zwischen der Link- und Netzwerkschicht angesiedelt.

Bei genügend großer Bandbreite würde sich die Qualität auch im Best-Effort-Netz einstellen, ist oft zu hören. Das ist in den Backbones, wo die optischen Übertragungstechniken für kaum ausgelastete Reserven gesorgt haben, vielfach auch der Fall. „Es gibt billige Bandbreite, und alles andere ist teuer und komplex“, beschreibt Peter Kaufmann vom für den Betrieb des deutschen Wissenschaftsnetzes zuständigen DFN-Verein die Lage.

Aber Engpässe treten neben den Peering-Punkten vor allem in den Endkundenbereichen der Internet Service Provider auf, und dort ist das „Over-Provisioning“ kein Geschäftsmodell. Für Provider ist es unrentabel, die Kapazitäten auf unvorhersehbare Lastspitzen hin auszulegen, zudem beklagen sie das Fehlen wirtschaftlicher Anreize. „Der Anstieg der Nachfrage aufgrund populärer Anwendungen wie File Sharing und Video Streaming“, stellt James Roberts von den Orange Labs der France Telecom die Situation der Betreiber dar, „erfordert zusätzliche Investitionen in die Infrastruktur, bringt aber kaum zusätzliche Erlöse“.

Die Provider sehen sich in einer „Flatrate-Falle“, die sie daran hindert, bei steigender Nutzung höhere Einnahmen zu erzielen und damit den Netzausbau zu refinanzieren. Deshalb richten sie ihre Bestrebungen derzeit darauf, die Werkzeuge zur Stauvermeidung dichter an der Quelle anzusetzen, wo die Staus verursacht werden: An den Edge Routern der Peering Points und vor allem in den Netzzugängen, wo sich mehrere Teilnehmer die Bandbreite eines Kabelstrangs oder eines DSL-Anschlussmultiplexers teilen müssen. Oft sitzen mehrere hundert Teilnehmer an einem Port eines Cable Modem Termination Systems, das den Übergang vom Kabelnetz zum Internet bildet; DSL-Anbieter wiederum gehen von der Annahme aus, dass in der Regel nicht alle Teilnehmer gleichzeitig online aktiv sind und „überbuchen“ die Anschlussbandbreite oft um mehr als das Zehnfache. In Spitzenzeiten kommt es dann zu Engpässen. Wobei dann Programme, die mehrere TCP-Verbindungen gleichzeitig aufmachen, wie das beim P2P-Filesharing regelmäßig der Fall ist, im Vorteil sind – im Fall von Staus wird jeder Flow von den Routern gleich behandelt.

Weil sie durch die „heavy user“, die die verfügbare Bandbreite unverhältnismäßig stark zu Lasten anderer Teilnehmer in Anspruch nehmen, ihr Geschäftsmodell bedroht sehen, setzen viele Provider daher Techniken des „Traffic Shaping“ ein, die allen Nutzern einen „fairen Anteil“ an der geteilten Übertragungskapazität sichern sollen – sei es, dass sie das monatliche Transfervolumen pauschal begrenzen, oder indem sie durch „Deep Packet Inspection“ (DPI) die Zahl der von einem User gleichzeitig geöffneten TCP-Ports ermitteln und beschränken (siehe Kasten „Verkehrssteuerung“).

Ob die Verkehrsformung der Verbesserung der Dienstgüte und der Verteilungsgerechtigkeit dient oder eher die Nutzer zwecks Durchsetzung bestimmter Marktstrategien gängelt, ist umstritten. Die Grenzen sind fließend – DPI ist auch ein vielseitiges Instrument, um etwa VoIP aus dem eigenen Netz fernzuhalten oder den Verkehr aus konkurrierenden Netzen oder Anwendungen zu behindern.

Wie schwierig die Abgrenzung zwischen einem sinnvollen Netzmanagement und diskriminierenden Praktiken ist, zeigt aktuell der Entwurf zu einem „Internet Freedom Preservation Act“, den der Abgeordnete Ed Markey zur Netzneutralität im US-Repräsentantenhaus einbrachte. Markey will darin unter anderem das Recht der Konsumenten auf diskriminierungsfreien „Zugang zu rechtmäßigen Inhalten, zum Betrieb rechtmäßiger Anwendungen und zur Nutzung rechtmäßiger Dienste ihrer Wahl über das Internet“ sowie zum „Anschluss rechtmäßiger Geräte“ gesetzlich festschreiben.

An anderer Stelle des Entwurfes heißt es dann aber, diese Vorgaben dürften ein „reasonable network management“ nicht behindern, und „reasonable“ sei ein Netzmanagement, „wenn es einem Interesse von wesentlicher Bedeutung dient, eng darauf beschränkt bleibt, und in der Verfolgung dieses Interesses dasjenige Mittel darstellt, das mit den geringsten Eingriffen, Diskriminierungen und Einschränkungen der freien Konsumwahl verbunden ist“.

Hinter dem Streit um Quality of Service und Netzneutralität verbirgt sich eine Auseinandersetzung um die künftige Ausrichtung der Internet-Architektur. Die Forderung nach Gleichbehandlung aller Hosts, Anwendungen und Protokolle knüpft an die e2e-Tradition an, wonach das Internet selbst „dumm“ sein kann, weil die „Intelligenz“ in den Endgeräten steckt. Die differenzierenden Netzfunktionen sollen in den Computern am Rande angesiedelt sein, statt „in der Mitte“, in den Netzknoten, weil sie dort nur der Implementierung neuer Dienste und Funktionen im Wege stehen und aus dem universellen ein anwendungsspezifisches Netz machen würden. Die e2e-Architektur folgt demnach einer Art Subsidiaritätsprinzip, wonach das Netz keine Aufgaben übernehmen soll, die von den Endgeräten wahrgenommen werden können.

Dieses Design-Prinzip wurde von den Internetarchitekten David Clark, David Reed und Jerry Saltzer 1984 formuliert [2] und 1997 von David Isenberg, damals Forscher bei den AT&T Labs, in dem berühmten Aufsatz „The Rise of the Stupid Network“ popularisiert [3] : Das Netz soll transparent sein; es beobachtet, filtert und transformiert die Daten nicht, die es trägt, sondern ist blind gegenüber dem Inhalt der Pakete. Genau diese Transparenz hat es ermöglicht, neue Anwendungen zu lancieren, ohne dazu in den Kern des Netzes eingreifen zu müssen. Die Fülle der Anwendungen, an die beim Entstehen des Internet überhaupt nicht zu denken war, allen voran das WWW, sind eine Folge der niedrigen Einstiegshürden sowie der Netzwerkeffekte für Anwendungsentwickler. Dies spricht eigentlich dafür, das e2e-Prinzip als Plattform für Innovationen beizubehalten.

Doch starke gesellschaftliche und wirtschaftliche Kräfte stehen dem entgegen. Die Provider brauchen zusätzliche Funktionen im Netz, weil sie sich nicht auf die Rolle als simple Bit-Spediteure und Versorgungsunternehmen beschränken lassen wollen; ihr Bestreben ist darauf gerichtet, sich durch marktwirksame Angebote von Wettbewerbern abzuheben und die Kundschaft nach Zahlungsbereitschaft zu differenzieren. Und als ob das Pendel nun zurückschwänge, sehen auch viele Forscher in dem um sich greifenden Einbau neuer Funktionen ins Netz die notwendige Antwort auf dessen Defizite: Waren Firewalls und Spam-Filter schon Reaktionen auf fehlende Sicherheitsfunktionen im Netz, so sind Traffic Shaping und Deep Packet Inspection nun die zwangsläufige Ergänzung einer dummen Paketvermittlung mit Instrumenten des Netzmanagements.

Das Ringen um die Dienstgüte zeigt aber auch die technischen Grenzen des e2e-Ansatzes auf: Es gibt beispielsweise keine Möglichkeit, die Laufzeitverzögerungen und -schwankungen der Übertragungsstrecken in den Endgeräten zu kompensieren – werden die Antwortzeiten in einem überlasteten Best-Effort-Netz zu groß, gehen der Internettelefonie oder interaktiven Online-Spielen die Luft aus. Anforderungen wie niedrige Latenz, geringer Jitter, Verfügbarkeit und garantierte Mindest-Bandbreite lassen sich nur im Netz, nicht in den Endgeräten verwirklichen. „Generell sind Konzepte mit aktiver Beteiligung der Router“ konzediert IETF-Veteran Mark Handley, „leistungsfähiger als Konzepte, bei denen nur die Endsysteme beteiligt sind“.

„Es ist an der Zeit, mit netzbasierten Diensten neue Anwendungen zu unterstützen“, meint Anja Feldmann, Professorin bei den T-Labs an der TU Berlin, die mit ihrer Forschungsgruppe Intelligente Netze (INET) unter anderem am 4WARD-Projekt der EU beteiligt ist. Sie plädiert dafür, „die Internetarchitektur zu überdenken, um die inhärente Unterstützung von Sicherheit, Mobilität, Dienstgütegarantien, Netzmanagement et cetera zu ermöglichen“. So steht eine Renaissance bevor, die Wiederkehr des intelligenten Netzes (IN).

Auch das alte Telefonnetz war einst ein „dummes“ Netz gewesen, bevor die Digitalisierung neue Freiheitsgrade eröffnete; seine Funktion erschöpfte sich darin, mit einer Inband-Signalisierung Leitungsverbindungen von A nach B durchzuschalten. Als dann an die elektronischen Vermittlungseinrichtungen geflanschte Rechner zusätzliche Steuerungs-, Management- und Servicefeatures boten, entstand Anfang der neunziger Jahre mit dem Q.1200-Standard in der ITU-T die IN-Architektur als konfigurierbares Overlay-Netz. Seither schalten sich sogenannte Service Control Points in den Anrufaufbau ein und instruieren nach programmierten „Regieanweisungen“ zur Gebührenerfassung, Rufumleitung und so weiter die Vermittlungsstellen, wie sie mit dem Anruf verfahren sollen.

Das Remake zu mehr „Intelligenz“ im Future Internet dürfte wesentlich komplexer werden. Schon an der Rolle der künftigen Sicherheitsfunktionen scheiden sich die Geister. Regierungen verstehen etwas anderes unter „Sicherheit“ als User oder Unternehmen im E-Commerce. Die Vorstellungen gehen deshalb in eine Richtung, die David Clark einmal als „vertrauensmodulierte Transparenz“ bezeichnet hat. Gemeint ist eine stärker auf die speziellen Bedürfnisse einzelner Nutzergruppen zugeschnittene Differenzierung der Vertrauenswürdigkeit von Netzwerkdiensten – beispielsweise „transparent für Nutzer, die sich entschieden haben, einander zu vertrauen, jedoch stark eingeschränkt für alle anderen“.

Mit einer transparenten e2e-Architektur würden nur noch ausgewiesene Vertrauenszirkel arbeiten können; alle anderen müssten mit eingeschränkten Netzfunktionen Vorlieb nehmen. „Die Frage ist letztlich, wo man hin will“, meint Michael Scharf von den Alcatel-Lucent Bell Labs Deutschland. „Es ist eine offene Frage, ob das Internet ein offenes e2e-Netz mit all den Sicherheitsproblemen bleibt, oder ob es stattdessen zu einer Untergliederung in vertrauenswürdige Domains mit einer gegebenenfalls eingeschränkten Zusammenschaltung kommen wird.”

Die Empfehlung des technischen Abschlussberichts zu Clarks „New Arch“-Projekt an die Defence Advanced Research Projects Agency (DARPA) lautet jedenfalls, die vertrauensmodulierte Transparenz „sollte der grundlegende Dienst sein, den ein neues Internet bereitstellt“. Der Forschungsarm des US-Verteidigungsministeriums ist sich des Zielkonflikts jedoch bewusst, in dem die Wünsche nach Sicherheit und Innovationsfähigkeit stehen. „Es kann durchaus sein, dass aufgabenspezifische sichere Netzwerke keine geeignete Bühne zum Experimentieren und für Innovationen sind“, heißt es inzwischen in einer Konzeptausschreibung der DARPA zu einem Assurable Global Network als Nachfolger für das IP-basierte Global Information Grid (GIG); „es bleibt abzuwarten, wie eine Netzarchitektur beides, Innovation und Sicherheit, unterstützen kann“.

Vielleicht bietet die Netzvirtualisierung einen Ausweg aus der Kalamität des Entweder/Oder. Ähnlich wie Virtual Machines es ermöglichen, mit alternativen Betriebssystemen parallel auf demselben Rechner zu arbeiten, wird hierbei die Netzhardware aus Knoten und Leitungen virtualisiert und ein Teil der Kapazität dieser Netzelemente quasi abgeteilt und so abgeschottet, dass sich auf derselben physikalischen Infrastruktur weitere völlig neue Netze mit anderen Übertragungsprotokollen und Routing-Mechanismen errichten lassen. Der schmale Hals der TCP/IP-Sanduhr würde damit nicht aufgebohrt, sondern die Netzvirtualisierung führt quasi eine Sanduhr mit mehreren Bypass-Verbindungen vom oberen zum unteren Trichter ein. Anstelle der einheitlichen Middleware gäbe es dann mehrere parallele Internets.

Die Netzvirtualisierung teilt die Hardware-Ressourcen des Netzes – Knoten und Leitungen – in abgeschottete Bereiche, in denen jeweils ein völlig neues Netz mit anderer Topologie, anderen Übertragungsprotokollen und eigenen Routing-Mechanismen eingerichtet werden kann.

Der Ansatz verspricht eine kontinuierlich ausbau- und entwicklungsfähige Netzinfrastruktur. Altlasten würden Innovationen nicht mehr blockieren, alternative Netzwerkschichten könnten auf einem sanften Migrationspfad eingeführt werden. Ein Content-Centric Network etwa ließe sich zunächst in einem Testbed erproben, bis es so weit gereift ist, dass es sich als Parallelwelt der „Abstimmung mit den Füßen“ auf dem Markt stellen kann. Verführerisch daran ist vor allem, dass sich die Akteure vor einer Implementierung nicht erst durch die Mühlen der Standardisierung quälen müssten. Sie könnten neue Architekturen, Protokolle und Dienste von der Erprobung auf der virtuellen Plattform direkt in den Markt überführen, „ohne den langsamen und schwierigen Prozess einer solchen Konsensbildung durchlaufen zu müssen“, wie ein Arbeitspapier des 4WARD-Projektes hervorhebt.

Ob GENI oder PlanetLab in den USA, FIRE und PanLab in Europa oder G-Lab in Deutschland, überall wird daher an Testbeds zur Virtualisierung gearbeitet. Mit ihnen stellt sich die lange Zeit heiß umstrittene Alternative – „inkrementell“ oder „clean-slate“ – nicht mehr in dieser Schärfe. Ohne Virtualisierung erscheint die Einführung einer völlig neuen TCP/IP-Netzwerkschicht ohnehin undenkbar.

Die Zielvorstellung eines einheitlichen Internet haben jedenfalls viele bereits aufgegeben. So etwa die Arbeitsgruppe zu „New Architecture Principles and Concepts“ (NewAPC) im 4WARD-Projekt der EU, die nach eigener Darstellung Ansätze zur pluralistischen Vielfalt von Netzarchitekturen erforscht. Nach dem Motto „Das beste Netz für jede Aufgabe, jedes Gerät, jeden Kunden und jede Technologie“ ist eine Rahmenarchitektur für „eine blühende Familie interoperabler Netze“ das Ziel. Diese Netze „werden koexistieren und einander ergänzen, indem sich jedes auf einzelne Anforderungen wie Mobilität, QoS, Sicherheit, Robustheit, Funkübertragung oder Energieeinsparung fokussiert“.

Das Logo mit der Dreifaltigkeit aus Routing, Staumanagement und Wirtschaftlichkeit spiegelt die Kernthemen des Trilogy-Projektes wider. In diesem konzentrieren sich unter Federführung von British Telecom die Arbeiten nach eigener Darstellung „auf einen radikalen Ansatz zur Entwicklung eines Future Internet für die nächsten 20 Jahre und darüber hinaus“.

Was auf den ersten Blick wie eine Plattform für gesunden Wettbewerb aussieht, könnte sich indes schnell ins Gegenteil verkehren, wenn innovative Grabenkämpfe „viele technisch inkompatible Internets hervorbringen“ und wechselseitige technische Blockaden ähnlich denen um die DVD-Standards die positiven Netzwerk-Effekte eines einheitlichen Netzes zunichte machen (siehe Kasten „Entwurfsziel Gerangel“).

Auf diese Kehrseite hat jetzt eine Forschergruppe in FISE, einem anderen EU-Projekt hingewiesen. „Gesellschaftliche und wirtschaftliche Kräfte könnten die Future-Internet-Forschung in einen Wettkampf konkurrierender Future Internets stoßen“, warnt das 14-köpfige Team um David Hausheer von der Universität Zürich und Wolfgang Kleinwächter von der Universität Aarhus in einer Betrachtung der sozio-ökonomischen Randbedingungen [4] . Nicht nur Ausrüster und Hersteller liefen Gefahr, entweder auf das falsche Pferd zu setzen oder viel Geld zu versenken, wenn sie in zu viele Technologien gleichzeitig investieren müssten, auch für Netzbetreiber und Diensteanbieter würde diese Art von Wettbewerb letztlich zu einer Wette auf das „richtige“ Internet. „Dieses Szenario würde Innovation und Wachstum in der Industrie behindern, die wirtschaftlichen Chancen beschränken, und die Endnutzer verwirren.”

Als Ausweg schlägt die Gruppe einen Wettbewerb der Konzepte vor, die einer strengen wissenschaftlichen Begutachtung zur Aussonderung ungeeigneter Entwürfe unterzogen werden sollten. Aus der internationalen Kooperation bei der Implementierung und der Zusammenschaltung der verschiedenen Test-Plattformen könnte so das globale Future Internet hervorgehen. Ob dies mehr als ein frommer Wunsch ist, oder ob dominierende Marktkräfte die Arbeiten zum künftigen Internet doch wieder in die Vergangenheit dienstespezifischer Einzelnetze zurückführen, wird die Zukunft zeigen.

[1] Future Internet Magazin: www.mdpi.com/journal/futureinternet/index

[2] Saltzer et al., End-to-End Arguments in Systems Design, ACM Transactions Computer Sys. 2, 1984, S. 277

[3] Aufsatz über das „dumme Netz“: www.isen.com/stupid.html

[4] G. Tseletis (Hrsg.), Towards the Future Internet. A European Research Perspective, IOS Press, 2009: www.booksonline.iospress.nl/Content/Viewaspx?piid=12006

[5] Mark Handley, Why the Internet only just works, BT Tech. J. 24, 2006, S. 119–129

[6] Jonathan Zittrain, The Future of the Internet – and how to stop it, Yale University Press, 2008

[7] European Research Consortium for Informatics and Mathematics, Future Internet Technology, ERCIM News Nr. 77, April 2009

[8] EIFFEL Report, Starting the Discussion (Final Version 13.7.2009): www.fp7-eiffel.eu

[9] Anja Feldmann, The Internet Architecture – Is a Redesign Needed? Erscheint demnächst in Klumpp, Kubicek, Roßnagel, Schulz (Eds.): Jahrbuch Netzwelt. Wege, Werte, Wandel.

[10] Jacobson, V. at al, Content-Centric Networking. PARC Whitepaper: http://mmlab.snu.ac.kr/courses/2007_advanced_internet/papers/20071010_1.pdf

[11] Vortrag „A New Way to Look at Networking“: http://video.google.com/videoplay?docid=6972678839686672840

[12] Christian Dannewitz, NetInf: An Information-Centric Design for the Future Internet, Proc. 3rd GI/ITG KuVS Workshop on The Future Internet, Mai 2009

[13] Comcast’s Protocol-Agnostic Congestion Management System: www.ietf.org/id/draft-livingood-woundy-congestion-mgmt-03.txt

[14] Richard Sietmann, Das Fairness-Bit, c’t 18/09, S. 48

[15] S. Oueslati, J. Roberts, A new direction for quality of service: Flow-aware networking: http://perso.rd.francetelecom.fr/oueslati/Pub/FanEuroNgi.pdf

[16] David Clark et al, Tussle in Cyberspace: Defining Tomorrow’s Internet, ACM SIGCOMM 2002

Mehr Infos

Objektorientiertes Routing

Der Vorschlag des Internetpioniers Van Jacobson zu einem „Content-Centric Network“ (CCN) klingt auf den ersten Blick wie der Ruf nach einem Weißen Schimmel – als ob das heutige Internet nicht schon „Content“-zentriert wäre. Doch Jacobson und sein Team am Palo Alto Research Center (PARC) propagieren die Weiterentwicklung heutiger Content Delivery Networks (CDNs) zu einer neuen Architektur: Die Topologie dieses Netzes soll sich von den Leitungen und Knoten lösen und an den Inhalten beziehungsweise Informationsobjekten orientieren.

Wo bisher der Zugriff auf Inhalte mittelbar über die Adresse des Host erfolgt, auf dem die Daten liegen, würden in einem CCN Daten, Objekte oder Anwendungen selbst mit einer Adresse versehen und so direkt adressierbar. Die Objekte sollen dort repliziert und gespeichert werden, wo dies für die Nutzung vorteilhaft ist – etwa in einem lokalen Network-Cache – und auch dann verfügbar sein, wenn keine Verbindung zu dem ursprünglichen Content-Server besteht. Sofern die Kopie authentisch ist, spielt es keine Rolle, woher man sie aus dem Netzwerk herunterlädt.

Das PARC-Team, das sein Konzept als Antwort auf eine Ausschreibung des US-Verteidigungsministeriums (DoD) zu Ideen für „next-generation Assurable Global Networks“ (AGNs) einreichte [10] , hat sich von militärischen Erfordernissen inspirieren lassen: Streitkräfte, die im Einsatz teilweise keine Verbindung zu entfernten Hosts haben, sollen in einem Mesh-Netz wenigstens die lokal verfügbare Information noch nutzen können, um den Gefechtsüberblick zu behalten. Ein CCN sei „geeignet, das heutige Internet zu ersetzen und sowohl die Bedürfnisse des DoD als auch der gewöhnlichen Nutzer zu erfüllen“, heißt es in dem Vorschlag – Dual Use, sozusagen.

Die Einführung könnte nach Angaben der PARC-Wissenschaftler inkrementell als Overlay zum heutigen IP-Netz erfolgen, sollte aber schließlich in ein echtes, inhaltsbasiertes Routing münden. Der neue Routing-Layer würde mit einem Feedback-Algorithmus die „Reputation“ der beteiligten Knoten berechnen und sich entsprechend adaptieren, sodass die Bereitstellung der Objekte stets optimal auf die darunterliegende Netzwerkschicht abgestimmt ist.

Sicherheitsmechanismen sorgen dafür, „dass die Authentizität und Integrität sämtlicher Daten geschützt sind und nicht für den öffentlichen Zugriff gedachte Daten verschlüsselt bleiben“; sie müssen vor allem gewährleisten, „dass die Abbildungen zwischen den Namen oder suchbaren Konstrukten und den Datenobjekten funktionieren und dass Angreifer diese Abbildungen nicht manipulieren können“.

Adressierungskonzepte

Vorbilder für das objektorientierte Routing gibt es bereits in Gestalt der hauptsächlich in der Wissenschaft verwendeten Persistent Identifier DOI und URN, die eine Art Domain Name System für Forschungsaufsätze und Datensätze darstellen und mit denen der Zugriff auf digitale Objekte auch bei wechselnder Webadresse dauerhaft über eine ständig aktualisierte Datenbank gesichert wird (www.persistent-identifier.de ). Das CCN-Adressierungskonzept für Inhalte verlagert im Grunde das Overlay-System der Persistent Identifier von der Anwendungsebene in die Netzwerkschicht.

Das CCN-Konzept wirft allerdings eine Fülle bislang ungeklärter Fragen auf, etwa nach der Größe der Routing-Tabellen oder ob es wirklich wünschenswert sein kann, wenn ISPs über die Internet Layer den Umgang mit Inhalten im Netz vollständig kontrollieren könnten. Das PARC-Team betont selbst, dass noch viel FuE zu allen Kernkomponenten nötig sei – angefangen bei dem Namenssystem für die Inhalte über deren Verbreitung und Suche im CCN bis zu den Sicherungsverfahren und neuen Programmiermodellen.

An Projekten hierzu mangelt es nicht. Seitdem Van Jacobson seine Vorstellungen vor drei Jahren in einem Vortrag „A New Way to Look at Networking“ auf Google Tech Talk erläuterte [11] , hat der Ansatz viele Anhänger gefunden. So widmen sich die FuE-Vorhaben „Nano-Datacenters“ (www.nanodatacenters.eu ) und PSIRP (www.psirp.org ) dem neuen Routing Paradigma, und im EU-Projekt 4WARD gibt es unter dem Titel „Networking of Information“ (NetInf) ein eigenes Arbeitspaket zum Thema [12] .

Mehr Infos

Verkehrssteuerung

Vor zwei Jahren war bekannt geworden, dass der größte Kabelnetzbetreiber und zweitgrößte Internet Service Provider in den USA, Comcast, nach Hackermanier Man-in-the-Middle-Attacken einsetzte, um den Datenverkehr von Filesharern zu begrenzen. Wann immer ein BitTorrent-User Verbindungen aufbaute, schaltete sich ein Traffic Shaper dazwischen und antwortete anstelle des aufgerufenen Peers mit einem fingierten TCP-RST-Paket zum Abbruch der Verbindung.

Aufgrund von Beschwerden untersagte die FCC dem Unternehmen im August 2008 die diskriminierende Verkehrsbeeinflussung. Comcast focht die Entscheidung gerichtlich an. Gleichwohl kam das Unternehmen der Auflage nach und hat die Steuerung des Netzzugangs umgestellt. Hinsichtlich des Typs der Anwendungen geht das neue System nun neutral vor.

Es analysiert fortlaufend Verkehrsnutzungsdaten aus den einzelnen Zweigen des Zugangsnetzes, und wenn in einem Netzabschnitt die Auslastung ein bestimmtes Niveau überschreitet, prüft es im zweiten Schritt die aktuellen Nutzungsdaten der einzelnen Teilnehmer in dem betroffenen Segment, um herauszufinden, wer einen überproportionalen Anteil an Bandbreite in Anspruch nimmt. Der Verkehr dieser „Heavy User“ wird dann vorübergehend in der Priorität herabgestuft.

Solange die Herabstufung besteht, bremst der Traffic Shaper den Verkehr des Heavy User aus, dies jedoch nur bei tatsächlicher Überlastung in dem betreffenden Netzsegment. Den normalen Prioritätsstatus erhält der von dem User erzeugte Ver-kehr zurück, sobald die beanspruchte Bandbreite über einen gewissen Zeitraum unter einen festgelegten Schwellwert sinkt [13] .

Staugebühr

Ein anderes Verfahren der Bandbreitenverteilung unter konkurrierenden Usern an den Netzzugängen wird in der IETF unter dem Titel „Re-inserted Explicit Congestion Notification“ (re-ECN) diskutiert [14] und beruht darauf, für jeden Flow die Überlastung entlang dem gesamten Pfad sichtbar zu machen. Eine solche Signalisierung ließe sich dann in entsprechende Preissignale übersetzen und gäbe den beteiligten Edge Routern und Border-Gateways die Möglichkeit zur belastungsabhängigen Tarifierung: Jeder Anwendung würde damit die Verknappung der Ressourcen in Rechnung gestellt, die sie anderen aufbürdet.

Doch selbst unter Netzbetreibern ist umstritten, die Kunden quasi mit „Staugebühren“ noch einmal zur Kasse zu bitten. Staustellen im Netz gelten eher als Indikator für schlechtes Management – schlimm genug – und dafür Extragebühren zu verlangen, droht den Ruf nur ein weiteres Mal zu schädigen.

Besetztzeichen

James Roberts von den Orange Labs der France Telecom verficht daher zum Abfangen von Lastspitzen das sogenannte Flow-Aware Networking (FAN). Es beruht auf der Erkennung von Datenflüssen durch Deep Packet Inspection und kombiniert diese mit einer lastabhängigen Zugangssteuerung [15] . Die Flüsse werden als zeitlich korrelierte Datagramme mit derselben eindeutigen ID aus dem Header der IP-Pakete an der Netzschnittstelle identifiziert und können vom Zugangsknoten zugelassen oder über eine Warteschlange „soft“ abgewiesen werden.

Im Normalfall behandelt das Netz alle Flows gleich; erst bei Überlast beginnt es, die Schotten für Neuankömmlinge dicht zu machen. Der Mechanismus gleicht im Prinzip dem alten Telefonsystem, das dem Kunden bei Überlastung keine Verbindung herstellte – ihm dies aber im Unterschied zu FAN durch ein Besetztzeichen signalisierte.

Mehr Infos

Entwurfsziel Gerangel

Ob ein einheitliches Netz oder Auffächerung in viele dienstspezifische Internets, ob Traffic Shaping, Netzneutralität oder Quality of Service – egal, unter welchem Rubrum die Debatte um das Future Internet geführt wird, stößt sie überall auf widerstreitende Interessen. Da stehen die Ziele der Content-Industrie gegen die von Filesharern, fordern Sicherheitspolitiker immer neue Eingriffsgrundlagen zur Überwachung des Netzverkehrs, fluchen Nutzer über den täglichen Spam in ihrer Mailbox. Ausrüster und Provider wollen mit proprietären Techniken ihre Kunden langfristig an sich binden, diese erwarten standardisierte Schnittstellen und unkomplizierte Anbieterwechsel auf horizontalen Märkten. Es sind Konflikte, die sich nicht technisch entscheiden lassen.

Vor einigen Jahren hat daher die Crew um Internetpionier David Clark am MIT weitsichtig das Gerangel zum Entwurfsziel erhoben (Design for Tussle). Weil nicht alle Konflikte durch technische Lösungen überwunden werden können, so die weise Einschätzung, sollte die Netzarchitektur offen für das Gerangel unter den Beteiligten sein [16] . Möglicherweise bietet die Netzvirtualisierung als Plattform konkurrierender Internets eine Arena für derartige Auseinandersetzungen. Doch wer setzt die Regeln für das Gerangel?

Projekte zum Future Internet (Auswahl)
USA
NewArch www.isi.edu/newarch Future Generation Internet Architecture: von der Defence Advanced Research Projects Agency (DARPA) 2000–2003 am MIT gefördertes Projekt
100x100 http://100x100network.org 100 MBit/s x 100 Millionen Anschlüsse: von der National Science Foundation (NSF) 2000–2005 gefördert
Clean-Slate Design http://cleanslate.stanford.edu Forschungsprojekt der Stanford University mit neun beteiligten Unternehmen als Sponsoren (Cisco, NTT DoCoMo USA, Deutsche Telekom, NSF, NEC, Xilinx, Ericsson, Lightspeed, MDV)
GENI www.geni.net Global Environment for Network Innovations: von der NSF 2005 gestartete Initiative zum Aufbau eines Testbeds für die Erprobung neuer Internet-Architekturen mit Virtualisierungstechniken; nach zwei Ausschreibungsrunden derzeit in der Prototypphase
FIND http://find.isi.edu Future Internet Design: 2006 gestartetes langfristiges Programm der NSF zur Erforschung von Netzarchitekturen; in drei jeweils dreijährigen Phasen angelegt, mit derzeit einigen Dutzend Einzelprojekten
AGN www.darpa.mil/STO/solicitations/AGN Assurable Global Network: Konzeptausschreibung der DARPA vom Dezember 2006 für einen Nachfolger des derzeit auf IP-Technologie basierenden Global Information Grid (GIG) des US-Verteidigungsministeriums (DoD)
PlanetLab www.planet-lab.org eine internationale Kooperation von Test-Plattformen für Netztechnologien unter der Führung der Princeton University mit derzeit 1018 Netzknoten an 487 beteiligten Einrichtungen
Europa
4WARD www.4ward-project.eu zweijähriges Forschungsprojekt zum Future Internet (2008–2009), an dem unter Federführung von Ericsson unter anderem die TK-Ausrüster Alcatel-Lucent, NEC Europe, Nokia Siemens Networks, Netzbetreiber wie die Deutsche Telekom, France Telecom, Telecom Italia sowie zahlreiche Forschungseinrichtungen beteiligt sind
EIFFEL http://fp7-eiffel.eu Evolved Internet Future For European Leadership: ein bereits im Juli 2006 von der Generaldirektion Informationsgesellschaft der EU-Kommission eingesetzter „Think Tank“ zur Stimulierung der europaweiten Diskussion über das Future Internet
FIRE www.ict-fireworks.eu Future Internet Research and Experimentation: Initiative im 7. Forschungsrahmenprogramm der EU zur offenen Zusammenschaltung von Testplattformen zu einem europäischen Testbed und seiner Nutzung zur Erforschung und Erprobung von alternativen Netz- und Dienstearchitekturen
FISE http://fise.smoothit.org/Main/HomePage Future Internet Socio-Economics: Expertengruppe zu gesellschaftlichen und wirtschaftlichen Aspekten des Future Internet
FIA http://cordis.europa.eu/fp7/ict/ssai/ future-internet-assembly_en.html Future Internet Assembly: im März 2008 geschaffenes Forum mit dem Ziel, die zahlreichen EU/FP7-Projekte zum Future Internet zu vernetzen und die Fragmentierung der Aktivitäten zu vermeiden
FEDERICA www.fp7-federica.eu Federated E-infrastructure Dedicated to European Researchers in Computing networking Architectures: EU/FP7-Projekt zur Netzvirtualisierung auf der Plattform des paneuropäischen Forschungsnetzes GÉANT2 mit 13 über Punkt-zu-Punkt-Verbindungen beteiligten Netzknoten
TRILOGY www.trilogy-project.org „Architecting the Future Internet“: dreijähriges FuE-Projekt (2008–2010) unter der Führung von BT, an dem die Deutsche Telekom, NEC Europe, Nokia und eine Reihe von Universitäten beteiligt sind
Deutschland
G-Lab www.german-lab.de vom BMBF bis 2012 mit zwölf Millionen Euro geförderte Errichtung eines Testnetzes zur Erprobung von Konzepten und Techniken für das künftige Internet, an der sich Universitäten, Netzbetreiber und -ausrüster – unter anderem Alcatel-Lucent, Ericsson, NSN und Qualcomm – beteiligen
100GET www.celtic-initiative.org/Projects/100GET/ Transport Networks for Future Internet , 100 GBit/s Carrier-grade Ethernet Transport Technologies (BMBF-Förderung im Rahmen der europäischen EUREKA-Initiative CELTIC)
EASY-C www.easy-c.de Next Generation Mobile Networks: Beyond LTE
Japan
AKARI http://akari-project.nict.go.jp/eng/index2.htm Architecture Design Project for New Generation Network
JGN2plus www.jgn.nict.go.jp/english vom National Institute of Information and Communications Technology(NICT) betriebenes Testbed zur Netzentwicklung
Korea
FIF http://fif.kr Future Internet Forum: ein von der Open Standards and Internet Association (OSIA) organisiertes Diskussionsforum zu den Future Internet FuE-Aktivitäten mit rund 500 Mitgliedern aus Universitäten, Unternehmen und einschlägigen Behörden