Future Internet Symposium diskutiert "Networks as a Service"
Netze dienen üblicherweise als Transportplattform für Dienste, wie beispielsweise das Internet fürs Web, E-Mail oder Telefonie. Mit der Virtualisierung aber werden Netze selbst zum Dienst – und die Techniken zur Netzvirtualisierung könnten die Strukturen des TK-Marktes umkrempeln.
Die ersten Ansätze zur Netzvirtualisierung stammen ursprünglich aus der Forschung zu neuen Internet-Architekturen, doch inzwischen haben auch die Netzbetreiber ein Auge drauf geworfen. Auf der FIS 2010 präsentierte Jorge Carapinha von der PT Inovação, dem Forschungsarm der portugiesischen Telecom PT, heute in Berlin die Ergebnisse einer Studie des "European Institute for Research and Strategic Studies in Telecommunications" (Eurescom) zu den Chancen und Herausforderungen für ihre künftigen Geschäftsmodelle.
Die Virtualisierung von TK-Netzen sei gleichzeitig "ein radikaler Bruch" wie auch "die logische Fortsetzung einer Evolution", die in den 90er-Jahren mit dem Multi Protocol Label Switching (MPLS) und Virtual Private Networks (VPN) begann, führte Carapinha aus. Doch obwohl VPNs einzelne Internetdomänen zu einem privaten IP-Netz zusammenschalten, bleibe diese Zusammenschaltung an die darunterliegende Infrastruktur gekoppelt und sollte deshalb "mehr als Dienst denn als echtes Netz" betrachtet werden. Virtuelle Netze hingegen sind – ähnlich wie Virtual Machines für alternative Betriebssysteme, die parallel auf derselben PC-Hardware laufen – blind gegenüber der vorhandenen Architektur. Die Kapazität der Netzressourcen aus Knoten und Leitungen wird quasi aufgeteilt und so voneinander abgeschottet, dass sich auf derselben physikalischen Infrastruktur weitere, völlig neue Netze mit gänzlich anderen Übertragungsprotokollen und Routing-Algorithmen einrichten und betreiben lassen.
Die noch unveröffentlichte Eurescom-Studie untersuchte einige Szenarien, wie Netzbetreiber diese Möglichkeiten nutzen können. Eine Option sei beispielweise "die Aufteilung in dienstspezifische virtuelle Netze", erläuterte Carapinha. Das könnten etwa das herkömmliche Best-Effort-Internet und parallel dazu ein spezielles Netz mit Echtzeitgarantien für die ungestörte Videoübertragung sein. Damit eröffne sich Betreibern die Wahl, ob sie Internet- und TV-Dienste mit ihren unterschiedlichen Anforderungen im Zuge der bisher stets propagierten "Konvergenz" über dieselbe oder jeweils optimierte Plattformen vermarkten wollen.
"Ein weiterer Vorteil für Betreiber liegt in der Möglichkeit zur Koexistenz von Betriebs- und Experimentiernetzen", erklärte Carapinha. Mit virtuellen Netzen könnten etwa neue Protokolle oder Dienste zunächst parallel auf derselben Infrastrukturplattform erprobt und dann allmählich in den Echtbetrieb überführt werden. Aber "vielleicht das radikalste Szenario ist das eines Network-as-a-Service", meinte er. Nach dem NaaS-Modell würden die Infrastrukturbetreiber die Switching- und Übertragungskapazität ihrer Plattformen anteilig an die eigentlichen Netzbetreiber, die sogenannten Virtual Network Operators, vermarkten und sich auf diese Weise neue Erlösquellen erschließen. Diese horizontale Aufspaltung der Marktstruktur hätte allerdings auch eine völlige Abkehr von der vertikalen Integration der großen Netzbetreiber zur Folge, denn dort liegen Leitungswege, Netzbetrieb, Diensteangebot und Endkundenbeziehung bislang meist noch in einer Hand. Der Studie zufolge müsste dazu ein Regulierungsumfeld geschaffen werden, das die Rollen der einzelnen Marktteilnehmer klärt.
"Wir sehen eine Menge Möglichkeiten, aber es bleiben auch noch einige Herausforderungen übrig", resümierte Caparinha. Im Einzelnen nannte er die Abschottung der virtuellen Netze voneinander, die Gewährleistung der betreiberüblichen Zuverlässigkeitsanforderungen sowie die Schaffung geeigneter Schnittstellen und Standards. Zudem sei auch das Störungsmanagement zur Detektion, Lokalisierung und Beseitigung von Fehlern in virtualisierten Systemen "noch ein ungelöstes Problem". (pmz)