Der stille Machtkampf

Fast zwei Jahrzehnte lang hat sich das Internet zur Plattform für die Massenkommunikation entwickelt. Dabei haben Firmen wie Yahoo, Google oder Amazon das Sagen gehabt und die Gewinne eingestrichen. Mit dem Next Generation Network wollen die klassischen Telekommunikationsunternehmen zurück in die Führungsrolle.

In Pocket speichern vorlesen Druckansicht 13 Kommentare lesen
Lesezeit: 27 Min.
Von
  • Richard Sietmann
Inhaltsverzeichnis

Broadband-Integrated Services Digital Network (B-ISDN), so hieß vor zwei Jahrzehnten die Vision der Telekommunikationswelt vom universellen Breitbandnetz, über das die Sprach-, Daten- und Bewegtbild-Kommunikation einheitlich digital abgewickelt werden sollte. Es kam anders. Nach dem Siegeszug des Internet ist B-ISDN ein Unwort geworden [1]. Aber das Leitbild eines integrierten Netzes für alle Verkehrsarten und Kommunikationsdienste hat nichts an Leuchtkraft eingebüßt. Heute versuchen die Betreiber der klassischen Telekommunikationsnetze und der Backbones, die auch die Internet-Daten transportieren, den Flohzirkus der Anschluss-, Übertragungs- und Switching-Techniken unter dem Schlagwort des „Next Generation Network“ (NGN) in einer neuen Architektur zu bändigen.

Den Carriern und Telecoms, in den allermeisten Fällen ehemals staatliche Telefonmonopolisten, geht es darum, mit der Anbindung an eine einheitliche paketvermittelnde Infrastruktur die Altlasten dienstspezifischer Einzelnetze wie Analog-Telefonie (PSTN), ISDN, ATM, oder GSM von einem einzigen Kernnetz zu bedienen. Die Schmal- und Breitbanddienste integrierende Transportplattform bilden künftig die Internet-Protokolle (IP), ergänzt um Maßnahmen zur Verbesserung der „Quality of Service“ (QoS) genannten Übertragungsqualität.

Zu lange, zumindest für ihren eigenen Geschmack, haben die Telecom-Firmen die Verlagerung der Wertschöpfung ins Internet hinnehmen müssen. Portalbetreiber und Diensteanbieter – Google, Amazon und Yahoo oder etwa Skype als VoIP-Anbieter sind nur einige der bekannteren Namen – konnten oft aus dem Nichts heraus das große Geschäft auf dem Rücken derer machen, die die Netze bereitstellen und betreiben. Den hohen Erträgen und niedrigen Kosten auf Seiten der Dienste- und Inhalteanbieter stehen auf der anderen Seite schmale Renditen und hohe Kosten bei den Übertragungsnetzbetreibern gegenüber – so stellt die Detecon, Consulting-Tochter von T-Systems, das „Operators’ Dilemma“ dar [5].

The Operators' Dilemma
wahrgenommene Wertschöpfung Wertschöpfungsebene Kosten
hoch/mittel „Innovationsprämie“ Dienste/Inhalte niedrig
niedrig „NGN“-Transport niedrig/mittel
niedrig/mittel Zugangsnetz hoch
Detecon, die Consulting-Tochter von T-Systems, beschreibt das „Operators’ Dilemma“.

Vor der Alternative, zu einem schlichten Versorgungsunternehmen für den Bit-Transport zu schrumpfen oder als Allround-Anbieter eine Ausweitung des Leistungsangebotes anzustreben – Kommodifizierung oder Veredelung –, setzen die Betreiber auf Expansion, um den Markt der Internetdienste einzufangen. Das NGN bildet die Plattform zur Rückkehr der Carrier und Telecom-Firmen in die Führungsrolle. Parallel dazu werden auch die Lobby-Organisationen aktiv: Die Kritik an der Netzneutralität und das Jammern über die Überregulierung der Netze ergänzt Definition und Aufbau des NGN in der Sphäre der Politik. Die Carrier wollen sich von der Gleichbehandlung jeglichen Datenverkehrs im offenen Internet verabschieden und etwa Inhalteanbieter für die besonders schnelle oder auch nur zugesicherte Übertragung von Daten zur Kasse bitten. Sie wollen zudem Möglichkeiten zur unterschiedlichen Behandlung des Datenverkehrs in ihren Backbones erhalten, abhängig unter anderem von Quelle, Dienst und Bandbreitenverbrauch.

Wohin die Reise für die Carrier und Telecom-Konzerne geht, versucht die International Telecommunications Union (ITU, in die UN eingegliederte Standardisierungsorganisation für Informations- und Telekommunikationstechnik) so zu definieren: „Ein Next Generation Network (NGN) ist ein paketbasiertes Netz zur Bereitstellung von Telekommunikationsdiensten für Nutzer unter Verwendung vielfältiger breitbandiger, QoS-basierter Transporttechniken, in dem die dienstbezogenen Funktionen unabhängig von den darunterliegenden transportbezogenen Technologien sind. Es bietet den Nutzern den uneingeschränkten Zugang zu den Netzen, Diensteanbietern und Diensten ihrer Wahl. Es unterstützt die allgemeine Mobilität, indem es überall die einheitliche Bereitstellung von Diensten für Nutzer erlauben wird“. Beim NGN handelt es sich offenbar um ein bewegliches Ziel: Insgesamt 14 Punkte benötigt die ITU anschließend noch im Standard Y.2001 zur Konkretisierung.

In dem von Herstellern, Netzbetreibern und Behörden getragenen europäischen Standardisierungsinstitut ETSI bemüht sich die Arbeitsgruppe zu „Telecommunications and Internet converged Services and Protocols for Advanced Networking“ (TISPAN) seit geraumer Zeit, die ITU-Vorgaben mit Leben zu füllen und eine NGN-Architektur mit Teilsystemen und Schnittstellen so zu definieren, dass dies Ausrüstern die Herstellung und Betreibern den Bezug standardisierter Produkte ermöglicht. Die TISPAN-Gruppe, in der zeitweilig fast 200 Experten mitwirkten, ist aus der Zusammenlegung der früheren Arbeitsgruppen zur Internettelefonie (Telecommunications and Internet Protocol Harmonization Over Networks, TIPHON) und zur Dienste- und Netzentwicklung (Services and Protocols for Advanced Networks, SPAN) hervorgegangen. In diesem Jahr legte sie Release 3 des Draft-Standards zur NGN-Funktionsarchitektur vor [2].

NGN soll die im Branchen-Schnack „Triple Play“ genannte Konvergenz von Sprachtelefonie, Internet und TV über Funk- und Festnetzzugänge verwirklichen. Von den Anschlussgeräten der Teilnehmer bis zum Kernnetz soll künftig „alles IP“ sein, also die gesamte Kommunikation durchgängig über Internetprotokolle abgewickelt werden. Dies, sowie die konsequente Entkoppelung der Übertragungsschicht von der Diensteschicht, macht den wesentlichen Unterschied zu den herkömmlichen TK-Netzen aus (siehe Grafik auf S. 92): Während der Service-Layer die unterschiedlichsten Kommunikationsanwendungen bereitstellt und sie über definierte Schnittstellen und Steuerungsfunktionen flexibel so miteinander verknüpft, dass die Teilnehmer sie nach Belieben anfordern und zugeteilt bekommen können, sorgt der Transport-Layer für die IP-Konnektivität und stellt der Diensteschicht zusätzliche Steuerungsparameter für die Übertragung zur Verfügung. So können Dienste beispielsweise auf die teilnehmerseitige Access-Management-Funktion und die netzseitige Border-Gateway-Funktion zugreifen. Allerdings erfolgt dieser Zugriff nicht direkt, sondern über zwei zusätzliche Module zur Teilnehmerverwaltung auf der Transportebene, mit denen der Netzbetreiber das User-Equipment und seine Netzressourcen verwaltet. Die Authentisierung sowie die dynamische Zuweisung von IP-Adressen und anderen Konfigurationsparametern des Terminals nimmt das Network Attachment Subsystem (NASS) vor. Die zur Konfiguration des Netzzugangs benötigten Nutzerdaten und -berechtigungen werden dazu vom Resource and Admission Control Subsystem (RACS) importiert.

„All-IP“ im NGN: Ob Sprache, Internet oder Fernsehen – künftig soll von den Anschlussgeräten der Teilnehmer (links) bis zum Kernnetz (rechts) die gesamte Kommunikation durchgängig über Internetprotokolle abgewickelt werden. Die Verbindungs-linien zwischen den Steuerungsmodulen sind jeweils als Schnittstellen, nicht notwendig als separate physische Leitungen zu verstehen.

Die Architektur bezieht auch Funknetz-Zugänge ein; so ist für das NGN die nächste Mobilfunkgeneration LTE schlicht ein weiteres Access Network in der heterogenen Welt der Zugangsnetze. Zur Unterstützung des Roaming mit mobilen Endgeräten wird es sich beim NASS dann um ein über die Bereichsgrenzen von Providern hinaus verteiltes System handeln. Beim Aufenthalt in einem Gastnetz muss das örtliche NASS zur Authentisierung des Zugangs über entsprechende Transferfunktionen die User-Daten aus dem Heimatnetz abrufen; das RACS hat dabei eine ähnliche Funktion wie der Home Subscriber Server von UMTS. Das RACS ist aber mehr als nur eine Datenbank. Es steuert die User-Session über die Schnittstellen zum Border Gateway und zum Media Gateway nach den geschäftspolitischen Vorgaben des Netzbetreibers und teilt die Ressourcen auf der Übertragungsschicht beim Übergang in andere Netze zu, wie etwa die Bandbreite für den abgehenden und ankommenden Verkehr oder die benötigte Dienstgüte für Echtzeitdienste.

Das NGN ist ein intelligentes Netz. Sind schon auf der Transportschicht sehr viele Steuerungsfunktionen vorgesehen, so kommen auf dem Service-Layer noch weitere hinzu. Einzelne Kommunikationsdienste wie Telefonie, Internet oder Fernsehen werden jeweils durch Service-Control-Subsysteme unterstützt, die dazu wiederum die vom NASS und RACS – also vom Netzbetreiber – bereitgestellten Informationen und Parameter des Transport-Layer verwenden. Zu den bisher spezifizierten Steuerungssystemen gehören die Emulation von Analog- und ISDN-Telefonie (PES, PSTN/ISDN Emulation Subsystem), ein IPTV-Modul und das IP Multimedia Subsystem (IMS); die Architektur ist aber offen für weitere. Daneben sind unter „Common Functions“ all die zur Abwicklung von den Dienstemodulen gemeinsam benötigten Funktionen zusammengefasst, etwa die Verwaltung von Nutzerkonten, Abrechnungsmechanismen, für das Routing benötigte Datenbanken, Nameserver oder die Übersetzung von Telefonnummern für das IP-basierte Routing (ENUM).

Verteiltes NASS: Das Network Attachment Subsystem kann über Transferfunktionen auch den Netzzugang mobiler Gastteilnehmer autorisieren.

(Bild: Quelle: ETSI/TISPAN)

In der architektonischen Trennung von Transport- und Service-Layer ist – zumindest prinzipiell – eine Funktionstrennung unterschiedlicher wirtschaftlicher Akteure angelegt; dementsprechend kann auch die Netzzusammenschaltung auf zwei Ebenen erfolgen: Bei der Connectivity-oriented Interconnection (CoIX) beschränkt sich die Signalisierung am Übergang zwischen zwei Domänen auf die Übertragungsschicht und das RACS. Die Service-oriented Interconnection (SoIX) hingegen tauscht über das Border Gateway sowohl dienst- als auch übertragungsbezogene Signalisierungsinformationen aus.

Während das PES die Anschlussfähigkeit der „Telefonie-Altlasten“ an das All-IP-Netz wahren soll, stellt das IP Multimedia Subsystem (IMS) den Kernbaustein in der NGN-Strategie der Netzbetreiber dar, indem es Internet-basierte Multimedia-Dienste mit Dienstgütegarantien und flexiblen Abrechnungsmechanismen kombiniert. Die Entwicklung des IMS ist bereits zu Beginn des Jahrzehnts in den beiden für die dritte Mobilfunkgeneration zuständigen Industrieforen 3GPP (UMTS) und 3GPP2 (CDMA 2000) initiiert worden [3]. Der Ansatz wurde dann für das Festnetz übernommen; in enger Abstimmung mit 3GPP ergänzte die TISPAN-Gruppe des ETSI das IMS um festnetzrelevante Teile und standardisierte es im vergangenen Jahr (ES 282 007).

Es gibt viele Sichtweisen auf dieses Subsystem. Man kann darin die Übertragung des Mobilfunk-Geschäftsmodells mit Internetzugängen, -inhalten und -diensten auf das Festnetz sehen. Von der NGN-Architektur aus betrachtet, führt es eine zusätzliche Steuerungsebene zwischen den Multimedia-Anwendungen und den verfügbaren Transportmechanismen für die IP-Bitströme ein, die unabhängig von der Art des Netzzugangs mobile und stationäre Endgeräte gleichermaßen unterstützt und ein Single-Sign-On für alle Anwendungen ermöglicht. Multimedia-Anwendungsentwicklern bietet es einheitliche Programmierschnittstellen zu den entsprechenden Netzdiensten.

Das IMS trennt konsequent im Sinne der NGN-Philosophie die Steuerungs- von den Transportfunktionen und ruht auf mehreren Säulen. Die Sitzungssteuerung erfolgt mit dem in RFC 3261 definierten Session Initiation Protocol (SIP) sowie dem gemeinsam von ITU-T und IETF definierten H.248 als Protokoll zur Signalisierung und Steuerung der Medien-Gateways. Eine weitere Säule bildet die in Carrier-Kreisen „Authentication, Authorization, Accounting“ oder kurz „AAA“ genannte Nutzerverwaltung mit den Mechanismen zur Zugangskontrolle, Gebührenerfassung und Rechnungslegung. Diesen Part steuert das AAA-Protokoll Diameter (RFC 3588) bei, das aus dem im Internet bei Providern für das Login der Kunden weit verbreiteten RADIUS (RFC 2865) hervorgegangen ist. Für den Video- und Audiotransport verwenden Endgeräte und Anwendungsserver das Real-Time Transport Protocol (RFC 3550). Auf Transportebene stellt das NGN mit DiffServ (RFC 3260) Dienstgüteklassen bereit und setzt sie mit MPLS (RFC 3031) im Verkehrsrouting um.

Doch wenn im NGN die Übertragung von der Anschlusseinheit des Nutzers bis zum Border Gateway des nächsten Internet-Providers ohnehin paketorientiert „all-IP“ ist, warum braucht es dann überhaupt noch ein IMS? Die Antwort ist in den Marktstrategien der Netzbetreiber, namentlich der ehemaligen Staatsmonopolisten („Incumbents“), zu finden. Das IMS ist ein Steuerungs- und kein Übertragungssystem: Ähnlich wie die Netzbetreiber Anfang der neunziger Jahre das Telefonnetz zu einem „Intelligenten Netz“ (IN) aufpeppten, in dem die digitalen Vermittlungsstellen Anrufe programmgesteuert mit bestimmten Mehrwertdiensten wie Anrufweiterschaltung, Rufnummernportierung oder Servicegebühren verknüpften, so erteilt das IMS mit einer Policy Decision Function Regieanweisungen, wer mit welchen Dienstmerkmalen eine Session aufbauen darf und wie sie abgerechnet wird.

Das IP Multimedia Subsystem (IMS) ist selbst schon hochkomplex; wegen seiner Support-Funktionen für Internetdienste wird dieses zentrale Teilsystem oft als Synonym für das NGN selbst verwendet.

(Bild: Quelle: ETSI/TISPAN)

Mit Informationen von und Steueranweisungen an die beteiligten Netzelemente kann das IMS die Datenflüsse beispielsweise so routen, dass sie nur über Knoten laufen, welche die benötigte Dienstgüte garantieren. Dabei erfolgt die Signalisierung zum Aufbau von Verbindungen im Allgemeinen nicht über dieselben Pfade, über die anschließend der multimediale Datenstrom läuft – die einzigen Geräte im Netz, in denen die Signalisierung und die Übertragung der Nutzdaten gekoppelt sein müssen, sind die beteiligten Endknoten. Ein wesentliches Merkmal des IMS ist jedoch, dass es die Gebührenerfassung und -abrechnung auf der Netz- und Diensteebene miteinander verknüpft. Wie schon beim IN mit den 0180x-Servicerufnummern kann so der Netzbetreiber das Inkasso für die Diensteanbieter übernehmen.

Das IMS präjudiziert zwar kein bestimmtes Geschäftsmodell, aber es stellt sowohl dem Netzbetreiber selbst als auch Inhalte- und Diensteanbietern aus dem Internet eine Vertriebsplattform zur Verfügung. Mit eigenen oder fremdbezogenen Diensten unter einem Dach gleicht diese einem Einkaufszentrum im Einzelhandel – mit dem entscheidenden Unterschied, dass die Shopping-Mall jedem ad hoc und anonym hereinschneienden Kunden offen steht, während dem IMS der Teilnehmer bekannt ist. Damit sind die Netzbetreiber in einer starken Position: Mit dem Kundenstamm im Rücken und den drei As in der Hand definieren sie den Marktplatz für TK-Dienste, der ihnen mit dem Internet entglitten ist.

Entscheidende Bausteine kommen in der NGN-Architektur gleich mehrfach vor. So sind AAA-Funktionen auf der Netzebene zwischen dem Teilnehmer und dem NASS angelegt und des Weiteren auf der Dienste- und Anwendungsebene unter den Common Functions sowie im Diameter-Protokoll des IMS zu finden. Eine Doppelung von Architekturelementen gibt es auch bei der Übernahme der Sprachdienste auf die „all IP“-Plattform. Das PSTN/ISDN Emulation Subsystem (PES) bildet die Mechanismen zur Steuerung und Vermittlung von Sprachverbindungen nach und verfügt über ein Gateway, das als Brücke zwischen dem SS7-Signalisierungssystem der leitungsvermittelten Welt zur IP-basierten Netzumgebung dient.

Wo die Emulation der alten Sprachnetze zum Einsatz kommt, können die Teilnehmer ihre alten Endgeräte weiterhin verwenden. Das PSTN/ISDN Simulation Subsystem (PSS) hingegen stellt als ein Teilsystem innerhalb des IMS PSTN/ISDN-ähnliche Dienste an IP-Schnittstellen bereit; diese Dienste kann der Teilnehmer dann beispielsweise mit einem reinen IP-Telefon nutzen.

Auch die IPTV-Versorgung werden Netzbetreiber oder Diensteanbieter im NGN auf zwei unterschiedliche Weisen an den Endverbraucher bringen können, wenn man von den heute überwiegend eingesetzten proprietären Lösungen absieht. Ein Ansatz – „dedicated IPTV“ oder „integrated IPTV“ – definiert ein separates Subsystem mit eigenen Architektur-Schnittstellen und Referenzpunkten im NGN. Der zweite und neuere Ansatz, IMS-IPTV, siedelt die TV-Verteilung als Teilsystem im IMS an. Das ist ein äußerst ambitioniertes Vorhaben (www.oipf.tv), da dieser Weg der IPTV-Auslieferung eine Art qualitativ aufgepepptes Web-TV darstellt und vom Roaming bis zu den Authorisierungs- und Abrechnungsmechanismen alle charakteristischen Vorteile und Merkmale des IMS übernehmen soll. TISPAN verfolgt beide Wege; bisher liegen für die IPTV-Architectur im NGN die ETSI Draft Technical Specifications DTS 182 027 „IPTV Functions Supported by the IMS Subsystem“ und DTS 182 028 „NGN integrated IPTV subsystem Architecture“ vor.

Bei all diesen Diensten sind es die Netzbetreiber, die den Zugriff auf die Information im Transport-Layer und auf die Konfiguration der Netzelemente kontrollieren. Die multiplen Verknüpfungsmöglichkeiten der Dienste- mit der Übertragungsschicht werden in Entwicklerkreisen gern als „*-awareness“ diskutiert: Dienste sollen beispielsweise „network-aware“, „location-aware“ oder „QoS-aware“ sein. So sind Anwendungen, die je nach Signalstärke und Nutzerpräferenz den günstigsten WLAN- oder Mobilfunk-Zugang wählen, bereits „network-aware“. Die „Location-awareness“ erlaubt ortsbezogene Empfehlungsdienste oder bei Notrufen die Lokalisierung des Hilfesuchenden. Anwendungen, die etwas über die Dienstgüte des Kommunikationskanals wissen, können die Kodierung optimal darauf abstimmen; so ermöglicht Scalable Video Coding (SVC) – eine Erweiterung des H.264/MPEG-4 AVC Video-Kompressionsstandards – die Zerlegung eines Bilddatenstroms in Teilströme derart, dass diese beginnend mit geringer Bildauflösung jeweils additiv bis zur höchsten Qualität beitragen, soweit der Übertragungskanal das zulässt.

Je mehr Informationen umgekehrt im Netz vorhanden sind oder je mehr das Netz über die Art der Anwendungen weiß, es also möglichst „service-aware“ oder „situation-aware“ ist, desto mehr kann es zur Verbesserung der Dienstgüte beitragen. Der Informationsaustausch zwischen den Knoten über die aktuelle Verteilung der Verkehrsströme im Netz etwa ermöglicht jedem einzelnen von ihnen situationsbezogene Entscheidungsroutinen in Notfällen.

Ein anderes Beispiel, in dem einige schon ein neues QoS-Paradigma sehen, ist die „flow-awareness“. Flows sind Flüsse von Paketen, die in einer semantischen Beziehung zueinander stehen, etwa weil sie Teil eines Videostreaming sind. Solche Paketströme werden vielfach schon mit DiffServ oder dem Multi-Protocol Label Switching (MPLS) durch Labels in den Paket-Headern explizit deklariert. Beim „flow-aware networking“ identifiziert und etikettiert sie das Netz, zum Beispiel durch Deep Packet Inspection in den Zugangsroutern, damit nicht mehr jedes Paket einzeln abgearbeitet werden muss, sondern sich die Übertragungsparameter oder Dienstgüteklassen auf einer höheren Aggregationsstufe den einzelnen Datenströmen zuordnen lassen.

In der Zielsetzung, Kommunikationsanwendungen, Service-Layer und Transport-Layer möglichst viel voneinander wissen zu lassen, stellt die „Cross Layer“-Optimierung jedoch einen Bruch mit der modularen Schichtung der Protokolle dar, die von der Bitübertragungs- bis zur Anwendungsschicht bisher jeweils abgeschlossene funktionale Einheiten bilden. In dieser bewährten Arbeitsteilung beschränken sich Funktionsaufrufe bislang auf die unmittelbar benachbarte Ebene; die jeweils höhere Schicht verwendet nur diejenigen Dienste, die ihr die darunterliegende über definierte Schnittstellen bereitstellt und braucht über die tatsächliche Implementierung und Abwicklung „weiter unten“ nichts zu wissen.

„Alles über IP“ – aber die bewährte TCP/IP-Referenz- architektur, in der die Schnittstellen nur zwischen jeweils benachbarten Protokollebenen definiert sind, steht bei der „Cross Layer“-Optimierung bereits zur Disposition.

Diese Hierarchisierung der Protokollebenen sichert quasi die Entwicklungsfähigkeit des Gebäudes; sie erlaubt den Ausbau in den einzelnen Geschossen mit unterschiedlichen Geschwindigkeiten, ohne dass die Architekten den Bau immer wieder von Grund auf neu planen müssen. Gleichwohl stößt die auf diese Weise gewonnene Flexibilität auch an Grenzen. Denn damit der modulare Ansatz funktioniert, dürfen sich bei aller Bewegung in den „Etagen“ die Schnittstellen nicht verändern, also die sogenannten Service Access Points, hinter denen sich die Komplexität gegenüber der jeweils nächsthöheren oder -tieferen Protokollebene verbirgt. Ihre Definition und ihre Lage legen ähnlich wie tragende Wände eines Gebäudes immer auch die Randbedingungen für die Entwicklung des Gesamtsystems fest.

Die derzeitige Referenz-Architektur mit den auf jeder Ebene unabhängigen Netzprotokollen würde es erschweren, den Nutzern gewünschte Dienstemerkmale zur Verfügung zu stellen, heißt es in einer Studie des in Heidelberg ansässigen European Institute for Research and Strategic Studies in Telecommunications (Eurescom), dem gemeinsamen Forschungsinstitut der großen, zumeist ehemals staatlichen Netzbetreiber in Europa. „Ein Überdenken des Protokoll-Referenzmodells könnte zur Verbesserung des Verkehrsmanagements sinnvoll sein“. Im Ergebnis könnte sich dabei sogar herausstellen, dass „zusätzliche Ebenen zum Mobilitätsmanagement benötigt werden“ [4]. Umgekehrt gibt es Stimmen, die vor dem verführerischen Charme der kurzfristigen Optimierung zu Lasten einer langfristig stabilen Entwicklungsfähigkeit warnen. „Das ungezügelte Cross-Layer-Design kann zu Spaghetti-Konstruktionen führen, die weitere Innovationen ersticken“, befürchtet beispielsweise Panganamala Kumar von der University of Illinois, ein Spezialist für Funk- und Sensornetze. „Ist die Ebenen-Struktur erst einmal durchbrochen, ist auch der Luxus unabhängiger Protokollentwicklungen dahin.“

Das Problem ist nicht nur eines der technischen Optimierung. Wo sich Märkte und Geschäftsmodelle bisher weitgehend an den Referenzebenen der Protokolle orientierten, bietet sich den Telecoms mit dem NGN nun eine Chance zur vertikalen Integration. Im Rahmen des NGN-Aufbaus stellt vor allem das IMS den entscheidenden Hebel dar, um den Carrier und Telecom-Firmen wieder in die Führungsposition zu verhelfen. Im Mobilfunk ist das Kalkül mit dem IMS aufgegangen. „Das IMS definiert ein Netzbetreiber-zentriertes Geschäftsmodell“, beschrieb ein Entwicklungsteam vor einiger Zeit ungeschminkt die Zielstellung. „Die Nutzerprofile und die Abrechnungssysteme werden vom Netzbetreiber beherrscht“, und wer immer das IMS verwendet, „hängt von den AAA-Diensten des Netzbetreibers ab, um seine Kunden zu verwalten“. Dritte können die Plattform zwar nutzen, doch „der Netzbetreiber behält die zentrale Rolle in der Wertschöpfungskette“ [6].

Die Angst vor den unkontrollierbaren Trittbrettfahrern auf ihrer wertvollen Infrastruktur sitzt den Carriern im Nacken. Das Modell als reiner Infrastrukturbetreiber ohne zusätzliche Dienste sei nichts für die Incumbents, meint Udo Bub von den T-Labs der Deutschen Telekom. „Wir konzentrieren uns auf Dienste“, umreißt er den Innovationsauftrag an die Forschung und Entwicklung. Denn mit „disruptiven Geschäftsmodellen“ wie dem VoIP-Dienst von Skype könne niemand auf Dauer glücklich werden, weil Skype selbst Verluste schreibt und so „bestehende Geschäftsmodelle zerstört, ohne dafür neue zu schaffen“.

Vorher – nachher: Den Kern von BTs NGN, 21st Century Network (21CN) genannt, bildet ein flaches und schlankes IP-MPLS-WDM-Netz.

(Bild: Quelle: BT)

Die Kehrseite: Ein vertikal integriertes Unternehmen hat kein originäres Interesse, ungebündelt genügend Bandbreite oder QoS-Merkmale bereitzustellen, mit denen konkurrierende Marktteilnehmer oder womöglich innovative Endkunden qualitativ hochwertige Dienste einführen könnten. Erlöse werden mit der Knappheit erzielt, obwohl die Technik „Konnektivität im Überfluss“ ermögliche, klagt in den USA Bob Frankston, der 1979 gemeinsam mit Dan Bricklin die erste Tabellenkalkulation für PCs – VisiCalc – schuf und seit Langem ein kritischer Begleiter des Netzgeschehens ist. „Das ist so, als würde man gezwungen, Wasser in Flaschen einzukaufen statt einfach den Hahn aufzudrehen“.

Auch hierzulande sehen unabhängige Beobachter die Entwicklung mit Sorge. Wenn Netzbetreiber immer mehr zu Diensteanbietern werden, erklärt der Medienrechtler Bernd Holznagel von der Universität Münster, „dann stellt sich die Frage, ob aus Gründen der Meinungsvielfalt die vertikale Konzentration beschränkt werden muss“. Der Internetspezialist Rainer Fischbach geht noch weiter. „Wir brauchen ein Verbot der vertikalen Integration von Inhalts- oder Dienstanbietern und Netzbetreibern“, plädiert er für horizontale Märkte.

Die Gegenposition vertrat die für die Telekommunikation zuständige Vizepräsidentin der Bundesnetzagentur, Iris Henseler-Unger, unlängst bei einer Anhörung im Deutschen Bundestag. „Vertikale Integration kann auch etwas Positives sein“, verwies sie auf die Bündelangebote in den Kabel-TV-Netzen. „Es gibt eine Reihe ökonomischer Untersuchungen, die zeigen, dass ein vertikal integriertes Unternehmen auch mehr Nutzen für den Endkunden hervorbringt, insbesondere wenn Netze und Dienste optimal aufeinander abgestimmt werden.“

Ein NGN-Betreiber kann selektiv festlegen, wer alles den Zugang zu den Informations- und Konfigurationsschnittstellen bekommt. So können sich Teilnehmer auf Kundenportalen einloggen und die Features ihres Netzanschlusses aus angebotenen Optionen selbst zusammenstellen und konfigurieren, wie etwa die Zahlungsweise, Bandbreite („Turbo Button“), QoS-Varianten, Content-Pakete, Mobilitätsunterstützung und ähnliche Zusatzdienste. Die Selbstbedienung entlastet die ungeliebten Hotlines, ändert jedoch wenig an der Asymmetrie der Marktteilnehmer – der Endkunde ist und bleibt der Konsument, der sich vielleicht auf Web-2.0-Plattformen tummeln darf, aber nicht als potenzieller Content-Produzent, Anwendungsentwickler oder Garagenunternehmer wahrgenommen wird, der mit eigenen Protokollen und Cyberspace-Produkten im Netz experimentieren kann.

Doch wird es andererseits auch B2B-Schnittstellen geben, mit denen Anbieter von Mehrwertdiensten beispielsweise für Push-Strategien einen schnelleren Zugang zu den Endkunden kaufen können? Prinzipiell ist das in der NGN-Architektur möglich. Wenn es dazu kommt, dürfte dies den Diskussionen über die Netzneutralität – inwieweit die Betreiber sich selbst oder Vorzugskunden unter den Dienst- oder Content-Anbietern eine Priorisierung der Verkehrsströme gegenüber anderen einräumen dürfen – neue Nahrung geben.

Den vielen Stellschrauben im NGN und den leicht veränderlichen Konditionen im Kleingedruckten der Geschäftsbedingungen wird die Regulierung kaum gewachsen sein. „Angezeigt wäre“, empfiehlt Rainer Fischbach dem Gesetzgeber, „der systematische Ausbau des Telekommunikations- und Medienrechts von einem Markt- und Betreiberrecht hin zu einem Nutzerrecht, das nicht nur den gleichberechtigten Zugriff auf Information, sondern auch die gleichberechtigte Bereitstellung von Information umfasst.“

Die künftige Rolle der Netzbetreiber in einer „all IP“-Welt ist einer der neuralgischen Punkte in den Architektur-Debatten zum NGN wie auch denen über das Future Internet [7]. Die beiden Stränge der Netzentwicklung sind eng miteinander verknüpft: Im Auftrag der EU-Generaldirektion Informationsgesellschaft und Medien ging daher eine Studie erstmals der Frage nach, in welchem Verhältnis die Design-Prinzipien beider zueinander stehen. Ein achtköpfiges Autorenteam versuchte sich an der Abgrenzung. Im Ergebnis reduziert die „Future Media and 3D Internet Task Force“ die Unterschiede auf drei wesentliche Punkte, in denen das NGN hinter den Arbeiten zum Future Internet zurückbleibt [8]:

  • „Der Einfluss auf NGN-Dienste, auf die sie unterstützenden Netze und damit ihre Flächendeckung beschränkt sich auf einen einzelnen Netzprovider“;
  • „Anforderungen, die sich allgemeiner auf Inhalts- oder Informations-zentrierte Netze beziehen, werden von den derzeitigen NGNs nicht erfüllt“;
  • „NGNs sind anscheinend nicht im Hinblick auf das Gerangel“ der Interessenkonflikte unter den Marktteilnehmern „entworfen worden“.

Doch der erste Punkt, dass NGNs jeweils auf die Domäne einzelner Provider beschränkt blieben, ist schlichtweg falsch. Die vom ETSI standardisierte NGN-Funktionsarchitektur sieht mit der Service-oriented Interconnection (SoIX) explizit das Peering von Diensteanbietern und die Zusammenschaltung auf der Diensteebene vor. Ob sich diese in der Praxis dann tatsächlich einstellt, steht auf einem anderen Blatt – möglicherweise stellen die Vorbehalte der Carrier, beim Peering sensible Informationen über die Dienstgüte im eigenen Netz preiszugeben, ein Hemmnis dar.

Der zweite Punkt ist als Unterscheidungsmerkmal ebenfalls ungeeignet, weil auch die Future-Internet-Forschung zum „content- and information-centric networking“ noch in den Anfängen steckt; bei diesen Ansätzen dürfte es sich jedoch aus Netzbetreibersicht schlicht um einen weiteren Dienst im Service-Layer handeln, der sich dort mit einem zusätzlichen Service Control Subsystem realisieren ließe.

Der letzte Punkt schließlich ist nicht nur falsch, hier gilt sogar das Gegenteil. Denn die von TISPAN definierten Schnittstellen lassen eine Aufteilung der Funktionen auf sehr viele unterschiedliche wirtschaftliche Akteure und Rollen zu. So können beispielsweise Dienste, Netzbetrieb, ID-Management, Rechnungswesen oder Mobilitätsunterstützung in unterschiedlichen Händen liegen. Nicht einmal die Beschränkung auf den reinen Bit-Transport, wovor es den Incumbents am meisten graust, ist grundsätzlich ausgeschlossen. Selbst wenn die Aufteilung auf viele Akteure eher theoretisch bleibt und letztlich vom regulatorischen Umfeld abhängt, spiegelt die NGN-Architektur das „Design for Tussle“ deutlich besser wider als es die bisherigen Ansätze zum Future Internet erkennen lassen. Das zeigt sich zum Beispiel daran, dass schon während der Standardisierungsarbeiten zum Next Generation Network Diskussionen über zusätzliche Regulierungsinstrumente einsetzten [9].

Der Vergleich der EU-Studie geht an der Sache vorbei. Er bleibt an der Oberfläche, weil die entscheidenden Unterschiede zwischen dem NGN und dem Future Internet ganz woanders, nämlich im Backoffice der Protokolle und Architekturen, zu finden sind. Das NGN muss ja nicht den Design-Prinzipien des Internet folgen, nur weil es Internetprotokolle verwendet: Wo im Internet bislang Selbstorganisation, Ad-hoc-Vernetzung und Innovationen am Rand des Netzes die Treiber der Entwicklung waren, dreht sich im NGN alles um Steuerung, Kontrolle und mehr Intelligenz im Netz selbst. Und noch ist nicht ausgemacht, wer in dem stillen Machtkampf der beiden gegensätzlichen Vernetzungsphilosophien tatsächlich am längeren Hebel sitzt.

[1] Richard Sietmann, Der Kampf um die Netze, Computer- und Telekom-Industrie im Clinch, c’t 11/98, S. 186

[2] ETSI ES 282 001, TISPAN NGN Functional Architecture, Draft 2/2009

[3] G. Camarillo u. Miguel García-Martín: The 3G IP Multimedia Subsystem (IMS). 3rd ed. Wiley (2008)

[4] Eurescom-Studie P1657: The future Internet: the operators“ vision. (November 2007)

[5] Detecon Positionspapier: NGN and IMS. (Mai 2007)

[6] Antonio Cuevas et al.: The IMS Service Platform: A Solution for Next-Generation Network Operators to Be More than Bit Pipes. IEEE Comm. Mag. 8 (2006) 75-81

[7] Richard Sietmann, In den Startlöchern, Wie sich die Netzarchitekten die Zukunft des Internet vorstellen, c’t 21/09, S. 80

[8] FM3DI-TF: Future Internet and NGN. Design requirements and principles for a Future Media and 3D Internet. (Februar 2009)

[9] European Regulators Group: ERG Opinion on Functional Separation. (Oktober 2007)

[10] Detecon Positionspapier: Photonic Packet Switching and the evolution of optical networks. (Okt. 2008)

Mehr Infos

Die ITU-Definition für das Next Generation Network

In der ITU-T Recommendation Y.2001 (12/2004) sind folgende Punkte aufgeführt:

  1. Paketübertragung
  2. Aufteilung der Steuerungsfunktionen hinsichtlich der Verbindungseigenschaften, Anruf/Session und Anwendung/Dienst
  3. Entkopplung von Dienstbereitstellung und Transport sowie Bereitstellung offener Schnittstellen
  4. Unterstützung eines breiten Spektrums von Diensten, Anwendungen und Mechanismen zur Zusammenstellung von Diensten (u. a. Echtzeit-/Streaming-/nicht-Echtzeit-Dienste und Multimedia)
  5. breitbandfähig mit garantierter Dienstgüte und Transparenz von Ende zu Ende
  6. Einbeziehung alter Netze über offene Schnittstellen
  7. umfassende Mobilität
  8. ungehinderter Zugang zu den verschiedenen Diensteanbietern für die Teilnehmer
  9. eine Vielfalt von Identifizierungskonzepten zur Auflösung von IP-Adressen für das Routing in IP-Netzen
  10. aus der Sicht des Nutzers einheitliche Dienstemerkmale für dieselben Dienste
  11. Konvergenz der Dienste im Mobil- und Festnetz
  12. Unabhängigkeit der dienstbezogenen Funktionen von den darunter liegenden Übertragungstechniken
  13. Unterstützung unterschiedlicher Technologien im Anschlussnetz
  14. Erfüllung aller Auflagen der Regulierung, z. B. hinsichtlich der Notfall-Kommunikation, Sicherheit/Datenschutz usw.
Mehr Infos

NGN im Transportnetz

Das NGN will möglichst viele Zugangstechniken einschließlich des Mobilfunks mit einem einzigen IP-basierten Kernnetz bedienen, zur Transportebene selbst macht die NGN-Spezifikation von TISPAN keine weiteren Aussagen. „Die nehmen wir als gegeben hin“, erklärt TISPAN-Vorsitzender Rainer Münch von Alcatel-Lucent. Doch die Entwicklung macht vor dem Kernnetz nicht halt. Hier bedeutet „next generation“ Verschlankung mit IP. Bei der britischen BT beispielsweise heißt das Programm, mit dem 17 verschiedene dienstspezifische Netze durchgängig auf der IP-Plattform („all-IP“) in einem einzigen Kernnetz konsolidiert werden, „21st Century Network“ (21CN).

Die unterschiedlichen Schnittstellen am Rande des Netzes bleiben bestehen; die jeweiligen Verkehrsströme werden an rund 5500 Standorten von einem Multiservice Access Node (MSAN) für den Transport im Kernnetz zusammengefasst. Dort sind die „Altlasten“ in Gestalt der PSTN-, PDH-, SDH- und ATM-Netze teilweise bereits auf eine flache, dreischichtige DWDM/MPLS/IP-Architektur portiert worden.

Die unterste Ebene bildet dabei das optische Transportnetz, das dank dicht gepackter, unterschiedlicher Übertragungswellenlängen (Dense Wavelength Division Multiplexing, DWDM) in den Glasfasern sowohl die verbindungsorientierte, leitungsvermittelnde Übertragung (Synchronous Digital Hierarchy, SDH) wie auch die verbindungsorientierte, paketvermittelnde Übertragung (Multi-Protocol Label Switching, MPLS) auf derselben Glasfaser-Infrastruktur abwickeln kann. In ähnlicher Weise sind weltweit alle Carrier im Begriff, ihre Netze zur Aufnahme des unvermindert anwachsenden IP-Datenverkehrs zu transformieren.

Die weitere Entwicklung der optischen Transportnetze indes wird in Forschung und Entwicklung noch diskutiert. Denn nach wie vor gibt es ein Missverhältnis zwischen Übertragungs- und Vermittlungskapazität. Während die DWDM-Technik die Übertragungsraten dramatisch in den Multi-Terabit/s-Bereich schob, hat die Vermittlungstechnik nicht Schritt halten können. MPLS-Router mit Leitungskarten für 40-GBit/s-Verbindungen sind heute in den Kernnetzen im Einsatz; 100-GBit/s-Router befinden sich in der Markteinführung. Unterdessen haben Forscher von den Alcatel-Lucent Bell Labs zur diesjährigen ECOC im September in Wien mit 15,5 TBit/s über 7000 Kilometer gerade erst wieder einen neuen „Bitrate x Länge”-Weltrekord für die Glasfaser aufgestellt. Dabei setzten sie insgesamt 155 Wellenlängenkanäle zu jeweils 100 GBit/s und kohärente Detektion im Empfänger ein.

Heute stützt sich das Wellenlängen-Multiplex in den Glasfasernetzen zumeist auf festgeschaltete Leitungswege. Etwas mehr Flexibilität bringen bereits rekonfigurierbare optische Add-Drop-Multiplexer (ROADMs), die das Ein- und Ausschleifen von Wellenlängenträgern und deren Routing durch das optische Netz erlauben. Allerdings erfordern sie ein sorgfältiges Haushalten mit den verfügbaren Trägern, um bei mehrfacher Verwendung derselben Wellenlänge in einzelnen Teilnetzen Kollisionen bei der Lichtwegschaltung zu vermeiden.

Für die nächste Generation zeichnen sich Alternativen ab. Beim Optical Circuit Switching (OCS) bauen Steuersignale für jeweils eine Trägerwellenlänge transparente Lichtwege über verschiedene Netzknoten hinweg auf, sodass der Datenstrom auf dem Weg vom Ursprungs- zum Zielhost nicht mehr optoelektronisch gewandelt werden muss. Solche Lichtwege erlauben nicht nur QoS- und Bandbreiten-Garantien, sondern auch den Einsatz unabhängiger Übertragungsprotokolle zwischen Quell- und Zielhost, beispielsweise zur Netzvirtualisierung.

Neben der optischen Leitungsvermittlung gibt es auch Ansätze zum Photonic Packet Switching (PPS). Die Begründung ist dieselbe wie beim elektronischen Packet Switching: Die paketorientierte Übertragung geht im Unterschied zur kanalorientierten effizienter mit den Ressourcen um, weil sie keine Leitungswege reserviert; stattdessen stellt sie durch das Multiplexen von Paketen die vorhandene Kapazität allen Teilnehmern zur Verfügung. Mit PPS wird der Router im Prinzip zu einem optisch transparenten Netzknoten, bei dem die Lenkung der Pakete ausschließlich in der optischen Signaldarstellung erfolgt oder sich die optoelektronischen Wandlungen zumindest auf die Paket-Header beschränken.

„PPS wird zunächst im Kernnetz Einzug halten und das IP/MPLS-Netz von dort ins Metronetz verdrängen“, sind die Autoren einer Detecon-Studie überzeugt [10]. Allerdings gibt es hierfür weder Protokolle noch Standards; auch die Zwischenspeicherung optischer Pakete ist nicht befriedigend gelöst – das Puffern mit Verzögerungsleitungen ist nur ein Notnagel für Laborexperimente und bietet keinen willkürlichen Zugriff auf Speicherinhalte wie die RAMs der Elektronik.

Die paketorientierte Übertragung eignet sich besser bei sprunghaft schwankender Verkehrscharakteristik („bursty traffic“), die kanalvermittelte eher für gleichmäßige Datenströme. In den Kernnetzen sind Burst-Effekte allerdings durch die hohe Aggregation des Verkehrs statistisch bereits weitgehend abgemildert. Daher gibt es auch Ansätze zu Hybridkonzepten wie beispielsweise dem Optical Burst Switching (OBS), bei dem für einen ganzen Schwung von Paketen mit der gleichen Zieladresse kurzzeitig ein Kanal zum Zielhost auf- und wieder abgebaut wird. Letztlich ist alles eine Frage der optimalen „Granularität“, aber darüber tagt die Jury noch.