Schmalspur

Gegen das Internet hat sich die klassische Telekommunikationsbranche lange gewehrt; jetzt umarmen die Ewiggestrigen es so, dass es zu ersticken droht. Offiziell wird der Abschied von der Netzneutralität heruntergespielt, doch in Wirklichkeit geht es um eine fundamentale Weichenstellung für die Informationsgesellschaft.

In Pocket speichern vorlesen Druckansicht 28 Kommentare lesen
Lesezeit: 35 Min.
Von
  • Richard Sietmann
Inhaltsverzeichnis

Das Konzept der Netzneutralität, lässt die Deutsche Telekom verlauten, sei „eine Lösung auf der Suche nach einem Problem“; die Diskussion darüber betrachtet Telekom-Chef René Obermann als „eine Scheindebatte“. Doch wenn dem so ist, dann sind offenbar eine Reihe ansehnlicher Gremien und Institutionen in die Virtualität abgedriftet. Seit geraumer Zeit arbeiten sich in den USA Regierung, Kongress, die Regulierungsbehörde FCC und Gerichte an dem Thema ab. Diesseits des Atlantik setzen sich inzwischen die Europäische Kommission, die britische Regulierungsbehörde Ofcom, eine Enquetekommission des Deutschen Bundestags sowie unzählige Verbände mit dem Begriff auseinander – alles nur zum Schein?

Den Ausgangspunkt der „Scheindebatte“ bilden zwei Entwicklungen. Die eine resultiert aus der Technik, die den Betreibern neue Freiheiten gibt. Durch die Umstellung auf Next-Generation Networks (NGN) und die Einführung intelligenter Netzwerkfunktionen (IN) können sie die Datenströme auf der Transportebene feinkörniger erfassen und steuern [1] . Die IN-Funktionen greifen auf Netzelemente wie Leitungskarten, Edge Router und Border Gateways zu. Damit kann das Netzmanagement über sogenannte Access Management Functions die Anschlüsse der einzelnen Teilnehmer überwachen und dynamisch konfigurieren und ebenso den Verkehr am Oberlauf des Zugangsnetzes über Border Gateway Functions in den Übergabepunkten zu anderen Netzen.

Der zweite Faktor ist der steigende Bandbreitenbedarf durch das immer beliebter werdende Videostreaming. Das sind längst nicht mehr nur nutzergenerierte Videos à la YouTube; zunehmend setzen professionelle Programmveranstalter und große Medienkonzerne auf das Internet als zusätzlichen Vertriebskanal [2] . Es handelt sich um eine veritable Herausforderung. Betreiber, die ihr Zugangsnetz in der Vergangenheit ausgebaut und genügend Kapazität auf den Teilnehmeranschlussleitungen (TALs) geschaffen haben, können ihr gelassen entgegensehen. Die anderen – und das sind in den meisten Ländern überwiegend die Ex-Monopolisten, die auf den alten Telefon- und Koaxleitungen operieren – müssen jetzt mit den vorhandenen Übertragungskapazitäten wirtschaften und aufpassen, dass sie nicht in eine Abwärtsspirale geraten, nämlich Kunden verlieren und damit auch die Einnahmen, die sie für die Aufrüstung der Bandbreite zum Beispiel mit FTTH dringend benötigen.

NGN und IN stellen die Instrumente zur Rationierung der vorhandenen Ressourcen bereit. „Heute bieten IP-Netze der neueren Generation genau die erforderlichen technischen Möglichkeiten, knappe Kapazität zu managen, etwa durch die Einführung unterschiedlicher Verkehrsklassen“, erklärte der Präsident der Bundesnetzagentur (BNetzA), Matthias Kurth. An die Stelle des „Best Effort“-Internet mit dem „Einer nach dem andern“-Prinzip in den Paketvermittlungen tritt die Priorisierung von Schnellspuren durch das Netz; unerwünschte bandbreitenhungrige Applikationen wie etwa das P2P-Videostreaming können gedrosselt, andere gegen Entgelt bevorrechtigt werden.

Technik und Geschäftsmodelle gehen dabei nahtlos ineinander über. Ob die neuen Instrumente tatsächlich nur zur Optimierung des Netzverkehrs oder zur strategischen Durchsetzung bestimmter Geschäftsinteressen dienen – die Übergänge sind fließend und für Außenstehende nicht einsehbar. Darum, wie die Ressourcen im einzelnen verteilt und administriert werden, rankt sich inzwischen eine eigene Industrie von Ausrüstern, die die Telekoms mit Netzwerkmanagement-Systemen beliefern. Das Netzmanagement muss sich längst nicht mehr allein auf die Informationen in den IP-Paket-Headern verlassen, mit denen die IP-Pakete bislang durchs Internet geroutet wurden. Dank Deep Packet Inspection (DPI) kann es die Informationen der höheren Protokollschichten auswerten, also in die Nutzlast eines IP-Paketes hineinsehen, die beispielsweise aus einem TCP-Paket mit eigenem Header und Nutzlast besteht, und diese vielleicht wiederum eine HTTP-Nachricht oder ein SMTP-Paket mit Header und Nutzlast enthält.

Diese Informationen lassen sich praktisch in Echtzeit beliebig feinkörnig bis hinunter auf die Inhalteebene zur Überwachung und zur Durchsetzung bestimmter Geschäftsinteressen auswerten. Verschlüsseln hilft dagegen wenig. Die simple Mustererkennung funktioniert dann zwar nicht mehr, sodass der eigentliche Inhalt unlesbar bleibt, aber die Ausrüster bieten längst ausgefeilte statistische Methoden an, die trotz Verschlüsselung Streaming- oder P2P-Anwendungen erkennbar machen. „Die Verschlüsselung hat kaum Auswirkungen auf die Fähigkeit fortgeschrittener DPI-Systeme zur präzisen Klassifikation des Verkehrs“, rühmt sich einer der führenden Hersteller von DPI-Systemen in Europa, das Leipziger Unternehmen ipoque.

Beispiele für geschäftspolitisch motivierte Eingriffe und Einschränkungen gibt es zuhauf. So blockieren manche WLAN-Betreiber in Hotels den Mailverkehr für Kunden, die zwar einen Voucher für den Internetzugang erworben haben, der aber nur zum Websurfen taugt; damit zwingen sie den arglosen Erwerber des Vouchers auf das gegen ein Aufgeld separat angebotene, betreibereigene Business-Mail-System. Und wer derzeit auf dem Lande dank „Digitaler Dividende“ endlich in den Genuss eines Breitbandanschlusses mit dem LTE-Festnetzersatz kommt, erhält ihn zu den Bedingungen des Mobilfunks, indem im Kleingedruckten dem Kunden mitgeteilt wird: „Die Nutzung des Tarifes für Voice over IP und Peer-to-Peer Kommunikation ist nicht gestattet.“

Die Freiheit, die sich die Mobilfunkbetreiber genommen haben – Netzbetrieb und Dienste in einem Closed Shop kontrolliert miteinander zu verknüpfen – soll auch im Festnetz die Norm werden. In dem Streit um das Für und Wider drängen die Betreiber und ihre Verbände die Anhänger der Netzneutralität erfolgreich in die Defensive, indem sie die Einführung intelligenter Netzfunktionen als eine quasi natürliche Evolution der Netze – mithin als „alternativlos“ – darstellen. „Ohne die Freiheit, Produkte und Dienste nach Preis und Qualität zu differenzieren, würde die technische Evolution stark behindert und könnten neue Geschäftsmodelle nicht am Markt erprobt werden“, warnt der Bitkom in einem Positionspapier. Und sollte man die technische Entwicklung beschneiden? Natürlich nicht; selbst wenn die neuen Geschäftsmodelle in Wirklichkeit die alten sind.

In der Tat ist es schwierig, das Wesen der Netzneutralität an jedem einzelnen der umstrittenen Punkte festzumachen. Die Drosselung bandbreitenhungriger Anwendungen zu Spitzenlastzeiten kann ja wirklich einer gerechteren Verteilung der Übertragungskapazität gemeinsam genutzter Ressourcen dienen. Die Priorisierung eines 110-Anrufes wird jeder spätestens dann begrüßen, wenn er selbst in einer Notlage steckt. Sogar das umstrittene DPI hat seine positiven Seiten. Es leistet gute Dienste beim Eindämmen der Spam-Plage, indem es das Versenden unter falscher Mailadresse erschwert.

Unter Berufung auf die Netzneutralität wird man schwerlich gegen die Einführung von Quality-of-Services (QoS) argumentieren können – Protokolle wie DiffServ (RFC 2475) und IntServ (RFC 1633) sehen unterschiedliche QoS-Klassen seit Mitte der neunziger Jahre ausdrücklich vor, auch wenn sie Provider-übergreifend bisher nicht sehr weit verbreitet sind. Nicht einmal das Best-Effort-Prinzip der IP-Paketvermittlung muss auf ewige Zeiten festgeschrieben bleiben. Viele Forscher sind zu der Überzeugung gelangt, dass für länger andauernde gleichmäßige Datenströme zwischen Sender und Empfänger das Packet Switching unverhältnismäßig energie- und rechenzeitaufwendig ist und es daher naheliegt, bei Streaming-Applikationen zum Prinzip der Leitungsvermittlung zurückzukehren. Die Ansätze zur Netzvirtualisierung eröffnen für diesen Fall die Möglichkeit, für die unterschiedlichen Verkehrsarten optimierte Netze parallel auf derselben physikalischen Plattform zu betreiben.

So kann die Ausdifferenzierung von Verkehrsklassen mit definierter Dienstegüte für bestimmte Anwendungen durchaus sinnvoll sein. Kein Mensch stößt sich daran, ob die Mail ein paar Zehntelsekunden früher oder später beim Empfänger eintrifft; dagegen wirken sich Verzögerungen dieser Größenordnung in Telefongesprächen, Videokonferenzen und Online-Games lästig bis unerträglich störend aus. Und was soll falsch daran sein, unterschiedliche Qualität unterschiedlich zu bepreisen? „Auch bei Briefen und Paketen kann ein Kunde wählen, ob er eine herkömmliche oder – gegen ein höheres Entgelt – eine Expresszustellung wählt“, argumentiert BNetzA-Chef Matthias Kurth. „Im Grundsatz sollte auch im Internet der Nutzer souverän entscheiden können, ob er den Standard oder eine höhere Qualität oder auch welche Dienste er nutzt.“

Aber: Schon heute können die Endteilnehmer verschiedene Anschlussgeschwindigkeiten – die ein wesentlicher Bestandteil der Dienstgüte sind – wählen, und wo höhere Übertragungsraten zur Verfügung stehen, sind sie durchaus bereit, mehr dafür zu zahlen. Wenn aber Netzmanagement, Priorisierung, DPI, Traffic Shaping, QoS-Klassen und Preisdifferenzierung nicht schon per se eine Verletzung der Netzneutralität darstellen und das Internet selbst nicht einmal neutral ist, woran lässt sich dann festmachen, wann die rote Linie überschritten ist? Das Konzept sei „schwierig genau zu definieren“, meinen selbst intime Kenner des Internet wie der Princeton-Informatiker Edward Felten.

In die allseitige Verwirrung hat der Erfinder des World Wide Web, Tim Berners-Lee, eine Definition eingebracht, die so simpel ist, dass man ihr die Genialität erst auf den zweiten Blick ansieht. „Netzneutralität bedeutet“, erklärte der Brite, „dass, wenn ich für eine Internetanbindung mit einer bestimmtem Qualität bezahlt habe, sagen wir für 300 Mbit/s, und Sie haben für dieselbe Qualität bezahlt, dann sollte unsere Kommunikation auch mit dieser Qualität stattfinden.“ [3] Neutral ist ein Netz demnach dann, wenn es eine unmittelbare Beziehung zwischen den kommunikationswilligen Teilnehmern herstellt, ohne dass der Netzbetreiber seine Plattform dazu benutzt, auf die Konnektivität zugunsten oder zulasten bestimmter Endkunden, Inhalte oder Dienste Einfluss zu nehmen. Ob hinter dem Begriff Endkunde der User mit dem Tablet oder ein großes Medienhaus stecken, ist dabei belanglos, solange Content-Provider und Konsumenten als Kommunikationsteilnehmer autonom agieren können.

Derzeit operieren die Anschlussnetzbetreiber beim Internetzugang unter einem De-facto-Neutralitätsregime. Sie verlangen von Inhalte- oder Diensteanbietern wie Wikipedia, Google, Amazon, ARD/ZDF oder Facebook keine Entgelte für die Durchleitung der Datenströme, den ihre Kunden bei den Anbietern abrufen. Selbst die größten Medienlieferanten entrichten die Entgelte nur bei ihrem Internet-Provider, der sie mit dem Internet verbindet. Aber mit dieser Struktur ist eine Asymmetrie verbunden: Die Gelder für die dicken Röhren zur breitbandigen Internetanbindung werden von denjenigen Providern eingesammelt, die die großen Medienhäuser bedienen, nicht bei den Zugangsnetzbetreibern, die die Datenströme an ihre Kunden verteilen. Die können Betrieb und Netzausbau nur aus den Entgelten finanzieren, den ihre Endkunden für den Teilnehmeranschluss zahlen.

In Next-Generation Networks (NGN) steuern intelligente Netzfunktionen die Übergabepunkte zu den Teilnehmern sowie am Oberlauf zu anderen Netzen. Damit haben die Zugangsnetzbetreiber alle Stellschrauben in der Hand, Content-Provider in entfernten Netzen zu tarifieren, ihr Sortiment zu priorisieren und den gewohnten Internetzugang nach Belieben zu marginalisieren.

Auf der Suche nach zusätzlichen Erlösquellen hatte der frühere AT&T-Chef Edward Whitacre schon 2005 die Losung ausgegeben, zusätzlich auch die Content-Provider für die Nutzung der Zugangsnetze zur Kasse zu bitten. „Warum sollte es ihnen erlaubt sein, meine Leitungen zu nutzen?“, beschwerte sich der Spitzenmanager. „Das Internet kann an dieser Stelle nicht umsonst sein, denn wir und die Kabelgesellschaften haben Investitionen getätigt, und wenn Google oder Yahoo oder Vonage oder irgendjemand erwarten, diese Leitungen umsonst nutzen zu können, dann ist das verrückt“.

Nun machen gerade die Angebote der großen Medienhäuser Breitbandanschlüsse in den Zugangsnetzen für viele Kunden attraktiv. Es ist mitnichten so, dass sie Trittbrettfahrer wären, die vorhandene Netze umsonst nutzen würden; sie zahlen für die Bandbreite – nur aus der Sicht Whitacres offenbar an die falschen Betreiber. Aber seitdem der Amerikaner unverblümt aus der Schule plauderte, hat sich der Gedanke, die Netzdienste auch nach oben hin zu verkaufen, wie ein Virus in den Vorstandsetagen der Ex-Monopolisten festgefressen. „Wir sehen uns als Partner der Inhalteanbieter“, formuliert Telekom-Chef Obermann das Anliegen etwas sanfter als sein amerikanischer Kollege, „und wollen ihnen ermöglichen, immer bessere Angebote und Preismodelle an den Markt zu bringen.“.

Heute würden vor allem diejenigen vom wachsenden Datenverkehr profitieren, die ihn verursachen, nämlich die Content-Websites und Internetdienste-Anbieter, sowie diejenigen, die ihn konsumieren, nämlich die Endverbraucher – „die Netzbetreiber indes verdienen heute gar nichts am zusätzlichen Datenverkehr“, streute erst jüngst wieder eine Studie von A. T. Kearney die bekannte Klage in die Runde. In Auftrag gegeben hatten sie die Deutsche Telekom, France Telecom-Orange, Telecom Italia und Telefónica – alles ehemalige Staatsunternehmen (sogenannte Incumbents), die in ihren Heimatländern den Markt der Zugangsnetze beherrschen.

Auch Telekommunikatonsausrüster, die sich als Leidtragende flacher Netzstrukturen sehen und ein neues Geschäftsfeld wittern, sind begeistert auf Whitacres Losung aufgesprungen. QoS-Klassen mit Überhol-, Schnell- und Kriechspuren zu jeweils unterschiedlichen Preisen – „das ist der Weg nach vorn, auf dem Netzbetreiber vom kreativen Web profitieren können“, erklärte unlängst der Sprecher von Alcatel-Lucent Deutschland. „Wir werden in Zukunft – und die beginnt aus unserer Sicht relativ rasch – QoS-Parameter je Applikation wie MySpace, Joost, YouTube und so weiter anbieten können.“ In einer solchen Architektur würden die Anbieter „am Ende sogar Geld abgeben, damit ihre Anwendungen besser über das Netz transportiert werden“.

Nur: Wie gelangt man an das Geld der Googles, YouTubes, Facebooks? In den USA hat der Primus unter den Kabelfernsehgesellschaften, Comcast, Ende vergangenen Jahres bei einem seiner Backbone Provider, Level 3, einen ersten Anlauf genommen. Netflix, einer der größten Video-Streaming-Anbieter in den USA, streamt seine Videos über Level 3 ins Netz und bezahlt diesen Provider für die bereitgestellte Bandbreite. Die Kunden von Comcast bezahlen ihre Kabelgesellschaft für den Internetzugang. Beide Provider werden also für die erbrachten Dienste bezahlt, man sollte meinen, so ist die Welt in Ordnung. Nun müssen aber die Videoströme, die Comcast-Kunden bei Netflix abrufen, auf ihrem Weg vom Level-3-Netz in das Comcast-Netz gelangen, und der Austauschpunkt, wo Bits heute noch unterschiedslos Bits sind, ist der ideale Standort für ein Mauthäuschen, um den Austausch von Videodaten anders abzurechnen als den sonstigen Datenverkehr.

Die Beschwerde von Level 3 gegen das Vorgehen von Comcast wird nun zum ersten Härtetest für die von der FCC im Dezember mit der knappen Mehrheit von drei demokratischen gegen zwei republikanische Kommissionsmitglieder verabschiedeten Grundsätze zur Netzneutralität, mit denen die Regulierungsbehörde ohne die politische Unterstützung aus dem Kongress nach Ansicht von Kritikern wie Lawrence Lessig der geballten Lobby ohnehin nicht gewachsen ist. Und – wer hätte das gedacht? – zur Abwehr der Neutralitätsverpflichtungen ziehen zwei Speerspitzen aus den konkurrierenden Lagern der Telefon- und Kabelgesellschaften plötzlich an einem Strang: Ende Januar stellte sich Telefon-Incumbent Verizon in einem Schreiben an die FCC ausdrücklich auf die Seite des Kabel-Incumbent Comcast.

In den meisten Fällen haben es die Zugangsnetzbetreiber stromaufwärts allerdings nicht direkt mit den Providern der Inhalte- und Applikationsanbietern zu tun, sondern mit anderen Netzbetreibern und Backbone-Providern. Es wäre ein mühsamer Prozess, in bilateralen Verhandlungen mit den Betreibern aller Austauschknoten, die am Transit beteiligt sind, die gleichen Verkehrsklassen, Priorisierungsregeln und Entgeltstrukturen einzuführen.

Doch mit der Einführung DPI-gestützter intelligenter Netzfunktionen an den Austauschpunkten muss ein Provider nicht abwarten, bis Schritt für Schritt alle anderen nachgezogen haben; er kann nun unilateral – ohne die Mitwirkung der anderen vorgehen und solange Politik und Bürger das tolerieren – den Inhalte- und Diensteanbietern den Zugang zu den eigenen Kunden direkt in Rechnung stellen. Die Einführung solcher Terminierungsentgelte für Inhalte und Dienste wäre eine fundamentale Weichenstellung: Mit dem Aufstellen von Mauthäuschen am Oberlauf würden die Zugangsnetzbetreiber den Direktvertrieb der Medienkonzerne und Diensteanbieter umgehen und mit sich selbst als Zwischenhändler den Strukturvertrieb erzwingen: Das Streaming ist priorisiert; Videos von Hulu sind etwas billiger, die von Google TV ein wenig teurer; im Bündelpaket mit der Suchmaschine AltaVista ist das Websurfen umsonst, ab einer gewissen Größe kosten Webseitenaufrufe extra; E-Mails bleiben unentgeltlich, aber für Multimedia-Mails und Video-Grußbotschaften wird ein Porto fällig; Homeshopping-Kanäle wie HSE24, QVC oder 1-2-3.tv können für die Werbung im HD-Format 10 MBit/s dazubuchen, sodass die Bandbreite auf der TAL nicht mehr allein vom Anschlussvertrag mit dem Betreiber abhängt – es ist ein Land der unbegrenzten Möglichkeiten, das sich da eröffnet.

Mit der Begründung, die zusätzlichen Erlöse könnten in die Aufrüstung der Infrastruktur gesteckt werden, stoßen alle in dasselbe Horn. „QoS-Differenzierung und Preisdifferenzierung werden zur Finanzierung des Ausbaus der Breitband-Infrastruktur beitragen“, betont auch die Deutsche Telekom. Man sollte meinen, die Zugangsnetzbetreiber hätten die Endkundentarife bisher so kalkuliert, dass sie über den Abschreibungszeitraum den Neubeschaffungswert der Teilnehmeranschlussleitung erwirtschaften. Wenn sie dazu jetzt neue Erlösquellen benötigen, ist das wohl eher ein Eingeständnis, dass sie das vorhandene Netz auf Verschleiß betrieben haben.

Die Einführung von Mauthäuschen am Oberlauf ist jedoch nicht bloß ein Geschäftsmodell, mit dem die marktbeherrschenden Zugangsnetzbetreiber die Wurst von beiden Enden anschneiden wollen; sie zielt auf eine gänzlich neue Marktordnung, in der sie die sogenannten Netzwerkeffekte kontrollieren können.

Die Attraktivität und der Wert des Internet beruhen bekanntlich wie beim alten Telefonnetz auf der Konnektivität, die es ermöglicht. Je mehr Teilnehmer es gibt und man per Mail oder Chat erreichen kann, oder je mehr Sites sich über das Web erschließen lassen, desto attraktiver ist es, selbst zum Teilnehmer zu werden. Das ist das nach dem Erfinder des Ethernet, Robert Metcalfe, benannte „Metcalfe’s Law“: Der Wert v für den einzelnen User steigt proportional zur Zahl n der User, die über das Netz bereits erreichbar sind, v ~n, sodass der Gesamtwert V = n x v des Netzes quadratisch mit der Zahl der Nutzer zunimmt: V ~n2.

Das Festnetz, das einem die Konnektivität herstellt und den Zugang zum Internet ermöglicht, war bisher ein einseitiger Markt: Die Betreiber finanzieren die Infrastrukturplattform ausschließlich über die Entgelte der Endkunden, indem diese üblicherweise eine monatliche Flatrate in einer je nach Bandbreite unterschiedlichen Höhe zahlen. Damit operieren sie derzeit wie ein klassischer Einzelhändler in einer linearen Distributionskette: Sie beziehen im Großhandel die Konnektivität über die Netzzusammenschaltung (Interconnection) und verkaufen diese Konnektivität über die eigenen Transportleitungen und Teilnehmeranschlüsse an die Endteilnehmer.

Mit dem Übergang zu zweiseitigen Märkten kommt eine neue Qualität ins Spiel, sodass sich auch die Netzeffekte anders darstellen. Jetzt verknüpft die Plattform zwei unterschiedliche Kundengruppen netzartig miteinander, die aufeinander bezogen sind und idealerweise einer positiven Rückkoppelung unterliegen: Der Wert der zweiseitigen Plattform für den einzelnen Kunden hängt in erster Linie von der Zahl der Kunden des Plattform-Betreibers auf der anderen Seite ab – so, wie eine Shopping Mall umso attraktiver ist, je mehr Läden es darin gibt, und umgekehrt das Anmieten eines Ladens umso lohnenswerter, je mehr Kundschaft die Shopping Mall anzieht.

Deshalb hinkt auch der von BNetzA-Präsident Matthias Kurth angeführte Vergleich der neuen Internetstrukturen mit der Expresszustellung von Briefen und Paketen. Bei der Post kann der Endkunde zwar unter zahlreichen unterschiedlich tarifierten Versand- und Zustellungsoptionen wählen, aber ein Auftragsverhältnis besteht nur mit demjenigen, der die Sendung aufgibt; der Empfänger ist nicht ihr Kunde und kann ihr gegenüber keine Ansprüche geltend machen. Die Post ist völlig unabhängig davon, ob unterschiedliche Dienste zu unterschiedlichen Tarifen angeboten werden, ein einseitiger Markt, auf dem jeder Absender und Adressat zugleich sein kann.

Die Analyse zweiseitiger Märkte ist ein relativ junges Feld der Wirtschaftswissenschaften, das aus Untersuchungen zum Henne-Ei-Problem hervorging, also Situationen, in denen eine Seite ihr Verhalten, wie zum Beispiel eine Kauf- oder Beitrittsentscheidung, vom Verhalten einer anderen abhängig macht. Die Rolle des Plattform-Betreibers in solchen Situationen haben jedoch erst die beiden französischen Ökonomen Jean-Charles Rochet und Jean Tirole 2003 in einer bahnbrechenden Arbeit in den Mittelpunkt der Betrachtung gerückt [4] . „Ein Markt mit Netzwerkeffekten ist ein zweiseitiger Markt“, so ihre Definition, „wenn eine Plattform zwischen den unterschiedlichen Gruppen von Kunden, die als Teilnehmer von Transaktionen auftreten, Quer-Subventionen durchsetzen kann.“

Ein zweiseitiger Markt liegt also immer dann vor, wenn der Betreiber die Möglichkeit besitzt, den Gesamtumsatz auf der Plattform zu steigern, indem er die kaufkräftigere Kundengruppe stärker zur Kasse bittet als die weniger zahlungsbereite und er auf diese Weise die Umsatzanteile gezielt auf die an den Transaktionen teilnehmenden Parteien verteilen kann. Als Standardbeispiel wird gern der Kreditkartenmarkt herangezogen. Die Plattform ist das Zahlungssystem, über das der Betreiber Händler und Konsumenten verknüpft. Kreditkartenbesitzer schätzen das Zahlungsmittel in dem Maße, wie es von den Händlern akzeptiert wird, diese profitieren wiederum von der weiten Verbreitung bei den Konsumenten. Und je nachdem, wie sie beide Kundengruppen bepreisen, haben es Kreditkartenorganisationen in der Hand, ob sie eine exklusive Markenführung oder ein Massengeschäft betreiben.

Die Betreiber der Infrastruktur-Plattform, so haben schon Rochet und Tirole beobachtet, behandeln oft die eine Kundengruppe als Gewinnbringer und nehmen sogar Verluste bei der anderen in Kauf; die Aufteilung bleibt willkürlich und verfolgt fast immer strategische Ziele. Nach dem Muster des „strategic pricing“ warf das Unternehmen Adobe Systems den Dateibetrachter Adobe Reader kostenlos auf den Markt, während es Desktop-Publishing-Programme wie PDF Writer oder PageMaker hochpreisig verkaufte; so hat es PDF erfolgreich als Standard für ein über unterschiedliche Betriebssysteme und Drucker hinweg layoutgetreues Dokumentformat etabliert. Netscape kopierte wie später viele andere dieses Vorgehen, indem es den Netscape-Browser kostenlos vertrieb und das eigentliche Geschäft mit der Server-Software machte.

Die strategische Preispolitik kann durchaus ins Auge gehen, wie der ebenfalls zweiseitige Markt für PC-Betriebssysteme zeigt, der über die Betriebssystem-Plattform die Entwickler von Software-Anwendungen und deren Nutzer aneinander bindet. Die Geschichte von Apple und Microsoft kann da teilweise ebenfalls als Beispiel dienen: Während Apple hochpreisige Endprodukte verkaufte und unabhängige Anwendungsentwickler für das Software Development Kit (SDK) ebenfalls kräftig zur Kasse bat, gab Microsoft die Windows-SDKs unentgeltlich ab. Der Ausgang ist bekannt – zur Zeit des Kartellverfahrens gegen Microsoft gab es sechsmal so viele Anwendungsprogramme für Windows wie für den Macintosh und Apple überlebte später nur mit einer Finanzhilfe von Microsoft.

Wer das Klavier richtig spielt, so die Philosophie, kann über die Netzwerkeffekte den Markt an sich reißen, die Gewinne in die Höhe jubeln und die Bedingungen diktieren. Die Monopol-Stellung von Microsoft, eBay oder Google findet hierin die Erklärung. Der Wettbewerb der Plattformen ist keiner, der durch ein stabiles Gleichgewicht mehrerer Player gekennzeichnet ist, sondern ein Überlebenskampf, aus dem der Stärkste als Sieger hervorgeht. Strategische Tipps, wie man ihn gewinnt, geben Ökonomen in der Harvard Business Review [5] , dem Führungsmanual auf Vorstandsetagen.

Wenn viele zweiseitige Märkte nahezu ausschließlich von einer einzigen Plattform bedient werden, so ist das kein Ergebnis, das Ziel einer auf wirksamen Wettbewerb gerichteten Politik sein kann. Doch auch die alternativen Netzbetreiber, die auf die neuen Stellschrauben als Gatekeeper so erpicht sind, stehen vor der Frage, ob sie am Ende wirklich besser dastehen und sie nicht zum Opfer eines Konsolidierungsprozesses werden, aus dem am Ende nur einer der Incumbents oder ein Duopol der alten Festnetzbetreiber gestärkt hervorgeht.

Komplexität erhöht die Transaktionskosten, und die können sich auf Dauer nur die großen Player leisten. So begünstigt der Matthäus-Effekt die Verhandlungsmacht der Großen (Matth. 13,12: „Denn jedem, der hat, wird noch mehr gegeben werden, so dass er Überfluss haben wird. Dem aber, der nicht hat, wird auch das, was er hat, genommen werden“). Ein Unternehmen mit 5 Millionen Anschlusskunden kann gegenüber Content-Providern anders auftreten als ein kleiner Betreiber, der in Preisverhandlungen nur 50 000 Endkundenzugänge anzubieten hat. Er müsste dann mangels vergleichbar hoher Erlöse am Oberlauf stärker die Endkunden am Unterlauf belasten, wodurch sich seine Wettbewerbsfähigkeit gegenüber den Incumbents ein weiteres Mal verschlechtert. Was der BREKO-Verband fordert, kann daher kaum im Interesse der BREKO-Mitglieder sein.

Vom einseitigen (a) zum zweiseitigen (b) Internet-Zugangsmarkt: (a) Das Ziel von Kommunikationsnetzen ist die Konnektivität; ihr Wert steigt mit der Zahl der ermöglichten Verbindungen. (b) In einem zweiseitigen Markt hängt der Wert des Netzes von der Zahl der Teilnehmer auf der jeweils anderen Seite ab.

Ein ähnlicher Konzentrationsprozess zeichnet sich bei den Inhalteanbietern ab; große Medienhäuser und Content-Provider können sich hohe Eintrittsgelder für den Endkundenzugang leisten, kleine Webschmieden, Blogger oder Start-ups eher nicht. Selbst für die Ex-Monopolisten kann der Schuss nach hinten losgehen. Denn was passiert, wenn marktmächtige Medienhäuser wie Hulu oder YouTube den Spieß einfach umdrehen und mit ihren etablierten Endkundenbeziehungen nun ihrerseits Entgelte für die Einspeisung verlangen?

Dafür gibt es in den USA bereits Vorbilder. ESPN3 zum Beispiel ist der Internet-TV-Vertriebsweg des Entertainment and Sports Programming Network (ESPN), einem Spartenprogramm, das zu 80 Prozent Disney, zu 20 Prozent Hearst gehört und das jährlich rund um die Uhr mehr als 3500 Sportveranstaltungen überträgt. Statt selbst direkte Endkundenbeziehungen einzugehen, vergibt ESPN3 Lizenzen an Provider. Wenn der Provider für die Einspeisung bezahlt, kommt der Endkunde in den Genuss der Sportsendungen, sonst nicht. Rund die Hälfte der Breitbandhaushalte in den USA erreicht der für Sportfreunde attraktive Kanal bereits auf diese Weise. Solch ein Modell ist das exakte Gegenteil dessen, was sich die Zugangsnetzbetreiber erhoffen. Statt Gelder von den Content-Providern für den Netzausbau zu erhalten, müssen sie nun selbst zahlen, um an die Inhalte zu gelangen.

Die Vertragsfreiheit am Oberlauf beinhaltet auch die Möglichkeit, dass kein Vertrag zustande kommt. Das bedeutet, dass Betreiber A eine andere Konnektivität herstellt als Betreiber B, ganz ähnlich wie sich IPTV und Kabel-TV in ihrem Programmangebot unterscheiden. Im Grunde wird ja deren Geschäftsmodell als Zwischenhändler für Programmveranstalter und Inhalteanbieter auf das Internet übertragen. Die Folge ist eine Fragmentierung des Netzzugangs. Abhängig davon, über welchen Provider man ins Netz geht, wird die Erfahrung eine andere sein.

Folgen der Vertragsfreiheit am Oberlauf: Der Online-Sportkanal ESPN3 verlangt von den Providern Einspeiseentgelte für sein Programm und ist dadurch für die Hälfte der US-Internethaushalte nicht erreichbar.

Wer die Netzneutralität aufgibt, dreht das Rad der Geschichte zurück. Das Geheimnis des Internet ist die weltweite Konnektivität, die Vernetzung von allem und jedem. Doch jede Diskriminierung auf der User-Seite schränkt die Erreichbarkeit der Teilnehmer ein, indem sie diese von der Nutzung bestimmter Anwendungen und Protokolle ausschließt; jede Diskriminierung auf der Content-Provider-Seite verringert die Zahl der erreichbaren Anbieter. Sowohl das eine wie das andere mindert den Gesamtwert des Netzes. Das hat eine volkswirtschaftliche Dimension – Ökonomen sprechen von „negativen Externalitäten“ –, aber auch eine juristische.

Dass jede Einschränkung der Konnektivität das Grundrecht auf informationelle Selbstbestimmung berührt, ist offensichtlich. Soweit sich die Konnektivität auf das gute alte Telefonnetz bezieht, war und ist sie staatlich garantiert. Seitdem zum Zwecke der Privatisierung der Bundespost 1994 das Grundgesetz geändert wurde, die Telekommunikation keine Aufgabe der staatlichen Daseinsvorsorge mehr ist und der Netzausbau der privaten Wirtschaft überlassen wurde, hat der Staat in diesem Bereich nur mehr eine „Gewährleistungspflicht“. Über deren Umfang gehen die Meinungen auseinander, doch inzwischen mehren sich die Stimmen, dass diese Gewährleistungspflicht auch die Internetversorgung umfassen sollte und die deshalb ein Einschreiten des Gesetzgebers für erforderlich halten.

„Die Offenheit des Kommunikationsprozesses ist nicht mehr, wie es bisher im Internet der Fall war – quasi automatisch – durch die Architektur des Netzes garantiert“, meint etwa der Medienrechtler Bernd Holznagel von der Universität Münster. Deshalb müsse nun „politisch entschieden werden, ob und vor allem mit welchen regulatorischen Mitteln das Prinzip der Netzneutralität zukünftig gesichert werden soll“. Der Gesetzgeber sei jedenfalls befugt, „schon bei einem geringen Gefährdungspotential zu handeln“. Denn mit dem Internet ist „ein historisch einmaliger Kommunikationsraum“ entstanden, der heute „zur kommunikativen Grundversorgung“ gehöre. So könne sich der Bürger aus einer bisher nicht gekannten Vielzahl von Quellen informieren und – ohne Verleger oder Rundfunkanbieter einzuschalten – mit seiner Meinungsäußerung die Öffentlichkeit erreichen. „Das Internet ist für alle Bevölkerungsschichten maßgeblich, um an den Segnungen von E-Commerce oder E-Government teilzuhaben“, erklärt Holznagel. „Daraus folgt, dass jedenfalls der Zugang zum Internet oder – anders ausgedrückt – eine Versorgung mit Internetdiensten sicherzustellen ist“. [6]

Der Münsteraner Medienrechtler fordert allerdings lediglich, dass „man die für die kommunikative Grundversorgung erforderlichen Internetdienste in den Must-Carry-Bereich aufnimmt“. Er hebt also nicht auf die Konnektivität, sondern nur auf den Zugang zu bestimmten Diensten ab. Konnektivität ist aber mehr als der Zugang zu Breitbandnetzen, nämlich, durch das Zugangsnetz hindurch ungehindert verfügbare Angebote nutzen zu können – also exakt so, wie Tim Berners-Lee die Netzneutralität definiert.

Dem Diskriminierungspotential und der Fragmentierung des Internet kommt man mit Must-Carry-Regelungen nicht bei. Denn im Grunde argumentieren die Incumbents nicht sehr viel anders als Holznagel. Um aus der juristischen Gefahrenzone eines Eingriffs in die von Artikel 5 des Grundgesetzes geschützte Informationsfreiheit heraus zu kommen, behaupten sie, dass sie das Internet in der gewohnten Form ja unangetastet lassen würden und es ihnen nur um zusätzliche Angebote ginge. „Das heutige Best-Effort-Internet wird in einem gemanagten NGN weiterhin existieren“, verkündet die Deutsche Telekom. „Es scheint ein generelles Missverständnis zu sein, dass sich der Wettbewerb vor allem auf den unterschiedlichen QoS-Ebenen entfalten wird, während die Best-Effort-Klasse vernachlässigt wird“. Der „scharfe Wettbewerb um Endkunden“ lasse jedoch eine Verschlechterung gar nicht zu.

Wirklich nicht? Die Zugangsnetzbetreiber haben mit dem NGN alle Stellschrauben in der Hand, um den gewohnten Internetzugang nach Belieben zu marginalisieren. Das Drehbuch könnte etwa so aussehen:

1. Friere die für das Best-Effort-Internet verfügbare Bandbreite ein.

2. Verzichte im Best-Effort-Bereich auf Traffic Engineering und lasse die Heavy User mit P2P-Anwendungen zu; das mag zu Engpässen führen, hat aber den öffentlichkeitswirksamen Vorteil, dass die Anhänger der Netzneutralität bekommen, was sie verlangen.

3. Der Verkehr von Anbietern und Kunden, die mehr zu zahlen bereit sind, wird priorisiert.

4. Die vom Best-Effort-Internet genervten Endkunden flüchten von der Kriechspur auf die Schnell- oder Überholspur in den teureren, gemanagten Bereich.

Je nach ideologischer Ausrichtung werden einige darin die unsichtbare Hand des Marktes sehen, die zum Nutzen aller wirkt, während andere dies eher als eine Bevormundung der Bürger betrachten, die in ihrer freien Wahlmöglichkeit beschnitten werden. Der eco-Verband der deutschen Internetwirtschaft sieht jedenfalls durchaus „die Gefahr, dass ein Unternehmen, das Quality-of-Service-Dienste anbietet, die Bandbreite künstlich verknappt, die in seinem Netz für Best-Effort-Dienstleistungen erforderlich ist. Auf diese Weise könnten Kunden gedrängt werden, für eine garantierte Bandbreite oder eine höhere Anzahl zur Verfügung stehender Dienste zu Quality-of-Service-Produkten zu wechseln“.

Es wären also sehr grundlegende gesellschaftliche Auseinandersetzungen zu führen. Aber wo sich die Sachwalter des Gemeinwohls derzeit äußern, verschanzen sie sich hinter altbekannten Formeln: Als Allheilmittel werden Wettbewerb der Anbieter, Transparenz der Angebote und Wechselwilligkeit der Kunden in die Diskussion geworfen. „Damit der Wettbewerb funktioniert“, erklärte die EU-Kommissarin für die Digitale Agenda, Neelie Kroes, „müssen die Verbraucher umfassend über die Verkehrsmanagement-Praktiken informiert und in der Lage sein, leicht zu einem alternativen Anbieter zu wechseln, wenn sie nicht zufrieden sind.“ Die Bundesregierung hält Netzneutralität zudem nicht für einen Begriff, den sie bei der jetzt anstehenden Novellierung im Telekommunikationsgesetz (TKG) verankert sehen möchte: „Die Instrumente des Wettbewerbsrechts sowie der regulatorische Rahmen, wie er in der TKG-Novelle formuliert ist, reichen aus heutiger Sicht aus, um Netzneutralität zu gewährleisten“.

Doch selbst sachkundige Endkunden werden extreme Schwierigkeiten haben, Verstöße nachzuweisen und durchzufechten. Ist das Drosseln noch zulässiges Netzmanagement oder bereits versteckte Diskriminierung? Zudem beziehen sich die Forderungen nach Transparenz nur auf das User-seitige Verkehrsmanagement. Die Bedingungen, unter denen die Betreiber die NGN-Funktionen am Oberlauf an Dritte vermarkten, kennen die Endkunden nicht, denn diese unterliegen dem Geschäftsgeheimnis. Gegen einen Zugangsnetzbetreiber, der sich vom Konnektivitätsdienstleister zum Versorgungsdisponenten mausert, hilft keine Transparenz. Wenn Vodafone etwa mit seinem LTE-Festnetzersatz auf dem flachen Land VoIP- und P2P-Anwendungen ausschließt und so die Konnektivität einschränkt, geschieht dies völlig transparent; eine Einschränkung ist es trotzdem.

Zu einem anderen Anbieter wechseln? Selbst unter Bedingungen vollständiger Transparenz, die in der Praxis nie gegeben sind, stehen dem die Transaktionskosten eines Provider-Wechsels entgegen. Zu den unmittelbaren Umstellungskosten kommen weitere Nachteile hinzu, insbesondere wenn bei vertikal integrierten Betreibern der Wechsel auch andere bezogene Dienste oder Vorzugstarife berührt, die zur Kundenbindung eingesetzt werden. Eine bekannte Wechselhürde ist beispielsweise der Verlust der bisherigen E-Mail-Konnektivität, weil E-Mail-Adressen im Unterschied zu Telefonnummern nicht portierbar sind. Und was nutzt es, wenn man künftig nach dem Wechsel nicht mehr googeln kann, sondern bei Yahoo oder Bing suchen muss?

Auch unter Konkurrenten gibt es einen Mainstream und gemeinsame Interessen. Sobald die Anreize so gesetzt sind, dass sich die Diskriminierung lohnt, wird die Suche nach einem neutralen Anbieter schwierig, weil alle dasselbe praktizieren. Der Verweis auf die Wechselmöglichkeit der Endkunden im Wettbewerb der Zugangs-Provider zäunt ohnehin das Pferd vom Schwanz her auf. Es ist nämlich der Content-Provider, der keine Alternative hat, den Endteilnehmer zu erreichen, weil die privaten Endkunden in der Regel nur über einen Zugangsnetzbetreiber ins Internet gehen, der somit über das Terminierungsmonopol verfügt [7] . Sobald ein Endnutzer sich für einen Provider entschieden hat, ist er praktisch nur noch über diesen erreichbar.

Nach allem, was bereits über zweiseitige Märkte bekannt ist, erscheint die Vorstellung, die Kunden würden die Netzbetreiber, oder diese sich gegenseitig, so in Schach halten, dass sich keiner den Abschied von der Netzneutralität leisten kann, bestenfalls naiv. Doch an die Stelle einer Klärung, wie zu verhindern wäre, dass die Konnektivität der Internetnutzer zum Spielball strategischer Geschäftsinteressen wird, setzen die Verantwortlichen in Berlin und Brüssel mit dem Beschwören von Wettbewerb, Transparenz und Wechselwilligkeit nur auf Leerformeln. Sollte es am Ende das sein, was Telekom-Chef René Obermann als „Scheindebatte“ vorschwebte?

[1] Richard Sietmann, Der stille Machtkampf, Wie sich Netzbetreiber und Ausrüster die Zukunft der Telekommunikationsnetze vorstellen, c’t 24/09, S. 90

[2] Richard Sietmann, Der fünfte Weg, Die Zukunft von IPTV, Internet-TV und die Netzneutralität, c’t 3/11, S. 72

[3] T. Berners-Lee, Long Live The Web, Sci. Am. 12 (2010) 56-61

[4] J-C Rochet, J. Tirole, Platform Competition in Two-Sided Markets, JEEA 6 (2003) 990

[5] T. Eisenmann, G. Parker, M. Van Alstyne, Strategies for Two-sided Markets, Harvard Business Review, 84 (2006) 92-101

[6] Bernd Holznagel, Netzneutralität als Aufgabe der Vielfaltsicherung, K&R 2 (2010) 95

[7] J. S. Marcus, D. Elixmann, The Future of IP Interconnection, Technical, Econommical and Public Policy Aspects, WIK Consult Study for the European Commission. (2008)

[8] I. Chettiar, J. Holladay, Free to Invest, The Economic Benefits of Preserving Net Neutrality, IPI Report Nr. 4 (2010)

[9] M. Riley, B. Scott, Deep Packet Inspection, The End of The Internet As We Know It? www.freepress.net (2009)

Zweiseitige Märkte
Plattform A B
Spielkonsole Spiele-Entwickler Spieler
Betriebssystem Anwendungsentwickler PC-Nutzer
Kreditkartensystem Händler Karteninhaber
Online-Zahlungssystem Händler Konsumenten
eID/nPA Internetdienste-Anbieter Konsumenten
Kaufhaus-Arkaden Ladenmieter Kunden
Mobilfunk anrufende Teilnehmer angerufene Teilnehmer
iPad Verleger iPad-Nutzer
Kabelfernsehen Programmveranstalter Kabelkunden

(jk)