Congestion Control: Die Idealwelten der Ökonomen und die Netzneutralität

Lassen sich Staus im Netz durch variierende Preismodelle verhindern? Ja, meinten Ökonomen beim Meeting der Internet Engineering Task Force (IETF). IETF-Teilnehmer, die durch solche Ansätze die Netzneutralität in Gefahr sehen, kritisierten dagegen, Überlastung sei schlicht ein Problem schlechten Managements oder zu knapp kalkulierter Kapazität beim Carrier.

In Pocket speichern vorlesen Druckansicht 31 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Monika Ermert

Lassen sich Staus im Netz durch variierende Preismodelle verhindern? Ja, meinten vier Ökonomen, die sich die Internet Engineering Task Force (IETF) zu ihrem Treffen diese Woche nach Maastricht geladen hatte, darunter auch der seit Juli 2007 als Chefökonom bei Google beschäftigte Hal Varian. Viele IETF-Entwickler sehen dies allerdings recht kritisch.

Bob Briscoe, Chefwissenschaftler bei British Telecom, erläuterte in Maastricht, immer neue Anwendungen versuchten immer mehr aus dem Netz herauszuholen, während auf Netzseite die Anstrengungen, das expansive Verhalten der Endsysteme zu kontrollieren (PDF-Datei), zunähmen. Ein regelrechtes Wettrüsten sei im Gang, konstatierte Briscoe. Wenn Unternehmen und Entwickler nicht gegensteuerten, würden überall im Netz Stellschrauben zur Drosselung und Blockade von Diensten angebracht. Maßnahmen wie Deep Packet Inspection, meinte der Wissenschaftler, könne man aber eben nicht gleichzeitig mit den von der IETF befürworteten Sicherungsmassnahmen im Netz haben, etwa IPSEC.

Aus Sicht der Ökonomen ist die Antwort auf das Problem in erster Linie eine monetäre. Varian verwies (PDF-Datei) auf sein allerdings schon recht altes Experiment, bei dem die Reaktionen einer kleinen Gruppe von Studierenden auf verschiedene Preismodelle getestet wurden. Dabei habe sich gezeigt, dass diese für nicht nach Volumen oder Zeit abgerechnete Flat-Tarife viel zu bezahlen bereit seien. Bandbreitentarife nach einer Stufenregelung seien für Nutzer viel leichter nachvollziehbar als Volumentarife.

Ramesh Johari, Ökonom der Stanford University, sekundierte (PDF-Datei), jegliche Allokation von Bandbreite während einer Überlastung impliziere eine Entscheidung, welcher Verkehr wertvoller sei. Damit effektiver gemanagt und auch mögliche Investitionen zur Erhöhung der Kapazität geplant werden könnten, müsse identifiziert werden, welche Nutzung am wertvollsten sei. Frank Kelly von der Universität Cambridge riet dazu, Lastverteilungen genauer (PDF-Datei) aufzudecken. Auf der Basis solcher tatsächlicher Werte seien dann verschiedene Gegenstrategien oder auch Preismodelle denkbar.

In diese Richtung arbeitet Briscoe auch im Rahmen der IETF-Arbeitsgruppe Conex. Die dort diskutierte Technik soll eine Signalisierung von Lastproblemen vom Endsystem zurück ans Netzwerk erlauben. Wie mit den genaueren Informationen in Bezug auf den Preis für den Nutzer umgegangen werden soll, sei dann wieder eine andere Frage. Briscoe hält es aber für den besseren Weg, erst einmal Transparenz herzustellen, statt unterschiedslos Volumengrenzen einzuziehen oder aber den Verkehr mit Deep Packet Inspection zu überwachen. Letztlich bedrohten das Wettrüsten und der verzweifelte Versuch, die Kontrolle über das Netz zu behalten, auch Innovationen.

Viele IETF-Teilnehmer in Maastricht sparten demgegenüber nicht mit Kritik an den Ökonomen. Überlastung ist ihrer Ansicht nach schlicht ein Problem schlechten Managements oder zu knapp kalkulierter Kapazität beim Netzprovider. Die Stellschrauben für Messungen oder Abrechnungen – die auch die Netzneutralität, die Gleichbehandlung jeglichen Datenverkehrs auf Transportebene im Internet infrage stellen – kämen die Provider letztlich teurer als sein Netz einfach mit ausreichend Kapazität auszustatten, warnten sie. Zusätzliche Kontroll- oder Mautstellen machten das Netz letztlich nur komplexer. Ob die Befürworter fetter Leitungen und letztlich auch eines neutralen Netzes sich durchsetzen, ist aber alles andere als ausgemacht. (jk)