zurück zum Artikel

Kompromissvorschlag in Sachen Netzneutralität

Larry Hardesty

Die Anhörungen der US-Regulierungsbehörde FCC zeigen die tiefen Gräben auf, die zwischen Netzwerkbetreibern und Online-Inhalteanbietern liegen. Dabei würde es dem Internet nur helfen, wenn beide aufeinander zu gehen würden.

Ende Februar fand ein öffentliches Hearing der amerikanischen Federal Communications Commission (FCC) an der Harvard University statt, bei dem Vorwürfen nachgegangen werden sollte, laut denen der US-Breitbandkabel-Riese Comcast den Datenverkehr im Peer-to-Peer-Dateitauschnetz Bittorrent (BT) eingeschränkt hat. Comcast gab vor den Abgesandten der Regulierungsbehörde an, man habe den Netz-Traffic nur deshalb verlangsamt, weil es "Perioden massiver Staus in unserer Infrastruktur" gegeben habe. Vor den bandbreitenfressenden BT-Rechnern, die Musik und Filme herunterluden, habe ja sowieso wahrscheinlich niemand gesessen, hieß es unter anderem.

Doch eine solche Argumentation ließen die Comcast-Kritiker nicht zu: Der Kabel-Gigant habe gegen ein Grundprinzip im Internet, die Netzneutralität, verstoßen. Alle Netzwerkbetreiber müssten die Datenpakete, die in ihren Leitungen unterwegs seien, gleich behandeln und dürften niemanden bevorzugen. Bislang hatte sich die FCC nur zurückhaltend in die Debatte eingeschaltet – harte und schnelle Strafen gegen Neutralitätsverstöße gab es bislang noch nicht. Dennoch gibt es erste Signale, dass die Behörde in klaren Fällen durchaus aktiv agieren will.

Es gibt allerdings Experten, die nach einer flexibleren Lösung rufen. Mung Chiang [1], Juniorprofessor für Elektrotechnik an der Princeton University, glaubt, dass sowohl Netzwerkbetreiber als auch Online-Inhalteanbieter derzeit noch eine gemeinschaftliche Ignoranz umtreibe, die das Internet massiv an Effizienz koste. Versuche die eine Gruppe, die Geschwindigkeit zu erhöhen, könne dies unbeabsichtigt dazu führen, dass entsprechende Maßnahmen der anderen Seite gestört würden.

In einem Peer-to-Peer-Netz haben die Vorgaben, anhand derer die einzelnen Knoten selektiert werden, viel mit dem Datenverkehrsmanagement im jeweiligen Netzwerk zu tun. Doch die Auswahl dieser so genannten Peers habe im Umkehrschluss auch wieder Einfluss auf die Verfahren der Bandbreitenaufteilung, meint Chiang. Das Ergebnis sei eine negative "Feedbackschleife, bei der jede kontraproduktive Maßnahme eine neuerliche bedingt".

Programme wie Bittorrent laden Dateien in einzelnen Teilen herunter – von mehreren Peers gleichzeitig. Schickt ein Knoten die Pakete nicht schnell genug, kann der verwendete Algorithmus entscheiden, dass sich die Software ein verlässlicheres Gegenüber sucht. Die Aktivitätsmuster in dem Dateitauschnetz könnten sich deshalb sehr schnell verändern, sagt Chiang. Die Netzwerkbetreiber sind ebenfalls bestrebt, die Effizienz in ihrem Netz zu steigern. Bemerken sie einen Flaschenhals, werden die Daten möglichst um ihn herum geleitet. Allerdings agieren die Administratoren zeitlich viel langsamer. So kann ein durch Bittorrent ausgelöster Bandbreitenkollaps schon längst an der nächsten Stelle ausgebrochen sein, während die Technik des Providers noch das erste Problem zu lösen versuchen. Der Datenverkehr wird dadurch dann vom vermeintlichen Flaschenhals wegbewegt und landet womöglich direkt im nächsten.

Ein wenig mehr Informationen über die Daten, die durch ihre Netze fließen, könne den Betreibern helfen, Staus besser zu umgehen, meint Chiang daher. Beispielsweise sind die Bittorrent-Dateien, die am meisten Bandbreite benötigten, oft Videofiles. Doch nicht alle Einzelbilder dieser Filme sind gleich. Einige enthalten Informationen, die eine Szene hindurch stets unverändert bleiben. Andere Einzelbilder beschreiben hingegen kaum sichtbare Veränderungen, die über einen längeren Zeitraum erfolgen. Doch genau die könne man auch ab und zu weglassen, ohne dass der Sehgenuss getrübt werde, meint Chiang. Er und seine Kollegen haben bereits Prototyp-Videos [2] geschaffen, die das beweisen sollen.

Wenn man Internet-Pakete jedoch derart unterschiedlich behandelt, also einigen gegenüber anderen mehr Priorität einräumt, verstößt man bereits gegen die strengsten Formen der Netzneutralität. Doch interessanterweise gibt es an ungewöhnlichen Orten sanfte Sympathie für Chiangs Vorschlag. Eric Klinker, Technologiechef bei Bittorrent, der Firma, die vom Erfinder des Tauschnetzes, Bram Cohen, gegründet wurde, gab bei der Harvard-Anhörung für sein Unternehmen eine Stellungnahme. Dass man ab und an Videotransfers beschneide, sei womöglich harmlos, meint er – wenn beispielsweise jemand einen Film schaue, seien die nächsten 10 Minuten an Datenmaterial wichtiger als die letzten 10 Minuten. Die Pakete, die dann beispielsweise den Abspann enthalten, könnten so mit einem Label "geringere Priorität" versehen werden, so dass sie im Falle von Datenstaus durch den Netzbetreiber verlangsamt werden könnten.

"Ich mag aber die Idee nicht, dass Comcast Videos dann anders behandeln würde als beispielsweise Software-Downloads. Deshalb müsste man solche Mechanismen in jede Anwendung implementieren", meint Klinker. Damit das funktioniert, muss der Netzbetreiber laut Klinker aber die volle Garantie leisten, dass bei genügend Kapazität auch tatsächlich die volle Bandbreite für diese Daten eingeräumt wird. "Allerdings gibt es derzeit ein berechtigtes Maß an Misstrauen gegenüber den Netzbetreibern."

Chiang meint, dass genau diese Art von Misstrauen dazu geführt habe, dass die Industrie falsche Entscheidungen trifft. Die Netzneutralität wirke derzeit wie die einzige Alternative gegenüber wettbewerbsfeindlichem Verhalten, bei dem die Netzwerkbesitzer ihren eigenen Inhalten oder denen ihrer Partner den Vorzug erteilten. Doch es gäbe auch einen gemeinsamen Weg, glaubt der Wissenschaftler. Eines der Hauptprobleme dabei sei noch, dass es so unendlich schwer sei, genau zu bestimmen, wo die Kosten und Vorteile lägen, wenn es unterschiedliche Arten der Informationsübermittelung zwischen Inhalteanbietern und Netzwerkbetreibern gäbe.

Chiang hat deshalb ein mathematisches Grundgerüst erstellt, das eine solche Kosten-Nutzen-Analyse durchführen kann. "Man denkt immer im Sinne von Kapazität einer Leitung wie im Comcast-Netzwerk oder im Sinne von Kapazität, die man zur Verteilung von Inhalten nutzen kann – etwa durch Peer-to-Peer-Netze. Eine Gesamtbetrachtung für beides zusammen gibt es noch nicht."

Für den Spezialfall der Video-Übertragung haben Chiang und seine Kollegen diesen Wert laut eigenen Aussagen bereits berechnet. "Wir besitzen hier bereits eine exakte Antwort darauf, was volle Kapazität bedeutet. Und wie man einen Algorithmus zur besseren Knoten-Auswahl erstellen könnte, der beliebig nahe an diesen Wert herankommt." Die Forscher haben außerdem ein zweites Modell entwickelt, das die wirtschaftlichen Interaktionen zwischen den Parteien, die im Internet-Inhalte-Verteilgeschäft agieren, beschreibt – und zwar nicht nur bei den Entwicklern von Dateitauschborsen und den Providern, sondern auch bei den Inhalte-Produzenten (wie Hollywood-Studios), den Verkäufern von Netzwerkhardware und den Endkunden.

Chiang räumt ein, dass seine Arbeit nur der erste Schritt in einem langen Prozess ist. "Die wahre Kapazität des Netzwerkes zu ermitteln, wird viele Jahre harter Arbeit für Computerwissenschaftler und Mathematiker bedeuten." Doch mit der riesigen Popularität, die bandbreitenintensive Dienste wie Internet-Videos oder Peer-to-Peer-Netze inzwischen erreicht haben und mit den Begehrlichkeiten, auch Fernsehprogramme in HD über das Netz zu schicken, wäre es wohl ein solches Modell eine echte Erleichterung. Die komplexe Dynamik müsse unbedingt wirklichkeitsgetreu abgebildet werden, meint Chiang. (bsc [3])


URL dieses Artikels:
https://www.heise.de/-275038

Links in diesem Artikel:
[1] http://www.ee.princeton.edu/people/Chiang.php
[2] http://www.princeton.edu/~yingli/research/CAF.htm
[3] mailto:bsc@heise.de