Kazaa-GrĂĽnder will sein Wissen zu Geld machen

Datenverkehr durch Tauschbörsen hat sich zur größten Belastung für die Infrastruktur von Internet-Providern entwickelt.

vorlesen Druckansicht
Lesezeit: 7 Min.
Von
  • Patric Hadenius

Die Musikdownload-Welle ebbt nicht ab - und Internet-Provider haben zunehmend Schwierigkeiten damit, ihre Netzinfrastruktur sowie ihre Geschäftsmodelle intakt zu halten. Die Hauptgefahr kommt von P2P-Programmen wie Kazaa, die User ohne Server direkt miteinander verbinden. "Peer-to-Peer-Aktivitäten machen bereits heute ein Fünftel des gesamten Internet-Datenverkehrs aus, und sie werden in Zukunft beträchlich wachsen", sagt Thomas Karagiannis, Forscher an der University of California in Riverside, der mit der "Cooperative Association for Internet Data Analysis" an der Messung des P2P-Datenvolumens arbeitet.

Mehr Traffic bedeutet höhere Kosten für die Provider. Entweder lassen sie zu, dass ihre Leitungen fallweise überlastet sind; das verärgert die Kunden. Oder sie bauen ihre Netzwerke mit mehr Bandbreite aus. Das eröffnet neue Geschäftsmöglichkeiten für Firmen, die sagen, dass sie den Datenverkehr reduzieren können - und das für weniger Geld, als zusätzliche Bandbreite kosten würde.

Eines dieser Unternehmen, das Start-Up Joltid aus Schweden, ist ein echter Insider auf diesem Gebiet. Der Grund: Sein Gründer Niklas Zennstrom ist einer beiden Erfinder des Filesharing-Dienstes Kazaa, der zu den größten Bandbreiten-Fressern gehört. Mit Joltid will Zennstrom von genau dem Problem profitieren, das Kazaa so in den Brennpunkt gerückt hat.

Und so funktioniert sein Ansatz: Stellen Sie sich zwei Studenten am MIT vor, beispielsweise Justin und Ashley. Die beiden nutzen Kazaa, um nach einem populären Film zu suchen. Sie tippen beide den Suchbegriff ein, und Computer auf der ganzen Welt reichen die Anfrage weiter und beantworten sie. Eine der Antworten auf die Anfrage kommt aus Sydney in Australien, wo jemand genau den gesuchten Film auf der Festplatte hat. Justins Rechner teilt ihm dies mit und beginnt sogleich mit dem Download. Auch Ashleys Rechner hat den Film in Sydney entdeckt und lädt ihn herunter. Das heißt also, dass der gleiche Gigabyte-große Film zweimal von Sydney nach Cambridge übertragen werden muss.

Besser wäre es, wenn der Film beim Provider in Cambridge zwischengespeichert würde, wenn Justin ihn zum ersten Mal heruntergeladen hat. Wenn Ashley dann die gleiche Anfrage startet, kommt der Film sozusagen "lokal" und spart jede Menge Weitverkehrs-Bandbreite.

So arbeitet Joltids Hauptprodukt, der so genannte "Peercache". Die Software sitzt auf einem Server beim Internet-Provider. Sie fängt alle P2P-Downloads ab, um zu überprüfen, ob sie vielleicht schon zwischengespeichert sind. Wenn mehrere lokale Nutzer die gleichen Daten vom Server anfordern, reduziert die Software das Datenvolumen zu entfernt gelegenen Netzwerksegmenten stark. Die Nutzer merken das nicht, denn die Server arbeiten völlig transparent: Es sieht so aus, als kämen die Daten von dem Computer, von dem der User sie ursprünglich anforderte.

Das an sich ist keine neue Idee, verschiedene so genannte Caching-Programme arbeiten bereits so. Die Leute bei Joltid behaupten allerdings, das nötige Spezialwissen zu besitzen: Welche Teile des riesiegen Datenstroms aus Internet-Downloads wirklich vorgehalten werden müssen. Das ist wichtig, weil der Server des Internet Providers keinesfalls alles abspeichern kann, was ihn durchläuft - dafür ist nicht genügend Speicherplatz vorhanden. Die Cache-Programme müssen also selektiv vorgehen.

Das Problem dabei ist, dass Peer-to-Peer-Datenverkehr oft getarnt ist. Dafür gibt es zwei Gründe: Erstens sind die Daten oft urheberrechtlich geschützt und deshalb wollen Empfänger und Sender verstecken, was vor sich geht. Außerdem sitzen manche Netzwerke hinter Firewalls, die Filesharing-Traffic nicht zulassen; auch das führt dazu, dass Filesharing-Pakete als Web-Verkehr getarnt werden. Wenn man nun aber die Tarnung kennt, kann man die richtigen Daten zum Zwischenspeichern auswählen. Und genau hier liegt Joltids Vorteil: Wenn jemand weiß, wie Filesharing-Daten aussehen, dann Zennström.

Datenstau durch P2P ist besonders bei den so genannten Access-Leitungen problematisch, den Kabeln, die einzelne Nutzer und Provider an die großen Backbone-Leitungen des Netzes anschließen. Hier macht sich das Wachstum des Datenverkehrs am stärksten bemerkbar. Viele Access-Leitungen, besonders die für DSL- und Kabel-Modems, bieten zudem erheblich weniger Bandbreite für das Hoch- als für das Herunterladen. Das war kein Problem, so lange Nutzer noch viel mehr Daten aus dem Netz luden, als sie hereinschickten. Dank Filesharing ist der Datenverkehr deutlich symmetrischer geworden und benötigt deshalb mehr Bandbreite in beide Richtungen.

Die Internet-Backbone, die Hauptdatenleitungen, werden durch Filesharing nicht übermäßig belastet. "Das Netz ist dafür gerüstet und kann noch Wachstum vertragen", sagt Supratik Bhattacharyya, der für die Advanced Technology Labs der US-Telekomfirma Sprint in Burlingame, Kalifornien, den Datenverkehr an 40 Backbone-Leitungen überwacht. Tatsächlich sei Sprint derzeit nur etwa zur Hälfte ausgelastet. Im Kern ist das Internet bandbreitenmäßig symetrisch ausgerüstet. Bhattacharyya meint, dass Filesharing-Verkehr genau aus diesem Grund für eine effizientere Nutzung derBandbreite sorgt. "Der Datenverkehr verteilt sich besser als beispielsweise beim Web-Traffic, wo große Datencenter sehr dicke Leitungen ins Internet brauchen."

Für kleinere Anbindungen sieht die Sache anders aus. Bhattacharyya stimmt dem University-of-California-Forscher Karagiannis zu, dass kleinere Provider auf die Zunahme des P2P-Datenverkehrs reagieren müssen. Wird Joltids Software das Problem lösen? Bhattacharyya möchte nicht spekulieren, sagt aber, dass von dem Unternehmen clevere Produkten zu erwarten seien, "wenn man bedenkt, wer dahinter steckt".

Ein Grund, warum P2P-Datenverkehr das Internet verstopft, liegt darin, dass die Internet-Protokolle nicht dafĂĽr gedacht sind, die Datenmenge zu reduzieren. Weil das Verschicken von Daten ĂĽber das Netz quasi kostenlos ist, optimieren die Programmierer andere Parameter, beispielsweise die Geschwindigkeit.

Grokster, Kazaa und andere Filesharing-Programme nutzen ein Protokoll namens FastTrack. Andere wie BearShare, Morpheus und LimeWire setzen auf Gnutella. Diese Protokolle nutzen verschiedene Methoden, Suchanfragen zu verschicken und Daten zu empfangen - und diese Unterschiede haben einen großen Einfluss darauf, wie viel Datenverkehr benötigt wird, um beispielsweise ein Musikstück oder einen Film von einem Netz in ein anderes zu transportieren.

Per Brand, Chef des Distributed Systems Laboratory am Schwedischen Institut für Informatik in Stockolm, meint, dass Filesharing-Datenverkehr in Schweden bis zu 85 Prozent der Kapazität eines typischen Internet-Providers belegt. Schlechtes Protokoll-Design habe viel damit zu tun. "Gnutella ist zugleich brillant und vollkommen hirntot", sagt er. Es sei clever, in der Art wie Informationen verteilt werden, aber dumm beim Herausfinden des Ortes, wo die Informationen liegen. Dabei werde reichlich Bandbreite verschwendet.

Verbesserte Protokolle wĂĽrden sowohl die Informationen als auch den Datenverkehr so verteilen, dass Computer beides effizienter nutzen wĂĽrden. Das Ziel ist ein System, dass die besten Eigenschaften von Filesharing-Programmen ohne ihre Nachteile besitzt - als ob man Kazaa mit Peercache kombinieren wĂĽrde. Wenn die Forschung von Brand erfolgreich ist, haben Joltid und seine Wettbewerber ein Produkt weniger zu verkaufen. (sma)