Ein Globus für das Internet

Israelische Forscher haben die Struktur des Netzes in bislang ungekannter Detailtiefe kartografiert. Ergebnis: Die Verwendung von Peer-to-Peer-Strukturen könnte die Effizienz des Internets deutlich steigern.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Duncan Graham-Rowe

Die meisten Internet-Provider mögen Filesharing-Datenverkehr eigentlich überhaupt nicht. Dabei könnte die Peer-to-Peer-Kommunikation (P2P) die Gesamtkapazität des Netzes deutlich besser ausnutzen, meinen Wissenschaftler an der Bar-Ilan-Universität in Israel. Nachweisen ließ sich dies mit Hilfe einer groß angelegten Analyse des Internet-Datenverkehrs über einen längeren Zeitraum.

"Es ist die erste Studie, die das Internet im Hinblick auf seine Funktion und seine tiefergehende Verbindungsstruktur analysiert", erläutert der Physiker Shai Carmi, der zu dem Forscherteam gehört. "Wir erhalten so das bislang umfassendste Gesamtbild des Netzes."

Untersuchungen der topologischen Internet-Struktur hatte es schon früher gegeben – sie stellten jedoch vor allem die Verbindungen zwischen den großen Knoten bei den Internet-Providern und zahlreichen Firmennetzen dar, die der Datenverteilung dienen. Welche Rolle diese Verbindungen jeweils spielen, wurde hingegen nicht detailliert untersucht: "Einige Knoten könnten nämlich wichtiger sein als andere", meint Carmi.

Im Endergebnis fanden die Forscher nun heraus, dass das Internet aus einem dichten Kern aus rund 80 kritischen Knoten besteht, um die sich eine äußere Hülle aus 5000 eher spärlich miteinander verbundenen Knoten gruppiert, die stark vom Kern abhängen. Separiert wird der Kern von der äußeren Hülle durch rund 15.000 untereinander verbundene Knoten, die teilweise auch selbstständig interagieren – im klassischen Peer-to-Peer-Verfahren.

Entfernt man nun den Kern aus dem Internet-Globus, ergibt sich eine interessante Konstellation: Nur rund 30 Prozent der Knoten aus der äußeren Hülle verlieren jede Verbindung. Die verbliebenen 70 Prozent können hingegen weiter miteinander kommunizieren, weil die mittlere Region dank der Peer-to-Peer-Verbindungen genügend Ersatz bietet, den Kern zu umgehen.

Es verändert sich allein die Anzahl der Zwischenschritte. Ist der Kern vorhanden, kann jeder Knoten jeden anderen über durchschnittlich vier Verbindungen erreichen. "Entfernt man nun den Kern, werden sieben bis acht dieser Links benötigt", sagt Carmi. Zwar dauere eine "Runde" so länger, doch die Daten kämen trotzdem problemlos an. Carmi glaubt, dass die Internet-Infrastruktur diese Alternativrouten nutzen sollte, damit es nicht zu Datenstaus im Kernbereich des Netzes komme: "So lässt sich die Effizienz des Internets steigern, weil es nicht mehr so leicht verstopfen kann."

Um die Karte zu erstellen, setzten die Forscher auf die Mithilfe von 5000 Internet-Freiwilligen, die mit Hilfe einer herunterladbaren Software eine Messung der Verbindungen zwischen den 20.000 bekannten Knoten vornahmen. Das verteilt agierende Programm schickte dazu Informationsanfragen, so genannte Pings, an andere Teile des Internets und speicherte dann die Route der Daten auf jeder Reise.

Bei früheren Versuchen waren nur einige Dutzend großer Knoten zum Einsatz gekommen, erläutert Carmi. Der verteilte Ansatz machte es nun aber möglich, bis zu sechs Millionen Messwerte pro Tag zu nehmen – zwei Jahre lang und von Tausenden von Beobachtungspunkten auf der ganzen Welt aus. "So konnten wir mehr Verbindungen offenlegen", erläutert Scott Kirchpatrick, Professor für Informatik und Ingenieurwissenschaften an der Hebrew University in Jerusalem, der auch an der Studie teilnahm. Man habe so beispielsweise insgesamt 20 Prozent mehr Querverbindungen aufgedeckt, als bislang bekannt waren.

Zur Darstellung der Daten verwendeten die Forscher dann einen hierarchischen Ansatz, der jeweils einberechnete, wie die Knoten weiter verbunden waren. Jeder Knoten wurde dadurch nach seiner Verbindungsgüte zu anderen Knoten bewertet, die besser angebunden sind.

Frühere Studien hätten sich hingegen nur auf die Anzahl der Verbindungen als Indikator für die Wichtigkeit eines Knotens verlassen, ohne einzuberechnen, wo dieser hinführten, meint Carmi. Mit dem neuen Ansatz, dem so genannten "K-Shell"-Modell, könnten so genannte Sackgassenverbindungen nun abgewertet werden, weil sie für das Internet eine geringere Rolle spielten.

Seth Bullock, Computerwissenschaftler an der University of Southampton, der zum Thema Netzwerkkomplexität und natürliche Systeme forscht, hält den Ansatz von Carmi für gelungen – er sei intelligenter als bisherige Modellierungsverfahren, die oft nur ein grobes Bild lieferten.

Allerdings warnt der Forscher, dass frei agierende Peer-to-Peer-Netze nicht nur Vorteile in Sachen Effizienzverteilung hätten – sie könnten auch zu neuen Datenstaus führen. So gäbe es noch keine Möglichkeit, zu verhindern, dass alle Daten auch beim P2P-Ansatz wieder durch einen Hauptknoten fließen, der dann ebenfalls überlastet wäre. Dennoch glauben auch P2P-kritische Beobachter, dass die Carmi-Studie sehr hilfreich ist: Mit der von den Forschern nun aufgedeckten Struktur könnten sich Effizienzsteigerungen insgesamt schneller umsetzen lassen. (bsc)