Das Internet ist keine Zwiebel

Forscher haben Daten über die Struktur des Internets ausgewertet - mit der Schlussfolgerung, dass es für die Netzstruktur keinen passenden Vergleich aus der realen Welt gibt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Früher konnte man die Struktur des Internets noch gut mit der einer Zwiebel vergleichen: Da gab es im Kern die Tier-1-Provider, denen die internationalen Backbones gehörten. Darüber waren alle weiteren Schichten vom regionalen Provider bis zum Enduser angesiedelt. Auch die Apfelsine musste schon als Vergleich herhalten - wegen ihrer Segmentstruktur. Und die Assoziation, einen der typischen Internet-Strukturgrafen mit einer Portion Spaghetti gleichzusetzen, liegt ebenfalls nicht fern.

All diese Vorstellungen haben aber mit der Realität nicht allzu viel zu tun, sagen israelische Forscher (nach einer Veröffentlichung von Vorabresultaten vor einem Jahr in der aktuellen Ausgabe der Veröffentlichungen der US-Akademie der Wissenschaften (PNAS)).

Als Grundlage bedienten sie sich der Daten, die das europäische DIMES-Projekt erhoben hat. Die "Distributed Internet MEasurements & Simulations" haben in fast zweieinhalb Milliarden Messungen über 25.000 so genannte autonome Systeme gefunden, die jeweils Internet-Provider oder andere große Organisationen repräsentieren, die zusammen das Internet präsentieren.

Technisch gesehen ist ein autonomes System eine Gruppe von Netzwerken, die nach gemeinsamen Routingregeln von einer gemeinsamen Verwaltung administriert werden. Diese Daten haben die israelischen Forscher mit einer speziellen mathematischen Methode untersucht, der k-Shell-Zerlegung.

Dabei wird das Netzwerk derart zerlegt, dass zuerst die Nodes mit einem einzigen Link übrig bleiben - diese schlägt man dann (inklusive ihrer Links) der ersten Netzebene zu, der 1-Shell. Dann entfernt man schrittweise die Nodes mit zwei Links und ordnet diese der 2-Shell zu. Rekursiv geht es mit steigender Linkzahl weiter, bis alle Nodes einer Gruppe zugeordnet sind.

Das Ergebnis: Das Internet hat einen sehr dicht gepackten Kern, der ungefähr 100 Systeme umfasst, unter denen zum Beispiel Google und AT&T Worldnet sind. Die Forscher haben diesem Kern alle autonomen Systeme mit der maximalen k-Zahl, k-max, zugeordnet. Die Schale darum herum besteht aus zwei unterschiedlichen Komponenten: Einerseits finden sich dort rund 15.000 Systeme, die „peer-connected“, also untereinander gut verbunden sind. Zwischen ihnen können Informationen fließen, ohne mit dem Kern in Berührung zu kommen.

Schematische Darstellung des MEDUSA-Modells des Internet

In nur vier Schritten, haben die Wissenschaftler berechnet, gelangen in dieser Zone Daten von einer Komponente zu einer beliebigen anderen. Solche Verknüpfungen fehlen weiteren rund 5000 Systemen. Diesen nur mit dem Kern verbunden isolierten Nodes fällt der Datenaustausch mit dem Rest des Internets schwerer. Fiele der Kern plötzlich aus, stünden diese Netze ganz ohne Außenverbindung da. Die gute Nachricht: Selbst in diesem Fall wären noch 70 Prozent des Internets miteinander verbunden - die Gruppe mit den auf Gegenseitigkeit basierenden Verbindungen.

Das Modell ähnelt insofern insgesamt einem Tier mit kleinen Füßchen - die Autoren nennen des MEDUSA. Aus ihrer Arbeit leiten sie gewisse Empfehlungen für die Gestaltung des Datenverkehrs ab. Um Datenstau im Zentrum zu verhindern, so fordern sie, sollte man zum Beispiel mehr Daten durch die äußeren, ebenfalls gut verbundenen Regionen routen - obwohl der Weg durch den Kern in jedem Fall der kürzere (mit weniger Zwischenstationen wäre).

Ganz unwidersprochen ist das Vorgehen der israelischen Forscher in der Wissenschaftsgemeinde im übrigen nicht. Eine Kritik der verwendeten Methode geht dahin, dass nur die Anzahl der Links zählte - nicht aber deren Art und Bedeutung. Insbesondere die Beziehung zwischen Provider und Kunde komme in diesem Modell nicht vor.

Außerdem wird die Art der Datenbeschaffung in Zweifel gezogen: Messungen, bei denen von einer geringen Anzahl von Beobachtern Routenverfolgungen zu einer großen Zahl von Zielen durchgeführt werden, sind womöglich verzerrt - eine Unausgewogenheit, die man auch durch eine Vergrößerung der Anzahl der Beobachter nicht aus der Welt schaffen könne. Dieser Kritik halten die Wissenschaftler die mittlerweile sehr große Beobachteranzahl in über 90 Ländern der Erde entgegen.