Die Punkte verbinden

Clevere Software soll aus Verbindungsdaten das zugrunde liegende Netz sozialer Strukturen destillieren. Die Methode könnte Kriminalisten helfen, effizienter zu arbeiten - auch der in den jüngsten Abhörskandal verwickelte US-Geheimdienst NSA nutzt sie.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 7 Min.

Der Gegner ist nahezu unsichtbar: Diffus, schwer zu greifen – und er könnte überall sein. Im Gegensatz zu den straff geführten Terrororganisationen der 70er Jahre scheinen Al Kaida und Co. ein eher loses Netzwerk zu bilden, das zu bekämpfen den Ermittlern sichtlich schwer fällt. Ein neues Paradigma der Informationsverarbeitung könnte den Behörden nun unerwartet bei der Fahndung helfen. Dreh- und Angelpunkt ist dabei die Netzwerktheorie. Sie soll helfen, Licht ins Dunkle von Terrornetzen zu bringen, Strukturen aufzudecken und Schwachpunkte für eine wirksame Terrorabwehr offenzulegen.

Dass dies kein reines Wunschdenken ist, belegen diverse wissenschaftliche Veröffentlichungen: So konnte der Software-Entwickler Valdis Krebs bereits 2002 zeigen, dass es möglich ist, lediglich auf der Basis öffentlich zugänglicher Daten einen großen Teil der Struktur der Attentätergruppe vom 11. September 2001 zu rekonstruieren. Die zugrunde liegende Theorie erfreut sich seit den 90er Jahren bei einer interdisziplinären Truppe von Physikern, Mathematikern und Informatikern ähnlich großer Beliebtheit wie die Chaostheorie in den 80er Jahren. Ganz gleich, ob World Wide Web, das Stromnetz, das Nervensystem oder das persönliche Umfeld von Freunden und Verwandten: Bei all diesen Netzwerken finden sich ähnliche strukturelle Grundmuster.

Bereits 1967 rekrutierte der amerikanische Psychologe Stanley Milgram Freiwillige für ein mittlerweile berühmtes Experiment: Dabei sollten 300 Versuchsteilnehmer aus dem mittleren Westen der USA ein Päckchen an eine Zielperson in der Umgebung von Boston schicken. Sie durften das Päckchen aber nur an ihnen bekannte Personen weiterschicken. Falls sie ihre Aufgabe nicht direkt erledigen konnten, sollten sie die Sendung an einen Bekannten weiterreichen, der die Zielperson ihrer Meinung nach kennen könnte. Die rund 60 Päckchen, die ihr Ziel erreichten, liefen im Durchschnitt über sechs Adressen.

Milgram folgerte daraus, dass alle Menschen über sechs Grade – die mittlerweile sprichwörtlichen six degrees of separation – miteinander verbunden sind. Duncan Watts, Peter Dodds und Roby Muhammad von der Columbia University haben das Experiment 2003 mit rund 98 000 Freiwilligen im Internet wiederholt und sind bei der erfolgreichen Zustellung auf eine mittlere Kettenlänge von vier gestoßen.

Ein merkwürdiges Phänomen. Denn bis dato hatten Mathematiker das so genannte Random-Graph-Modell gelernt. Dieses Modell geht davon, das die Verbindungen zwischen allen Netzteilnehmern rein zufällig verteilt werden – das Phänomen der kleinen Welt mit vier oder sechs Stationen lässt sich so allerdings nicht erklären. Der Schlüssel zum Verständnis derartiger Phänomene, das wissen Mathematiker heute, liegt nicht nur in der Struktur, sondern auch in der Dynamik der Netzwerke – ihrem Werden und Vergehen.

Réka Albert, Hawoong Jeong und Albert-László Barabási wiesen 1999 erstmals darauf hin, dass die Struktur eines Netzwerks wie die des Internets durch Wachstum entsteht: Jeder neue Knoten in einem Netzwerk wird mit hoher Wahrscheinlichkeit zunächst mit bereits etablierten Knoten verbunden. Ein so aufgebautes Netzwerk lässt sich als skalenfreies Netzwerk beschreiben – es hat Ähnlichkeit mit einer Straßenkarte, auf der einige große Städte mit zahlreichen Straßen verbunden sind.

Das hat weitreichende Folgen: Die Wahrscheinlichkeit, einen Netzknoten mit vielen Verbindungen zu finden, nimmt zwar exponentiell ab – das heißt, es gibt nur sehr wenige Netzknoten, die sehr viele Verbindungen zu anderen Knoten haben. Auf der anderen Seite gilt aber: Rund 20 Prozent aller Knoten besitzen 80 Prozent aller Verbindungen. Webknoten sind so verteilt. Die Zahl der Links, die auf populäre Seiten wie Google oder Yahoo deuten, ist wesentlich größer als der Durchschnitt. Diese Ausreißer werden als Hubs bezeichnet.

Auch das Netz der Beziehungen zwischen Menschen unterliegt dieser Power-Law-Verteilung. So hat der Durchschnittsdeutsche laut einer Umfrage der Firma Durex in seinem Leben sechs Sexualpartner. Es gibt aber auch einige, bei denen die Zahl jenseits der 100 liegt. Wie groß ist die mittlere Distanz zwischen zwei Knoten? Wie ist die Zahl der Verbindungen statistisch verteilt? Welche Knoten sind besonders wichtig – welche haben die größte Zentralität? Die Netzwerkanalyse untersucht derartige Fragen systematisch.

Die Algorithmen, die dabei angewandt werden, unterscheiden sich im Prinzip nicht sehr von der Aufgabe, die eine Suchmaschine zu bewältigen hat: Jialun Qin und Kollegen von der University of Arizona ließen beispielsweise den von Google bekannten PageRank-Algorithmus auf frei zugängliche Daten über das islamistische Salafi-Jihad- Netzwerk los und waren damit in der Lage, wichtige Schlüsselpersonen zu identifizieren.

Die so gewonnenen Erkenntnisse haben nicht nur theoretischen Wert. Wenn zum Beispiel wichtige Knoten vom Netzwerk getrennt werden, können die sich dann wellenartig ausbreitenden Störungen das Netz schnell ganz zusammenbrechen lassen. Barabási und seine Kollegen schockierten beispielsweise die Computerszene mit der Erkenntnis, dass das Internet keineswegs ausfallsicher sei – es genüge, einige wichtige Hubs zu entfernen, um das Netz empfindlich zu stören.

Der Historiker Andrew Roach vermutet, dass bereits die Inquisition der katholischen Kirche um 1250 ihre Strategie bei der Bekämpfung der Ketzer an netzwerktheoretischen Erkenntnissen ausgerichtet hat. Soziale Netzwerke zeigen allerdings eine verblüffende Fähigkeit, sich selbst zu heilen. „Wenn du den Chef erschießt“, spottet Columbia-Professor und Netzwerkpionier Duncan Watts, „suchen sie einfach einen neuen.“

Maksim Tsvetovat und Kathleen Carley von der Carnegie Mellon University haben daher versucht, auch diesen Faktor mit einzubeziehen: Mit Hilfe von Simulationen auf der Basis von autonomen Software-Agenten, schreiben sie in der Fachzeitschrift „Journal of Social Structures“, könne man erforschen, wie schwierig es sein kann, ein Terrornetzwerk zu zerstören. Wie in einem Militärmanöver standen sich in ihrer Arbeit zwei Gruppen von 50 und 5 Software-Agenten gegenüber. Die „roten“ – in Zellen organisiert – versuchten konspirativ Informationen auszutauschen, während die „blauen“ verschiedene Strategien anwenden sollten, um diesen Austausch möglichst zu verhindern.

Die „Isolation von Individuen in strukturell äquivalenten Rollen“ erwies sich letztendlich als die effizienteste Strategie für die virtuellen Terroristenjäger. Nur so kann sichergestellt werden, dass ein aus dem Netz entfernter roter Agent nicht wieder durch einen äquivalenten Nachrücker ersetzt wird. Trotz aller Schwierigkeiten hat die Netzwerkanalyse einen entscheidenden Vorteil gegenüber klassischen Ermittlungsmethoden: Die Gewinnung der notwendigen Daten unterliegt nicht so strikten Auflagen.

Der größte Nachteil: die schiere Masse an Daten, die analysiert werden muss. Der US-Geheimdienst NSA, schätzt der Geheimdienst-Experte Richard Keefe, überwacht weltweit täglich 650 Millionen Kommunikationsvorgänge. Und wenn die umstrittene EU-Richtlinie zur Verbindungsdatenspeicherung umgesetzt ist, werden am DE-CIX, der in Frankfurt angesiedelten wichtigsten Schaltzentrale für den Datenverkehr in Deutschland, Daten anfallen, die 639 000 CDs füllen –Tag für Tag.

Buchtipps: Albert-Lászlo Barabási, Linked, Plume 2003 Duncan J. Watts, Six Degrees, Norton 2003 (nbo)