Im Trüben nach Terroristen fischen

Ziel des "Dark Web"-Projekts ist, alle mit Terrorismus verbundene Inhalte im Netz zu sammeln und zu analysieren

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

An der University of Arizona wird seit drei Jahren im Artificial Intelligence Lab unter der Leitung von Hsinchun Chen das Projekt Dark Web verfolgt, mit dem Terrorgruppen, ihre Kommunikation und ihre Inhalte im Web automatisch, beispielsweise durch Verfolgung von Links und anderen Methoden der Analyse von sozialen Netzwerken, in einer ganzen Reihe von Sprachen entdeckt werden sollen. Für das großspurig "Dark Web Portal" genannte Projekt, das allerdings im "Dark Web" gar nicht sucht, habe man den ganzen Inhalt von 300 "Terroristenforen" sowie 1.000 Websites gesamt und 10.000 teilweise gespeichert, dazu kommen 1 Million Bilder und 15.000 Videos. Mit mathematischen Verfahren und der Hilfe von Menschen habe man eine halbe Million Webseiten von 94 Gruppen in den USA, 300.000 Webseiten von 41 arabisch sprechenden Gruppen und 100.000 Webseiten von spanisch sprechenden Gruppen gesammelt. Inzwischen habe man weitere Sprachen hinzufügen können. Ziel des Projekts ist es, systematisch alle Inhalte im Web zu sammeln und zu analysieren, die mit dem Terrorismus oder Terroristen verbunden sind.

Wie weit dabei allerdings näher diskutiert wird, was unter die Kategorie Terrorismus fällt, lässt sich nicht wirklich aus den Veröffentlichungen erkennen. Offensichtlich gehen die Wissenschaftler pragmatisch vor. Wie Chen und Co. beschreiben, basiert ihr semiautomatischer Ansatz für das "Dark Web Attribute System" zunächst darauf, die Webseiten zugrunde zu legen, die von staatlichen Behörden, internationalen Organisationen oder wissenschaftlichen Experten bzw. Organisationen zur Terrorismusforschung als terroristisch oder extremistisch bezeichnet werden. Eine wirkliche kritische Auseinandersetzung über die Quellen und Zuschreibungen findet offensichtlich nicht statt. Aus den Quellen und mit der Hilfe von Suchmaschinen werden die URLs von terroristischen Webseiten aufgelistet. Diese werden schließlich von Programmen und Menschen nach weiteren URLs durchsucht, um die Basis zu erweitern. Diese werden dann "gefiltert", wobei die Seiten, die auch nur eine leise Unterstützung von Terrorismus enthalten, in den Bestand aufgenommen werden. Dann werden die Inhalte so identifizierten Seiten heruntergeladen und analysiert.

Mit den durch Finanzierung der National Science Foundation (NSF) und anderen Behörden entwickelten Programmen könne man terroristische Netzwerke und Bedeutung ihrer Mitglieder erkennen, aber auch die Beziehungen zwischen Gruppen oder die Stabilität von terroristischen Netzwerken. So würde ein Programm erfassen können, mit welcher Virulenz sich bestimmte Informationen im Web verbreiten. Dazu wird etwa die Zahl von Postings, das Ausmaß und die Dauer von Diskussionen oder die Zahl der Teilnehmer an einer Diskussion festgestellt, um daraus die mögliche "Gefährlichkeit" einer Idee oder eines Plans abzuleiten. Ähnlich werden Webseiten und Formen aufgrund von Äußerungen (Gewaltbereitschaft, Hass etc.) im Hinblick auf ihre mögliche Gefährlichkeit bewertet.

Mit einem neuen Programm, genannt Writeprint werden, wie es in einer Pressemitteilung der NSF heißt, sprachliche, strukturelle und semantische Merkmale" von Texten oder Forenbeiträgen analysiert, um durch Vergleiche des Schreibstils einzelne Autoren zu identifizieren und zu verfolgen. So will man auch darüber Hinweise erhalten, wer empfänglich für Rekrutierung ist. Ähnlich könne man so beobachten, wo einzelne Inhalte kopiert, verlinkt oder diskutiert werden und welche Inhalte am ehesten radikalisierend wirken. Mit Webspidern werden Diskussionsthreads durchsucht, mit anderen Programmen Multimedia-Inhalte wie beispielsweise Videos ausgewertet, mit denen terroristische Techniken vermittelt und verbreitet werden sollen.

Verführerisch enthalten in dem Forschungsprojekt ist die Suggestion, so automatisch aus der Analyse von bestimmten Merkmalen verdächtige Inhalte, Webseiten, Gruppen und Personen herausfischen zu können. Präventiv wird also möglichst alles ausspioniert, was im Web irgendwo geäußert wird, um mit offensichtlich ziemlich plumpen Mitteln "Terrorverdächtiges" herauszufiltern und wahrscheinlich dabei jede Menge an falschen Treffern zu produzieren. Die Folge von solchen Unternehmungen dürfte kaum sein, dass damit Terrorismus besser bekämpft werden kann, sondern dass Meinungsfreiheit und politische Öffentlichkeit Zug und Zug erstickt werden, weil man immer schneller durch Assoziation in Verdacht geraten kann.

Kürzlich hat Hsinchun Chen einen Förderungsantrag an die NSF gestellt, um die angeblich größte Datenbank über terroristische Inhalte im Internet mit "Millionen von Webseiten und Tausenden von Multimedia-Dateien" so aufzubereiten, dass sie regelmäßig aktualisiert wird und sich mit entsprechenden Programmen durchsuchen und auswerten lässt, um so von anderen Wissenschaftlern genutzt werden zu können. Und natürlich soll das Terrorarchiv zu einem Mittel für die Sicherheitsbehörden werden, um frühzeitig auf mögliche Gefahren aufmerksam zu werden. Entwickelt wird mit solchen Programmen nichts anderes als das, was einst ein Blockwart, ein informeller Informant oder ein Spitzel in totalitären Staaten für deren Geheimdienste auch gemacht hat, um Opposition zu bekämpfen und Angst zu verbreiten.