Snowden beschaffte sich Daten mit klassischem Webcrawler

KISS (Keep It Simple and Smart): Nach diesem Prinzip hat sich Edward Snowden offensichtlich bei der NSA automatisiert die Millionen vertraulicher Dateien besorgt.

In Pocket speichern vorlesen Druckansicht 158 Kommentare lesen
Lesezeit: 1 Min.
Von
  • André von Raison

Schon länger hatten Experten bezweifelt, dass Edward Snowden die geschätzt 1,7 Millionen Dokumente von der NSA manuell kopiert hat. Jetzt hat die New York Times einen Bericht veröffentlicht, in dem einige nicht näher genannte NSA-Offizielle über die Ergebnisse der internen Untersuchungen berichten.

Demnach hat der Whistleblower für seine Informationsbeschaffung keine Spezialsoftware benutzt, sondern auf klassische Webtechnik gesetzt. Er ließ entsprechend konfigurierte Crawler laufen, die sich weitgehend automatisch durch die internen NSA-Netze bewegten und dabei alle besuchten Dokumente kopierten. Suchmaschinen wie Google oder Yahoo setzen Crawler beispielsweise zum Analysieren und Indizieren des Internet ein.

Den Berichten zufolge arbeitete Snowden von der NSA-Außenstelle auf Hawaii aus, die in Sachen Absicherung gegen Innentäter nur sehr rudimentär ausgestattet war. DIe NSA-Ermittler sind überzeugt: Hätte der Whistleblower im NSA-Hauptquartier in Fort Meade gearbeitet, hätte die dort installierte Überwachungstechnik beim Zugriff auf eine derart große Informationsmenge Alarm geschlagen und Snowden wäre frühzeitig gefasst worden. In ihrem Bericht heißt es, dass Snowdens Angriff keineswegs besonders ausgeklügelt gewesen sei, man hätte ihn eigentlich leicht entdecken können. Eine ausführlichere Einschätzung findet sich bei den Kollegen von Telepolis. (avr)