NSA-Programm zur Erkennung von mutmaßlichen Terroristen

Das methodisch fragwürdige Big-Data-Programm Skynet wurde in Pakistan eingesetzt, möglicherweise wurden damit Ziele für Drohnenangriffe ausgewählt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Mit KI-Programmen werden autonome Fahrzeuge gesteuert, lassen sich Vorhersagen treffen, an der Börse Transaktionen in Millisekunden durchführen oder Diagnosen geben. Mit maschinellem Lernen sollen Daten durchforstet werden, um verdächtiges Verhalten zu erkennen. Die NSA hatte nach einem Bericht in Ars Technica von Christian Grothoff und J.M. Porup auch ein KI-Programm eingesetzt, um in Pakistan mögliche Terroristen zu identifizieren (s.a. Data Mining für den Drohnenkrieg). Das kommt schon fast autonomen Kriegsrobotern nahe, die Gegner erkennen und angreifen sollen.

Auch allein das Label eines Terroristen in Afghanistan oder Pakistan kann lebensgefährlich werden, wenn wie vielfach von den USA gemacht, auf Verdacht hin ein mutmaßlicher Extremist oder Terrorist von einer bewaffneten Drohne gejagt und getötet wird. In Pakistan wurden immerhin einige tausend Menschen in den letzten Jahren als "Extremisten" aus der Ferne ausgemacht und getötet (Die mörderischste Terror-Kampagne der Gegenwart). Wie viele Unschuldige oder Zivilisten es getroffen hat, ist ebenso eine Sache der Vermutung wie die Erkennung eines Verdächtigen (Drohnen-Krieg - Geschichten hinter den Opfern).

Das NSA-Programm mit dem schönen Namen SKYNET war erstmals 2015 in Dokumenten, die Edward Snowden geleakt hatte, als eine "Cloud basierte Methode zur Verhaltensanalyse" entdeckt worden. Nach einer Powerpoint-Präsentation aus dem Jahr 2012 wurden dazu aus räumlichen und zeitlichen Geodaten, Reisedaten (wiederholte Abläufe, Mitreisende, Ziele) und Verhalten (Kommunikation, Soziale Netzwerke, Treffen mit anderen Menschen, häufiges Abschalten des Handys, häufiger Wechsel der SIM-Karte oder des Headsets) Hinweise auf verdächtiges Verhalten einer überwachten Person berechnet, um daraus die Wahrscheinlichkeit abzuleiten, ob diese ein Terrorist bzw. ein Kurier sein könnte.

Kuriere würden öfter reisen als der Durchschnitt, al-Qaida-Kuriere bleiben gerne als Gruppen zusammen. Insgesamt werden 80 Eigenschaften für die Erkennung kombiniert, zugrunde liegt das Klassifikationsverfahren Random Forest, das auch gerne vom britischen Geheimdienst GCHQ verwendet wird.

Ins Fadenkreuz geraten, obgleich er weiterhin ein "human in the loop" verblieb, um die Reisebewegungen zu bewerten, ist etwa der Leiter der Redaktion von Islambad, Ahmad Zaidan, weil er eben oft in die Konfliktgebiete reiste, um von dort zu berichten. Er wird als Mitglied der Muslimischen Bruderschaft und von al-Qaida geschildert. So schnell kann es gehen, obgleich SKYNET mitunter angeblich nur eine Falschpositivrate von 0,008 Prozent haben soll, allerdings bei einer "Miss Rate" bzw. einer Erfolgsquote von 50 Prozent, d.h. wenn die Hälfte derjenigen, die als unschuldig eingeordnet wurden, Terroristen sind. Das sei jedenfalls 46 Mal besser als eine Zufallsauswahl.

Für Patrick Ball, ein Datenwissenschaftler und der Direktor der Human Rights Data Analysis Group, wird mit solchen Angaben geschummelt: "Je weniger falsch-negative Fälle sie haben, desto mehr falsch-positive haben sie. Das ist nicht symmetrisch. Es gibt so viele wirkliche negative Fälle, dass man, wenn man die Schwelle zur Reduzierung der falsch-negativen um 1 senken will, man viele tausend zusätzliche falsch-positive akzeptieren muss." Ausgewertet wurden für SKYNET die Telefondaten von 55 Millionen Pakistanern. An einer anderen Stelle ist von einer Fehlerrate von 0,18 Prozent die Rede. Das klingt wenig, beträfe aber unter 55 Millionen bald 100.000 Menschen.

Im Prinzip lernt das Programm die Erkennung anhand von wenigen Exempeln, also etwa von "richtigen" al-Qaida-Kurieren/Terroristen, die mit den Daten von zahlreichen zufällig ausgewählten Menschen abgeglichen werden, um die verdächtigen Merkmale zu erkennen. SKYNET scheint mit den Daten von 100.000 Pakistanern, 0,1 Prozent der Bevölkerung, und 7 "Terroristen" getestet worden zu sein, um zu sehen, wie gut es einen der Muster-Kuriere/Terroristen identifizieren kann. Da eine empirische Überprüfung praktisch kaum möglich ist und die Musterterroristen wenige sind, ist das Programm, das vermutlich seit 2007 eingesetzt wurde, nicht einmal wirklich evaluiert. Ball sagte Art Technika, dass das Programm Mist sei, wenn, wie zu vermuten ist, dieselben Daten zum Trainieren und zum Testen des Modells verwendet wurden.

Ob mit SKYNET nur versucht wurde, Verdächtige herauszufischen, oder ob es auch dazu diente, Ziele für Drohnenangriffe zu finden, ist nicht bekannt, wäre aber durchaus möglich. Dann würde aufgrund einer zweifelhaften Methode die Todesstrafe verhängt und vollstreckt. Lehrreich ist das Programm aber auch dann, wenn man es nur zu Testzwecken entwickelt hätte, denn es markiert auch die Probleme, die mit autonomen Kampfmaschinen einhergehen können.

Diese müssen auch nach gegebenen Regeln in Echtzeit viele Daten abgleichen, um aufgrund eines bestimmten Scores etwa verdächtige Fahrzeuge oder Menschen auszumachen, auf die dann möglicherweise geschossen wird. Selbst bei einer Falschpositivrate von nur 0,008 Prozent würden 15.000 unschuldige Pakistaner als mögliche Terroristen gekennzeichnet. Ähnlich wäre es, wenn solche Programme zur Erkennung von Verbrechern (Vorsicht Rot: Mit "Beware" wird die Polizei vor riskanten Personen und Orten gewarnt), Hooligans oder politisch Oppositionellen eingesetzt würde.

Für eine Anwendung wie der Schaltung einer Online-Werbung ist es kein Problem, wenn an 15.000 Menschen eine falsche Werbung ausgeliefert würde, wenn es aber um Leben und Tod geht, liegt der Fall natürlich ganz anders. Schlechte Wissenschaft nennt Ball SKYNET, angewendet zur Selektion von Todeskandidaten könne die Verwendung eines solchen Programms womöglich auch ein Kriegsverbrechen darstellen.