Kamera mit Blick fürs Böse

Ein weltweit einzigartiges Überwachungssystem will Täter schon vor der Tat durch ihr Verhalten entlarven.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 6 Min.
Von
  • Joseph Scheppach

Ein weltweit einzigartiges Überwachungssystem will Täter schon vor der Tat durch ihr Verhalten entlarven.

Kurz vor Mitternacht in einer Amsterdamer U-Bahn-Station, die als problematisch gilt und besonders überwacht wird: Zwei Jugendliche bewegen sich mit geballten Fäusten auf einen Mann zu. Sie wollen handgreiflich werden, doch plötzlich ertönt eine Lautsprecherstimme: "Ich sehe, was Sie tun. Hören Sie sofort auf." Erschrocken rennen die Angreifer davon.

Das Beispiel ist fiktiv – aber vielleicht nicht mehr lange. Vorausschauendes Eingreifen, um Gewalt zu verhindern, könnte an öffentlichen Plätzen bald alltäglich werden. Denn Forscher entwickeln derzeit ein weltweit einzigartiges Überwachungssystem, das nicht nur Videos liefert, sondern automatisch Alarm schlägt, wenn sich eine Person auffällig verhält. "Unsere intelligenten Kameras können gleichsam Gedanken lesen", sagt Dariu Gavrila von der Universität Amsterdam.

Mit seiner Apparatur zum "Predictive Policing" ("vorhersagende Polizeiarbeit") will der Informatiker bisherige Überwachungskameras übertreffen: Während herkömmliche Systeme eine Gewalttat erst dann erfassen, wenn sie schon passiert ist, soll das neue, intelligente Kamerasystem schon im Vorfeld erkennen können, ob sich jemand anschickt, gewalttätig zu werden. Immerhin rund 4,5 Millionen Euro pumpte die EU in das Projekt ADABTS. Das Kürzel steht für "Automatische Erkennung von abnormen Verhaltensweisen und Bedrohungen in überfüllten Räumen". Es soll helfen, jene Myriaden von Bildern auszuwerten, die Überwachungskameras in Smart Cities liefern, um für Sicherheit zu sorgen.

Was für manche Sicherheitsverantwortliche die Erfüllung eines alten Polizistentraums ist, sehen andere als gefährlichen Eingriff in die Freiheit des Einzelnen. Schleswig-Holsteins Datenschutzbeauftragter Thilo Weichert etwa warnt vor "intelligenten Mustererkennungsverfahren, die dort hochgefährlich sind, wo direkt aus der automatisierten Erkennung ein elektronischer Schluss gezogen wird". Denn auch unschuldige Bürger geraten ins Visier. Freundschaftliches Boxen bei der Begrüßung beispielsweise könnte als aggressives Schlagen gewertet werden – und die Polizei auf den Plan rufen.

Bisher ist für derartige Analysen das menschliche Auge zuständig. Vor den Bildschirmen in Kontrollräumen sitzt Sicherheitspersonal stundenlang und muss meist Dutzende Screens gleichzeitig im Blick haben. Allein in Amsterdam etwa sind an öffentlichen Plätzen einige Hundert Späher installiert – und ein Vielfaches davon im Privatbereich, in Einkaufszentren und in Bürogebäuden.

Alle eingehenden Videoinfos zu erfassen, "überfordert diese Leute", sagt Maarten Hogervorst von der niederländischen Hightech-Schmiede TNO, der die Grenzen menschlichen Wahrnehmungsvermögens experimentell ausgelotet hat. Mittels "Eyetracking" hat er gemessen, wohin die Versuchspersonen ihr Augenmerk richten. "Selbst geschultes Personal kann höchstens sechzehn Monitore parallel überwachen", so der Informatiker. "Nach etwa vierzig Minuten setzt ein Zustand ein, den wir Videoblindheit nennen: Gefährliche Situationen werden nicht mehr rechtzeitig oder gar nicht mehr erkannt."

Die Forscher um Gavrila wollen die Menschenbeobachtung daher automatisieren. Dazu haben sie Hochleistungsprozessoren, die Bilder sekundenschnell verarbeiten können, mit einer zusätzlichen Fähigkeit ausgestattet: Durch eine spezielle Programmierung lernt das System, auffälliges Verhalten zu erkennen. "Um zu registrieren, wann im Bild Aggressionen zu sehen sind, muss das System die Körpersprache mehrerer Menschen gleichzeitig erfassen", erklärt Gavrila. "Wie gehen sie aufeinander zu? Wie bewegen sie Beine und Arme?"

Damit der Computer lernt, Situationen richtig einzuschätzen, spielen ihm Schauspieler immer wieder bestimmte Szenen vor, die in Handgreiflichkeiten enden. Wird die Szene später in ähnlicher Weise von den Sensordaten einer Kamera erfasst, sind die Verhaltensmuster schon gelernt. Die künstliche Intelligenz des Systems schätzt dann die potenzielle Aggressivität des Verhaltens selbstständig ein.

Spielhandlung und reale Gewalt laufen allerdings nicht immer exakt nach demselben Muster ab. Deshalb bekommt die Software keine fertige Verhaltensrezeptur eingetrichtert. Sie soll ihr Urteil stattdessen in mehreren Stufen bilden. "Schreie" und "schnelle Schritte" allein beispielsweise gelten zunächst nur als Verdachtsmomente, etwa für einen Überfall. Es wird noch kein Alarm ausgelöst. Schließlich könnte es sich auch um eine wilde Begrüßung von Leuten handeln, die aufeinander zu rennen. Kommen jedoch zusätzliche Informationen hinzu wie "Box-Bewegungen" und "fallende Person", gilt das als starker Hinweis auf eine Handgreiflichkeit oder einen Überfall. Dank mehrerer vernetzter Kameras lassen sich die Szenen zudem aus verschiedenen Blickwinkeln analysieren.

Auf diese Weise wollen die Forscher nicht nur Gewalttaten, sondern auch Einbrüche und sogar Anschläge von Terroristen verhindern. Dazu lernt das System beispielsweise, dass "exzessives Herumzappeln" und "ständiges Umherschauen" Hinweise auf nervöses Verhalten sind. Trägt die Person auch noch eine Sonnenbrille bei bewölktem Himmel, folgert das System, dass es sich um einen Einbrecher oder gar um einen Terroristen handeln könnte. In so einem Fall alarmiert das System das Sicherheitspersonal, damit es den Verdächtigen fortan im Auge behalten kann. In Labortests hat das Ausspähen von Personen mit "verdächtigen Merkmalen" schon gut funktioniert.

"Als schwieriger stellte sich bei Versuchen im Amsterdamer Bahnhof das Einschätzen einer potenziell gewalttätigen Personengruppe heraus", räumt Gavrila ein. "Das System ist noch nicht fähig zu unterscheiden, ob es sich um jubelnde Leute handelt, die sich friedlich auf die Schulter klopfen, oder um Personen, die sich anschreien und aggressiv boxen. Dies liegt unter anderem daran, dass sich ADABTS auf die Auswertung von Verhaltensmustern beschränkt und menschliches Verhalten komplex ist."

Vor diesem Problem dürfte auch ein weiteres, ähnlich gelagertes Projekt stehen. Mit ihrer FAST-Technology (Future Attribute Screening Technology) will die US-Heimatschutzbehörde subtile physiologische Faktoren vermessen, um so mögliche Attentäter zu entlarven. Bei der Kontrolle an Flughäfen etwa könnte eine mit Sensoren und Videokameras bestückte Sicherheitsschleuse Herzschlag, Atmung und Lidschlagrate messen sowie die Mimik per Video analysieren. Die Daten sollen verraten, ob jemand gestresst ist, weil er beispielsweise die Unwahrheit sagt.

Bei Labortests gelang es mit über 75-prozentiger Sicherheit, Probanden mit unauffälligem Verhalten von Personen zu unterscheiden, die sich in die Rolle eines Terroristen versetzten. Viele Forscher aber bezweifeln, dass dieses Screening auch in der Realität funktioniert. "Ich kenne keinen wissenschaftlichen Nachweis", so Sozialwissenschaftler Stephen Fienberg von der Carnegie Mellon University, "dass aus der Herzschlagrate oder der Mimik Rückschlüsse auf die wahren Absichten eines Menschen gezogen werden können."

Ins FAST-Raster dürften demnach auch viele Unschuldige fallen. Für die Betroffenen wäre das unangenehm. In den Fehlschlüssen könnte aber eine Hoffnung liegen: Dass die Technologie der Polizei am Ende mehr Arbeit macht als erspart – und die nahtlose Überwachung vorerst am Facettenreichtum des menschlichen Verhaltens scheitert. (bsc)