KI: Massenkontrolle durch Anomalie-Erkennung

Die automatische Erkennung von Anomalien wird immer häufiger zur Analyse menschlichen Verhaltens in der Öffentlichkeit eingesetzt. Schafft das mehr Sicherheit?

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Algorithmen: Das ist doch nicht normal!

(Bild: Shutterstock)

Lesezeit: 9 Min.
Von
  • Christian Honey
Inhaltsverzeichnis

Eine Szene aus einem Überwachungsvideo auf dem Campus der University of Minnesota: ein Sommertag, der Himmel ist blau, Studenten laufen kreuz und quer über eine Rasenfläche, die von Gehwegen gesäumt ist. Doch plötzlich sprinten alle auseinander. Schnell ist der Platz wie leer gefegt. Im Bild erscheint ein roter Schriftzug: anomales Verhalten.

Das Video ist Teil des UMN Unusual Crowd Activity Dataset, einer Sammlung gestellter Überwachungsvideos zur Analyse ungewöhnlichen Verhaltens in Menschenmengen. Und der rote Alarm ist der Output eines Algorithmus zur Panikerkennung, den eine Forschergruppe aus der Türkei und Irland 2017 in einem Artikel für die Conference on Advanced Video and Signal-based Surveillance (AVSS) veröffentlicht hat. Er steht für einen recht jungen Trend in der KI-Forschung: die Methoden der automatischen Anomalie-Erkennung auf menschliches Verhalten anzuwenden.

Lange beschränkte sich das Aufgabenfeld der Anomalie-Erkennung auf das virtuelle Leben, etwa auf Kursschwankungen im Aktienhandel, Attacken in Computernetzwerken oder die Entdeckung von Kreditkartenbetrug mithilfe von Transaktionsdaten. Doch seit ein paar Jahren verzeichnen KI-Forscher erste Erfolge auch bei der Analyse menschlichen Verhaltens im öffentlichen Raum. Ihre Algorithmen versprechen, die Sicherheit bei Massenveranstaltungen zu erhöhen, Terrorakte zu verhindern und Panik in Menschenmengen früh zu erkennen. Zugleich ermöglicht die Anomalie-Erkennung allerdings eine Form der Massenüberwachung, die ganz ohne Zugriff auf personenbezogene Daten auskommt. Man muss nur unnormal genug agieren.