Automatische Absichtserkennung

Ein Projekt im Rahmen der deutschen "Sicherheitsforschung" versucht, mit "Intentionsdiagnostik" Schlägereien auf U-Bahnhöfen zu verhindern. Das ist nur ein Beispiel für die gewünschte digitale Mustererkennung als Sicherheitstechnik

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Es ist spät in der Nacht. Der U-Bahnhof in einer deutschen Großstadt ist fast leer, nur ein Fahrgast wartet noch auf die letzte Bahn. Da nähert sich eine krakeelende Gruppe betrunkener Jugendlicher. Es kommt zu einem Wortwechsel, die Situation droht zu eskalieren. Als einer der Jugendlichen den Mann vor die Brust stößt, ertönt plötzlich eine Stimme aus dem Lautsprecher: "Achtung, Sie werden beobachtet! Hören Sie sofort auf!"

So ungefähr sieht das Einsatzszenario von ADIS aus, kurz für "Automatisierte Detektion interventionsbedürftiger Situationen durch Klassifizierung visueller Muster". Dieser Forschungsverbund entwickelt eine Art Alarmanlage für den öffentlichen Personennahverkehr: Das System aus Computersoftware und Digitalkameras soll automatisch erkennen, ob in einer bestimmten Situation ein Eingreifen nötig ist und dann das Wachpersonal darauf hinweisen.

Aus dem Faktenblatt ADIS des BMBF

Mithilfe von Mustererkennung gefährliche Situationen automatisch aus der Flut der Videoaufnahmen herauszufiltern, wäre für die Sicherheitskräfte an Verkehrsknotenpunkten wie Flughäfen oder Bahnhöfen tatsächlich ungemein praktisch. Im vergangenen Jahrzehnt wurde Personal vor Ort abgebaut, beispielsweise auf den Bahnsteigen. Heute überwachen die Mitarbeiter aus der Ferne mithilfe von Videokameras. Diese Kameras liefern ihnen eine Unmenge von Bildaufnahmen. Dass die Überwacher auf die Monitore in den Leitstellen starren, ist aber nicht nur für sie äußerst langweilig, sondern auch wenig erfolgreich. Schon nach wenigen Minuten sinkt die Aufmerksamkeit deutlich. Höchstens eine halbe Stunde am Stück können die Mitarbeiter beobachten, bis sie abgelöst werden müssen. Kommt es dann wirklich zu einer Straftat, werden die Aufnahmen in aller Regel nur nachträglich ausgewertet. Um Gewalt zu verhindern, taugt die bestehende Videoüberwachung kaum. Mehr noch: Es wird immer klarer, dass die präventive und repressive Wirkung der offenen Kameraüberwachung nachlässt, weil ihr Abschreckungseffekt auf überzogenen Erwartungen beruhte.

Das Erkennen von gefährlichen Situationen zu automatisieren, wäre da ein attraktiver Ausweg - allerdings technisch und konzeptionell äußerst ambitioniert. Die Systeme müssen unter anderem perspektivische Verzerrungen und Veränderungen durch den Zoom aus den digitalen Bilddaten herausrechnen, um die festgelegten Merkmale zu detektieren. Damit die Software "interventionsbedürftige Situationen" erkennen kann, werden typische Körperbewegungen von Tätern und Opfern bei Schlägereien formalisiert und mathematisch modelliert.

Das Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik entwickelt zu diesem Zweck eigens eine "Motion Description Language". ADIS erfasst alle Formen von Körperverletzung, außerdem Straftaten, die mit Körperverletzung einhergehen wie beispielsweise Raub. In den spärlichen Publikationen werden aber auch medizinische Notfälle erwähnt, etwa wenn ein Fahrgast wegen eines Schlaganfalls zusammenbricht beziehungsweise, wenig konkret, "andere interventionsbedürftige Szenarien".

Mithilfe von Mustererkennung in die Zukunft schauen?

Aber das Vorhaben ist noch ehrgeiziger: das System soll aggressive Absichten erkennen, bevor sich diese überhaupt in Gewalttaten zeigen. Die Forschungsidee: sobald die "intelligenten Kameras" Muster entdecken, die auf gewalttätige Motive hinweisen, werden die Sicherheitskräfte benachrichtigt. Zu diesem Zweck könnten die entsprechenden Aufnahmen auf den Bildschirmen in den Leitstellen akustisch und visuell hervorgehoben werden. Durch "Intentionsdiagnostik" anhand von Mimik, Gestik und Körperhaltungen der Täter und der Opfer sollen automatisch Prognosen generiert werden.

Um Aussagen über die zukünftigen Handlungen von Individuen treffen zu können, greifen die Psychologen von ADIS auf Ansätze zurück, die menschliches Verhalten auf quantifizierbare Faktoren zurückführen. Dabei handelt es sich unter anderen um die "Theorie des geplanten Verhaltens" beziehungsweise die "Theorie des überlegten Handelns", die von den amerikanischen Psychologen Icek Ajzen und Martin Fishbein entwickelt wurden. Deren Motivationsmodelle werden bisher vor allem von der Werbeindustrie eingesetzt, um das Verhalten von Konsumenten zu prognostizieren. Dabei geht es um Kaufentscheidungen. Ob sich anhand von Körperbewegungen auch Gewalthandlungen wirklich treffsicher genug vorhersagen lassen, ist offen.

Zwischen einer und zwei Minuten wollen die ADIS-Planer durch die "Intentionsdiagnostik" gewinnen - Zeit, in der die Mitarbeiter auf die Situation reagieren könnten. Ob das gelingt? Körperliche Auseinandersetzungen im öffentlichen Raum sind schließlich zu einem großen Teil spontane Affekthandlungen, und die meisten Auseinandersetzungen eskalieren schnell. Beteiligte Wissenschaftler sagen offen, dass der Erfolg des Forschungsprojekts keineswegs feststeht.

Wie jede Alarmanlage muss das ADIS-System außerdem gleichzeitig ausreichend spezifisch und sensitiv sein: Es darf die "richtigen Situationen" weder verpassen noch zu viele Fehlhinweise produzieren; sonst würde das System die Überwacher eher behindern als ihnen zu nutzen. Die "automatisierte Detektion interventionsbedürftiger Situationen" wäre nicht die erste Überwachungstechnik, die in der Praxis scheitert. Auch die Einführung der sogenannten Körperscanners misslang letztlich nicht wegen Datenschutzbedenken, sondern weil () die Wachleute an den Flughäfen mit dem Gerät nichts anfangen konnten.

Das bisherige Einsatzszenario von ADIS sieht vor, die Bahnsteige nicht vollständig zu überwachen, sondern nur einen gekennzeichneten Bereich. Den Fahrgästen stünde dann frei, sich innerhalb oder außerhalb dieser überwachten Zone aufzuhalten. Wie praktikabel oder sinnvoll das ist, wird sich frühstens im März nächstes Jahr herausstellen, wenn eine erste Anlage vorgeführt werden wird. Als Endnutzer wird die Münchner Verkehrsgesellschaft genannt. Feldversuche unter realistischen Bedingungen sind allerdings nicht geplant, lediglich Vorführungen, in denen Projekt-Mitarbeiter die Passanten im öffentlichen Raum mimen.

Außer dem Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik gehören Psychologen von der Ruprecht-Karls-Universität in Heidelberg und die Münchner Firma Indanet Informations- und Datennetze, die Leitstellentechnik entwickelt, zu dem ADIS-Forschungsverbund. Indanet ist auch bei Orgamir dabei, einem weiteren Sicherheitsforschungsverbund für die Abwehr von Terroranschlägen auf Tunnel im großstädtischen Schienenverkehr.

Grundlagenforschung für den Export von Überwachungstechnik

Der Bund fördert ADIS mit etwa 1,2 Millionen Euro. Das Forschungsprojekt gehört zu der Programmlinie "Mustererkennung" der sogenannten Sicherheitsforschung. Wenn es um diese "Forschung für die zivile Sicherheit" geht, dann spricht das Bundesforschungsministerium gerne über neue Ausrüstung für Feuerwehrleute und Rettungssanitäter oder darüber, wie sich mit Technik Katastrophen bei Großveranstaltungen wie der Duisburger Love Parade verhindern lassen. Dass mit dem Forschungsprogramm auch Überwachungstechnik (Rückwärts und vorwärts gerichtete Überwachung) entwickelt wird, die tief in die Privatsphäre eingreift, wird selten erwähnt.

Die "Forschung für die zivile Sicherheit" dient in erster Linie in der Wirtschaftsförderung. Nicht zufällig ist das Programm ein Bestandteil der "Hightech-Strategie", mit der die Bundesregierung die deutsche Position auf dem Weltmarkt sichern will. Durch einen gezielten "Innovationstransfer" soll "die internationale Vorreiterstellung deutscher Anbieter ziviler Sicherheitsprodukte und -technologien langfristig ausgebaut" werden, heißt es aus dem Bundesforschungsministerium. Dabei steht die deutsche Industrie allerdings starken Konkurrenten gegenüber, vor allem aus den USA, Großbritannien und Israel. Im neuen Rahmenprogramm wird die ökonomische Bedeutung der "Sicherheitsforschung" folgendermaßen beschrieben:

Der Markt für Sicherheitsprodukte und -dienstleistungen mit einem globalen Volumen von ca. 100 Milliarden Euro im Jahr 2008 wächst laut Angaben der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) jährlich um fünf bis sieben Prozent. Auf den europäischen Wirtschaftsraum entfallen ca. 30 Prozent des Gesamtvolumens. Die zivile Sicherheitsforschung wird mit ihren Innovationen dazu beitragen, den Markt für Sicherheitstechnologien und -dienstleistungen weiterzuentwickeln, sodass innovative deutsche Unternehmen sowie forschende Einrichtungen von diesem boomenden Markt profitieren können.

Im Jahr 2015 werden laut Bundeswirtschaftsministerium allein in Deutschland 31 Milliarden Euro für Sicherheitstechnik umgesetzt werden. Mustererkennung gilt dabei als Schlüsseltechnologie für die Überwachungstechnik der Zukunft. Außer ADIS versuchen noch vier weitere Sicherheitsforschungsprojekte, diese Technik für Verkehrsknotenpunkte zu nutzen. Während ADIS sich mit U-Bahnhöfen beschäftigt, widmet sich APFEL dem Flughafenterminal und ASEV dem Flughafenvorfeld. Alle diese Projekte versuchen, Bilddaten automatisch nach Auffälligkeiten, Regelverstößen und Gefahrenpotentialen auszuwerten. Solche Anlagen werden auch "intelligente Videoüberwachung" genannt (Smart CCTV). Dazu gehört einerseits das "Tracking", also das automatische Identifizieren und Verfolgen einer verdächtigen Person oder eines Fahrzeugs über mehrere Kameras hinweg, andererseits die Verhaltensanalyse von Individuen oder Gruppen.

In der deutschen Sicherheitsforschung findet sich beides: APFEL beispielsweise - "Analyse von Personenbewegungen an Flughäfen mittels zeitlich rückwärts- und vorwärtsgerichteter Videodatenströme" - entwickelt eine Anlage, mit der die Sicherheitskräfte in einem Flughafenterminal feststellen können, wo sich ein Verdächtiger zuvor aufgehalten hat und welchen Weg er wahrscheinlich als nächstes nehmen wird. Bei einer Abweichung von den gängigen Bewegungsmustern erzeugt das System einen Hinweis, um "frühzeitig das Gefahrenpotential einschätzen zu können". Im Rahmen von ASEV ("Automatische Situationseinschätzung für ereignisgesteuerte Videoüberwachung") entsteht eine Anlage, die automatisch im Flughafenvorfeld Gegenstände oder Personen entdecken soll, die dort nichts zu suchen haben.

Und der Datenschutz?

An den Projekten der Sicherheitsforschung sind nicht nur Techniker und Informatiker, sondern auch viele Juristen, Psychologen, Geistes- und Sozialwissenschaftlern beteiligt. Allerdings thematisieren diese "Sicherheitsforscher" nicht die Frage, unter welchen Bedrohungen die Bevölkerung eigentlich leidet und was dagegen zu tun wäre. Ihre Beteiligung ändert wenig an der Orientierung des Forschungsprogramms auf Anwendung und Vermarktung anhand von feststehenden Szenarien des Katastrophenschutzes, der Terrorabwehr und Kriminalitätsbekämpfung.

Andererseits haben die Verantwortlichen durchaus recht, wenn sie betonen, dass die Sozialwissenschaftler mehr als nur "Begleitforschung" betreiben würden. Die Nicht-Techniker erfüllen vielmehr notwendige Aufgaben, um die Technik einsatzfähig zu machen: Sie erforschen, was die Anwender in den Sicherheitsorganisationen haben wollen, welche Vorhalte in der Bevölkerung bestehen und erarbeiten die Grundlagen für die Modelle von Gefährlichkeit, die letztlich technisch mit den Sensordaten abgeglichen werden.

Bislang ist ziemlich wenigen Menschen überhaupt bekannt, was "intelligente Videoüberwachung" eigentlich ist und wozu sie dient. Wenn sie aber von Kontroll- und Überwachungsanwendungen erfahren, die mit digitaler Mustererkennung arbeiten, stoßen diese oft auf Misstrauen. Besonders die Tatsache, dass statt Menschen Maschinen einen Teil der Überwachung übernehmen, verursacht ein mehr oder weniger diffuses Unbehagen.

Die Projektmitarbeiter von ADIS, ASEV etc. betonen deshalb, dass sie lediglich "Assistenz-Systeme" entwickeln. Nach wie vor würden Menschen die letzte Entscheidung darüber treffen, ob ein Verdächtiger weiter beobachtet oder gar verhaftet wird. Dennoch werden die Maschinen eine entscheidende Rolle spielen, indem sie bestimmte Auffälligkeiten und Normabweichungen entdecken - und andere eben nicht. ADIS zum Beispiel arbeitet mit einem Katalog von Gesichtsausdrücken und Körperbewegungen, die mit einer "hinreichenden" Wahrscheinlichkeit auf künftige Gewalttaten hinweisen. Sofern das Sicherheitspersonal die technischen Anlagen tatsächlich und intensiv nutzt, lenken diese ihre Aufmerksamkeit auf Menschen, die ansonsten nicht ins Visier der Überwacher geraten wären.

Ist so etwas mit dem bestehendem (Datenschutz-)Recht vereinbar? Die juristische Antwort lautet, wie üblich: Kommt drauf an. In Deutschland gilt das Grundrecht auf informationelle Selbstbestimmung als Voraussetzung für eine demokratische Gesellschaft. Als Abwehrrecht wendet es sich gegen den Anpassungsdruck, der entsteht, wenn die Bürger nicht nachvollziehen können, ob und wie sie gerade überwacht werden und wer welche Informationen über sie hat. Die datenschutzrechtliche Regulierung beschäftigt sich daher mit der Frage, welche Verhaltensänderungen akzeptabel sind und welche Informationen die Überwachten erhalten müssen, um der "informationellen Selbstbestimmung" Genüge zu tun.

Das Sicherheitsforschungsverbund MUVIT ("Mustererkennung und Video-Tracking") analysiert die psychologischen, soziologischen und rechtswissenschaftlichen Konsequenten der teil-automatisierten Videoüberwachung. Dazu gehört auch die Suche nach grundrechtskonformen Einsatzmöglichkeiten für die "intelligenten Kameras". Psychologen überprüfen die sogenannte Einschüchterungsthese empirisch, indem sie testen, ob sich das Verhalten von Probanden ändert, wenn sie glauben, dass sie gerade von mustererkennenden Kameras beobachtet werden. Angeblich verändern viele Versuchspersonen in diesen Laborstudien tatsächlich ihr Verhalten, haben eine gesteigerte Selbstwahrnehmung und vermeiden, wenn möglich, die Überwachung.

Das allerdings könnte daran liegen, dass bisher kaum jemand praktische Erfahrung mit der nächsten Generation der Videoüberwachung hat und der Technik zu viel zugetraut wird. Auch die klassische Videoüberwachung wirkte anfangs wesentlich einschüchternder als heute.

Nach den bisherigen Konzepten werden für die mustererkennende Sicherheitstechnik keine personenbezogene Daten gespeichert. Technisch ist es allerdings möglich, ein verhaltensdetektierendes mit einem identifizierenden, beispielsweise einem biometrischen System zu verbinden. Weil durch die fortschreitende Automatisierung die Kosten sinken, wird eine neue Kontrolldichte möglich. Es gehört weder viel Phantasie noch böser Wille dazu, um sich auszurechnen, wozu die "intelligente Videoüberwachung" beispielsweise in einer chinesischen Fabrik oder einem öffentlichen Platz in Saudi-Arabien eingesetzt werden könnte - und dass es Menschen bald schwerer haben werden, die im öffentlichen Raum liegen oder sitzen, anstatt sich wie vorgesehen von Schaufenster zu Schaufenster zu bewegen.

Dieses repressive Potential der Mustererkennung führt in unbequeme gesellschaftspolitische Fragen, zu deren Beantwortung der Datenschutz allerdings nichts beitragen kann. Zum Beispiel diese: Wie weit soll soziale Kontrolle überhaupt technisiert, professionalisiert und arbeitsteilig ausgeübt werden? Für welche Zwecke sind solche Anlagen angemessen? Ob die entsprechende Forschung und Entwicklung mit Steuergeldern unterstützt werden sollte, ist da noch vergleichsweise leicht zu beantworten.