Politischer Bedarf an einfachen Aussagen

Überwachungssysteme: Methoden-Fight in der Wirkungsforschung

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Im Streit um Überwachungstechnologien sind vermeintlich gesicherte Zahlen und Fakten dankbar genutzte Argumentationshilfen. Ob es um Videoüberwachung oder um biometrische Identifikationssysteme geht: Mit dem Nachweis, dass die Technik tatsächlich funktioniert, ist oftmals die politische Diskussion vorerst beendet - Punktsieg für die Überwachungsbefürworter.

Entsprechend häufig findet man in der öffentlichen Diskussion Aussagen wie in dieser Erfolgsmeldung von der Newcastle University:

CCTV cameras have helped to cut crimes committed in the university grounds by more than 50% over the past six years.

„Das Problem dabei ist: So eine präzise Aussage kann man nur machen, wenn man alle möglichen Dinge vernachlässigt, die das Ergebnis ebenfalls beeinflusst haben könnten. Was im Einzelnen unter den Tisch fällt, hängt vom Zweck der Untersuchung ab", meint dazu Kevin Haggerty, ein kanadischer Soziologe und Kriminologe, der sich mit dem Einfluss politischer Faktoren auf die Evaluation von Sicherheitstechnik beschäftigt.

Der Trend, verschiedenste Datenquellen von Video über Fingerabdrücke bis hin zu DNA-Informationen zu integrieren und somit immer undurchsichtigere Systeme zu konstruieren, macht es der Forschung immer schwerer, die Auswirkungen zu belegen, wie auch vor kurzem auf einer Konferenz an der TU Berlin zu hören war.

Die Leute, die diese Studien durchführen, wissen um die Komplexität. Aber es gibt einen politischen Bedarf an einfachen Aussagen.

Kevin Haggerty

Diese stehen auf dem manchmal wackligen Boden allgemeiner wissenschaftlicher Prinzipien. Gerade in den Sozialwissenschaften bekommt man nicht automatisch valide Aussagen, wenn man nur alle Regeln befolgt. Man kann nicht für alle Zeit beweisen, dass ein Ergebnis stimmt – man kann höchstens nachweisen, dass es nicht stimmt.

Die Debatte um Wirkungsstudien ist oft eine Stellvertreter-Debatte für politische Auseinandersetzungen, in der es darum geht, mit methodischen Argumenten dem Gegner den Boden unter den Füßen weg zu ziehen. Haggerty vergleicht sie mit einem Straßenkampf: "Es gibt keine Regeln":

Die Beteiligten vollziehen 'rituelle' Schachzüge mit dem Ziel, die Aussagen der Gegner mit methodischen Argumenten zu zerstören. Teil ihres Könnens ist, mögliche Kritik und diese Schachzüge voraus zu sehen. Du musst in der Lage sein, deine Argumente taktisch geschickt zu verteidigen und die deiner Gegner zu zerstören.

Die Taktik

Die Trickkiste für den Methoden-Fight gibt einiges her. Das beginnt bei ganz grundlegenden Fragen: Wie definiert man eigentlich die Kriterien für das "Funktionieren" eines Überwachungssystems? Der in den USA bekannte Kriminologe Lawrence W. Sherman veröffentlichte 2002 die Überblickstudie "Evidence Based Crime Prevention", die die Wirkung von Überwachungstechnologie in insgesamt 25 Bereichen analysiert und dazu alle verfügbaren Studien vergleicht, die seit Einführung der jeweiligen Technologie durchgeführt wurden.

Das Ergebnis des umfangreichen Werkes ist eine schlichte Tabelle mit der abschließenden Bewertung: funktioniert – funktioniert nicht – nicht eindeutig. Als "funktionierend" wurde eine Technologie definiert, wenn zwei verschiedene Einzelstudien zu diesem Ergebnis kamen.

"Nach 40 Jahren kriminologischer Forschung: warum ausgerechnet zwei – und nicht drei oder vier?", fragt Haggerty. Nur ganz nebenbei in der Einleitung würden die Autoren eine Begründung dafür liefern:

Hätten sie die Schwelle höher gesetzt, wäre es schwierig gewesen, zu irgendeinem eindeutigen Ergebnis zu kommen. Die Autoren gingen – vielleicht unbewusst – von der Annahme aus, dass etwas funktioniert.

Einige biometrische Identifikationssysteme können mit weitaus beeindruckenderen Nachweisen aufwarten. Manche Systeme zur Gesichtserkennung z.B. erzielen in Tests Erfolgsraten von 98 Prozent. Hier kann es aufschlussreich sein, das Endergebnis zu zerlegen: "Gilt das für alle Bevölkerungsgruppen? Es gab Tests in Großbritannien, bei denen die Erkennungsraten für körperlich beeinträchtigte Menschen bei 40 Prozent lagen", so Haggerty. Ein Detail, das in der politischen Diskussion zu einem entscheidenden Argument werden könnte.

Ein weiteres Problem sind "falsch positive" oder "falsch negative" Ergebnisse, die bei 98 Prozent Erfolgsrate immerhin in zwei Prozent der Fälle auftreten. Übertragen auf die Praxis sind selbst diese unter Laborbedingungen erzielten Werte nicht akzeptabel.

Bestes Beispiel ist der Einsatz zur Terrorabwehr an Flughäfen: Auf dem Frankfurter Flughafen mit jährlich 50 Millionen Passagieren wären zwei Prozent Fehlerrate gleichbedeutend mit fast 3.000 Fehlern pro Tag, bei denen das System entweder falschen Alarm schlägt – oder fälschlicherweise einen Terroristen als harmlos bewertet.

Versuche am Bostoner Flughafen (vgl. Bostons Gesichtserkennung versagt - im Geheimen) und in Tampa (vgl. Gesichtserkennungssystem machte nur Fehler) wurden vor einigen Jahren wieder eingestellt. Wie gut sich die Gesichtserkennung am Mainzer Hauptbahnhof schlägt, für die eine Erfolgsrate von 80 Prozent erwartet wird, bleibt abzuwarten.

Die Videoüberwachung des öffentlichen Raums ist hingegen bereits gründlich in der Praxis erprobt. In Großbritannien, das die höchste Kameradichte aufweist, gibt es zahllose Wirkungsstudien. Doch da sich die lokalen Gegebenheiten und die Details der Sicherheitkonzepte zum Teil deutlich unterschieden, ließe sich nach Erkenntnissen von Haggerty kein allgemeines Fazit ziehen. Die Ergebnisse sind wegen der vielen lokalen Unsicherheitsfaktoren schlicht nicht übertragbar:

Ein Rückgang der Kriminalitätsrate könnte wegen der Verhaftung von einzelnen, besonders aktiven Kriminellen eingetreten sein. Sie könnten auch einfach weggezogen sein. Oder es war im Untersuchungszeitraum gleichzeitig mehr Polizei auf der Straße. Möglicherweise liegt es auch an der demografischen Entwicklung, dem Fehlen junger Männer – die sind statistisch gesehen überproportional kriminell.

Die Fairness

Teil des Problems bei der Diskussion um die Wirksamkeit von Überwachungstechnologien ist nach Auffassung des kanadischen Soziologen, dass viele kritische Personen schlicht nicht in der Lage seien, selbst entsprechende Studien zu finanzieren.

Viele Kenntnisse stammten aus Untersuchungen von Firmen und Organisationen, die selbst die Technologien verkaufen. Daher veröffentlichen sie nicht alle Ergebnisse ihrer internen Studien, sondern nur die besten. Dabei sind die Auftraggeber in der komfortablen Position, möglichst viel versprechende Testfälle und besonders geeignete Einsatzorte bestimmen zu können.

Die methodischen Details werden manchmal mit dem Hinweis auf die nötige Geheimhaltung von Firmeninterna gar nicht genannt, so dass nicht überprüfbar ist, wie belastbar die Ergebnisse sind. Externe Kritiker sind in so einem Fall von vornherein benachteiligt.

Auch in Rechnungen, die die Kosten von Sicherheitstechnologie den Kosten von Kriminalität gegenüberstellen lassen sich fragwürdige Details verschleiern. Wenn eine Untersuchung ergibt, dass die Anbringung eines Videosystems auf einem öffentlichen Platz für einige zehntausend Euro dazu beigetragen hat, Schäden durch kriminelle Handlungen in weit größerer Höhe abzuwenden, wird das von der Lokalpolitik nur zu gerne aufgegriffen.

Hinter den Gesamtsummen verbergen sich mitunter Einzelposten, bei denen subjektive Erfahrungen wie z.B. emotionale Schäden oder sexuelle Belästigung mit Geldbeträgen bewertet werden. Diese Quantifizierung finde meist einseitig zu Gunsten der untersuchten Technologien statt und vernachlässige ihre negativen Folgen, so Kevin Haggerty:

Wenn wir – als Gegner einer solchen Technologie - für die Studie verantwortlich wären, könnten wir sagen: Warum beziffern wir nicht den Verlust an menschlicher Würde? Warum beziffern wir nicht die Einschränkung persönlicher Freiheitsrechte?

Die Strategie

Bleibt die Frage, wohin eine Debatte über die funktionale Bewertung von Überwachungstechnologien führt. So begehrt wissenschaftlich gestützte Argumente auch sind: Die meisten Überwachungssysteme wurden nicht eingeführt wurden, weil sie nachweislich funktionierten. Das beste Beispiel ist der 11. September. Die Terroranschläge setzten die Politik unter enormen Handlungsdruck, und die Sicherheitsindustrie nutzte ihre Chance, Technologien zu verkaufen, die sie schon seit Jahren einsetzen wollte.

Vor diesem Hintergrund wird klar, dass die Auseinandersetzung um methodische Details auch die Gefahr birgt, sich zu verzetteln. "Das führt uns von der eigentlich wichtigen Diskussion weg: von einer normativen Diskussion darüber, ob wir diese Dinge wollen oder nicht", meint dazu Kevin Haggerty.

Das Ziel sollte sein, als Gesellschaft normative Positionen zu den grundsätzlichen Fragen zu entwickeln: Ist der Technologieeinsatz richtig und gerecht? Birgt er möglicherweise Gefahren? Werden alle Betroffenen fair behandelt?

Wenn sich jedoch die Debatte in technischen Details verliere, würden "normale" Bürger ausgegrenzt, weil sie sich nicht an statistischen und technischen Argumentationen beteiligen könnten. Dabei sind sie diejenigen, die von Überwachungskameras in der Nachbarschaft oder Funkchips im Reisepass betroffen sind und darüber entscheiden sollten – unabhängig davon, wie effektiv sie ihren Zweck erfüllen.