Gesichtserkennung in London: Schlechte Trefferrate und wohl ohne Rechtsgrundlage

Forscher untersuchen die Gesichtserkennung bei der Londoner Polizei. Fazit: Die Trefferquote ist schlecht und Menschenrechte werden wohl missachtet.

In Pocket speichern vorlesen Druckansicht 60 Kommentare lesen
Gesichtserkennung in London: Miese Trefferquote und wohl ohne Rechtsgrundlage

(Bild: pixabay.com)

Lesezeit: 4 Min.

Zwei Forscher der Universität Essex haben die Gesichtserkennung der Londoner Polizei untersucht und kommen zu einem vernichtenden Urteil: Nicht nur ist die Trefferquote der Software mit gerade mal 20 Prozent miserabel, zudem seien juristische Überlegungen insbesondere zu menschenrechtlichen Implikationen beim Einsatz einer solchen Technik, die tief in die Privatsphäre eindringe, kein Projektbestandteil gewesen. Die Forscher kommen zu dem Schluss, dass der Einsatz der Gesichtserkennung bei der Londoner Polizei in dieser Form höchstwahrscheinlich Menschenrechte verletze und bei einer gerichtlichen Überprüfung keinen Bestand haben dürfte.

Der Report von Prof. Peter Fussey und Dr. Daragh Murray sei die erste von unabhängiger Stelle finanzierte akademische Untersuchung des Erkennens von Gesichtern in Echtzeit (Live Facial Recognition, LFR) zum Aufspüren gesuchter Krimineller in der Öffentlichkeit, wie sie bei der Londoner Polizei (Metropolitan Police) zum Einsatz kommt. Die beiden Forscher vom Projekt "Human Rights, Big Data & Technology" fordern in ihrer Untersuchung, alle LFR-Tests zu stoppen, solange die Bedenken wegen fehlender Berücksichtigung der Menschenrechte nicht ausgeräumt sind. Die Forschen konnten insgesamt sechs LFR-Tests in zwei Londoner Stadtteilen sowie in einem Einkaufszentrum im Livebetrieb begleiten. Die Tests liefen von Juni 2018 bis Februar 2019.

Die Forscher halten es für höchst wahrscheinlich, dass der LFR-Einsatz der Metropolitan Police vor einem Gericht als unrechtmäßig erachtet werden würde, da ihm die Rechtsgrundlage fehle und es keine einsehbaren Richtlinien für den Einsatz gebe. Die Polizei habe sich bei ihren Tests lediglich auf technische Aspekte konzentriert und rechtliche Aspekte bereits bei der Planung außer Acht gelassen. Insbesondere die Berücksichtigung der Menschenrechte sei ausgeblieben und die Gesichtserkennung einer herkömmlichen Videoüberwachung gleichgesetzt worden, schreiben die Forscher. LFR sei jedoch ein erheblicher Eingriff in die Privatsphäre und verarbeite biometrische Informationen – dies habe die Polizei nicht berücksichtigt und auch keine Abwägung vorgenommen, inwiefern der LFR-Einsatz in der Öffentlichkeit mit den Grundsätzen einer demokratischen Gesellschaft vereinbar sei.

Außerdem bemängeln die Forscher, dass ethische Gesichtspunkte für Tests nicht ausreichend zum Tragen gekommen seien und das Verhalten der Betroffenen so interpretiert wurde, als befände sich das System bereits in Betrieb. Wer etwa als unbeteiligter Passant die Erkennung durch eine Kamera vermeide, zeige dadurch aus Forschungssicht, dass er an dem Test nicht teilnehmen wolle. Für die Polizei jedoch mache sich eine Person durch ein solches Verhalten gerade verdächtig.

Bei den 6 untersuchten Testreihen meldete die Software zwar 42 Treffer, die zu 22 Zugriffen führten, jedoch konnten die Forscher nur in 8 Fällen sicher bestätigen, dass die Software auch wirklich eine wegen einer schweren Straftat gesuchte Person identifiziert hatte. Zudem sei oft nicht klar, warum eine Person auf der Beobachtungsliste der Polizei lande. Beobachtet wurden auch Defizite beim Umgang der Polizisten mit vermeintlichen Treffern, etwa wenn Personen kurzerhand angehalten wurden, obwohl der Treffer nicht ausreichend überprüft worden war oder die Vorwürfe nicht schwerwiegend genug für eine Personensuche per LFR waren.

Bei einem Fußballspiel in Cardiff im vergangenen Jahr hatte dieselbe Technik (Neoface vom Hersteller NEC) in tausenden Fällen Menschen fälschlich als Verbrecher identifiziert. Auch in Deutschland gibt es ein ähnliches Pilotprojekt am Berliner Bahnhof Südkreuz, von dessen Resultaten Innenminister Seehofer so sehr überzeugt ist, dass er auf breite Einführung des Systems bei der Polizeiarbeit dringt. Der Bundesdatenschutzbeauftragte warnt jedoch vor automatischer Gesichtserkennung und hält sie für "hochproblematisch". (tiw)