Gesichtserkennung bei Champions-League-Finale: Tausende fälschlich als Kriminelle identifiziert

Seit 2017 testet die Polizei in Wales ein System zur automatischen Gesichtserkennung in Echtzeit. Beim Finale der Champions League in Cardiff lag sie in 92 Prozent der Fälle falsch. Kein System sei hundertprozentig sicher, verteidigte es die Polizei.

In Pocket speichern vorlesen Druckansicht 136 Kommentare lesen
Überwachungskamera

(Bild: dpa, Patrick Pleul/Symbolbild)

Lesezeit: 2 Min.

Software zur automatischen Gesichtserkennung in Echtzeit hat beim Finale der Champions League 2017 im walisischen Cardiff bei mehr als 2000 Personen fälschlich Alarm geschlagen. Das geht aus nun veröffentlichten Daten zu dem Piloversuch des Systems hervor, die die Polizei von Südwales veröffentlicht hat. Rund um das Spiel waren rund 170.000 Besucher in der Stadt und das System hat 2470 mögliche Treffer angezeigt, von denen sich aber 2297 als falsch herausstellten.

Ein Polizeisprecher verteidigte das System und die damals erzielte Trefferrate von gut 7 Prozent trotzdem und meinte, kein System sei hundertprozentig korrekt, berichtet Wales Online. Niemand sei infolge eines derartige "False Positives" festgenommen worden und aus der Öffentlichkeit habe sich niemand beschwert.

Die Polizei erklärt sich die hohe Fehlerrate beim Finale der Champions League demnach mit der "schlechten Qualität" der Fotos, die von Europas Fußballverband UEFA, Interpol und anderen Partnern geliefert worden seien. Bei anderen Rückgriffen auf die Technik gab es den Zahlen zufolge deutlich weniger angezeigte Treffer, aber meist immer noch mehr falsche als richtige.

Schon zur Ankündigung des Tests in Cardiff hatten Datenschützer Unmut geäußert. So wurde kritisiert, dass die rechtlichen Bestimmungen der zunehmend eingesetzten und weiterentwickelten Überwachungstechnik nicht nachkämen. Die automatische Gesichtserkennung generiere sensible Daten zu tausenden von Menschen und es sei nicht geklärt, was mit ihnen geschehen werde. Angesichts der nun veröffentlichen Daten meinte Big Brother Watch, "Nicht nur ist die automatische Gesichtserkennung in Echtzeit eine Gefahr für Bürgerrechte, sie ist auch ein gefährlich ungenaues Polizeiwerkzeug.". (mho)