Gesichtserkennung für verdächtige Kinder

Human Rights Watch hat entdeckt, dass Kinder in Argentinien in einer Datenbank als mutmaßliche Straftäter geführt werden – teils unter Klarnamen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Hye Jung Han von Human Rights Watch hat die zweifelhafte Fahndungsmethode öffentlich gemacht.

(Bild: Human Rights Watch)

Lesezeit: 3 Min.
Von
  • Karen Hao

Eine neue Untersuchung von Human Rights Watch hat ergeben, dass Argentiniens Nationales Kriminalregister „Consulta Nacional de Rebeldías y Capturas“ (Conarc) zahlreiche Minderjährige und sogar Kleinkinder als mutmaßliche Straftäter führt. Einer der jüngsten mutmaßlichen Täter, dessen Vergehen mit „Verbrechen gegen Personen (böswillig) – schwere Verletzungen“ angegeben wurde, ist gerade mal vier Jahre alt.

Obwohl die Regierung bestritten hat, dass Conarc auch Minderjährige erfasst, hat Human Rights Watch zwischen Mai 2017 und Mai 2020 mindestens 166 Kinder in verschiedenen Versionen der Datenbank gefunden. Die meisten werden illegalerweise mit vollem Namen geführt. Nach internationalem Menschenrechtsgesetz muss die Privatsphäre von Kindern, denen ein Verbrechen vorgeworfen wird, geschützt werden. „Das Ganze ist ungeheuerlich“, sagt Kinderrechtsanwältin Hye Jung Han, die die Human-Rights-Watch-Untersuchung geleitet hat.

Und das ist nicht die einzige besorgniserregende Facette von Conarc. Die nicht passwortgeschützte Datei liegt im Klartext vor und ist leicht per Google-Suche zu finden und herunterzuladen. Zudem sind viele der mutmaßlichen Verbrechen wie geringfügiger Diebstahl nicht schwerwiegend.

Human Rights Watch machte darüber hinaus öffentlich, dass die Datenbank auch in Buenos Aires in ein von der Stadtregierung eingesetztes Live-Gesichtserkennungssystem eingespeist wird. Conarc selbst enthält zwar keine Fotos seiner mutmaßlichen Straftäter, wird jedoch mit Lichtbildausweisen aus dem nationalen Register kombiniert. Die Software verwendet die Fotos von Verdächtigen, um über die U-Bahn-Kameras der Stadt nach Echtzeit-Übereinstimmungen zu suchen. Sobald das System eine Person identifiziert, weist es die Polizei an, sie zu verhaften.

Das allein ist schon bedenklich genug, wenn es um Erwachsene geht. Das System hat bereits zu zahlreichen falschen Verhaftungen geführt. Ein fälschlich identifizierter Mann stand etwa nach sechs Tagen Haft kurz davor, in ein Hochsicherheitsgefängnis gebracht zu werden, als sich schließlich doch noch seine Identität aufklärte. „Es scheint keinen Mechanismus zu geben, um Fehler im Algorithmus oder in der Datenbank zu korrigieren“, sagt Han.

Noch bedenklicher aber wird es, wenn auch Kinder darüber gesucht werden. Gesichtserkennungssysteme schneiden selbst unter idealen Laborbedingungen schlecht dabei ab, Kinder zu identifizieren. Die Algorithmen werden hauptsächlich mit Erwachsenenbildern trainiert. Das war auch beim System von Buenos Aires der Fall.

All das setzt Kinder einem erhöhten Risiko aus, fälschlich verhaftet zu werden, und könnte langfristige Auswirkungen auf ihre Bildungs- und Beschäftigungsmöglichkeiten haben. Selbst jene, die nicht verhaftet werden, verlieren ihr Recht auf Privatsphäre, sagt Han. „Es gibt so viele Kinder, die an einer Kamera mit Gesichtserkennungsfunktion vorbeikommen, wenn sie nur zur U-Bahn wollen.“

Buenos Aires begann am 24. April 2019 mit der Erprobung der Live-Gesichtserkennung. Das ohne öffentliche Konsultation implementierte System löste sofort Widerstand aus. Im Oktober klagte eine Bürgerrechtsorganisation dagegen. Daraufhin legte die Regierung einen neuen Gesetzentwurf vor, der derzeit das Gesetzgebungsverfahren durchläuft und die Gesichtserkennung im öffentlichen Raum legalisieren soll.

(bsc)