Bundesregierung: Videoüberwachung mit Gesichtserkennung als "Black Box"

Das Bundesforschungsministerium kann keine technischen Einzelheiten zu geförderten Projekten zur Gesichts- und Mustererkennung machen, da diese als "Firmengeheimnisse" behandelt würden. Abgeordnete der Opposition sind besorgt.

In Pocket speichern vorlesen Druckansicht 36 Kommentare lesen
Lesezeit: 4 Min.

Die Bundesregierung kann keine technischen Einzelheiten zu staatlich geförderten Projekten zur Videoüberwachung mit Gesichtserkennung machen. Bei den von Produkten, die auf den eingesetzten Algorithmen basierten, handele es sich normalerweise um eine "Black Box", schreibt das Forschungsministerium in einer jetzt veröffentlichten Antwort auf eine Anfrage der Bundestagsfraktion der Linken. Über deren inneren Aufbau hätten Externe in der Regel keine Kenntnis, "da es sich um Firmengeheimnisse handelt".

Ziemlich verklausuliert teilt die Bundesregierung aber mit, dass sich ihrer Ansicht nach die Erkennungsleistung der Videoüberwachung durch entsprechende Referenzdaten und Anlernprozeduren verbessern lasse: Aus einschlägigen Studien leitet die Regierung demnach nach "detaillierter Betrachtung" ab, "dass die auf Kundenseite getroffene Auswahl der Referenzdaten für das Anlernen des Systems und die Identifikation von Personen bei den heute als lernende System aufgebauten Produkten zur Personenerkennung einen aus dem Anlernprozess resultierenden Einfluss auf die Erkennungsleistung hat".

Bei der Gesichtsidentifikation handelt es sich generell um eine computergestützte biometrische Technik. Zur Analyse zieht der Rechner dabei zunächst die Augen heran, da diese im Vergleich zur Haut in der Regel dunkle Punkte in der oberen Bildhälfte darstellen und so leicht auszumachen sind. Von da aus sucht die Erkennungssoftware weitere charakteristische Stellen wie Nase, Mund, Wangenknochen, Kinn oder den Gesichtsrand, die sich auch bei heftiger Mimik nicht ständig ändern.

Die traditionellen Erkennungsverfahren beruhen in der Regel auf einem zweidimensionalen Gesichtsbild. Sie funktionieren gut, wenn die zu identifizierende Person frontal in die Kamera blickt und bereitwillig ein Bild von sich aufnehmen lässt. Das Forschungsministerium fördert derzeit Projekte etwa zur 3D-Gesichtserkennung wie GES-3D, an dem auch das Bundeskriminalamt (BKA) beteiligt ist. Sie sollen helfen, eine Gesichtsaufnahme in die gewünschte normierte Position zu bringen und so ein Vermessen zu vereinfachen.

Zahlreiche weitere geförderte Forschungsvorhaben, bei denen es auch um die Mustererkennung geht, verstecken sich hinter Kürzeln wie APFeL, CamInSens oder MisPel. Bei diesen wurden nach Regierungsangaben auch bereits "personenbezogene Daten im Rahmen von Testaufnahmen erhoben", um die Evaluation der grundsätzlichen Funktion und Machbarkeit der Systeme zu prüfen. Die Betroffenen hätten aber vorab schriftlich in die Aufnahme und die Nutzung ihrer Informationen eingewilligt.

Das Forschungsressort betont, dass bei den Projekten "präventive Lösungen unter besonderer Berücksichtigung des Datenschutzes und der sozialen Akzeptanz der Technologien" im Vordergrund stünden. Es gehe um das Entwickeln "innovativer Verfahren zur automatischen Erfassung, gezielten Erkennung und Verarbeitung von Daten aus unterschiedlichen Quellen für zivile Sicherheitslösungen". Darüber hinaus solle die Sicherheit von Zugangsprüfungen zu sensiblen Anwendungen oder Infrastrukturen verbessert. Behörden sollten ferner beim Ermitteln von Straftätern unterstützt werden.

Beim Projekt "Mustererkennung und Video Tracking" (MuVit) würden Anwendungsfragen "im Kontext von Werten wie Freiheit, Sicherheit, Menschenwürde und Rechte auf Privatheit untersucht", unterstreicht die Regierung weiter. Es würden Kriterien herausgearbeitet, wie der Einsatz von Systemen zur Mustererkennung den gesellschaftlichen, ethischen und rechtlichen Anforderungen genügen könne.

Für die linken Bundestagsabgeordneten Andrej Hunko und Herbert Behrens überschreiten die deutschen Forschungsvorhaben zur Mustererkennung in der Videoüberwachung trotzdem eine rote Linie. "Eine geheim gehaltene Software soll verdächtige Personen aufspüren, indem ihr Verhalten oder auffällige Gepäckstücke untersucht werden", warnen die Oppositionspolitiker. Der jüngste Anschlag in Boston werde nun benutzt, "die bedenkliche Technologie in den Alltag zu überführen". Ergebnis sei "eine permanente, computergestützte Vorkontrolle", die alle Bürger als potenzielle Gesetzesbrecher abstempele: "Wer von einer einprogrammierten Verhaltensnorm abweicht, wird mit der neuen Technologie automatisch Verdächtiger." Dabei sei die von der Regierung behauptete "abschreckende Wirkung" von Kameraüberwachung im öffentlichen Raum nicht belegt.

In zahlreichen entsprechenden Projekten würden Unternehmen und Institute begünstigt, die auch militärische Anwendungen entwickeln, fürchten die Volksvertreter. Neben dem BKA seine auch mehrere Landeskriminalämter und die Bundespolizei als spätere "Endnutzer" dabei. Bei Tests sei unter anderem bereits die Vorhalle der Universität Hannover überwacht worden. Lediglich Schilder hätten auf diesen Bereich hingewiesen. Weitere Testläufe, auch an Flughäfen, seien geplant. Projekte dieser Art bedürfen den Linken zufolge aber zumindest "einer ausführlichen Problemanalyse, die nicht nur Polizeibehörden oder der Industrie überlassen werden kann". Anzuhören seien unabhängige Stimmen aus den Bereichen Datenschutz, Bürgerrechte und Netzpolitik. (jk)