Die Schutzbrille

Maschinelles Lernen hat die Fähigkeiten von Gesichtserkennungssoftware massiv verbessert. Aber Forscher haben bereits Methoden gefunden, um sie auszutricksen.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 3 Min.

Dieser Text-Ausschnitt ist der aktuellen Print-Ausgabe der Technology Review entnommen. Das Heft ist ab sofort im gut sortierten Zeitschriftenhandel und im heise shop erhältlich.

In Wuzhen braucht man keine Tickets mehr. Das malerische Museumsdorf 120 Kilometer südwestlich von Shanghai, das durchschnittlich rund 5000 Besucher pro Tag besichtigen, testet seit Mitte 2016 eine brandneue Gesichtserkennung des chinesischen Internetgiganten Baidu: Gäste, die in den zugehörigen Hotels einchecken, werden automatisch und diskret von Videokameras erfasst, die Baidu-Software errechnet aus den Bildern typische Merkmale des Gesichts, die von ähnlichen Systemen an den Eingängen der Sehenswürdigkeiten in Echtzeit erkannt werden. Anders als bei herkömmlichen biometrischen Zugangssystemen soll es hier keine umständliche Registrierung geben, keine Warteschlangen und keinen ernsten Blick in die Kamera.

Das chinesische Beispiel zeigt: Gesichtserkennung ist erwachsen geworden. Nicht nur Baidu, auch seine westlichen Konkurrenten Facebook, Google und Microsoft investieren massiv in die Technik. Lagen die Erkennungsraten vor einigen Jahren noch um die 70 Prozent, ziehen die besten Systeme heute mit Menschen gleich oder überholen sie. Die US-Standardisierungsbehörde NIST etwa misst in regelmäßigen Abständen die Performance kommerzieller Gesichtserkennungssoftware. In ihrem jüngsten, 2014 veröffentlichten Bericht konnte der beste Algorithmus von NEC ein Bild in rund 95 Prozent aller Tests dem Äquivalent in der Datenbank mit 1,6 Millionen Bildern zuordnen. Politiker wie der deutsche Innenminister Thomas de Maizière wollen die neuen technischen Möglichkeiten daher auch zur Bekämpfung von Kriminalität nutzen: „Die biometrische Auswertung etwa durch Gesichtserkennung muss entschieden vorangebracht werden“, schrieb de Maizière Anfang Januar 2017 in einem Gastbeitrag für die „FAZ“. „Eine Fahndung mit Gesichtserkennung, etwa nach einem flüchtigen Terroristen, ist ein wichtiges Instrument.“

Doch so einfach ist es nicht. Als das NIST die Programme mit Bildern von Webcams fütterte, brach die Erkennungsrate drastisch ein. Konventionelle Gesichtserkennungssoftware bildet aus den einzelnen Elementen wie Augen, Mund, Nase oder der Form des Gesichts eine Art Fingerabdruck. Er hilft aber nichts mehr, wenn die äußeren Rahmenbedingungen wie Haltung, Gesichtsausdruck, Beleuchtung oder Blickwinkel vom gespeicherten Bild in der Datenbank abweichen. In der Praxis ist das gerade bei der Videoüberwachung meist der Fall.

Seit einigen Jahren versuchen Forscher daher, die Hürde mit maschinellem Lernen zu überspringen. Vor allem neuronale Netze kommen zum Einsatz. Die Systeme lernen an einer Vielzahl von Trainingsdaten selbst, welche Merkmale eines Gesichts wichtig sind, um Personen zu erkennen. Sichtbarstes Zeichen dieses Erfolgs war die 2014 von Yaniv Taigman und Kollegen von der Facebook-Forschungsabteilung vorgestellte Software „DeepFace“. Das neuronale Netz erreichte bereits im ersten Anlauf eine Erkennungsrate von 97 Prozent. Neueste Ergebnisse legen nahe, dass mittlerweile sogar Trefferquoten von mehr als 98 Prozent erreichbar sind. Im Juni 2016 meldeten die beteiligten Forscher stolz, dass sie nun auch mit Bildern aus der Datenbank „Labeled Faces in The Wild“ nahe an menschliche Erkennungsraten herankämen. Die von Wissenschaftlern der University of Massachusetts Amherst angelegte Datenbank gilt als echter Prüfstein für praktische Anwendungen. Sie enthält 13000 Bilder von Männern und Frauen jeden Alters und jeder Herkunft, in verschiedensten Posen, mit unterschiedlichen Gesichtsausdrücken und variierender Beleuchtung.

(wst)