Unsichtbare Augen - Gesichtserkennung zu Hause und in der Ă–ffentlichkeit
Automatische Gesichtserkennung ist weiter verbreitet, als man annehmen möchte. Wir finden Sie in Digitalkameras und Bildverwaltungs-Software, aber auch in Behörden, an öffentlichen Orten und im Internet. Diese Programme identifizieren Personen, ob diese nun Mütze und Bart tragen oder Jahre älter sind als auf dem Referenzfoto. Sie erraten Geschlecht, Stimmung und Alter. Und können die somit identifizierten Personen theoretisch mit Datenbanken abgleichen. Das weckt Begehrlichkeiten - und Bedenken. Das c’t magazin zeigt, welche Möglichkeiten die relativ junge Technik bietet.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes Video (TargetVideo GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (TargetVideo GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Jeder, der ab und zu das Haus verlässt, dürfte schon zum Ziel der Gesichtserkennung geworden sein. Kommerzielle Identifikationssysteme à la Mission Impossible gewähren Zutritt zu Forschungsabteilungen großer Unternehmen, aber auch zivile Einrichtungen, die täglich viele Menschen empfangen, wie internationale Flughäfen, automatisieren die Einlasskontrolle. Auf dem PC und in sozialen Netzwerken wie Facebook oder der Bilder-Community von Google hilft Gesichtserkennung bei der Verwaltung von Schnappschüssen. Was die Unternehmen mit den verknüpften Personen daten machen, bleibt im Dunkeln.
[b]Kontraste und Knochen [--] wie Gesichtserkennung funktioniert[/b]
Hinter der Gesichtersuche stecken vor allem farbunabhängige Suchschemata, denn viele Überwachungssysteme arbeiten mit Schwarzweiß-Bildern. Paul Viola von Microsoft und Michael Jones von Mitsubishi Research arbeiten beispielsweise ausschließlich mit Graustufen. Sie generieren in einer Vielzahl von Bildern mit und ohne Gesicht per Zufallsgenerator unterschiedlich große rechteckige Bereiche. Diese Erkennungsfenster werden dann in zwei bis vier gleich große Stücke unterteilt. Über maschinelle Lernverfahren und anhand einer Trainingsmenge filtert der Algorithmus Merkmale heraus, die die besten Hinweise auf ein Gesicht liefern. Eine bestimmte Kombination aus hellen und dunklen Rechtecken gibt Hinweise auf die Augen- und Nasenpartie. Horizontal unterteilt ist das die dunkle Augen- und die helle Wangenregion, vertikal ein dunkles Auge, eine helle Nase und wieder ein dunkles Auge.
Anschließend finden Algorithmen anhand von Kontrasten die Umrisse des Gesichts sowie die Position der Augen, der Nase und des Mundes. Bei der einfachsten Methode misst man Gesichtsparameter aus, die sich trotz Alterung kaum ändern wie die Lage der Augenbrauenhöhlen, die Position und Breite von Nase, Mund und Lippen sowie des Kinns. Die Mimik macht solchen Verfahren allerdings oft einen Strich durch die Rechnung.
Zu den besseren Strategien zählen die Hauptkomponentenanalyse (Principal Component Analysis) und die lineare Diskriminanzanalyse (Linear Dis criminant Analysis). Sie verdichten die Zahl der erkennbaren Merkmale auf wenige Faktoren. Erstere kommt beim Eigengesichterverfahren von Matthew Turk und Alex Pentland zum Einsatz. Die Eigenvektoren errechnen sich aus mehreren Trainingsbildern und bilden daraus ein Durchschnittsgesicht für eine Person. Durch die Verdichtung auf wenige Merkmale reagieren die Eigengesichter nicht nur robust auf Alterungsprozesse, sondern auch auf das Tragen von Mützen und Piercings sowie auf Skalierung und Neigung.
Kommerzielle Anbieter schweigen meistens über ihre Technik. "Wir ermitteln in jedem Gesicht nur 86 Punkte", sagt Oleksandr Kazakov, Gründer der Firma Betaface. "Damit können wir 100[ ]000 Gesichter pro Sekunde abgleichen." Mit der Technik sucht das Programm Myface ID nach Personen auf Facebook, erstellt Betaface aus Fotos Simpsons-Porträts und erzeugte anhand einer Microsoft-Datenbank mit registrierten Nutzern das generische Gesicht eines "typischen Java-Pro-grammierers".
[b]Gegenwart und Zukunft[/b]
Bildanalyseverfahren sind für die Überwachung öffentlicher Plätze noch nicht robust genug: Mal ist das Bild überbelichtet oder die Bewegung zu schnell, mal ist ein Teil des Gesichts verdeckt oder der Kopf geneigt. Die Liste möglicher Fehlerquellen ist lang. Für die Gesichtserkennung auf Fotos reicht es aber offensichtlich: Hier ist die Technik mittlerweile so weit, dass sie erfolgreich in Kameras, Fotoprogramme und soziale Netzwerke integriert ist.
Die Vielfalt der tatsächlichen Einsatzbereiche ist erstaunlich und erschreckend zugleich. Scans in Stadien und Kaufhäusern, auf Plätzen und Flughäfen finden bereits statt [--] selbst in Deutschland, wenn auch nur zu Testzwecken. Der Photo Finder für Facebook sucht gezielt nach Personen, auch Google besitzt diese Technik.
Starbug vom CCC sieht verschiedene Einsatzszenarien: "So können zum Beispiel Arbeitgeber nach Fotos fahnden, die eine Einstellungshinderung abbilden. Krankenkassen könnten Bilder ihrer Mitglieder mit Zigaretten in der Hand suchen und daraufhin die Beiträge erhöhen." Es scheint nur eine Frage der Zeit, bis sich Behörden und Unternehmen Persönlichkeitsprofile aus Fotos zusammenstellen. Die Technik ist bereits verfügbar.
Weitere Hintergrundinformationen zum Thema Gesichtserkennung finden Sie im Beitrag "Unsichtbare Augen, Gesichtserkennung zu Hause, im Web und in der Öffentlichkeit" von André Kramer in der Printausgabe 11/09 des c't Magazins ab Seite 82. Den Artikel erhalten Sie auch als PDF-Datei im c't-Kiosk.