Gesichtstracking mit eingebautem Datenschutz

Das israelische Start-up D-ID hat ein Verfahren entwickelt, mit dem Videos "anonymisiert" werden können.

In Pocket speichern vorlesen Druckansicht 15 Kommentare lesen
Datenschutzunternehmen will Face-Detection unterbinden

Eine Software verändert Bilder so, dass sich keine individuellen Merkmale mehr ableiten lassen sollen.

(Bild: Screenshot YouTube)

Lesezeit: 2 Min.

Mitte Januar hat die New York Times berichtet, dass das US-Unternehmen Clearview mit Bildern aus sozialen Netzen eine umfassende Datenbank für seine Gesichtserkennungs-App aufgebaut hat. Die App wird weltweit von Polizei- und Sicherheitsdiensten verwendet. Zwar haben Google, Twitter und andere Plattformen Clearview mittlerweile untersagt, ihre Bilder zu verwenden. Doch die Datenbank mit rund drei Milliarden Bildern ist erst einmal in der Welt.

TR 3/2020

Das Datenschutzunternehmen D-ID hat nun Gegenmaßnahmen entwickelt, berichtet Technology Review in seiner März-Ausgabe, die ab 20.2. auch am gut sortierten Kiosk liegt. D-ID nimmt Videomaterial auf – zum Beispiel mit einer Überwachungskamera in einem Geschäft – und verwandelt die Person im Video per Software in einen Avatar, der dieselben Attribute hat wie die aufgenommene Person, aber etwas anders aussieht. Der Vorteil für Unternehmen ist, dass dieses neue, "anonymisierte" Video nicht mehr die genaue Identität eines Kunden verrät – was laut D-ID-Mitbegründer Gil Perry bedeutet, dass Unternehmen "die Notwendigkeit der Zustimmung eliminieren" und das Filmmaterial für Geschäfts- und Marketingzwecke analysieren ­können.

D-ID nennt bisher keine Kunden. Laut Perry sind es aber vor allem Einzelhändler, Autofirmen und "große Konzerne, die in Europa Überwachungskameras einsetzen". Zusätzlich zu seiner Video-Software bietet D-ID auch an, Fotos, die im Internet veröffentlicht werden, so zu verändern, dass sie dem Original immer noch ähnlich sehen, sich aber keine biometrischen Merkmale daraus ziehen lassen. Das würde Diensten wie Clear­view einen Riegel vorschieben.

Leider hat die Sache einen Nachteil: Um personenbezogene Merkmale zu verschleiern, muss der Algorithmus genau diese Merkmale erst einmal erkennen. Diese Daten liegen also bei D-ID, und man muss darauf vertrauen, dass sie nicht in die Hände Dritter gelangen – sei es nun absichtlich oder unabsichtlich.

Mehr dazu bei Technology Review Online:

(bsc)