Handy-Nutzung per Augenerkennung

"EyePhone" erlaubt es Nutzern, sich mittels kurzer Blicke durch Smartphone-MenĂĽs zu bewegen.

vorlesen Druckansicht
Lesezeit: 4 Min.
Von
  • Kristina Grifantini

"EyePhone" erlaubt es Nutzern, sich mittels kurzer Blicke durch Smartphone-MenĂĽs zu bewegen.

Es ist schwierig, eine SMS zu verschicken, während man beide Arme voller Einkaufstüten hat oder dicke Winterhandschuhe trägt. Spracherkennungssysteme sind eine mögliche Alternative zur berührungslosen Bedienung, doch Forscher arbeiten auch an anderen Varianten der "Handsfree"-Technik für unterwegs. Ein Team am Dartmouth College hat nun ein sogenanntes Eye-Tracking-System entwickelt, mit dem es möglich ist, Smartphones direkt mit den Augen zu steuern.

Die Grundlagen der Technik existieren schon seit mehreren Jahren – etwa als Möglichkeit für behinderte Menschen, Rechner zu bedienen, oder zum Erfassen der Aufmerksamkeit von Probanden bei Marketingstudien. "Diese Form der Interaktion hat etwas sehr Natürliches, weswegen ich Eye-Tracking künftig für sehr vielversprechend halte", meint John Hansen, Dozent an der IT-Hochschule in Kopenhagen, der selbst an der Technik arbeitet. "Meistens neigen wir dazu, unseren Blick auf jene Informationen zu richten, die uns am stärksten interessieren."

Ein mobiles Eye-Tracking-System könnte für alle Mobilfunknutzer nützlich sein, glaubt deshalb Dartmouth-Professor Andrew Campbell, der das "EyePhone" genannte Projekt leitet. Bislang habe es auf diesem Gebiet kaum Forschung gegeben.

Überraschend ist das eigentlich nicht: Die Augenerkennung ist auf Smartphones viel schwieriger als bei stationären Schreibtisch-PCs, da sich sowohl Gerät als auch Benutzer zumeist bewegen und sich der Hintergrund ständig verändert. "Die existierenden Algorithmen waren sehr ungenau, wenn man sie unter mobilen Bedingungen testete. Selbst wenn man stand und den Arm nur leicht bewegte, verschwamm das Bild und es gab Fehler", sagt Campbell.

Aus diesem Grund entwickelten die Dartmouth-Forscher eine Software, die lernen kann, die Augen des Benutzers unter unterschiedlichen Bedingungen zweifelsfrei zu identifizieren. Dazu ist zunächst eine Schulungsphase notwendig, bei der das System die Augen in verschiedenen Abständen und unter unterschiedlichen Lichtbedingungen zu erfassen versucht. Die anfängliche Kalibrierung erfolgt durch das Fotografieren des rechten und linken Auges mit der Handy-Kamera – einmal in geschlossenen Räumen und einmal in freier Natur.

EyePhone läuft aktuell auf einem Smartphone von Nokia. Die Software erfasst die Position des Auges in Relation zum Bildschirm, erkennt also noch nicht die genaue Blickrichtung. Der Nutzer muss das Telefon deshalb leicht verschieben, damit er das gewünschte Icon direkt vor dem Auge ist. Die Aufnahme wird dabei in neun Regionen zerlegt. Der Algorithmus erkennt, wenn sich das Auge in einem dieser Bereiche befindet. Eine Anwendung wird anschließend durch Zwinkern ausgewählt. Als Hilfe zeichnet die Software eine kleine Box um ein eingeblendetes Videobild des Auges. Solange man sich innerhalb dieses Kästchens bewegt, funktioniert die Erkennung.

Noch sei dieses Eye-Tracking recht rudimentär, solle aber bald besser werden, sagt Campbell. Das System ist schon jetzt unter Tageslichtbedingungen zu 76 Prozent genau, wenn der Nutzer bei der Bedienung stehenbleibt. In Bewegung geht die Rate allerdings auf 60 Prozent herunter.

Robert Jacob, Professor für Informatik an der Tufts University, der ebenfalls an neuen Bedienformen forscht, sieht in der Arbeit seiner Dartmouth-Kollegen einen wichtigen Schritt. "Eines der Probleme mit Handys ist, dass es kaum Platz für die Nutzerschnittstelle gibt. Eye-Tracking ist da eine ziemlich clevere Lösung." Eine genaue Erfassung der Blickrichtung könnte aber schwierig werden, meint der Experte: Das Auge bewegt sich kaum, wenn es auf einen so kleinen Bildschirm schaut. Jacobs Kollege Hansen aus Kopenhagen sieht das ähnlich: "Das ist ein schwieriges Problem." Er sieht deshalb noch viel Arbeit auf die Forscher zukommen. (bsc)