Touché!

Nicht der Anwender, sondern eine unzulässig auf ein 2D-Modell vereinfachte Touch-Technik ist häufig schuld, wenn der Finger danebentrifft. Das Einbeziehen räumlicher Informationen verbessert die Erkennungsraten signifikant, wie Wissenschaftler des Hasso-Plattner-Instituts zeigen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Matthias Gräbner

Christian Holz (links) und Patrick Baudisch vom Hasso-Plattner-Institut am Ridgepad-Prototyp. Im Vergleich zu einem gewöhnlichen Touchscreen verbesserte sich mit Ridgepad die Genauigkeit der Anwender bei Touch-Eingaben um mehr als das Zweieinhalbfache.

Handys, PCs, Kameras, sogar Backöfen laden den Anwender mittlerweile dazu ein, seinen Fingerabdruck zu hinterlassen. Allerdings ist der menschliche Finger zwar sehr gut dazu geeignet, eine Apfelsine zu schälen, in der Nase zu bohren oder auf den Nachbarn zu deuten – als präzises Zeigeinstrument taugt er jedoch scheinbar weniger, und zwar auf sehr anwenderspezifische Weise. Zielhilfen wie ein ersatzweise mitgelieferter Stylus oder eine vergrößerte Darstellung der Umgebung des Ziels reduzieren den Vorteil der Touch-Technologie jedoch unnötig: Anzufassen, was man sieht, ist ein tiefes Bedürfnis, das der Mensch zwar in der Kleinkindphase aberzogen bekommt, das aber dank iPhone & Co. längst wieder salonfähig ist.

Doch tatsächlich ist nicht der „dicke Finger“ schuld daran, dass Handys eine Worterkennung benötigen, die alle Tippfehler korrigiert, argumentieren Christian Holz und Patrick Baudisch vom Hasso-Plattner-Institut an der Universität Potsdam. Menschen können problemlos und ganz gezielt ein Sandkorn mit der Fingerspitze ansteuern – warum gelingt ihnen das mit einem vier mal sechs Millimeter großen Buchstaben auf einer virtuellen Tastatur nicht? Das Problem, meinen die Forscher, besteht darin, dass der Touch-Prozess eben nicht zweidimensional abläuft. Einfach nur die Kontaktfläche des Fingers mit dem Display zu bestimmen, das genügt nicht, um die Intention des Anwenders zu erfahren. Diese Fläche bleibt womöglich auch dann konstant, wenn man eine Fingergeste nach rechts vollführt oder den Finger kreisförmig bewegt. Was sich in diesem Fall aber ändert, ist die Position des Fingerabdrucks relativ zur Berührungsfläche. Einfluss auf die Kontaktfläche haben aber auch eine Verdrehung des Fingers sowie das mentale Modell des Anwenders: Welchem Teil seiner Fingerkuppe weist der Mensch gedanklich die Zeigefunktion zu?

Die Wissenschaftler befassen sich in ihrem Projekt „Ridgepad“ deshalb damit, all diese räumlichen Informationen in die Messung einfließen zu lassen. In welchem Winkel steht das Display zu seinem Benutzer und mit welcher Neigung setzt der Anwender seine Fingerkuppe auf den Bildschirm auf? Beim Gewinnen solcher Angaben hilft ein Werkzeug, das der Mensch schon mitbringt: Das spezifische Muster auf der Fingerkuppe lässt sich zur genaueren Positionsanalyse nutzen. Dabei geht es nicht darum, den Abdruck selbst zu erkennen beziehungsweise den Nutzer zu identifizieren. Vielmehr ist die Überlegung recht simpel: Bei bekanntem (sprich vom System erlerntem) Fingerabdruck kann man aus der aktuellen Projektion der Fingerkuppe bestimmen, wo sich der Abdruck im Raum befindet und wie er ausgerichtet ist.

Ihre Idee setzten Baudisch und Holz in einem Ridgepad-Prototypen um, der auf einem Fingerabdruckscanner beruht. Die Maschine muss zunächst für jeden einzelnen Nutzer kalibriert werden. Dabei speichert Ridgepad das spezielle Aussehen des Fingerabdrucks bei bestimmten Fingerhaltungen. Das daraus erstellte Profil ist zwar nutzer-, aber nicht gerätespezifisch, es würde also reichen, wenn ein Anwender die Prozedur einmal in seinem Leben ausführt. Bei der späteren Analyse vergleicht die Software dann nur noch die aktuelle Aufnahme mit den gespeicherten Daten, ohne irgendetwas über Winkel und Flächen zu wissen. Ein Nachteil des Prototyps ist allerdings, dass der Scanprozess zu lange dauert, als dass man Ridgepad ohne Weiteres in der Praxis einsetzen könnte. Außerdem gibt es bisher nur Ansätze, wie man den nötigen Scanner samt Optik in Bildschirmtechnologie integrieren könnte. Ein Kandidat dafür ist sicherlich die In-Cell-Technik, bei der jedes R-G-B-Pixel noch von einer Sensorzelle ergänzt wird.

Das Ergebnis ist allerdings vielversprechend: Im Vergleich zu einem gewöhnlichen Touchscreen verbesserte sich mit Ridgepad die Genauigkeit der Anwender um mehr als das Zweieinhalbfache. Den Forschern ist damit der Nachweis gelungen, dass nicht die „dicken Finger“ der User ungenau sind, sondern die Technik selbst. Wird diese etwa in der vorgeschlagenen Art maßgeblich verbessert, könnten Anwender auch noch 5,2 Millimeter breite Punkte genau ansteuern.

Die Forscher sehen in der vorgeschlagenen Technik im Wesentlichen drei Vorteile. Zum einen könnte man „einfach einen Touchscreen bauen, der besser als bisher funktioniert“, erklärt Baudisch. Es wäre aber auch denkbar, extrem kleine Mobilgeräte zu fertigen. Die theoretische Grenze des Verfahrens liegt bei einer dreifach höheren Genauigkeit, man könnte also etwa problemlos ein nur noch halb so großes iPhone konstruieren. Schließlich werde das Touch-Prinzip auf diese Weise auf seinen Ursprung zurückgeführt und wieder wirklich direkt und intuitiv – all die kleinen Zielhilfen, die heutige Touch-Software braucht, würden unnötig. Baudisch führt als Beispiel dazu eine Landkarte an. „Wenn ich mir etwa auf einer Karte die mir bekannten Punkte einer Fahrtroute aussuche, dann würde ich die gern mechanisch selektieren, selbst wenn sie winzig sind – wenn ich das nur könnte.“ (pmz)