Fass mich an!

Fühlen ist unser wichtigster Sinn, doch Ingenieure haben ihn lange vernachlässigt. Künftig soll sich die virtuelle Welt auch ertasten lassen. Sehbehinderten könnte das den Alltag erleichtern.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 6 Min.
Von
  • Boris Hänßler

Fühlen ist unser wichtigster Sinn, doch Ingenieure haben ihn lange vernachlässigt. Künftig soll sich die virtuelle Welt auch ertasten lassen. Sehbehinderten könnte das den Alltag erleichtern.

Ein junger Mann richtet die Kamera seines iPads auf ein paar saftige rote Äpfel. Sie sehen auf dem Touchscreen wie echt aus. Doch mit der Illusion war es bislang vorbei, sobald man die Finger nach dem virtuellen Obst ausstreckt. Die Forschungsabteilung von Disney präsentierte nun eine Technik, mit der ein Nutzer die Äpfel auf dem Tablet ertasten kann. Der Touchscreen ist eine Weiterentwicklung des Geräts "TeslaTouch", einem Bildschirm, auf dessen Oberfläche elektrische Impulse erzeugt werden, die auf der Haut Reibung erzeugen. Dadurch fühlen sich Texturen und Unebenheiten wie ein Relief an. Je höher die elektrische Spannung, desto höher die scheinbar gespürte Erhebung. So könnten wir Berge und Täler auf virtuellen Landkarten wahrnehmen oder beim Online-Shoppen den Hemdenstoff befühlen.

Bislang ist das Tablet zu dick für den Alltagsgebrauch, denn über dem Bildschirm sind zwei weitere Materialschichten angebracht, die als Elektrode und Isolator dienen. Doch die Technik ist Teil eines Trends: Nachdem sich die IT-Branche lange auf die perfekte Wiedergabe von Bild und Ton konzentrierte, soll der Nutzer nun die virtuelle Welt auch fühlen.

Tactus Technology hat etwa einen Touchscreen entwickelt, bei dem die Tastatur physikalisch aus dem Bildschirm herausfährt. Man nimmt sie als leichten Widerstand wahr. Nach Gebrauch verschwindet sie wieder, und der Touchscreen ist glatt. Was nach Magie klingt, basiert auf Erkenntnissen aus der Mikrofluidik: Unter der taktilen Oberfläche des Geräts sind kleine flüssige Kanäle verteilt. Sie können die oberste Kunststoffschicht verformen. Dort, wo sich die Flüssigkeiten sammeln, wölbt sich die Oberfläche. Die Buttons sind also real – was aber den Nachteil hat, dass ihre Bildung ein bis zwei Sekunden dauert. Sie sind nicht für Anwendungen geeignet, bei denen sich der Bildschirminhalt schnell ändert. Tactus Technology ist derzeit mit Tablet-Herstellern im Gespräch und will mit ersten Produkten in einigen Monaten auf den Markt kommen.

Auf wieder andere Weise nähert sich der japanische Konzern Fujitsu dem virtuellen Tasterlebnis, wie er auf dem diesjährigen Mobile World Congress (MWC) demonstrierte: Unter dem Display sind Sensoren angebracht. Berührt der Finger an einer Stelle den Touchscreen, werden dort Ultraschall-Vibrationen ausgelöst. Als Anwendungsbeispiel zeigte Fujitsu, wie sich eine Saite auf einem Musikinstrument zupfen lässt.

Allerdings funktioniert das bislang nur, wenn der Touchscreen mit einem einzelnen Finger bedient wird. Außerdem muss das Tablet flach auf dem Tisch liegen, sonst tut sich mitunter nichts. Diese Kinderkrankheiten müsste Fujitsu noch überwinden. Ebenfalls auf Ultraschall setzen Forscher der Universität Bristol. Allerdings erzeugt "UltraHaptic" die Vibrationen mitten in der Luft. Damit ließen sich die Buttons einer App bedienen, ohne den Touchscreen zu berühren und dennoch einen Widerstand zu fühlen.

Das Gerät ist bislang noch ein klobiger Kasten mit Bildschirm, von dem aus Ultraschallwellen auf einen bestimmten Punkt in der Luft gelenkt werden. Die dort gesammelte Energie erzeugt den Widerstand, der sich anfühlt, als fielen kleine, trockene Tropfen auf die Haut. Die Technik würde sich zum Beispiel für Informationssysteme in Autos eigenen, die der Fahrer ohne Hinsehen bedienen könnte. Die Forscher demonstrierten zudem eine interaktive Landkarte, bei der die Ultraschallfrequenz und damit der Druck auf die Haut steigen, je höher die Bevölkerungsdichte eines Landes ist.

Mit realen kleinen, beweglichen Bolzen arbeitet dagegen das im Media Lab des Massachusetts Institute of Technology (MIT) entwickelte "inFORM"-Gerät. Legt man einen Gegenstand darauf, bildet sich dessen Form auf der Bolzenfläche ab. Dieser Pinscreen ist so mit einem Kinect-Gerät und entsprechender Software verknüpft, dass auch ein kilometerweit entfernter Nutzer allein durch seine Handbewegungen die Bolzen heben und senken und dadurch den Gegenstand darauf bewegen kann. Für den Hausgebrauch ist das Stehpult-große Gerät noch viel zu wuchtig, doch soll es laut seinen Entwicklern den Start setzen für haptische Interaktionen zwischen räumlich weit voneinander entfernten Konferenzteilnehmern – etwa bei architektonischen Gestaltungen.

Virtuelle Haptik in reale umzusetzen, könnte auch für sehbehinderte Menschen Hilfe im Alltag bedeuten. Um sich zu orientieren, nutzen sie in der Regel gedruckte Karten mit Braille-Schrift. Die allerdings sind teuer. Daniel Hänßgen hat sich deshalb für seine Abschlussarbeit an der Hochschule Hannover die Technik HaptOSM ausgedacht, mit der er haptische Karten kostengünstig produzieren kann. Er baute eine CNC-Maschine in eine Prägemaschine um und programmierte eine Software, die Kartendaten aus der Open Street Map ausliest.

Die Maschine fährt mit einem Prägestift über Punktschriftpapier oder Kunststofffolie und drückt kleine Punkte oder Striche ein, um Straßen, Fußwege, Übergänge und Areale wie Seen, Wälder oder Friedhöfe zu kennzeichnen. Hänßgen kooperiert mit dem Blinden- und Sehbehindertenverband in Niedersachsen, um herauszufinden, welche Informationen sonst noch nützlich sind, etwa oberirdische Haltestellen oder Zugänge zu U-Bahn-Stationen. Eine Kartenseite kostet fünf Euro. Je nach Wunsch bildet sie eine Region im Maßstab von 1:1000, 1:1500 oder 1:2000 ab.

Während Hänßgens Karte noch ein wirkliches Produkt zum Anfassen ist, wollen einige Visionäre das haptische Feedback sogar direkt im Gehirn erzeugen. An der Universität Yale haben Forscher die Gehirnströme eines Affen aufgezeichnet, der eine Banane isst. Die Signale wurden per Funk an einen zweiten Affen übertragen, dessen Gehirn dadurch so stimuliert wurde, dass er offenbar glaubte, ebenfalls eine Banane zu halten. Jedenfalls bewegte er seine Hand so, als wolle er eine essen.

Zweifellos bewegt sich die haptische Forschung in einem Grenzbereich zwischen einer sinnvollen und fragwürdigen Manipulation der Wahrnehmung: Sie kann helfen, Maschinen natürlicher zu bedienen oder Sehbehinderten den Alltag zu erleichtern, aber sie wird auch eingesetzt werden, um unser Konsumverhalten zu beeinflussen. Gegen gezielte Sinnesreize können wir uns schlecht wehren. Darauf zu reagieren ist ein Urinstinkt: Nur wache Sinne warnen uns vor Gefahr – unser Überleben hängt davon ab.

[Update 16.03.15 16:30 Uhr:] Verschiedene Details korrigiert.

(bsc)