Mit Microsoft die virtuelle Realität erfühlen

Microsoft arbeitet an einen 3D-Touchscreen mit haptischem Feedback, an dem sich einfache geometrische Formen erfühlen und manipulieren lassen. Dafür haben die Microsoft-Entwickler ein normales Multitouchdisplay mit einem Roboterarm kombiniert.

In Pocket speichern vorlesen Druckansicht 45 Kommentare lesen
Lesezeit: 3 Min.

Microsoft hat einen Monitor vorgestellt, auf dem 3D-Objekte nicht nur räumlich dargestellt werden, sondern auch tatsächlich erfühlbar sind. Obwohl die Bedienung vorwiegend mit nur einem Finger erfolgt, sollen sich Formen wie Bälle oder Würfel dank des haptischen Feedbacks auch blind erkennen lassen. Selbst unterschiedliche Gewichte lassen sich mit dem Bildschirm simulieren. Noch ist das Gerät allerdings ein reines Forschungsprojekt in den Microsoft-Laboren.

Per 3D-Brille und druckempfindlichen Monitor lassen sich Gewicht und Form von Objekten erfühlen

(Bild: Microsoft)

Die Hardware dafür erscheint vergleichsweise simpel: An einem Roboterarm haben die Forscher einen normalen Multitouch-Monitor mit 3D-Darstellung montiert und mit Drucksensoren versehen. Je nach simulierten Objekt sowie Position und Kraftaufwand des Finger reagiert der Roboterarm bei der Bedienung mit mehr oder weniger Gegendruck. Sieht der Nutzer etwa einen Ball vor sich, kann er an dessen Oberfläche entlang fahren. Das Display kann an den Seiten des Balls weiter nach hinten geschoben werden als in der Mitte. Wie das in der Praxis aussieht, stellen die Microsoft-Forscher in einem kurzen Video vor.

Auch das Gewicht einzelner Objekte lässt sich mit dem Monitor simulieren. Bei vermeintlich schwereren Objekten bietet der Roboterarm deutlich mehr Widerstand als bei "leichten" Gegenständen. Über den Touchscreen weiß das System, welches Objekt der Anwender gerade manipuliert und passt sich entsprechend an. Um den Eindruck zu verstärken, versucht das Gerät ständigen Kontakt zum Finger zu halten, in dem es mit minimaler Kraft gegen den Finger drückt. Wendet der Nutzer mehr Kraft auf, bewegt sich der Roboterarm mit einer passenden sanften Bewegung zurück. Zieht der Nutzer den Finger zurück, folgt ihm das Display.

Gleichzeitig wird die 3D-Darstellung der Position des Fingers angepasst, um die passende Tiefeinformation zu vermitteln. Gelinge die Verschmelzung von Tiefe und 3D-Sicht "akzeptiert das Gehirn die virtuelle Welt als echt", so Michael Pahud, einer der beteiligten Microsoft-Forscher. Derzeit kann sich das Display allerdings nur noch vorne und hinten bewegen. Um ein Objekt herum gehen kann man also noch nicht.

Auch andere Anwendungen sind möglich, etwa das Eintauchen in einen Hirnscan

(Bild: Microsoft)

Auch andere Anwendungen sind mit dem Display möglich. In einem Beispiel tauchen die Entwickler per Fingerdruck in die einzelnen Schichten eines Hirnscans ein. Auffällige Stellen können mit einem zweiten Finger markiert werden und machen sich danach zum besseren Auffinden beim nächsten Durchsuchen durch einen deutlichen Widerstand bemerkbar. Über das System sollen sich später auch Oberflächen simulieren lassen, um etwa Gewebe untersuchen zu können.

Für Forscher Mike Sinclair sind die Einsatzmöglichkeiten vielfältig: "Da wären immer 3D-Spiele, aber auch 3D-Modellierung, Medizin oder im Unterricht". Im Zusammenspiel mit einer VR-Brille wie der Oculus Rift ergeben sich da womöglich in Zukunft ganz neue Erfahrungen. (asp)