GDC: Virtual Reality von Sony - Controller, Demos und technische Details zum VR-Helm Morpheus

Sony zeigte in San Francisco unter anderem, wie sich der Dualshock-4-Controller in VR-Welten integrieren lässt.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen
GDC 2015: Neue Infos und Demos zu Sonys VR-Helm Morpheus

(Bild: c't)

Lesezeit: 4 Min.
Von
  • Roland Austinat
Inhaltsverzeichnis

Die putzigen Roboter in dieser Demo verfolgen die Aktionen des Spielers und dessen Gamepad mit großer Aufmerksamkeit. Verwandelt sich der Controller in einen Ghettoblaster, schwingen sie das Tanzbein.

(Bild: Roland Austinat)

Bessere Optik-Komponenten, bessere CPU, besseres Tracking, bessere Gyroskope und bessere Ergonomie - bei Sonys VR-Helm Morpheus hat sich unter der Haube viel getan. Auch die externe Recheneinheit der Morpheus, die der PlayStation 4 beim Berechnen der virtuellen Welten unter die Arme greift, soll leistungsfähiger sein.

Sie soll laut Sonys Senior Staff Engineer Chris Norden nun auch dabei helfen, den Fernseher in einen "Social Screen" zu verwandeln, auf dem sich die Abenteuer des VR-Spielers zweidimensional verfolgen lassen. Überdies geben die Lautsprecher des VR-Helms nun Höhenunterschiede besser wiedergeben.

Die neueste Fassung des VR-Helms beziehungsweise der API erlaubt es Spielentwicklern, die Bildwiederholraten für Rendering, Scanout und Reprojektion relativ frei zu kombinieren.

(Bild: Roland Austinat)

Zur Steuerung der VR-Spiele fährt Morpheus mehrgleisig. Da wären der VR-Helm mit nun neun Tracking-LEDs sowie einem Mikrofon; die PlayStation-Kamera nebst Mikro-Array sowie der Dualshock-4- und die Move-Controller. Sonys API ermöglicht die gleichzeitige Verwendung beziehungsweise Kombination aller Eingabegeräte im gleichen Koordinatensystem.

Apropos Koordinaten: Was bei Oculus Rift "Time Warp" heißt, nennt Sony "asynchrone Reprojektion". Darunter verstehen die Entwickler die leichte Verschiebung des gerenderten Bildes unmittelbar vor der Ausgabe. So werden Kopf- und damit Augenbewegungen ausgeglichen, die sich nach dem Rendern ereignen.

Dabei lassen sich die Bildwiederholraten für Rendering, Scanout und Reprojektion relativ frei kombinieren. Arbeiten alle mit 120 Hertz, sinkt die benötigte Rechenzeit pro Frame auf nur 7,8 Millisekunden, doch dafür steigt die GPU-Belastung an. "Ein guter Kompromiss ist das Rendering mit 60 sowie die Reprojektion mit 120 Hertz", meinte Chris Norden. Hier bringt Morpheus dann alle 16,1 Millisekunden einen Frame aufs Display.

Was die Sony-Designer erstaunte: Die Abbildung des Gamepads sorgt sogar für ein noch tieferes Eintauchen in die Spielumgebung. Dabei kann der ungewöhnliche Avatar mehr als in der Realität.

(Bild: Roland Austinat)

Nicolas Doucet, Creative Director bei Sonys Japan Studio, hatte auf der Game Developers Conference einige neue Demos im Gepäck. Sein Team arbeitet insbesondere daran, den Dualshock-4-Controller in virtuelle Welten zu integrieren.

Laut den Entwicklern sorgt die Abbildung des Gamepads für ein noch tieferes Eintauchen in die Spielumgebung. Dabei kann der ungewöhnliche Avatar mehr als in der Realität: Aus dem Trackpad klettern putzige Roboter, aus der erleuchteten Frontseite fliegen Shuriken-Wurfsterne. Stationär in eine Vertiefung im Spiel eingesetzt steuert Doucet mit dem Gamepad einen Spielautomaten beziehungsweise ein fliegendes Motorrad, oder nutzt es dazu, in einem Action-Adventure eine verschlossene Tür zu öffnen.

Eine Geisterjagd mit Staubsauger-Aktionen erinnert an Ghostbusters, in einem Flugspiel wachsen dem Dualshock 4 Triebwerke. Doch übertreiben sollten es die Entwickler mit der Action gerade in der letzten Demo nicht: "Vielen Spielern wird bei zu raschen Bewegungen noch immer übel", erklärt Nicolas Doucet. "Deshalb sollte man auf große Kurven und weite Sicht nicht verzichten."

Stationär in eine Vertiefung im Spiel eingesetzt steuert das Gamepad einen Spielautomaten beziehungsweise ein fliegendes Motorrad.

Im Londoner Sony-Studio wird derweil geforscht, wie sich die Interaktion mit Nichtspielercharakteren in einer VR-Umgebung von der eines herkömmlichen 2D-Titels unterscheidet. Studiochef Dave Raynard stellte dazu mit einer Kollegin einige Szenen aus der Demo "London Heist" nach.

Welche Methoden besitzt ein etwa ein virtueller Gauner, um eine Geschichte aktiv zu erzählen und dem auf einem Stuhl sitzenden Spieler ein "Mittendrin"-Gefühl zu vermitteln? Da wären beispielsweise verbundene Augen, simuliert durch ein abgedunkeltes Display. Raunt einem dann eine unfreundliche Stimme direkt ins Ohr, zuckt auch der hartgesottenste Action-Fan zusammen. Ohne Augenbinde jagt eine gezogene Pistole dem Spieler einen Schrecken ein und lässt ihn instinktiv die Hände heben. Doch als der Verbrecher ihn zum Aufstehen zwingt, wendet sich das Blatt: Er greift beherzt zu und reißt ihm die Pistole aus den Händen.

Die Interaktion mit der Spielwelt ist weniger dramatisch, doch dafür realistischer. Klickt man etwa in Grafik-Adventures auf Schränke und Schubladen, um diese zu öffnen und zu durchsuchen, nutzt man jetzt ganz natürlich die Hände. Und schießt man eine Waffe traditionell per Mausklick ab, zieht man nun ganz einfach den Abzug mit dem Zeigefinger nach hinten. (mfi)