c't-3003-Analyse: Kann Apples Vision Pro funktionieren?

Da ist Apple mal richtig mutig: Das Vision-Pro-Headset macht fast alles anders als die Konkurrenz. c't 3003 guckt sich das Ganze mal genauer an.

In Pocket speichern vorlesen Druckansicht 54 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 14 Min.
Von
  • Jan-Keno Janssen

Die Apple Vision Pro: Ein Headset, das den ziemlich verpufften Hype um VR/AR-Headsets wieder neu entfacht. Gewinnt Apple seine riskante Wette? Die Videoanalyse von c't 3003.

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guckt mal hier, das ist Apples allererstes Mixed-Reality-Headset. Vision Pro heißt das. Damit kann man “Spatial Computing” betreiben, also man bedient den Computer quasi im ganzen Raum, in seiner echten Umgebung, man also in 3D ganz vielen Fenster um sich herum anordnen und die auch anfassen und verändern. Weil: Controller gibt es nicht, sondern die Vision Pro wird allein mit Handbewegungen bedient. Ein bisschen creepy: Die eigenen Augen werden abgefilmt und auf einem Display außen angezeigt.

Generell aber alles ziemlich cool, oder doch nicht so? Mein Kollege Malte hat das Teil im Apple-Hauptquartier schon von nahem gesehen. In diesem Video ordnen wir ein bisschen ein, warum das Ganze eine ziemlich große Sache ist und was das überhaupt bedeutet, „Spatial Computing“ und was der Unterschied zu VR/AR/Mixed Reality und XR ist. Bleibt dran!

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…

Apple hat gerade eine ganz neue Produktkategorie vorgestellt – und das passiert ziemlich selten. Klar, 2007 das iPhone und 2010 das iPad. Aber das letzte richtige neue Gerät ist vor fast 10 Jahren die Apple Watch gewesen. Dazwischen gab es mehr so Zubehör wie Airpods, Homepods oder Airtags. Und seit fast 10 Jahren warten Nutzer aber darauf, dass Apple wieder eine neue Gerätekategorie vorstellt. Und genau das haben sie gerade gemacht.

Tja, und zwar ein Headset, eins, das die echte Umgebung mit virtuellen Bildern anreichert. Also das, womit Microsoft und Google beide schon ganz schön auf die Schnauze gefallen sind, wenn ich das mal so deutlich sagen darf. Google Glass war cool, hey, ich war damit vor genau 10 Jahren auf dem Oktoberfest in München! Aber irgendwie war ich gefühlt auch der einzige, hihi. Das war alles noch meilenweit von Alltagsgeräten entfernt.

Und das will Apple nun offenbar ändern. Mit ihrem Vision-Pro-Headset.

Wie gesagt, große Sache, und deshalb starten die heise-Kollegen von Mac&I jetzt auch einen eigenen Podcast, um Apples neue Spatial-Computing-Vision zu begleiten. TNBT, the next big thing, heißt der. Der Link zur ersten Folge ist unten in der Beschreibung.

Wenn ihr wissen wollt, was Apple außer dem Headset noch alles bei der WWDC-Keynote gezeigt hat: Auf dem heise-online-YouTube-Kanal gibts ein Video dazu, der Link ist ebenfalls unten zu finden.

Also, aber jetzt: VISION PRO von Apple. Damit KANN man komplett in künstliche Welten eintauchen, also Virtual Reality, also so, dass man von der Umgebung gar nichts mehr sieht, aber das Teil kann auch die echte Umgebung mit künstlichen Bildern anreichern. Den Grad der Virtualität kann man sogar mit so einem Rädchen am Headset stufenlos einstellen. Aber die echte Welt, die steht bei Apple im Vordergrund, den Begriff „Virtual Reality“ hat Apple auf der Präsentation nicht einmal verwendet.

Früher hat man dazu gerne Augmented Reality gesagt, dieser Begriff ist aber mit der Zeit so unpräzise eingesetzt worden, dass das mehr Verwirrung gestiftet hat, als dass es geholfen hätte. Inzwischen sagt man meist einfach Mixed Reality (MR) oder auch eXtended Reality (XR) – das ist der Überbegriff für alles, was irgendwie Virtual oder Augmented Reality ist oder irgendwo dazwischen liegt. Apple scheint alle diese Begriffe zu vermeiden, nur einmal hat Tim Cook konkret Augmented Reality in den Mund genommen, sonst war größtenteils von Spatial Computing die Rede.

Wichtig ist noch: Um die Realität in die Brille zu holen, nutzt Apple die sogenannte Passthrough-Technik. Das bedeutet, dass mehrere Kameras die Umgebung einfangen und das Headset das Bild aufbereitet und dann auf zwei Displays anzeigt. Man kriegt also immer ein digitales Bild zu sehen, man schaut nicht durch eine transparente Scheibe auf die Welt.

Vorher hat man das oft noch anders gemacht, nämlich mit sogenannten Wellenleiter-Displays. Zum Beispiel bei Microsofts Hololens und der Magic Leap von 2015: Die hatten transparente Displays, man hat also wie durch ein normales Brillenglas die Welt gesehen; und da wurden dann digitale Bilder eingefügt. Das hatte den Vorteil, dass man die Welt sieht wie in echt und nicht durch Kameras – aber den großen Nachteil, dass das Sichtfeld technisch bedingt deutlich schlechter ist als bei Passthrough-Brillen wie der von Apple. Deshalb ist die Wellenleiter-Technik praktisch tot.

Ja, aber was kann das denn jetzt, das Apple-Headset. Tja, der Fokus liegt auf “Spatial Computing”, also darauf, dass man das Gleiche macht wie mit einem normalen Computer, aber das ganze passiert halt in einem SPACE, also in der eigenen Umgebung, im 3D-Raum. Man kann sich nicht nur irgendwelche Fenster beliebig anordnen, sondern auch 3D-Objekte anzeigen lassen, die dann auch mit der echten Umgebung visuell in Verbindung stehen. Sprich: Ich kann mir ein virtuelles Buch auf den Couchtisch legen, und das wirft dann auch einen Schatten darauf. Das sah in der Präsentation wirklich richtig gut aus, leider durfte mein Kollege Malte Kirchner, der vor Ort bei Apple in Cupertino war, das Headset nicht selbst aufsetzen, sondern nur von außen bestaunen. Naja, zumindest haben wir so ein paar Bilder vom Headset, die nicht vom Hersteller kommen.

Die wohl größte Konkurrenz der Apple Reality Pro kommt von Meta, also Ex-Facebook. Die haben mit der Quest 2 das meistverkaufte, autarke Headset auf dem Markt. Man vermutet, dass über 10 Millionen verkauft wurden, das ist schon stattlich. Die konnte auch schon die echte Umgebung ins Bild holen, allerdings nur schwarzweiß. Die im letzten Jahr erschienene Quest Pro für anfangs heftige 1800 Euro macht das in Farbe, aber in schlechterer Bildqualität als Apple. Kurz vor Apples Veranstaltung hat Meta die Quest 3 angekündigt, die „nur“ rund 500 Dollar kosten soll.

Apple ruft einen deutlich höheren Preis auf, nämlich 3500 Dollar, das könnten später in Europa 4000 Euro werden. ABER: Die Auflösung bei Apple schafft die in VR-Entwicklerkreisen als magische Grenze erachteten 4K x 4K pro Auge, beziehungsweise sogar etwas mehr, die Rede ist von 23 Millionen Pixeln. Die genauen Spezifikationen sagt Apple bislang nicht. Das ist auf jeden Fall die Auflösung, bei der man anfängt, wirklich keine Pixel mehr zu sehen, obwohl die Displays so dicht vorm Auge sind. Das heißt: Das kann wirklich aussehen wie in echt. Solche Displays hätte man vermutlich auch schon früher bauen können, aber es gab halt keine Hardware, die zwei solcher Displays mit 90 Bildern pro Sekunde stabil versorgen konnte.

Vor allem nicht in einem Headset ohne angeschlossenen Riesenrechner. Und das ist nun Apples großer Vorteil: Mit ihren Apple-Silicon-SoCs können sie das stemmen. Drin steckt nicht nur der sehr kraftvolle M2, sondern auch ein spezieller Zusatzprozessor namens R1, der zum Beispiel die ganzen Bilder der nach außen gerichteten Kameras und der Sensoren verarbeitet. Damit soll die Verzögerung zwischen Realität und Displayanzeige nochmal gesenkt werden, die Rede ist von 12 Millisekunden. Wir haben natürlich noch keine Benchmarks, aber das wird eine andere Liga sein als die Snapdragon XR2 SoCs von Qualcomm, die in den Meta-Headsets stecken.

Doch Meta hat jahrelangen Software-Vorsprung. Es gibt hunderte Spiele und Apps für die Headsets, und zwar richtig gutes Zeugs, das wäre sehr schwierig aufzuholen für Apple. Deshalb fängt Apple gar nicht erst an, in den Meta-Gaming-Gefilden zu wildern. Sondern alles scheint erstmal auf Spatial-Computing ausgelegt, also die Ausführung von vorhandenen iOS beziehungsweise iPadOS-Apps, die man sich dann im 3D-Raum platzieren kann. Es gibt auch ein paar dreidimensionale Apps, hier arbeitet Apple unter anderem mit Disney zusammen. Da konnte man zum Beispiel sehen, wie sich das ikonische Disney-Schloss auf dem eigenen Tisch aufbaut. Aber was bringt das, das Disney-Schloss auf dem Couchtisch stehen zu haben? Man will da doch reingehen! Oder mit einem Fallschirm runterspringen! All das ginge mit VR, aber zumindest war von solchen Anwendungen nichts zu sehen.

Es wäre technisch theoretisch möglich, dass unabhängige Entwicklerstudios ihre VR-Software für Vision Pro umsetzt. ABER: Das Apple-Headset hat keine Handcontroller, sondern wird komplett mit den Händen gesteuert. Das bedeutet also hohen Aufwand, um vorhandene Software dafür umzusetzen – man hat ja zum Beispiel nicht einen einzigen Button, sondern muss zum Aktivieren von Dingen spezielle Fingerbewegungen machen, wie zum Beispiel das hier.

Wirklich innovativ ist das außen angebrachte Display, das die Augen derjenigen Person anzeigt, die unter dem Headset steckt. Die Meinungen bei uns im Team dazu pendeln so zwischen „cool“ und „gruselig“, aber es ist auf jeden Fall etwas Neues. Interessanterweise filmt das Headset dafür nicht das eigene Gesicht ab, sondern man muss es vorher „einscannen“ und es wird dann KI-gestützt verarbeitet und angezeigt. Infrarot-Kameras im Headset gibt es aber auch, nämlich fürs sogenannte Eye-Tracking, sie erfassen also, wo man gerade hinschaut. Die Anwendungen lassen sich also wirklich per Auge steuern, man muss nicht mal den Kopf bewegen. Apple betont, dass die Daten nicht aus dem Headset abfließen, also nicht für Dritte einsehbar sind. Das ist ja immer eine große Kritik bei Meta gewesen – Blickdaten können schließlich ganz schön intim sein. Weil: wo die Pupillen besonders genau hinschauen, das sagt ja schon viel über einen Menschen aus.

Kurios ist, dass Apple den Akku nicht im Headset integriert hat, sondern ziemlich unelegant in einem Kästchen mit einem Kabel. Was dazu wohl Steve Jobs sagen würde, hmm. Zwei Stunden soll der Akku halten. Ok.

Meine Einschätzung zur Vision Pro: Ich muss zugeben, ich bin einigermaßen beeindruckt von Apples Mut. Sie orientieren sich NULL am Nutzungsszenario vorhandener Headsets, sprich, sie haben, zumindest bei der Präsentation, null mit VR-Spielen am Hut. Und mit dem gehypten Metaverse haben sie noch weniger zu tun. Es gab bislang nicht mal Avatare zu sehen, das heißt, will man mit anderen kommunizieren, macht man ein Videochatfenster auf – aber das geht ja eigentlich nur mit Leuten, die gerade kein Headset tragen, denn man will ja das Gesicht sehen. Hmm.

Apple fokussiert sich zu 100% auf Spatial Computing. Und das ist ja was, was Meta auch kann, wir haben dazu sogar mal ein ganzes Video gemacht (Arbeiten in VR) – mit der Quest kann man auch unterschiedliche Browserfenster im Raum anordnen, und auch normale Android-Apps laufen da ja drauf. Aber: In der Realität macht das niemand, also das ist bislang eine totale Nischenanwendung.

Aber Apple setzt da jetzt total drauf; und das halt auch wirklich auf Hochglanz poliert. Ich bin mir sicher, dass das alles smoother funktioniert als bislang, auch die Handsteuerung. Sonst würde Apple das nicht auf den Markt bringen. Aber es ist eben auch was, wonach irgendwie niemand gefragt hat – aber vielleicht auch deshalb, weil man noch nicht wusste, dass man das cool einsetzen kann. Wenn Apple was kann, dann ist das ja vorhandene Technik alltagstauglich zu machen.

Naja, und ein Riesenvorteil dabei: Dass sie extrem leistungsfähige Hardware haben, die diese extrem hochauflösenden Displays bespielen kann. Während die Textdarstellung bei so Spatial-Computing-Anwendungen auf anderen Headsets unangenehm bröselig aussah, wird das bei Apple sehr wahrscheinlich so gut funktionieren, dass man da wirklich mit arbeiten mag. Und am eigenen Schreibtisch kann man das Headset ja auch in die Steckdose stecken, da ist dann die zweistündige Akkulaufzeit kein so großes Problem.

Die große Frage bleibt: Schafft Apple es, so gute Software anzubieten, dass genügend Leute denken: Ja, geil, damit will ich arbeiten beziehungsweise, damit will ich mir abends Filme angucken, da setze ich mir sogar so einen unbequemen Apparat auf den Kopf – unbequem, insofern, dass jedes Headset natürlich unbequemer ist als gar keins, auch wenn es noch so ergonomisch daherkommt.

Ganz ehrlich: Ich kann es mir nicht vorstellen. Aber wenn es jemand schafft, dass Headsets wirklich ein Ding werden im Alltag, dann Apple. Aber diese erste Version, für 3500 US-Dollar, die wird kein Massenprodukt. Da bin ich ziemlich sicher. Aber wer weiß, vielleicht WIRD daraus noch eins, in ein paar Jahren. Übrigens: Zuerst ist das Headset in den USA erhältlich, und zwar „Anfang nächsten Jahres“. Später soll es dann auch nach Europa kommen, ein Preis steht hier aber noch nicht fest.

Was meint ihr, ist das was Großes? Wird das die Welt verändern wie das iPhone? Hantieren wir in fünf Jahren tatsächlich wie in Minority Report an virtuellen Bildschirmen herum? Schreibt’s gerne in die Kommentare. Und gerne Abo, wisst ihr ja, Tschüss!


c't 3003 ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen und Lukas Rumpler sowie die Video-Producer Şahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.

(jkj)