Apple Vision Pro: Texte schreiben durch die "rosarote" Brille

Läuten Augmented-Reality-Tools wie Apple Vision Pro auch für Office-Aufgaben wie das Schreiben von Texten eine neue Zeit ein? Ein Praxistest liefert Antworten.

In Pocket speichern vorlesen Druckansicht 42 Kommentare lesen
Der App Store auf dem iPhone

(Bild: Apple)

Lesezeit: 17 Min.
Inhaltsverzeichnis

Wie sich die Augmented-Reality-Umgebung der neuen Apple Vision Pro (AVP) in der klassischen Textverarbeitung schlägt, habe ich in einem Selbsttest herausgefunden. Die beim Verfassen von Fachartikeln typischen Herausforderungen von der Literaturrecherche und -aufbereitung, über die Strukturierung und Gliederung des Textes, die Formulierung klarer und präziser aktiver Aussagen sowie das Anreichern des geschriebenen Wortes mit Tabellen, Grafiken und Bildern gelingen auf Desktop- als auch Mobilrechnern schnell und komfortabel. In welchen Disziplinen die AVP mit ihren neuen Möglichkeiten punkten kann und wo es noch hakt, zeigt mein Praxistest.

Mark Zimmermann

Mark Zimmermann ist als Experte im Bereich Mobile Computing tätig. Sein Fachgebiet umfasst die Konzeption und Architektur sicherer mobiler Anwendungen.

Als Besitzer einer Apple Vision Pro (AVP) versuche ich jeden Tag aufs Neue, die Möglichkeiten und Grenzen dieser neuen Geräteklasse von Apple auszuloten. Nachdem ich umfassende Erfahrung beim Schreiben von über 150 Fachartikeln auf einem MacBook Pro mit Ulysses als Markdown-Editor, Pages für das Redaktionsfeedback, Keynote als Bildsammelstelle und zur Erstellung von Diagrammen, Safari zur Recherche und Mail / iMessage zur Kommunikation sammeln konnte, will ich in einem kurzen Test zeigen, ob und wie sich der Arbeitsablauf beim Verfassen von Fachartikeln in den räumlichen Computer von Apple verlegen lässt.

Wer erstmals eine AVP auf dem Kopf hat, wird schnell feststellen, dass Mail, Keynote und iMessage standardmäßig auf dem Gerät vorhanden sind – sofern man eine amerikanische Apple ID bei der AVP-Einrichtung verwendet. Von den anderen oben genannten Anwendungen Ulysses oder gar Pages ist im AppStore keine Spur zu finden. Daher stellt sich erst einmal die Frage, welche alternativen Tools zum Einsatz kommen können.

Eine kurze Recherche im AppStore von visionOS bestätigt, dass Apple dort bisher tatsächlich nur Keynote aus seiner iWork-Suite anbietet. Microsoft hingegen hat PowerPoint, Excel und Word bereits als Apps im Angebot. Das ist erfreulich und bemerkenswert zugleich, wenn man bedenkt, dass Microsoft hier eine native Version anbietet und nicht nur die fürs iPad als "kompatibel" deklariert hat. Im Fall der MetaQuest hatte sich Microsoft noch auf eine Webversion von Word und Co. beschränkt.

Eine vollwertige Textverarbeitung steht auf der AVP somit bereit, mir fehlt dennoch ein Markdown-Editor. An die schnelle Texterfassung in einem schlanken, aber dennoch mächtigen Editor mit der Markdown-Syntax habe ich mich über viele Jahre gewöhnt. Der AppStore liefert einige passende Treffer – darunter sind native visionOS-Apps sowie einige kompatible iPad-Versionen bekannter Anbieter, Ulysses ist jedoch nicht dabei.

Die Entscheidung fiel für diesen Test daher auf Bear. Aus meiner Sicht werden die entsprechenden Markdown-Formatierungen sogar besser dargestellt als in Ulysses oder den anderen unter visionOS nativen Apps.

Im direkten Vergleich mit anderen Markdown-fähigen Editoren ist Bear einfach zu bedienen und komfortabel in der Darstellung (Abb. 1).

(Bild: Sreenshot/Mark Zimmermann)

Trotz des Kompatibilitätsmodus bereitet das Nutzen von Bear unter visionOS Spaß. Auch die Handhabung von Links im Dokument erscheint mir einfacher. Auf Wunsch übernimmt Bear gleich den Titel der verlinkten Website. Artikel lassen sich auch innerhalb von Bear leicht miteinander verknüpfen, was aber für die Erstellung von Fachartikeln nicht relevant ist. Intern scheint Bear mit einer Datenbank zu arbeiten, denn die App legt die Dokumente nicht einfach als Datei ab. Die erstellten Dokumente können exportiert werden, beispielsweise als Microsoft-Word-Dokument im Open-XML-Format (.docx).

Fachartikel setzen in der Regel eine umfangreiche Quellenrecherche voraus. Im vorliegenden Fall handelt sich primär um einen Erfahrungsbericht, die Recherche ist daher schnell erledigt. Die Suche im Internet mit Safari gelingt schnell und einfach. Das Speichern von URLs per Drag-and-drop im Markdown-Editor funktioniert fehlerfrei. Im Vergleich zur Arbeit am Mac kann der große Bildschirm und das gestochen scharfe Bild überzeugen. Im Alltag habe ich mit meinem Monitor einige Probleme, was jedoch nicht dem Monitor, sondern meinen mehrfach operierten Augen geschuldet ist. In der AVP sind Bilder und Texte entspannt und vor allem scharf zu lesen.

Ein wichtiger Hinweis vorweg: Mit Apple Vision Pro hat der Nutzer zwei hochauflösende Monitore vor Augen. Durch die eingebaute Sensorik wird jedoch die reale Umgebung (Passthrough) dargestellt. Dies ermöglicht den Blick auf die reale Umgebung, die durch virtuelle Objekte erweitert wird. Die AVP befreit von der Arbeit im stationären Büro – noch deutlich besser als ein Laptop. Die Recherche unterwegs (mit einem iPhone als Wi-Fi-Hotspot), im Park, im Café oder an anderen Orten ist bequem.

Egal, wie "trist" oder "eng" die reale Umgebung erscheinen mag, auf dem virtuellen Bildschirm bleibt stets genug Platz für alle Fenster und Interaktionen. Droht allzu viel Ablenkung durch die Umgebung – etwa auf einer Bank in der belebten Fußgängerzone – lässt sich mit der digitalen Krone (einem Drehknopf am oberen Ende der Brille) die Realität durch eine virtuelle entspannende Landschaft (Berge, Mond, See …) austauschen. Dann wirkt die Apple Vision Pro sogar beruhigend auf mich als Autor und unterstützt meinen konzentrierten Schreibfluss. Hier kann die AVP klar punkten.

Die primären Eingabemethoden der Apple Vision Pro sind Hände, Augen und Stimme. Sie bietet darüber hinaus eine Schreibmöglichkeit über eine virtuelle Tastatur. Die fällt jedoch eher gewöhnungsbedürftig aus, denn sie ist in vielerlei Hinsicht für das Schreiben von Artikeln unbrauchbar. Sie lässt sich nur mit zwei Fingern nutzen und ist aufgrund der fehlenden Haptik umständlich zu bedienen. Das Bearbeiten, Korrigieren und Formatieren von Texten allein mit Blickkontakt und Gesten in der Luft ist zumindest derzeit noch extrem umständlich bis nahezu unmöglich.

Die virtuelle Tastatur ist daher immer und überall verfügbar. Sie erlaubt auch in Grenzsituationen die Eingabe längerer Texte – allerdings auch nicht ohne die beschriebenen Einschränkungen. Die Vision Pro über Bluetooth mit einer physischen Tastatur zu koppeln, ist problemlos möglich und aus den genannten Gründen auch unbedingt zu empfehlen. Alle Bluetooth-Tastaturen sind kompatibel. Eine Besonderheit kommt Nutzern eines Apple Magic Keyboards zugute, da diese Tastatur eine zusätzliche AR-Textvorschau bietet, die den Schreibfluss deutlich verbessert.

Die AR-Textvorschau ist sehr praktisch, vorwiegend für Personen, die nicht in der Lage sind, blind zu tippen (Abb. 2).

(Bild: Screenshot/Mark Zimmermann)

Während die Tastaturunterstützung bereits reibungslos funktioniert, lässt sich die Vision Pro mit einer Maus derzeit nur eingeschränkt steuern. Allein das Apple Magic Trackpad scheint kompatibel zu sein. Ein Mauszeiger erleichtert die Navigation in Apps und bei kleineren Touch-Targets, die ohne physisches Eingabegerät schwer zu bedienen sind. Insbesondere bei kompatiblen iOS- und iPadOS-Apps, die für Touch optimiert sind, kommt es vor, dass sie mit einer reinen Augensteuerung nur schwer zu bedienen sind. Eine Tastatur mit integriertem Trackpad funktionierte im Test jedoch nur bedingt. Die Tastatur selbst lässt sich zwar anschließen, der Mauszeiger bleibt jedoch inaktiv.

Die Benutzererfahrung mit der Apple Vision Pro ist grundsätzlich positiv, aber die Größe des verfügbaren (virtuellen) Arbeitsbereichs kann gelegentlich überwältigend wirken. Gerade außerhalb der eigenen Büroräume ist es bereichernd, in jeder Situation und an jedem Ort eine riesige Arbeitsfläche zur Verfügung zu haben. Die Möglichkeit in öffentlichen Verkehrsmitteln, auf Parkbänken oder vergleichbaren Orten zu arbeiten, ist verlockend. Die Anzeige auf der Vision Pro ist für andere Personen nicht einsehbar. Ein wichtiger Aspekt für Autoren, die mit sensiblen Informationen arbeiten.

Ob sich die Arbeit in beziehungsweise mit der AVP produktiver und effizienter gestaltet, hängt natürlich auch von den individuellen Bedürfnissen und Vorlieben ab. Mich persönlich macht sie auf jeden Fall unabhängiger, zumal sie sich mit virtuellen als physischen Tastaturen bedienen lässt.

Im Vergleich zur Arbeit auf einem macOS-Notebook gerät das Erstellen von Texten auf der AVP spontan zur Herausforderung. Fachartikel schreibe ich auf dem Laptop nicht nur deutlich schneller, die über Jahre eingeübte und inzwischen intuitive Vorgehensweise führt auch zu einem effizienteren Schreibprozess.

Beide Ansätze haben aber ihre jeweiligen Vorzüge, sodass sich eine Kombination beider Systeme für den Schreibprozess als ideal erweisen könnte. Apple-typisch verbindet sich ein MacBook Pro kabellos problemlos mit der Vision Pro. Die Bildschirmdarstellung des Laptops erscheint im Display der AVP, während sich der MacBook-Monitor abschaltet. Das ist unter anderem aus Datenschutzgründen sogar nützlich. Die Darstellung in der AVP ist allerdings auf jeweils ein Fenster begrenzt; zusätzliche Fenster unterstützt das System nicht. Eine Verbindung mit dem iPhone oder iPad ist ebenfalls nicht möglich. Wer mehr benötigt, muss auf zusätzliche Apps wie SplitScreen zurückgreifen.

Mit einem iPhone als Wi-Fi-Hotspot bietet die AVP maximale Unabhängigkeit. Das Arbeiten an den unterschiedlichsten Orten hat mir jedoch auch einige interessante Erfahrungen beschert. Während die meisten Menschen, die mir begegnet sind, einen Bogen um mich gemacht haben – kaum jemand hat den Mann mit der "Skibrille" auf dem Kopf angesprochen – zeigten sich eher technisch versierte Personen überwiegend neugierig, einige sogar aufdringlich. Heitere Fragen wie "Darf ich die mal aufsetzen?" waren häufiger zu hören als empörte Aussagen nach dem Motto "Nehmen Sie gerade ein Video auf? Das dürfen Sie nicht!"

Entscheidend für das Erlebnis und den Komfort mit der AVP waren auch die verschiedenen Örtlichkeiten. In einem wackeligen Zug fällt das Tippen auf einer virtuellen Tastatur deutlich schwerer als auf einer physischen. In einem Bistro bei Kaffee und Kuchen spielt wiederum die virtuelle Tastatur ihre Vorteile aus – auf einem kleinen runden Bistro-Tisch fehlt schlicht der Platz für eine Tastatur.

Der Einsatz der AVP wirft aber generell auch ethische Fragen auf, etwa nach der Privatsphäre und der Datensicherheit. Es ist zunächst wichtig zu verstehen, dass man natürlich den Datenschutzerklärungen von Apple vertrauen muss, wenn man sich ein Gerät mit sechs Tracking-Kameras, vier Eye-Tracking-Kameras, zwei Tiefensensoren und zwei Passthrough-Kameras aufsetzt. Die AVP sammelt über diese Sensoren eine Vielzahl von Daten, darunter nicht nur die Blickrichtung und die Handbewegungen der Nutzerinnen und Nutzer. Es ist daher ebenso wichtig zu verstehen, dass die Daten sicher in der AVP gespeichert und verarbeitet werden und das Gerät nicht verlassen.

Einfluss auf die Nutzung der Apple Vision Pro hat auch die Umgebung. Mit dem "Travel Mode" passt sich die AVP unter anderem optimal an Transportmittel wie Flugzeuge, Züge, Busse und ähnliche Verkehrsmittel an. Über Sensoren erfasst das Gerät normalerweise die Umgebung und sorgt für die Stabilität der angezeigten Inhalte. Sobald sie erkennt, dass sich der Benutzer in einem Verkehrsmittel befindet, schlägt sie vor, den "Travel Mode" zu aktivieren, um sich an die Bewegung und die Umgebung anzupassen. Dieser Modus kann auf Vorschlag des Geräts zum Einsatz kommen, lässt sich aber jederzeit auch über das Kontrollzentrum aktivieren. Ich empfehle allen Interessierten, während der Verwendung des "Travel Mode" sitzenzubleiben. Verpassen Nutzerinnen und Nutzer die Aktivierung des Modus, so lässt sich dieser während der Fahrt nicht nachträglich aktivieren, sondern erst nach einem Halt.

Die Brille und den separaten Akku verbindet ein Kabel. Obwohl ich erwartet hatte, dass es mich stören könnte, war das nur selten bis gar nicht der Fall. Das lag vermutlich aber auch daran, dass ich das Kabel unter meinem Pullover trug und es somit nicht frei in der Luft hing. Am Arbeitsplatz sollte man allerdings aufpassen, wenn man die Brille mit dem Akku ablegt – dann ist Hängebleiben quasi vorprogrammiert. Aus persönlicher Erfahrung kann ich von mehrfach unbeabsichtigtem Hängenbleiben mit anschließender schwungvoller Bewegung des Akkus samt Brille berichten.

Bei all diesen Erfahrungen ist das Erstellen des Textes dennoch gut vorangekommen. Allein die Aufnahme der für diesen Artikel notwendigen Screenshots, aus der Brille heraus, hat mich vor Probleme gestellt, die sich nur umständlich lösen ließen.

Es gibt zwei Methoden, um ein Bild des Sichtfelds der AVP zu erstellen: drahtlos oder mit dem Apple Vision Pro Developer Strap, einem Zubehörteil, das eine kabelgebundene Verbindung ermöglicht.

Die drahtlose Methode erfordert, dass sich die AVP und ein aktuelles macOS-Endgerät, auf dem Xcode ausgeführt wird, im selben Bonjour-fähigen Wi-Fi-Netzwerk befinden. Nach der Einrichtung können Anwenderinnen und Anwender mithilfe von Xcode und der Anwendung Reality Composer Pro Screenshots und Bildschirmvideos erstellen. Das funktionierte in meinem Netzwerk jedoch nur eingeschränkt. Dies liegt zum einen an der Signalstärke des Netzes, zum anderen muss die Verbindung nach jeder Aufnahme mit einer kurzen Pause neu aufgebaut werden. Außerdem dauert der initiale Verbindungsaufbau nach dem Einschalten der AVP relativ lange. Der Einsatz des Developer Strap, der für App-Entwickler in den USA für 300 US-Dollar erhältlich ist, bietet eine zuverlässigere Methode. Er verbindet die AVP über ein USB-C-Kabel direkt mit dem macOS-Endgerät. Die Vorbereitungen für die Bildschirmaufnahme sind ähnlich wie bei der drahtlosen Methode. Es gibt jedoch einen Haken: Erstellt der Nutzer ein Screenvideo, wird dieses auf der Brille generiert und anschließend an das macOS-Endgerät im Reality Composer übertragen. Wird während dieser Zeit das Kabel von der AVP getrennt, gehen die aufgezeichneten Daten im digitalen Nirvana verloren.

Alternativ lassen sich auch direkt auf der AVP Screenshots oder Videos erstellen. Dazu ist gleichzeitiges Drücken der beiden physischen Tasten am Gerät erforderlich. Ein Nachteil im Vergleich zur Methode mit einem Developer Strap ist, dass die Aufnahme unschärfer sein kann. Nur die Bereiche, zu denen der Benutzer aktiven Sichtkontakt hat, sind scharf, der Rest ist unscharf. Die kabelgebundene Methode mit dem Developer Strap bietet daher eine stabilere und schärfere Aufnahmequalität. Außerdem ermöglicht der Developer Strap die Aufnahme von Bildschirmvideos, das Durchführen von Systemwiederherstellungen und die Konfiguration per Apple Configurator Pro – was bei der drahtlosen Methode nicht möglich ist.

Wie zu Beginn erwähnt sind gängige Tools wie Mail und Nachrichten (iMessage) standardmäßig auf der AVP enthalten und arbeiten mit den Daten der erforderlichen amerikanischen Apple ID. In den Einstellungen lassen sich jedoch auch weitere E-Mail-Adressen hinterlegen. Für die Kommunikation mit der Redaktion bezüglich des Fachartikels konnte ich so mit meiner üblichen deutschen E-Mail-Adresse arbeiten. Im ersten Schritt habe ich dazu den Markdown-Text als Word-Datei exportiert und die Bilder in einem ZIP-File zusammengefasst. Beides gelang problemfrei. Auch das Bearbeiten der von der Redaktion retournierten .docx-Datei mit Kommentaren zu sprachlichen Formulierungen und inhaltlichen Fragen zur weiteren Konkretisierung, konnte ich mit der AVP einfach umsetzen. Die Arbeit ging dank Unterstützung durch ein Magic-Trackpad leichter von der Hand, insbesondere um die Kommentare auszuwählen, abzuhaken oder eine Antwort zu ergänzen.

Ein in der AVP erstellter Screenshot (links) ist von schlechterer Qualität als ein mit RealityComposer Pro erstellter Screenshot auf einem macOS-Endgerät (rechts) (Abb. 3).

(Bild: Screenshot/Mark Zimmermann)

Das Schreiben mit Apple Vision Pro eröffnet interessante neue Möglichkeiten, bringt aber auch Herausforderungen mit sich. Die derzeit verfügbaren Standard- und Drittanwendungen decken zwar eine umfangreiche Tool-Vielfalt ab – die Notwendigkeit, sich auf alternative Textverarbeitungs- und Markdown-Editoren verlassen zu müssen, erfordert jedoch im Einzelfall eine Anpassung der gewohnten Arbeitsabläufe. Die Eingabe über eine virtuelle Tastatur ist gewöhnungsbedürftig, die unterstützten physischen Tastaturen und Trackpads bietet eine praktikable Alternative. Die Flexibilität, an verschiedenen Orten zu arbeiten, und dass man die Umgebung virtuell anpassen kann, erhöhen den Komfort und die Konzentration. Dennoch bleibt im Vergleich zum traditionellen Schreiben auf einem MacBook Pro die Frage nach der Effizienz offen – insbesondere angesichts der zum Teil noch komplexen Umsetzungen, beispielsweise im Hinblick auf Bildschirmfotos und Videos.

Aus den im Test gesammelten Erfahrungen mit der AVP lassen sich auch einige Verbesserungsvorschläge für die nächste Generation ableiten: Dazu zählen unter anderem ein leichteres Design sowie eine Verbesserung der Kameraqualität. Im Alltag fällt bereits ein leichtes bis starkes Rauschen bei schlechten Lichtverhältnissen auf. Da gibt es sicherlich Spielraum für Optimierungen. Die Akkulaufzeit erwies sich im Rahmen des Tests als ausreichend, da das Schreiben selten länger dauerte als zweieinhalb Stunden am Stück.

Für Autorinnen und Autoren, die an der Schnittstelle von Technik und Schreiben experimentieren möchten, bietet die Apple Vision Pro eine faszinierende Perspektive. Vor allem eine Kombination aus traditionellen Arbeitsmethoden und den neuen AR-Möglichkeiten könnte helfen, um den bestmöglichen Arbeitsablauf zu erzielen.

(map)