Erweiterte Wirklichkeit

Augmented Reality ergänzt die Umgebung in Echtzeit durch eingeblendete Zusatzinformationen. Erste Anwendungen laufen bereits jetzt auf Smartphones.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 28 Min.
Von
Inhaltsverzeichnis

Augmented Reality ergänzt die Umgebung in Echtzeit durch eingeblendete Zusatzinformationen: Busfahrpläne, Restaurantbewertungen oder Eckdaten zu einer Sehenswürdigkeit. Dazu muss man keinen Helm aufsetzen und auch keine Spezialbrille – ein Blick durch die Smartphone-Kamera genügt.

Mit den Grenzen der Wahrnehmung beschäftigen sich Wissenschaftler schon lange. Timothy Leary und Terrence McKenna empfahlen zu Lebzeiten die chemische Bewusstseinserweiterung, um die Umgebung besser wahrzunehmen – sie wollten sich mit Wurzelextrakten und anderen Chemikalien also nicht etwa die Birne zudröhnen, sondern ihren Blick auf die Wirklichkeit schärfen.

Aktuelle Ansätze wollen die Wahrnehmung zwar weiterhin individuell, aber einheitlich für alle erweitern – ohne bunte Nebenwirkungen und mit Computertechnik statt Chemie. „Augmented Reality“ heißt das Schlagwort, erweiterte Wirklichkeit. Augmented Reality (AR) ist der pragmatische Gegenentwurf zu Virtual Reality (VR). Statt den Menschen mit Brillen und Handschuhen in die Welt des Computers zu entführen, blendet man virtuelle Gegenstände in die reale Umgebung ein.

Erweiterte Wirklichkeit (7 Bilder)

Erweiterte Wirklichkeit

Anhand der Position und Ausrichtung des Android-Smartphones blendet der „World Browser“ Layar Informationen zu umliegenden Sehenswürdigkeiten ein. (Bild: Achim Barczok)

Augmented Reality reichert die reale Umgebung mit zusätzlichen Informationen an – an Ort und Stelle. Ein AR-System erfasst zuerst sensorisch die reale Welt, um dann in Echtzeit Informationen und Gegenstände in das Umfeld einzublenden.

Was steif formuliert wie Zukunftsmusik klingt, gehört für viele Fernsehzuschauer schon zum Alltag. Bei internationalen Fußballspielen wird die Bandenwerbung am Spielfeldrand bei der TV-Übertragung meist durch virtuelle Werbung ersetzt – je nach Sponsorenlage steht jemand anderes auf der Banderole. Bei der Schwimmweltmeisterschaft im Sommer zeigte der Fernseher auf den Bahnen flach über dem Wasser schwebende Pfeile mit Namen, Nationalität und Bestzeit der Teilnehmer – für die Zuschauer vor Ort war von alledem nichts zu sehen.

Fürs Fernsehen sind perspektivisch korrekte Einblendungen aus dem Computer also ein alter Hut. Der aktuelle Trend konzentriert sich auf individuelle Lösungen, bei denen die AR-Erfahrung live vor Ort stattfindet. Die Forscher verfolgen dabei ernsthafte Anwendungen gleichermaßen wie spielerische Ansätze.

Denkbar wäre, dass sich Teilnehmer einer Dinner-Party diskret Name, Beruf und Hobby unbekannter Gäste einblenden lassen – im Raum schwebend und an die Personen gebunden, damit man im Gewusel schneller zueinander findet. Die Stadtverwaltung könnte ein noch in der Planungsphase befindliches Gebäude per AR vor Ort begutachten, um vor Erteilung der Baugenehmigung zu entscheiden, ob der Bau in die Umgebung passt oder die Gegend verschandelt.

Derzeit stehen der erweiterten Realität noch diverse technische Hürden im Weg. Zunächst einmal benötigt man einen Sensor, um die Umgebung zu erkennen, dann ausreichend Rechen-Power, um sie zu verarbeiten und zu ergänzen, und schließlich noch einen Weg, die live zusammengesetzten Bilder vor das menschliche Auge zu setzen. Und das alles soll möglichst mobil sein.

Bisher erfüllen zwei Produktkategorien diese Voraussetzungen zumindest im Ansatz: Bonsai-Notebooks (Ultra-Mobile PC, UMPC) und überzüchtete Handys (Smartphones). Aufgrund der hohen Verbreitung stürzen sich die AR-Forscher derzeit vor allem auf Smartphones: Die meisten der eingebauten Kameras erfassen Video, die Prozessor-Leistung nähert sich mit jeder Gerätegeneration weiter den Anforderungen und das Display besitzt immerhin die Dimensionen eines Schminkspiegels.

Aktuelle High-End-Smartphones umfassen meist Internet-Flatrate, GPS-Empfänger, Kompass und Lagesensor. Die Kombination reicht grundsätzlich aus, um standortbezogene Informationen live aus dem Netz auf den Bildschirm zu bringen.

Was dem WWW der Web-Browser ist, ist der AR der „World Browser“, mitunter auch „Reality Browser“ genannt. Mit Layar und Wikitude gibt es zwei solche Browser kostenlos für das iPhone und Android-Smartphones. Sie ergänzen das Kamerabild beispielsweise mit relevanten Informationen über die im Sichtfeld befindlichen Restaurants: Name, Beschreibung und Bewertung. Dabei orientiert sich der Browser anhand der Himmelsrichtung, der Horizontlinie und Entfernung nach im Netz hinterlegten geografischen Daten.

Achim Barczok

Die Genauigkeit der GPS-Empfänger und Lagesensoren in aktuellen Geräten reicht nicht aus, um exakt den Eingang zur gesuchten Adresse einzublenden; die Richtungserkennung funktioniert nur ab einer gewissen Entfernung. Das beeindruckt den Gründer des Wikitude-Projekts nicht: „Für die Einsatzgebiete von Wikitude reicht das, die eine oder andere Schwäche kann man mit Workarounds lösen“, meint Philipp Breuss-Schneeweis.

Der Name des vom niederländischen Unternehmen SPRXmobile entwickelten Browsers „Layar“ erklärt sich dadurch, dass er seine georeferenzierten Informationsquellen als „Layer“ oder Schichten bezeichnet. Derzeit bietet der Hersteller in verschiedenen Ländern insgesamt 87 Layer an. Zur Auswahl stehen ortsgebundene Beschreibungen und Empfehlungen aus dem Webdienst Qype, Fotos von Flickr, Nachrichten der Microblogging-Plattform Twitter und zum Verkauf stehende Immobilien über Wohnmap.de.

Um das Angebot zu erweitern, hat SPRXmobile Hunderte von Schlüsseln für sein API an Unternehmen und Entwickler verteilt. Hier setzt auch das Geschäftsmodell des Herstellers an: Firmen sollen ihren Daten einen prominenten Platz im Orts-Browser erkaufen können.

Wikitude verfolgt den entgegengesetzten Ansatz wie Layar: Außer auf offene verfügbaren Geo-Datenbanken setzt die Software auf eine emsige Community, die ihre Umgebung nach dem Wiki-Prinzip mit Namensschildchen bestücken soll.

Nicht, dass Wikitude keine kommerziellen Absichten verfolgen würde – hinter der Software steckt das österreichische Startup Mobilizy. Doch das Ziel ist ein offenes, umfangreiches Geo-Lexikon à la Wikipedia. Derzeit lässt sich der Browser nur über das Web-Portal www.wikitude.me füttern; in absehbarer Zeit soll es aber auch direkt über den AR-Browser klappen.

Den Grundstock des Datenbestands bilden georeferenzierte Wikipedia-Einträge sowie Empfehlungen von Qype. Wie bei Layar sollen künftig auch Unternehmen und Organisationen Datensätze über ein API einpflegen können. Im Unterschied zur Konkurrenz schneidet Wikitude den Informationsbestand nicht in Scheibchen, sondern zeigt zunächst alle vor Ort verfügbaren Informationen an.

Zur besseren Übersicht weisen Icons auf die Datenquelle hin; zusätzlich kann der Anwender die Daten nach groben Kategorien filtern. Der holistische Ansatz reduziert zwar das lästige Hin und Her zwischen den Ansichtsmodi – vom Parkhaus-Wegweiser zum Restaurantführer zum Hotel-Guide. Andererseits besteht bei wachsender Datendichte die Gefahr, dass die Übersicht verloren geht und Dubletten entstehen. Auch AR-Spam könnte sich breitmachen. Mobilizy-Gründer Philipp Breuss-Schneeweis mag sich zu diesem Thema noch keine Gedanken machen: „Momentan sind eher zu wenig als zu viele Daten verfügbar. Um solche Probleme kümmern wir uns, wenn sie auftreten.“

Mobilizy möchte Wikitude später durch Spezial-Versionen finanzieren, die interessierte Unternehmen mit einem ausgewählten Datenbestand auf ihren eigenen Seiten bereitstellen können – etwa ein Tankstellenverzeichnis oder einen Schnellrestaurant-Finder.

Die World-Browser sind ein erster Schritt für die erweiterte Realität auf Smartphones, AR-Begeisterte seien vor überhöhten Erwartungen aber gewarnt: iPhone & Co bringen zwar alle Grundvoraussetzungen mit – GPS, Lagesensor und Kamera. Derzeit gibt es jedoch noch keine Geräte, deren CPU- und Grafikleistung komplexeren AR-Anwendungen gewachsen wären.

Aktuelle AR-Ansätze werden nicht nur durch die verfügbare Hardware eingeschränkt, sondern auch durch die eher magere Datenlage. Michael Zöllner arbeitet am Fraunhofer-Institut für Grafische Datenverarbeitung (IGD) in Darmstadt in der Abteilung „Virtuelle und Erweiterte Realität“. Aktuell sieht der Diplom-Designer in sozialen Netzwerken die üppigste Datenbasis für flächendeckende AR-Anwendungen.

TU Graz/vidente.at

Smartphone-Clients für den Microblogging-Dienst Twitter ergänzen auf Wunsch jeden Beitrag um die Ortsangabe mit GPS-Daten. Zöllners iPhone-Anwendung „TwittARound“ wertet diese Informationen aus, um die Tweets lokalisierbarer Anwender in die Umgebung einzublenden. Schwenkt man das iPhone durch die Umgebung, hängt der Horizont voller Tweets. Was auf den ersten Blick als reine Spaßanwendung erscheint, lässt sich natürlich auch für ernsthaftere Zwecke einsetzen.

... blendet ein virtuelles Loch mit im Boden verborgenen Leitungen an.

„Augmented Reality ist immer dort von Vorteil, wo man eine Information direkt vor Ort braucht, aber weder Zeit noch Lust für Abstraktionsleistungen hat“, argumentiert Zöllner. Eine AR-Ausrüstung könnte Wartungstechnikern bei komplexen Aufgaben den Blick ins Handbuch ersparen, wenn die bildlichen Darstellungen direkt und praktisch über die zu reparierende Hardware gelegt würden. „Das kann man gleich mit Telemetriedaten zur Selbstdiagnose kombinieren“, ergänzt Dieter Schmalstieg, Professor für Virtuelle Realität und Computergrafik an der TU Graz. Dabei denkt Schmalstieg nicht nur an den industriellen Einsatz: „Die Behebung von Papierstaus im Kopierer stellt Endanwender vor Herausforderungen im räumlichen Denken.“ Auch beim Zusammenbauen von Ikea-Möbeln wäre AR hilfreich.

Der Bauarbeiter mit Display-Brille am Helm ist zwar noch Zukunftsmusik, aber gerade bei der Architektur sieht Schmalstieg konkrete Anwendungsmöglichkeiten. Mit AR ließe sich etwa testen, ob eine vorgesehene Maschine überhaupt in die existierende Fabrikhalle passt. Innerhalb eines Hauses könnten Handwerker per AR-“Röntgenblick“ Stromkabel in der Wand, unterirdische Wasserleitungen oder Fundamente sehen. Ein solcher Durchblick ist auch für Mediziner interessant, die den Körper ihrer Patienten zur Diagnose oder Operationsplanung mit 3D-Scans überlagern.

Im industriellen Umfeld ist das Potenzial der Augmented Reality zwar schon länger bekannt [1], „aber bisher werden die Systeme nur in Prototypen eingesetzt“, erklärt Wolfgang Broll. Er leitet am Fraunhofer-Institut für Angewandte Informationstechnik (FIT) bei Bonn den Geschäftsbereich „Kollaborative Virtuelle und Augmentierte Umgebungen“. Ihm zufolge arbeiten die bisher in der Industrie entwickelten Prototypen noch nicht robust genug für den praktischen Einsatz.

Eine dankbare Spielwiese für Prototypen ist der Kulturtourismus. „Viele Leute wollen vor Ort keine langen Texte lesen, sondern einfach wissen, was wo war“, stellt Michael Zöllner vom IGD fest. Deshalb haben die Fraunhofer-Forscher an der Grube Messel bei Darmstadt ein AR-Teleskop aufgestellt.

Die Grube ist eine derart bedeutende Lagerstätte für Fossilien, dass die Unesco sie zum Weltnaturerbe ausgerufen hat. Für das bloße Auge sieht der Ort dennoch unspektakulär aus. Zöllner gibt zu: „Es ist schwer zu kommunizieren, dass es sich dabei um eine enorm wichtige Fundstelle handelt.“ Sein AR-Teleskop gleicht rein äußerlich den üblichen Münzfernrohren. Blickt man jedoch hindurch, reichert die Optik die Umgebung um Darstellungen der Funde und Bodenprofile an.

Augmented Reality lässt sich auch für virtuelle Führer durch ein Museum nutzen oder um eine Stadt historisch zu erforschen. So betreibt das IGD derzeit ein Projekt zur AR-Darstellung der Berliner Stadtentwicklung zwischen 1940 und 2008. Das Haupthindernis auch hier: die Datenlage. Nur selten gibt es ausreichend gesicherte Informationen, um Gebäude lückenlos in 3D nachzubilden. „Historiker haben Bedenken, dass die Modelle Fehler enthalten, die sich durch die Darstellung im Bewusstsein der Betrachter verfestigen“, berichtet Michael Zöllner. Als Konsequenz projiziert das IGD beim Blick auf den Reichstag nur Texturen aus historischen Fotos in die AR-Ansicht.

Beim Stadtspaziergang durch ein virtuelles 1940 kann man trefflich streiten, ob das nun eine kulturelle Erweiterung ist oder pure Spielerei. Anderswo stellt sich die Frage gar nicht: Im Spiele-Bereich boomt der Einsatz von AR derzeit. Hier fallen viele Probleme weg, die den ernsten Einsatz behindern. Bei AR-Spielen spielt die exakte geografische Ortung des Spielers eine geringere Rolle als die Positionierung bestimmter Spielgegenstände im Raum. So ist ein GPS-Empfänger ebenso verzichtbar wie eine dauernde Internet-Verbindung; ausschlaggebend sind leistungsstarke Grafik-Chips und Prozessoren.

Ein ambitioniertes Beispiel ist der 3D-Shooter ARhrrrr!, der ein Touchscreen-Gerät im Smartphone-Format nutzt. Betrachtet man durch das Kameraauge des Handhelds ein zweidimensionale Spielbrett, wachsen darauf virtuelle Gebäude, durch deren Straßenschluchten Zombies auf der Suche nach Opfern wanken.

Der Spieler schwenkt das mobile Gerät über die Stadt, um die Toten aus der Vogelperspektive abzuschießen. Kommt die Kamera dem Spielbrett zu nahe, werfen die Zombies Gegenstände nach oben. Das Spielfeld dient nicht nur als Orientierungspunkt für den Spieler; die Software nutzt es als Ankerpunkt für die virtuellen Objekte. Läuft der Spieler um den Tisch, drehen sich Häuser und Zombies synchron mit.

Das Spiel wurde vom Augmented Environments Laboratory (AEL) des US-amerikanischen Georgia Institute of Technology entwickelt. Es nutzt kein kommerziell erhältliches Smartphone, sondern eine Entwicklungsplattform mit Nvidias Tegra-System. Derzeit erhältliche Smartphones könnten die nötige 3D-Grafikleistung nicht aufbringen; kommerzielle Tegra-Geräte lassen noch auf sich warten.

Andere Smartphone-Spiele nutzen 2D-Barcodes als Markierungspunkte für ein virtuelles Spielbrett, die 3D-Darstellung beschränkt sich jedoch auf einfache, schwebende Polygonklötze. Bei der AR-Umsetzung des beliebten Zeitvertreibs „Tower Defense“ auf einem Symbian-Smartphone zuckeln einfache Keile gerade noch ruckelfrei in Richtung zylinderförmiger Geschütztürme, die die Basis des Spielers darstellen. Richtige Spielfreude mag dabei nicht aufkommen, aber es juckt doch in den Fingern, wenn virtuelle Klötzchen über den eigenen Tisch ziehen.

Das Grundprinzip hat Sony schon vor zwei Jahren zur AR-Umsetzung des Kartenspiels „The Eye of Judgement“ genutzt, um die Monster und Helden des Trading-Card-Games als virtuelle Figuren in seine Spielkonsole Playstation 3 zu verpflanzen. Eine „Playstation Eye“ getaufte Kamera überwacht per Bilderkennung, welche Karten der Spieler auf ein Spielfeld vor der Konsole legt und lässt sie auf dem Fernsehschirm miteinander kämpfen. Dort mutiert der 2D-Spielplan zu einem virtuellen Schlachtfeld.

In diesem Jahr stellte Sony auf der Spielemesse E3 das „Eye Pet“ vor. Hier verwandelt sich der Fußboden oder Tisch vor der Eye-Kamera zur Spielwiese für ein virtuelles Äffchen, das man über Handbewegungen füttern, tätscheln und triezen kann – die Konsole wertet die von der Kamera erfassten Gesten aus und überträgt sie in die Virtualität.

Beim Playstation-Portable-Spiel Invizimals materialisieren sich die Monster erst beim Blick durch das Display.

Auf derselben Messe zeigte der Hersteller den Titel „Invizimals“ für die Playstation Portable. Mithilfe der mitgelieferten Kamera-Erweiterung geht der Spieler auf Suche nach unsichtbaren Mönsterchen, deren Position im Raum sich nur auf dem Display offenbart. Die eingefangenen Monster treten später als Gladiatoren gegeneinander an – Pokémon und Yu-Gi-Oh lassen grüßen. Ein Barcode-artiges Plättchen verhindert, dass die Invizimals beim Schwenken der PSP auf dem Boden stehen bleiben. Im Spiel dient es als Falle und Käfig.

Freilich sind aktuelle Spiele noch weit vom technischen Potenzial entfernt, das Augmented Reality verspricht. Forscher sehen darin auch eher einen Appetitanreger. Dieter Schmalstieg von der TU Graz ist überzeugt: „Spiele müssen Spaß machen und nicht technisch unfehlbar sein. Darum wird das kurzfristig ein wichtiger Markt für AR sein, bis alles technisch perfekt ist.“

Damit ein videobasierendes AR-System seine Aufgabe erfüllen kann, muss es zunächst seine Position und Orientierung im Raum bestimmen, dann die passenden virtuellen und realen Objekte aus einer Datenbank abrufen, diese angemessen visualisieren und das Ergebnis als Mischung aus Video und Rendering ausgeben. Das alles in Echtzeit, interaktiv und bitte ohne Ruckeln.

Manchen AR-Anwendungen genügt die relative Orientierung der aufgenommenen Objekte zur Positionsbestimmung. Oft dienen dazu gedruckte Barcodes wie in den genannten Spielen – oder auch in Zeitschriftenanzeigen. Hält man dort den Barcode vor eine Webcam, erscheint auf dem Monitor an derselben Stelle ein dreidimensionales Produktmodell oder ein Avatar (siehe auch "Augmentierwerkstätten" und [2]).

Die meisten Projekte arbeiten jedoch ortsbezogen, wozu sie eine absolute geografische Position benötigen. Zur exakten Positionierung reicht die Hardware in aktuellen Smartphones nicht aus: „Consumer-GPS und Kompass alleine sind einfach unzureichend genau“, stellt Dieter Schmalstieg fest. Deshalb konzentriert sich die akademische Forschung derzeit auf Bildverarbeitungstechniken (Computer Vision). Hierbei kommen weitgehend standardisierte Verfahren zum Einsatz, die von den Forschern gezielt optimiert werden. Die einfachste Methode setzt auf im realen Raum platzierte 2D-Barcodes – Fiducial Markers genannt. Dieser Ansatz eignet sich gut für kontrollierte Umgebungen wie Museen und Fabriken. Für flächendeckende Anwendungen oder Expeditionen ins Unbekannte taugt die Technik freilich nicht.

Verfahren ohne Marker arbeiten mit Referenzbildern von Objekten. Für Gebäude mit einer einzigen Schaufassade reicht grundsätzlich eine Aufnahme, die möglichst bei bewölktem Himmel aufgenommen wurde – direktes Sonnenlicht verzerrt die Kontraste zu stark.

Alternativ dazu kann man die Zielumgebung statt über Referenzbilder gleich als vereinfachte 3D-Modelle gestalten. Das AR-System muss dann anhand der Kamerabewegung durch den Raum und per Kantenerkennung ein eigenes 3D-Bild der Umgebung erzeugen und beides deckungsgleich übereinanderlegen.

„Dieses Verfahren ist aufwendiger und flexibler, hat kein Problem mit wechselnden Lichtverhältnissen, ist aber noch ein Riesenthema in der Forschung“, so Michael Zöllner vom IGD. Mitunter werden auch Erkennungsmethoden kombiniert, sodass GPS, Kompass, Beschleunigungs- und Lagesensoren die Bildverarbeitung stützen.

Bislang bleiben Verzögerungen und Ungenauigkeiten trotz allem Aufwand unvermeidbar: „Es wackelt bei allen“, stellt Zöllner trocken fest. Seiner Erfahrung nach bewältigt die Bildverarbeitung fest installierter AR-Systeme derzeit zwar 10 bis 15 Bilder pro Sekunde. Für die meisten mobilen Geräte ist eine solche Leistung derzeit noch unerreichbar – von Smartphones ganz zu schweigen.

Auf Dauer soll sich Augmented Reality nicht auf mickrige Handy-Displays beschränken; langfristiges Ziel ist die großflächige Integration virtueller Inhalte in die Realität, ohne die Mobilität des AR-Nutzers einzuschränken.

Die Pioniere schnallten sich Anfang der Neunziger ihre Computer noch auf den Rücken und mussten sich erstmal verkabeln, damit ihnen die errechneten Videodaten auf klobigen Spezialbrillen angezeigt werden konnten. Fast zwei Jahrzehnte später sind derartige Head-Mounted Displays (HMD) für Forscher und AR-Visionäre immer noch die Hardware der Wahl – zumindest im Prinzip. Sie nehmen dem Träger kaum Bewegungsfreiheit und behalten stets eine stabile Relation zu Kopf und Auge.

Für den Massenmarkt sind HMDs nach wie vor zu schwer und zu teuer. Das IGD fördert ein Projekt zur Entwicklung einer OLED-Display-Brille mit dem Namen iSTAR (Interactive See-Through Augmented Reality Display). In die OLEDs integrierte Photodioden sollen zur Erfassung von Augenbewegungen benutzt werden, damit der Träger die Hardware durch bloße Änderung der Blickrichtung steuern kann.

Michael Zöllner vom IGD sieht den Durchbruch derartiger Sehhilfen noch in weiter Ferne: „Im Consumer-Bereich gibt es noch keinen Markt, deshalb geht die technische Entwicklung nur im industriellen Umfeld weiter. Damit sich Head-Mounted Displays im Alltag durchsetzen, müssen sie so leicht sein wie eine normale Brille.“

Wolfgang Broll teilt die Skepsis des Kollegen: HMDs lösen bei vielen Leuten Berührungsängste aus. Immer mehr Leute führen jedoch ein Smartphone mit sich und haben sich an den Umgang damit gewöhnt: „Deshalb wird die erste große Augmented-Reality-Welle voll auf die Handys setzen“ – obwohl dafür gegenüber den Labor-Prototypen viele Abstriche in Kauf zu nehmen sind. Neben den bereits erwähnten Grenzen gehört dazu auch, dass das Handy auch dann dasselbe Bild zeigt, wenn man schräg darauf sieht – das bricht die Illusion, durch das Gerät „hindurch zu sehen“. Der hohe Berechnungsaufwand bedeutet auch, dass AR-Browser die Akkulaufzeit erheblich verkürzen.

Zöllner sieht den AR-Trend auf dem Handy mit gewisser Skepsis: „Das ist nicht die Augmented Reality, an der wir seit zehn Jahren forschen. Es wird eine große Enttäuschung geben, weil die Anwendungen auf den Telefonen im Alltag nicht so rund laufen wie in den schönen Videos.“ Dennoch findet er es richtig, schon jetzt damit an die Öffentlichkeit zu treten – nicht, dass es noch einen Weg zurück gäbe.

Aktuelle Augmented-Reality-Projekte experimentieren auch mit anderen Hardware-Klassen als HMDs und Smartphones, etwa mit Ultra-Mobile PCs – tastaturlose Mini-Rechner mit einem Format zwischen Smartphone und Netbook. Im Massenmarkt fanden die Geräte nie die passende Nische [3], und so frotzelt Zöllner auch: „Der Einsatz in der AR-Forschung ist der letzte Sinn, den diese Rechnerplattform noch hat“. Da diese Rechner freihändig geführt werden, erfordert das Tracking der aufgenommenen Umgebung aufwendige Bildverarbeitungsalgorithmen.

Ein anderer Ansatz montiert Tablet PCs fest an einem Schwenkarm. Winkelmessungen an den Gelenken informieren die Bildverarbeitung über die aktuelle Position des Geräts. Die fixe und genaue Positionierung erkauft man jedoch mit dem Verlust an Flexibilität.

Zur Anzeige der Augmented Reality stehen See-Through Displays und Video Augmentation zur Wahl. Head-Mounted Displays setzen auf die erste Variante: Der Nutzer betrachtet die reale Welt durch eine transparente Scheibe, auf die alle virtuellen Objekte projiziert werden. Fällt das AR-System aus, kann sich der Träger immer noch problemlos im realen Raum orientieren. Die Nachteile des Ansatzes: Prinzipbedingt scheint durch die eingeblendeten Objekte stets ein Rest Realität durch; bei starkem Gegenlicht verblasst die Scheinwelt komplett. Bewegt man den Körper, zuckeln die eingeblendeten Elemente etwas hinter der realen Umgebung her.

Bei der unter anderem in Smartphones umgesetzten Video Augmentation fällt letzteres Problem weniger ins Gewicht. Hier konzentriert sich die Wahrnehmung des Nutzers ganz auf das undurchsichtige Display, das die Live-Bilder der Kamera zeigt. Die Augmented Reality wird nicht eingespiegelt, sondern direkt in die Videobilder hineingerechnet. Schnelle Schwenks offenbaren jedoch Verzögerungen in der Anzeige. Zudem nimmt die Kamera die Realität stets etwas anders wahr als das Auge.

Das AR-Projekt iTACITUS fügt in die Wände der Diana-Halle längst verblichene Fresken wieder ein. Anklickbare Hotspots vermitteln zusätzliches Wissen.

Das Invizimals-Spiel zeigt, wie man von der Video Augmentation erzwungenen Bruch bewusst nutzen kann – indem man das AR-System zur Zauberlinse umdeutet. Auf ähnlichem Weg erweitert das Projekt iTACITUS in der Reggia Venaria Reale in Turin und im britischen Winchester Castle den Blick auf die Kulturschätze. Da von den verblichenen Fresken der Diana-Halle nur Schwarzweißfotos existieren, zeigt die Video Augmentation auch die live aufgenommene Umgebung ohne Farben.

Die Suche nach der optimalen Aufbereitungsform der AR-Daten ist ebenso wenig zu Ende wie die Konzeption interessanter Einsatzmöglichkeiten. Eine naheliegende Idee sind AR-Navigationsgeräte, die Fahrhinweise und Pfeile direkt in die Straßensicht projizieren und Sehenswürdigkeiten in der Kamerasicht in 3D markieren. Zwei Blaupunkt-Geräte kommen der Idee zwar schon recht nahe, bleiben bei der Umsetzung aber weit hinter dem Ideal zurück: Die Displays des Travelpilot 500 und 700 reichern das live aufgenommene Video zwar durch Richtungspfeile an, diese liegen so aber nicht richtig auf der Straße.

Auch das Einblenden personenspezifischer Metadaten per AR steckt noch in den Kinderschuhen. Das schwedische Entwicklerhaus The Astonishing Tribe stellte kürzlich „Augmented ID“ für Smartphones vor. Es soll Leute per Gesichtserkennung identifizieren und injiziert dann einen Kranz an Kontaktdaten in das Live-Bild der Kamera. Per Augmented ID identifizierte Personen können für berufliche und private Anlässe getrennte Profile definieren: Auf der Party gibt der Browser Musikgeschmack und Familienstand wieder, bei einer Business-Präsentation eine elektronische Visitenkarte und einen Download-Link zur Powerpoint-Datei. Vorerst müssen sich sowohl die Betrachter als auch die zu Betrachtenden für den Dienst angemeldet haben. Prinzipiell spricht aber nichts dagegen, dass sich die Gesichtserkennung irgendwann auch an Facebook-Profilen orientiert. Was für die Generation 2.0 eine lockende Vorstellung sein mag, ist für Datenschützer freilich ein Alptraum.

Forscher sehen das Ziel in einer möglichst lückenlosen AR-Erfahrung, die sich unauffällig in die Realität einfügt. „Idealerweise möchte man Kontaktlinsen mit eingebauten halbdurchsichtigen Displays haben,“ schlägt Dieter Schmalstieg vor; erste Prototypen sind schon in Entwicklung. Bis Wirklichkeit und AR tatsächlich nahtlos ineinander fließen, dürfte jedoch noch einige Zeit ins Land gehen.

Dazu muss das Interesse an Augmented Reality aber zunächst eine kritische Masse erreichen, ohne dass auf dem Weg dorthin die Begeisterung überkocht. Sonst könnte AR das Schicksal der Virtual Reality ereilen, die in der allgemeinen Wahrnehmung noch auf dem Weg zur Serienreife plötzlich Schnee von gestern war.

Bleibt zu hoffen, dass Dieter Schmalstieg von der TU Graz recht hat, wenn er schwärmt: „AR unterscheidet sich grundsätzlich von einer symbolischen Interaktion, die aus der Desktop-Welt kommt und nur dort wirklich passt. [Hier] findet die Interaktion unmittelbar in der Welt statt; jeder Ort und jedes Objekt kann prinzipiel zum Interaktionsträger werden.“ Trotz oberflächlicher Ähnlichkeiten mit VR verfolgt Augmented Reality eben ein ganz anderes Ziel: die Realität zu erweitern und zu erklären statt sie zu ersetzen. Darin spiegelt sich ein grundsätzlicher Wunsch, der jeden Hype überleben dürfte. (acb)

  1. Peter-Michael Ziegler, Kirsten Kücherer, Angereicherte Wirklichkeit, Augmented-Reality-Anwendungen in der Industrie, c’t 16/03, S. 80
  2. Achim Barczok, Pixelsalat mit Botschaft, www.heise.de/mobil/artikel/89713
  3. Jürgen Rink, Kleingerechnet, Zweiter Anlauf für den Ultra Mobile PC, www.heise.de/mobil/artikel/Zweiter-Anlauf-fuer-den-Ultra-Mobile-PC-223553.html
  4. Ronald T. Azuma, A Survey of Augmented Reality: Wissenschaftliches Paper von Ronald Azuma aus dem Jahr 1997, das unter anderem eine weithin aktzeptierte Definition von Augmented Reality enthält
  5. History of Mobile Augmented Reality: Zeichnet die Entwicklung von 1968 bis heute nach, zusammengestellt von Mitgliedern des Christian Doppler Laboratory for Handheld Augmented Reality an der TU Graz

Zur Entwicklung eigener Augmented-Reality-Anwendungen stehen eine ganze Reihe nützlicher Werkzeugpakete und Hilfen zur Auswahl.

Die Bibliothek ARToolkit dient zum Tracking umrandeter 2D-Barcodes (Fiducial Markers) und stammt bereits aus dem Jahr 1999. Für den nicht kommerziellen Einsatz ist die Software frei (GPL-Lizenz). Ihr nach ActionScript 3 portierter Abkömmling FLARToolKit dient zur AR-Integration von Augmented Reality in Webseiten. Das Tool identifiziert Marker auf Videobildern und berechnet deren Position und Orientierung. Die eigentliche 3D-Grafik bleibt Sache des Programmierers; FLARToolKit enthält immerhin Hilfsklassen für Flash-3D-Engines wie Papervision3D. Mehrere Web-Tutorials führen vor, wie man die Komponenten zum Zusammenspiel bewegt, eine Anleitung für die ersten Schritte liefern Inside FLARManager, Getting Started with Augmented Reality und Marker”s” Generator.

ARtisan von OneZeroThrice geht einen Schritt weiter: Durch die Integration von FLARToolKit und Papervision 3D erspart es eher visuell orientierten Entwicklern die Erforschung der inneren Vorgänge. Auch ARtisan steht unter der GPL.

Die Forscher der TU Graz arbeiten seit 2002 an ihrer frei verfügbaren AR-Plattform Studierstube – so benannt nach Fausts Alchemielabor. Parallel dazu entwickeln sie die „Studierstube for Embedded Systems (ES)“ für Smartphones & Co. Anders als ARToolkit soll Studierstube alle zur AR benötigten Bereiche abdecken, vom Tracking bis zum Rendering.

Auch andere Forschungsgruppen stellen ihre Produkte frei zur Verfügung – zumindest bisher. Das Fraunhofer-Institut für Grafische Datenverarbeitung (IGD) bietet eine öffentliche Betaversion seiner Entwicklungsumgebung für AR- und VR-Anwendungen Instantreality zum Download an.

Im Rahmen des EU-geförderten Projekts IPerG (Integrated Project on Pervasive Gaming) fielen zwischen 2004 und 2008 verschiedene „Packages“ ab. Das AR Based Games Solution Package besteht aus eine Reihe von Werkzeugen und C++-Bibliotheken sowie der kommerziellen Plattform Morgan des Fraunhofer-Instituts für Angewandte Informationstechnik. Das Institut vergibt auf Anfrage kostenlose Lizenzen für den akademischen Einsatz.

Die Firma Metaio verkauft unter dem Namen Unifeye Design eine für Marketingagenturen, Produktdesigner und Architekten konzipierte AR-Werkstatt. Mit der Software wurde Ende 2008 die Cabrio-Variante des Mini eingeführt. Eine auf Unifeye Design aufbauende AR-Anwendung projiziert in ausgewählten Spielzeughandlungen auf ungeöffnete Lego-Packungen ein 3D-Bild des fertig zusammengebauten Inhalts.

Ins kommerzielle Lager gehört auch das AR-media Plug-in für den 3D-Modeller Google Sketchup. Das Plug-in von Inglobe Technologies setzt Sketchup-Modelle anhand eines 2D-Markers und einer Webcam in die Videoaufnahme, wo es sich drehen und verschieben lässt. Die kostenlose Version zeigt nur 30 Sekunden Video am Stück – genug, um am eigenen Schreibtisch auszuprobieren, was Augmented Reality so faszinierend macht. (pek) (ll)