Veränderung fühlen

Trotz vieler ausgereifter Techniken in der Computergrafik – weitergeforscht wird immer. Einige der auf der SIGGRAPH in Hongkong vorgestellten neuen Techniken und Algorithmen lassen sich sogar unmittelbar nutzen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 11 Min.
Von
  • Daniel Drochtert
  • Christian Geiger
Inhaltsverzeichnis

Zum zweiten Mal war das Hong Kong Exhibition and Convention Center im November Schauplatz der – inzwischen sechsten – SIGGRAPH Asia, dem asiatischen Ableger der renommierten, seit 1974 in Nordamerika ausgetragenen internationalen Konferenz für Computergrafik und interaktive Technologien.

Unter dem Motto „Sense the Transformation“ fanden sich über 6000 Künstler, Designer, Forscher, Entwickler sowie Hard- und Softwarefirmen aus mehr als 50 Ländern zusammen, um sich über die neuen Entwicklungen im Bereich Mensch-Computer-Interaktion zu informieren und über zukünftige Anwendungsgebiete aktueller Forschung in Animation und Bildverarbeitung zu spekulieren. Passend dazu haben die Veranstalter Thad Starner, Technischer Leiter bei der Entwicklung von Google Glass, sowie Philip Rosedale, Gründer von Second Life, als Keynote-Sprecher eingeladen, die ihre aktuellen Arbeiten und Zukunftsvisionen im Hinblick auf Virtual und Augmented Reality vorstellten.

Kernelement einer jeden SIGGRAPH-Konferenz ist neben dem Ausstellungsbereich mit Vertretern aus der Industrie die Präsentation aktueller Erkenntnisse im Rahmen der Technical Papers. Da viele traditionelle Bereiche in der Computergrafik, etwa das Rendering realistischer Bilder, für die Forschung als weitgehend abgeschlossen gelten, bewegt sich der Schwerpunkt dieser Sessions in den letzten Jahren immer mehr hin zu Themen rund um Hardwareentwicklung, Optimierung von Algorithmen, Bildmanipulation oder spezielle Anwendungsgebiete der Computergrafik. Arbeiten aus dem Feld der Computational Manga etwa haben das Ziel, die Arbeit von Zeichnern und Trickfilm-Animatoren effizienter zu gestalten.

Eine Methode, auf interaktive Weise dreidimensionale Objekte aus normalen Fotos zu extrahieren, stellten Forscher der chinesischen Tsinghua-Universität und der Tel Aviv University unter dem Namen „3-Sweep“ vor. Dabei kann der Nutzer mit drei einfachen Interaktionsschritten, die jeweils eine Dimension beschreiben, Objekte im Bild markieren, und der Algorithmus wandelt aus diesen Eingaben das selektierte Objekt in ein 3D-Element, das er in der Folge fast beliebig transformieren oder vervielfachen kann. Momentan funktioniert die Methode nur für einfache Elemente wie zylindrische Formen. Solide, komplexe 3D-Objekte lassen sich jedoch aus mehreren Primitiven kombinieren. Darüber hinaus ist eine Voraussetzung für gute Ergebnisse, dass das Objekt im Ursprungsfoto klar erkennbare Kanten sowie eine akkurate Projektion aufweist.

Mit ihrer Tiefenkamera präsentierte die Camera-Culture-Gruppe des MIT Media Lab eine aufsehenerregende Hardwareentwicklung. Basierend auf der Time-of-Flight-Technik, die unter anderem in der neuen Kinect 2 zum Einsatz kommt, erfasst die Kamera die Ausbreitung von Licht visuell, indem sie die Entfernung von Objekten durch die Zeit misst, die das Licht benötigt, um nach der Reflexion den Sensor zu erreichen. Mit dem Nanophotography getauften Verfahren entwickelten die Forscher die Kamera. Für etwa 500 US-$ sollen Hersteller sie mit handelsüblichen Komponenten nachbauen können. Ein Vorteil gegenüber anderen Time-of-Flight-Tiefenkameras ist, dass das neue Modell durch intelligente Signalverarbeitung auch Tiefendaten transparenter Objekte ermitteln kann.

Seit die günstige Oculus Rift als Prototyp verfügbar ist, erfreuen sich Head-Mounted Displays (HMD) wieder stärkeren Interesses. Positioniert man ein Display im Nahfeld direkt vor dem Betrachter, kann das menschliche Auge normalerweise nicht darauf fokussieren. Mit einfachen Vergrößerungslinsen lassen sich die Bilder auf den nahen Displays erkennen, selbst wenn der Sichtwinkel recht klein ist. Bei Geräten wie Oculus Rift benötigt man aber immer noch eine recht umfangreiche Konstruktion, die der Anwender sich um den Kopf schnallen muss.

NVIDIA arbeitet derzeit an einem HMD, das so leicht wie Google Glass sein soll. Dabei verwendet der Hersteller ein Lichtfeld-Display mit einem Mikrolinsenraster, das über recht kleine Ausmaße verfügt, da die vielen Mikrolinsen deutlich dünner sind. Nachteil ist die reduzierte Auflösung. Aus einem 720p-Display wird im vorgestellten Prototyp eine effektive Darstellung mit 146 x 78 Pixeln. In Tests erweiterte NVIDIA dies bereits bis auf 534 x 534 Bildpunkte. Ein Vorteil der Lichtfeldtechnik, den schon plenoptische Kameras wie die Lytro aufweisen, ist die Möglichkeit, den Fokus nachträglich zu verändern. Dadurch kann der Benutzer selbst entscheiden, welche Objekte er scharf sehen möchte. Ein weiterer Vorteil besteht darin, dass Benutzer eine eventuelle Fehlsichtigkeit direkt durch die Steuersoftware korrigieren und auch ohne Brille scharf sehen können. Eine Modifikation der OptiX Raytracing Engine sowie ein einfacher GLSL Shader für die stereoskopische Ansicht stellen sicher, dass für jede Mikrolinse ein neues Bild gerendert wird.

Ein Projekt, das Anwender direkt nutzen können, stellte Hao Li von der Universität von Southern California vor. Mit minimalem Aufwand kann man zu Hause ein texturiertes 3D-Modell von sich erstellen und auf einem 3D-Drucker im Maßstab 1:20 produzieren lassen. Die Arbeit beschreibt die verschiedenen Schritte der Erzeugung, die weitgehend automatisch erfolgen. Der Benutzer stellt sich vor eine handelsübliche Kinect und startet die Erkennung. Sobald das System die aktuelle Ansicht aufgenommen hat, ertönt ein Signal, und der Nutzer dreht sich um 45 Grad. Aus diesen acht Perspektiven mit circa 150 3D-Bildern wird ein dreidimensionales texturiertes 360-Grad-Modell erzeugt.

Die Herausforderung dabei ist, dass Nutzer sich nicht perfekt um 45 Grad drehen und Arme und Beine leicht bewegen, sodass die Software das vollständige Modell aus unterschiedlichen Teilmodellen kombinieren und die Fehler durch ein spezielles Iterationsverfahren minimieren muss. Anschließend erfolgt eine Oberflächenrekonstruktion, um ein einheitliches Modell zu erhalten und eine passende einheitliche Texturierung zu bestimmen, die ebenfalls auf Basis variierender Beleuchtung während der Samples bestimmt werden muss.

Vergleiche des Verfahrens mit einem professionellen Laserscan ergaben eine mittlere Abweichung von weniger als 3 mm bei einer 1,70 m großen Person. Auch in Bezug auf andere vergleichbare Ansätze schnitt das Verfahren sehr gut ab. Die Software zur Erstellung ist auf www.shapify.me für Windows verfügbar. Für 59 US-$ kann man sich die erstellten Modelle (circa 7 bis 10 cm) nach Hause schicken lassen. Die Webseite gibt einen kostenlosen Versand innerhalb von ein bis zwei Tagen an.

Ebenfalls bereits nutzbar ist das Halbton-QR-Code-Verfahren, das funktionsfähige QR-Codes erzeugen kann, die ein individuelles Bild als Punktraster verwenden (Abb. 1). Die von chinesischen und englischen Forschern entwickelte Methode stellt im Vergleich das beste Halbtonverfahren dar und ist als Software verfügbar. Der Benutzer spezifiziert den QR-Code und das Bild, das integriert werden soll, und startet den Prozess. Das System berechnet die Verlässlichkeit des ursprünglichen QR-Codes und wandelt die Vorlage in ein Halbtonbild um. Zusätzlich berechnet es eine Importance Map. Sie bestimmt wichtige Features des Bildes, die bei der Umwandlung in einen lesbaren QR-Code erhalten bleiben sollen. Ein Trick, das Halbtonbild möglichst deutlich darzustellen, ist, zugunsten der Bildqualität Fehler in der Codierung zuzulassen, die das QR-Codeverfahren reparieren kann. Die Fehlerquote des resultierenden Musters kann man im Vorfeld bestimmen und so sicherstellen, dass das System den Code noch hinreichend gut erkennt.

Bis ins Detail lassen sich Gesichtsgeometrien aus monokularen Videos rekonstruieren (Abb. 2).

In der Zusammenarbeit zwischen dem Max-Planck-Institut für Informatik und dem Intel Visual Computing Institut für Informatik an der Uni Saarland entstand ein Verfahren, das detaillierte Geometrie von Gesichtern aus einfachen Videoaufnahmen generiert (Abb. 2).

Um innovative und experimentelle, interaktive Techniken drehen sich die Projekte der Emerging Technologies. Den Publikumspreis für die beste Demo erhielt hier die City University Hong Kong für ihr Projekt „Data-Driven Suggestions for Portrait Posing“. Unter Verwendung einer Kinect-Kamera soll es Fotografen kreativ dabei unterstützen, das Fotomodell beim Posieren anzuleiten. Die Kinect erkennt die posierende Person und blendet für den Fotografen passend zu den Bewegungen des Modells in Echtzeit Fotos aus Online-Fotobibliotheken mit ähnlichen Posen ein.

Die Arbeit der Chung-Ang-Universität in Südkorea spielt mit der Wahrnehmung der Besucher (Abb. 3).

Blickfang in der Art Gallery, die Arbeiten mit künstlerischem Anspruch zeigt, war das Exponat „Beyond the Gravity“ von der Chung-Ang-Universität in Süd Korea. Die Macher des Werkes spielen dabei durch rhythmische Lichtprojektionen auf halbtransparenten Stoffen in Verbindung mit akustischer Untermalung mit der räumlichen Wahrnehmung des Betrachters. Dies geht so weit, dass Besucher nicht mehr in der Lage sind, bestimmte Punkte visuell zu fixieren, wodurch eine kognitive Fehleinschätzung entsteht und der Eindruck erweckt wird, dass man sich in einer Art schwerelosem Raum befindet (Abb. 3).

Das seit zwei Jahren auf der SIGGRAPH Asia ausgerichtete „Symposium on Apps“ hat der Veranstalter in „Symposium on Mobile Graphics and Interactive Applications“ umbenannt, um eine breitere Auswahl an Einreichungen zu erhalten. Angenommen wurden 37 Werke, die die weite Auswahl an Anwendungsfällen für mobile Grafik und Interaktion präsentierten. Neben einem Roboter der University of Hong Kong, der durch Einsetzen eines Smartphones zum Leben erweckt wird, zeigten Forscher des HITLab, der University of Canterbury, Neuseeland, ihre Entwicklungen in markerloser, gestenbasierter Steuerung von Augmented-Reality-Anwendungen. Das Labor für Mixed Reality und Visualisierung der Fachhochschule Düsseldorf präsentierte seinen mobilen Bogensimulator. Bei dem Projekt statten die Forscher einen echten Bogen mit Sensoren zur Messung und Erkennung des Auszugs und Abschusses, sowie einem mobilen Endgerät zur Visualisierung von virtuellen Schusszielen aus. Das ermöglicht realistisches Bogenschießen in einer sicheren Umgebung.

Ein Highlight der SIGGRAPH-Konferenzen ist die Anwesenheit großer Blockbuster Studios, die Einblicke in die technischen und künstlerischen Produktionsprozesse bekannter Kinohits geben. Industrial Light & Magic, die Special-Effects-Abteilung von Lucasfilm, richtete Diskussionsrunden aus, in denen unter anderem das Feuerwerk an Visual Effects „Pacific Rim“ besprochen wurde. Eine Besonderheit dieses Science-Fiction-Films von Guillermo del Toro ist die Bandbreite an Anforderungen an die VFX-Profis, die sehr unterschiedliche Wesen, von Aliens bis zu von Menschen kontrollierten Robotern, visualisieren mussten.

Die Firma SideEffects, unter anderem bekannt für ihre professionelle 3D-Animationssoftware, stellte die aktuelle Version der Houdini Engine vor, die nun Plug-ins zur Integration von beispielsweise Flüssigkeitssimulationen oder Partikelsystemen sowie vielen weiteren prozedural erzeugten, visuellen Effekten in Maya und Unity zur Verfügung stellt.

Nach der zweimaligen Ausrichtung der SIGGRAPH Asia in Hongkong zieht die Konferenz im nächsten Jahr über die Grenze in die benachbarte Metropole Shenzhen – Zentrum fur Elektronik und Telekommunikationstechnik und Sonderwirtschaftszone. Dort wird sich die Welt der Computergrafik vom 3. bis 6. Dezember 2014 versammeln. In der Zwischenzeit wird die 41. SIGGRAPH vom 10. bis 14. August 2014 in Vancouver ausgetragen.

Alle Links: www.ix.de/ix1401008 (ka)