Intel visualisiert komplexe Oberflächen

Auch in den Intel Labs in Santa Clara beschäftigt man sich mit der realistischen Darstellungen von dreidimensionaler Computergrafik.

In Pocket speichern vorlesen Druckansicht 23 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Manfred Bertuch

Auch in den Intel Labs in Santa Clara beschäftigt man sich mit der realistischen Darstellungen von dreidimensionaler Computergrafik. Eine besondere Herausforderung sind dabei Objekte, die ihr Aussehen je nach Betrachtungswinkel verändern. Getöntes oder beschichtetes Glas kann beispielsweise einmal transparent und einmal reflektierend aussehen. Auch Oberflächen mit reflektierenden Einsprengseln etwa aus metallischem Flitter gehören in diese schwierige Kategorie. Auf der diesjährigen SIGGRAPH stellen die Intel-Forscher Jean-Yves Bouguet und Radek Grzeszczuk sowie Wei-Chao Chen, ein Student der Universität von North Carolina, ein Verfahren vor, mit dem sich solche Objekte mit heutigen Grafikkarten als interaktive 3D-Grafik darstellen und aus allen Winkeln betrachten lassen.

Problematisch bei diesen Darstellungen ist die große Datenmenge, da ein "Light Field" zur Beschreibung solcher Oberflächen einem Farbdatenfeld vierter Dimension entspricht: Zu den zwei Koordinaten zur Festlegung eines Oberflächenpunktes gehören zwei Winkel-Koordinaten für die Betrachtungsrichtung. Der Kern des "Light Field Mapping" besteht nun darin, die Datenmenge durch Zerlegung in eine Anzahl von 2D-Feldern zu reduzieren. Das Verfahren liefert für jedes Dreieck der Oberflächengeometrie ein solches Feld. Dieses ordnet jedem Bildpunkt innerhalb dieses Dreiecks eine Folge von Farbwerten zu, die wiederum verschiedene Betrachtungsrichtungen repräsentieren. Nicht gespeicherte Betrachtungsrichtungen werden durch Interpolation gewonnen. Diese 2D-Maps reduzieren die Datenmenge bereits um den Faktor Hundert und können von 3D-Grafikkarten wie gewöhnliche Texturen verarbeitet werden. Sie müssen lediglich so genanntes Multitexturing unterstützen, das bereits seit zwei Jahren bei 3D-Chips zum Standard gehört. Mittels "Vector quantization" und der von heutigen 3D-Chips angewandten Texturkompression lässt sich die Datenmenge nochmals um das 80-fache verkleinern. Ein ursprüngliches Lightfield von rund 3 GByte hat schließlich nur noch eine Größe von 880 KByte; es lässt sich problemlos speichern und in Netzen verschicken.

Erste Implementationen erzielten auf einer GeForce3-Grafikkarte Bildraten um die 30 fps. Ein computergenerierter Raum mit rund 20 Light-Field-Objekten konnte immerhin noch mit 15 fps dargestellt werden. Ein Demonstrationsbeispiel will Intel bis zum Jahresende ins Netz stellen. Die Firma spricht bereits mit Herstellen von 3D-Scannern, damit diese ihre Geräte für die Erfassung von Lichtfeldern erweitern. Die Entwickler mussten die Felder noch per Hand aufnehmen, indem sie die Objekte rund 250 Mal aus allen Richtungen mit einer Kamera fotografierten. Näheres zum Verfahren findet man unter www.intel.com/research/mrl/research/lfm. (Manfred Bertuch) / (jk)