"Der Aufwand für ein perfektes Bild ist enorm hoch"

Der Visual-Computing-Experte Manfred Ernst spricht im TR-Interview über die Frage, wie Computergrafik noch das letzte kleine Bisschen besser werden könnte.

vorlesen Druckansicht 3 Kommentare lesen
Lesezeit: 6 Min.

Der Visual-Computing-Experte Manfred Ernst spricht im TR-Interview über die Frage, wie Computergrafik noch das letzte kleine bisschen besser werden könnte.

Manfred Ernst ist Wissenschaftler am Advanced Graphics Lab innerhalb der Forschungsabteilung des Prozessorherstellers Intel. Er arbeitet an neuartigen Möglichkeiten der Computervisualisierung. Bevor er in die USA ging, machte er seinen Doktor in Informatik an der Universität Erlangen-Nürnberg.

Technology Review: Herr Ernst, Sie arbeiten beim Chipriesen Intel an neuen Computergrafikverfahren und haben sich vorher unter anderem mit Visualisierungen von Produkten beschäftigt. Wie viel hat das, was an 3D-Bildern mittlerweile aus Standardrechnern kommt, bereits mit Fotorealismus zu tun?

Manfred Ernst: Fotorealismus bedeutet für mich, dass ein computergenerierte Bild nicht von einer entsprechenden Fotografie zu unterscheiden ist. Im Offline-Rendering ist das seit einigen Jahren möglich. Die dafür notwendige Beleuchtungssimulation ist jedoch extrem rechenaufwendig. Deshalb müssen für interaktive Anwendungen, beispielsweise Computerspiele, Teile der Beleuchtung vorberechnet oder approximiert werden.

Die globale Beleuchtung wird beispielsweise für den statischen Teil einer Szene vorberechnet und für den dynamischen Teil nur grob angenähert. Zudem werden dabei stark vereinfachende Annahmen über die Reflexionseigenschaften der Oberflächen gemacht, von volumetrischen Effekten ganz zu schweigen. Mit hohem manuellem Aufwand bei der Szenengestaltung durch die zuständigen Grafikkünstler ist es trotzdem möglich, einen beeindruckenden Realitätsgrad in Echtzeit zu erreichen. Von Fotorealismus würde ich aber noch nicht sprechen.

TR: Wann werden sich Bilder in einer Qualität, wie wir sie beispielsweise aus Trickfilmen von Pixar kennen, in Echtzeit rendern lassen? Was muss bis dahin noch geschehen?

Ernst: Die Berechnung eines einzelnen Bildes für einen computeranimierten Trickfilm dauert mehrere Stunden. Das ist ein gewaltiger Unterschied zu den 30 Millisekunden, die für das Rendering eines Frames in einem Computerspiel zur Verfügung stehen. Dabei ist zu bedenken, dass in der Filmindustrie keinerlei Artefakte im Bild toleriert werden.

Der Aufwand, um von einem guten zu einem perfekten Bild zu kommen, ist jedoch sehr hoch. Mit leichten Abstrichen bei der Qualität kann viel Rechenzeit eingespart werden. Außerdem werden die Algorithmen kontinuierlich verbessert und die Rechenleistung wird voraussichtlich weiter exponentiell steigen. Ich gehe deshalb davon aus, dass wir in 15 bis 20 Jahren fotorealistisches Rendering in Echtzeit auf Standardrechnern sehen werden.

TR: Computerspiele als interessante 3D-Anwendungen kennt fast jeder Nutzer. Was ist noch möglich, wenn die Grafikqualität zunimmt?

Ernst: Fotorealistisches Rendering wird sehr stark in industriellen Anwendungen eingesetzt. In der Automobilindustrie werden neue Designs und Fahrzeugprototypen großteils am Computer visualisiert. Selbst Verkaufsprospekte und Werbespots können heute komplett digital erstellt werden. Dieser Trend zeichnet sich auch in anderen Branchen ab: in der Architektur, bei Möbeln und selbst bei Bekleidung und Sportartikeln.

Im Moment sieht der Endkunde meistens ein fertiges Bild oder Video, teilweise auch schon ein interaktives 3D-Modell beim Händler. Wenn die Rechenleistung weiter steigt, kann ein Kunde ein Produkt an seinem Rechner zuhause interaktiv in hoher Qualität betrachten, um eine Kaufentscheidung zu treffen. Das Thema 3D-Web hat ein enormes Potential.

TR: Sie arbeiten bei Intel unter anderem an der Raytracing-Technik Embree. Welche Vorteile hat Raytracing gegenüber anderen 3D-Verfahren?

Ernst: Embree verwendet das sogenannte Monte Carlo Raytracing. Dieses Verfahren ermöglicht die physikalische Beleuchtungssimulation mit beliebiger Genauigkeit. Es können im Prinzip alle Effekte simuliert werden, die durch die Gesetze der Strahlenoptik beschrieben werden. Entsprechend hoch ist der erzielbare Realitätsgrad. Spezielle Tricks für bestimmte Effekte sind nicht nötig. Hier liegt meiner Meinung nach der wesentliche Vorteil von Raytracing.

Andere Verfahren vernachlässigen viele Effekte oder verwenden eine Menge von Tricks, um dies anzunähern. Das limitiert die erzielbare Bildqualität, erhöht die Fehleranfälligkeit und steigert die Entwicklungskosten, insbesondere für den Content. Raytracing dagegen ist ein sehr robustes Verfahren, das kaum Einschränkungen bei der Bildqualität kennt. Dafür ist es aber rechenaufwändiger.

TR: Eine ihrer Demonstrationsanwendungen zeigt die österreichische Kaiserkrone, die sich frei bewegen lässt und stets adäquat ausgeleuchtet ist. Wie schwer ist so etwas umzusetzen?

Ernst: Zuerst braucht man natürlich ein schönes Modell. Das ist schon eine Kunst für sich. Wir haben die Kaiserkrone von dem 3D-Künstler Martin Lubich erhalten. Dann benötigt man einen physikalisch basierten Renderer wie z.B. Embree. Dieser besteht im Wesentlichen aus zwei Komponenten: a) einem Beleuchtungssimulator, der viele Lichtstrahlen pro Pixel erzeugt und deren Pfad durch die virtuelle Szene verfolgt, und b) einem Raytracing-Kern, der für jeden dieser Strahlen den Schnittpunkt mit der Szene berechnet.

Der Raytracing-Kern ist entscheidend für die Performance des Gesamtsystems. Deshalb haben wir uns in Embree auf diesen Teil konzentriert und ihn so gut wie möglich optimiert. Das erfordert genaue Kenntnis der Hardware. Wir haben Embree als Open Source veröffentlicht, so dass andere Entwickler und Forscher von unserem Wissen profitieren können, indem sie den Raytracing-Kern aus Embree in ihren Renderern verwenden.

TR: Mittlerweile wird auch in Smartphones und Tablets Hardware verbaut, die 3D-Anwendungen erlaubt. Wie wichtig sind fotorealistische Bilder im mobilen Umfeld?

Ernst: Fotorealistische Bilder sind im mobilen Umfeld genauso wichtig wie auf dem Desktop. Die Voraussetzungen sind jedoch ganz andere, weil – begrenzt durch die maximale Leistungsaufnahme – weniger Rechenleistung zur Verfügung steht. Hier könnte Cloud-Computing eine entscheidende Rolle spielen. Das mobile Gerät könnte eine interaktive Vorschau eines 3D-Modells darstellen. Sobald der Anwender eine Ansicht gewählt hat, wird dann ein fotorealistisches Bild auf einem Server berechnet. Für Online-Shopping wäre das sicherlich eine überzeugende Anwendung der Cloud. (bsc)