Pixar: Kinohit dank GPU-Monster

Am zweiten Tag der GPU Technology Conference 2014 ließ sich das Animationsstudio Pixar in die Karten gucken und präsentierte das Animations-Tool-Presto und eine Raytracing-Studie, beide mit GPU-Unterstützung.

In Pocket speichern vorlesen Druckansicht 107 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Roland Austinat
Inhaltsverzeichnis

Im kalifornischen Emeryville, nur wenige Kilometer von San Jose, dem Veranstaltungsort der GPU Technology Conference 2014 (GPU) residieren die 1986 gegründeten Pixar Animation Studios. Ihre 14 computergenerierten Kinofilme landeten alle auf dem ersten Platz der Kinohitparade und spielten insgesamt über 7 Milliarden US-Dollar ein. Entstanden die ersten vier Filme "Toy Story", "A Bug's Life", "Toy Story 2" und "Monsters, Inc." noch auf Workstations von Silicon Graphics, kommen seit 2001 Nvidia-GPUs zum Einsatz, wenn fantastische Wesen und Welten berechnet werden sollen. Auf der GPC gaben Dirk Van Gelder und Danny Nahmias von Pixar Einblicke in die Arbeit des digitalen Filmstudios.

Zu Beginn eines Projekts legen Zeichner in Storyboards fest, wie Charaktere und Umgebungen aussehen und welche Bewegungen typisch für sie sein sollen. Dabei lassen sie sich sogar von Kollegen oder den Bewegungen des Regisseurs in einer Besprechung inspirieren. Für "Monsters University" entstanden über 200.000 solcher Zeichnungen.

Pixar gibt Einblicke in seine Arbeit (10 Bilder)

Am Anfang steht das Storyboard.

Anschließend werden die Szenen erstellt und Kameras darin platziert – doch noch gibt es keine Figuren, die darin herumlaufen. Das passiert erst im nächsten Schritt, in dem per Crowd Simulation auch große Menschen- beziehungsweise Monstermassen hinzugefügt werden. Die Animationen sind jedoch noch eher grob und werden erst im vierten Schritt verfeinert. Schließlich wird es Zeit für die Magie: Mit der richtigen Beleuchtung entstehen aus eher blassen Bildern kleine Kunstwerke.

Am Beispiel von James "Sulley" Sullivan, dem blaurosafarbenen Zottelmonster, zeigt Dirk Van Gelder, was das intern bei Pixar entwickelte Animations-Tool Presto alles kann. "Wir können jeden Körperteil von Sulley in Echtzeit bewegen", sagt Van Gelder. Über 1500 Animationskontrollpunkte sorgen für die perfekte Krümmung von Fingerspitzen und die im richtigen Winkel hochgezogenen Augenbrauen.

Das Fell des Monsters war im ersten Teil der Filmreihe noch ein Problem, doch inzwischen simulieren die Grafiker die 900.000 Haare mit rund drei Millionen Kontrollscheitelpunkten in mehreren OpenGL-Durchgängen komplett auf der GPU. "Wir animieren unsere Figuren von Anfang an mit ihrem Fell", erklärt Van Gelder. "So vermeiden wir komisch aussehende Bewegungen, wenn wir sie erst 'nackt' animieren und dann Fell hinzufügen, was ihre Körperdimensionen verändert."

Presto läuft auf Quadro-K6000-Systemen mit je 12 GByte RAM und 2880 CUDA-Kernen. Der 384 Bit breite GDDR5-Speicher ist dabei mit 1500 MHz getaktet und besitzt einen Datendurchsatz von 288 GByte pro Sekunde. Der eigentliche Server läuft mit eher sparsamen 800 MHz. "Früher mussten wir fünf bis zehn Sekunden pro Frame warten, heute läuft Presto in Echtzeit – in zwei Viewer-Fenstern gleichzeitig", sagt Dirk Van Gelder.

Als nächster ist Jean-Daniel "Danny" Nahmias an der Reihe, der seinen Vortrag mit einigen beeindrucken Vergleichsfotos von Szenen mit und ohne finale Beleuchtung eröffnet. "Früher haben wir mit der Beleuchtung getrickst", gibt er zu. "Wir haben mit hunderten von Lichtquellen gearbeitet, um Lichtverhältnisse zu erzielen, die obendrein physikalisch nicht ganz korrekt waren." Die Listen dieser Lichtquellen füllen mehrere Bildschirmseiten – ein mühsames Unterfangen.

Heute kommt bei Pixar eine physikbasierte Lighting-Engine zum Einsatz, die Lichtquellen wirklichkeitsgetreu berechnet und auch vor indirekter Beleuchtung keine Angst hat. Monster und Material besitzen individuelle Oberflächeneigenschaften, die zusammengefügt extrem stimmungsvolle Bilder ergeben.

Die Grafikspezialisten aus Emeryville ruhen sich nicht auf ihren Lorbeeren aus: Ein Team untersucht derzeit interaktives Raytracing, mit dem sich Szenen aus vorgegeben Objekten und Personen zusammensetzen und beleuchten lassen. Das in Echtzeit dargestellte Ergebnis ist zwar nicht so hoch aufgelöst wie der fertige Film, doch die Grafiker können so beispielsweise mit der perfekten Position eines Charakters experimentieren, bevor sie nach dem noch immer zeitaufwendigen finalen Rendervorgang sehen, dass er besser ein paar Zentimeter links gestanden hätte.

"Wir nutzen in der Raytracing-Vorschau das gleiche Beleuchtungsmodell wie im endgültigen Rendervorgang", erklärt Danny Nahmias. Mehrere hundert Millionen Lichtstrahlen treffen in der Vorschau auf Zehntausende von Objekten. Das Ergebnis verbessert sich im Laufe der Zeit: Der Verlauf von immer mehr Lichtstrahlen komplettiert sich, das Bild wird schärfer und rauschfrei. "Für eine Vorschau brauchen wir nicht das perfekte Resultat, sondern können gut mit den leicht verrauschten Bildern leben", sagt Nahmias.

Doch etwas fehlt in der Vorschau: Monster. "Das ist im wahrsten Sinn des Wortes ein haariges Problem", sagt Danny Nahmias. "Ein Monster wie Sulley mit Millionen von Haaren vergrößert den Rechenaufwand exponentiell. Jetzt reden wir von Millionen von Objekten, mit denen es die Lichtstrahlen zu tun bekommen." Doch zur GTC hat Nahmias Ergebnisse vom Forschungsteam im Gepäck, das sich mit diesem Problem beschäftigt: Sulley befindet sich mit seiner ganzen Haarpracht im Raytracing-Zimmer. Danny Nahmias begeisterter Schlusssatz: "Was früher Stunden dauerte, klappt heute in Echtzeit." Übrigens: Die Raytracing-Experimente laufen derzeit auf einer HP-Z-Workstation mit zwei Titan-Grafikkarten – Luft nach oben ist also noch vorhanden. (anw)