"Performance Capture": Leichter zum Gollum werden

Die per Motion Capture erzeugte Filmfigur „Gollum“ aus „Herr der Ringe“ setzt technische Maßstäbe, fordert aber auch enormen Aufwand. Forscher arbeiten daran, das Verfahren zu vereinfachen – mit Produkten aus dem nächsten Elektronikmarkt.

In Pocket speichern vorlesen Druckansicht 27 Kommentare lesen
Lesezeit: 4 Min.

Wenn „Der kleine Hobbit“ am 13. Dezember in die Kinos kommt, können Zuschauer dort die neuesten Fortschritte der „Performance Capture“-Technik betrachten: Mimik und Bewegung des Schauspielers Andy Serkis werden mithilfe aufgeklebter Markierungen auf die digital erzeugte Figur des Gollum übertragen. In Labors gehen die Forscher aber schon einen Schritt weiter – sie möchten die lästigen Markierungen ganz loswerden. Die Bewegungserfassung soll dadurch einfacher und auch für kleine Filmteams erschwinglich werden. Darüber berichtet Technology Review in der aktuellen Ausgabe 12/2012 (am Kiosk oder direkt im Heise Shop zu bestellen).

Schon die ersten Filme der „Herr der Ringe“-Trilogie setzten technische Maßstäbe beim „Motion Capture“-Verfahren. Um die Haut des Gollums realistischer wirken zu lassen, wälzten die Macher unter anderem Anatomiebücher und modellierten Muskelstränge, Venen und Arterien. Die Mimik war damals allerdings ausschließlich Sache der Computeranimatoren, Andy Serkis lieferte nur die Körperbewegung.

Heute sprechen die Filmemacher nicht mehr von „Motion Capture“, sondern von „Performance Capture“. Da bedeutet: Auch die Mimik von Serkis wird erfasst und auf das digitale Gollum-Modell übertragen. Dazu bekommt der Schauspieler Markierungspunkte ins Gesicht geklebt. Eine eigene Kamera, die an einem Ausleger an seinem Kopf befestigt ist, erfasst nun jedes Augenzucken und jedes Wimpernklimpern.

Die neuseeländische Firma Weta Digital, die für die Effekte zuständig ist, hat das Performance-Capture-Verfahren zwar nicht selbst erfunden, es aber gemeinsam mit Serkis verfeinert und weiterentwickelt. Basis ist das „Facial Action Coding System“ (FACS), das in den siebziger Jahren von Paul Ekman und Wallace V. Friesen entwickelt wurde. Die beiden amerikanischen Psychologen erstellten ein Alphabet aus 64 einzelnen Bewegungen („Action Units“), aus dem sich prinzipiell jeder denkbare Gesichtsausdruck zusammensetzen lässt. Für das Performance Capturing bieten die Action Units eine entscheidende Erleichterung: Kamera und Software brauchen nicht jeden Quadratzentimeter Haut dreidimensional erfassen – es reicht, wenn sie die zugrundeliegenden Action Units erkennen. Diese kann eine entsprechende Software dann auf die Gesichtsmuskeln eines digitalen Kopfs übertragen, auch wenn der völlig andere Proportionen hat als der des Schauspielers.

Die Forscher des Max-Planck-Instituts für Informatik in Saarbrücken arbeiten an einem Motion-Capture-System, das nicht mit Markierungspunkten, sondern mit Farben arbeitet. Das digitale Modell sieht aus wie ein Michelin-Männchen aus 64 farbigen Kugeln. Die Farben entsprechen denen von Hemd und Hose der Schauspieler. Erkennt die Software beispielsweise ein rotes T-Shirt in einer Videoaufnahme, überträgt sie dessen Bewegung auf die roten Kugeln, die Torso, Schultern und Oberarme repräsentieren. Das System fordert zwar mehr Rechenleistung, senkt aber den Aufwand am Set, weil ein Schauspieler nicht mehr in einen Anzug gesteckt und mit Markern beklebt werden muss. Außerdem funktioniert es auch, wenn sich Schauspieler auf dem Boden wälzen, miteinander ringen oder teilweise verdeckt sind – und es gibt keine Messfehler mehr durch verrutschte Markierungen.

Projektleiter Nils Hasler glaubt, dass die neue Technik „mittelfristig das frühere Marker-Verfahren ersetzen wird“. Anfragen aus Hollywood und der Computerspielindustrie gebe es bereits. „Der nächste Schritt wird sein, die Qualität von der Rekonstruktion so stark zu erhöhen, dass wir auch Kleidungsdeformationen aufnehmen können, beispielsweise die Falten eines Shirts.“

Filmemacher, die es weniger perfekt brauchen, können sich ein markierungsloses Performance-Capture-System aus dem nächsten Elektronikmarkt besorgen. Wissenschaftler von der Filmakademie Ludwigsburg haben Microsofts Kinect dazu benutzt, die Mimik des Schauspielers Dominik Kuhn auf einen comichaften Avatar des baden-württembergischen Ministerpräsidenten Winfried Kretschmann zu übertragen – in Echtzeit, auf offener Bühne, ohne Studioumgebung und Markierungspunkte. „Das Revolutionäre daran ist, dass man eine Art Tiefenscanner für 150 Dollar bekommt“, sagt Simon Spielmann von der Filmakademie Ludwigsburg. „Im Vergleich zu Motion-Capturing-Systemen, die mehrere zehntausend Euro kosten können, ist das unglaublich günstig.“

Mehr in Technology Review 12/2012: