Die Verwandlung

Inhaltsverzeichnis

In den Labors gehen die Forscher noch einmal einen Schritt weiter: Sie wollen die lästigen Markierungen ganz loswerden. Wissenschaftler des Max-Planck-Instituts für Informatik in Saarbrücken haben ein System entwickelt, bei dem Farben statt Markierungspunkte die Brücke zwischen Schauspieler und digitalem Double bauen. Dieses sieht aus wie ein Michelin-Männchen aus 64 farbigen Kugeln. Die Farben entsprechen denen von Hemd und Hose der Schauspieler. Erkennt die Software beispielsweise ein rotes T-Shirt in einer Videoaufnahme, überträgt sie dessen Bewegung auf die roten Kugeln, die Torso, Schultern und Oberarme repräsentieren. Das System arbeitet mit fünf handelsüblichen Videokameras, die nicht synchronisiert werden müssen, und funktioniert sogar, wenn sich Schauspieler auf dem Boden wälzen, miteinander ringen oder teilweise verdeckt sind. Bisherige Systeme hatten damit Schwierigkeiten.

Projektleiter Nils Hasler war früher selbst bei Weta tätig und kennt die Tricks aus "Herr der Ringe". Darüber, woran genau er damals gearbeitet hat, darf er nicht sprechen. Wohl aber über seine aktuelle Forschung: "Die Datenmenge ist bei unserem Verfahren größer, weil ein komplettes Videobild mehr Informationen liefert als ein paar weiße Punkte." Filmemacher, die auf die Marker verzichten möchten, sollten also nicht beim Rechnerpark geizen. Im Gegenzug sparen sie Zeit am Set, weil die Filmcrew den Schauspieler nicht mehr mit Markern bekleben muss. Zudem entfallen Messfehler durch verrutschte Marker.

Hasler glaubt, dass die neue Technik "mittelfristig das frühere Marker-Verfahren ersetzen wird". Anfragen aus Hollywood und der Computerspielindustrie gebe es bereits. Das heißt aber nicht, dass Marker völlig ausgedient haben – sie liefern zum Beispiel bei sehr schnellen Bewegungen präzisere Ergebnisse. Deshalb sei auch eine Kombination beider Techniken sinnvoll, so Hasler. Der nächste Schritt: "Wir wollen die Rekonstruktion so stark verbessern, dass wir auch Kleidungsdeformationen aufnehmen können, beispielsweise die Falten eines Shirts."

Filmemacher, die es weniger perfekt brauchen, können sich ihr Capture-System auch aus dem nächsten Elektronikmarkt besorgen. Simon Spielmann von der Filmakademie Ludwigsburg hat untersucht, inwieweit sich Microsofts "Kinect" für die Filmindustrie einsetzen lässt. Die Kinect erfasst mit drei Kameras 3D-Bilder ihrer Umgebung und wurde ursprünglich zum Steuern der Xbox-Spielekonsole entwickelt. "Das Revolutionäre daran ist, dass man eine Art Tiefenscanner für 150 Dollar bekommt", so Spielmann. "Im Vergleich zu herkömmlichen Systemen, die mehrere Zehntausend Euro kosten können, ist das unglaublich günstig."

Ein weiterer Vorteil der Kinect: Für die Bewegungserfassung ist kein eigenes Studio mehr nötig. Was damit möglich ist, zeigten die Ludwigsburger Forscher auf einer Feier zum 60. Jubiläum des Landes Baden-Württemberg. Dort parlierte ein Moderator auf offener Bühne per Video-Schalte mit einem Comic-Avatar des Ministerpräsidenten Winfried Kretschmann. Bewegung und Stimme verlieh ihm der Schauspieler Dominik Kuhn. Zwei Kinect-Konsolen erfassten dessen Mimik und Gesten – irgendwelche Markierungspunkte musste er sich dazu nicht ins Gesicht kleben. Dank des FACS-Systems reichten die relativ ungenau arbeitenden Kinects aus, die Mimik des Schauspielers zu entschlüsseln und auf das digitale Modell zu übertragen.

Wird die digitale Produktion Schauspieler überflüssig machen? Diesen Eindruck kann gewinnen, wer sich mit dem Projekt "Calliope" beschäftigt, an dem Spielmann und seine Kollegen beteiligt sind. Sie entwickeln eine ebenfalls auf FACS aufbauende Software, mit der Computeranimatoren per Knopfdruck einen bestimmten Gesichtsausdruck auf einen digitalen Kopf zaubern können. Bisher mussten sie, um etwa ein Lachen zu erzeugen, jede Bewegung von Augen und Mund einzeln modellieren. "Jetzt kann ich jede Mimik rekonstruieren", so Spielmann. "Das geht bis zu einer Rötung der Haut oder zur Absonderung von Tränenflüssigkeit."

Die Ludwigsburger arbeiten bereits an virtuellen Charakteren, die zum Beispiel Gedichte mit den dazu passenden Gesichtsausdrücken vortragen, ohne dass ein Animator seine Maus im Spiel hat. In einer in Handarbeit angelegten Datenbank steht, welche Schlüsselwörter für welche Emotionen stehen. Bei Rilke sollte die Software beispielsweise auf traurig oder einsam schalten, anschließend die entsprechenden Action Units aus der Datenbank fischen und auf den virtuellen Vorleser übertragen. Die Vision dahinter: Man speist nur noch ein Drehbuch ins System, und eine Software animiert automatisch die passende Mimik.

Bisher arbeitet das System der Ludwigsburger mit comichaften Charakteren. Bis in die letzte Hautpore realistische Menschenmodelle lassen sich auch schon virtuell gestalten. "Am Rechner erzeugte Bilder von Menschen sind schon so weit, dass man sie von einer echten Person nicht unterscheiden kann", sagt Nils Hasler. Doch die Computeranimation kann mit dieser Perfektion noch nicht mithalten. "Sobald sich die digitalen Wesen bewegen, sieht man, dass irgendetwas komisch ist", so Hasler. Schauspielspezialisten wie Andy Serkis brauchen also vorerst keine Angst um ihren Job zu haben. (grh)