Die Verwandlung

Gollum, die schillerndste digitale Filmfigur der jüngeren Geschichte, kam im "Hobbit" wieder in die Kinos – und setzte dabei erneut technische Maßstäbe.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 11 Min.
Von
Inhaltsverzeichnis

Gollum, die schillerndste digitale Filmfigur der jüngeren Geschichte, kam im "Hobbit" wieder in die Kinos – und setzte dabei erneut technische Maßstäbe.

Er schimpft oder jammert in einer Tour, ist verschlagen und hinterhältig, besitzt einen viel zu großen Kopf und groteske Glupschaugen. Trotzdem hat er es zu einer der schillerndsten Filmfiguren der jüngeren Kinogeschichte gebracht: Gollum, der Neben-Bösewicht aus der 2001 bis 2003 erschienenen Fantasy-Trilogie "Herr der Ringe". Im letzten Dezember kam Gollum zurück ins Kino – und zwar im Film "Der kleine Hobbit". Auch diesmal setzte Regisseur Peter Jackson nicht nur künstlerische, sondern auch technische Maßstäbe.

Schon mit den ersten Streifen war der Neuseeländer seiner Zeit weit voraus, was die digitale Nachbearbeitung betraf – jeder der drei Filme bekam einen Oscar für seine visuellen Effekte. Paradebeispiel dafür ist die übellaunige Kreatur Gollum: Wenn sie ihre Augen so weit aufreißt, dass sie fast aus den Höhlen fallen, oder Verwünschungen faucht, dass der Zuschauer instinktiv vor ihrem schlechten Atem in Deckung geht, steckt dahinter die gelungene Zusammenarbeit von Mensch und Maschine. Die Bewegungen stammen vom britischen Schauspieler Andy Serkis, seine ausgemergelte Gestalt erhielt Gollum aber vom Computer. Dahinter steht die neuseeländische Firma Weta Digital, die Jackson damals mit einem Budget von 20 Millionen Dollar für alle drei Teile ausgestattet hat. Auch beim Hobbit bringt Weta Fachwelt wie Publikum abermals zum Staunen. Wie hoch das Budget diesmal war, darüber gibt Jackson keine Auskunft.

Doch man darf getrost unterstellen, dass er bei der Technik nicht gegeizt hat. Die offenkundigste Neuerung beim "Hobbit": Er wurde als erster großer Kinofilm seit 1927 nicht mehr mit 24, sondern mit 48 Bildern pro Sekunde gefilmt ("High Frame Rate", HFR). Die schnellere Bildfolge und die damit einhergehende kürzere Belichtungszeit pro Bild soll Ruckler, Flimmern und Bewegungsunschärfe verringern. Das ist vor allem für störungsfreie Kameraschwenks sowie für die Tiefenwirkung der parallel produzierten 3D-Fassung wichtig. Gleichzeitig schraubt Jackson auch die Auflösung auf eine neue Rekordhöhe: Die 48 verwendeten Digitalkameras des Herstellers Red erfassen 5120 mal 2700 Bildpunkte (5K).

Bisher waren maximal 4096 mal 2150 Pixel (4K) üblich. Die hochauflösende HFR-Technik verschaffe "die Illusion, dass man quasi mitten im Geschehen ist", behauptet Jackson auf der Fachmesse CinemaCon im April 2012 im kalifornischen Burbank. "Seit über einem Jahr schaue ich mir nun das täglich gedrehte Material an und stelle fest, dass die Augen weniger belastet werden als je zuvor."

Die schnelle Bildfolge erzeugt in der Tat einen ganz neuen Seh-Eindruck – der allerdings nicht jeden auf Anhieb überzeugt. Simon Spielmann, Forscher an der Filmakademie Baden-Württemberg in Ludwigsburg, konnte sich auf Fachmessen schon die ersten Ausschnitte ansehen. Er findet die HFR-Anmutung "gewöhnungsbedürftig" – die Bewegungsunschärfe sei schließlich auch ein künstlerisches Mittel, das nun wegfalle. Für die neue Produktionsweise mussten selbst die Textilien geändert werden, weil plötzlich die Kleider ganz anders wallen und fallen. Peter Jackson nahm die Kritik nach den ersten Vorführungen gelassen auf – das sei eben Gewöhnungssache, so wie beim Umstieg von der Schallplatte auf die CD.

Damit sich das Publikum an die HFR-Technik gewöhnen kann, muss es diese aber erst einmal in Originalqualität zu sehen bekommen. Das kann dauern, denn dazu müssen mehr als 50.000 Digitalprojektoren weltweit aufgerüstet werden. Die Kinobesitzer sind zwar nicht glücklich darüber, erneut investieren zu müssen. Über kurz oder lang wird ihnen aber nichts anderes übrig bleiben, denn auch Regisseur James Cameron hat bereits angekündigt, seine nächsten beiden "Avatar"-Filme in HFR aufzunehmen. Zum Filmstart des "Hobbit" konnten in Deutschland nur vergleichsweise wenige Kinos den Streifen in der hohen Bildrate zeigen.

Ein anderes technisches Highlight erlebten die Zuschauer aber auf jeden Fall im "Hobbit": den Gollum. Erschaffen wurde die Figur in den ersten drei Filmen durch das Motion-Capture-Verfahren. Dazu zwängte sich der Darsteller Andy Serkis in einen Anzug mit Markierungspunkten. Kameras und entsprechende Software verfolgten die Punkte und übertrugen ihre Bewegungen auf ein digitales Körpermodell. Dieses Prinzip wurde schon in den achtziger Jahren entwickelt, aber die Weta-Leute führten es ein ganzes Stück weiter: Um die Haut realistischer wirken zu lassen, wälzten sie Anatomiebücher und modellierten Muskelstränge, Venen und Arterien so, als würde tatsächlich Blut durch Gollums Adern fließen. Die Mimik war damals allerdings ausschließlich Sache von Computeranimatoren in der Postproduktion, Andy Serkis lieferte nur die Körperbewegung.

Das hat sich nun, gut ein Jahrzehnt später, geändert. Heute sprechen die Filmemacher nicht mehr von "Motion Capture", sondern von "Performance Capture". Das bedeutet: Nicht nur die Körperbewegungen, auch die Mimik von Serkis wird erfasst und auf das digitale Gollum-Modell übertragen. Dazu bekommt der Schauspieler Markierungspunkte ins Gesicht geklebt. Eine eigene Kamera, die an einem Ausleger an seinem Kopf befestigt ist, erfasst nun jede Regung, jedes Augenzucken, jedes Wimpernklimpern – wie bereits bei James Camerons Blockbuster "Avatar".

Weta hat das Performance-Capture-Verfahren über eine lange Reihe von Filmen wie "King Kong", "Planet der Affen" oder eben "Avatar" weiter verfeinert, und zwar auf Basis des "Facial Action Coding System" (FACS), das in den siebziger Jahren von Paul Ekman und Wallace V. Friesen entwickelt wurde. Die beiden amerikanischen Psychologen erstellten ein Alphabet aus 64 einzelnen Bewegungen ("Action Units"), aus dem sich prinzipiell jeder denkbare Gesichtsausdruck zusammensetzen lässt. "Freude" besteht etwa aus den Action Units 6 ("Wangen an- heben") und 12 ("Mundwinkel auseinanderziehen"). Für das Performance Capturing bieten die Action Units eine entscheidende Erleichterung: Kamera und Software brauchen nicht jeden Quadratzentimeter Haut dreidimensional zu erfassen – es reicht, wenn sie die zugrunde liegenden Action Units erkennen. Diese kann eine entsprechende Software dann auf die Gesichtsmuskeln eines digitalen Kopfs übertragen, auch wenn der völlig andere Proportionen hat als der des Schauspielers.