Die CG-Affen sind los | Retro-Artikel

Rückblick: In der DP 06 : 2014 machte sich Weta Digital an den zweiten Teil von Planet der Affen. Ein Gespräch mit VFX-Supervisor Dan Lemmon über Primaten, Performance-Capturing und Premium-VFXen.

Dieser Artikel von Mirja Fürst erschien ursprünglich in der DP 06 : 2014.

Noch viel mehr CG-Affen und Performance Capturing an der frischen Luft inklusive Regen und Matsch – wie hat Weta Digital die Herausforderungen für den zweiten Teil des Affen-Epos „Planet der Affen – Revolution“ gemeistert? Darüber sprachen wir mit VFX-Supervisor Dan Lemmon.

Nachdem im ersten Teil „Planet der Affen – Prevolution“ ein im Labor ge- züchtetes Virus die Affen schlau wie Menschen und sprechend gemacht hat und diese sich daraufhin im Wald eine neue Heimat aufgebaut haben, beginnt zehn Jahre später der zweite Filmteil: Das Virus hat mittlerwei- le den Großteil der Menschheit ausgelöscht, die Affen dagegen sind immun und leben in einer Kolonie mit 2.000 Bewohnern friedlich in einer Baum-Stadt. Als Menschen und Affen ungewollt doch aufeinandertreffen, entbrennt zwischen den Überlebenden, die sich in der Nähe der Golden Gate Bridge niedergelassen haben, und den Primaten ein Krieg.

Um diese Geschichte zu erzählen, kreierte Weta riesige CG-Affen-Crowds, zuweilen sind bis zu 1.200 CG-Affen in einer Szene, die unter anderem auf Pferden reiten und kämpfen. Die CG-Affen bestimmen als Hauptakteure bei einer Laufzeit von 127 Minuten die Handlung des Film. Für Weta bedeutete das 3.000 VFX-Shots. Der Film ist in den deutschen Kinos am 7. August angelaufen, Regie führte Matt Reeves, der auch schon den Monster-Film „Cloverfield“ realisierte.

Gedreht wurden die Outdoor-Szenen in den Wäldern von Vancouver und in der Nähe von New Orleans. Dass die Produktion an die Originalschauplätze ziehen konnte, unterstützte den Realismus – auch für die Performance-Capture-Schauspieler, die nicht mehr isoliert von den restlichen Schauspielern arbeiten mussten (bit.ly/VSQiSf). Zuweilen liefen bis zu 50 Affen-Darsteller im Performance-Capture-Anzug am Set durch den Wald. Um das Schauspiel der Affen-Darsteller einfangen zu können, setzte Weta pro Team 35 Mitarbeiter sowie bis zu 50 MotionCapture-Kameras pro Szene, die überall im Wald befestigt waren, ein.

VFX-Supervisor Dan Lemmon

Für die Arbeit am ersten Teil „Planet der Affen – Prevolution“ wurde Daniel „Dan“ Lemmon mit seinem Team in der Kategorie „Beste visuelle Effekte“ für einen Oscar nominiert, der Film musste sich aber im Jahr 2O12 gegen „Hugo Cabret“ geschlagen geben. Lemmon kann bereits auf eine bewegte Filmkarriere zurückblicken: Als Digital Artist war er 1997 schon für „Das fünfte Element“ und „Fight Club“ tätig, eines seiner ersten Projekte als Supervisor für Weta war „I, Robot“. Weitere Projekte in seinem Portfolio sind „Jumper“, „Avatar“ und „Man of Steel“.

Interview mit Dan Lemmon zu „Planet der Affen – Prevolution“: bit.ly/VT9vmM.

Der Film wurde in nativem Stereo-3D gefilmt, über eine kleine Schienenvorrichtung transportierte das Team das komplette technische Equipment an die Dreh-Location mitten im Wald. Eine große Herausforderung war, die Technik für die nassen Drehumstände im verregneten British Columbia wetterfest zu machen.

DP: Wie gelang der Performance-Capture-Dreh draußen im Wald – im Regen?

Dan Lemmon: Beim Dreh für den ersten Teil konnten wir die Technik zum ersten Mal nach draußen bewegen und schafften es, dass sie im Sonnenlicht funktionierte – aber zu der Zeit war das System noch sehr fragil. Beim zweiten Teil war nun unsere wichtigste Aufgabe, das technische Equipment auf ein Niveau zu bekommen, sodass es für Hitze, Kälte und Feuchtigkeit gleichermaßen präpariert war. Ein Schwachpunkt sind die Kamerakabel, deswegen sind wir auf Wireless-Kameras umgestiegen und haben sie in wasserfeste Beutel gepackt. Auch die Marker an den Motion-Capture-Anzügen der Schauspieler haben wir ausgewechselt. Die vorherigen waren sehr empfindlich und brachen bei Stunt-Szenen. Jetzt haben wir gummierte Marker, die wasserfest sind und Zusammenstöße aushalten.

DP: Welche Tools haben Sie für „Planet der Affen – Revolution“ eingesetzt?

Dan Lemmon: Die meisten Tools haben wir intern geschrieben: unter anderem eines für die Fur-Simulation und das FurModeling sowie eine Fluid-SimulationSoftware und eine spezielle Software, um die Performance-Capture-Daten dann auf die 3D-Affenmodelle übertragen zu können. Darüber hinaus nutzen wir Maya als Haupt-Animationspaket, welches wir durch zahlreiche Plug-ins ergänzen, sowie Software von Red Giant. Für das Compositing setzen wir Nuke ein und für Partikeleffekte Houdini.

DP: Für welche Effekte mussten Sie die Pipeline aufrüsten?

Dan Lemmon: Der Regeneffekt auf den Affen war diesmal die größte Herausforderung. Der Vorteil des Drehs in British Columbia war, dass es die ganze Zeit regnete. Wenn der Regen doch einmal aufhörte oder schwächer wurde, starteten wir künstlichen Regen am Set und fügten die gleiche Art von Regen den digitalen Charakteren hinzu. Dafür haben wir zahlreiche Referenzen besorgt von Wasser, das auf Fell trifft. In diesen Prozess haben wir sehr viel Arbeit gesteckt, aber unsere Wassersimulation funktionierte sehr gut. Den CG-Regen haben wir mit Nuke, Houdini und Naiad realisiert.

DP: Wie haben die aktiven Marker draußen im Tageslicht funktioniert?

Dan Lemmon: Die LEDs der Marker arbeiten im Infrarotspektrum, daher sind die Signale für das menschliche Auge unsichtbar. Sie blitzen für einige Millisekunden extrem hell auf. Wir haben die Marker mit den Motion-Capture-Kameras synchronisiert, sodass sich der Kameraverschluss öffnete, wenn die Marker das Signal sendeten. Draußen mussten wir die Blitzlichtimpulse so hell einstellen, dass sie das Sonnenlicht und alle anderen Lichtquellen in der Umgebung überstrahlten. So konnten die Kameras die Marker als Punkte und nicht als ausgewaschene Felder wahrnehmen.

DP: Konnten Sie alle Performance-Capture-Daten vollständig für die Animation nutzen?

Dan Lemmon: Mit weiten Einstellungsgrößen, bei denen man viel Gebiet abdecken muss, können die Motion-Capture-Kameras nicht gut umgehen und die Daten sind verrauscht. Dennoch ist es immer noch die beste Entscheidung für einen Shot, weil wir mehr Schauspieler und Einstellungen erfassen können. Die Performance-Capture-Daten haben wir als AMC-Dateien in den PostproduktionsWorkflow gebracht, einem Standardformat für Motion-Capture-Daten.

DP: Stellten die vielen PerformanceCapture-Daten von Darstellern, die interagieren, kein Problem dar?

Dan Lemmon: Natürlich ist es umso schwieriger, gute Daten zu generieren, je mehr Schauspieler man in den Szenen hat. In einigen Szenen haben wir für das DatenCapturing nur 8 Kameras eingesetzt, in anderen waren es bis zu 40 oder 50. Das war auch davon abhängig, wie gut wir wie viele Kameras verstecken oder sie außerhalb des Bildbereichs anbringen konnten.

DP: Bei Performance-Capture-Daten von rund 50 Darstellern inklusive einem nativen Stereo-3D-Dreh ist sicherlich eine Unmenge von Daten zusammengekommen. Wie wurde diese organisiert?

Dan Lemmon: Ja, es war eine große Datenmenge, unfassbar viel Equipment und dazu der Spaß, der mit einem Stereo-3D-Dreh einhergeht. Aber wir haben eine robuste Pipeline für das Ingesten dieser Datenmenge – es war nicht allzu übel. Aber das hatte mehr mit einem guten Management als mit einer speziellen Software zu tun.

DP: Wäre es für das Weta-Team nicht leichter gewesen, das Projekt ganz ohne Performance Capturing zu realisieren?

Dan Lemmon: Gut an Performance-Capture-Daten ist, dass man eine realistische Aufnahme von der Handlung der Schauspieler bekommt. So erhält man kleine, natürliche Bewegungen und Regungen, die man mit Keyframe-Animation nicht erzielt hätte. Wenn bei einem Projekt die Realität so exakt wie möglich nachgestellt werden soll und die Zuschauer glauben sollen, dass die digitalen Charaktere echte Gorillas und Schimpansen sind, funktionieren keine Stilisierungen, mit denen beispielsweise ein Pixar-Animationsfilm gut funktioniert. Für einen realistischen Eindruck sind das richtige Timing und das Gefühl für Gewicht entscheidend.

DP: Welche weiteren Vorteile hatte es?

Dan Lemmon: Ein CG-Charakter erhält durch Performance Capturing den individuellen Ausdruck einer Persönlichkeit; ein Schauspieler definiert das Verhalten des Charakters und seine Entscheidungen. So entsteht Kontinuität, die im Fall einer Keyframe-Situation während des Projektverlaufs schwer beizubehalten ist, wenn verschiedene Leute an ein und demselben Charakter arbeiten. Bei einem Keyframe-Projekt kann man oft genau erkennen, welcher Animator welchen Shot bearbeitet hat, weil jeder seinen eigenen Stil hat. Darüber hinaus haben wir mit Performance Capturing gefilmt, weil der Dreh traditionell ablaufen sollte: Der Regisseur wollte mit den Schauspielern arbeiten und alle Darsteller sollten miteinander agieren können.

DP: Wie exakt konnte das Animationsteam Serkis’ Schauspiel auf den CG-Affen Caesar übertragen?

Dan Lemmon: Andys Performance möglichst realitätsnah auf Caesar zu übertragen, war extrem viel Arbeit: Eine wesentliche Schwierigkeiten war, dass Andys Gesicht überhaupt nicht dem eines Schimpansen gleicht. Seine Mimik auf die Nasen- und Mundform sowie die Gesichtsmuskeln eines Affen zu übertragen, war deshalb kompliziert und es waren viele Anpassungen nötig.

DP: Die Aussage „Artists tragen Schauspielern digitales Make-up auf“ von Andy Serkis im FMX-Vortrag schlug online hohe Wellen (bit.ly/1g3SqQt). Wie ist Ihre Meinung dazu?

Dan Lemmon: Seine Aussage ist als Metapher zu sehen, wir haben den Ausdruck vorher auch schon oft verwendet. Ich kenne den Artikel, den Sie meinen. Dieser hat Andys Aussage aus dem Kontext gehoben, der Autor hat seine Worte verdreht und so entstand der Eindruck, er habe gesagt: „Ich mache alles und die Animatoren machen nichts.“ Das hat er so wortwörtlich aber nie gesagt. Andy bringt den Artists das Vertrauen entgegen, dass sie seine Performance optimal auf den digitalen Charakter übertragen. Die Schauspieler wissen, dass wir in der Postproduktion Änderungen vornehmen und nicht jedes Blinzeln exakt übernehmen. Wir beschleunigen oder verlangsamen auch bestimmte Aspekte oder gestalten einen Gesichtsausdruck anders. Das machen wir mit echten Schauspielern ständig, daraus besteht der Hauptteil unserer Arbeit – das war bei diesem Projekt nichts Besonderes.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.