Zurück im Dinoland | Retro-Artikel

Rückblick: In der DP 01 : 2016 feierte der „Jurassic World“ seine Eröffnung. Wir baten VFX-Supervisor Martyn Culpitt von Image Engine zum Gespräch – über imposante CG-Environments und noch imposantere CG-Saurier. Wer ist der größte Pipeline-Fresser?

Dieser Artikel erschien ursprünglich in der DP 01 : 2016.

Natürlich war ILM wie auch schon bei „Jurassic Park“ das verantwortliche Studio. Unterstützt wurde das Team unter anderem von Image Engine, Hybride und Ghost VFX. Auch gute zwanzig Jahre später zogen die CG-Dinos die Zuschauer erneut in Scharen in die Kinos: Mit 208 Millionen am ersten Startwochenende erzielte der Film das bislang beste Einspielergebnis aller Zeiten und übertraf mit diesem sogar „The Avengers“.

Während des Drehs wurden als Referenzen reale Sauriermodelle eingesetzt – in erster Linie die Köpfe der Tiere, mit denen die Schauspieler interagierten. Diese erstellten Legacy Effects, die vor mehr als zwanzig Jahren „Jurassic Park“-Artist Stan Winston gegründet hat. Während bei „Jurassic Park“ noch zahlreiche Animatronics zum Einsatz kamen, war es bei „Jurassic World“ nur ein einziges, in der Szene mit dem sterbenden Apatosaurus. Dieses wurde als Hommage an Winstons Spezialeffekte-Kunst eingesetzt; Legacy kreierte dieses riesige Animatronic in einem aufwendigen Prozess von rund drei Monaten. Vor allem die optimalen Beleuchtungs- und Texturreferenzen, welche die Animatronics in „Jurassic Park“ boten, sind ein Grund, warum die Effekte des 22 Jahre alten Films auch heute noch überzeugen können – im Vergleich mit anderen Werken aus der Zeit.

Image Engine aus Vancouver kreierte ungefähr 280 VFX-Shots für „Jurassic World“, davon fielen 200 auf Shots mit den vier Raptoren Blue, Charlie, Delta und Echo. Die Velociraptoren trainiert Owen Grady (Chris Pratt) im Film per Konditionierung, sie sind etwa 4 Meter lang und 2 Meter hoch. Dass diese Tiere einmal tatsächlich in dieser Größe existiert haben, ist paläontologisch nicht nachgewiesen. Auch die Darstellung als hochintelligente Jagdtiere ist bestenfalls umstritten. Image Engine realisierte die Arenaszenen mit dem Training der Tiere, die Szenen, in denen ihre Köpfe sich in der Fixierung der Boxen befinden sowie die Verfolgungsjagd im Dschungel, bei der das Team auch das CG-Environment umsetzte. Auch bei der finalen Kampfszene half Image Engine bei ILM aus, was die Raptoren betraf. Insgesamt arbeiteten 120 Image-Engine-Artists fast 11 Monate an dem Projekt. Vor allem die Animation der Raptoren war aufgrund der vielen kleinen Nuancen in der Bewegung, die für den Realismus der Dinosaurier benötigt wurde, sehr komplex. VFX-Supervisor Martyn Culpitt von Image Engine berichtete uns über die Arbeit an „Jurassic World” und verriet, wie der VFX-Legendendruck von „Jurassic Park“ die Arbeit des Teams beeinflusst hat.


DP: Wie seid ihr zu dem Dino-Projekt gekommen?

Martyn Culpitt: Wir haben schon bei einigen Feature Filmen mit ILM zusammengearbeitet, zuletzt an den „Teenage Mutant Hero Turtles“. ILM fragte mich, ob ich VFXSupervisor für Image Engine bei „Jurassic World“ werden möchte. Da „Jurassic Park“ einer meiner Lieblingsfilme ist, war ich sehr aufgeregt, dabei sein zu dürfen.

DP: Wie war eure Pipeline für ein Projekt dieser Größenordnung aufgebaut?

Martyn Culpitt: Unsere Pipeline existiert ja schon eine Weile und wir arbeiten kontinuierlich daran. Wir mussten für „Jurassic World“ also nichts umbauen. Mit unserem internen, selbst entwickelten Asset-System namens Jabuka ließen sich alle Assets durch jedes Department hindurch tracken, was für ein Projekt dieser Größenordnung unbedingt notwendig ist, um effizient arbeiten zu können. Für „Jurassic World“ haben wir viele Bundles in Jabuka verwendet, so konnten wir alle Assets und Dateien, die in einem Shot zum Einsatz kamen, tracken und sicherstellen, dass alle Daten den kompletten Shot-Prozess hindurch korrekt sind. So konnten wir effizient arbeiten und das Projekt auf Kurs halten.

DP: Welche Tools gab es noch?

Martyn Culpitt: Des Weiteren nutzten wir Shotgun für unsere Dailies, Shot-Details und die Produktion. Unsere Pipeline haben wir so aufgebaut, dass wir eine Menge Informationen von der Datenbank abrufen können. Ein weiteres Tool, das wichtig für unseren Workflow ist, baute das Lighting Department: das Node-basierte Lighting Tool Caribou. Vor „Jurassic World“ haben wir es bereits in einer frühen Beta-Version bei Projekten getestet, hierbei zum ersten Mal in einer Vollversion. Caribou basiert auf unserem Open-SourceProjekt Gaffer, das John Haddon gestartet hat; David Minor hat es zusammen mit unserem R&D-Team zum Maya-Plug-in weiterentwickelt. Damit waren wir in der Lage, Full-CG-Environments, Charaktere, Effekte und Props in den komplexen Lighting Scenes unglaublich gut zu managen. Mit Caribou ließ sich das Lighting der Full-CG-Shots viel schneller umsetzen und wir konnten Templates wesentlich leichter auf Shots übertragen. Das R&D-Team hat viel Zeit darauf verwendet, den Lighting-Workflow zu optimieren, was den Artists eine Menge Freiheit für Kreativität verschaffte.

DP: Habt ihr mit ILM Assets ausgetauscht?

Martyn Culpitt: ILM hat uns eine Menge Assets gegeben: Die Raptoren-Modelle und -Texturen, den Apatosaurus sowie einen Haufen Laub und viele andere Kleinigkeiten. Wir passten unsere Shader denen der ILMModelle entsprechend an. Vor allem die Raptoren haben sich im Laufe des Projekts hinsichtlich ihres Looks und der Charakteristik oft verändert, also auch die Modelle und die Texturen. Jedes Mal, wenn ILM uns die Updates gab, mussten auch wir unsere Szenen updaten. ILM hat eine sehr strikte Benennung und eine genaue Texturing-Konvention; mithilfe von Scripts haben wir unseren Workflow ihren Vorgaben entsprechend angepasst, damit der Austausch reibungslos klappte.

DP: Habt ihr auch noch mit anderen Studios Shots zusammen bearbeitet?

Martyn Culpitt: Hybride hat einige der Backgrounds gemacht, in die wir die Raptoren eingesetzt haben. In ein paar Szenen kamen auch Hologramme von Hybride vor, die wir über die Raptoren lagerten – dafür schickte das Studio uns verschiedene Layers und Nuke-Skripte, die beim Zusammensetzten halfen.

DP: Wie wichtig war der Look von „Jurassic Park“ für euch? Welche Referenzen daraus habt ihr konkret verwendet?

Martyn Culpitt: Der erste „Jurassic Park“- Film war der erste Stopp beim Sammeln von Referenzen. Wir haben immer wieder unsere Arbeit mit bestimmten Schlüsselszenen des alten Films verglichen, um sicherzustellen, dass wir die gleichefilmische Spannung sowie die Bewegung der Dinosaurier des Originals trafen. Das Herdenverhalten der GallimimusSaurier im Original haben wir als Maßstab für unseren Gallimimus-Shot verwendet. Die Szene in „Jurassic Park“, als die Raptoren die Kinder durch die Küche und den Eingangsbereich jagen, war unsere Referenz für das Posing der Raptoren in der Trainingsarena. „Jurassic Park 2 und 3“ haben wir einmal zu Inspirationszwecken angeschaut, aber keine der Szenen als Referenz verwendet.

DP: Wie seid ihr darüber hinaus für die Raptoren vorgegangen?

Martyn Culpitt: Was die Körperlichkeit und die Fortbewegung der Raptoren betraf, haben Director Colin Trevorrow und ILM Animation Supervisor Glen McIntosh sehr viel darauf Wert gelegt, dass die Dinos glaubwürdig wirken und unser Team als Guideline Tiere aus der realen Welt verwendet: Für die Beinbewegung haben wir vor allem Strauße und Emus studiert, von Löwen und Tigern haben wir das Raubtierverhalten adaptiert und bei Alligatoren, Echsen und Raben lag der Fokus auf spezifischen Eigenschaften wie den Kopfbewegungen, der Kieferschnappung, dem Augenblinzeln und den Schwanzbewegungen. Vom PerformanceStandpunkt aus waren die Shots mit dem Training der Tiere in der Arena aufwendig, denn wir mussten zeigen, dass die Raptoren bösartig und furchterregend, gleichzeitig aber auch durchdacht und intelligent sind. Es war auch das erste Mal, dass die Raptoren im Film gezeigt werden, also sollte ihr jeweiliger Charakter richtig porträtiert sein und sie nicht wie vier beliebige Dinosaurier wirken. Wir fanden heraus, dass für ihre Performance weniger mehr ist und die Emotionen keinesfalls übertrieben werden durften. Videos mit kämpfenden und sich heranpirschenden Tieren boten als Orientierung ein solides Fundament – vor allem Löwen, wenn sie nur dastehen und ihre Beute anstarren bevor sie angreifen, sind enorm einschüchternd. Diesen Blick und die Stille vor dem Angriff für die Raptoren einzufangen, half, die Spannung und die Emotion für die Sequenz zu kreieren.

DP: Wie wurde Motion Capture für die Tiere eingesetzt?

Martyn Culpitt: Mit Motion Capturing haben wir den Takt der Story von jedem Shot eingefangen; die Aufnahmen halfen uns die Shot-Komposition und die generelle Bewegung zu finden. Die Motion-Capture-Daten waren als erster Blocking-Pass toll – so stand uns schnell eine komplette Sequenz zur Verfügung und wir waren auf der sicheren Seite, die Geschichte den Vorstellungen des Regisseurs gemäß zu erzählen, bevor wir mit der zeitraubenden Arbeit an der finalen Animation begannen. Dies sparte viel Zeit. Die größte Herausforderung bei dieser Vorgehensweise war jedoch, die Motion-Capture-Daten mit den Bewegungen von Menschen auf einen Raptoren mit seiner Größe, Gewicht und Geschwindigkeit zu übertragen und die Daten so extrem anzupassen. Die zahlreichen Tierreferenzen halfen bei der Entwicklung der Bewegung, danach verbachten wir noch viel Zeit damit, jedem einzelnen Raptoren das Denken, die Intelligenz und die spezifischen Charaktereigenschaften zu verleihen. Nachdem wir einen Lock der Animation hatten, haben wir die Muskeln, das Skin Sliding und das Zittern der Muskeln und Sehnen hinzugefügt, was entscheidend für die animalischen Züge und den Realismus der Creature war.

DP: Wie lief das Lighting und Compositing für die Raptoren ab?

Martyn Culpitt: Diese Arbeitsschritte trugen einen großen Teil zum Realismus der Tiere bei. Wir haben die Details der Raptoren sehr fein ausgearbeitet und zusätzlich noch viele subtile FX-Elemente in die Umgebung gesetzt wie Staub, fliegende Käfer, Holzspäne und Schmutz. Manchmal ließen die OriginalPlates, weil sie stark beleuchtet waren, die Raptoren nicht wirklich gut hervortreten. In diesen Fällen haben wir das Lighting der VFX-Shots so justiert, dass es von der Beleuchtung der Real-Plates abwich – so sah es dann meist viel besser aus.

DP: Welche Set Extension war die komplizierteste für euch und warum?

Martyn Culpitt: Den Dschungel zu den Plates hinzuzufügen war die größte Herausforderung, denn die CG-Pflanzen mussten sich nahtlos in die echten integrieren, genau wie die restlichen Aspekte der Umgebung wie Nebel, Volumes und Lichtstrahlen. Wir haben viel Zeit in das Look Development der CG-Pflanzen und ihr Umgebungs-Lighting investiert, damit sie sicher zu den gefilmten Pflanzen in der Plate passten. Die Full-CG-Environments waren auch kompliziert, aber nachdem wir erst einmal den Look der gefilmten Plates getroffen hatten, ließen sich die Full CG Shots recht leicht kreieren. Eine unserer größten Sorgen war, dass wir Tausende von Blätter einzeln simulieren müssen, wenn die Raptoren durchlaufen; deshalb haben wir uns vorab gut überlegt wie wir vorgehen – alle Blätter pro Raptor simulieren war keine Option.

DP: Was habt ihr gemacht?

Martyn Culpitt: Wir landeten schließlich bei einer Library-Lösung mit vorsimulierten Pflanzen: Jede hatte verschiedene Stoßrichtungen zur linken oder rechten Seite, in die Mitte, nach oben, oder die gesamte Pflanze wurde bewegt. Die Pflanzen haben wir länger als nötig simuliert, so konnten wir das Timing in der Szene verändern und viele Variationen erzielen. Wir kreierten zunächst komplette Dschungel-Layouts für die Shots mit allen Pflanzen, die wir in der Szene benötigten. Danach ersetzten wir die statischen Pflanzen mit den simulierten, basierend auf dem Laufweg der Raptor-Animation. Einige Male interagierte die gleiche Pflanze mit zwei Raptoren, diese simulierten wir dann komplett. Auch Pflanzen, die sich sehr nah vor der Kamera befanden, tauschten wir gegen vollsimulierte aus. Da wir für einige Pflanzen die gleiche Simulation verwenden konnten, ließ sich so eine Menge Zeit und Speicherplatz sparen.

DP: Mit welchem Tool habt ihr die 3DPflanzen-Modelle generiert?

Martyn Culpitt: Die meisten der PflanzenModelle zunächst mit Speedtree, im Anschluss haben wir sie modifiziert und das Look Development sowie Modeling weiterentwickelt, damit sie alle so aussahen, wie wir sie brauchten. ILM gab uns einige Blätter-Assets, da sie aber zu den Bewegungen der Raptoren passen mussten, haben wir sie neu kreiert und geriggt. Für das Layout der Szene nutzten wir ein eigenentwickeltes, flexibles System, welches komplexe Assets liest, eine Preview davon erstellt und dabei nur wenig Cache in Maya verbraucht. Die Pflanzen-Modelle hatten eine Größe zwischen 50.000 bis zu 200.000 Polygonen, die Bäume kamen sogar auf bis zu einer halben Million Polygone. Unser System erlaubt eine Preview dieser Assets mit vielen Zusatzinformationen als Full Geometry, Proxy-Modell oder einfach als Bounding Boxes. So können wir Sets mit über 10.000 Pflanzen leichter organisieren, während wir gleichzeitig auch feine Details sehen. Das Set lässt sich entweder mithilfe von Python Tools oder manuell mit den Preview Caches bestücken. Die TransformationsWerte und die Links zu den dazugehörigen Assets werden in einer Referenz-Datei festgehalten, welche die hochaufgelösten Assets dann erst beim Rendering instanziert.

DP: Wie groß war die Dschungel-Datei am Ende?

Martyn Culpitt: Die Basis-Daten waren nicht besonders groß, weil wir oft gleiche Pflanzen dupliziert haben, was teilweise damit zu tun hatte, wie unser Layout-System arbeitet. Insgesamt hatten wir etwa 20 bis 30 verschiedene Pflanzen inklusive Bäumen, Lianen, Pflanzen und Grasbüschel. Auch die Texturdaten waren klein, weil eine relativ geringe Auflösung ausreichte und wir uns aus diesem Grund auch gegen die Arbeit mit Mari entschieden. Das finale Layout war sehr groß, aber durch die Möglichkeit der Instanzierung ließ sich der Speicherplatz, den der Render benötigte, reduzieren.

DP: Wie habt ihr für einen realistischen Natur-Look texturiert und geshadet?

Martyn Culpitt: Wir haben schon während des Look Developments versucht clever vorzugehen, da wir keine speziellen Tools hatten, um so etwas zu realisieren. Der komplette Dschungel besaß ein einheitliches Look Development mit einem Shader und der gleichen Textur-Library. Das DschungelSetup basierte auf einer exakten Strukturanordnung der Pflanzen, Namenskonvention der Objekte und Anlegen der UVs, sodass wir die richtige Textur und den korrekten Shader platzieren konnten. Alle Pflanzentexturen kalibrierten wir zusammen, so entstand keine Diskrepanz bei der Verwendung unterschiedlicher Pflanzenmodelle. Die Verwaltung des Dschungels lief sehr geradlinig, wir hatten keinen erheblichen Mehraufwand hinsichtlich der Texturen oder Shader. Vor allem die Beleuchtung der Nachtsituation sorgte dafür, dass wir beim Texturieren und Shading nicht übertrieben sorgsam sein mussten. Das gleiche Setup haben wir auch in einigen Tagesaufnahmen genutzt, und da hat es ebenfalls einigermaßen gut funktioniert.

DP: Wie wurde der Dschungel beleuchtet?

Martyn Culpitt: Das Lighting entstand mit einem normalen Environment HDRI Setup und zusätzlichen Lichtern mit Gobos. Zahlreiche in die Szene platzierte Spotlights sorgten für Lichtstrahlen, die durch die Blätter schienen. Es war ein Mix aus aktuellen Geo-Schattenwürfen und Textur-Gobos. Wir haben auch Lichter nur für die Führung des Nebels kreiert. In Fällen, in denen das Character Key Light nicht im Nebel funktionierte, duplizierten wir es und passten es so an, dass der Nebel und die Lichtstrahlen besser aussahen. Uns lagen eine Menge Plate-Referenzen vor – aber wir haben lange gebraucht, diese in den Look-DevelopmentSzenen zu treffen, die wir dann den Lighting Artists zur Anpassung ihrer spezifischen Shots übergeben konnten.

DP: Welche VFX-Szene war die herausforderndste und warum?

Martyn Culpitt: Eine schwierige Szene war aus einer Vielzahl von Gründen der Gallimimus-Shot. Dieser Shot war einer der ersten, den wir bearbeitet haben und auch einer der letzten. Der Hauptgrund dafür war, weil wir zunächst davon ausgingen, dass nur acht bis zehn Charaktere vorkommen würden. Während der Produktion wurden es aber immer mehr und am Ende sollten 60 Dinosaurier durchs Bild laufen. Hätten wir zu Beginn gewusst, dass es so eine große Anzahl sein würde, wären wir anders an den Shot herangegangen, beispielsweise mit einem CrowdTool. Aber da wir den Shot mit Keyframe-Animation begonnen hatten, haben wir einfach kontinuierlich die Charakter-Anzahl mit jeder Revision erhöht und passten unser Layout sowie die Animation der höheren Anzahl entsprechend an. Vom Renderstandpunkt her war der Shot aufgrund seiner Länge und seiner extrem vielen Layer – jeder einzelne Gallimimus-Dino mit seinen zugehörigen Effekten inklusive Stereo-Konvertierung – komplex und schnelle Iterationen aufwendig.

DP: Im Film sind auch ein paar mutierte Tiere zu sehen. Woher kam die Inspiration für diese?

Martyn Culpitt: Bevor die Arbeit beginnen konnte, musste feststehen, wie sie aussehen würden. Ich entwickelte mit unserem Concept Artist Rob Jensen einige interessante Concept-Ideen, die wir dem Regisseur und ILM zeigten. Anhand derer wurde der Look festgelegt. Für die mutierten Tiere drehte das Team echte Tiere, wir haben sie in der Plate nur erweitert und bearbeitet: Fell auf das eine, einen Arm zu einem anderen oder einen weiteren Schwanz. Nur die Schlange war ein Full-CG-Replacement, da sie zwei Köpfe hat. In Sachen Animation mussten wir uns hierbei nur an den realen Vorbildern orientieren, die Animationsarbeit war also überschaubar.

Links

Imagine Engine Studio-Tour
Jurassic World Breakdown Reel

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.