Wolkig mit Aussicht auf Houdini | Retro-Artikel

Rückblick: In der DP 03 : 2014 stiegen wir in die Eröffnungsszene der Bestseller-Verfilmung Die Bücherdiebin. Rise Visual Effects Studios realisierte eine lange Wolkensequenz inklusive 3D-Kamerafahrt mit Houdini. Wie bekommen Artists die perfekten Cumuluswolke hin?

Dieser Artikel von Mirja Fürst erschien ursprünglich in der DP 03 : 2014.

Rise Anfang sowie bei einigen Szenen am Ende bei der „Bücherdiebin“ viel VFX- | Visual Effects Studios hat am Arbeit geleistet: Zu Beginn fliegt die Kamera durch eine Wolkenformation, um dann in einem fahrenden Zug zu landen. Am Ende des Films ließ Rise Häuser explodieren. Seit der Hollywood-Produktion „Cloud Atlas“ (siehe auch DP-Ausgabe 02/13) im Jahr 2012 setzt Rise in seiner Pipeline Houdini ein. Oliver Schulz verantwortete den Wolkenszenen-Prolog.

DP: Welche Tipps hast du für Artists, um perfekte Cumuluswolken zu erzeugen?

Oliver Schulz: Für den richtigen Look sind viele Faktoren ausschlaggebend. Zum einen natürlich die Form selbst: Bei Cumuluswolken ist ein Grundansatz mit dem Verteilen kleiner Spheres auf einem Basemesh sicher nicht verkehrt. Aber das entscheidende Kriterium ist hierbei die Varianz in der Struktur: Man sollte keine uniformen Kanten haben und viele unterschiedlich opake Teile erstellen. Wenn Artists sich solche Wolken genau ansehen, werden sie feststellen, wie viele unterschiedlich geartete Teile eine einzelne Wolke enthält. Der andere Teil ist das Shading und das Licht. Wie eine Wolke aussieht, ist abhängig davon, woher das Licht kommt und wie groß die Wassertropfen in ihr sind.

DP: Echte Wolkenformationen sind vielseitig und facettenreich. Welche Vorgaben hattet ihr, um welche Stimmung mit den Wolken zu Beginn des Films zu erzielen?

Oliver Schulz: Genau diese Vielfalt ist die Schwierigkeit, wenn man einen überzeugenden Himmel in 3D erstellen möchte. Im Grunde waren unsere einzigen Vorgaben, dass die Kamera am Anfang zwischen zwei Wolkenschichten fliegen soll und wir einen nahtlosen Übergang zu der real gedrehten Helikopter-Plate mit dem Zug in der verschneiten Landschaft schaffen mussten. In einem frühen Stadium der Produktion habe ich die Previs und das Concept Design für unsere Shots gemacht. Der erste Schritt war das Anfertigen von Value Sketches, um die generelle Komposition, die Wolkentypen und die Lichtstimmungen mit unserem VFXSupervisor Florian Gellinger und Regisseur Brian Percival zu entwickeln. Nachdem klar war, welche Elemente des Designs den Vorstellungen der Produktion entsprachen, folgten viele weitere Konzepte – diesmal in Farbe, um Lichtrichtung und Stimmung weiter zu verfeinern. Das Concept Painting haben wir danach in Maya auf Geometrie projiziert und darin wurde die Kamera ausgeblockt. Somit hatten wir von Anfang an eine relativ genaue Vorstellung, wie der finale Shot aussehen würde.

DP: Wie sah euer Wolken-Workflow Schritt für Schritt aus?

Oliver Schulz: Das Layout, das Polygon Modeling und die Animation haben wir in Maya gemacht. Wir haben die Wolken als LowPoly-Geometrie gebaut, damit wir die Form der Wolken genau bestimmen konnten. Aus Maya haben wir die grobe Geometrie als Alembic Cache exportiert und in Houdini importiert. Dort haben wir sie in Volumes konvertiert und prozedural modifiziert. Je nach Wolkenart haben wir auf der Geometrie über den Cloud Node noch Spheres verteilt, um einen „puffigeren“ Look zu erzielen. Im Anschluss konvertierte das Team die Geometrien in VDB-Volumes, die eine sehr große Voxel-Auflösung erlauben. Je nach Wolkenart wurde dieses Volumen dann schon einmal mit Noise Displaced oder direkt als .bgeo-File gespeichert. Diese Files konnten wir dann in prozeduralen CVex-Shadern verwenden, um feinere Details hinzuzufügen. Der Hintergrund der Szene ist ein projiziertes Mattepainting.

DP: Welche Vorteile hat Houdini?

Oliver Schulz: Die Setups kann man prozedural aufsetzen und es genügt, bei einem bestehenden Setup nur die Input-Geometrie auszutauschen und das Volumen neu herauszuschreiben. Das ermöglicht eine relativ einfache und vor allem sehr schnelle Handhabung bei eventuellen Änderungen.

DP: Womit habt ihr gerendert und welche Einstellungen vorgenommen?

Oliver Schulz: Die Wolken wurden in Houdini Mantra gerendert. Ursprünglich wollten wir die Wolken im PBR-Mode mit HDR Lighting raytracen, aber davon mussten wir uns nach den ersten Rendertests relativ schnell wieder verabschieden. Die Renderzeiten explodierten bei so vielen Volumes und lagen bei bis zu 25 Stunden pro Frame. Da der Micropolygon-Renderer bei Volumes ein sehr sauberes und schnelles Ergebnis bringt, haben wir uns schlussendlich dafür entschieden. Der Nachteil ist, dass man mit diesem Renderer nativ kein physikalisches Licht rendern kann. Da der Look von Wolken aber zu einem großen Teil auf indirektem Licht und Scattering beruht, waren genau diese Effekte für uns wichtig.

DP: Wie habt ihr das Problem gelöst?

Oliver Schulz: Mit einem Licht-Setup, bei dem durch simple Distant Lights mit Depthmap Shadows im PBR-Modus eine Photon Map erzeugt wurde. Die konnte in den Shader eingelesen werden, um dort als indirekte Lichtinformation auch im Micropoplygon Renderer benutzt zu werden. Der Vorteil dabei war, dass Effekte wie zum Beispiel 3DMotionblur gratis sind oder sogar schneller rendern. Die finalen Renderzeiten lagen so bei etwa zwei bis drei Stunden pro Frame in 2K.

DP: Wie seid ihr auf 3.000 Frames in der Szene gekommen?

Oliver Schulz: Die Länge des Shots war durch den Monolog bedingt, den der Erzähler zu Beginn hält.

DP: Welche Auflösung hatte die Wolkenszene?

Oliver Schulz: Die Previews haben wir in halber Auflösung gerendert, um die Renderzeiten erst einmal klein zu halten. Die finalen Shots wurden in 2,8K gerendert, was dem Abgabeformat entsprach.

DP: Wie viele Artists haben an den Wolkensequenzen gearbeitet?

Oliver Schulz: An den Shots haben als Compositor Oliver Hohn für den ersten und Jonathan Weber für den letzten Shot gearbeitet. Für 3D und Mattepainting war ich verantwortlich, mit viel Unterstützung von unserem Houdini-TD Simon Ohler.

DP: Wie lange hat die Arbeit an den Szenen gedauert?

Oliver Schulz: Im Prinzip über die gesamte Dauer der Produktion. Am Anfang sehr lange, als es galt, die 3D-Szene aufzusetzen. Zum Ende hin haben wir das Compositing und Mattepainting umgesetzt. Da es immer einige Zeit dauerte, Feedback von Produktion und Schneideraum zu erhalten, hatte ich in dieser Phase Zeit parallel an anderen Shots zu arbeiten.

DP: Wie ist deine Meinung zu Vue für Himmel und Wolken?

Oliver Schulz: Ich habe noch nicht besonders viel damit gearbeitet, aber vom ersten Eindruck her hat Vue eine sehr gute Atmosphären-Engine, mit der sich realistische Himmel relativ leicht erzeugen lassen.

DP: Habt ihr den Rauch aus dem Zugschornstein ebenfalls mit Houdini verstärkt?

Oliver Schulz: Der Zug wurde so, wie er im Film zu sehen ist, von einem Helikopter aus gedreht. Wir haben keinen zusätzlichen Rauch eingebaut.

DP: Und den Schnee, der in vielen Szenen zu sehen ist?

Oliver Schulz: In manchen Shots wurde der Schneefall mit Partikelsystemen aus Houdini verstärkt. Andere Shots wurden im Mattepainting mit Schnee versehen.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.