Wenn die Lucy mit dem LIDAR… | Retro-Artikel

Rückblick: In der DP 07 : 2014 zapfte „Lucy“, zusammen mit Regisseur Luc Besson, die vollen Hirn-Kapazitäten an – und die VFX-Power von ILM, Rodeo FX und 4DMax. Wie ist der Sci-Fi-Actioner mit Scarlett Johansson entstanden?

Dieser Artikel erschien ursprünglich in der DP 07 : 2014.

Eigentlich ist dieser Film eine einzige Beleidigung für uns Menschen. Denn wenn es nach „Lucy“ geht, sind wir im Vergleich zu Delphinen strohdoof: Während die Meeressäuger 20 Prozent ihres Gehirns verwenden, nutzen wir nur 10 Prozent. Also, was könnten wir alles leisten, wenn wir endlich 100 Prozent unseres Gehirns anschalten würden? Lucys (Scarlett Johansson) Gehirnleistung steigert sich aufgrund eines geplatzten Drogenbeutels im Bauch kontinuierlich und dadurch ist sie zu immer mehr übermenschlichen Handlungen fähig. Da die These des Films hinsichtlich unserer eingeschränkten Hirnfunktion in die Kategorie „wissenschaftlicher Mythos“ fällt, dürfen wir ohne Gewissensbisse den EntertainmentFaktor von „Lucy“ genießen.

Auch wenn viele Zuschauer die Handlung als Nonsens-Konstrukt kritisierten – der Film bietet toll produzierte Bilder: ILM realisierte rund 240 VFX-Shots, Rodeo FX (www.rodeofx.com) übernahm circa 164 und 4DMax (www.4dmax.co.uk) scannte für die Verfolgungsjagd-Szene, die Rodeo FX umsetzte, einen Teil der Pariser Innenstadt ein. Hauptverantwortlicher VFX-Supervisor für das Projekt war Nicholas Brooks („Hinter dem Horizont“, „Elysium“). Für ILM war Richard Bluff („Transformers 3“, „The Avengers“) VFX-Supervisor, bei Rodeo FX übernahm François Dumoulin („The Hunger Games: Catching Fire“, „Heart of the Sea“) die Leitung der VFX-Abteilung.

ILM im Interview

„Lucy“ ist das bisher VFX-lastigste Projekt in Luc Bessons Karriere, deshalb zählte er für das Werk auf den großen Erfahrungsschatz von ILM. Verglichen mit anderen VFX-Groß- projekten wie „Star Wars“ oder „Transformers“ war „Lucy“ ein schlankes, eher künstlerisch orientiertes Projekt für ILM. Das ILM-Team realisierte unter anderem die Shots im Inneren von Lucys Körper, die Zeitreise-Szene am Times Square, die Flugzeug-Sequenz mit der Partikelanimation sowie die SupercomputerSzene. VFX-Supervisor Richard Bluff erklärte uns, wie die Pipeline aufgebaut und was das Besondere an der Arbeit für „Lucy“ war.

DP: Wie viele Artists haben bei ILM an „Lucy“ gearbeitet und welche Departments kamen zum Einsatz?

Richard Bluff: Es gab keine gewöhnliche Department-Aufteilung: Die meisten der 40 eingesetzten Artists waren Generalisten. Die einzige traditionelle Abteilung bei dem Projekt war das Compositing, die restlichen Artists wechselten flexibel zwischen Texturing, Lighting und Rendering hin und her. Des Weiteren sorgten spezialisierte Artists durch die Entwicklung neuer Tools für den Look einiger Szenen: Florian Witzel beispielsweise kreierte die Tools für die prozeduralen Prozesse des Supercomputers und Ryan Hopkins realisierte mit Houdini die Partikelarbeit für die Szene auf der Flugzeugtoilette.

DP: Wieso war diese andersartige Organisation nötig?

Richard Bluff: Wir wussten, dass wir aufgrund der Vorgaben von Luc Besson eine ganz spezielle, individuelle Lösung benötigten. „Lucy“ war als Projekt eine Herausforderung, die wir so vorher noch nie hatten. Für das Endergebnis brauchten wir deshalb einige Spezialisten, die neue Programme und den damit verbundenen Workflow aufbauten.

DP: Wie sah der Prozess für die Supercomputer-Szene aus?

Richard Bluff: Von der kreativen Seite her mussten wir im ersten Schritt herausfinden, welchen Look Luc haben wollte. Der Supercomputer sollte organisch aussehen, dabei sollte der Zuschauer ihn aber nicht wirklich als Objekt aus der Natur identifizieren können – also nicht an Schlangen oder eine tropfende Flüssigkeit erinnert werden. Die Kreatur sollte sich unvorhersehbar verhalten, dabei aber nicht beängstigend oder schockierend sein. Um Lucs Vorstellungen zu verwirklichen, entwickelte Florian einen Basis-Code für die prozeduralen Prozesse und schrieb ein prozedurales Toolset in unsere Zeno-basierte Pipeline.

DP: Wie war dieses im Detail aufgebaut?

Richard Bluff: Florian kreierte Guidesplines, welche die aus Lucy wachsenden Tentakel steuerten. Die komplette Oberfläche war prozedural generiert mit Tausenden von Partikelformen, die aus dem Spline herauswuchsen. Die prozedurale Natur dieser Arbeit war ab einem gewissen Umfang nicht mehr leicht kontrollierbar. Deshalb setzten wir unzählige Parameter drumherum, um die Richtung und die Gesamtaktivität zu bestimmen. Florian erzeugte an einigen Stellen der Tentakel mit flimmernden Würfeln und Spitzen einen sehr mathematischen Look. Für das Verhalten beobachteten wir Ferro-Flüssigkeiten und chemische Reaktionen, und für die schwarz- ölige Oberfläche schauten wir uns als Referenz Rohöl und Obsidian an. Da die Zuschauer aber zu keinem Zeitpunkt der Szene einen direkten Referenzbezug bekommen sollten, mussten wir einen Mix aus alldem finden. So entstand dieses einzigartige Lebewesen und der Eindruck eines wachsenden Computers.

DP: Wie lange hat die Arbeit an der Szene gedauert und wie viele Artists waren beteiligt?

Richard Bluff: Florian leistete ungefähr 80 Prozent der Arbeit an der Tentakel-Szene. Zwei Look-Dev-Artists haben das Lighting und Shading gemacht, dazu kamen drei oder vier Compositing-Artists. Für eine solch aufwendige Szene war es also ein sehr kleines Team, im Gegenzug hatte die Szene aber einen großen Zeitrahmen – was uns zugutekam, denn so konnte Luc an der Entwicklung teilhaben und unsere Arbeit hinsichtlich Veränderungen überdenken. Änderungen waren in einem so kleinen Team leichter zu realisieren. Florian hat von Oktober letzten Jahres bis Januar den Workflow und das Toolset entwickelt und getestet. Danach hat das Team die rund 45 Shots von Januar bis April bearbeitet.

DP: Wurden die Szenen mit Scarlett Johansson davor oder danach gedreht?

Richard Bluff: Davor, im Oktober. Ich war am Set in Paris dabei und habe einige zusammengeschnittene Takes zu ILM mitgebracht, sodass sich das Team eine Vorstellung von der Szene machen konnte. Für den größten Teil der Szene hatte Luc schon eine solide Previs, die präzise zeigte, wo sich die Kamera befand und wie lang die Szene sein würde. So gab es nicht viele Überraschungen für uns.

DP: Kam die prozedurale Technologie auch für weitere „Lucy“-Szenen zum Einsatz und haben Sie sie auch schon für andere Projekte verwendet?

Richard Bluff: Bei „Lucy“ nur für die Supercomputer-Szene, aber wir haben sie auch bei „Transformers: Age of Extinction“ für die von Menschen gebauten Transformer-Roboter und ihren Transformationsprozess eingesetzt – dort aber mit einem völlig anders aufgebautem Toolset. Wir hoffen, die zugrunde liegende Architektur auch für weitere Projekte noch oft einsetzen zu können.

DP: Was war insgesamt betrachtet die größte Herausforderung bei „Lucy“?

Richard Bluff: Verglichen mit einem „Tranformers“-Film hatte „Lucy“ mit rund 240 sehr wenige VFX-Shots. Hat man bei „Transformers“ aber einmal das Design der CG-Roboter sowie das Lighting und den Workflow gelöst, hilft ein Shot dem nächsten und es ist eher eine Herausforderung, das Ganze auf eine einheitliche Art und Weise in den Film zu integrieren. Bei „Lucy“ aber waren alle Szenen extrem unterschiedlich, deshalb waren die verschiedenen Designprozesse die schwierigste Aufgabe. Der Designprozess endete nicht irgendwann, sondern lief bis zur letzten Woche des Projekts weiter. Bei einigen Szenen feilten wir bis zum Ende noch am Look.

DP: Welche Tools kamen wofür zum Einsatz?

Richard Bluff: Da das Projekt so vielfältig war, haben wir fast alle bei ILM verfügbaren Tools eingesetzt: Unsere traditionelle ZenoBackend-Pipeline haben wir zusammen mit Renderman und Katana (siehe auch „Lighting mit Samurai-Schwert“ in dieser Ausgabe) für einige Effektarbeiten verwendet. Darüber hinaus haben wir Mantra in Houdini für bestimmte Aspekte der Flugzeug-Szene genutzt. Der Großteil dieser Szene wurde aber auch wieder mit Zeno und Renderman realisiert. 3ds Max und V-Ray setzten wir für das Environment bei der Zeitreise-Szene sowie für die Body-Shots ein. Die UrknallSzene haben wir mit 3ds Max und Krakatoa erstellt, für die Zellteilung am Anfang haben wir Modo und seinen Renderer verwendet. Das Rückgrat der ganzen Pipeline ist das Alembic-Dateiformat: Sequenzen sind durch Alembic einzigartig klein, sodass man Probleme auf ganz andere Art anpacken kann.

DP: Seit wann nutzt ILM Alembic?

Richard Bluff: Wir haben seit circa 3 bis 4 Jahren Zugang zu dem Format. Seit etwa 2,5 Jahren nutzen wir es jetzt über alle unsere 3D-Applikationen hinweg. Wir haben auch mit verschiedenen Vendors zusammengearbeitet, damit ihre Pipeline ebenfalls Alembic unterstützt. Davor hatten wir zwar auch schon eine robuste Animation-DeformingPipeline in Katana, basierend auf Zeno, aber nicht für die ganzen anderen Tools – Animationen aus der Pipeline herauszubaken war damals noch ein harter Prozess. Durch Alembic können wir die Daten jetzt in alle erdenklichen Richtungen schicken.

DP: Luc Besson wollte von ILM und dessen Arbeit für „Lucy“ überrascht werden. Bedeutete dies absolute kreative Freiheit für das ILM-Team – und war diese auch hinderlich?

Richard Bluff: Luc hatte schon eine bestimmte Vorstellung von jeder Szene, seine Concepts waren sehr detailliert ausgearbeitet. Er meinte damit eher, dass wir ihm nicht sieben verschiedene Variationen einer Szene oder grobe Vorabversionen präsentieren sollten, sondern nur konkrete Ergebnisse nahe an der finalen Szene. Wir sollten ihm Arbeit zeigen, bei der wir sicher waren, dass deren Qualität überzeugen würde. Dies erlaubte es ihm, die VFX-Szenen wie ein Erstzuschauer im Kino zu sehen und so zu entscheiden, ob ihn das Ergebnis beeindruckte und überraschte. Für die Times-Square-Szene erhielten wir beispielsweise seine Designkonzepte und zeigten ihm so lange nichts, bis wir alle Gebäude und den ersten Lighting-Pass erstellt hatten.

DP: An die optische Messlatte der „Jurassic Park“-Dinosaurier von ILM kommen heutige CG-Saurier in vielen Produktionen nach wie vor immer noch nicht heran. Dabei ist Film über 20 Jahre alt. Wie kann das sein?

Richard Bluff: „Jurassic Park“ besitzt – verglichen mit anderen Projekten – ein paar einzigartige Faktoren: Der VFX-Shot-Anteil lag unter 100. Spielberg hat die „DinosaurierMomente“ auf ein Minimum reduziert und die CG-Szenen dienten nur dem Erzählen der Geschichte. Da visuelle Effekte immer leichter produziert werden können, sind sie inzwischen überall – über 1.000 VFX-Shots sind für viele Filme an der Tagesordnung. Die erfolgreichste Filmarbeit entsteht meiner Meinung nach aber durch Beschränkungen – und nicht dadurch, dass man alles zeigt, was in diesem Bereich möglich ist, denn das führt zu einem Übersättigungseffekt. Das trifft nicht nur auf die Dinosaurier im Speziellen, sondern auf alle Effekte zu. Bei vielen heutigen Produktionen fehlen Grenzen, die ein Regisseur setzen müsste.

DP: Viele Artists träumen von einem Job bei ILM. Wie gelang Ihnen der Einstieg?

Richard Bluff: Ich habe auch schon als Kind davon geträumt … Meine Karriere begann in England in der Videospiele-Industrie. Von dort aus zu den Blur Studios zu kommen, war wesentlich schwieriger, als von Blur zu ILM. Ich hatte Glück, mich zum richtigen Zeitpunkt mit der richtigen Art von Arbeit auf dem Demoreel bei Blur zu bewerben. Ich war damals Generalist und genau solche suchte das Studio zu dem Zeitpunkt. Bei Blur konnte ich dann wieder die richtige Art von Arbeit für ein Demoreel zusammenstellen, mit dem ich bei ILM punkten konnte. Ich habe nie eine Schule für den CG- oder VFXBereich besucht, da es damals in England keine gab. Die Qualität der bei ILM eingereichten Demoreel-Arbeiten von Hochschulabsolventen steigt jährlich, da es immer bessere Kurse, Communitys und Tools an den Schulen gibt. Meine Demoreels, mit denen ich mich damals beworben hatte, würden mir heute weder einen Job bei Blur noch bei ILM einbringen.

DP: Welche Art Artist hat die besten Chancen, bei ILM angenommen zu werden?

Richard Bluff: Artists, die zum Vorstellungsgespräch kommen und denken, sie hätten den Job schon, stellt ILM nie ein. Denn das ist der Typ Artist, der seine eigene Arbeit nicht genügend hinterfragt, sodass er keine Qualität erreichen kann, die echt wirkt. Eher bekommen Leute mit wenig Selbstvertrauen die Jobs, denn meist sind das die talentiertesten Artists. Diesbezüglich sage ich eigentlich seit zehn Jahren dasselbe: Es ist irrelevant, ob ein Artist Modeler, Textur- oder Lighting-Artist, traditioneller Maler oder Fotograf ist – wichtig ist vor allem ein großartiges Auge. Und ILM stellt hinsichtlich dessen einfach die Besten ein, egal ob sie Generalisten oder Spezialisten sind. Die Generalisten machen bei ILM zwar nicht die Mehrheit aus, mit circa 90 Mann im Team ist es aber eine gesunde Mischung für die Firma.

Rodeo FX und 4DMax

Das kanadische Studio Rodeo FX kreierte bereits für vorherige Projekte wie „Now You See Me“ und „Enemy“ (siehe DP-Ausgabe 05/14) imposante CGAutounfälle. Für „Lucy“ fielen 73 VFX-Shots auf Verfolgungsszenen durch die Straßen von Paris an. Als Referenz dafür gab Luc Besson die legendäre Verfolgungsjagd aus dem Kultfilm „Blues Brothers“ vor. Die Scan-Experten von 4DMax erfassten für die Szene mit LIDAR-Scannern die Pariser Straßen vom Place de la Concorde bis zum Louvre, inklusive kleiner Details der Straßenoberfläche. Zunächst Rodeo FX und 4DMax sollte Rodeo FX nur diese Szenen realisieren, zu diesem Aufgabenbereich kamen jedoch im Laufe des Projekts noch Matte Paintings, Set Extensions, Wire Removals sowie die bunten CG-Lichtstreifen über der ganzen Stadt hinzu, die nur Lucy sehen kann. Insgesamt arbeiteten 60 Rodeo-Artists acht Monate lang an den Shots, plus einem Management- und Support-Team von 15 Leuten.

Wir sprachen mit François Dumoulin über Rodeos Pipeline für „Lucy“ und befragten Managing Director Louise Brand von 4DMax zur aufwendigen Scan-Arbeit in Paris.

DP: Verfolgungsjagden und Unfälle mit CG-Autos scheinen Rodeos Spezialgebiet zu sein. Warum werden Sie immer öfter mit solchen Jobs beauftragt?

François Dumoulin: Ursprünglich waren wir eher für unsere Matte Paintings und CG-Environments bekannt, aber inzwischen haben wir viel Erfahrung mit Hard Surfaces wie Autos, Flugzeugen und Helikoptern. Natürlich beauftragen Kunden einen gerne mit der gleichen Art von Arbeit, für die man bekannt ist. Da wir für die Integration von Hard Surfaces ja schon eine effiziente Pipeline entwickelt haben, ist das ein Vorteil für uns. Nick Brooks war auch bei „Now You See Me“ VFX-Supervisor und ihm gefiel unsere AutoArbeit für den Film, deshalb holte er uns auch für „Lucy“ an Bord.

DP: Wie lief der Previs-Prozess für „Lucy“ ab?

François Dumoulin: Durch unsere eigene Previs-Abteilung können wir schon während der Preproduktion in ein Projekt einsteigen. So lassen sich viele Probleme, die in der Postproduktion auftreten würden, bereits vorab lösen. Ein weiterer Vorteil der eigenen PrevisAbteilung ist, dass wir die Assets aus diesem Stadium später in der Postproduktion wiederverwenden können. Auch dass wir so schon die Choreografie der Verfolgungsjagd kannten und der Look von Luc Besson vor dem eigentlichen Produktionsbeginn abgesegnet war, sparte viel Zeit. Wir erhielten von der Produktion ein sehr detailliertes Storyboard sowie eine Karte der Location mit Anweisungen, wo der echte und der virtuelle Autounfall passieren würden. Mithilfe dieser Informationen und der extrahierten Daten von Google Maps baute unser Team eine Full-CG-Previs in Maya auf, die bis auf einen Dezimeter akkurat war.

DP: Wie haben Sie Google-Maps-Daten für die Previs genutzt?

François Dumoulin: Google Maps war praktisch, um für die Modelle der Straßen und Gebäude den richtigen Maßstab zu treffen. Wir kombinierten diese Daten mit Fotoreferenzen der Rue de Rivoli und erstellten eine exakte Repräsentation der Umgebung. So wussten wir, dass der CG-Peugeot exakt in die Umgebung passen würde, ohne je einen Fuß auf die Pariser Straßen gesetzt zu haben. Lead-PrevisArtist Alexandre Ménard erstellte Hunderte von Shots inklusive aller technischen Spezifikationen wie Geschwindigkeit, Entfernungen, Brennweite et cetera. Danach schickten wir jeden Take in kompletter Länge zu EuropaCorp (www.europacorp.com) und Lucs Editor schnitt die Previs, sodass die meisten Sequenzen schon gelocked waren, bevor der Dreh der Szenen überhaupt begonnen hatte.

DP: Konnten Sie die Google-Maps-Daten mit den Scan-Daten von 4DMax in irgendeiner Form kombinieren?

François Dumoulin: Nein, die Google-Daten haben wir nur für die Previs genutzt, die Scan-Daten wurden für die finalen Shots verwendet. Auch wenn die Google-Maps-Daten sehr präzise sind, waren die Daten für eine finale Animation und Integration nicht akkurat genug. Beide Datensets waren für verschiedenen Zwecke und unterschiedliche Produktionsstufen nützlich.

DP: Wie exakt waren die Scan-Daten, die 4DMax Ihnen lieferte?

François Dumoulin: 4DMax gab uns einen globalen LIDAR-Scan der kompletten Straßen und HighRes-Scans der unterschiedlichen Bereiche jeder einzelnen Straße. Der Detailgrad der Scans war so präzise, dass, als wir für unsere AutoAnimation ein Test-Federungs-Rig über die Bodengeometrie laufen ließen, dieses sofort Bodenkontakt hatte. Alle Produktionsstufen – vom ersten Rig-Simulation-Test bis zum Matchmoving des extrem schwierigen Shots sowie der Rückprojizierung der HDRIs und Texturen auf die Geometrie des LIDAR-Scans – profitierten von diesen exakten Daten.

DP: Wie gelang es 4DMax, so exakte Scan-Daten von einem so großen Gebiet in Paris zu liefern?

Louise Brand: Wichtig ist vor allem, dass man vorab genau weiß und plant, was man scannen will, und dass man bei Verdeckung durch Autos oder Menschen zusätzliche Scans von diesen Teilen macht. Ein weiterer Faktor ist das Wetter: Bei Regen erhält man keine sauberen Daten und lässt es besser ganz, wenn man nicht unbedingt scannen muss. Auch reflektierende Materialien sind ein Problem, Daten hinter einer Glasscheibe beispielsweise sind nicht brauchbar. Diese Daten muss man dann von einer anderen Position aus erfassen und man sollte sich hinsichtlich dieser Problematik vorab Gedanken bezüglich der richtigen Positionierung des Scanners machen. Gut ist auch eine offene Kommunikation mit dem VFX-Vendor, der im Anschluss die Daten bekommt – wie es bei Rodeo FX und dem Projekt „Lucy“ der Fall war.

DP: Welchen Scanner nutzen Sie?

Louise Brand: Wir verwenden den Leica LIDAR-Scanner (hds.leicageosystems.com/en/Leica-ScanStation-C10_79411.htm), der in der Lage ist, 50.000 Points pro Sekunde zu erfassen. Ich schaue mich regelmäßig auf dem Angebotsmarkt um und es gibt viele schnellere und auch billigere Modelle, aber der Leica-Scanner ist vom Preis-Leistungs-Verhältnis bisher die beste Alternative.

DP: Wie lief der Scan-Prozess in Paris im Detail ab?

Louise Brand: Der Leica LIDAR-Scanner ist ein statisches Modell, kann also nicht auf einem Auto montiert scannen. Deshalb trugen wir ihn zu Fuß durch die Pariser Straßen und es dauerte circa fünf Tage, bis wir alle benötigten Scans gesammelt hatten. Wir haben nur tagsüber und abends gescannt, außer eine Straße mit einem Markt, die wir nachts scannen mussten, weil zu anderen Tageszeiten zu viele Leute dort waren. Für den größten Job, den Scan der Rue de Rivoli, waren wir zeitweise zu dritt und hatten zwei Scan-Geräte gleichzeitig im Einsatz. Die anderen Scans haben wir zu zweit mit einem Gerät gemacht. Es ist praktisch, zu zweit zu sein, sodass einer sich permanent auf den Scanning-Prozess und die aufgenommenen Daten konzentrieren kann, während der andere das Gerät bedient. Wir mussten auch kein weiteres Equipment wie einen Laptop oder Ähnliches mitschleppen, die Hardware des Scanners schafft die Daten eines Tages komplett intern. Abends macht man dann ein Backup. Im Anschluss war für jedes einzelne Set noch ein Tag Nachbearbeitung nötig, bei der ich viel Zeit für das Entfernen des Rauschens aufgewendet und viele weitere Cleanups an den Daten gemacht habe.

DP: Mit welcher Software arbeiten Sie?

Louise Brand: Ich verwende Cyclone (www.leica-geosystems.de/ de/Leica-Cyclone_6515.htm) sowie Geomagic (www.geomagic.com). Wir lieferten an Rodeo allein für den Scan der Rue de Rivoli ungefähr 40 oder 50 OBJ-Dateien mit circa zehn Millionen Triangles und vielen High-Res-Texturen im Daten-Paket.

DP: Welche anderen Jobs macht 4DMax?

Louise Brand: Kürzlich haben wir zusammen mit Mikros Image (www.mikrosimage.eu) den neuen Dior-Werbespot mit Charlize Theron realisiert. Darüber hinaus haben wir „Maleficient“, „Iron Man 3“, „Dark Shadows“ und „John Carter“ gemacht. In der Vergangheit haben wir auch einige Scans von Tatorten gemacht; ich jage dieser Art von Jobs aber nicht bewusst nach, denn sie sind teilweise sehr unangenehm. Wir sind jetzt hauptsächlich für die FeatureFilm-Branche tätig. Aktuell arbeite ich an einer Neuverfilmung von „Tarzan und Jane“.

DP: Wie konnten Sie die unterschiedlichen Lichtverhältnisse während des Drehs der Szene managen?

François Dumoulin: Dies machte die Masse an HDRIs möglich, die der VFX-DP Robert Bock während des Drehs der Verfolgungsjagd aufgenommen hat. Während überall Autos herumflogen, rannte Robert über das Set und sammelte 360-Grad-HDRI-Stills für fast jeden Take und von jeder Position, in die wir CG-Autos integrieren würden. Wir korrelierten die Tageszeit der Aufnahmen mit den Kamera-Metadaten und stellten so sicher, dass wir das richtige HDRI für die Beleuchtung nutzten. Aber auch dies erwies sich als kritisch angesichts der Tatsache, dass sich die Lichtbedingungen von einer Aufnahme zur anderen teilweise sehr verändert hatten – von früher Morgensonne bis zum bewölkten Nachmittag war alles dabei. Dass wir letztlich die CG-Autos wesentlich näher an der Kamera platzierten sollten, als wir anfangs dachten, erschwerte den Lighting-Prozess umso mehr. Unter der Anleitung von CG-Supervisor Mikael Damant-Sirois suchte unser Lighting-Team die relevanten HDRI-Spheres heraus und projizierte sie auf die LIDAR-Geometrie. Da sowohl die Kamera als auch die Autos sich mit sehr schnellem Tempo durch das Set bewegten, mussten viele verschiedene HDRIs in einem einzelnen Shot verwendet werden, um die korrekte Beleuchtung und die richtigen Reflexionen zu erzeugen.

DP: Wie viele HDRIs waren insgesamt für die Szene nötig?

François Dumoulin: Insgesamt verwendeten wir ungefähr 80 HDRIs für alle Shots. In derfinalen Szene ist das Pariser Environment komplett echt, wir haben das CG-Environment nur erstellt, um die Reflexionen des Environments auf den Autos generieren zu können.

DP: Welche Anpassungen haben Sie an den HDRIs sonst noch vorgenommen?

François Dumoulin: In einigen Fällen haben wir die HDRIs farbkorrigiert und gepaintet, damit sie besser zur Original-Plate passten. Auch die Position der Sonne mussten wir in allen Shots genau anpassen. In einigen Situationen, wie beispielsweise den Tunnelszenen, in denen sich die Lichtumstände schnell drastisch veränderten, waren die HDRIs nicht präzise genug, deshalb setzten wir Place Light Sources manuell in den CG-Raum. Der Position Pass in Arnold ermöglichte es uns, spezifische Bereiche der einzelnen Objekte in der Szene herauszupicken und dort 2D-Elemente anzubringen, um beispielsweise Reflexionen zu verändern, Dreck hinzuzufügen oder die Autofarbe zu modifizieren. Zusätzlich zu den CG-Elementen organisierten wir noch einen Dreh in unserem Rodeo-Studio und filmten dort Dreck und Rauch sowie einige der Compositing-Artists – inklusive mich selbst!

DP: Wie war das Unfall-Rig des CG-Autos aufgebaut?

François Dumoulin: Dafür entwickelten wir ein Deformation-Rig, welches das Mesh in Abhängigkeit vom Aufschlagspunkt, der Geschwindigkeit und dem Winkel verformte. Als wir den Aufprall korrekt darstellen konnten, verfeinerten wir diese Deformation-Basis durch Details: Wir modellierten bestimmte Innenteile, die beim Unfall sichtbar werden würden, zerbrachen einzelne Bereiche und fügten weitere Animationen hinzu. Houdini-Simulationen in Form von Schmutz, Dunst, Rauch und vielem mehr setzten wir obendrauf. Alle diese Elemente wurden von den Lighting-Artists vorgecompt, danach übergaben sie die Szenen den Compositing-Artists.

DP: Wie haben Sie die Röntgenstrahlen-Vision von Lucy kreiert?

François Dumoulin: Das Schwierigste an der Szene war, dass wir die bunten Strahlen komplett in der Postproduktion hinzufügen mussten. Neben den Haupt-Plates filmte die Produktion keinerlei spezifische Elemente, wir hatten nur einige zusätzliche Sprite-Elemente, die Nick Brooks für uns nach dem Dreh aufnahm. Also mussten wir sehr kreativ sein hinsichtlich eines neuen Konzepts und einfallsreich, weil wir Elemente nutzen mussten, die schon verfügbar waren oder die wir schnell selbst generieren konnten. Unsere Grundidee war eine Kombination aus Röntgenstrahlen und Thermalbildern, um zu verdeutlichen, dass Lucy beginnt, das Unsichtbare zu sehen. Da Lucy kein Cyborg ist, sollte es zu jedem Zeitpunkt organisch aussehen, gleichzeitig aber doch etwas abstrakt.

DP: Wie lief der Prozess dann weiter ab?

François Dumoulin: Wir haben die Live-Action-Plate in Depth Layers aufgeteilt, ähnlich wie wir es für eine Stereo-3D-Konvertierung machen. Als wir dann eine Anordnung der verschiedenen Tiefenebenen hatten, ersetzten wir die Extras der Plate durch einige Greenscreen-Sprites in einem gleichen Prozess. Wir erstellten das Set neu, indem wir einfache Geometrien mit Projektionen verwendeten und den unsichtbaren Bereich – ein Krankhaus mit Korridoren und Untersuchungsraum – neu mit Softimage erfanden. Dafür verwendeten wir das Modell und den LIDAR-Scan der aktuellen Location. Wir schickten eine grobe Zusammenstellung dieser Elemente an Luc und Nick, und nachdem das Timing gelocked war, kreierten wir ein 3D-Roto der Sprites, um das Rendering vom statischen in einen Röntgenstrahlen-Look zu verändern. Wir renderten Passes der Set Extension sowie der CG-Charaktere mit verschiedener Shadern heraus. Danach setzte unser Compositor Xavier Fourmond alles in Flame zusammen. Der flüssige und organische Look entstand überwiegend durch Animation Loops, die wir in Houdini und Trapcode Particular generierten.

DP: Gab es Schnittpunkte mit ILMs Pipeline?

François Dumoulin: Es gibt nur eine Sequenz, bei der wir Elemente geteilt haben. Lucy verbindet sich in einer Szene mit dem Gehirn eines Bösewichts und beobachtet das Geschehen von oben. ILM war für diese Szene verantwortlich, welche sich in einem Environment von uns – einem digitalen Matte Painting von Taipeh – abspielte. Deshalb lieferten wir ILM dafür ein Pre-Comp unseres Matte Painting und das Projection-Setup in Nuke.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.