Im freien Fall – Making-of „On Your Way“

Was genau ist das Leben? Gibt es vielleicht doch etwas nach dem Tod? Diese großen Fragen der Menschheit inspirierten Thomas Salis Kurzfilm „On Your Way“. Wir sprachen mit dem Regisseur, der seinen Abschluss an der Filmakademie machte, über das VFX-Filmprojekt. In „On Your Way“ erwacht ein Mann aus einer Ohnmacht und befindet sich im freien Fall, um ihn herum nur Flugzeugtrümmerteile. An diese klammert er sich zunächst panisch, bis er eine weitere fallende Person, eine ohnmächtige Frau, entdeckt. Er weckt sie auf, beruhigt sie und gemeinsam beginnen sie, aus den Trümmerteilen eine Rakete zu bauen, in die aber leider nur eine Person passt
Dadurch, dass nur die Totalen Full-CG-Shots waren, hielt sich wenigstens der Renderaufwand der aufwendigen Matte Paintings in Grenzen. Alle Fotos für die Wolken entstanden auf Maui, Hawaii – auf demselben Vulkan, wo auch das Footage für den Film „Oblivion“ gedreht wurde.
Dadurch, dass nur die Totalen Full-CG-Shots waren, hielt sich wenigstens der Renderaufwand der aufwendigen Matte Paintings in Grenzen. Alle Fotos für die Wolken entstanden auf Maui, Hawaii – auf demselben Vulkan, wo auch das Footage für den Film „Oblivion“ gedreht wurde.

Der Sturz des Protagonisten Richtung Boden ist eine Metapher für den Fatalismus des Lebens: Wir werden geboren, kommen zu Sinnen, bewegen uns durch das Leben und sterben unweigerlich. Das Thema „Leben und Tod“ begleitet Thomas Sali schon seit seiner Kindheit, nachdem seine Mutter bei einem Autounfall ums Leben kam: „Nach dem Tod meiner Mutter hatte ich mir eine eigene Theorie von Sein und Existenz zurechtgelegt, weil ich mir als Kind nicht vorstellen konnte, dass ein Mensch verschwindet. Auch heute noch ist der Gedanke, irgendwann nicht mehr da zu sein, zu sperrig für meinen Kopf. Meiner Auffassung nach manifestiert sich Existenz nicht nur über greifbare und sichtbare Objekte, sondern auch über Ideen, Gedanken und Taten, die wir jeden Tag hinterlassen und die Menschen und Dinge verändern und beeinflussen. Zwei Jahre vor der Fertigstellung des Filmprojekts hatte ich eine erste, noch sehr rudimentäre Idee zu ‚On Your Way‘ und suchte nach Konzepten, die meine Auffassung von Leben und Tod visualisieren.“
Die Trümmerteile stehen im Szenario für Gedanken, Ideen, Erinnerungen und das Wissen, welches Menschen im Laufe des Lebens erlangen. „Damit schaffen wir uns unsere eigene Realität. Das ist unsere Persönlichkeit. Dafür steht im Film die Rakete“, so Thomas.

Teamfindung & Planung

Als Thomas seine Idee in den Weeklies am Animationsinstitut vorstellte, stießen die Kommilitonen Philipp Mekus und Marcel Ruegenberg zu dem Projekt hinzu. Philipp übernahm die Rolle des VFX-Supervisors und Marcel die des Technical Directors. Mit Eric Sonnenburg, der Ende des Jahres als Produzent hinzukam, war das Kernteam komplett. Da „On Your Way“ ein Live-Action-Film ist, wuchs das Team bis zum Dreh im Juli 2016 immer weiter an. Bis zum Abschluss des Films waren in allen Departments circa 70 Leute an dem Projekt beteiligt, das Kernteam arbeitete kontinuierlich circa anderthalb Jahre lang an dem Projekt.
Um den Produktionsplan halten zu können, arbeitete das Team für eine gute Organisation mit verschiedenen Produktionsplänen für Preproduktion und Dreh, einem detaillierten Shotbreakdown, der nach dem Edit des Film erstellt wurde, und einem darauf basierenden Produktionsplan für die Postproduktion. Hier notierte das Team, welche Assets gebaut und welche Aufgaben in den Einzel-Shots erledigt werden mussten sowie welcher Artist sie übernehmen würde – natürlich mit einer zeitlichen Planung für jeden Task.

Da das Ani­matic mit statischen Bildern zu schwer verständlich war, baute Thomas alle Bilder des Storyboards in Cinema 4D nach.
Da das Ani­matic mit statischen Bildern zu schwer verständlich war, baute Thomas alle Bilder des Storyboards in Cinema 4D nach.

Der Produktionsplan wurde anfangs wöchentlich und später in kleineren Abständen aktualisiert. Durch den Shotbreakdown konnten schnell Zeitfresser-Aufgaben entlarvt und realistisch geplant werden:
„So haben wir alle Shots bis zum Ende ohne drohenden Burn-out durchgebracht. Das ist mir wichtig zu sagen, denn auch wenn es für mich das Tollste auf der Welt ist, einen eigenen Film zu machen, sollte dies keinesfalls um jeden Preis geschehen“, so Thomas.

Gute Vorbereitung ist die halbe Miete

Um die erste Idee so roh und ungefiltert wie möglich zu halten und wenig Zeit zu verlieren, bündelte Thomas sie anfangs nur anhand einiger Bilder: Er erstellte eine Mappe mit Mood-Bildern und einem Mood-Film, der aus Internet-Footage bestand. Dabei ging es nicht um eine visuell gute Qualität, sondern lediglich um das Konservieren des ersten Gedankens. „Das war ein sehr hilfreiches Tool, mit dem sich im fortgeschrittenen Produktionsstadium prüfen ließ, ob ich mich zu sehr von der ursprünglichen Idee entferne“, erinnert sich Thomas.
Im Anschluss fertigte der Artist Photo­shop- und präziser ausgearbeitete 3D-Concepts an. Während Thomas sich mit der Kreation des Storyboards beschäftigte, erstellten Philipp und Kiana Naghshineh kontinuierlich weitere Concepts: „Die Storyboard-Bilder entstanden ganz klassisch mit Papier und Stift, damit ich roh an der filmischen Auflösung arbeiten konnte und keine Hemmung hatte, unpassende Bilder einfach durch neue zu ersetzten. Mir war wichtig, dass in dieser Phase der Produktion die Geschichte im Vordergrund stand und keine Eitelkeiten hinsichtlich der Storyboardzeichnungen entstehen sollten, in die man sich als Gestalter zu schnell verliebt und sich dann nur noch schwer von ihnen lösen kann.“ Das Story­board bot die Grundlage für das erste Animatic mit statischen Bildern.

Allerdings stellte sich heraus, dass das Animatic auf diese Art schwer verständlich war, woraufhin Thomas alle Storyboard-Bilder in Cinema 4D nachbaute und animierte. Vor allem im Hinblick darauf, dass das Team kontinuierlich wachsen und das Animatic die Grundlage für die Arbeit aller Beteiligten sein würde, sollte es so präzise wie möglich sein, damit es alle richtig deuten konnten. „Ich bin normalerweise kein C4D-Nutzer. Aber der Toon Shader ist ein perfektes Mittel, um das Ani­matic einerseits visuell roh und andererseits wie aus einem Guss wirken zu lassen, was für die Verständlichkeit entscheidend war. In 3D fiel es mir sehr viel leichter als in einer 2D-Zeichnung, die wichtigsten Dinge nachvollziehbar zu gestalten. Ein entscheidendes Tool für das Animatic war darüber hinaus, in 3D mit Lichtern arbeiten zu können. Dadurch, dass es im Film so gut wie keine festen räumlichen Referenzpunkte gibt – schließlich befinden sich die Protagonisten im freien Fall – war das Sonnenlicht die einzige Konstante, die bei der räumlichen Orientierung half“, erklärt der Regisseur.

Zwei Monate lang verfeinerte Thomas das Animatic, in der Endphase half dabei Kameramann Martin L. Ludwig. Währenddessen nutzte Philipp das Animatic als Grundlage für die Tech-Viz, mit welcher der Dreh im Studio vorausgeplant wurde, was sich sehr bewährte. „So konnten Probleme gelöst werden, bevor sie überhaupt entstanden“, lacht Thomas. „Dinge wie Wire-Rig-Systeme, Aufbauten für das Szenenbild, der Einsatz von Bluescreen oder die Rückprojektion – all dies plante Philipp voraus, sodass wir uns ab dem ersten Drehtag auf die Aufgaben am Set konzentrieren konnten.“

Dreh mit Ncam und Rückprojektion

Da eine der größten Challenges des Projekts die hohe Shot-Anzahl war – rund 60 Shots bei einer Filmlänge von rund 6 Minuten zusammen – wollte das Team so viel wie möglich in die Vorproduktion und den Dreh verlagern, um die Postproduktion zu entlasten. „Das erreichten wir, indem wir ein Drittel der Shots vor einer interaktiven Rückprojektion drehten. Dafür produzierten wir vor dem Dreh Matte Paintings, die wir in Unity importierten und auf Geometrie projizierten. Beim Dreh selber stand uns das Echtzeit-AR-System Ncam zur Verfügung, das live die Position der Kamera an Unity übermittelte und den Projektionsinhalt immer so verschob, dass er sich der Blickrichtung der Kamera anpasste. Mit dieser Technik wirkte es, als würde die Kamera nicht auf eine Leinwand, sondern durch ein Fenster schauen – so wirkte der Hintergrund durch die Kamera, als wäre er kilometerweit entfernt. Das funktionierte die meiste Zeit erstaunlich gut – nur dann nicht, wenn sich zu viele bewegliche Objekte vor der Ncam befanden und die sie nicht mehr zuverlässig tracken konnte. In diesen Fällen mussten wir händisch nachhelfen“, so Thomas. „Dennoch war es mit der Methode möglich, dass sehr viele typische Bluescreen-Shots nicht mehr oder nur noch geringfügig in der Postproduktion bearbeitet werden mussten, was enorm viel Zeit gespart hat.“
Die Idee, mit Ncam und der Rückprojektion zu drehen, rief bei Pitches während der Preproduktion am meisten Skepsis hervor. „In der Retrospektive war es die einzige Lösung, um den Film überhaupt in der Länge umsetzen zu können“, ist Thomas sicher.

Digidoubles und Raketenteile

Für einige Full-CG-Totalen wurden Digidoubles benötigt, diese erstellte das Team über Scanning mit Agisoft. Die Raketenteile entstanden ebenfalls mit Photogrammetrie. Für den Dreh baute Szenenbildnerin Leonie Lieberherr vier große Seitenteile und das Innere der Rakete. Marcel scannte sie, außerdem dienten sie als Referenzmodelle für die noch fehlenden Raketenteile, die in Maya gemodelt und in Mari texturiert wurden. Diese Aufgabe war eine der kompliziertesten, weil Thomas zu Beginn noch keine genaue Vorstellung vom Triebwerk hatte: „Deshalb habe ich die Concept-Phase und das Modeling für dieses Asset zusammengelegt und direkt in 3D getestet, ob das Triebwerk zum Rest passt“, so Thomas.

Concept Art der Rakete
Concept Art der Rakete

Als Texturen kamen Fotos aus der Photogrammetrie-Fotokabine zum Einsatz, da die Photoscan-Texturen nicht detailliert genug waren. Die meisten Texturen lagen in 4K-Auflösung vor, was völlig ausreichte, weil die Charaktere und Objekte in sich nochmals unterteilt waren und Full-CG-Shots nur für Totalen verwendet wurden. Nur der Innenraum des Raketen-Triebwerks war in 8K aufgelöst, weil er für einen Close-up-Shot verwendet wurde. Durch den exakt geplanten Animatic, der am Ende eher einer Previz glich, wusste das Team genau, welche Assets aus der Nähe zu sehen sein würden, was in der Postproduktion viel Zeit sparte. Nicht nur weil die Daten kleiner blieben, sondern auch weil viele Texturdetails exponentiell mehr Liebe und Zeit benötigen.

Sturz zum Boden animieren

„Um ein wirkliches Gefühl für das Fallen zu bekommen, muss man wohl wirklich fallen – da führt kein Weg dran vorbei. Deshalb haben wir kurz vor Drehbeginn mit den Darstellern einen Fallschirmsprung gemacht. Philipp und Martin waren mutig genug, mitzuspringen. Für mich kam das nicht in Frage“, sagt Thomas. „Dadurch hatten wir gute Referenzvideos von fallenden Personen, die wir für die Animation nutzen konnten.“ Darüber hinaus studierte das Team viele weitere Fallschirmsprung­videos und Thomas und Philipp diskutierten und analysierten mit den Animatoren Detail um Detail, bis alle mit der Animation zufrieden waren. Von der Fallbewegung gab es unterschiedliche Darstellungen: Mal bewegte sich die Kamera in der gleichen Geschwindigkeit mit den Personen mit, dann ist kaum Bewegung sichtbar beziehungsweise nur an der simulierten Kleidung. Dann gibt es Shots, in denen die Kamera fest an einem Punkt stehen bleibt und nur die Charaktere sich bewegen. Dadurch wirkt das Fallen extrem schnell, was für die Darstellung der Panik genutzt wurde.

Damit die Schauspieler sich glaubhaft in den freien Fall einfühlen konnten, machte das Team vor dem Dreh mit ihnen einen Fallschirmsprung.
Damit die Schauspieler sich glaubhaft in den freien Fall einfühlen konnten, machte das Team vor dem Dreh mit ihnen einen Fallschirmsprung.

Da die Digidoubles nur in den Totalen zu sehen waren, benötigten sie keine feinen Rigs: Sie bestanden aus einem simplen, auf den Körper fokussierten Biped-Rig. Nur die Finger waren Details, die animiert werden mussten, weil sie zupacken können mussten.

Allzweckwaffe Houdini

Die Simulation der Digidouble-Haare und -Kleider, alle Trümmerteile und teilweise auch die Wolken entstanden mit Houdini: „Da die meisten Simulationsaufgaben auf fertige Animationen angewendet wurden, die wir per Alembic-Cache in Houdini importierten, machte es Sinn, die Finalisierung ebenfalls in Houdini vorzunehmen. Marcel vereinfachte die Shading- und Renderingprozesse durch eigens entwickelte Scripts so, dass auch Artists, die Houdini noch nicht kannten, nach einer kurzen Einarbeitungsphase damit arbeiten konnten“, erläutert Thomas.

Shading, Lighting & Compositing

Arnold war für das Rendering die Engine der Wahl. Ein wichtiger Grund darüber hinaus war der Einsatz der al-Shader von Anders Langland, was vor allem interessant war, weil Psyop kurz vorher Cryptomatte veröffentlicht hatte, welches den Compositing-Prozess enorm unterstützte.
Der Lighting-Prozess lief unproblematisch, da es nur ein Hauptlicht, die Sonne, gab. Mit einem klassischen HDR nahm das Team die Grundaufhellung vor, ein Directional Light sorgte für das Sonnenlicht. Da die Studenten die gut ausgestattete Renderfarm der Filmakademie nutzen konnten, musste das Team sich über Renderzeiten nicht den Kopf zerbrechen. Weitere Gründe waren die 2K-Auflösung sowie die Wolken, die hauptsächlich mit Matte Paintings entstanden und deshalb beim Rendern kaum ins Gewicht fielen. Der aufwendigste Shot war die Schlusstotale, in der die Rakete zerfällt.
Das Compositing lief mit Nuke, weil Thomas und Philipp damit viel Erfahrung besitzen: „Mit Nuke Studio hatten wir zudem die Möglichkeit, alle Comps in den Edit zurückzuführen, was toll ist, weil sich alle Shots im Kontext betrachten lassen. Man sieht sozusagen wieder den Wald und nicht nur den einzelnen Baum, was wichtig für Philipp als VFX-Supervisor und für mich als Regisseur war, um Entscheidungen treffen zu können.“ Die größte Herausforderung im Compositing war, die Rückprojektions-, Bluescreen- sowie die Full-CG-Shots qualitativ auf das gleiche Level zu heben, damit das Gesamtwerk konsistent wirkte und zwischen den Hintergründen kein qualitativer Unterschied bestand.
Philipp achtete zudem darauf, dass der Filmlook technisch konsistent blieb. Dafür schrieb er Tools, die allen Artists die gleichen Effekte zu Verfügung stellten – z.B. Nuke-Gizmos, die die Kamerafilter simulierten, die für Incamera-Shots verwendet wurden. So konnten alle Full-CG-Shots optimal an die gedrehten Shots angeglichen werden. Trotz der guten Drehvorbereitung mussten natürlich auch noch Shots ausgebessert oder teilweise neu beleuchtet werden, damit sie in den Schnitt passten.
Eine große Herausforderung war außerdem die Interaktion der Darsteller mit CG-Elementen – eine Aufgabe, der sich Thomas zugunsten des Storytellings dennoch gerne stellte: „Wir versuchten, diese Fälle wenn möglich zu vermeiden. Aber ein Trümmerteil, das der Protagonist auffing, war so verwurzelt in der Story, dass es unvermeidbar war, diese Szenen nicht zu zeigen.“

Auftakt mit Hörspiel

„Relativ am Anfang der Konzeptphase hatte ich die Idee, das Publikum die erste Filmminute in kompletter Dunkelheit im Kinosaal sitzen zu lassen. Darauf kam ich, weil ich von einem Orchester-Stück gehört hatte, bei dem die Musiker zu Beginn mehrere Minuten lang nicht spielen, sondern einfach nur ruhig dasitzen und alle Geräusche, die währenddessen entstehen, das Stück bilden. Durch die anfängliche Dunkelheit wird dem Zuschauer genommen, was er im Kino erwartet: nämlich Bilder auf einer Leinwand. Das Publikum sollte wie der Protagonist in der Dunkelheit gefangen sein. Kein Bild nur unfassbar lauter Ton.

Durch den Dreh mit der Ncam und Matte-Painting-Rückprojektionen ließ sich viel Postproduktionszeit sparen.
Durch den Dreh mit der Ncam und Matte-Painting-Rückprojektionen ließ sich viel Postproduktionszeit sparen.

Im besten Fall ist das Publikum irritiert, um dann schließlich mit dem ersten Bild mit dem Protagonisten gemeinsam aus der Ohnmacht aufzuwachen. Deshalb entschied ich, den Film nur mit Hörspiel ohne Bild zu eröffnen – auch auf die Gefahr hin, das Publikum zu verwirren. Ich sehe es als eine Art Experiment“, erklärt Thomas.

Um eine Filmwelt zu schaffen, die den Zuschauer komplett vereinnahmt, beschloss das Team, mit Dolby Atmos zu arbeiten. So ließ sich Räumlichkeit mit Ton erzeugen.
Volker Armbruster, der das Sound Design und die finale Mischung für den Film realisierte, baute extra für die Windaufnahmen ein Mikrofon-Rig. Diese Aufnahmen wurden dann so lange mit prozeduralen Windgeräuschen gemischt, bis der richtige Sound gefunden war. Dolby Atmos machte es möglich, ganz verschiedene Soundperspektiven zu erzählen: Mit einem Spektrum, das von extrem lautem und sehr direktem Windrauschen bis hin zu sehr feinen, weit entfernten Windgeräuschen reichte.

Erfahrung gesammelt

Gelernt hat Thomas Sali bei dem Projekt vor allem, dass man als Regisseur Aufgaben und Verantwortungen abgeben muss: „Das war für mich die größte Erkenntnis des Projekts. Regisseur, Art Director und VFX-Artist gleichzeitig zu sein, macht zwar sehr viel Spaß, ist aber schwierig zu koordinieren. Schwierig deshalb, weil ein Regisseur das Gesamtkonzept im Auge behalten muss und gleichzeitig nicht tagelang in technischen Details herumwühlen kann. Ich denke heute, dass man als Regisseur Abstand zur Umsetzung braucht. Nicht, weil ich diese Prozesse nicht genug wertschätze, im Gegenteil, sondern weil man den Film mehr aus der Sicht des Zuschauers betrachten kann.“
Auch ein paar technische Dinge würde Thomas heute anders angehen, beispielsweise den Ncam-Einsatz: „Wir haben vorab zwar Tests mit der Ncam gemacht, allerdings nie mit so vielen Personen und sich bewegenden Objekten. Deshalb konnten wir nicht immer mit der Ncam drehen, weil sie nicht mehr solide getrackt hat. Ich werde die Technologie dennoch für weitere Projekte in Betracht ziehen, würde aber die Stresstests extremer ausführen.“ Insgesamt betrachtet ist Thomas aber sehr zufrieden mit dem Verlauf und dem Endergebnis: „Alle Produktionsprozesse bauten gut aufeinander auf, was daher kam, dass die meisten Teammitglieder bereits bei Filmproduktionen der Filmakademie mitgearbeitet hatten und unsere Vorbereitung sehr akribisch war.“

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.