Ballerina: CGI-Fantasie mit C4D, Character Creator und iClone

Hinter jeder Ballet-Aufführung stehen ... Character Creator, iClone und Cinema 4D?
Advertorial |

Das Projekt „Ballerina“ ist eine 30-sekündige CG-Animation, Kay John Yims erstes persönliches Projekt mit einem animierten fotorealistischen CG-Charakter, der in einer großen barocken Rundhalle inszeniert wurde. Der Charakter der Ballerina wurde hauptsächlich mit Character Creator erstellt, in iClone animiert und mit Redshift und Cinema4D gerendert.

 

Kay John Yim ist Architekt bei Spink Partners mit Sitz in London. Er hat an einer Vielzahl von Projekten im Vereinigten Königreich, in Hongkong, Saudi-Arabien und Katar gearbeitet, unter anderem in den Bereichen Immobilienentwicklung und Landschaftsgestaltung. Seine Arbeiten wurden auf Maxon, Artstation, CG Record und 80.LV veröffentlicht.

Yims wachsende Leidenschaft für die Gestaltung von Architektur mit Hilfe von Technologie veranlasste ihn nach und nach, als CGI-Künstler tätig zu werden und visuelle Darstellungen zu entwickeln, die nicht nur als Kundenpräsentation, sondern auch als Kommunikationsmittel für das Design- und Bauteam dienen. Seit dem COVID-Lockdown 2021 besuchte er Kurse im Bereich CG und hat seitdem mehr als ein Dutzend CG-Wettbewerbe gewonnen.

Dieser Making-of-Tutorial-Artikel ist eine Kurzfassung von „Ballerina: A CGI Fantasy“, geschrieben von Kay John Yim. Die ausführliche Version finden Sie im Fox Renderfarm News Center.

Das Making von Ballerina

Die Animation ist eine Darstellung meiner inneren Konflikte, die ich bei allen künstlerischen Aktivitäten habe, sowohl metaphorisch als auch wörtlich. Ballett, eine Kunstform, die bekanntlich strenge Schönheitsstandards hat und sehr anfällig für öffentliche Kritik und Selbstkritik ist, ist die Metapher für meine tägliche berufliche und künstlerische Praxis. Als Architektin arbeite ich tagsüber an architektonischen Visualisierungen, bei denen jedes Detail von meinen Kollegen, leitenden Architekten und Bauherren unter die Lupe genommen wird. Als Künstlerin arbeite ich nachts an meinen eigenen CG-Projekten, bei denen ich Hunderte bis Tausende von Wiederholungen durchführe, um die perfekte Komposition und Farbgestaltung zu finden. Ganz gleich, wie sehr ich mich in meinen beruflichen und künstlerischen Fähigkeiten weiterentwickle, der innere Kampf verschwindet nie.

Durch monatelanges Ausprobieren habe ich inzwischen viel über effiziente Charakteranimation und Rendering gelernt. Dieser Artikel ist ein Leitfaden für alle Indie-Künstler wie mich, die ihre CG-Kunst weiterentwickeln wollen.

Der Leitfaden ist in 4 Hauptteile unterteilt:
● Die Architektur
● Der Charakter
● Die Animation
● Das Rendering

Ich habe unter anderem folgende Software verwendet:
● Rhino
● Moment of Inspiration 4 (MOI)
● Cinema4D (C4D)
● Redshift (RS)
Character Creator (CC)
iClone
● ZBrush & ZWrap
● XNormal
● Marvelous Designer 11 (MD)
● Houdini

1. Die Architektur

Meine Haupt-Software für die Architekturmodellierung ist Rhino. Es gibt viele verschiedene Möglichkeiten, die Architekturmodellierung anzugehen. Der Hauptvorteil von Rhino gegenüber einigen anderen populären DCCs wie Cinema4D (C4D) oder Houdini ist die Möglichkeit, sehr detaillierte Kurven in großen Mengen zu bearbeiten.

Als Architekt begann jedes Modell, das ich baute, immer mit einer Kurve, normalerweise in Form eines Wandabschnitts, eines Gesimses oder eines Sockelabschnitts, der entlang einer anderen Kurve eines Plans gezeichnet wurde. Die Befehlsliste von Rhino mag auf den ersten Blick überwältigend erscheinen, aber ich habe fast ausschließlich ein Dutzend dieser Befehle verwendet, um Kurven in 3D-Geometrie zu verwandeln:

● Rebuild
● Trim
● Blend
● Sweep
● Extrude
● Sweep 2 Rails
● Flow Along Surface
● Surface from Network of Curves

Der Schlüssel zum architektonischen Modellieren ist die Verwendung von Referenzen, wo immer dies möglich ist. Ich habe PureRef immer in der rechten unteren Ecke meines Bildschirms geöffnet, um sicherzustellen, dass ich in den richtigen Proportionen und im richtigen Maßstab modelliere. Dazu gehören in der Regel aktuelle Fotos und Architekturzeichnungen.

PureRef-Board für das Projekt
PureRef-Board für das Projekt

Für dieses spezielle Projekt habe ich das Jagdzimmer der Amalienburg in München als primäre Referenz für die Architektur verwendet.

Die Rhino-Modellierung beginnt immer mit Kurven
Die Rhino-Modellierung beginnt immer mit Kurven.

Die Architektur bestand zwar aus drei Teilen – der Rotunde, dem Flur und der Stirnwand -, aber im Grunde handelte es sich um das gleiche Modul. Daher habe ich zunächst ein Wandmodul modelliert, das aus einem Spiegel und einem Fenster bestand, dupliziert und entlang eines Kreises gebogen, um die Wände der Rotunde zu erhalten.

Wandmodul dupliziert und entlang einer Kurve gebogen
Wandmodul dupliziert und entlang einer Kurve gebogen

Das Modul wurde sowohl für den Flur als auch für die Stirnwand wiederverwendet, um Zeit und (Rendering-)Speicher zu sparen. Da ich im Laufe des letzten Jahres eine Bibliothek von Architekturprofilen und Ornamenten aufgebaut hatte, konnte ich Profile und Ornamente für die Modellierung der Architektur wiederverwenden und recyceln.

Die Modellierung von Ornamenten kann eine schwierige Aufgabe sein, aber mit ein paar modellierten Ornamenten habe ich diese einfach dupliziert und geometrisch neu arrangiert, um einzigartige Formen zu erhalten.

Alle Objekte innerhalb von Rhino wurden dann anhand des Materials verschiedenen Ebenen zugewiesen; dies erleichterte die Materialzuweisung später in C4D erheblich.



Hinweis: Der beste Weg, sich mit der Rhino-Navigation vertraut zu machen, ist die Modellierung kleiner Objekte. Simply Rhino bietet eine großartige Einsteigerserie für die Modellierung einer Teekanne in Rhino: Für alle, die nicht weiter wissen, gibt es vorgefertigte Ornamente, die in 3D-Modell-Shops wie Textures.com gekauft werden können; einige Hersteller von Ornamenten bieten kostenlose Modelle zum Download auf Sketchfab und 3dsky an.

Exportieren von Rhino nach C4D

Rhino ist in erster Linie eine NURBS-Software (Non-Uniform Rational B-Splines); und obwohl NURBS-Modelle bei der Darstellung von Kurven- und Oberflächendaten sehr genau sind, unterstützen die meisten Render-Engines oder DCCs NURBS nicht.

Aus diesem Grund habe ich die NURBS und MESHES in .3dm bzw. .FBX exportiert und Moment of Inspiration (MOI) verwendet, um das NURBS-Modell in ein Mesh zu konvertieren.

MOI bietet die beste Konvertierung von NURBS in Quad-Mesh (im Vergleich zu Rhino oder anderen DCCs) – es liefert immer ein einwandfreies Mesh, das dann leicht bearbeitet oder für das Rendern mit UV-Maps versehen werden kann.

Exportieren aus MOI

Importieren in C4D

Das Importieren der FBX-Datei in C4D war relativ einfach, aber es gab ein paar Dinge, auf die ich geachtet habe, insbesondere die Importeinstellungen, die Modellausrichtung und die Dateieinheit, die im Folgenden in der Reihenfolge der Ausführung aufgeführt sind:
1. Öffnen Sie ein neues Projekt in C4D (Projekteinheit in cm);
2. Merge FBX (FBX zusammenführen);
3. Markieren Sie „Geometrie“ und „Material“ im Merge-Panel;
4. Ändern Sie die Ausrichtung der importierten Geometrie (P) um -90 Grad in der Y-Achse;
5. Verwenden Sie das Skript „AT Group All Materials“, um Rhino-Materialien automatisch in verschiedene Gruppen zu organisieren.

Importieren von FBX, das aus MOI exportiert wurde
Importieren von FBX, das aus MOI exportiert wurde

 

Importieren von FBX, das direkt aus Rhino exportiert wurde
Importieren von FBX, das direkt aus Rhino exportiert wurde

Ich habe die Hälfte der Architektur in Rhino modelliert und sie dann als Instanz in C4D gespiegelt, da alles symmetrisch ist.

C4D-Instanz und Spiegelung
C4D-Instanz und Spiegelung

Der Fußboden (Versailles-Parkettfliesen) wurde mit der Fototexturierungsmethode modelliert, die vor allem vom CG-Künstler Ian Hubert propagiert wird. Ich übernahm ein Foto der Versailles-Parkettfliesen als Textur auf einer Ebene und zerschnitt die Ebene dann mit einem „Messer“-Tool, um die Variationen der Reflexionsrauhigkeit entlang der Fliesenfugen zu erhalten. So konnte ich mit Curvature in Redshift subtile Farb- und Schmutzvariationen hinzufügen.

Die Bodenfliese wurde dann unter einen Cloner gelegt, um sie zu duplizieren und über den gesamten Boden zu spannen.

Klonen von Bodenfliesen
Klonen von Bodenfliesen

Hinweis: C4D und Rhino verwenden unterschiedliche Y- und Z-Ausrichtungen, daher muss das FBX, das direkt aus Rhino exportiert wird, in C4D gedreht werden.

Architektonisches Shading (Cinema4D + Redshift)

Da ich alle Meshes im Voraus nach Materialien gruppiert habe, war das Zuweisen von Materialien genauso einfach wie das Ziehen und Ablegen auf die Materialgruppen als kubische Maps oder Tri-planare Maps. Ich habe Textures.com, das EMC-Materialpaket von Greyscalegorilla und Quixel Megascans als Basismaterialien für alle meine Shader verwendet.

Damit ACES in Redshift korrekt funktioniert, muss jede Textur im RS Texture Node manuell dem richtigen Farbraum zugewiesen werden; im Allgemeinen gehören Diffus-/Albedo-Maps zu „sRGB“ und der Rest (Rauheit, Verschiebung, Normal-Maps) zu „Raw“. Meine Architektur-Shader waren meist eine 50/50-Mischung aus Fototextur und „Schmutz“-Textur, um einen zusätzlichen Hauch von Realismus zu erzeugen.

2. Der Charakter

Der zugrunde liegende Charakter wurde in Character Creator 3 (CC3) mit den Plugins Ultimate Morphs und SkinGen erstellt, die beide sehr benutzerfreundlich sind und selbsterklärende Parameter bieten.

Ultimate Morphs bot präzise Schieberegler für jeden Knochen und jede Muskelgröße des Charakters, während SkinGen eine breite Palette von Voreinstellungen für Hautfarbe, Hauttextur und Make-up bot. Ich habe auch den Hair Builder von CC3 verwendet, um ein Game-fähiges Hair Mesh für meinen Charakter einzusetzen.

CC3 Morphing & Hair Builder
CC3 Morphing & Hair Builder

Gesichts-Texturierung

Das Gesicht war einer der wichtigsten Bereiche des CG-Charakters und erforderte besondere Aufmerksamkeit. Der beste Workflow, den ich gefunden habe, um fotorealistische Details hinzuzufügen, war der „Killer-Workflow“ unter Verwendung des VFace-Modells von Texturing XYZ und Zwrap.

VFACE ist eine Sammlung hochmoderner photogrammetrischer menschlicher Kopfmodelle, die von Texturing XYZ produziert werden; jedes VFACE wird mit 16K photoscanned Hauttexturen, Displacement- und Utility-Maps geliefert; Zwrap ist ein ZBrush-Plugin, mit dem man eine bereits vorhandene Topologie automatisch an ein benutzerdefiniertes Modell anpassen kann.

Mithilfe des „Killer Workflow“ kann ich alle VFACE-Details in das CC3-Kopfmodell übernehmen, sobald die beiden Mesh-Formen aneinander angepasst sind.

Meine Anpassung des “ Killer Workflow “ kann wie folgt beschrieben werden:
2. T-Pose Charakter aus CC3 nach C4D exportieren;
3. Alle Polygone mit Ausnahme des Kopfes des CC3 Charakters löschen;
4. CC3 Kopfmodell und VFACE Modell nach ZBrush exportieren;
5. Mit MOVE/Smooth brush das VFACE-Modell so weit wie möglich an das CC3-Kopfmodell anpassen;
6. ZWRAP starten und so viele Punkte wie möglich anklicken und anpassen, vor allem um Nase, Augen, Mund und Ohren;
7. ZWRAP verarbeitet die übereinstimmenden Punkte;
8. ZWRARP sollte dann in der Lage sein, ein VFACE-Modell auszugeben, das perfekt mit dem CC3-Kopfmodell übereinstimmt;
9. Beide Modelle in XNormal eingeben und die VFACE-Texturen auf das CC3-Kopfmodell backen.

Übereinstimmende Punkte von VFACE (links) & CC3 HEADS (rechts) in ZWRAP
Übereinstimmende Punkte von VFACE (links) & CC3 HEADS (rechts) in ZWRAP


Hinweis: Vollständiges „Killer Workflow“ Tutorial auf dem offiziellen Youtube-Kanal von Textureing.XYZ: VFace – Erste Schritte mit Amy Ash. Ich empfehle, die passenden Punkte vor der Verarbeitung in ZWRAP zu speichern. Ich empfehle auch, alle VFACE-Maps einzeln in XNormal zu backen, da sie sehr hochauflösend sind und XNormal zum Absturz bringen könnten, wenn sie im Stapel gebacken werden.

Skin Shading (Cinema4D + Redshift)

Sobald ich die XYZ-Texturmaps fertig hatte, exportierte ich den Rest der Texturmaps des Charakters aus CC3. Danach habe ich den Charakter in C4D importiert und alle Materialien in Redshift-Materialien umgewandelt.

Zum Zeitpunkt der Erstellung dieses Artikels unterstützte Redshift leider noch nicht Randomwalk SSS (ein sehr realistisches und physikalisch genaues Modell für die Streuung unter der Oberfläche, das auch in anderen Renderern wie Arnold zu finden ist), so dass ich beim Rendern der Haut viel mehr Feinarbeit leisten musste.

Die 3 Ebenen der Untergrundstreuung wurden durch ein einziges diffuses Material mit verschiedenen „Color Correct“-Einstellungen gesteuert. Der Kopf-Shader war eine Mischung aus den CC3-Texturen und den VFACE-Texturen; die VFACE-Mehrkanal-Displacement-Map wurde mit der CC3-Displacements-Map „microskin“ gemischt.

Entwicklung des Aussehens des Charakters
Entwicklung des Aussehens des Charakters

Ein „Redshift-Objekt“ wurde auf den Charakter übertragen, um die Verschiebung zu aktivieren – erst dann wurden die VFACE-Displacements beim Rendern sichtbar.

Rendering der Nahaufnahme des Charakters
Rendering der Nahaufnahme des Charakters

Haar Shading

Nachdem ich mit C4D Ornatrix, Maya Xgen und Houdini experimentiert hatte, entschied ich, dass die Verwendung des gebackenen Haar-Meshs aus CC3 für das Projekt „Ballerina“ auf ganzer Linie effizienter war. Ich verwende ein Redshift „Glas“-Material mit CC3-Haartextur-Maps, die in die Farbslots „Reflexion“ und „Brechung“ eingespeist werden, da Haare (im wirklichen Leben) auf Licht wie kleine Glasröhren reagieren.

Hinweis: Für alle, die daran interessiert sind, die CC3-Haare noch realistischer zu gestalten, gibt es bei CGcircuit ein großartiges Pergament-Tutorial, das sich mit der Erzeugung und Simulation von Haaren beschäftigt.

Früher Test der Konvertierung von CC3 Mesh-Haar in Haar-Geometrie in Houdini
Früher Test der Konvertierung von CC3 Mesh-Haar in Haar-Geometrie in Houdini

3. Animation/Charakter Animation: iClone

Anschließend habe ich den CC Charakter zur Animation nach iClone exportiert. Ich habe mehrere Möglichkeiten in Betracht gezogen, um eine realistische Animation des Charakters zu erreichen, darunter:
1. die Verwendung von Mocap-Daten aus dem Katalog (Mixamo, Reallusion ActorCore);
2. Beauftragung eines Mocap-Studios mit der Erstellung einer maßgeschneiderten Mocap-Animation;
3. Verwendung eines Mocap-Anzugs (z. B. Rokoko oder Xsens) für maßgeschneiderte Mocap-Animation;
4. Herkömmliches Keyframing.

Nachdem ich mit verschiedenen Mocap-Daten von der Stange experimentiert hatte, stellte ich fest, dass die Mocaps von Mixamo viel zu allgemein sind und meist sehr roboterhaft aussehen; Reallusion Actorcore hatte einige sehr realistische Bewegungen, aber ich konnte nicht genau das finden, was ich für das Projekt brauchte. Da ich kein Budget und (meine) sehr spezifischen Anforderungen an die Bewegungen des Charakters hatte, kamen die Optionen 2 und 3 nicht in Frage. Das führte mich zum klassischen Keyframing.

Zuerst nahm ich Videos von Ballettaufführungen auf und legte sie Frame für Frame in PureRef an. Dann überlagerte ich die PureRef-Referenz (mit halber Deckkraft) über iClone und passte jedes Gelenk des Charakters mit „Bewegungsebene bearbeiten“ an meine Referenz an.

Pose 1
Pose 1

 

Pose 2
Pose 2

 

Die animierten Charaktere wurden dann in Alembic-Dateien exportiert.

Finale Animation des Charakters
Finale Animation des Charakters

Hinweis: Während mein endgültiges Projektkonzept Ballerinas in Zeitlupe zeigt, war meine ursprüngliche Idee, einen 20-sekündigen Balletttanz zu keyframen, was ich aus mehreren Gründen sehr schnell als schlechte Idee erkannte:
1. Bei der Zeitlupe konnten viele Frames interpoliert werden, aber bei der Echtzeit-Bewegung waren viele einzelne Frames erforderlich, so dass viel mehr Feinabstimmung nötig war;
2. mehr Einzelbilder bedeuteten mehr Rendering-Probleme (Flimmern, Tessellierungsprobleme usw.).

Da es sich um mein erstes Projekt zur Animation eines Charakters handelt, kam ich zu dem Schluss, stattdessen eine Sequenz im Zeitlupenstil zu erstellen – 2 einzigartige Posen mit jeweils 160 Bewegungsbildern.

Kleidungssimulation

Die Kleidungssimulation war bei weitem der schwierigste Teil des Projekts. Die beiden wichtigsten Stoffsimulationen/Solver, die ich in Betracht zog, waren Marvelous Designer (MD) und Houdini Vellum.

Während Houdini Vellum wesentlich flexibler und zuverlässiger als Marvelous Designer war, fand ich persönlich es viel zu langsam und daher unpraktisch ohne eine Farm (ein Frame der Stoffsimulation konnte bis zu 3 Minuten in Houdini Vellum gegenüber 30 Sekunden in Marvelous Designer auf einem Threadripper PRO 3955WX mit 128 GB Ram dauern).

Die Stoffsimulation in MD ist zwar im Allgemeinen viel schneller einzurichten als Houdini Vellum, war aber nicht so einfach, wie ich es mir vorgestellt hatte. Simulierte Kleidungsstücke in MD hatten immer irgendwelche Fehler;

Dazu gehörten das Flattern von Stoffen, das Durchdringen des Charakters oder einfach nur völlige Verrenkungen. Im Folgenden sind einige der Einstellungen, die ich optimiert habe, um Probleme zu minimieren:
1. Verwendung von „Tack“, um Teile des Kleidungsstücks am Charakter zu befestigen;
2. Erhöhen von “ Density“ und „Air Damping“ des Stoffes, um zu verhindern, dass sich das Kleidungsstück zu schnell bewegt und dadurch aus der Position gerät;
3. Teile des Kleidungsstücks isoliert simulieren – das ist zwar nicht physikalisch genau, aber ich konnte viel schneller Iterationen und Fehlersuche durchführen.

Zusätzlich zu den oben genannten Änderungen habe ich die „Schwerkraft“ (Gravity) reduziert, um einen Zeitlupen-Look zu erzielen.

MD Simulation
MD Simulation

Hinweis: Auf dem offiziellen Marvelous Designer Youtube-Kanal gibt es viele Livestreams zum Thema Kleidungsmodellierung, die ich für das Erlernen von MD als sehr hilfreich empfinde. Alternativ gibt es viele online verfügbare 3D-Kleidungsstücke (vor allem auf der offiziellen Website von Marvelous Designer oder auf dem Artstation Marketplace), die ich als Grundlage für viele meiner Projekte verwendet habe.

MD ist extrem absturzgefährdet. Außerdem gibt es sowohl in MD10 als auch in MD11 einen Fehler, der in 90 % der Fälle das Speichern von simulierten Kleidungsstücken verhindert, daher sollten Sie simulierte Kleidungsstücke immer als Alembic-Dateien exportieren und sich nicht auf MD verlassen, um die Simulation zu speichern.

Bereinigung der Simulation

Nach Dutzenden von Simulationen importierte ich die mit MD exportierten Alembic-Dateien in Houdini, wo ich viele manuelle Bereinigungen vornahm, darunter:
1. manuelle Korrektur von kollidierten Stoffen und Charakteren mit „Soft Transform“;
2. Reduzierung von Simulationsstörungen mit „Attribute Blur“;
3. Zusammenmischen der besten Simulationen aus verschiedenen Alembic-Dateien mit „Time Blend“.

Alternative zur Kleidungssimulation

Für alle, die von den unpraktischen Simulationszeiten für Houdini Vellum-Stoffe und den MD-Fehlern frustriert sind, besteht eine Alternative darin, das Kleidungsstück in CC3 buchstäblich auf der Haut des Charakters zu befestigen – eine Technik, die in der Game-Produktion am häufigsten verwendet wird.

Anbringen von Kleidungsstücken am Charakter in CC3
Anbringen von Kleidungsstücken am Charakter in CC3

Hinweis: Hier finden Sie den offiziellen Leitfaden von Reallusion zur Herstellung von Game-tauglicher Kleidung.

Backen und Schattieren von Kleidungsstücken

Sobald ich mit der Stoffsimulation in MD und der Bereinigung in Houdini fertig war, importierte ich die Alembic-Datei in C4D. MD-Alembic-Dateien erscheinen in C4D immer als ein Alembic-Objekt ohne Selektionssätze; das macht die Materialzuweisung unmöglich.

An dieser Stelle kam das C4D-Baking ins Spiel – ein Verfahren, mit dem ich die Alembic-Datei in ein C4D-Objekt mit PLA (Point Level Animation) umwandelte:
1. Das Alembic-Objekt in die Zeitleiste von C4D ziehen;
2. Wechseln Sie zum Menüpunkt “ Functions“;
3. „Bake Objects“ (Objekte backen);
4. PLA“ markieren;
5. Anschließend backen.

Durch die oben beschriebenen Schritte erhielt ich ein gebackenes C4D-Objekt, aus dem ich leicht Polygone auswählen und mehrere Materialien mithilfe von Auswahlsets zuweisen konnte. Dann exportierte ich eine OBJ-Datei aus MD mit Materialien, importierte sie in C4D und zog die Auswahlsets direkt auf das gebackene Bekleidungsobjekt. Dadurch entfiel die Notwendigkeit, die Materialien in C4D manuell neu zuzuweisen.

Ich verwendete eine Mischung aus Leinen-Texturmaps (von Quixel Megascans Bridge) und Redshift Car Shader, um den Paillettenstoff zu simulieren, der bei vielen professionellen Ballett-Tutu-Kleidern zu finden ist.

Nahaufnahme des Stoffes
Nahaufnahme des Stoffes

WARNUNG: Verwenden Sie keine AO- oder Krümmungs-Nodes für die simulierten Bekleidungsmaterialien (oder andere animierte Objekte), da diese möglicherweise zu Störungen im finalen Rendering führen können.

4. Rendering

Beleuchtung und Umgebung

Obwohl ich versucht habe, die Beleuchtung so minimal wie möglich zu halten, musste ich für das Projekt „Ballerina“ aufgrund der nächtlichen Umgebung viel basteln.

Das nächtliche HDRI lieferte nicht genügend Umgebungslicht für den Innenraum, und die Kronleuchterlampen waren als Hauptlichtquelle viel zu schwach. Schließlich platzierte ich einen unsichtbaren Scheinwerfer unter dem Kronleuchter in der Mitte und verwendete ein Scheinwerferlicht, das nur die architektonischen Ornamente beleuchtete. Das Scheinwerferlicht sorgte für ein zusätzliches Maß an indirektem Licht, das genau die richtige Menge an Beleuchtung bot, ohne die stimmungsvolle Atmosphäre zu zerstören.

Ich fügte außerdem eine „Redshift-Umgebung“ hinzu, die in der Z-Achse mit „Maxon Noise“ multipliziert wurde, um der Szene mehr Tiefe zu verleihen. Im Außenbereich habe ich 2 Variationen von Hartriegelbäumen mit C4D „Matrix“ in der Umgebung verteilt. Sie wurden in der Szene vom Boden aus beleuchtet, um zusätzliche Tiefe zu erzeugen. Die Beleuchtung der Szene umfasst:
1. Lichtkuppel (HDRI für die Nacht) x 1
2. Kronleuchter (Mesh-Lichter) x 3
3. Spotlight (Mitte) x 1
4. Äußere Flächenbeleuchtungen x 4
5. Künstliche Flächenbeleuchtung unter dem Kronleuchter (enthält nur architektonische Ornamente)

RS Lichter
RS Lichter

Hinweis: Die Bäume wurden mit SpeedTree generiert. Um die Beleuchtung zu perfektionieren, braucht man viel Übung. Neben meiner täglichen CG-Praxis habe ich viel Zeit damit verbracht, Ausschnitte von Filmen anzuschauen – ich habe mich zum Beispiel sehr von Roger Deakins Beleuchtung und Kinematografie sowie von Wes Andersons Bildkomposition und Farbkombinationen inspirieren lassen.

Kamerabewegungen

Alle meine Kamerabewegungen waren sehr subtil. Dazu gehörten Kamerafahrten, Kameraschwenks und Drehungen, die alle mit dem C4D-Plugin Signal von Greyscalegorilla gesteuert wurden. Ich persönlich bevorzuge die Verwendung von Signal wegen seiner zerstörungsfreien Natur, aber Old-School-Key-Framing würde für ähnliche Kamerabewegungen auch sehr gut funktionieren.

Entwurf Renderings

Sobald ich die Animationen der Charaktere, die Stoffsimulationen und die Kamerabewegungen fertig hatte, begann ich mit niedrig auflösenden Testrendern, um sicherzustellen, dass ich bei den endgültigen Renderings keine Überraschungen erleben würde:
1. Daumenkino-Renderings (openGL), um sicherzustellen, dass das Timing der Animationen optimal ist;
2. Rendering einer kompletten Sequenz mit niedriger Auflösung und niedrigen Samples, um sicherzustellen, dass es keine Störungen gibt;
3. Renderings von Standbildern mit hoher Auflösung (2K) und hoher Abtastung mit AOVs (diffus, Reflexion, Brechung, Volumen), um zu prüfen, was zum vorherrschenden Rauschen beigetragen hat, falls vorhanden;
4. Übermittlung von Test-Renderings an Fox Renderfarm, um sicherzustellen, dass die endgültigen Renderings mit meinen lokalen Renderings übereinstimmen.

Dieser Prozess dauerte über 2 Monate, in denen immer wieder Renderings erstellt und Korrekturen vorgenommen wurden.

Nahaufnahme I
Nahaufnahme I

 

Nahaufnahme II
Nahaufnahme II

 

Finale Aufnahme
Finale Aufnahme

Endgültige Renderings & Denoising

Für die endgültigen Renderings habe ich eine relativ hohe Rendering-Einstellung verwendet, da Innenraumszenen in Redshift generell anfällig für Rauschen sind.

Endgültige RS-Rendereinstellungen
Endgültige RS-Rendereinstellungen

Ich hatte auch Motion Blur und Bokeh für die endgültigen Renderings eingeschaltet – im Allgemeinen sehen Motion Blurs und Bokehs im Render besser aus (physikalisch genauer) als Motion Blurs und Bokehs, die per Compositing hinzugefügt wurden.

Die Hälfte der finalen 2K-Sequenz wurde auf einer lokalen Workstation gerendert, während der Rest auf Fox Renderfarm gerendert wurde, insgesamt in etwa 6840 Stunden Renderzeit auf zwei RTX 3090 Maschinen. Ich habe Neat Video für das Denoising der finalen Aufnahme verwendet, während die Nahaufnahmen mit Single Altus (in Redshift) bereinigt wurden.

Hinweis: Schalten Sie immer „Random Noise Pattern“ unter Redshift „Unified Sampling“ aus, wenn Sie „Altus Single“ für die Entrauschung verwenden.

Redshift Rendering GI-Trick

Die Berechnung des GI Irradiance Cache von Redshift kann ziemlich kostspielig sein; meine endgültigen Renderings haben zum Beispiel durchschnittlich 5 Minuten GI Irradiance Caching-Zeit pro Frame.

In Vray gab es in den IR/LC-Einstellungen eine Option namens “ Use camera path“ (Kamerapfad verwenden), die speziell für Szenen entwickelt wurde, in denen sich die Kamera durch eine unbewegte Szene bewegt. Sobald die Option “ Use camera path“ aktiviert war, berechnete Vray nur ein Bild des GI-Caches für eine ganze Sequenz. In Anlehnung an Vray verwende ich die folgenden Motion-Blur-Einstellungen, um das erste Bild des Irradiance-Cache zu berechnen:

RS-Rendering GI-Trick Motion Blur-Einstellung
RS-Rendering GI-Trick Motion Blur-Einstellung

Der eine Irradiance-Cache wird dann zum Rendern der gesamten Sequenz verwendet. Zwei Aufnahmen des Projekts wurden mit einem einzigen GI-Cache gerendert, was zu einer insgesamt 10 % schnelleren Renderzeit führte.

Hinweis : Der GI-Trick wird nur bei Aufnahmen mit sehr wenig Bewegung übernommen. Wenn ich ihn beispielsweise auf die beiden Nahaufnahmen des Projekts „Ballerina“ anwandte, erhielt ich leichte Flecken und Geisterbilder auf der Haut des Charakters.

Fazit

Durch die monatelange Arbeit an dem Projekt habe ich eine neue Wertschätzung für traditionelle Charakter-Animatoren gewonnen – mir war nie bewusst, wie viel Aufwand in die Erstellung von Charakter-Animationen gesteckt wird und wie viele subtile Details erforderlich sind, um überzeugende CG-Charaktere zum Leben zu erwecken.

Obwohl ich mich selbst nicht als Charakter-Künstler bezeichnen würde, bin ich der Meinung, dass Charakter-Animationen sehr wirkungsvoll sind, um CG-Umgebungen erlebbar zu machen, und daher auch in Zukunft ein wesentlicher Bestandteil meiner persönlichen CG-Arbeit sein werden.

Weitere Informationen :
• Kay John Yim’s persönliche Webseite https://johnyim.com/
• Kay John Yim’s ArtStation https://www.artstation.com/johnyim
• Character Creator https://www.reallusion.com/de/character-creator/download.html
• iClone https://www.reallusion.com/de/iclone/testversion.html
• Reallusion https://www.reallusion.com/de

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.