Shading, Lighting & Rendering mit Cinema 4D R19 (Teil 1)

In dieser 5-teiligen Artikelreihe eröffnen wir dem gewandten Cinema4D-Nutzer tiefgehende Einblicke in die Bereiche Shading, Lighting und Rendering. Im ersten Teil der Reihe befassen wir uns mit Grundüberlegungen zu diesen Bereichen, nämlich Shading-Interpolation und Beleuchtungsmodelle, und lernen dabei unter anderem die Herren Lambert, Phong, Oren und Nayar kennen.
Shading, Lighting & Rendering mit Cinema 4D R19

Shading, Lighting, Rendering als Artikelreihe in der DP – da haben wir uns ganz schön was vorgenommen. Denn diese drei Begriffe behandeln ein immens großes Feld der 3D-Computergrafik mit Cinema 4D. Es handelt sich um nicht weniger als die Prozesse, die nötig sind, um aus rohen Szeneninhalten wie Objekten oder Animationen ansprechende Bilder technisch effizient zu erzeugen.

Vom „Gedachtsein“ zum „Gesehenwerden“

Wo kein Licht oder keine Strahlen interagieren, da herrscht quasi ein Vakuum und unsere Objekte bleiben ungesehen. Shading, Lighting und Rendering holen die Szene, die wir gemodelt oder animiert haben, quasi aus dem „Gedachtsein“ in das „Gesehenwerden“ – und überführen sie in spannende, kommunikative, ästhetische Bilder oder Animationen. Dabei beziehen sich alle drei Bereiche auf das Wirken von Licht in unserer 3D-Szenerie:

  • Shading bezeichnet den Vorgang, Oberflächen materialspezifische Eigenschaften der Lichtreflexion zu verleihen. Holz reflektiert Licht anders als Stahl, Marmor anders als Wachs – und zwar in allen drei oben aufgeführten Aspekten der Reflexion. Darüber hinaus ist bei Marmor und Wachs auch noch auffällige Lichtstreuung im Inneren des Objekts im Spiel – aber dazu später mehr. Shading ist dabei offensichtlich eng verknüpft mit Lighting.
  • Lighting bezeichnet das Beleuchten einer Szene. Dies geschieht in Abhängigkeit von deren Inhalt (z.B. sonnige Außenszene oder schummriges Kerzenlicht), der gewünschten Bildstimmung und dem Shading der Objekte. Von großer Bedeutung sind dabei das Wechselspiel und der Kontrast von Licht und Schatten sowie das Wirkungsgefüge von direktem und indirektem Licht. Neben den ästhetischen Aspekten gilt es auch, die technische Eleganz von Shading und Lighting zu beachten, um ein effizientes Rendering der Szene zu gewährleisten.
  • Rendering ist der Vorgang der Bildberechnung auf der CPU oder GPU. Alle Polygon- oder Generatorobjekte, Geometrieeigenschaften, Einstellungen zu Lichtquellen und Schatten, Shader, Bitmap-Texturen und Animationen werden zu einem Pixel-Bild bzw. einer Sequenz von Pixelbildern gerechnet und gespeichert. Die Echtzeitdarstellung im Viewport ist übrigens auch schon Rendering – auch hier findet ein Render-Prozess statt, damit Sie überhaupt etwas sehen. Allerdings ist dieser Prozess gegenüber dem finalen CPU- oder GPU-Rendering deutlich abgespeckt, um eine Echtzeitdarstellung für interaktives Arbeiten zu ermöglichen. Zudem werden die Bilder nicht dediziert abgespeichert. Je nach Rendermethode wird nur lokale Beleuchtung berechnet (direktes Licht) oder es wird mittels globaler Beleuchtung (Global Illumination) automatisiert indirektes Licht hinzugefügt.

Ist da Licht oder kann das weg?

Der Titel dieses Artikels „Ist da Licht oder kann das weg?“ bezeichnet die Bedeutung dieser drei Bereiche ganz gut: Shading, Lighting und Rendering holen unsere Szene erst aus der Unsichtbarkeit heraus. Alle drei Bereiche sind eng miteinander verzahnt und bedürfen als Teile eines Gesamtgefüges interaktiver Abstimmung. Dennoch werden wir die drei Gebiete in ihrer gesprochenen Reihenfolge behandeln, um die schier unüberschaubare Menge an Informationen didaktisch sinnvoll und dem Arbeitsablauf eines 3D-Artists angemessen aufbereiten zu können.
Es sei angemerkt, dass wir in dieser fünfteiligen Artikelreihe natürlich nur an der Oberfläche kratzen werden. Als Maxon Lead Instructor habe ich das entsprechende „Quickstart-Training Shading, Lighting & Rendering“ geschrieben; dessen Script alleine umfasst derzeit knapp 140 Seiten – ohne die Lehrinhalte, die in den zahlreichen beiliegenden Beispielprojekten enthalten sind. Zu diesem Training mehr in der Autorenbeschreibung am Ende des Artikels.

Shading-Interpolation und Beleuchtungsmodelle

Lambert, Phong, Torrance und Nayar – was sich hier anhört wie der Name einer prominenten Anwaltskanzlei ist im Grunde nur eine kleine Sammlung von Nachnamen kluger Köpfe, die uns in unserer täglichen Arbeit mit C4D immer wieder begegnen. Bei diesen Namen handelt es sich meist um Mathematiker oder Informatiker, die mit ihren Pionierleistungen die Computergrafik nachhaltig geprägt haben. Langen theoretischen Arbeiten oder Dissertationen folgten oft Siggraph-Paper und der Eingang in die ewigen Dialoggründe kommerzieller 3D-Software – so wie z.B. auch bei Blinn, Beckmann, Perlin und Co. All diesen Köpfen ist gemein, dass sie im Laufe der letzten 250 (!) Jahre Grundlagenarbeiten schufen, die den heutigen Umgang mit Shading, Lighting und Rendering erst ermöglichten. Dabei handelt es sich in erster Linie um Arbeiten zum Verhalten von Licht auf Objektoberflächen, wie das ganze mathematisch gezügelt und praktisch anwendbar gemacht werden kann – und zwar auch für Mathe-Verweigerer wie mich.

Gouraud und Phong gegen grobe Polygone

Eine der ersten Brücken zwischen dem Prozess des Modelings und den Bereichen Shading, Lighting und Rendering bauten in den 1970er Jahren die Herren Henri Gouraud und Bui Tuong Phong. Grundlage für deren Arbeiten war die Problemstellung, die sich mit grob aufgelösten Polygon-Modellen ergab: Um auf Objekten mit begrenzter Polygonanzahl eine homogene Helligkeitsverteilung und glatte Glanzlichter zu erzeugen, hätte man eine extrem hohe Anzahl kleinster Polygone benötigt – eine Aufgabe, denen Computer dieser Zeit nicht gewachsen waren.

Gouraud-Shading (links, mit eingeblendeter Polygonstruktur) interpoliert das Shading der Vertices, (Abb.: Commons Wikimedia). Phong-Shading (rechts) interpoliert die Normalen der Vertices und sorgt für deutlich bessere Ergebnisse bei gleicher Polygonzahl.

Der französische Mathematiker Henri Gouraud stellte dazu 1971 an der University of Utah in Salt Lake City ein erstes Verfahren vor, mit dem die Helligkeits- und Farbinformationen benachbarter Polygonpunkte linear miteinander interpoliert werden konnten. Jedoch waren vor allem bei Bewegung die groben Polygonfacetten immer noch erahnbar und Sprünge bei Glanzlichtern waren deutlich sichtbar. 1975 stellte sein Kommilitone, der vietnamesische Mathematiker Bui Tuong Phong sein Verfahren vor – das Phong-Shading. Im Gegensatz zum Gouraud-Shading werden beim Phong-Shading nicht die Polygonpunkte (Vertex) linear interpoliert, sondern die Normalen der Polygonpunkte (Vertex-Normalen). Dieses aufwendigere Verfahren erzeugt deutlich weichere Helligkeitsverläufe und vor allem konsistentere Glanzlichter. Leider konnte Phong den Einzug seiner bahnbrechenden Arbeiten in die Computergrafik nicht mehr miterleben – er starb noch im selben Jahr im Alter von 32 Jahren an Leukämie.

Das Phong-Tag, hier mit den Parametern im Attribut-Manager, sorgt beim Low-Poly-Apfel links für deutlich weichere und definiertere Ergebnisse gegenüber den Low-Poly-Äpfeln rechts, die kein Phong-Tag enthalten.

Noch heute wird Gouraud-Shading in C4D als qualitativ hochwertigste Editor-Darstellung verwendet. Als einzige Darstellungsart für den Viewport berücksichtigt es die Position von Lichtern und bietet mit den Optionen von Enhanced OpenGL eine Reihe nützlicher Darstellungseffekte wie z.B. Schatten, Screen-Space Ambient Occlusion, Tiefenunschärfe und Screen-
Space-Spiegelung. Auch Phongs Arbeit ist bis heute in C4D zu finden: Um Objekte facettenfrei darzustellen, wird zusätzlich zum Gouraud-Shading das Phong-Shading benötigt. Dieses findet sich an jedem neu erzeugten Objekt in Form eines Phong-Tags. Der Tag-Parameter „Winkelbeschränkung“ gibt dabei an, unterhalb welchen Winkelwertes das weiche Phong-Shading aufgebrochen und stattdessen Flat-Shading / Facettierung angewendet wird. Das kann z.B. nützlich sein, um flache Bereiche eines Objekts, die eine unerwünschte Phong-Rundung aufweisen, tatsächlich wieder flach darzustellen.

BRDFs – Viele Wege führen von hell nach dunkel

Gouraud- und Phong-Shading sind im Grunde Interpolationsverfahren zum kaschierenden Schattieren einer grob aufgelösten Polygon-Facettierung. Im Unterschied dazu befassen sich Beleuchtungsmodelle mit dem lokalen Verhalten von Licht auf Oberflächen. Das Reflexionsverhalten einer Oberfläche kann nämlich mit einer mathematischen Funktion erfasst und ausgedrückt werden, einer sogenannten BRDF – Bidirectional Reflection Distribution Function. Beleuchtungsmodelle bzw. BRDFs sind so in der Lage, die reflektiven Eigenschaften eines Materials umfassend zu beschreiben. Dabei wird die Interaktion von Licht mit der Mikro­struktur von Oberflächen in drei Aspekte unterteilt:

  • Diffuse Reflexion streut das Licht diffus in alle Richtungen und zeigt das Objekt, wo es im Licht ist. Ein häufig verwendetes Synonym dafür ist das „Albedo“, das diffuse Rückstrahlverhalten eines Objekts.
  • Spekulare Reflexion streut das Licht gerichtet in eine Richtung mehr oder weniger um den Spiegelstrahl herum und ist stark blickwinkelabhängig. Als simple aber effiziente Simulation des hellsten Punkts einer Spiegelung werden Glanzlichter verwendet, im Englischen “specular highlights“ oder „glossy reflection“. Vorsicht: Je nach 3D-Paket werden hier teils unterschiedliche Begriffe gebraucht.

Lambert und Phong – ein schweizerischer und ein vietnamesicher Pionier

Grundlegende Pionierarbeit zu Beleuchtungsmodellen bzw. der Strahlungsmessung von Licht (Photometrie) stellte der Schweizer Mathematiker und Vordenker Johann Heinrich Lambert in seinem Lehrwerk „Photometria“ bereits 1760 vor. Ein Teil des Lambertschen Beleuchtungsmodells beschreibt, dass die diffuse Reflexion von Licht bei rechtwinkliger Einstrahlung stärker ist als bei angewinkelter Einstrahlung. Die Helligkeit eines Objekts hängt also vom Winkel der Lichtquelle ab.

Eine Lambert-spezifische Beleuchtungsverteilung, hier aus dem Material-Preview von C4D.
Die Komponenten des Phong-Beleuchtungsmodells, v.l.n.r. hinzukommend: Ambient, Diffuse und Specular
Die Glanzlichtfunktion von Phong (links) und Blinn (rechts) im Vergleich.
Blinn erzeugt bei gleichen Parametern (z.B. Glanzbreite) ausgedehntere Glanzlichter.

Das Lambertsche Gesetz bestimmt außerdem, dass ideal diffus reflektierende Objekte aus jedem Blickwinkel ein kon­stantes Albedo aufweisen. Lamberts BRDF beschreibt so eine spezifische Helligkeitsabnahme des Objekts von seinem hellsten Punkt bis zu dessen Tag-Nacht-Grenze, dem sogenannten Terminator.
Auch Bui Tuong Phong griff Lamberts Grundlagenarbeiten auf und ließ sie in sein Phong-Beleuchtungsmodell von 1975 einfließen. Im Unterschied zu Lambert berücksichtigt Phongs BRDF jedoch nicht nur die diffuse Reflexion, sondern auch eine Komponente für Glanz und gleichförmig ambiente Beleuchtung. Phongs BRDF ist ein nicht physikalisch basiertes Beleuchtungsmodell: Es kann mehr Licht reflektieren, als es empfängt. Die Ergebnisse des Phong-Beleuchtungsmodells kommen dabei Kunststoffoberflächen am nächsten. Das Lambert / Phong-BRDF ist eines der häufigsten Beleuchtungsmodelle der Computergrafik und war in C4D bis Release 15 als „Phong-Beleuchtungsmodell“ implementiert.
Ab Release 16 wurde es dann im Farbkanal eines Materials nach seinen Lambertschen Grundlagen umbenannt, um eine Verwechslung mit dem ebenfalls „Phong“ genannten Reflexionsmodell im Reflektivitätskanal auszuschließen.

Von Blinn zur Vollmond-Frage

Zwei Jahre nach Phongs Tod griff sein Kommilitone James F. Blinn (der spätere Erfinder des Bump Mappings) dessen Arbeit auf und überarbeitete Phongs Modell vor allem hinsichtlich einer Beschleunigung der Berechnungen. Seine Ergebnisse stellte James Blinn zur Siggraph 1977 als das Blinn-Beleuchtungsmodell vor.
Ebenso wie das Phong-Beleuchtungsmodell eignet sich Blinns Variante vor allem für glatte Oberflächen wie Kunststoffe oder Porzellan. Beide Modelle weisen gemäß des Lambertschen Gesetzes keine Blickwinkelabhängigkeit der diffusen Reflexion auf – genau diese ist für raue Oberflächen jedoch essenziell. Denn Mikro-Facetten als Ursache für ein raues Oberflächenverhalten reflektieren Licht in hohem Maße blickwinkelabhängig.

Vollmond im Vergleich zu frontal angestrahlter Lambert-Kugel (links) – der Mond wirkt flacher, das Lambertsche Modell reicht nicht aus.
Oren-Nayar (rechts) bildet die Beleuchtung wesentlich besser nach (Mond-Foto: NASA).

Ein Blick auf ein Bild des Mondes im Vergleich mit einer Kugel nach Lambertschem Beleuchtungsmodell verdeutlicht diesen Sachverhalt: Beide werden quasi aus Blickrichtung angestrahlt, im Unterschied zur Lambert-Kugel weist der Vollmond in der Nähe der Silhouette jedoch kaum Bereiche auf, die in ihrer Helligkeit abfallen – er wirkt flach. Warum? Grund sind die Unebenheiten der Mondoberfläche: Gebirge und Hügel werden in der Nähe der Vollmond-Silhouette zunehmend seitlich angestrahlt und reflektieren Licht. Die diffuse Helligkeit dieser Unebenheiten gleicht den Lambertschen Beleuchtungsabfall beinah wieder aus, weshalb der Vollmond flach und randscharf wirkt.
Ob wir nun vom Mond, von Pflastersteinen oder menschlicher Haut reden – Unebenheiten in unterschiedlichsten Maßstäben sind verantwortlich für eine Blickwinkelabhängigkeit der diffusen Reflexion. Lamberts Gesetz eines blickwinkelunabhängig konstanten Albedos wird in der Realität quasi nicht eingehalten: Materialien weisen in irgendeiner Form immer blickwinkelabhängige Reflexionen auf, sei es nun im diffusen oder spekularen Bereich. Die Beleuchtungsmodelle Lambert, Phong und Blinn sind daher keine physikalisch plausi­blen BRDFs und daher eher als idealisierte Basis für Shading zu verstehen.

Cook, Torrance und die Metalle

Bald nach der Vorstellung von Blinns BRDF im Jahre 1977 befassten sich Robert Cook von Lucasfilm und Kenneth Torrance von der Cornell University in Ithaca, NY damit, wie Blinns Arbeit um physikalische Plausibilität erweitert werden könnte. Praktische Zielsetzung war die Vermeidung des typischen Phong-Blinn-Plastiklooks und die physikalisch plausible Darstellung von Metallen. 1982 stellten sie ihr Cook-Torrance Beleuchtungsmodell vor. Torrance konnte dabei auf einer Arbeit aufbauen die er und sein Kollege Ephraim Sparrow bereits 1967 im „Journal of the Optical Society of America“ veröffentlicht hatten.
Das Cook-Torrance BRDF führt zwei wichtige Faktoren zur Beschreibung von Materialverhalten ein – Fresnel und die spektrale
Zusammensetzung des Lichts: Fresnel, benannt nach dem französischen Mathematiker Jean Auguste Fresnel, bezeichnet in diesem Zusammenhang die Blickwinkelabhängikeit von Reflexionen – ein Phänomen, welches jeder schon einmal gesehen hat, der sich eine Wasseroberfläche aus unterschiedlichen Winkeln ansah. Und die tägliche Beobachtung zeigt einen wichtigen Grundsatz: Alles hat Fresnel.

Metall-Buddha – die Färbung ensteht einzig und allein durch die Verwendung eines spezifischen Fresnel-Presets (hier: Kupfer) im Reflektivitätskanal. Mehr dazu in der nächsten Ausgabe der DP.

Der Faktor der spektralen Zusammensetzung des Lichts kommt vor allem für die Darstellung von Metallen ins Spiel: Metalle, die ja in der Realität über keine diffuse, sondern nur über spekulare Reflexion verfügen, lassen sich in der Computergrafik nur dann physikalisch plausibel darstellen, wenn die Farben des reflektierten Lichts – Rot, Grün und Blau – mit unterschiedlichen Fresnel-Faktoren reflektiert werden. Nur so lässt sich physikalisch korrekt z.B. der typisch rötliche Ton von Kupfer erzeugen.
Und hier setzt das Cook-Torrance-BRDF an: Es beschreibt Materialien als Zusammensetzung von Mikrofacetten, die wie mikroskopisch kleine Spiegel Licht unterschiedlicher Wellenlängen mit unterschiedlichen Fresnel-Faktoren und in unterschiedlichem Maße reflektieren, sich gegenseitig verschatten oder Licht interreflektieren.

Mikrofacetten à la Oren-Nayar

Das Cook-Torrance-Modell führte zwar zur differenzierteren Darstellung von Metallen und Spiegelungen, das Beleuchtungsverhalten von rauen Objekten (Stichwort Vollmond) war jedoch noch immer nicht zufriedenstellend nachbildbar. Grund: Das Cook-Torrance-BRDF geht von spekular statt diffus reflektierenden Mikrofacetten aus. Im Jahre 1993 nahmen sich Michael Oren and Shree K. Nayar von der Columbia Universität in New York dieses Problems an und setzten für ihr Beleuchtungsmodell Mikrofacetten voraus, die nicht spiegelnd reflektierten, sondern nach Lambert diffus. Durch die diffuse Lambert-Reflexion auf Mikrofacetten-Level, Verschattung und Interreflexion ergeben sich hochkomplexe Berechnungen, die so erst einmal fernab jeder Praktikabilität waren. Die Leistung des Oren-Nayar-Modells besteht daher auch darin, diese Berechnungen zu vereinfachen und der Anwendbarkeit zuzuführen.

Ein typischer Fall von Fresnel: Mit zunehmend spitzem Blickwinkel, hier also Richtung Horizont, nimmt der Spiegelungseffekt des Wassers zu.

Mit dem Oren-Nayar-BRDF lässt sich das eher flache Helligkeitsverhalten von rauen Oberflächen – und auch des Vollmondes – wesentlich akkurater simulieren als mit den Modellen von Phong, Blinn, Cook und Torrance. Dadurch wurde Oren-Nayar quasi zum Standardbeleuchtungsmodell für raue Oberflächen und ist neben „Lambert“ auch im Farbkanal eines Cinema-4D-Materials zu finden. Im Unterschied zu „Lambert“ gibt es bei „Oren-Nayar“ auch die Möglichkeit, die Helligkeitsabnahme vom hellsten Punkt bis hin zum Terminator durch „Diffuse Abnahme“ zu manipulieren. „Diffuse Stärke“ beeinflusst die allgemeine Helligkeit und „Rauigkeit“ regelt stufenlos die Menge an Oren-Nayar-Verhalten: So kann mit 0 Prozent Rauigkeit aus „Oren-Nayar“ auch wieder ein „Lambert“ werden.

Vom Himmelskörper zur Felsstruktur – Oren-Nayar bietet das physikalisch plausible Beleuchtungsmodell für raue, diffus reflektierende Körper.
Hier als Beispiel eine Totale aus dem Musikvideo „Do Panjereh“ (https://vimeo.com/205065943).

Das Oren-Nayar-Beleuchtungsmodell eignet sich optimal zum Erstellen von Landschaften oder Felsformationen. Dies gilt nicht nur für die Ansicht von Himmelskörpern, sondern auch für Landschaften im mittleren Maßstab. Aber auch hier gilt: Es muss nicht physikalisch korrekt sein, sondern nur physikalisch korrekt aussehen – wenn „Lambert“ einfach besser aussieht, wird eben „Lambert“ genommen.

BRDFs und darüber hinaus

Neben weiteren zahlreichen Abwandlungen oder Erweiterungen dieser Modelle gibt es übrigens auch BSSRDFs – Bidirectional Surface Scattering Reflection Distribution Functions. Diese Beleuchtungsmodelle beschreiben zusätzlich die Streuung einfallenden Lichts unter der Objektoberfläche. Das Stichwort ist hier „Subsurface Scattering“, mit dem wir uns aber erst später in dieser Artikel-Reihe beschäftigen werden, mit einem eingehenden Blick in Materialsystem und Shader-Anwendung.
Mit den Grundlagen von Lambert und den Beleuchtungsmodellen von Phong, Blinn, Sparrow, Cook, Torrance, Oren und Nayar haben wir nun einige wenige BRDFs unter die Lupe genommen und damit schon einmal eine gute Grundlage für das Thema dieser Artikelreihe „Shading, Lighting und Rendering“ erhalten.
In C4D sind die Beleuchtungsmodelle „Lambert“ und „Oren-Nayar“ nur für die diffuse Reflexion von Licht im Farbkanal eines Materials zuständig. Die Aspekte glänzender oder spiegelnder Reflexion werden dagegen im Reflektivitätskanal durch entsprechende Reflexionsmodelle gesteuert. Auch diese basieren auf BRDFs, weshalb wir neben neuen Namen wie „Beckmann“, „GGX“ etc. auch auf alte Bekannte wie Phong und Blinn stoßen. Deren BRDFs werden im Reflektivitätskanal allerdings nur für spekulare Reflexion, also Spiegelungen und Glanzlichter ausgewertet.
Neben Reflexionsmodellen für Spiegelung und Glanz finden wir im Reflektivitätskanal aber auch wieder die Modelle „Lambert“ und „Oren Nayar“, beide mit dem Zusatz „diffus“. Was es damit auf sich hat und was das Ganze mit PBR (Physical Based Rendering) zu tun hat, das werden wir in der nächsten Folge dieser Artikelreihe klären.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.