Neue CG-Schurken für Spider-Man 3 | Retro-Artikel

Rückblick: In der DP 04 : 2007 feierte Spidey seinen dritten Leinwandauftritt – musste gegen drei Bösewichter gleichzeitig antreten. Bei Imageworks entstanden hierzu Charaktere aus Luft, Sand und schwarzer Masse.

Dieser Artikel erschien ursprünglich in der DP 04 : 2007.

Bei seinem dritten Auftritt auf der Kinoleinwand muss Spider-Man gegen drei Bösewichter kämpfen, die nicht nur ihm, sondern auch dem Effekt-Team alles abverlangen. Die DP hat nachgeforscht, wie Imageworks Characters aus Sand und schwarzer Masse schuf und Schauspieler durch die Luft rasen ließ.

Als ob es nicht schon schwer genug wäre, mit einer doppelten Identität zurechtzukommen. Im dritten Teil muss Peter Parker alias Spider-Man (gespielt von Tobey Maguire) auch noch mit der finsteren Seite seines Ichs kämpfen – und mit drei Schurken, von denen zwei vollständig digital sind. Der dritte, der nur gelegentlich als digitales Double auftritt, ist sein ehemals bester Freund Harry Osborn (James Franco), der in die Fuß- stapfen seines Vaters getreten ist, um nicht zu sagen gerollt: Er wird der New Goblin, ein düsenangetriebener Skateboarder. Die anderen zwei Bösewichter sind Sandman und Venom. Sandman ist mal eine Partikelversion von Flint Marko (Thomas Haden Church) und mal eine Staubwolke. Venom ist ein Symbiont: Schwarze Masse, die sich zuerst an Spidey und dann an Eddie Brock (Topher Grace) hängt.

Als Regisseur von Spider-Man 3 zeichnet wieder Sam Raimi verantwortlich; als Visual Effects Supervisor feiert Scott Stokdyk von Sony Pictures Imageworks seine Rückkehr, der für seine visuellen Effekte in Spider-Man 2 einen Oscar erhielt. Für diesen Film leitete er bei Imageworks ein Team aus 270 Artists, die mehr als zwei Jahre arbeiteten, um ihre 950 Einstellungen zu schaffen. Acht weitere Studios steuerten ebenfalls Einstellungen bei: BUF, Evil Eye Pictures, Furious FX, Gentle Giant Studios, Giant Killer Robots, Halon Entertainment, Tweak Films und X1fx. Imageworks behielt jedoch die entscheidenden Arbeiten in der Hand: Sie realisierten den Kampf zwischen Peter und Harry, setzten die Bösewichter in ihre Einstellungen und schufen den Schlusskampf, bei dem sich die Darsteller gegenseitig bekämpfen. „In diesem Film gab es mehr Darsteller und mehr Bösewichter. Das machte alles ein gutes Stück schwieriger“, erinnert sich Stokdyk. „Wir hatten Kampfszenen mit mehreren Characters.“

Straßenkampf

Die erste Sequenz, die Imageworks für den Film schuf, war der Kampf zwischen Peter Parker in Alltagskleidung und Harry Osborn, größtenteils in seinem New-Goblin-Kostüm. Obwohl Peter nicht seinen SpinnenAnzug trägt, schießt er immer noch Spinnweben, um sich durch die Straße hinter Harry und seinem rasanten Skateboard hinterherzuschwingen.

„Es war lange ein Art Showcase für den Film, ein Werbeclip“, verrät CG Supervisor Grant Anderson. „Wir wollten es so gut, wie nur möglich aussehen lassen.“ Für den Bau der Straße setzte Imageworks sein „Assembly Component System“ ein, eine Verzeichnisstruktur für Metadaten, gebaut in Maya. „Wir haben Komponentenhierarchien, aus denen Städte entstehen“, verrät Anderson. „Das System verfolgt jedes Gebäude und jedes Gebäudeteil; es liest Konstruktionen ein, die man zusammengesetzt hat, und speichert in RIB-Dateien.“

Echtes Schauspiel

Für die digitalen Doubles, die durch die Straße fliegen, entwickelte Imageworks ein neues System; zum ersten Mal schwingt Spider-Man ohne eine Maske zu tragen durch die Gegend. „Das Ziel war, Sam [Raimi] das Spiel des echten Schauspielers zu liefern und nicht eine CGInterpretation davon“, berichtet Stokdyk.

Sie begannen damit, die Szene in Maya zu animieren. Plate Lead John Schmidt extrahierte die Bewegung des animierten Kopfes relativ zu der der Kamera. Dann setzte er jeden Schauspieler im Bluescreen-Set auf eine motorisierte Drehscheibe und filmte ihn mit einer Motion-Control-Kamera, wobei er die Informationen aus den Animationsdateien verwendete. „Wir behielten die Verbindung zwischen dem animierten Kopf und dem Schauspieler bei“, erklärt Schmidt. Wenn zum Beispiel zu Beginn der Einstellung die Kamera auf das Gesicht des Schauspielers gerichtet ist und sie am Ende auf seinen Hinterkopf zeigt, dann programmierte Schmidt die Drehscheibe so, dass sie eine entsprechende Rotation ausführte. Dabei konnte sich die Kamera abhängig von den Animationsdaten entfernen oder näher heranfahren; der Kopf des Schauspielers aber blieb immer in der Mitte des Bildes.

Da es auf der Bühne unmöglich war, die Aktionen der sich schnell bewegenden Superhelden in der Geschwindigkeit zu spielen, in der sie sich im Film bewegen sollen, mussten die Schauspieler ihre Gesichtsausdrücke häufig in Zeitlupe spielen. Sie erarbeiteten auf diese Weise gesprochene Sätze, Grimassen, Schnauben, Ausdrücke von Schmerzen und so weiter.

Am Ende wählten Compositors aus dem gescannten Footage der Schauspielergesichter Frames aus und ersetzten mit ihnen die CG-Gesichter in den Einstellungen. Obwohl dieses System gute Planung und eine frü- he Verbindlichkeit der Animation erforderte, waren das Ergebnis Einstellungen, in denen der digitale Körper mit dem realen Gesicht des Schauspielers eigentlich unmögliche Kunststücke vollbringt. Die Interpretation von Thomas Haden Churchs zweiter Verkörperung als Sandman allerdings war vollständig CG und es fällt schwer sich vorzustellen, wie das Visual-Effects-Team dieses Wesen anders hätte erschaffen sollen. Das gilt natürlich auch für Venom. Außerdem haben beide Schurken etwas gemeinsam, obwohl der eine Character aus Sand besteht und der andere aus öliger schwarzer Masse: „Der entscheidende Trick gerade bei diesen beiden Characters war, dass die Effekt- und die Character-Animatoren zusammenarbeiten mussten“, erklärt Stokdyk.

Aus Sand gebaut

Im Film fällt Church in einen Partikelbeschleuniger und mutiert. Seine Atome verbinden sich mit Sand, was aus ihm einen körnigen Verwandlungskünstler macht. Seine „Geburtsszene“ als Sandman war am schwierigsten. In dieser Szene erhebt sich seine Gestalt aus einem Sandhaufen. „Es ist, als wüchse irgendetwas im Sand heran, das schließlich menschliche Gestalt annimmt“, beschreibt Animation Lead Bernd Angerer. „Er braucht ein wenig, bevor er begreift, was vor sich ging. Zuvor war er ein Mensch, doch dann wurde er zerstört. Dies ist seine Wiedergeburt.“

Für diese Einstellung musste das Effekt-Team ein System entwickeln, das Sandkörner aufeinander häufelt, mit den Partikeln Gesichtsausdrücke erzeugt, Sand von der Gestalt rieseln lässt und Staubwolken schafft. „Wir wollten weder, dass es so aussieht, als ob ein Objekt durch den Sand stößt, noch wollten wir eine Sandwolke schaffen“, erläutert Doug Bloom, der als Sand Effects Supervisor an dem Projekt beteiligt gewesen war. „Der Character besteht aus individuellen Sandkörnern und jedes Korn hat ein Bewusstsein.“

Sandsimulator

Imageworks Software-Entwicklungsteam verwertete Konzepte aus Studien über Partikelphysik und die Dynamik von Körnern wie Weizen oder Mais sowie Erfahrungen mit herkömmlicher Computergrafik, um ein System namens SphereSim zu programmieren. SphereSim simuliert feste Sphären, die gegeneinander oder gegen andere Geometrie stoßen und sich auf sich selbst und auf andere Geometrie stapeln können. Es enthält teilweise eine vereinfachte Version von Festkörpergleichungen mit reduzierter Reibung, wodurch sich Festkörper wie eine Flüssigkeit bewegen. Da der Simulator stets mit einfachen Sphären arbeitet und keine Rotation berechnet, konnte das Team Simulationen mit mehr als einer Million Sandkörner gleichzeitig laufen lassen.

Um die Simulationsgeschwindigkeit hoch zu halten, während sich der Sand aufhäuft, entfernt die Software Sphären außerhalb des Kamerawinkels. „Wir brachten eine Menge Zeit damit zu, Controls für die Technical Directors [TDs] zu entwicklen und zu verbessern“, erinnert sich Bloom. „Die Simulations-Engine kann eine sehr hohe Anzahl der kleinen, steifen Sphären berechnen und die TDs können jederzeit zusätzliche Sphären hinzufügen oder entfernen. Dabei bleibt die Umgebung weiterhin stabil.“ Weil sie, wenn möglich, schnellere Partikelsimulationen benutzen wollten, stellte das Team die ganze Kollisionsgeometrie als Particle Level Sets (PLS) oder Height Fields dar. PLS sind ein mächtiges Werkzeug, um freie Oberflächen darzustellen und zu entwickeln.

„Das erlaubte uns, die Partikel aus einer Simulation, die wir in SphereSim gestartet haben, in Houdini, eine andere Anwendung oder in einen Flüssigkeitssimulator zu übernehmen“, führt Bloom weiter aus. „Für Level Sets und Height Fields kam unser eigenes Dateiformat zum Einsatz.“

Mal flach mal tief

Houdini zum Beispiel verwendeten die Effekt-Animatoren, um das Innere der Umhüllung des Characters mit Partikeln zu füllen: Ein Zoll tief für Distanzaufnahmen oder komplett gefüllt, wenn einmal Nahaufnahmen notwendig sind. Dann extrudierten sie das Mesh nach innen unter Einsatz von Constraints, um eine Partikelhülle für Sandman zu schaffen oder eine vollständig sandgefüllte Form oder einen Körperteil wie eine Faust. Das Hinzufügen von Schwerkraft ließ die Partikel nach unten fallen. Bevor die Partikel auf den Boden aufschlugen, schlossen sie sich einer Gruppe an, die sich zu SphereSim bewegte. So konnten sie sich stapeln. Ein Programm, das wusste, wie tief sich die Partikel erstreckten und Informationen über die Geschwindigkeit und die Gesamtbewegung hatte, extrahierte eine implizite Oberfläche, die den Haufen darstellte. Ein Flüssigkeitssimulator verwendete die implizite Oberfläche und die Geschwindigkeitsdaten, um eine über dem Sandhaufen wabernde Staubwolke zu erschaffen.

Auf die gleiche Weise setzte das Effekt-Team den Flüssigkeitssimulator ein, um die enormen Staubglocken zu erzeugen, die entstehen, wenn sich Sandman im Wind auflöst. Wenn sich Sandman nicht bewegt, pappten die Effekt-Animatoren einfach Partikel auf sein CGGesicht. Dazu bedeckten sie das polygonale Mesh mithilfe eines RenderMan-Plug-Ins, das abhängig von der Kameraposition instanzierte Modelle von Sandkörnern nahm; einfache Stücke Geometrie mit Displacement oder Punkten. Um die visuelle Komplexität sicherzustellen, konnten die Effekt-Artists festlegen, dass bestimmte Sandkörner immer auf eine bestimmte Weise gerendert werden.

Damit sich Gesichtsmerkmale unterscheiden lassen, konnten Shader abhängig vom zugrundeliegenden Mesh die Größe einzelner Sandkörner reduzieren. „Die Animations- und Effektabteilungen mussten viel voneinander lernen“, sagt Digital Effects Supervisor Ken Hahn. „Das Körperspiel stellte kein sonderliches Problem dar, wohl aber die Gesichtsausdrücke. Animatoren sind es gewohnt, die Haut sehen zu können, aber Sand hat seine ganz eigene Beschaffenheit.“

Kurvige Masse

Die Darstellung von Venom musste wieder ganz anders gelöst werden. Die Schlussszene ausgenommen, verbindet sich dieser Bösewicht immer mit einem menschlichen Wesen. Das bedeutete für die Animatoren, die menschlichen Character brutaler agieren zu lassen. Spider-Man wurde aggressiver; Eddie Brock kämpfte wie ein wildes Tier. Doch damit war es leider nicht ganz getan. Da war noch die Sache mit dem Ankleben der schwarzen Masse.

Der leitende Character Animator Koji Morihiro wurde zum Animationsspezialisten für dieses Wesen. Er setzte ein System ein, das Visual Effects Engineer Ryan Laney entwickelt hatte. Weil die schwarze Masse keine spezielle Form hat, verändert sich die Kreatur permanent während Morihiro und andere Animatoren sie an ihrem Wirt befestigten, sie wachsen und sich schließlich mit dem Wirt verbinden ließen. Sie kroch auf Spider-Man, krabbelte über Eddie Brocks Körper und wuchs schließ- lich auf sechs Meter an.

Im Kern ist die schwarze Masse eine Ansammlung von Kurven. „Wir versuchten das Tool Set möglichst einfach zu halten, ebenso den Lauf durch die Pipeline“, sagt Laney. Jede Kurve verfügt über einen Satz Attribute, die Länge und Form beschreiben, ihre Oberflächenattribute und Geschwindigkeitsvektoren. In Maya wurden die Kurven als Röhren angezeigt, die die Länge und Form der Kurve wiedergaben. Die Animatoren platzierten Frame für Frame die Kurven und modellierten dabei gleichzeitig die Kreatur.

„Wir bauten eine vorgegebene Anzahl einfacher Rigs mit Spline-IK- und reguläreren IK-Chains. Koji baute ein System mit Animationszyklen“, berichtet Laney. Für eine Einstellung, die einen klauenförmigen Klumpen schwarzer Masse erforderte, der auf die Hand eines Darstellers springt, setzte Laney einen Haufen Kurven zusammen, damit es so aussieht, wie die Referenzgrafik. Dann übergab er es an Morihiro. „Er setzte eine Joint Chain ein“, erzählt Laney, „verband es, ließ es sich bewegen und das war dann die Einstellung.“

Für andere Einstellungen bauten sie zuerst die Joints und zeichneten anschließend Kurven um sie herum. „Gewöhnlich modelt man ein Wesen, setzt ihm ein Rig ein und verbindet es“, sagt Laney. „Das hier funktionierte auf genau die gleiche Weise.“

Um mehr Details hinzuzufügen, setzten die EffektAnimatoren, nachdem die Character-Animatoren die Röhren platziert hatten, klebrige Stücke zwischen ihnen ein, wobei sie weitere Kurven und Oberflächen benutzten. „Das sind Spans, Membranen, Gegenstände, die aussehen wie verbindende Stücke Geometrie“, erklärt Laney. Manchmal fügten sie die verbindenden Elemente von Hand ein, manchmal ließen sie sie errechnen. Wenn zum Beispiel Spider-Man versucht, sich seinen schwarzen klebrigen Anzug vom Körper zu rei- ßen, dann schreit Venom und die Masse sieht chaotisch aus. Für diese Einstellung griffen die Effekt-Animatoren auf einen prozeduralen Prozess zurück. Dieser machte sich die Nähe benachbarter Teile zunutze, um Details hinzuzufügen.

Ungewöhnliche Aufgaben für Mayas Haarsystem

Wollten sie der schwarzen Masse komplexere Bewegungen verleihen, griffen die Animatoren auf Haarsysteme zurück. Das studioeigene System kam ebenso zum Einsatz wie Mayas Hair System. „Wir hatten Glück, dass das so gut funktionierte“, erinnert sich Laney. „Wir konnten die Hair Tools dazu verwenden, um die Kurven zu simulieren.“

Nach einer Vorschau der schwarzen Masse in Maya, verarbeiteten sie die Daten anschließend in Houdini, um daraus polygonale Geometrie fürs Rendering zu generieren. Zunächst kam adaptives Sampling zum Einsatz, um Partikel auf den Kurven zu erzeugen. Dazu nahmen sie einen Datensatz mit hoher Dichte, denn die aus den Partikeln erzeugte implizite Oberfläche sollte am Ende eine Iso-Oberfläche werden. Für die Umwandlung benutzten sie einen „Convert Meatball“ SOP (Surface Operator) in Houdini.

Die Effekt-Artists ließen Prüf-Renderings in Houdinis VMantra laufen, bevor sie die Daten fürs finale Rendering in RenderMan an die Lighting Artists übergaben. Im Film gewinnt Spider-Man seinen inneren Kampf und besiegt auch Sand und schwarze Masse mit ein bisschen Hilfe seiner Freunde. Seiner Freunde bei Imageworks wohlgemeint.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.