Tausende Teile | Retro-Artikel

Rückblick: In der DP 05 : 2007 suchte das ILM-Team nach neuen Wegen, um die Transformers auf die Leinwand zu bringen – und fand eine Lösung, jene die Branche entscheidend prägte.

Dieser Artikel erschien ursprünglich in der DP 05 : 2007.

Keine Haare, kein Fell, keine Haut; eigentlich garantieren Roboter den Artists einen ruhigen Job. Bei der Produktion von Transformers war das anders: Die hochkomplexen außerirdischen Roboter bestehen aus unzähligen Einzelteilen. Hinzu kamen schwierige Simulationen für einstürzende Gebäude. Das Team bei ILM musste neue Wege suchen und fand einige Lösungen, die die Firma und die Branche entscheidend weiterbrachten.

Kann es ein besseres Sujet für einen Sommer-Blockbuster geben, als gigantischen Robotern aus einer fernen Galaxie dabei zuzusehen, wie sie sich im Zentrum von Los Angeles in Stücke hauen? Und kann man sich einen Regisseur vorstellen, der besser geeignet wäre, ein solches Gemetzel in Szene zu setzen, als Michael Bay, der bereits bei „Armageddon“, „The Rock“, „Pearl Harbor“, „Bad Boys“ und „Bad Boys II“ Regie führte?

Auch die Namen des Executive Producers und des Visual Effects Studios stehen für jahrzehntelange Erfahrungen mit Action-Filmen: Steven Spielberg und Industrial Light & Magic. Die Firma von George Lucas übernahm es, die massigen Bots und die enormen Zerstörungen zu schaffen.

Zusammen genommen ergibt sich aus der Mischung Transformers, Paramount Pictures und Dreamworks SKG der potenzielle Kassenknüller dieses Sommers.

Vom Spielzeug zum Film

Ausgehend von den Hasbro-Spielzeugen, die 1984 auf den amerikanischen Markt kamen, entstand ein kleines Universum: In den Achtziger Jahren veröffentlichte der Marvel-Verlag zunächst eine Comic-Geschichte, die später zu einer Fernsehserie und einem Zeichentrickfilm weiterentwickelt wurde.

Transformers erzählt vom Zusammenstoß zweier außerirdischer Rassen, den Autobots und den Decepticons, die vom Planeten Cybertron stammen. Beide suchen die Erde ab nach einem magischen Zauberwürfel, Allspark genannt, den ein Vorfahr des Filmstars Sam Witwicky (Shia LaBeouf) einst entdeckte. Sam besitzt, ohne es zu wissen die Karte, die den Weg zum Versteck des Allsparks weist. Auf der Erde verkleiden sich die heldenhaften und guten Autobots, indem sie sich in Autos und Lastwagen verwandeln, während die bösen Decepticons sich in Militärfahrzeuge transformieren. Der Anführer der Autobots, Optimus Prime, ist eine LKW-Zugmaschine, Megatron, Anführer der Decepticons, ist ein cybertronischer Jet.

Neue Werkzeuge

Um die visuellen Effekte dieses Films zu schaffen, musste ILM unter Führung seines Oscar-gekrönten Visual Effects Supervisors Scott Farrar neue Werkzeuge und Techniken entwickeln. Selektives Ray Tracing half, die Renderzeiten zu reduzieren. Ein neuer Typ von Rigging System und ein steuerbarer Rigid Body Simulator unterstützten die Animatoren dabei, Roboter, die aus Tausenden von Einzelteilen bestanden, zu manipulieren. Für die Aufgabe, Gebäude und Beton zu zerstören, setzte ILM sowohl proprietäre Software ein als auch Software von der Stange.

„Wir nennen das einen ‚Hard Body’-Film, im Gegensatz zu Produktionen mit Darstellern, die Haare, Pelz und Haut haben. Man könnte also denken, dass das eigentlich nicht so schwer sein dürfte“, berichtet VFX-Supervisor Scott Farrar. „Aber wir mussten auch noch nie dieses Niveau erreichen. Ich habe an Minority Report gearbeitet, da ging es um Beton und Autos, aber wir konnten es damals nicht so weit ausarbeiten, wie wir das jetzt können. Wir mussten für diesen Film eine ungeheure Menge an Software programmieren und zahllose einzelne Probleme lösen, damit die Effekte am Ende tatsächlich besser aussehen.“

Originalfahrzeuge und Concept Art

Das fängt bei den Robotern selbst an. Jeder einzelne Roboter – ausgenommen der Decepticon Scorponok – transformiert sich im Film in oder aus einem Fahrzeug; häufig in voller Bewegung. ILM hatte als Referenzmaterial eine Flotte realer Fahrzeuge, darunter waren Autos, die General Motors geliefert hatte und Militärfahrzeuge, die die US-Streitkräfte zur Verfügung stellten – manchmal waren das ganze Fahrzeuge, manchmal standen aber auch nur Fotografien und Videos zur Verfügung.

Für die Roboter hatten die Artists Concept Art als Referenz. Doch als ILM die vom Regisseur genehmigten Concept-Art-Entwürfe für den Film erhielt, stellte sich schnell heraus, dass die Concept Artists sich nicht darum gekümmert hatten, die Roboter aus den Teilen ihrer Tarnfahrzeuge aufzubauen.

„An einigen der frühen Roboter probierten wir aus, wie wir eine Tür in das Bruststück bewegen und es skalieren können“, erinnert sich Associate Visual Effects Supervisor Russel Earl. „Nach ein paar Wochen entschieden wir uns, es darauf ankommen zu lassen, das Artwork zu matchen und zu hoffen, dass wir einen Weg finden, sie zum Transformieren zu bringen.“

Daher enthalten die Roboter nun anders als ursprünglich geplant auch Teile, die eigentlich nicht zu ihren Tarnfahrzeugen gehören. In einigen Fällen handelt es sich dabei um einige Tausend Einzelteile. „Um die Masse, die die tatsächliche Gestalt der Roboter erfordert, zu erreichen, muss man mehr einsetzen, als ein Auto an Einzelteilen hat“, erklärt Earl.

Oberflächen wie gemalt

Ein Team von Modelern unter Führung von Dave Fogler baute die Roboter und die CG-Fahrzeuge mit Subdivision Surfaces in Autodesks Maya auf. Viewpaint Supervisor Ron Woodall leitete das Texture Painting Team, dessen Aufgabe es war, Kratzer, Schmutz und sogar Risse und Reifenspuren hinzuzufügen.

„Eine ganze Menge Sachen, von denen man denkt, es sei Modeling, ist eigentlich gemalt“, verrät Fogler. „Wir wollten die Modelle so leicht und ökonomisch wie möglich halten, aber die Debatte ist noch nicht entschieden, was nun aufwendiger zu rendern ist: Geometrie oder Displacement. Es könnte ein Unentschieden sein.“

Woodall fügt hinzu: „Für Interaktivität ist Displacement die beste Methode. Aber Geometrie zu rendern ist billiger.“ Die Painter arbeiteten in Photoshop und in ILMs hauseigener Software Zeno. Das Team begriff schnell, dass die Roboter schmutzig aussehen müssen, um glaubwürdig zu wirken: Shader konnten das nicht leisten. „Ohne die wunderbare Arbeit von Ron Woodall wären die Technical Directors aufgeschmissen gewesen“, lobt Hilmar Koch, der die Arbeit der TDs beaufsichtigte. „Synthetisches Shading würde ohne die gepainteten Effekte langweilig aussehen.“

Selektives Raytracing

Die Shader hatten eine andere Aufgabe. „Ich denke, eine unserer größten Leistungen, was das Shading betrifft, ist, dass wir Ray Tracing nach Wunsch ein- und ausschalten können“, berichtet Koch. „Mit selektivem Ray Tracing können wir bestimmte Teile einer Einstellung weicher gestalten.“

Damit sich die Roboter erfolgreich und glaubwürdig in die jeweiligen Environments einfügen und um die Interaktion mit den Live-Schauspielern überzeugender zu gestalten, war der gezielte Einsatz von Reflexionen entscheidend.

„Es ist schon schwierig genug, ein Auto in CG so auszuleuchten, dass es auch real wirkt. Wir aber nahmen das Auto, zerlegten es in einige Tausend Einzelteile und setzten es in der Form eines Roboters wieder zusammen“, erzählt Earl. „Wenn man zum Beispiel einen Teil der Karosserie nimmt und ihn in einen Haufen Einzelteile zerlegt, hat man die Form des Autos natürlich verloren, aber wir mussten dennoch den Zuschauern das Gefühl vermitteln, dass sie beim Blick auf ein bestimmtes Einzelteil eines Transformers sicher sind zu wissen, um welches Teil des Autos es sich dabei handelt. Vieles von diesem Effekt basiert auf Reflexionen.“

Um die real gedrehte Szene zu reflektieren, verwendeten die Technical Directors Environment Maps in 8K-Qualität. Diese nähten Sie aus Fotografien zusammen, die sie zuvor am Drehort aufgenommen hatten. Ray Tracing kam in dem Maße hinzu, wie es für bestimmte Teile der Roboter erforderlich war. ILM setzte zum einen Mental Ray fürs Ray Tracing ein und zum anderen RenderMan für Scanline Rendering und Ray Tracing.

„Wir steuern das über die Shader und die Benutzeroberfläche“, so Koch. „Man kann ein Einzelteil des Roboters auswählen, klickt dann einen Button und das Ray Tracing beginnt.“

Teil für Teil

Modeler bauten die Roboter aus Tausenden von Komponenten. Der kleinste Roboter, der Decepticon Soundbyte, der sich statt als Fahrzeug als Radio tarnt, hat 871 Teile. Optimus Prime hingegen, der Anführer der Autobots, verfügt über 10.108 Teile. Um den Animatoren Kontrolle über all diese Elemente zu geben, entwickelten die Character Developers ein dynamisches Rigging-System, das es den Animatoren erlaubte, auf verschiedene Weise willkürlich Geometrie zu gruppieren und wieder umzugruppieren.

„Wirklich einzigartig ist, dass die Animatoren jedes einzelne Stück Geometrie bewegen können, das man sieht, wenn ein Roboter auf der Leinwand erscheint“, lobt Digital Production Supervisor Jeff White. „Es gibt ein Basis Rig mit Animationssteuerungen, das die Animatoren einsetzen, um den Roboter in der Szene zu bewegen. Wenn sie eine zweite Ebene der Verfeinerung verwenden, können sie jede Kombination von Teilen zusammen gruppieren und sie sich völlig anders bewegen lassen. Sie setzen die Dreh- und Angelpunkte genau da, wo sie sie haben wollen.“

Gesichtsanimation

Besonders wichtig wurde das für die Gesichtsanimation, um Überschneidungen und Durchdringungen von harten Metallteilen zu reparieren und Transformationen zu schaffen. Viele der Roboter, vor allem die Autobots, haben Sprechrollen. Um Gesichtsausdrücke zu schaffen, bauten die Modeler für die Augen ein Turbinensystem mit 50 Metallarmen, die sich wie eine Pupille weiten und verengen; für die Lippen setzten sie geteilte Metallstücke ein und feste Kegel im Mund, um Zunge und Zähne zu simulieren.

Roboter mit Körpersprache

„Innerhalb einer Szene begannen wir unsere Arbeit mit der Körperhaltung und der Körpersprache. Im nächsten Schritt versuchten wir eine bestimmte Bewegung oder ein Gefühl mit der Gesamtpose zu vermitteln“, erklärt Shawn Kelly, der als einer von fünf Animation Leads an der Produktion beteiligt war. „Einige Roboter sind ein bisschen athletischer als andere, aber sie alle sind da draußen, weil sie abgebrühte Kampfmaschinen sind. Sie haben alle einen ähnlichen Kampfstil. Das Minenspiel des Gesichts ist am Ende das Sahnehäubchen: Die Art, wie sich ihre Augen bewegen und wo wir ein Zwinkern platzieren.“

Für den Kampfstil der Roboter benutzten die Animatoren einen Mix aus Video-Referenzmaterial, das Michael Bay von StuntSchauspielern gedreht hatte, die japanische und Hong-Kong-Style-Kampfsportarten mimten, sowie Motion-Capture-Daten von den Stuntmen. „Wir orientierten uns an der Referenz, aber einen Großteil der Handlung machten wir mit Keyframes“, erzählt Paul Kavanagh, einer der Animation Leads. „Wir versuchten immer den Eindruck zu vermitteln, dass die Roboter ein Eigengewicht haben und sich außerdem sehr schnell bewegen können.“

Kleine Tricksereien

Bei den Transformationen schummelten die Animatoren. „Wir verwendeten Tricks“, gibt Kavanagh zu. „Wir versuchten natürlich, die Transformationen so real wie möglich aussehen zu lassen und an so viele Teile wie möglich zu denken, aber wir konnten nicht immer jedes Detail berücksichtigen. Nachdem wir zunächst einmal die wichtigsten Einzelteile am Laufen hatten, ergänzten wir den Rest mehr oder weniger im Vorbeigehen und machten uns nicht allzu viele Sorgen darum. Was am Anfang eine erschreckende Vorstellung war, erwies sich am Ende als eine sehr schöne Aufgabe, an der zu arbeiten enormen Spaß macht.“

Im Allgemeinen animierten die Animatoren den jeweiligen Roboter und sein Tarnfahrzeug, wenn sie ihren Part spielen und übergaben dann für die Transformationen die Posen an die Abteilung für Creature Development. In dem Maße allerdings, in dem die Arbeit voranschritt und die Animatoren das dynamische Rig verwendeten, schufen immer mehr Animatoren auch die Transformationen.

Insektenroboter

Einer der Roboter, der Scorponok, transformiert sich nie. Stattdessen erinnert sein Verhalten mehr an ein Insekt als an einen Menschen. Animation Supervisor Scott Benza spielte den Roboter Scorponok direkt, wie eine Art virtuelles Animatronik. Dabei setzte er Rigid Body Dynamics ein, indem er Rotationskräfte, Forward Velocity und Ähnliches verwendete.

„Wir brachten unsere Rigid-Body-Simulation auf ein ganz neues Niveau für diesen Film“, freut sich Benza im Rückblick. „Wir haben nun Methoden zur Verfügung, die es uns erlauben, Characters mit virtuellen Motoren anzutreiben; wir haben Einstellungen, die von festen Simulationen angetrieben werden.“ Benza backte die Simulationsdaten auf Animationssteuerungen, so dass die Animatoren sie im Anschluss daran genauso ändern konnten, wie sie auch Motion-Capture-Daten ändern würden.

Massive Zerstörung

Überall da, wo die Roboter kämpfen oder einfach nur die Straße hinunterfahren, verursachen sie massive Zerstörungen. Michael Bay entschied sich, große Teile dieser Zerstörung und der Explosionen real am Set zu drehen, aber bei einigen Einstellungen, besonders gegen Ende des Films, war es dann doch notwendig, sie vollständig in CG umzusetzen.

„Wir mussten Beton aufbrechen und Gebäude zerstören“, erklärt Koch. „Wir hatten berstende Wände und herabstürzende Schuttelemente. Und wir haben ziemlich viele Rauchspuren gebaut, alle mit Partikeln. Wir haben Feuer gesetzt, Laternenmasten, Straßenschilder und Ampeln umgelegt, Fenster eingeschlagen, Feuerleitern von Gebäuden gerissen und die verschiedensten Bauwerke zerstört. Ohne 64-Bit-Rendering und 64-Bit-Rechner hätten wir bei dieser Produktion keine Chance gehabt.“ Für die Zerstörungen benutzte das Team sowohl proprietäre Software als auch Software von der Stange.

Schwierige Bedingungen fürs Lighting

Eine ganz eigene Herausforderung mussten bei dieser Produktion die Lighting Artists von ILM bewältigen: Die rauchgeschwängerten Szenen mit den riesigen Robotern waren zum Ausleuchten besonders kompliziert. Um dafür zu sorgen, dass die Lighter schneller arbeiten konnten, unterstützte ILMs Forschungs- und Entwicklungsabteilung das Team dabei, die Licht-Tools in der studioeigenen Software Zeno zu verbessern.

„Wir versuchten so viel wie möglich von der zugrundeliegenden Infrastruktur zu verstecken“, erläutert der leitende Technical Director Hilmar Koch, „damit der Rendering TD nur das zu sehen bekam, was wirklich zählt.“

Während die meisten Zuschauer im Kino sich wohl auf die Action in Transformers konzentrieren werden, freut sich Visual Effects Supervisor Scott Farrar über einen Erfolg der subtileren Art. Seiner Meinung nach bedeuten das Modeling, das Painting, das Rendering und das Lighting in diesem Film einen Wendepunkt für die Visual-Effects-Branche.

„Es galt für uns immer die eiserne Regel, dass es prinzipiell besser aussieht, ein Modell real zu drehen, als es mithilfe von Computergrafik umzusetzen“, erklärt er. „Aber ich denke, wir haben diese Hürde mit den Errungenschaften der Produktion von Transformers jetzt endlich überwunden.“ Und das ist eine Transformation, die sogar ein Cybertron gutheißen würde – egal ob Autobot oder Decepticon.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.