Größer & Besser | Retro-Artikel

Rückblick: In der DP 04 : 2009 realisierte Effektschmiede ILM gigantische Roboter für Michael Bays zweiten Teil der Blech-und-Biege-Brüder aus Transformers. "Mindbending" oder "Sand im Getriebe"?

Dieser Artikel erschien ursprünglich in der DP 04 : 2009.

Industrial Light and Magic, die größte Effektschmiede der Welt, hebt in vielerlei Hinsicht die Messlatte noch weiter an, um gigantische Roboter und andere Effekte für Michael Bays „Transformers: Die Rache“ zu realisieren.

Er ist größer als der erste Film. Viel größer. Genau genommen riesig. Enorm, kolossal. „Wir nutzten 95 Prozent der Renderfarm unseres Studios”, sagt Scott Farrar, Visual Effects Supervisor bei Industrial Light and Magic und verantwortlich für die Spezialeffekte bei „Transformers: Die Rache”. Im Original lautet der Filmtitel des Transformers-Nachfolgers „Transformers: Revenge of the Fallen“, Regie führte wieder Michael Bay.

Der DreamWorks-Streifen schickt einmal mehr die guten Autobot-Roboter gegen die bösen Decepticons ins Feld. Die Hauptakteure auf Seiten der Menschen sind erneut Shia LaBeouf als Sam Witwicky und Megan Fox als seine Freundin Mikaela Banes. Die Autobots Optimus Prime und Bumblebee sind ebenso wieder mit von der Partie, wie der Decepticon Megatron.

Dieses Mal verlagert sich die Schlacht aus Los Angeles heraus und findet in insgesamt sieben Staaten und drei Ländern statt. Auch Ägypten und Jordanien sind Schauplätze des Films. Dieses Mal schließen sich 45 neue Roboter den beiden verfeindeten Parteien und den anderen Robotern des ersten Films an.

„Wir haben zwischen 16 und 20 TByte an Festplattenplatz benötigt, um den ersten Film zu rendern“, sagt Farrar. „Dieses Mal sind es 140 TByte.“

ILM erstellte 560 Shots für den Film, inklusive der 60 Roboter. Einige dieser Shots waren 500 Frames lang und zeigten Szenen mit drei bis vier großen Robotern. Das ist kompliziert und wenn es ans Rendering geht auch noch extrem zeitintensiv. Zusätzlich erstelle Digital Domain einige Roboter: Die Decepticons Reedman und die Microcons Soundwave, Wheelie, die Kitchenbots und Alice, einen heuchlerischen Robot.

Als Unterstützung bei der Schaffung der 60 Roboter erstellte ILM einen digitalen Model-Shop, in dem die Modeler eine Bibliothek mit Roboterteilen anlegen konnten. Jeder, der einen Charakter erstellen sollte, konnte dann jedes dieser Teile benutzen, das bereits über eine detaillierte Texture Map verfügte. Wurde ein Teil der Library verändert, änderte sich auch automatisch jeder Roboter, der diesen Baustein nutzte. Die Modeler erstellten die Character mit Maya und ILMs eigener Software Zeno.

Animation Director Scott Benza stand einem Team von 50 Animatoren bei ILM vor. 20 davon waren bereits am ersten Teil von Transformers beteiligt. Die großen, aus vielen Teilen bestehenden Bots wurden nahezu immer per Hand animiert. Dabei kamen auch wieder Rigs aus dem ersten Teil zum Einsatz, was eine beliebige Kombination der Bauteile ermöglichte.

„Wenn jemand an einem Shot gearbeitet hat und auf eine neues Loch in einem der Roboter stieß, so konnte er einfach ein Teil eines anderen Roboters nehmen und die Lücke damit schließen“, sagt Jeff White, zweiter Visual Effects Supervisor.

Während einer emotionalen Szene mit Sam (Shia LaBeouf) beispielsweise ergießt sich ein Schwall von Tränen aus Bumblebees Augen. Bei diesem Robotermodell war aber keine Möglichkeit vorgesehen, Tränen fließen zu lassen. Weil aber Teile kombiniert werden konnten, nahm sich ein Animator einige Teile, fügte Scheibenwischer hinzu und nutzte die Spritzanlage der Scheibenwischer, um die Tränen zu erzeugen.

Von den 60 Charakteren, die ILM gestaltete, waren 45 neue Helden und 40 hatten mindestens eine Zeile Text und mussten entsprechend animiert werden. Ein über 30 Meter großer Roboter mit dem Namen Devastator, der sich aus sieben anderen Robotern zusammensetzte, war am größten dimensioniert.

Neu ist auch ein weiblicher Autobot, Arcee, der aus drei Motorrädern gebaut wird oder „Doc“, ein kleiner Decepticon, der sich in ein Mikroskop verwandelt. Jetfire ist ein älterer Roboter, der am Stock geht und ursprünglich ein Decepticon war. Jener Jetfire verwandelt sich von einem SR71 Blackbird, einem Jet, der in den 60er Jahren als Spionageflugzeug eingesetzt wurde. Er ist über 12 Meter groß und gebaut aus alten mechanischen Bauteilen. Auch wenn Bumblebee in der bereits angesprochenen Szene weint, verfügt der betagte Jetfire über die wohl emotionalsten und menschlichsten Züge aller nicht-menschlichen Protagonisten.

„Sie atmen, spucken, sprühen Funken und erzeugen Gas und Rauch“, sagt White über die Roboter im Film. „Wir wären nicht auf die Idee gekommen, das im ersten Teil des Films zu machen.“

Neben der Änderung, den Robotern mehr Persönlichkeit und Gefühle zu geben, nahm Michael Bay ihnen auch ihre metallischen Handschuhe und verstärkte so die Kampfsequenzen und machte sie brutaler. Das gipfelt darin, dass Bumblebee in einer Szene einen anderen Roboter in kleine Stücke zerreißt.

Scott Benza war dafür verantwortlich, das Team von Animatoren zusammenzustellen. Einige davon wurden basierend auf ihren Fä- higkeiten und Interessen speziell für dieses Projekt angeheuert. Diejenigen, die große Fertigkeiten im Bereich der Animation von Tieren hatten, arbeiteten an Ravage, einem katzenähnlichen Decepticon. Technik-affine Animatoren kümmerten sich um die Transformations-Shots. Wer an Devastator arbeitete, bekam leistungsfähigere Rechner. Der riesige Decepticon verlangte nach 16 GByte Arbeitsspeicher. Geformt aus sieben gro- ßen Fahrzeugen in Roboterform, besteht die enorme Maschinerie aus 52.632 Teilen und etwa 13 Millionen Polygonen.

Um überhaupt mit den großen Robotern und der Vielzahl an Einzelteilen arbeiten zu können, erstellte ILM eine Produktionspipeline mit unterschiedlichen Auflösungen. Die Animatoren hatten viele Knöpfe auf ihrem Bildschirm, über die sie die Auflösung von 25K oder niedriger bis hin zu 1300K pro Frame verändern konnten. Jeder einzelne Teil einen Roboters konnte ausgewählt und in der gewünschten Auflösung betrachtet und bearbeitet werden. In der niedrigsten Auflösung ließ sich sogar Devastator in Echtzeit bewegen.

Devastator erinnert an einen Gorilla mit einem offenen Magen, umgeben von zahnartigen Bauteilen. Er entsteht, indem er sich reichlich brutal aus einem Fahrzeug nach dem anderen zusammenbaut, beginnend mit einem Minenbagger. Einer seiner Arme entsteht aus einem Kran, der andere aus einer Art Schaufelbagger. Seine Beine waren ursprünglich ein Müllfahrzeug und ein Bulldozer. Ein zweites Müllfahrzeug kommt als sein Torso zum Einsatz und ein Zementmischer wird zu seinem Kopf, in den er per Vacuum alles einsaugt, was sich ihm in den Weg stellt. „Es gibt eine Einstellung, in der sich Devastator in Richtung Kamera bewegt. Möchte man diese eine Szene mit einem Heim-PC berechnen, würde es in voller Auflösung drei Jahre dauern“, sagt Jason Smith, Digital Production Supervisor.

Michael Bay arbeitete direkt mit den Animatoren bei ILM, um Kamerabewegungen für die Animationssequenzen zu erstellen und eigene Ideen einzubringen. „Er war ständig an der Kamera. Egal ob am Set oder bei ILM“, sagt Benza. Bei ILM kontrollierte Bay eine virtuelle Kamera auf der studioeigenen MotionCapture-Bühne, um die animierten Charaktere zu filmen. Wie am Set improvisierte Bay mit den Darstellern. Bei ILM waren das aber animierte Charakter und die Animatoren. Manchmal hatten die Animatoren Ideen, die Bay für den Film nutzte. Und, nachdem ILM einen gewaltigen Kampf zwischen Optimus Prime und Megatron in einem Wald choreografiert hatte, lud Bay Benza und Farrar direkt an den Drehort, einen Wald in New Mexiko ein, um die Plate-Fotografie mit ihrer Previz zu betreuen.

Für diese Sequenz erstellte die EffektCrew in der Postproduktion CG-Bäume, um die Shots an die Location anzupassen. Somit konnten die Roboter in die Bäume krachen und Äste abbrechen. Jeder Ast war eine Ansammlung von einfachen Objekten, die aneinandergereiht wurden. Die Technical Directors konnten eine Rigid-Body-Simulation ablaufen lassen, die dann ein High-Resolution-Model ergab.

Auf die Größe kommt es an

Mit der dreifachen Anzahl an Robotern, die noch dazu deutlich komplexer sind, stellte ILM sehr hohe Anforderungen an die vorhandenen Massenspeicher. Dazu kam, dass einige Szenen in IMAX-Auflösung gedreht wurden. Normalerweise rendert das Studio die Szenen in 2K-Auflösung, die IMAX-Szene hat bei 4K-Auflösung die achtfache Menge an Pixeln. „Wir hatten mehr Compositing-Arbeit in 4K“, sagt Smith. „Die Compositing-Artists haben viel Zeit mit dem Zoomen innerhalb einzelner Frames verbracht.“

Das Compositing für die IMAX-Shots fand in Nuke statt und Bay schnitt die Szenen heraus und nutzte sie für die normale Projektion. „Du willst den Film mit Sicherheit in IMAX sehen“, ergänzt White.

IMAX hatte auch Einfluss auf die EffektCrew. In der Vergangenheit wurden beispielsweise Sandstürme durch instanzierte Partikel-basierende Sprites erstellt. Bei 4K musste sich die Crew auf volumetrische Simulationen verlassen, um genug Details für den Sand zu erschaffen, den der Devastator in sein Zementmischer-Maul saugt.

In einer bemerkenswerten Szene klettert Devastator eine Pyramide in Ägypten empor und schlägt die Spitze ab, als wäre sie ein ungeliebtes Spielzeug, das ein wichtiges Stück Technologie im Inneren verdeckt. Als er das tut, sind einzelne Blöcke zu sehen, die seitlich abbröckeln und nach unten fallen. Um diese Einstellung zu ermöglichen, nutzen die Artists von ILM Felder und Partikel, um Fracturelines in 3D an einer CG-Pyramide zu definieren. Das Simulationsteam ließ daraufhin eine Rigid-Body-Simulation mit 150.000 Einzelteilen auf GPUs statt CPUs laufen.

Um den staubigen und sich bewegenden Sand zu erstellen, der von der Pyramide herab fällt, bauten die TDs einen grauen Kegel und stülpten ein Stück Stoff mit passender Oberflächensimulation darüber. Dann nutzen Sie die Stoffsimulation, um eine Partikelsimulation zu realisieren. Sobald sie die Freigabe für die Form der Simulation hatten, ließen sie die Partikel-Simulation laufen.

ILM war am Zug

Im Film gibt es zwei Szenen, die komplett digital erstellt wurden. Eine spielt auf Nemesis, dem Planeten, von dem die Decepticons stammen. Die andere findet unter Wasser statt, wenn die Constructicons und der DocBot Megatron retten.

„Da waren wir gefragt“, sagt White. Bay nutzte wieder die virtuelle Kamera, um der Crew das Framing zu zeigen, das er sich vorstellte. Dann lag es an ILM, die Atmosphäre zu reproduzieren, die er vom Set her gewohnt war. „Er nutzt Unmengen an Tropfen, Schmiere und Nebel“, ergänzt White. „Also fügten sie all das zu Shots mit The Fallen hinzu.“ The Fallen ist eine Kreatur, die flach auf ihrem mechanischen Rücken liegt und aussieht, als könnte sie der Cousin vom Alien sein.

Für die Unterwasserszene achteten die TDs ganz speziell darauf, wie das Lighting unter Wasser funktioniert. So wurden beispielsweise Verschmutzungen eingebaut, damit es realistische Reflexionen der Lichtstrahlen gibt.

„In jedem Film gibt es Schlüsselszenen“, sagt White. „In diesem Film hat jede Sequenz Schlüsselszenen.“

Digitale Umgebungen

Zusätzlich zu den Robotern erstellte ILM digitale Umgebungen. „Wir benötigten große Kulissen für unsere großen Roboter“, sagt Farrar. Obwohl Bay über einen Zeitraum von sechs Monaten hinweg in Ägypten, Jordanien und anderen Orten filmte, hatte die DigimatteAbteilung trotzdem alle Hände voll zu tun. In manchen Locations wäre es zu schwierig oder zu teuer gewesen, die gesamte Ausrüstung für einen bestimmten Shot mitzubringen. Also war es eine gute Lösung, dass die Digital Artists Orte mithilfe von Projection-Maps auf Low-Res-3D-Geometry nachgebaut haben. Durch diese virtuellen Sets konnte Bay mit seiner virtuellen Kamera „fliegen“ und das wurde der effizienteste Weg, die Shots zu erstellen. „Das ist ein gutes Angebot, das man dem Regisseur machen kann“, sagt Farrar.

Selbst an Orten, an denen Bay filmen konnte, hat die Crew genug Digitalfotos gemacht, um sie daraus digital nachbauen zu können. Das war für den Fall, dass Bay noch etwas in der Postproduktion ändern wollte. Was er von Zeit zu Zeit in Zusammenarbeit mit der EffektCrew auch gemacht hat.

„Mit Michael zu arbeiten macht immer viel Spaß“, sagt Benza. „Seine Filme sind zwar die schwersten aber auch die, die am meisten Freude bringen.“

Und es sind auch die größten und brutalsten. Wo sonst kann man schwere, aus Tausenden von Teilen bestehende Roboter dabei beobachten, wie sie sich in Stücke schlagen? Und wenn ILM seine Arbeit gut gemacht hat, glaubt der Zuschauer jede Minute davon.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.