Krieg der Welten | Retro-Artikel

Rückblick: In der DP 05 : 2005 jagte ILM für Steven Spielbergs Krieg-der-Welten-Verfilmung Spezialeffekte durch eine brandneue Pipeline. Ein Testlauf mit Zeitdruck – inmitten einer Big-Budget-Produktion.

Dieser Artikel („Krieg der Welten“: ETs blutrünstige Nachfolger) von Barbara Robertson erschien ursprünglich in der DP 05 : 2005.

Steven Spielbergs Interpretation von „Krieg der Welten“ wird aus mehreren Gründen in Erinnerung bleiben: Da ist zunächst das geschickte Einflechten heutiger Terrorängste in H.G. Wells’ 1898 entstandene Geschichte einer Invasion der Erde durch Außerirdische, dann die erfreulichen Umsätze an der Kinokasse, die schauspielerische Leistung von Megastar Tom Cruise, der jungen Dakota Fanning und des hintersinnigen Tim Robbins. Ebenso eindrucksvoll sind die Bilder des Kameramanns Janusz Kaminski – und schließ- lich die fotorealistischen visuellen Effekte des achtfachen OscarPreisträgers Dennis Muren und des Oscar-Kandidaten Pablo Helman, die bei Industrial Light & Magic (ILM) entstanden.

In der VFX-Szene wird der Film auch wegen der Geschwindigkeit im Gedächtnis bleiben, mit der ILM derart hochwertige Effekte erreichte. Beim Effektstudio selbst hingegen wird man sich wohl vor allem daran erinnern, dass diese Effekte mit seiner brandneuen Pipeline der dritten Generation entstanden. „‚Krieg der Welten’ war ein Testlauf”, gesteht Muren.

Zurückhaltender Effekt-Einsatz

Der Dreh der ersten Sequenzen begann im November 2004 und erlaubte es ILM, im Dezember eine der schwierigsten Einstellungen – das erste Auftauchen der außerirdischen Raumschiffe – zu drehen. Die Aufnahmen endeten Anfang März, und Paramount brachte den Film Ende Juni ins Kino. „Wir haben die Hälfte der Finals in den letzten vier Wochen fertiggestellt”, erzählt Muren. Unterm Strich schuf ILM etwa 400 Einstellungen, von denen viele Modelle und Miniaturen enthielten.

„Wir wären mit Computergrafik durchgekommen, aber die Explosionen hätten nicht so echt ausgesehen”, verrät Muren. „Daher bauten wir einen Haufen Modelle und Miniaturen. Aber wir fügten sie nur dort in die Aufnahmen ein, wo wir sie brauchten. Wir haben uns bemüht, so viel wie möglich on Location zu machen, damit die Effekte das Konzept des Bildes möglichst wenig beeinträchtigen. Steven strebte für den gesamten Film einen organischen Look an. Alles ist schmutzig und staubig, und die Kamerabewegungen ähneln den Amateur-Aufnahmen vom 11. September. Wir wollten dem Shooting nicht schon die Beschränkungen der Postproduktion auferlegen.“

Animatics als hochpräzise Drehvorlage

Die Prävisualisierung trug dazu bei, das möglich zu machen. Daniel D. Gregoire von JAK Films, der mit George Lucas an „Star Wars: Episode III” gearbeitet hatte, schuf Animatics, die den echten Drehorten und tatsächlichen Kameraobjektiven entsprachen. „Nachdem sie einmal die Locations hatten, verbrachten sie sicher zu Anfang zwei oder drei Monate damit, die Einstellungen mit Animatics zu prüfen“, berichtet Muren. „Das war eine Prävisualisierung, wie ich sie noch nie erlebt habe. Sobald wir am Drehort dabei waren, eine Einstellung einzurichten, fragte Steven Dan, mit welchem Objektiv das Animatic aufgenommen wurde. Dan sagte dann zum Beispiel: ‚Das war ein 21er, und die Kamera war 8,20 Meter über dem Boden und sechs Grad nach unten geneigt.’ Und dann fingen wir genau so an. So bekam Steven das Vertrauen, am Set genau das zu drehen, was er wollte, im Wissen, dass er in der Previz schon vier oder fünf Alternativen durchgespielt hatte.“

Bei ILM arbeitete zu Beginn ein Team von 50 Leuten an den ersten Sequenzen, die hereinkamen. Während der letzten fünf Wochen wuchs das Team dann auf 179 Köpfe an. Die meisten kamen etwa acht bis zehn Wochen vor Schluss, als die Arbeiten an „Episode III“ endeten. Der Zeitplan sah nur zwölf Wochen Postproduktion vor, und die war keinesfalls einfach.

Anspruchsvolles Compositing

„Vom Compositing her war das der komplizierteste Film, den ich je gesehen habe”, erklärt Compositing Supervisor Marshall Krasser, zu dessen Referenzen die Leitung des Compositings bei „Lemony Snicket“, „Van Helsing“, „Hulk“, „Star Wars: Episode II“ und „Pearl Harbor“ gehören. „Die Verbindung mit dem Ausgangsmaterial zu Stande zu bringen, war eine Herausforderung.

Krasser arbeitete am Anfang mit fünf Compositors, aber am Ende waren es 45. Da so viel wie möglich von dem Film am Drehort aufgenommen worden war, mussten die Compositors digitale Elemente, Matte Paintings und Footage von Modellen und Miniaturen in Bilder voller Staub, Rauch und Schutt einfügen. Für einige Sequenzen nahmen sie das Material, zerlegten es buchstäblich und fügten es dann wieder zusammen.

Um zum Beispiel die Sequenz zu gestalten, in der sich mitten in Ray Ferriers (Tom Cruise) schäbigem Wohnviertel der Tripod, die rund 45 Meter hohe Kampfmaschine der Außerirdischen, aus dem Boden schraubt, begannen die Compositors mit der Realfilm-Aufnahme. In dieser Szene sind alle Autos stehen geblieben. Zahlreiche Blitze sind in der Mitte einer Kreuzung in den Boden eingeschlagen. Eine Menschenmenge drängt sich um das entstandene Loch. Das Pflaster beginnt aufzureißen, das Ungetüm dringt langsam an die Oberfläche vor, und alles auf und rund um die Kreuzung beginnt sich zu verschieben. Eine Simulation von ILM sorgte für die Risse, die Compositors schufen die Verschiebungen.

Um die in der Szene zu sehende Kirche über mehrere Frames der Sequenz hinweg auseinander zu reißen, kombinierte das Team Fotografien von Miniaturen in verschiedenen Stadien der Zerstörung mit Aufnahmen der Kirche, die auf die Geometrie projiziert wurden. „Wir schnitten alles aus dem Bild aus, das sich bewegen konnte, und legten es auf separate Teile der Geometrie“, erzählt Krasser: „Telefonmasten, Ampeln, Stop-Zeichen, Straßenlaternen und Gebäude.” Das Team setzte dafür ILMs Kameraprojektionssoftware Zenviro ein sowie Comptime, die Studio-eigene Compositing-Software. Zenviro ermöglicht es in einer virtuellen Umgebung, Texturen, die aus Fotos oder bewegtem Bildmaterial bestehen können, auf 2D-Karten oder 3D-Objekte zu projizieren.

Painter – oder jeder andere – können diese Bilder retuschieren, wobei sie sich an dem orientieren, was sie durch eine virtuelle Kamera sehen, die der Kamera vom Ausgangsbild folgt. Nachdem die Elemente mit der Geometrie verbunden waren, veschoben die Compositors sie so, als ob sie von dem sich erhebenden Tripod beeinflusst würden. Dabei animierten sie Frame für Frame. „Es ist erstaunlich, wie dieses kleine bisschen zusätzlicher Mühe dem Shot zu mehr Glaubwürdigkeit verhilft“, lobt Krasser.

Auf ähnliche Weise verbanden die Compositors Ausgangsaufnahmen, Miniaturen und 3D-Objekte, um einen Freeway zu zerstören, der auf Hochpfeilern durch Ferriers Viertel führt. „Der obere Teil der Brücke war 3D-Geometrie, die verbogen und animiert wurde“, erläutert Krasser, „aber die Betonpfeiler waren Miniaturen. Die explodierende Tankstelle und die Häuser, die von einem Tanklastzug zerfetzt werden, waren ebenfalls Miniaturen. Sie stimmten mit den echten Häusern, die am Drehort aufgenommen wurden, so präzise überein, dass wir die echten Häuser gar nicht mehr benutzten.“

Tripods und Aliens als reine CG-Konstrukte

Die Tripods und die (im Film nur kurz zu sehenden) Aliens bestanden hingegen vollständig aus CG. Die Tripods sind so gestaltet, dass sie mehr an Illustrationen aus Wells’ Buch erinnern als an die Raumschiffe aus dem Film von 1953 – sie wirken wie Panzer auf langen, schlanken Beinen. „Sie waren roboterhaft, mechanisch und organisch mit gelegentlichen Zwischenstadien, abhängig von der Einstellung“, erklärt Animation Supervisor Randal Dutra. Dutra, der mit Spielberg und Muren bereits an „Jurassic Park“ und „Jurassic Park: Vergessene Welt“ gearbeitet hatte, verließ die VFX-Branche vor einigen Jahren, um eine Karriere als Maler zu verfolgen. Muren überzeugte ihn, für diesen Film zurückzukehren. Er führte bei ILM 19 Animatoren, die 123 Character Shots bearbeiteten, einige davon mit mehreren Charakteren. „Wir hatten drei Monate und drei Wochen, um die ganze Animation zu erstellen“, erzählt Dutra: „Steven pflegte Sequenzen nach dem Dreh rasch zu bearbeiten. Das hohe Tempo hielt alle auf Trab. Alle arbeiteten zügig, und das war großartig. Wir konnten die Konzentration, Zielorientierung und Begeisterung aufrechterhalten.“

Zusätzlich zu der Aufgabe, die Tripods glaubwürdig auf ihren dürren Beinen zu bewegen, die eigentlich ungeeignet scheinen, den schweren „Kopf“ zu tragen, entwickelten die Animatoren neunzehn Tentakel, die als Sonden dienten. In einer Szene gleitet eine dieser Sonden durch einen Keller, in dem sich Ray Ferrier und seine Tochter verstecken. „Wir animierten sie als eine Kreuzung zwischen einer Schlange und einem Aal, der durch das Wasser gleitet,“ sagt Dutra. „Der ganze Trick ist, die Bewegungsintervalle richtig aufzuteilen.“

Für Einstellungen, in denen medusenartig gleich mehrere Tentakel erscheinen, bekamen die Animatoren Hilfe von den Technical Directors (TDs), die prozedurale Animationen für die HintergrundTentakel entwickelten. Für die Scheinwerfer der Tripods schufen die Compositors einen Effekt, der an wellenförmiges, gasartiges, beschlagenes Glas erinnert. „Wir entwarfen ein zweidimensionales fraktales Noise-Muster“, erklärt Krasser, „markierten einige Tracking-Punkte am Kopf des Tripod und fixierten unseren Effekt mit Hilfe der gewonnenen Animationsdaten auf dem Tripod. Dadurch bewegte sich der animierte Effekt mit dem Tripod und blieb an ihm befestigt.“

Manchmal muss es kein Shader sein

Für das Gas und den Rauch, den die Tripods ausstoßen, verbanden die Compositors Nebelelemente – Filmaufnahmen von Nebel – mit zweidimensionalem fraktalem Noise. „Warum Shader schreiben, wenn man auch reale oder zweidimensionale Techniken verwenden kann, um etwas zu schaffen, was man so noch nie gesehen hat?“, fragt Krasser rhetorisch.

Wie ihre Tripods haben auch die Aliens drei Beine und jedes Bein hat drei Zehen. „Als Vorbild habe ich mir rotäugige Baumfrösche angesehen“, verrät Dutra. „Während sie sich fortbewegen, setzen sie ihre Hände eher an die Wände als auf den Boden.“ Die Animatoren wechselten hin und her zwischen Maya und ILMs neuem, Zeno getauften Pipeline-Toolset. Die TDs, Modeler, Match Mover, Painter und Lighter arbeiteten hingegen alle mit den neuen Werkzeugen. „Bei jedem Auftrag machen wir immer etwas, was wir noch nie zuvor getan haben“, sagt TD Michael Di Como: „Diesmal haben wir unsere komplette Pipeline ersetzt.”

Neue Pipeline mit Anregungen aus Europa

Teile der neuen ILM-Pipeline sind zwar schon seit der Preproduction von „Star Wars: Episode I“ 1998 und 1999 in Entwicklung, zum Beispiel die preisgekrönte Kamera-Tracking-Software für das Pod-Rennen und später Zenviro, die Kameraprojektions-Mappingsoftware. Doch die eigentliche Entwicklung des neuen, vereinheitlichten Toolsets fand in den beiden zurückliegenden Jahren statt, ausgelöst durch den geplanten Umzug in neue Räumlichkeiten. Als „Krieg der Welten“ anstand, entschied ILM, das Tempo noch einmal anzuziehen. „Wenn du kein Risiko eingehst, wenn du etwas nicht unter Druck durchziehst, wird es erstens niemals fertig”, doziert Muren, „und zweitens wird es nie richtig funktionieren. Der einzige Weg ist daher, es mit einem Auftrag zu verbinden, und dafür habe ich mich entschieden.“

Mit Blick auf den Umzug in die neuen Räume und in dem Wissen, dass ILM nach der letzten Episode von „Star Wars“ eher 2.000 Einstellungen pro Jahr als 4.000 bearbeiten würde, erhielt Muren den Auftrag, nach Wegen zu suchen, ILM neu zu erfinden. Teil des Ergebnisses waren Standards für Zenos Benutzeroberfläche. „Wir brauchten Werkzeuge, die die Artists in die Lage versetzen, mehr als eine Aufgabe bei der Bilderstellung zu übernehmen“, erläutert er. „In Europa wird eine Menge Arbeit von ein, zwei Leuten gemacht, die alles vom Match Moving bis zum Rendering erledigen.

Wir waren bisher nicht so aufgestellt, aber ich denke, unsere Leute sind bereit, diesen Schritt zu gehen. Alles fängt mit einem einfach zu benutzenden Toolset an.“ ILMs erste Pipeline basierte auf SGI Inventor. Die zweite, die in erster Linie darauf ausgelegt war, Lebewesen zu produzieren, baute auf Szenen-Dateien aus frühen Versionen der Softimage-Animationssoftware auf. Herzstück der neuen Pipeline ist nun eine SzenenDatei, die ILM entwickelt hat und kontrolliert. „Zeno verwaltet alle Daten auf dem Szenen-Level“, erklärt Chief Technical Officer Cliff Plumer: „Es ist ein Kern-Werkzeugsatz mit Timeline, Scene-Graph und einem Curve-Editor, der die Tools lädt, die der Artist braucht.“ Durch diesen Ansatz ist die Pipeline offen für Innovationen.

Alles unter einem Dach

Sämtliche älteren proprietären Tools von ILM wurden neu geschrieben. Und durch die Integration der Scriptsprache Python lassen sich neue Module nun leicht hinzufügen. Zu den Errungenschaften zählen als Herzstück eine Simulations-Engine, die Kleidung, Flüssigkeiten, Haare und Haut berechnet. Modelle können aus Subdivision Surfaces, Polygonen oder Nurbs bestehen. Ein neues Beleuchtungspaket namens Lux liefert, was TD Di Como als „echte 3D-Beleuchtung für Partikel und Creatures“ bezeichnet. Und es gibt eine Zwei-Wege-Verbindung zwischen Renderern wie Mental Ray, Renderman oder Brazil und dem Compositing-Modul von Zeno. Live-Links lassen Software wie Photoshop, Inferno und Shake quasi als Module innerhalb von Zeno erscheinen und erleichtern Anwendern, die Erfahrung mit kommerzieller Software besitzen, den Einstieg in Zeno. Schnell ist ILMs Software auch: Die durchgängig in 64 Bit programmierte Lösung greift direkt auf Nvidia-Grafikkarten zu.

Die wichtigste Änderung liegt aber im Workflow: Die Artists arbeiten nun mit einer einheitlichen Benutzeroberfläche, die sich an Maya anlehnt und es ihnen erlaubt (ganz wie von Dennis Muren geplant), unkompliziert mit jedem Tool aus dem Toolset zu arbeiten. Ebenfalls in Zeno ist etwas integriert, was Software-Entwickler Alan Trombla als „nichtdestruktives Überschreiben“ bezeichnet – es stellt die Integrität aller Elemente in einer Szene sicher, gleichgültig, wer wann ein Element bearbeitet. „Zeno hält alles getrennt, aber für einen TD sieht es so aus, als ob alles verschmolzen sei. So können Modeler malen, Painter animieren und Compositors simulieren. TDs können beleuchten, malen, animieren und modellieren. Falls sie es wollen.

„Die neue Pipeline fordert Artists heraus, umzudenken“, stellt TD Curt Miyashiro fest. „Früher wurde Animation gecached. Jetzt können TDs die Animation anpassen, ändern, feintunen und Korrektur-Shapes hinzufügen, um ein animiertes Model zu verbessern.“ Miyashiro liefert ein einfaches Beispiel aus dem Film: „Wir mussten die Richtung der Tripod-Scheinwerfer ändern, damit sie in die Einstellung passen“, erzählt er. „Früher hätten wir dafür auf die Animatoren zurückgreifen müssen.” Einer der Shots wurde tatsächlich von Anfang bis Ende vom Modeler Michael Koperwas erstellt. „Es war die Aufnahme einer Spinne, die an Dakota Fanning hochkrabbelt“, erläutert Miyashiro: „Er hat sie modelliert, gechaint, geriggt und beleuchtet.”

Wie viel Einfluss die neue Pipeline auf ILMs Artists haben wird, bleibt abzuwarten. Aber wenn erste Tests ein Hinweis sind, dann wird sie dem Studio wahrscheinlich helfen, den wachsenden Bedarf an hochwertigen, aber dennoch zügig erstellten Effekten zu decken. Und weil die Pipeline von Lucas Arts, dem Spiele-Entwicklungsbereich von Lucas Digital, mitentwickelt wurde und mitgenutzt werden wird, gilt es viele Möglichkeiten erst noch zu entdecken. „Ich habe den Unterschied gesehen, mit welcher Energie die Leute an die Arbeit gingen”, zieht Muren eine Zwischenbilanz. „Einige haben wirklich Gefallen daran gefunden und ich denke, sie haben ihre Sachen schneller fertig bekommen. Die Kultur muss sich noch ändern, aber wir haben eine Philosophie initiiert, wonach wir offen dafür sind, wenn Leute lernen wollen. Es wird voraussichtlich ein Jahr dauern.“ Nach kurzem Nachdenken korrigiert er sich: „Vielleicht ein halbes Jahr.“

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.