Aardmans Abschied vom Plastilin

„Flutsch und weg“ ist die erste Aardman-Produktion, in der Wasser eine zentrale Rolle spielt – einer der Gründe dafür, diesmal vollständig auf CG zu setzen. Besonders schwierig war, Schaum und Spritzer mit der Wasseroberfläche zu verbinden. Im Bild die „Jammy Dodger“, das Schiff von Film-Heroine Rita.

Erstmals legte Aardman für „Flutsch und weg” die Knetmasse beiseite und schuf zusammen mit Dreamworks einen Full-CG-Film. Der Grund dafür waren zahlreiche Einstellungen mit Wasser. Wie die Studios das nasse Element bändigten und den Darstellern den klassischen „Claymation“-Look verliehen, lesen Sie hier. Dieser Artikel erschien ursprünglich in der Digital Produktion 01 : 07.

Roddy St. James (Sprecher: Hugh Jackman; deutsch Ralf Bauer) pflegt als Streichelmaus in einem besseren Viertel von London einen exquisiten Lebensstil, bis eines Tages die Unterschicht in Gestalt der ebenso proletarischen wie listigen Kanalratte Sid (Shane Richie/ Olaf Reichmann) in sein Leben tritt. Als Roddy versucht Sid loszuwerden, landet er statt seiner in der Londoner Kanalisation. Hier trifft er Ratten, Frösche und Schnecken, die in einer schrägen Kopie der britischen Hauptstadt leben – mit Tower Bridge und roten Doppeldeckern aus Abfällen.

So beginnt „Flutsch und weg“ („Flushed away“), ein CGAnimationsfilm von Dreamworks Animation und Aardman Animation. Es ist nicht die erste Zusammenarbeit beider Studios, aber das erste Mal, dass Aardman – berühmt für seine Stop-Motion-Filme wie „Wallace & Gromit“ und „Chicken Run“ – zusammen mit Dreamworks einen Animationsfilm vollständig mit 3D-Werkzeugen schuf.

Wasser gibt den Ausschlag für 3D

Der Grund für diese Entscheidung war Wasser: „Anfangs gingen wir davon aus, dass wir einen Stop-Motion-Film mit CG-Effekten machen“, erinnert sich Visual Effects Supervisor Wendy Rogers. „Aber es gibt wirklich eine Menge Wasser und stattliche Effekte. Wir hatten Wassernebel, Wasserspritzer, sogar eine Wasserkläranlage.“

Das Wasser strömt durch die Untergrundmetropole und stürzt über Wasserfälle hinab. Die weibliche Heldin des Films, die Ratte Rita (Kate Winslet/Jessica Schwarz), fährt mit einer Art Schlepper durch die Kanäle. Der Schlepper setzt sich wie auch alle Gebäude vollständig aus Müll zusammen.

„Es ist schon möglich, CG-Wasser in Stop-Frame-Material hineinzucomposen“, erzählt Sam Fell von Aardman, der zusammen mit David Bowers Regie führte. „Wir haben das schon bei ‚James und der Riesenpfirsich’ gemacht. Aber weil der Film in der Kanalisation spielt, gibt es so viel Wasser, dass es am Ende unsinnig gewesen wäre.“

Um das digitale Wasser zu gestalten, benutzte Dreamworks proprietäre Flüssigkeitssimulationen ebenso wie neue, speziell für diesen Film entwickelte Techniken für Wasserfälle, Fahrwasser, Wellen, Wasserrutschen und Spritzer. Die Wasseroberfläche war Geometrie, auf der Displacement Maps lagen. Die eigentliche Schwierigkeit bestand aber in den Wasserspritzern.

Mit ein Grund für den Einsatz von Computergrafik waren auch Massenszenen in der Kanalisation. Die Sequenz zeigt, wie das Gewimmel in der Mäusestadt entsteht

Knifflige Interaktion

„Eines der größten Probleme, vor dem wir standen, war der Maß- stab“, erinnert sich Head of Effects Yancy Lindquist. Wasserspritzer mussten „Ratten-Größe“ haben, wenn die Regisseure nicht gerade nach Übertreibungen verlangten.

Ein weiteres Problem war das Design. „Wendy und die Regisseure wollten markante Formen“, erzählt er. Für kleine Wassertropfen modellierten die Effect Leads Formen; für größere Bereiche arbeiteten sie mit dem Flüssigkeitssimulator, um Wasser in die gewünschte Form zu bringen. „Wir konnten den Simulator präzise justieren, um bestimmte Looks zu erzielen“, sagt Lindquist. „Wir stellten ein, wo sich ein Wasserspritzer befinden soll, wie hoch er ist und wie viele Partikel er enthält.“

Das kniffligste Problem für die Forschungs- und Entwicklungsabteilung war allerdings die Interaktion zwischen den Darstellern, den Props und den Schiffen auf der einen Seite und dem Wasser auf der anderen. Effects Lead Scott Cegielski programmierte ein System für die Wasserspritzer, das er auch in einem Siggraph-Paper beschrieb und das den Effect Artists „Wasserspritzer“-Werkzeuge zur Verfügung stellte. Mit diesen Tools konnten sie Spritzer generieren, die Simulation bis hinab in kleinste Details kontrollieren und aus den resultierenden Partikeln Oberflächen erzeugen. „Wir generierten Spritzer in Abhängigkeit davon, wie schnell sich ein Darsteller bewegt“, berichtet Cegielski, „und wir simulierten die Spritzer mit unserer Inhouse-Flüssigkeitssimulation.“

Und so funktionierte das System: Vor dem Start der Flüssigkeitssimulation konvertierte ein proprietäres Tool die Oberfläche eines Darstellers in gleichmäßig verteilte Partikel – mehr Partikel, wenn mehr Detail gewünscht war, und für geringere Detailtreue weniger Partikel. Jeder Partikel trug einen Geschwindigkeitsvektor, der in dieselbe Richtung wies wie die Bewegung des Darstellers an diesem Punkt.

Anschließend bestimmte das System, welche Partikel es für die Simulation benutzt. Dabei bezog es die Entfernung zwischen Partikel und Wasser ebenso in die Berechnung ein wie von den Artists festgelegte Kriterien für die nötige Geschwindigkeit, um einen Wasserspritzer zu erzeugen. Die Artists speisten die verbliebenen Partikel, die sie modifiziert hatten, um die Richtung der Spritzer und ihre Geschwindigkeit zu kontrollieren, in das Flüssigkeitssimulationsprogramm ein.

Sie lokalisierten auch jene Bereiche, in denen sich die Darsteller und das Wasser schnell über mehrere Animationsframes hinweg bewegten, um die Simulation an diesen Stellen zu verbessern. Dazu trackten sie bei jedem Darsteller Frame für Frame den Mittelpunkt seiner Bounding Box und leiteten aus der Bewegung jeweils eine Vektorkraft ab. Anschließend invertierten sie die Tracking-Daten. Auf diesem Weg entfernten sie die Gesamtbewegung des Darstellers, behielten aber kleinere Bewegungen bei, etwa von Armen und Beinen.

Um nun in der Simulation den Eindruck von Bewegung in großem Maßstab zu erhalten, benutzten die Effect Artists die zuvor berechnete Vektorkraft: Fand die Hauptbewegung an der positiven Z-Achse statt, wandten sie die Vektorkraft in entgegengesetzter Richtung auf die Simulation an, also entlang der negativen Z-Achse. Das Ergebnis war, dass sich die Wasserspritzer entlang der vorstabilisierten Bewegung jedes Darstellers bewegten.

Die Form der Spritzer kontrollierten die Artists mit einen Noise Multiplier für die Amplitude. Außerdem veränderten sie Parameter, indem sie Texture Maps malten, etwa um mehr Spritzer mit der Hand eines Darstellers zu erzeugen, als mit anderen Körperteilen.

Alle Gebäude in der Kanalisation bestehen aus Sperrmüll und Abfällen. Die Designer gaben präzise Vorgaben für alle Materialien (oben). Die Übersichtsskizze (rechts) verrät die genauen Bestandteile – vom Schulpult bis hin zu Löffeln und Gabeln

Die Filmversion des Big Ben wurde unter anderem aus einer Waschmaschine, einem Korkenzieher und einem Satz Golfschläger erbaut

Splashs mit System

Die Größe der Darsteller orientierte sich an der Größe von Aardmanns Plastilin-Puppen für die Stop-Frame-Animation. Daher besaßen auch die Wasserspritzer nur Miniaturgröße und das Team renderte sie lieber als Oberflächen statt als Partikel. Für die Oberfläche konvertierte ein Tool die Partikel zunächst in ein Octreebasiertes Density Grid und dann mithilfe eines „Marching Cubes“ getauften Algorithmus in eine Polygon-Datei. Der Algorithmus hatte die Aufgabe, für jede Zelle des Gitters Polygone basierend auf der Dichte zu schaffen. Eine Surface-Relaxing-Software glättete das Ergebnis. Weil sich die Topologie in jedem Frame änderte, benutzte das System eine zweite Datei, die deformierte Vertices für die Polygon-Datei jedes Frames enthielt, um so akkurates Motion Blur zu berechnen. Die Geschwindigkeit bestimmte dabei das Maß an Deformation. Um die Oberfläche des Spritzers in die Oberfläche des Wassers zu integrieren, wurden die Vertices, die auch noch einmal in der Polygon-Datei vorhanden waren, deformiert, sobald sie sich der Oberfläche nähern. Die Deformation geschah in Richtung der Oberflächennormalen des Spritzers entlang eines Vektors, der tangential zur Wasseroberfläche verlief. Das schuf einen wulstigen Rand zwischen der Spritzer- und der Wasseroberfläche, der beide Oberflächen verband, so dass sie beim Rendering so aussahen, als gingen sie ineinander über.

Obwohl Cegielskis Werkzeug komplexe Algorithmen enthielt, ließ sich das Splash-System künstlerisch beeinflussen. „Scotts Tool machte es einfach, die Spritzer getrennt von den Darstellern zu animieren“, lobt Lindquist.

Für die Verfolgungsjagd auf dem Wasser organisierte Effects Lead Alex Ongaro die Integration der Wasserspritzer, die aus der Simulationssoftware stammten, in die Wasseroberfläche, bei der es sich um eine deformierte Oberfläche handelte. Für diese Sequenz arbeiteten drei Mitarbeiter sechs Monate lang an der Entwicklung und acht Monate an der Produktion.

„Das Hauptproblem war, dass wir die Spritzer noch vor der Oberflächengeometrie hatten“, erklärt Ongaro. „Wir mussten die beiden Softwaresysteme mit der gleichen Farbe verbinden und eine Reflexion des Spritzers auf dem Wasser erzeugen.“

Sie lösten das Problem, indem sie die Partikel- an die Wasserfarben anpassten und dann in Dreamworks‘ hauseigener Compositing-Software Pseudo-Reflexionen erzeugten.

„Es war eine große Herausforderung, Effekte zu erzeugen, die stilistisch aufregend sind“, verrät Wendy Rogers. „Das Wasser ist eher gemalt als real, aber es ist real genug, um bedrohlich zu wirken. Es ist der Art und Weise, wie Effekte in Spielfilmen eingesetzt werden, nicht ganz unähnlich.

Die Mundanimation ist entscheidend für den Aardman-Stil. Hier gut zu erkennen: das äußere und innere Band für die 3D-Animation
Gab es bei Aardman verschiedene Plastilin-Münder für die Darsteller, so standen den Animatoren diesmal diverse 3D-Münder zur Auswahl
Ein eigenes Tool stellte den Animatoren vorfabrizierte Mimik-Elemente zur Verfügung

Ein Rig für den Aardman-Stil

Eigentlich ist die Stop-Frame-Animation eine Art von real gedrehtem Spielfilm, und die Regisseure wollten den berühmten Aardman-Stil soweit wie möglich in die 3D-Welt hinüberretten. Die Darsteller haben zum Beispiel die gleichen Augenbrauen wie Wallace & Gromit – eine Art „Monobraue“ – und dieselben Riesenmünder.

Allerdings stellte sich heraus, dass das für die Character Rigger gar nicht so leicht umzusetzen ist. „Die Regisseure wollten Detailkontrolle“, berichtet Rogers. „Sie wollten in der Lage sein, an einer Stelle im Gesicht zu drücken und dabei eine Einkerbung in der Augenhöhle zu hinterlassen.“

Martin Costello, als Technical Director für die digitalen Darsteller verantwortlich, brauchte mit seinem Team fünf Monate dafür, das Rig für den Mund einzurichten, und noch einmal sechs Monate, in denen sie mit den Aardman-Animatoren zusammenarbeiteten. „Es war eines der schwierigsten Rigs, an denen ich bislang gearbeitet habe, weil es so einfach sein musste“, erzählt er. „Normalerweise konzentriert man sich darauf, ein gutes Rückgrat zu entwickeln und ein IK-System für die Beine. In unserem System war das zweitrangig.“

Wenn die Animatoren bei einer typischen Aardman-Produktion die Münder ihrer Plastilin-Puppen verformen, benutzen sie dafür spezielles Werkzeug. Ähnliches Werkzeug musste Dreamworks auch für die CG-Modelle liefern. Wie bei den Plastilin-Puppen schufen die Modeler zehn verschiedene Mundformen für jeden der CGDarsteller. Die Rigger stellten anschließend den Animatoren zahlreiche Controller rund um den Mund zur Verfügung, damit sie dann tatsächlich die zahlreichen Formen erreichen konnten.

„Kurz gesagt, es gab ein schmales Band rund um die Lippen und ein breites Band um die Wangen“, erläutert Costello: „Die Animatoren konnten die Control Vertices auf dem Band drücken.“

Für die Augenbrauen wählten sie einen Ansatz mit Ebenen. Drei Sätze von Joints – links, rechts und Mitte – verliehen der Braue eine ungefähre Silhouette. Darüber lagen, ähnlich wie bei den Wangen, Controller, die die Vorderseite der Braue abflachen oder aufbauschen konnten. „Im Grunde genommen konnten die Animatoren die Brauen modellieren wie mit Ton“, stellt Costello fest.

Für den Körper schufen die Rigger schlichte Armaturen, um den steifen Look der Aardman-Puppen zu imitieren. „Squash and Stretch war am Anfang strikt verboten“, erinnert sich Costello. „Aber wir haben ein bisschen an den Armen und Beinen gearbeitet, damit sie nicht so hervorstechen.“

Zusammengerechnet richteten die Rigger acht Hauptdarsteller, zehn Nebendarsteller mit wichtigen Rollen und 50 verschiedene Darstellertypen für Crowds ein. Damit das schneller ging, entwickelten sie ein Character-Rigging-System.

Automatisiertes Rigging

Die Rigger platzierten als erstes die Joints. „Angenommen, man hat vorfabrizierte Komponenten [Körperteile], dann muss man nur einen Button drücken und alle diese Joints erscheinen auf dem Bildschirm“, beschreibt Costello. „Man schiebt sie an ihren Platz, klickt ‚Sichern’, und sie sind alle in einer Datei gespeichert.“

Als Nächstes fügten die Rigger Behaviors zu den Joints hinzu. „Wenn man will, dass ein Ellenbogen anschwellen kann, muss man das mit der Joint-Positionierung einbauen“, erläutert Costello. Die Subskin – ein Zylinder aus Ringen, der eine niedrigaufgelöste Nurbs-Geometrie verwendet – bewegt sich auf dem Darsteller in einem Prozess, der die Subskin mit den Behavior-Joints gewichtet. „Es ist wieder das Gleiche: Wenn eine Komponente schon produziert ist, klickt man einen Button und öffnet damit eine Subskin in Maya“, erklärt Costello. „Man kann die Punkte herumziehen, skalieren und die Ringe verformen, um einen Arm anschwellen zu lassen.“ Ein weiterer Knopfdruck speichert alle CVs der SkinPosition in eine Datei.

Dann malen die Rigger die Bindung, das heißt, sie beschreiben, wie die Subskin die hochauflösende Geometrie bewegt. Martin Costello gibt ein Beispiel: „Wir konnten Gewichtungen für die Schulter-Subskin und den oberen Brustbereich malen, um die Brust oder die Schultern stärker zu gewichten.“ Am Ende reichte ein Knopfdruck, um den Darsteller zu bauen mit allen Dateien und unter Einsatz aller Zustände.

„Das System arbeitete so sauber und elegant und war so konsistent, dass wir einen Hintergrunddarsteller zusammensetzen konnten, ohne uns Sorgen um Details machen zu müssen“, konstatiert Costello.

Die Entwicklung der Kröte vom einfachen Skelett (links oben), über die Controls, Lowres, Subskin und Hi-res bis hin zum finalen Rendering (rechts unten)
Die Body-Controls, mit denen die Animatoren das Rig steuerten

Weiterentwicklung des Aardman-Stils

Später im Arbeitsprozess gewannen die Darsteller ihren eigenen Stil, eine Mischung aus 3D- und 2D-Animation. Ungefähr 30 Animatoren arbeiteten am Film, und die meisten hatten einen 2DHintergrund. „Sie beeinflussten den Stil“, berichtet Animation Lead Jason Spencer Galsworthy: „Man sieht ganz deutlich, dass die Darsteller auf Aardman-Figuren basieren, aber die Animation zeigt einen etwas flüssigeren Stil. Wir wollten, dass sich die Darsteller anfühlen wie solide zusammengeschraubt, aber wir trieben den Stil darüber hinaus. Wir wussten, dass sich das zu etwas Eigenem entwickeln würde.“

Auch wenn es Dreamworks gelungen ist, dem Aardman-Team Stop-Frame-Darsteller in einer CG-Welt zu liefern, ist es doch unwahrscheinlich, dass Wallace & Gromit in nächster Zukunft den Schritt in eine vollständige 3D-Welt gehen werden. „Wir mögen die Tatsache, dass Stop-Frame-Animation sehr direkt ist“, erklärt Co-Regisseur Sam Fell dazu. „Es ist wie ein reales Filmset in Miniatur. Wenn man einen Schatten verschieben will, geht man hin und macht genau das. Mit einer CGI-Pipeline hingegen muss man eine E-Mail schreiben, wenn man will, dass jemand etwas an einem Bild ändert. Das führt dann zu einem Rattenschwanz an E-Mails, und am Ende trifft man sich zu einem Meeting.“

Fell sieht aber natürlich auch die Vorteile: „Am CGI-Prozess ist andererseits wundervoll, dass man so lange an einer Einstellung arbeiten kann, bis man genau das hat, was man will. Man kann die Animation viel detaillierter bearbeiten und auch in der Art Direction viel präziser sein.“

Trotz ihrer individuellen Vor- und Nachteile für die Projektbeteiligten bleiben die Arbeits- und Gestaltungsmittel – ob CGI oder Stop-Frame-Animation – für Fell aber zweitrangig. „Letzten Endes ist nur wichtig, dass der Zuschauer nach fünf Minuten vergisst, wie es gemacht wurde, weil er so in die Geschichte und ihre Darsteller vertieft ist.”

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.