Auf Mimikjagd | Retro-Artikel

Rückblick: In der DP 05 : 2019 stellten wir fest: Aufwendig produzierte Zwischensequenzen in Videospielen sind keine Seltenheit (mehr). Bei Remedy Entertainments Alan Wake kümmerte sich MoCap-Spezialist metricminds um die Mimik der Charaktere.

Dieser Artikel erschien ursprünglich in der DP 05 : 2010.

Alan Wakes Cut Scenes weisen eine höchst detaillierte Mimik auf. Philip Weiss, Geschäftsführer bei metricminds erklärt, wie sein Motion-Capture-Studio in Frankfurt dem Helden diesen Ausdruck verleihen konnte.

DP: Herr Weiss, was war das Besondere an dieser Produktion?

Philip Weiss: Für Alan Wake haben wir unsere Embody Technology mit nach Arizona genommen und dort fünf Tage lang am Stück direkt mit Remedy gearbeitet. Wir haben über 40 Minuten Animation gecaptured. Dabei sind praktisch die Gesichtsbewegungen aller Cut scenes auf einmal entstanden.

DP: Wie sah der Workflow aus?

Philip Weiss: Zuerst haben wir natürlich unsere Marker gesetzt. Das braucht seine Zeit, weil es immer zwischen 1.200 und 2.000 Marker im Gesicht sind, die sich über die gesamte zu übertragende Geometrie strecken. Das bedeutet, dass wir vorneweg wissen müssen, wie der Charakter aussieht, um dann auch alle relevanten Polygone bedienen zu könMimik Motion Capturing überträgt die Gesichtsbewegungen eines echten Menschen auf einen virtuellen Charakter – mittels definierten Punkten, die Computer von einem Medium ins andere übersetzen nen. Dafür scheinen zwar die durchschnittlich 1.600 Marker recht viel, aber die markerlosen Techniken geben uns noch nicht die präzisen Ergebnisse, die wir wollen. Und solange sich die Schauspieler nicht beschweren, setzen wir eher auf Qualität.

DP: Wie lange dauert denn das Anbringen der Marker?

Philip Weiss: Nicht lange im Vergleich zu „klassischen“ Special Effects mit Latex und Masken. Etwa 45 Minuten kalkulieren wir pro Gesicht ein, um optimal die gesamte Geometrie aufzufangen. Allerdings kann das je nach Figur stark schwanken. Zum Beispiel ist Alan Wake, die Hauptfigur, wesentlich präziser gecaptured als die meisten Gegner. Obwohl diese mit ungefähr 50 Bones in der Mimik weit über den üblichen Spiele-Zombies liegen und einiges an Mimik besitzen.

DP: Was halten Sie von anderen Techniken, die auf Marker und stellenweise sogar auf multiple Kameras verzichten? Immerhin gibt es Software-Entwickler, die mehr oder minder aus normalem 2D-Film Daten fürs Capturing sammeln.

Philip Weiss: Das ist auch eine hochinteressante Entwicklung. Ich kann mir durchaus vorstellen, dass sich insbesondere für Analyse und wissenschaftliche Verwertung schon jetzt eine Fülle an Möglichkeiten auftut. Aber für Games, Advertising und Film ist die Technik noch nicht weit genug. Denn eigentlich können wir das ja auch jetzt schon machen. Nur muss halt für jeden Punkt in seiner Tiefenausrichtung noch eine Person von Hand die Daten sehr genau nachjustieren, und da wird es dann schon wieder unwirtschaftlich und zeitaufwendig. Aber ich vermute, dass wir in weniger als zehn Jahren auch hier Software haben, die das beherrscht und sowohl Mimik als auch Bewegung und Tiefe korrekt zuordnet und projiziert.

DP: metricminds entwickelt einen Großteil seiner Arbeitsmittel selbst. Wo setzen Sie den Schwerpunkt?

Philip Weiss: Eindeutig auf den Workflow und die Software – die Hardware als solche ist eigentlich schon fertig und genügt den momentanen Anforderungen. Die Computer sind schnell genug, die Kameras bieten ausreichende Auflösung und die Studios funktionieren auch soweit.

Aber in den Bereichen Pipeline und Skeleton Solving besteht noch viel Verbesserungsbedarf. Denn wir können zwar 32 Kameras auf den Schauspieler richten, aber unsere Pipeline und unsere Software schaffen es noch nicht, alles in einem Gang zu bearbeiten. Was natürlich in Sachen „Animationsfilm allgemein“ unglaubliche Möglichkeiten eröffnen würde. Man denke an die Aufzeichnung von klassischen Schauspielern – mit Mimik und Haltung! Im Skeleton Solving haben wir zwar große Fortschritte gemacht, aber da gibt es noch viel zu tun. Denn obwohl wir die Daten sehr gut erfassen und rechnen, braucht das Retargeting – das Nachbessern von Hand des Skeletts sowie der Marker in den Randbereichen – immer noch zu viel Zeit. Wenn wir Motion Capture vorwärtsbringen wollen, müssen wir es in erster Linie schneller machen.

DP: Wo steht metricminds heute?

Philip Weiss: Jeden Tag neu am Anfang. Wir haben in den zurückliegenden Jahren kontinuierlich unsere Möglichkeiten ausgebaut. Als wir im Jahr 2001 angefangen haben, lag der Fokus ausschließlich auf Motion Capture. Aber durch die Menge an Projekten, die wir in diesem Bereich hatten, kamen langsam auch die Nachbereitung der Daten und das Motion Editing dazu. Heute haben wir den gesamten 3D-Workflow im Haus und können so, auf Basis der CryEngine und der Unreal Engine, Intros, Trailer und Cut Scenes von Anfang bis Ende produzieren.

DP: Woran arbeitet metricminds gerade?

Philip Weiss: Wir sind in Zusammenarbeit mit der Games-Entwicklerfirma „People can fly“, die „ Painkiller“ und „Gears of War“ realisiert hat, am ne uesten Projekt „Bulletstorm“ beteiligt. Die Cut Scenes für diesen spaßigen First-Person-Shooter möchten wir mit großartigen Actionsequenzen möglichst schön gestalten. Einen ersten Trailer gibt es schon auf www.bulletstorm.com zu sehen.

DP: Wenn sich jemand in das Feld Motion Capturing einarbeiten will, wohin würden Sie ihn schicken?

Philip Weiss: Die Motion-Capture-Szene ist eigentlich recht übersichtlich. Eines der größten mir bekannten Foren ist www. motioncapturesociety.com – und dieses Forum ist schon nicht sonderlich belebt. Wer direkten Kontakt mit Leuten aus dem Bereich will, dem empfehle ich Social Networks zu frequentieren. So gibt es zum Beispiel auf LinkedIn die Gruppe „Motion Builder“.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.