Max-Planck-Software für Filmszenen verspricht mehr Realität, bessere 3D-Integration

Neue Software soll dabei helfen, computeranimierten 3D-Filmen schneller und einfacher eine reale Anmutung zu geben / Ebenfalls neu: "3D Szenenanalyse" zur Integration realer Objekte in CG-Filmszenen

Wie jeder CG-Artist weiß, ist es eine Herausforderung, in computeranimierten Filmen realistische Reflexionen auf Objekten zu erzeugen. Auch und gerade die Nachbearbeitung kostet viel Zeit. Eine neue Software aus dem Max-Planck-Institut für Informatik in Saarbrücken soll diesen Prozess beschleunigen und erleichtern. Aus denselben Labors stammt eine Software, mit der sich im Handumdrehen dreidimensionale Abbildungen realer Objekte in virtuelle Filmszenen einbauen lassen.

Wenn ein brillant blitzendes Auto durch einen Werbespot braust, durch Straßenschluchten oder über gleißend hellen Wüstensand gleitet, dann handelt es sich heute nur noch selten um das reale Gefährt aus Stahl, sondern meist um ein CG-Abbild. Denn wer sein neustes Fahrzeugmodell in Szene setzen will, überlässt nichts dem Zufall: Kein Fotoapparat, keine Filmkamera kann ein Auto so idealisiert darstellen wie der Rechner, kann das Licht so schön über den Lack fließen lassen. Zwar ist die Computeranimation im Film längst Standard, doch noch immer stößt sie an ihre Grenzen – zum Beispiel, wenn es darum geht, perfekte Reflexionen auf den Lack zu zaubern. Thorsten Thormählen, Informatiker vom Max-Planck-Institut für Informatik in Saarbrücken, ist Spezialist für solche Grenzfälle und hat Methoden entwickelt, mit denen sich täuschend echte Computergrafiken sehr viel einfacher und schneller erzeugen lassen als bisher.

Zu den Verfahren, die er vom 2. bis zum 6. März auf der CeBIT (Halle 9, Stand B 43) in Hannover vorstellen wird, gehört das „Interactive Reflection Editing“ – eine Methode, mit der man in Windeseile Lichtreflexe auf der Oberfläche virtueller Objekte verändert. Bisher ist das ausgesprochen knifflig: Ein virtuelles Objekt sieht nur dann überzeugend aus, wenn sich in seiner Oberfläche Sonne und Umgebung spiegeln. Grafiker verwenden deshalb viel Mühe darauf, realitätsnahe Spiegelungen im Lack eines Autos, in den Scheiben oder den Scheinwerfern zu erzeugen. Problematisch wird es, wenn die Reflexionen zum Schluss noch einmal nachbearbeitet werden müssen. Dann muss der Grafiker Stück für Stück die Lichtreflexe aus der Grafik löschen und neu einzeichnen – ein zeitraubendes Unterfangen.

Das von Thormählen gemeinsam mit seinen Kollegen Tobias Ritschel und Makoto Okabe entwickelte „Interactive Reflection Editing“ automatisiert diese Arbeit. Es genügt, die Lichtreflexe in der Grafik anzuklicken und mit der Maus zu verschieben, zu stauchen oder zu dehnen, bis der Reflex an der gewünschten Stelle sitzt. Auch störende Lichtpunkte kann man über den virtuellen Lack schubsen. Was so einfach klingt, ist das Ergebnis eines leistungsstarken mathematischen Verfahrens, sagt Thormählen. „Denn beim Verschieben müssen in Bruchteilen von Sekunden die alte und neue Position vieler Hundert Pixel gleichzeitig berechnet werden.“ Die Kunst bestand darin, eine Rechenvorschrift zu entwickeln, die die Datenmenge bewältigt, aber die Rechenkapazität des Computers nicht überfordert, damit das Bild beim Bearbeiten nicht ins Stocken gerät. Thormählens Entwicklung hat bereits bei einer der Siggraph Asia in Japan für Aufsehen gesorgt, rühmt das Max-Planck-Institut.

Das gilt ebenso für ein anderes anspruchsvolles Projekt, mit dem sich Thormählen beschäftigt hat – und dessen Lösung er ebenfalls in Hannover vorstellt: der Übertragung eines realen Objekts in eine computeranimierte Filmszene. Wer heute das Abbild eines realen Autos in den Rechner übertragen will, greift zum sündhaft teuren Laserscanner, der eine digitale Kopie des echten Gegenstands erzeugt. Solche Scanner können sich nur wenige Filmproduzenten leisten. Thormählen hat deshalb ein zugleich schnelleres und billiges Verfahren entwickelt. Alles, was er dafür benötigt, ist eine handelsübliche Videokamera. Es genügt, einmal um das Objekt herumzugehen – zum Beispiel ein reales Auto – und diese 360-Grad-Videosequenz in den Computer einzuspeisen. Die von Thormälen entwickelte Software extrahiert aus dem bewegten Bild die 3D-Information des Gegenstands und generiert daraus ein 3D-Objekt, das man anschließend in beliebige Filmszenen einbauen kann. „Künftig könnten Computerspiel-Begeisterte ihr eigenes Auto filmen, in das Lieblings-Computerspiel einbauen und damit Rennen fahren“, veranschaulicht der Forscher.

„3D Szenenanalyse“ nennt Thormählen sein Videoextraktionsverfahren. „Ein Trick besteht darin, in der bewegten Szene markante Referenzpunkte zu bestimmen und deren Position zu berechnen. Daran kann man dann die Lage und Gestalt des eigentlichen Objekts, zum Beispiel des Autos, bestimmen.“ Das klingt kompliziert, ist aber deutlich einfacher als bei älteren Methoden, bei denen man zuvor Marker auf das Auto und in den Hintergrund kleben muss, um anschließend Lage und Gestalt des Autos zu berechnen. „Unser Verfahren ermittelt im Video seine eigenen Referenzpunkte und ist damit deutlich anwendungsfreundlicher.“

Thormählen ist sich sicher, dass Computerspiele nur eine von vielen möglichen Anwendungen seiner „3D Szenenanalyse“-Verfahren sind. „Es ist auch denkbar, die Position von endoskopischen, medizinischen Geräten bei Schlüssellochoperationen in einem Videobild darzustellen, was dem Arzt die Orientierung im Körper des Patienten erleichtern könnte.“ Und beim Sporttraining könnte man beispielsweise aus dem Video eines rotierenden Diskuswerfers eine virtuelle 3D-Gestalt errechnen, um den Bewegungsablauf zu studieren und zu verbessern.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.