Die Video-Copilot-Programmierer aus Deutschland

Rückblick: In der DP 04 : 2019 lernt unser Autor Nils Calles Andrew Kramers Programmierer kennen – zwei Deutsche, die wissen wollen, wie sich Volumes in Echtzeit beleuchten und mit Masken manipulieren lassen.

Dieser Artikel erschien ursprünglich in der DP 04 : 2019.

Schon bei Video Copilot Live in Berlin zeigte Andrew Kramer in einer Sneak Preview, wie man Volumes in Echtzeit beleuchten und mit Masken manipulieren kann – und wir haben dort seine beiden deutschen Programmierer kennen gelernt.

Da das neue Plug-in Nebula 3D in den Startlöchern steht, haben wir die De veloper zum Gespräch gebeten – wäh- – rend ich diesen Artikel schreibe, beginnt die Betaphase und der Stress geht für die Jungs jetzt erst richtig los. Wir hoffen, dass es nicht allzu viele Bugs auszubügeln gibt, und sind sehr gespannt auf die Echtzeit-Wolkenschleuder. Aber wer steht hinter Nebula?

Thomas Obermaier (www. instagram.com/thomas_obermaier) ist der Coder aus dem Allgäu. Er arbeitete bereits seit acht Jahren mit Andrew zusammen, bevor sie sich bei dem Event in Berlin zum ersten Mal persönlich gegenüberstanden. Er ist für den Programmcode verantwortlich, ein Spezialist für Render Engines und heute unter anderem Berater für Renderingprojekte. Für Video Copilot hat er unter anderem an Optical Flares und Element 3D gearbeitet. Die besten Ideen hat er, wenn er draußen mit seinem Hund unterwegs ist.

Fabian Buckreus (www.instagram.com/fabianbuckreus) aus der Nähe von Dortmund ist für den Content zuständig. Einiges an Content für die Library von Video Copilot hat er entwickelt – zum Beispiel Shockwave. Für das neue Plug-in hat er Unmengen von VDB-Sequenzen generiert. Wenn er nicht für Andrew arbeitet, ist er oft als Freelancer bei Kinoproduktionen als Spezialist für Partikeleffekte, Zerstörung und Simulation dabei wie zum Beispiel bei „Star Trek – Into Darkness“, „Transformers 4“, „San Andreas“ und „Cosmos – A Spacetime Odyssey“. Seine Tools sind hauptsächlich 3ds Max, Thinking Particles, FumeFX, PhoenixFD und Houdini. Und er macht alle Partikelsimulationen für Video Copilot.

DP: Wie seid ihr auf die Idee für Nebula 3D gekommen?

Thomas Obermaier: Wir haben mit Lichtern experimentiert und ich sagte zu Andrew: „Ich hab das mal getestet, lass uns mal noch ein Volumen einbauen.“ Das fand er eine coole Idee und ich habe es ausprobiert. Und dann hatte ich plötzlich ein extrem cooles Volumen in After Effects, welches spektakulär aussah und sich in Echtzeit bewegen ließ.

DP: Fabian, wie war damals deine Reaktion?

Fabian Buckreus: Ich glaube ich bin vom Stuhl gefallen, wenn ich mich recht erinnere.

DP: Und was gab es an Hürden bei den ersten Tests?

Thomas Obermaier: Es war am Anfang noch so, wenn man die Quality extrem hochgedreht hat, ist es langsam geworden. Da hat Andrew zu mir gesagt: „Thomas, das ist schon ziemlich cool, aber geht das nicht noch schneller?“ Nach etwa 3 Tagen still in meinem Kämmerchen hatte ich eine Idee und dachte: „Oh, das funktioniert wirklich.“ Dann habe ich es Andrew gezeigt und er sagte: „Das war eigentlich nur ein Spaß, dass du es schneller machen sollst.“ Wie dem auch sei: Jetzt können wir hochaufgelöste Volumen in Echtzeit rendern.

Fabian Buckreus: Wir hatten am Anfang noch Probleme mit dem Aliasing an den Kanten und wir haben jedes Problem nacheinander gelöst – jetzt ist es perfekt. Ich habe ja schon immer die Volumen für Video Copilot gemacht, aber da hat es manchmal zwei Wochen für ein Volumen gerendert. Und jetzt geht das in Echtzeit.

DP: Aber was steckt denn dahinter?

Thomas Obermaier: Es ist ein komplett eigenständiger Renderer, der atmosphärische Sachen wie Volumetric Lights auch zum Beispiel mit Noise rendern kann, wie bei Zigarettenrauch in der Luft. Und er kann OpenVDB-Daten importieren, die man mit allen Shading-Optionen wie Lichtern, Dichteänderungen, Scattering und Occlusion rendern kann. Das Coole ist, dass die Lichter auch Schatten in den Volumen werfen. Du nimmst zum Beispiel eine Element3D-Szene und legst den Nebula-Layer darüber. Dann hast du alle deine Lichter direkt als Volumetric Lights drin. Da soll ein Flugzeug durch eine Wolke fliegen. Oder ein Auto brennt in einer Stadtszene und das alles wird auch richtig „occluded“ – wir cachen da nichts. Du legst das Volumen rein und ein Licht mit dazu. Dann kannst du es in Realtime mit der Kamera drehen und skalieren und musst nicht ewig warten. Normalerweise dauert das schon einige Zeit, bis man ein solches Volumen gerendert hat. Doch da hier, wie in Element3D, auf der GPU gerendert wird, geht das fast in Echtzeit.

Die atmosphärischen Lichter haben auch keinen großen Speicherverbrauch, aber so ein Volumen an sich kann schon recht speicherintensiv werden. Im Feature-Film-Bereich hast du teilweise Volumen von 40 Gbyte. Was wir natürlich machen: Wir optimieren es intern, und weil wir eben nicht cachen, müssen wir auch nicht so viele Daten zusätzlich auslagern. Wir rechnen die Lichter immer neu, um das Caching zu vermeiden und den Grafikkartenspeicher möglichst optimal auszunutzen. Da ist auch sehr viel Arbeit reingeflossen, damit das wirklich funktioniert. Ich habe in meinem Rechner eine GTX-980-Grafikkarte (die ist Konsumerlevel von vor 3 Jahren) und bewusst keine Titan-Karte, weil es mir wichtig ist, dass ich das auf einer normalen Grafikkarte entwickle. Das soll ja für alle schnell rendern.

DP: In einer der nächsten Ausgaben ist das Plug-in fertig und wir können es testen und einen Workshop machen?

Fabian & Thomas: Definitiv! Die Beta schaut schon sehr gut aus, und bald steht es bereit!

4 KOMMENTARE

  1. Nebula3D wurde ja 2019 schon für 2020 angekündigt, dann später für Frühjahr 2021… Mit Verzögerungen rechnet jeder, aber so viel Wind so weit im voraus ohne ein Release oder wenigstens eine realistische zeitliche Einschätzung, das finde ich nicht gut.
    Dann sich doch lieber erst die Zeit nehmen und dann über weitgehend fertige Produkte berichten, wenn die Betaphase wirklich ansteht. Ich freue mich natürlich, wenn es rauskommen sollte.

  2. Es ist nun ganze 6 Jahre her, dass Andrew Kramer Elements 3D upgedated hat! Ich hatte damals ja gedacht, dass Andrew mit Elements 3D V3 etwas mit Adobe und Cinema 4D ausheckt um endlich zeitgemäßes, Echtzeit-3D nach After Effects zu bringen. Mittlerweile bin ich leider nicht mehr so optimistisch, dass daraus noch etwas wird 🙁 …es wäre aber dringendst notwendig!!! …Die 3D-Funktionen in AE sind im Jahr 2021 ein reiner Witz – selbst für Adobe.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.