In nuce: Dieses neuronale Netzwerk von Zian Wang, Jonah Philion, Sanja Fidler und Jan Kautz – allesamt von Nvidia und der University of Toronto – setzt 3D-Objekte in 2D-Bilder. Der Clou: Dabei werden die 3D-Objekte realistisch ausgeleuchtet.
Inspiriert wurde das Vierergespann aus dem Hause Nvidia von klassischen Volumen-Rendering-Techniken. Davon ausgehend erdachte das dynamische Quadro eine volumetrisch-sphärische Gauß-Darstellung zwecks Beleuchtung. Dabei werden die Strahlen der 3D-Objekte auf einem Voxel-Gitter in Parameter gesetzt. Kurzum: Das Modell der vier Köpfe gewährleistet physikalisch korrekte Beleuchtungen und macht das Einsammeln von HDR-Daten obsolet. Das Team selbst beschreibt es so: „Mit unserer Herangehensweise ist es möglich, Objekte in Umgebungen zu setzen. Die Reflexionen des Objektes passen sich dabei kontinuierlich den Umgebungsverhältnissen an.“
Verfügbarkeit: Auf das akademische Paper der vier Nvidia-Leute greift ihr auf Github zu.
Weitere Infos: Soweit zur University of Toronto. Falls ihr erfahren möchtet, was Forschung im Bereich VFXen an Cornell University oder Stanford University kann, studiert ihr die Papers hinter den Verlinkungen.