Filmakademie-VR-Film „Sonar“ jetzt auf Google Daydream

In unserem VR-Fokus in der DP 02 : 17 haben wir die interessante Sci-Fi-Horror-Experience "Sonar" bereits vorgestellt. Hier ein Auszug des Interviews mit Philipp Maas und alle neuen Infos.

Bislang konnte „Sonar“ nur auf der Oculus GearVR angeschaut werden, jetzt hat Philipp Maas, Regisseur und Entwickler des Projekts, den 360-Grad-Film auch auf das Google Headset gebracht (kostet 1,99 Euro). Denn mit jeder neuen VR-Brille wächst die Zahl der Nutzer, die „Sonar“ noch nicht kennen.

Neben dieser zweiten erschlossenen Plattform hat der Film auch ein Spatial Audio Update bekommen. Die VR-Audio-Spezialisten DELTA Soundworks aus Heidelberg haben „Sonar“ ein neues, räumliches Klangerlebnis verpasst. 2014 war dies für die Studenten an der Filmakademie noch nicht realisierbar, genauso wenig wie der visuelle Tiefeneindruck durch omni-directionales Stereo3D.

Zum Einsatz kam dabei das Tool dearVR Spatial Connect von Dear Reality, so konnte der Film gemischt werden während man sich in der virtuellen Realität befindet. Es steht sogar ein Mix in dem 3rd Order Ambisonic Format bereit, den das Team implementieren wird, sobald die Plattformen es unterstützen. Nun wird der Zuschauer noch mehr in die unheimliche Atmosphäre des Weltraum-Szenarios hineingezogen als vorher.

DP: Full-CG-360 Grad-Filme wollen viele machen, die wenigsten wissen jedoch, wie genau. Wie seid ihr an euer erstes VR-Projekt herangegangen?
Philipp Maas: „Sonar“ begann als klassischer CG-Animationsfilm im Cinemascope-Format. Um möglichst unabhängig produzieren zu können, habe ich einen 4TB-Netzwerkspeicher und zwei meiner eigenen Workstations in unseren Projektraum gestellt, sodass ein autarkes LAN und genug Renderpower zur Verfügung standen. Außerdem fiel früh die Entscheidung, mit dem GPU-Renderer Redshift zu arbeiten. Autodesk Maya und ZBrush, sowie zwei weitere Workstations hat die Filmakademie zur Verfügung gestellt. Durch Zufall haben wir aber dann über meinen Bruder Alexander Maas, der auch die Musik für „Sonar“ geschrieben hat, unsere Hände an das Oculus Development Kit 1 bekommen. Nachdem die Entscheidung für 360 Grad gefallen war, haben wir erstmal eine Woche Internet-Recherche betrieben, um Fragen zu beantworten wie: Was ist möglich, welche Software sollten wir verwenden, und vieles mehr. Wir hatten große Bedenken, uns in der kurzen Zeit, die uns für das Projekt noch blieb, in eine Spiele-Engine wie Unity einzuarbeiten, da keiner von uns Erfahrung mit Interaktivität hatte. Auf der anderen Seite war es ohnehin unser Ziel, eine passive, sehr filmische Experience zu kreieren. Leider mussten wir so auf einige Features im Prozess verzichten, die uns in einer Game Engine zur Verfügung gestanden hätten, wie zum Beispiel Stereoskopie und Spatial Audio. Glücklicherweise war es uns aber möglich, diese Dinge später hinzuzufügen. Außerdem ist es vorteilhaft nur ein Video, also eine vorgerenderte VR-Experience, zu verbreiten, denn die Distribution von Software bei ständig neuen Treibern, Betriebssystemen und Headsets wäre für uns sehr viel aufwendiger gewesen.

DP: Da man ja in 360 Grad die Schwierigkeit hat, hier nicht den Blick des Zuschauers aktiv lenken zu können, wie habt ihr das Storytelling konzipiert?
Philipp Maas: Wir haben uns darüber viele Gedanken gemacht und die Entscheidung, die Kamera zu bewegen, fiel sehr früh. Eine bewegte Kamera gibt automatisch eine Bewegungsrichtung vor (auf dem Beifahrersitz, möchte niemand lange mit dem Rücken zur Fahrtrichtung sitzen…). Auch ganz deutliche Point of Interests, wie ein sich bewegendes Raumschiff mit hellen Lichtern, ziehen den Blick der Zuschauer ganz natürlich auf sich. Im Design haben wir zudem darauf geachtet, klassische Kompositionselemente wie konvergierende Linien und Rahmen zu nutzen. Das Wichtigste ist in jedem Shot die Definition eines Fokus, und dem Zuschauer auch die Zeit zu geben, diesen zu finden.

DP: Wie seid ihr vorgegangen, um beim Betrachter Motion Sickness zu vermeiden? Wie konntet ihr es testen vor dem Release?
Philipp Maas: Wir haben versucht, unseren Animationskollegen so früh wie möglich Animatics auf der Oculus zu zeigen, um ihr Verhalten und ihre Reaktionen zu beobachten. Wir erhielten dadurch unglaublich wertvolles Feedback. Von Anfang an wussten wir, dass wir nicht gänzlich auf Kamerabewegung verzichten können. Langsame Bewegungen sind in Ordnung und wir haben immer wieder statische Shots im Film, die dem Zuschauer Zeit geben, sich zu orientieren und zu erholen. Die Möglichkeit zur Kopfrotation sollte man dem Zuschauer allerdings nicht wegnehmen, deshalb ist lediglich die Kamera „rollen“ und somit den Horizont kippen akzeptabel, weil wir diese Bewegung nicht ständig selbst mit unseren Köpfen machen. Motion Sickness kann auch absichtlich als Stilmittel genutzt werden – dann nämlich, wenn es dramaturgisch Sinn macht und es im Film wirklich physisch werden soll.

DP: Wie lange habt ihr insgesamt an „Sonar“ gearbeitet? Mit wie vielen Leuten?
Philipp Maas: Die Kernproduktionszeit war zwischen April 2014 und Juli 2014. Das Team bestand nur aus drei Leuten: Dominik und ich waren für das Visuelle verantwortlich und haben uns die 3D- und 2D-Arbeit aufgeteilt. Mein Bruder Alexander realisierte das Musik- und Sound-Design. 2015 gab es dann nochmal drei Monate Arbeitszeit für das technische Update zwischen Juni und September. Die App wurde im Dezember 2015 entwickelt. Im Moment sind wir dabei, in Kooperation mit Delta SoundWorks einen neuen Soundtrack im Ambisonic-Format zu mischen. Das Projekt gibt uns immer wieder die Möglichkeit, neue Sachen herauszufinden. Das Grundkonzept des Films funktioniert, und es lohnt sich immer wieder, den Film technisch weiter zu bringen.

„Sonar“ ist als Studienprojekt an der Filmakademie Baden-Württemberg entstanden. Mehr zu der Hochschule hier.

Kommentar schreiben

Please enter your comment!
Please enter your name here