4K produzieren – was braucht’s wirklich?

Rückblick: In der DP 02 : 2014 ging unser Autor Michael Radeck mit True 4K in den Praxistest.

Dieser Artikel erschien ursprünglich in der Digital Production 02 : 2014.

In meinen Artikel „4K & HFR“ in der DP O7/13 habe ich die technischen Grundlagen zu dem Thema „True 4K“ vermittelt. Jetzt geht es in die Praxis.

Zum Einstieg hier noch einmal die wich- tigsten Fakten zusammengefasst:

    • Ein 4K-Monitor/-Projektor hat bei 4.096 × 2.160 nach DCI-Norm 8,85 Megapixel. Wie bekannt, besteht ein Bildpunkt aus drei Farbpixeln: Rot, Grün, Blau. Damit werden tatsächlich 8,85 Megapixel mal drei gleich 26,5 Megapixel in RGB dargestellt.
    • Ein als 4K bezeichneter Kamerasensor hat für 4.096 × 2.160 insgesamt jedoch nur 8,85 Megapixel für RGB, für Grün gar nur 2.048 auf der Horizontalen. Tatsächlich müsste er jedoch 26,5 Megapixel haben, um die gleiche Auflösung wie die des Monitors zu erreichen. Ein derzeit als 4K bezeichneter Kamerasensor erreicht tatsächlich also nur 2K Luminanzauflösung! Tipp: Einfach mal Bayerpattern-Sensor googlen.
    • Um echtes, volles 4K, also 26,5 Megapixel für RGB zu liefern, bräuchte man als Minimum einen 8K×4K-Sensor, was derzeit allerdings weder der Epic-DragonSensor leistet noch der der Sony F65.
    • Um echtes (derzeit nur im Foto- und Animationsbereich existentes) 4K am Ende auch sehen zu können, darf man nicht weiter als die 1,5-fache Bildhöhe vom Bild entfernt sein.
    • Um echtes 4K auch während der Bewegung von den Bildinhalten wahrnehmen zu können, benötigt man eine Bildbewegungsauflösung/Bildwiederholungsrate oberhalb der Wahrnehmungschwelle von etwa 90 bis 100 Bildern pro Sekunde (HFR = High Framerate)

Vor diesem Hintergrund kann man sicher zu Recht fragen: Macht es derzeit überhaupt Sinn zu versuchen, 4K zu produzieren?

Projektion

Die gute Nachricht: Es gibt tatsächlich Anwendungen, bei denen 4K auch mit den jetzigen technischen Rahmenbedingungen Sinn macht: bei Großprojektionen auf Veranstaltungen (Beispiel: Automessen). Überall dort, wo Betrachter (beispielsweise Besucher an den Messeständen) nahe an die Leinwände herankommen können. Oder im Bereich Design und Entwicklung, wo nur künstlich digital erzeugte Bilder präsentiert werden, mitunter auch viele Standbilder oder angehaltene virtuelle Live-3D-Animationen.

Bei computergenerierten Bildern hat man in der Regel auch keine Limitierung bezüglich der Frameraten, sofern die Rechenleistung ausreicht. Unter diesen „Bedingungen“ arbeitet die Autoindustrie schon seit etwa zehn Jahren mit 4K-Projektionen.

Es gibt noch einen weiteren Aspekt bei Groß- projektionen: Selbst wenn man ab einem Abstand vom 1,5-fachen der Bildhöhe zur Leinwand kein 4K mehr wahrnehmen kann, so ist bei einer 2K- oder HD-Projektion noch aus dem 10-fachen Bildabstand die Pixelstruktur wahrnehmbar, besonders bei kontrastreichen Grafiken oder Schriften. Eine 4K-Projektion selbst von HD-Inhalten sähe also auch in der letzten Kinoreihe wesentlich besser aus, weil die in 4K-Projektoren eingebauten Skaler diese Pixelstruktur in glatte Linien hochrechnen. Oder wenn man gleich die Grafiken in 4K herstellt und den FilmContent in HD, sieht das auf dem 4K-Projektor besser aus als auf einem HD-Projektor.

Alternative Anwendungen

Eine andere Anwendungsvariante für 4K wurde von Canon in seiner jüngsten Roadshow präsentiert: Fotoshootings mit der Canon 1D im 4K-Video-Modus. Hier können immerhin 24 Bilder pro Sekunde in 4K aufgezeichnet werden (allerdings nur in Motion JPEG, recht heftig komprimiert bei eingeschränktem Dynamikumfang gegenüber Raw-Fotos).

Der Fotograf präsentiert dann nicht mehr gedruckte Fotos, sondern auf 4K-Monitoren kurze Bewegungsschnipsel mit langem Bildstand dazwischen – manchmal nur einen Lidschlag oder ein Zucken des Mundwinkels. Eine völlig neue Kunstform? Nun ja, nicht ganz. Im Grunde eine Videoinstallation, allerdings in nie dagewesener Bildqualität, die durchaus den gestiegenen Bildqualitätsanspruch der Zuschauer bedient.

Für Konsumenten gibt es auch einige Anwendungsgebiete für 4K, die sie schon jetzt nutzen können. Fotos anschauen: Selbst ein iPhone macht Fotos mit 8 Megapixel, so viel wie ein 4K-Sensor der Sony F5 oder F55 an Pixeln hat. Ein Foto einer Canon 5d hat über 20 Megapixel, eine Nikon D800 36 Megapixel – solche Fotos sehen einfach fantastisch auf 4K-Displays aus. Da sieht man den vollen Quantensprung von 4×HD.

Wenn man diese Qualität in 4K-Bewegtbild erreichen will: Timelaps, also Einzelbildserien von solchen Fotoapparaten sind bisher die einzigen True-4K-Inhalte, von Computeranimationen abgesehen. Auch aktuelle neue Spielekonsolen oder Spiele-Computer können 4K bis 60 FPS wiedergeben.

Es gibt jedoch auch andere Beispiele. So hört man von Sony-F65-Anwendern: „Wir haben eine F65 gekauft, weil wir gesehen haben, dass eine Red oder eine Alexa auf den riesigen Leinwänden, die Audi auf diesen Messen betreibt, an ihre Grenzen kommen. Die Bilder sehen einfach weich aus.“ (Das Zitat stammt aus dem Anwendungsbericht einer 4K-Produktion mit der Sony F65, in dem auch das Frameratenproblem anschaulich beschrieben wird: Kropac-Media unter http://bit.ly/1dqNb9f.)

Maximale Auflösung in Bildern ist von Timelaps abgesehen nur digital und künstlich herstellbar, oder man muss mit vielfacher Auflösung daherkommen und sehr vorsichtig skalieren. Noch fehlt es allerdings an Kameras, die echtes 4K herstellen und vor allem an solchen, die True-4K-Auflösung (26 Megapixel plus!) deutlich überschreiten und das noch bei gleichzeitiger Framerate von mindestens 60 FPS. Das häufigste Argument für 4K-Produktionen, das ich in letzter Zeit zu hören bekam, war: „Dann können wir ja immer noch in das Bild hineinzoomen, weil wir ja so viel Auflösung haben.“ Oder: „Wir drehen die Zeitlupen nur in 2K, das reicht ja immer noch für HD-Auswertung.“ Wenn man allerdings bei einem Bayerpattern-Sensor 2K gecroppt aufzeichnet, bleibt davon deutlich weniger als HD an Auflösung übrig. 2KBayerpattern-Auflösung reicht gerade mal für 16:9 SD gut aus.

HFR – mehr als 30 FPS nötig

Ein weiteres Zitat aus dem genannten Anwendungsbericht lautet: „Wir haben in unseren Tests festgestellt, dass die 4K-Auflö- sung nur die halbe Miete ist. Das Wesentliche ist die Aufnahme in 50p. Die bringt erst den eigentlichen Wow-Effekt. Erst dann sieht das Material wirklich scharf aus.“

Bei BMW-Messefilmen ist ja HD mit 59,94 Bildern pro Sekunde schon seit über zehn Jahren Standard. Inzwischen ist auch bei Audi jede Großprojektion in 4K mindestens in 50p zu liefern, sowohl gedrehte Inhalte als auch 2D/3D-Animationen. Für die Projektion im Kino ist insbesondere wegen Stereo-3D die Framerate in den DCI-Normen auf bis zu 60 Bilder pro Sekunde angehoben worden. Auch können nahezu alle Highend-FinishingSysteme (wie von Quantel, DVS) mindestens 2K bis 60 FPS in Stereo-3D oder 4K 2D in 60 FPS verarbeiten.

Ein Problem stellen zunächst jedoch die Consumer-TV-Geräte und die Computerdisplays dar, wenn es um 60 FPS geht. Vor kurzem besuchte ich eine Produktionsfirma, die aktuell für einen TV-Gerätehersteller Filme in 4K für Produktpräsentationen von 4K-TVGeräten herstellt. Dieser Besuch mündete in eine gemeinsame Feldforschungsodyssee, von der ich im Folgenden berichten möchte, weil sie anschaulich die „Kinderkrankheiten“ von 4K nachvollziehbar macht.

Große Erwartungen und ungeschminkte Realität

Das vom Hersteller zum Testen geliefert TV-Gerät bot mit seinen 65 Zoll schon eine beindruckende Bildgröße, die Vorfreude auf brillante Bilder erzeugt. Zudem sollte das Abspielgerät des gleichen Herstellers – eine Art Tablet mit angedockter Tastatur – 4K leicht und easy für jedermann sozusagen per Fingerstrich bedienbar machen. So weit das Marketing. Und so war die Realität: Das 4KTV-Gerät hat sich nach mehreren An- und Absteckversuchen auf diversen HDMI-Ports im Computer (Windows 8.1) mit 4K, also 4.096 × 2.160, zu erkennen gegeben. Als die ersten Bilder aufleuchteten, konnte der Kollege, der das schwere Gerät zuvor im Schweiße seines Angesichts ins Office geschleppt hatte, auch vor Begeisterung nicht an sich halten: Sieht ja toll aus! Circa drei Meter entfernt auf dem Sofa sitzend, nahm er die Bildmängel beziehungsweise die mangelnde Bildschärfe nicht wahr. Circa einen Meter vom Bildschirm entfernt offenbarte sich jedoch die ungeschminkte 4K-Realität in Form von massiven Bildauflösungsverlusten.

Die automatische Bildschirmerkennung lieferte eine völlig falsche Empfehlung und zudem eine falsche Voreinstellung, die von der Empfehlung abwich. Ohne pixelnative Bildschirmeinstellung wird das vermeintliche 4K-Bild in der Qualität dramatisch degradiert, weil es von der Grafi kkarte des Playbacksystems skaliert werden muss.

Massive Bildauflösungsverluste

Nun begann unsere Suche nach den Ursachen für die aus der Nähe betrachtet enttäuschende Bildqualität. Um es vorwegzunehmen, am Ende dieser Suche, die man durchaus als Odyssee bezeichnen kann, waren wir um folgende Erkenntnisse reicher:

      • Monitor liefert falsche Auflösungsinformation an Grafikkarte.
      • Grafikkarte skaliert Quad HD auf DCINorm hoch (weil der Quad-HD-Film in Fullscreen dargestellt wird).
      • Dann skaliert der Monitor von DCI-Norm wieder auf seine native Quad-HDAuflösung herunter und zoomt mittels Overscan in das Bild hinein.

Hier nun unsere Feldforschungsodyssee im Einzelnen:

    • Check: Auflösung / Bildinhalt

Da wir kein 4K-Testchart hatten, haben wir eines hergestellt: Zunächst hatten wir mein HD-Testchart bei digitalproduction.com heruntergeladen (http://bit.ly/1b2tUXr) und in After Effects einmal Quad HD, also 3.840 × 2.160, hergestellt und dann mittels Auffüllen auch in 4.096 x 2.160. Das Ziel: feststellen, ob der Monitor DCI-Norm hat oder Quad HD.

    • Check: Auflösung/Bildwiedergabegeräte/ Playbacksystem

Das Laden des Testcharts offenbarte, dass schon mit Wiedergabe dieses Standbilds eine Auflösung unterhalb von HD im Ergebnis zu sehen war. Also haben wir in den Grafikkarten-Settings nachgeschaut, was alternativ angeboten wird. Der nächste Eintrag war 3.840 × 2.160 – allerdings ohne die Zusatzinfo „nativ“, die auch bei 4.096 × 2.160 fehlte. Das ist bei Computerdisplays häufig der Fall, damit es leichter ist, die passende native Auflösung einzustellen beziehungsweise wird sie zunächst automatisch verwendet. Allerdings wurde das Bild nur ein wenig schärfer, pixelnativ war es immer noch nicht.

    • Check: Auflösung/Bildwiedergabegerät/ TV-Gerät

Im Menü des Displays haben wir nach der Skalierung beziehungsweise dem Overscan gefahndet, da es hier keine Standardbezeichnung gibt und es „Voll“, „1:1“, „nativ“ und Ähnliches mehr heißen kann. Als wir das Setting gefunden hatten, sah es immer noch unscharf aus, aber schon mal pixelnativ. Mein Testchart hat diverse Elemente, an denen man so ein Problem ganz schnell differenzieren kann.

    • Check: Bildaufbereitungsfunktionen/ TV-Gerät
  • TV-Geräte-Hersteller nehmen offenbar an, dass die Mehrheit der abgespielten Bildinhalte beim Konsumenten zu Hause von so schlechter Bildqualität ist, dass die TV-Geräte die Bildqualität mit einer erheblichen Anzahl an Funktionen aufbereiten. Diese Bildaufbereitungsfunktionen erweisen sich bei hochwertigem Bildmaterial jedoch als kontraproduktiv. Deshalb empfiehlt es sich, möglichst alle diese Funktionen, die Sättigung, Farbraum, Farbtemperatur, Frameratenalgorithmen und insbesondere die Schärfe betreffen, abzuschalten oder korrekt einzustellen. Normalerweise ist die Nachschärfung immer aktiv und bei dem Wert 0 inaktiv.Bei unserem Gerät allerdings stellte sich heraus, dass die Bildnachschärfung bei 50 (dem Default-Wert) inaktiv war. Ein derartiges Setting kannte ich bisher nur von Kameras, die auch ins Negative gehen, also das Bild sogar unschärfer machen können. Nachdem ich die Bildschärfefunktion deaktiviert hatte, sah das Testchart nun endlich einwandfrei und pixelnativ aus.

 

    • Check: Framerate/Bildwiedergabegeräte
  •  In den Grafikkarten-Settings versteckten sich die Frameraten in den Advanced Settings. Nachdem wir die Auflösung von 409 2.160 auf 3.840 × 2.160 umgestellt hatten, konnten wir jetzt statt nur 23.97 oder 24 FPS auch noch 25 FPS, 29.97 und 30 FPS einstellen. Da der 4K-Film mit 25 FPS produziert worden war, stellten wir nun entsprechend 25 FPS ein. Nun zeigte sich, dass bei 3.840 × 2.160 auch die höheren Frameraten bis 30 FPS aktivierbar waren – ein weiteres Indiz dafür, dass es sich um die native Bildauflösung des Panels des TV-Gerätes handelte. Denn um 4.096 × 2.160 darstellen zu können, muss der interne Skaler zusätzlich Rechenkapazität aufbringen, was zulasten der Frameraten geht. Schlussendlich haben wir das 4K-File noch in einer deutlich niedrigeren Datenrate exportiert, das heißt von ursprünglich circa 300 auf 25 Megabit. Glücklicherweise hatte die Produktionsfirma das File in Quad HD produziert, also in 3.840 × 2.160. Das entsprach nun auch der Auflösung des TV-Geräts. Nach all diesen mühseligen Änderungen der Settings sah der 4K-Film, sofern man zwei Meter oder mehr vom Bildschirm entfernt stand, halbwegs ansehnlich aus.
  • Finaler Check: Bewegungsauflösung

Nachdem das TV-Gerät nun auch die native Framerate des Films darstellte und wir nahezu ruckelfrei den H.264-Film mit der nun deutlich niedrigeren Datenrate von 25 Mbit abspielen konnten, waren die Qualitätsunterschiede von nahezu unbewegten Bildinhalten zu den schnelleren schon drastisch sichtbar, wenn man nahe genug am 4K-TV-Gerät stand. Diese schwankende Bildauflösungsqualität hat mindestens zwei Ursachen:

a. Sensorauflösung bei Zeitlupen: Um höhere Frameraten zu schaffen, müssen meist die Auflösungen des Kamerasensors gecroppt ausgelesen werden. Das heißt, die zur Verfügung stehende Pixelmenge wird – häufig aus Gründen der Einsparung von Speicherkapazität – nicht ausgeschöpft. Beispielsweise macht auch die Sony F65 bei 120 FPS nur 4K × 1K, also nur noch ein Viertel Auflösung. Der Sensor hat jedoch 8K × 2K.

b. Bewegungsunschärfe durch zu lange Belichtungszeiten: Motion Blur. Je höher die eigentliche Standbildauflösung ist und je näher der Betrachter an höher auflösenden Bildgeräten das Bild anschaut, desto mehr fallen Bildauflösungsunterschiede auf. Arri hat dazu schon in diversen Vorträgen beeindruckende Tests gezeigt, wie dramatisch die Bildauflö- sungsverluste bei 4K durch Motion Blur sind. Es macht daher oft mehr Sinn, konsequent in HD oder 2K mit mindestens 60 FPS zu produzieren als 4K mit 24 FPS. Erst recht, wenn 4K gar kein echtes 4K sein kann.

HDMI 2.0 muss bald kommen

Immerhin wies das TV-Gerät bei unserer Feldforschung eine HDMI-Schnittstelle der Norm 1.4 auf, was für 4K ja auch mindestens benötigt wird. Auch der Computer/das Wiedergabegerät verfügte über HDMI 1.4, allerdings ist HDMI 1.4 nur bis 30 FPS spezifiziert. Aber die Framerate wurde von Grafikkarte/ TV-Gerät automatisch gewählt: 24 FPS. Ein durchschnittlicher Konsument wäre jetzt schon damit überfordert, das Gerät korrekt einzustellen.

Erst HDMI 2.0 wird 60 FPS unterstützen. Bevor die Endgeräte das nicht beherrschen, sollte man keine 60-FPS-Filme herausgeben. Allerdings kann man sie produzieren, denn diverse Consumer-TV-Geräte-Hersteller weisen schon jetzt daraufhin, dass ihre Geräte auf HDMI 2.0 leicht upgradebar sein werden. „Leicht“, weil die HDMI-Schnittstellen oft in angedockten Boxen verbaut wurden, um solche Upgrades zu ermöglichen. Man kann jetzt schon mit 48 oder 50 oder 60 produzieren – und dann einfach nur die Hälfte an Bildern herausgeben.

So wurde „Der Hobbit“ beispielsweise mit 48 gedreht und nicht mit 60, um für die 2D-Kinoauswertung normales 24 FPS liefern zu können, das nicht so heftig shuttert. Mit 60 FPS hätte man viel schneller gedreht und kürzer belichtet, was zu mehr ShutterProblemen geführt hätte. Wenn man also abwärtskompatibel sein will, muss man immer so drehen, dass man nur die FPS halbieren müsste. Also 60 FPS für eine 30-FPSAusgabe oder spätere 60 FPS.

Mit HDMI 2.0 werden 30 FPS auch mit bis zu 12 Bit Farbtiefe dargestellt werden können und damit erstmals auch eine hö- here Farbauflösung als in der Postproduktion möglich machen. Allerdings wird bei 60 FPS wieder nur die bisherige 8-Bit-Farbtiefe möglich sein. Die Datenmenge und damit die technischen Anforderungen werden so oder so also heftig ansteigen.

Man bedenke, dass die drahtlose HDMI- Übertragung nur bis Full HD funktioniert. Drahtlos wird 4K noch lange nicht möglich sein. Auch die Anforderungen an Kabellängen und deren Qualitäten werden mit 4K noch einmal ordentlich steigen. Erst recht, wenn statt 30 FPS nun auch noch 60 FPS, also doppelt so viel oder sogar fast das Dreifache gegenüber 24 FPS an Datenrate über die Kabel geliefert werden muss.

Tipp: Um so ein Problem in der Produktion zu lösen, kann man immer noch auf klassische SDI-Technik zurückgreifen. Es gibt diverse bezahlbare Produkte im Bereich der Adapter von Blackmagic, AJA usw. Erste 4KLive-Produktionen liefern entsprechende Erfahrungsberichte: Man wird noch lange mit HD-Technik, insbesondere beim Monitoring von 4K-Produktionen, arbeiten müssen, da der Aufwand und die Kosten sonst explodieren würden: Videos und Zusatzmaterial von einer Live-Musikproduktion: www.4k-concerts.com

Das Hisense-4K-TV-Gerät, das angeblich 4K wiedergeben kann, nimmt nur HD- Quellen an. Eine Makroaufnahme beweist jedoch, dass das LCD-Panel tatsächlich 4K Pixel Aufl ösung hat. Das HD-Testchart besteht aus einen Wechsel von schwarzen und weißen Linien, die hier jeweils sowohl horizontal als auch vertikal mit jeweils zwei Reihen aus roten, grünen und blauen Pixeln bestehen. Da die HD-Quelle ohne 4K-Interpolation einfach nur auf die doppelte Aufl ösung gemappt wird, sieht das HD-Bild in 4K viel schlechter aus als auf einem echten 4K-Display, das ordentlich hochskaliert, zum Beispiel das von Sony.

TV-Geräte: Bildwiederholrate 800Hz?

Bewegungsoptimierung Motionflow XR 800 Hz – so oder so ähnlich heißt das mit am meisten beworbene Feature von aktuellen TV-Geräten. Ohne diese Technik wäre ein Mensch nicht in der Lage, die 50 oder 60p produzierten Bilder auch so scharf zu sehen, wie sie sind.

Bei nur 24 oder 25p produzierten Bildern hängt es sehr davon ab, ob sie überhaupt scharf sind. Da die Bildrate bei 24 FPS viel zu gering ist, muss meist zwangsläufig mit geringer Schärfentiefe und längerer Belichtungszeit gearbeitet werden, damit ShutterProbleme so weit wie möglich vermieden werden.

Lange Belichtungszeit erzeugt allerdings Motion Blur. Bei 24p reichen zum Beispiel bei einer Dialogszene geringe Kopfbewegungen aus, um so viel Motion Blur zu erzeugen, dass sämtliche Gesichtsdetails verschwinden. Gerade bei echten oder nahezu 4K-Details würde das Bild ständig zwischen scharf und unscharf wechseln, was normale Zuschauer als extrem störend wahrnehmen. Das Problem hat sich auch bei umfangreichen wissenschaftlichen Tests wie auch bei Kinogängern von 4K-Präsentationen gezeigt.

Heutige LCD-Monitore erzeugen allerdings aufgrund ihrer Technik auch ein Motion-Blur-Problem bei der Bildverarbeitung im menschlichen Gehirn. Man nennt das „Kantenverschleifung“. Dieses Unschärfeproblem kann man nur mit einer wesentlich höheren Framerate als der menschlichen Wahrnehmungsgrenze von circa 120 FPS beseitigen. Daher muss die Motionflow-Technik besonders bei 4K unbedingt aktiv sein, sonst würde das Problem der Unschärfewechsel noch wesentlich stärker auftreten, als es im Material ohnehin schon vorhanden ist.

4K-Produktion

Um True 4K nahezukommen, ist zu empfehlen, mindestens auf Sony F65 in 8K oder Red Epic mit Dragon-Sensor und auch in 6K zu drehen. Die meisten werden allerdings allein aus Budgetgründen zur Sony F55 oder F5 greifen. Um die Datenmengen halbwegs managen zu können, wird man den XAVCCodec einsetzen müssen: Die aktive Pixelanzahl der meisten 4K-Displays für Heimanwendungen beschränkt sich auf 3.840 × 2.160. Da das XAVC-Format horizontale 4.096- und 3.840-Abtastformate abdeckt, können die XAVC-Produktionstools sowohl für das Kino als auch das Fernsehen eingesetzt werden.

Die neue Kamera PMW-F55 von Sony zeichnet in 4K XAVC INTRA mit Datenraten zwischen 240 Mbit/s (bei 24P) und 600 Mbit/s (bei 60P) intern auf. Mit einer SxSPro+-Speicherkarte mit 128 GB kann man bis zu 50 Minuten in 4K/24P oder circa 20 Minuten in 4K/60P aufzeichnen. Also verbraucht man 6,4 Gigabyte/Minute bei 60 FPS. Mit aktueller Firmware kann man Folgendes in XAVC aufzeichnen:

Dagegen verbraucht die Sony F65 in 4K- 60P Raw 128 Gigabyte für 7 Minuten, also 18,4 Gigabyte pro Minute. Eine reale Produktion für einen zweiminütigen Messefilm kommt bei einer Sony F65 4K-Raw schnell auf 5 Terabyte an Rohmaterial. Das will noch mindestens einmal als Backup dupliziert und wegen der Versicherung auf LTO-Band weggespeichert werden. Aktuelle Macbooks mit Thunderbold-Raids sind deshalb Pflicht am Set – und selbst damit muss man noch mit doppelter Echtzeit an Kopierzeiten rechnen.

4K-Postproduktion

Da 4K-Raw nicht in Echtzeit abspielbar ist und praktisch niemand 4K-Referenzmonitore besitzt, wird zunächst ein HD-Offline-Schnitt stattfinden. Hier hat man die freie Wahl zwischen allen aktuellen Schnittsystemen. Avid Mediacomposer v7, Adobe Premiere CC und FCP X können XAVC verarbeiten. Adobe Premiere CC kann auf einem aktuellen HP-Laptop gar 4K XAVC in 4K per HDMI auf einem Consumerdisplay in 30 FPS in Echtzeit wiedergeben. Bei 4K-Raw kommt noch ein klassischer Dailies-Workflow davor: DaVinci Light kann Sony 4K/8K Raw debayern und kostenlos nach HD in ProRes oder DNxHD herunterrechnen.

Zum Finishing in 4K wird man wieder in DaVinci auf das Raw zurückgehen und die 4KAusgabe kann in passender Framerate erfolgen. Der Workflow ist also fast Standard, von der Materialschlacht mit dem Speicherplatz mal abgesehen. Renderzeiten in 4K sind auch nicht zu unterschätzen, denn die steigen exponentiell. Auch ein Realtime 4K uncompressed (dpx etc) Playback ist eine Herausforderung: Ein RAIDFestplattensystem sollte etwa 1.500 Megabyte pro Sekunde an Performance bieten, um Realtime 4K 60p uncompressed auch mal mit einer Blende schaffen zu können. Das bedeutet mindestens eine Neuanschaffung des RAIDs. Ein DaVinci-System, das allein die nötige Grafikkartenperfomance und Speicheranbindung schafft oder mindestens dazu noch zwei Red-Rockets für 6K Debayer benötigt, kostet 40.000 Euro aufwärts. Ohne das große Panel, versteht sich.

Quad-HD-TV-Gerät im Selbstversuch

Mein Testgerät war ein HisenseUltra-HD-TV-Gerät für gerade einmal 999 Euro: Schien ja ein Schnäppchen zu sein, wenn man bedenkt, dass die Konkurrenz bei mindestens 3.000 Euro liegt. Das hätte einem eigentlich schon eine Warnung sein müssen. Doch neben dem supergünstigen Preis gab eine weitere Überlegung den Anstoß: Ich wollte das 4KDisplay einmal als Computermonitor ausprobieren. 50 Zoll in 4K direkt vor das Nase zu haben, wäre mal ein vernünftiger Monitor für DaVinci, After Effets, selbst zum Schneiden mit Avid. Aber es kam anders. Die Realität zeigte sich schnell in den Grafikkarten-Settings: Kein 4K zur Auswahl, selbst ein Treiber-Update half nichts. Die Durchforstung der technischen Angaben des Hersteller ließen auch zu wünschen übrig: keine klaren Angaben zur HDMI-Version oder zu den möglichen PC-Auflösungen. Ein Indiz für Verschleierung der Wahrheit: Wie ein Makrofoto von meinem Testchart belegt, ist das Panel zwar 4K, aber das Prozessing respektive die Schnittstelle kann nur HD. Das Gerät ist ein 4K-Fake. Selbst HD sieht darauf gruselig aus, nach einigem Tuning der Settings wird das Ergebnis gerade so akzeptabel. Ich werde es zurückschicken.

Natives HD ist hier nur die Quellenannahme beziehungsweise das Bildprozessing vom Hisense. 4K (Ultra HD) fehlt.

Fazit

Selbst wenn man Sensor/Kamera und TVGerät optimal ausgewählt/eingestellt hat – entscheidend für das Erzielen von echter 4K-Qualität ist die Produktion. In Fall unserer 4K-TV-Geräte-Feldforschung waren die Inhalte dafür mit Red Epic in Quad HD und mit Sony F700, deren Sensoren bei Quad HD ja gecroppt ausgelesen werden, produziert worden. Also nur mit knapp 8,3 Megapixel in RGB. Ein Quad-HD-TV-Gerät hat 24,9 Megapixel, also rund das Dreifache an Auflösung in RGB und etwa die doppelte Auflösung in der Luminanz auf der Horizontalen. Entsprechend sind Grafiken/Schriften/Logos knackig scharf, die „4K-Film-Inhalte“ dahinter jedoch immer noch recht weich, wenn auch nicht mehr pixelig. Die Mehrheit der Leser weiß wahrscheinlich aus ihrer VFX-Erfahrung, dass sie die künstlich generierten, knackig scharfen grafischen Inhalte mitunter kräftig mittels Grain, Noise, Chromaaberrationen und Unschärfe degradieren müssen, damit diese mit den „Realaufnahmen“ harmonieren. Nun, dieser zusätzliche Arbeitsaufwand wird auch mit 4K erhalten bleiben. Mir graust es beim Gedanken daran, SD-Archivmaterial mal in 4K unterbringen zu müssen.

Kommentar schreiben

Please enter your comment!
Please enter your name here

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.