Da ich sehr viel mit dem linearen Sony Raw drehe (und zwar meist mit dem R5-Rekorder und dem echten Raw, nicht dem CDNG aus Atomos oder Odyssey) bereite ich oft für externe Cutter eine Art Intermediate vor, weil deren Kiste aus diversen Gründen mit dem Raw nicht zurecht kommt.
Ich habe heute zufällig festgestellt dass der Kontrast dabei bei verschiedenen Codecs variiert.
Egal ob ich das Material ganz simpel in ein Slog2-Default darstellen lasse und exportiere oder das Material wie manchmal erwünscht sogar schon grade bevor es in den Schnitt geht entstehen beim Schnelltest Unterschiede.
Export nach XAVC 4k Class 480 (also 10bit 422): Keinerlei Unterschied zur Darstellung im Schnittprogramm
Export nach JPEG2000 12bit 444: Etwas stärker in den Farben, Kontrast minimal stärker.
Export nach JPEG2000 10bit 422: Sehr viel stärkere Farben, Kontrast deutlich stärker wobei hier bereits in der dargestellten 8bit Ebene Spitzlichter wegbrechen die eigentlich auch im 8bit-Raum noch da waren (also im NLE). Auch die Tiefen sind gefühlt 1,5 Blendenstufen dunkler.
10bit oder 12bit ist nicht das grundlegende Problem, denn bei XAVC und 10bit habe ich ja ein absolut identisches Signal bezüglich der Kontrastwerte.
Ich werde wenn ich Zeit habe mal weiter testen (also Cineform z.B.).
Hat jemand schon ähnliches erlebt? Ich finde die Unterschiede schockierend. Wenn man sowas nicht gleich von Anfang an merkt kann man da ordentlich was an die Wand fahren.
Unabhängig davon: XAVC Class 480 (im Gegensatz zu Class 300) scheint mir bei ein sehr zufriedenstellendes Ergebnis zu liefern. Beim Pixelpeepen zum Orginal Raw (12bit via FS700, FS5 oder FS7) ist es fast unmöglich Unterschiede zu erkennen. Und weil hier wegen der Farb- und Kontrasttreue bessere Ergebnisse entstehen als bei JPEG2000 12bit erstmal die erste Wahl, obwohl ich dachte bei JPEG2000 mit 12bit habe ich die beste Option.