Frage von r.p.television:Da ich sehr viel mit dem linearen Sony Raw drehe (und zwar meist mit dem R5-Rekorder und dem echten Raw, nicht dem CDNG aus Atomos oder Odyssey) bereite ich oft für externe Cutter eine Art Intermediate vor, weil deren Kiste aus diversen Gründen mit dem Raw nicht zurecht kommt.
Ich habe heute zufällig festgestellt dass der Kontrast dabei bei verschiedenen Codecs variiert.
Egal ob ich das Material ganz simpel in ein Slog2-Default darstellen lasse und exportiere oder das Material wie manchmal erwünscht sogar schon grade bevor es in den Schnitt geht entstehen beim Schnelltest Unterschiede.
Export nach XAVC 4k Class 480 (also 10bit 422): Keinerlei Unterschied zur Darstellung im Schnittprogramm
Export nach JPEG2000 12bit 444: Etwas stärker in den Farben, Kontrast minimal stärker.
Export nach JPEG2000 10bit 422: Sehr viel stärkere Farben, Kontrast deutlich stärker wobei hier bereits in der dargestellten 8bit Ebene Spitzlichter wegbrechen die eigentlich auch im 8bit-Raum noch da waren (also im NLE). Auch die Tiefen sind gefühlt 1,5 Blendenstufen dunkler.
10bit oder 12bit ist nicht das grundlegende Problem, denn bei XAVC und 10bit habe ich ja ein absolut identisches Signal bezüglich der Kontrastwerte.
Ich werde wenn ich Zeit habe mal weiter testen (also Cineform z.B.).
Hat jemand schon ähnliches erlebt? Ich finde die Unterschiede schockierend. Wenn man sowas nicht gleich von Anfang an merkt kann man da ordentlich was an die Wand fahren.
Unabhängig davon: XAVC Class 480 (im Gegensatz zu Class 300) scheint mir bei ein sehr zufriedenstellendes Ergebnis zu liefern. Beim Pixelpeepen zum Orginal Raw (12bit via FS700, FS5 oder FS7) ist es fast unmöglich Unterschiede zu erkennen. Und weil hier wegen der Farb- und Kontrasttreue bessere Ergebnisse entstehen als bei JPEG2000 12bit erstmal die erste Wahl, obwohl ich dachte bei JPEG2000 mit 12bit habe ich die beste Option.
Antwort von dienstag_01:
Prinzipiell ist es schon mal altbekannt, dass die Luma Range beim Export aus Premiere zumindest *auch* vom Codec abhängt.
Da bist du vielleicht bissel ein Spätmerker, sorry ;)
Antwort von r.p.television:
dienstag_01 hat geschrieben:
Prinzipiell ist es schon mal altbekannt, dass die Luma Range beim Export aus Premiere zumindest *auch* vom Codec abhängt.
Da bist du vielleicht bissel ein Spätmerker, sorry ;)
Nun. Ich arbeite halt mit dem Programm und mach normalerweise keine Beta-Test-Phasen mit diversen Codecs. Ich wollte eigentlich nur kucken inwieweit ein Unterschied zwischen 10bit und 12bit in den Abstufungen Highlights/Schatten bemerkbar ist. Und komischerweise kommt es ja auch innerhalb von JPEG2000 zu den krassen Unterschieden. Klar bei anderer Quantisierung. Aber bei XAVC oder einem MP4 mit nur 8bit ist da beispielsweise kein Unterschied.
Ich empfinde das eher als willkürlich als technisch erklärbar.
Aber wenn das so ist welcher Codec ist dann überhaupt nutzbar für den Export ausser XAVC? Ich kann hierzu nichts finden.
Antwort von dienstag_01:
Ich kann dir auch nicht sagen, welcher Codec für dich funktioniert.
Was ich mit altbekannt sagen wollte, wenn ich Kontrastunterschiede feststelle und unterschiedliche Luma Ranges beim Export in einer Antwort lese, würde ich mir vielleicht das Material mal genau daraufhin anschauen. Ist einfach ein Tipp, mehr nicht ;)
Antwort von WoWu:
r.p.
Worauf monitors Du die 12 Bit?
Was für ein NLE benutzt Du?
Entwickelst Du damit auch das RAW?
Wandelst Du im NLE die Abtastung ?
Kannst Du noch was zu den Datenraten sagen ?
Vielleicht entsteht etwas in der Abtastung des Signals, das u.U. nicht auf den Codec zurückzuführen ist.
Wenn Du weitere Ergebnisse hast, würde es mich freuen, wenn Du sie hier postest.
Antwort von r.p.television:
WoWu hat geschrieben:
r.p.
Worauf monitors Du die 12 Bit?
Was für ein NLE benutzt Du?
Entwickelst Du damit auch das RAW?
Wandelst Du im NLE die Abtastung ?
Kannst Du noch was zu den Datenraten sagen ?
Vielleicht entsteht etwas in der Abtastung des Signals, das u.U. nicht auf den Codec zurückzuführen ist.
Wenn Du weitere Ergebnisse hast, würde es mich freuen, wenn Du sie hier postest.
Ich nutze hier nur 8bit-Monitore, denn solange beim Kunden nur 8bit ankommt ist mir wichtiger die Kontrolle genau darüber zu haben was final ankommt.
Aktuell Premiere CC2018, aber die Ergebnisse sind auch unter der letzen CC2017 gleich.
Und ja, ich entwickle innerhalb des NLE auch das Raw. Wenn man die Lumetri-Panel richtig nutzt sehe ich hier keine Nachteile gegenüber Davinci-Resolve etc. Sony hat ja bereits vor vier Jahren für eine native Implementierung gesorgt (unter CS6 noch mit einem externen Codec-Plugin-Packet, seit CC ist es direkt in Premiere mit speziellen Rohmaterial-Interpretations-Default-Settings inkludiert)
Und ja, ich wandle auch im NLE die Abtastung. Wie schon erwähnt - wenn ich die exportierten Files in die ursprüngliche Timeline importiere welche für den Export benutzt wurde sieht hier ausschließlich XAVC (egal welche Datenrate, Colorsubsampling und Quantisierung) genauso aus wie das 8bit-Monitorbild. Auch normales H.264.
Aber JPEG2000 sieht bei 12bit minimal anders aus, 10bit schon mit ordentlichem Unterschied. Und zwar so gross dass (ohne das jetzt ausgetestet zu haben) ich mir sicher bin dass hier ein Beschnitt an Highlights und Schatten stattfindet.
Datenraten des Sony Raw sind bei 4k 25fps um die 1000mbit. XAVC UHD 25 fps Class 480 CBR liegt bei ca 400mbit (480 wie bei der Klassifizierung werden wohl nur bei 4096x3840 erreicht). JPEG2000 erreicht in 12bit dann sehr unterschiediche Datenraten. Von durchschnittlich 700mbit bis zu 1900mbit. Die 10bit Variante erreicht von 450m/bit bis zu 1200mbit
Ich müsste mal einen Test machen wie sich JPEG2000 unter 10bit verhält wenn ich nicht das Raw wandle, sondern etwas anderes wie ProRes. Wenn ein 10bit-Codec wie ProRes HQ dann nach dem Export zu JPEG2000 immer noch deutlich gestauchter wirkt dann ist für mich dieser Codec einfach fehlerhaft ins NLE eingebunden. Man nenne mich naiv - aber hält man sich an Default-Settings sollte man ein gleiches Ergebnis erhalten wie in der Ansicht im NLE. Es kann ja nicht angehen dass man alles doppelt und dreifach auf Fehler untersuchen muss.
Ungeachtet des Problems erscheint mir mittlerweile XAVC Class 480 als sehr effizienter Codec. Die offizielle Aufbohrung von Class 300 zu 480 ist ein großer Schritt. Premiere unterstützt den Export nach 480 ja schon länger als der Codec kameraseitig existiert. Bis vor einem Jahr nutzten selbst die F55 nur Class 300 weshalb der XAVC-Codec erstmal keine allzu guten Bewertungen bei Composern bekam. Ich denke aber Class 480 ist vermutlich besser oder zumindest gleichwertig als Pro Res HQ bei fast nur halber Datenrate.
Antwort von wolfgang:
Hier scheint davon ausgegangen zu werden, dass es sich nur um eine Gammakurvenänderung handelt. Wäre es auch möglich dass es sich aber auch um eine Gammutänderung handelt?
Antwort von WoWu:
Das ist sehr gut möglich.
Ich tippe aber auch etwas darauf, dass natürlich in jedem Downscaling eine Dynamkveränderung (verringerung) stattfindet, was einem höheren Kontrast gleich kommt. (schon allein durch die Rundungen)
Und zwar nicht nur im Nutzsignal, sondern auch in der (den) Darstellungslut(s).
Kommt noch hinzu, dass der Darstellungsweg ohnehin nicht so hochkarätig aufgearbeitet wird.
Aber das ist zunächst mal nur eine Vermutung.
Interessant wäre, das konnte ich nicht erkennen, ob r.p. ein Master gezogen hat und davon die jeweiligen Versionen, oder ob die immer aus der RAW gewandelten Timeline exportiert (und komprimiert) worden sind.