Du hast bei einem Video-Signal den Debayering-Prozess schon hinter dir. Die Farben sind also per Algorithmus schon mehr oder weniger gut abgeschätzt. Jede Veränderung oder Korrektur setzt also an dieser "Schätzung" an.Vectorizer hat geschrieben: ↑Mi 27 Apr, 2022 15:38
Ordentliche Hauttöne unter zB ner Natriumdampflampe oder LED Showlicht? Wie willst du das machen Iasi, wenn du keine "ordentliche Lampe" (mit gleichmäßigem Spektrum) dabei hast? Raw wird dir das dann auch nicht geben können. Fehlende Lichtfrequenzen kann auch Raw nicht wieder herzaubern.
Und 3 Farbsignale ist kein Alleinstellungsmerkmal von Raw. Jedes Videosignal hat mit YUV drei Signalkanäle und die können jederzeit zu RGB umgewandelt werden, sonst könntest du ja nix auf deinem PC Monitor sehen. Wichtig ist, wie die Blendenstufen der Kamera auf die Codevalues verteilt sind, ansonsten ist Whitebalancing schnödes Algebra der drei Kanäle. Dass du beim Garading schneller ans Limit kommst, liegt m.A. eher daran, dass Raw-Dev Software wirklich gute Algorithmen einbaut haben, während Farbkorrekturtools für traditionelles Video, zB Lumetri, eher krude sind.
Bei Raw hast du die R-, B- und G-Werte des Sensors, die du dann in der Post gewichten kannst. Da hat es die Software eben leichter, denn sie muss nicht die Nährungsfehler des debayerten Videos mitschleppen.
Hinzu kommt dann noch die feinere Abstufung von 12+bit.
Ein Weißabgleich in der Kamera führt bei Licht mit begrenztem Spektrum zu Ergebnissen, die schlechter sind, als die, welche man mit Raw in der Post erzielen kann.
Natürlich bekommt man keinen perfekten Hautton, aber man hat eben doch mehr Gestaltungsspielraum.
ProRes 4444 bietet aufgrund der hohen Datenraten keinen Vorteil gegenüber komprimierten Raw-Formaten.
Effektivere 12bit-Videocodecs werden ja leider in Kameras nicht geboten.