Highlight Recovery könntest du auch händisch selbst machen.
https://forum.blackmagicdesign.com/view ... 1&t=126951What others are doing to achieve something similar is copying the color channel which is least clipped into the other two for the highlight only. This will completely desaturate the highlight but can bring back some detail. Unfortunately, one needs some transition into the fully colored luminance values, and that's where the method can fail if you have strong saturation close to clipping. We have done this manually years ago with a luma mask and some channel ops, I assume it is just a one-click version of that. It works pretty well if you don't have much color in the highlight areas to bring back some definition, up to a half stop or two thirds if you are lucky.
Möglich wahrscheinlich nur mit RAW und Foto Software die einzelne Kanäle trennen und bearbeiten können(?). Würde ich gerne sehen, wie man das in Resolve sauber realisiert, ohne-ein-Mausklick.iasi hat geschrieben: ↑Mi 05 Jul, 2023 17:38Highlight Recovery könntest du auch händisch selbst machen.
Kanäle trennen und dann in den Lichtern nur die Kanäle nutzen, die noch nicht geclippt sind.
Früher machte man´s auf die Art:
https://forum.blackmagicdesign.com/view ... 1&t=126951What others are doing to achieve something similar is copying the color channel which is least clipped into the other two for the highlight only. This will completely desaturate the highlight but can bring back some detail. Unfortunately, one needs some transition into the fully colored luminance values, and that's where the method can fail if you have strong saturation close to clipping. We have done this manually years ago with a luma mask and some channel ops, I assume it is just a one-click version of that. It works pretty well if you don't have much color in the highlight areas to bring back some definition, up to a half stop or two thirds if you are lucky.
Heute ist es eben nur ein Mausklick.
Natürlich mit Raw.roki100 hat geschrieben: ↑Mi 05 Jul, 2023 19:13Möglich wahrscheinlich nur mit RAW und Foto Software die einzelne Kanäle trennen und bearbeiten können(?). Würde ich gerne sehen, wie man das in Resolve sauber realisiert, ohne-ein-Mausklick.iasi hat geschrieben: ↑Mi 05 Jul, 2023 17:38
Highlight Recovery könntest du auch händisch selbst machen.
Kanäle trennen und dann in den Lichtern nur die Kanäle nutzen, die noch nicht geclippt sind.
Früher machte man´s auf die Art:
https://forum.blackmagicdesign.com/view ... 1&t=126951
Heute ist es eben nur ein Mausklick.
Ist das immer so oder selten?-paleface- hat geschrieben: ↑Mi 05 Jul, 2023 19:41 Hoffe Panasonic liest das mit!
A: Wenn man in NTSC ist um mit 23,98 Frames aufnimmt ruckelt das Bild bei jedem externen Monitor. Auf der Aufnahme ist es zum Glück nicht und der GH6 Bildschirm ist auch nicht davon betroffen.
Nur bei HDMI Bildschirmen.
Ja, das wäre gut. Davon sind wir allerdings ein Stück weit weg.Darth Schneider hat geschrieben: ↑Mi 05 Jul, 2023 19:48 @Panasonic
Internes Recording ist die einzige sinnvolle, langfristige Lösung für einfach jede Kamera…;)
Gruss Boris
Nur mal interessehalber, warum nimmst du nicht einfach 24 auf?-paleface- hat geschrieben: ↑Mi 05 Jul, 2023 22:20
NTSC muss ich nehmen sonst komme ich nicht an die 23,98 Frames.
Hatte sich da nicht mal so eine Allianz gebildet, die die ganzen krummen (NTSC-) Framerates abschaffen wollte?-paleface- hat geschrieben: ↑Do 06 Jul, 2023 15:53 Ich mag volle 24p auch mehr.
Alleine schon weil ich viele vfx mache und ich da einfach gerne glatte frames habe.
Aber Master kenne ich eigentlich nur 23.98
Einzig Kino hat volle 24
Eigentlich wäre da überhaupt nichts kompliziert, die Geräte müssten nur die Spezifikationen einhalten. Das heisst im Klartext Hardware.Frank Glencairn hat geschrieben: ↑Do 06 Jul, 2023 17:24 Ja, es sind da halt auch jede Menge Variablen im Spiel.
Nur weil dein Clip 24 fps hat, heißt das ja noch lange nicht, daß dein Monitor/TV auch 24 fps abspielt.
Meistens wird - via HDMI handshake - zwischen den Geräten ausgehandelt, was der Monitor so hergibt, und dann im Zuspieler das Material entsprechend auf z.B. 60fps on the fly hochgerechnet, bevor es an den Monitor/TV geschickt wird.
Und immer wenn sich das dann mathematisch nicht sauber ausgeht, erscheint auf Slashcam wieder ein neuer "mein Film ruckelt" Post :D
Und je nachdem welcher HDMI Standard da im Spiel ist (Zuspieler/Kabel/Monitor) und vielleicht noch VVR/QMS wird das ganze dann noch komplizierter.
https://www.areadvd.de/news/netflix-set ... ilder-ein/Für Inhalte mit einer nativen Bildrate von 24 fps muss das Quellgerät in einem Zeitraum von 3 Sekunden 72 Bilder von der Streaming-Anwendung erhalten. Anstatt nun 24 Bilder pro Sekunde im regulären Sekundenrhythmus zu senden, kann die Netflix-Anwendung nun für jede 3-Sekunden-Periode entscheiden, 25 Bilder in den ersten 2 Sekunden (25 x 2 = 50) und 22 Bilder in der 3. Sekunde zu senden, um insgesamt 72 (50+22) Frames in 3 Sekunden darzustellen. Dieser Ansatz erzeugt in den ersten 2 Sekunden eine gleichmäßige Frame Rate Conversion (25 Bilder werden zweimal gleichmäßig repliziert) und in der dritten Sekunde kann das Quellgerät eine FRC mit 22 bis 50 fps ausführen, was im Vergleich zu der gegebenen FRC mit 24 -> 50 fps durch ein gleichmäßigeres Frame-Replikationsmuster weniger visuelles Ruckeln erzeugt.
Die Alternative im Sinne von Qualität wäre wahrscheinlich schwarzer Bildschirm, auch nur bedingt zielführend ;)Frank Glencairn hat geschrieben: ↑Do 06 Jul, 2023 17:45 Eigentlich ist es noch schlimmer:
https://www.areadvd.de/news/netflix-set ... ilder-ein/Für Inhalte mit einer nativen Bildrate von 24 fps muss das Quellgerät in einem Zeitraum von 3 Sekunden 72 Bilder von der Streaming-Anwendung erhalten. Anstatt nun 24 Bilder pro Sekunde im regulären Sekundenrhythmus zu senden, kann die Netflix-Anwendung nun für jede 3-Sekunden-Periode entscheiden, 25 Bilder in den ersten 2 Sekunden (25 x 2 = 50) und 22 Bilder in der 3. Sekunde zu senden, um insgesamt 72 (50+22) Frames in 3 Sekunden darzustellen. Dieser Ansatz erzeugt in den ersten 2 Sekunden eine gleichmäßige Frame Rate Conversion (25 Bilder werden zweimal gleichmäßig repliziert) und in der dritten Sekunde kann das Quellgerät eine FRC mit 22 bis 50 fps ausführen, was im Vergleich zu der gegebenen FRC mit 24 -> 50 fps durch ein gleichmäßigeres Frame-Replikationsmuster weniger visuelles Ruckeln erzeugt.
Aber die Informationen passen irgendwie nicht, weil man R, G und B auf der RAW Seite (die Pixel) aufteilen muss und die passende RAW Parameter gibt es in DaVinci nicht. Alles außerhalb der RAW-Parameter (mit Nodes usw.) funktioniert nicht, weil highlights in R, G und B quasi eingebacken ist - so wie die highlights in R assehen, so auch in G oder B.