Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Infoseite // HDR10+ vs SDR 8 bit in davinci



Frage von ME2000:


Hallo Community,

Ich habe nochmal eine Frage bzgl Videos aufnehmen mit meinem Samsung S23 Ultra. Ich kann entweder klassisch in SDR 8bit mit hoher Bitrate aufnehmen oder die Option HDR10+. Ich würde gerne etwas colorgrading machen mit der davinci resolve free Version.

Ich frage mich:
1. Ich kann ein HDR10+ video in die kostenlose version von DR importieren. Warum geht das ueberhaupt da ich dachte HDR geht dort gar nicht?
2. Da ich auch keinen Monitor fuer HDR habe und nicht in DR in HDR exportieren kann würde ich gerne in SDR arbeiten. Macht es dann ueberhaupt Sinn, ein Video in HDR10+ aufzunehmen und dann in DR zu konvertieren? Ich dachte jetzt insbesondere daran, dass HDR10+ doch auch 10 bit ist (auch nach einem colorspace transform?). Hat dies nicht Vorteile ggü 8bit SDR?

Danke euch
Marco

Space


Antwort von Paralkar:

Also vorausgesetzt du kriegst da wirklich 10 bit und die Bitrate ist nicht zu knapp, könnte das durchaus Sinn machen.

Was wichtig wäre, was tut das Handy da genau, was ist das für ein SDR 8 bit, Rec709 2.4 Gamma oder srgb 2.2 Gamma oder irgendwas anderes.
Was ist das für ein HDR10+, bei nem samsung kann man vielleicht davon ausgehen das es wirklich 10 bit ist, aber selbst auf der Homepage gibts dazu keine wirklichen Infos.

Ich denke probieren geht über studieren, einfach mal ähnliche Aufnahmen in beiden Formaten machen, dann siehst du ja Unterschiede, mal in Resolve probieren.

Das HDR Zeugs könnte auf nem SDR Monitor bisserl schräg aussehen, also entweder so anpassen das du glücklich bist oder recherchieren was das genau ist, und Color Management einschalten und von dem richtigen Farbraum in dein Wunschfarbraum.

Bei HDR10+ solltest du eigentlich mit Rec2100 ST2084 als Input Colour Space nicht ganz falsch liegen. Als Working Colour Space könntest du HDR Davinci Wide Gamut nehmen....

Space


Antwort von ME2000:

Hi Paralkar,

vielen Dank fuer die Infos. Was mich etwas wundert ist, dass sowohl die SDR Aufnahme als auch die HDR10+ Aufnahme ungefähr die gleiche Dateigröße hatten (aufgenommen in h.265). In Davinci Resolve sieht die HDR Aufnahme nach Konvertierung auf rec709 "normal" aus, müsste selbst nochmal intensiv vergleichen. Mich wundert es etwas, dass es dann z.b. in der stockcam Kamera App nicht einfach die Möglichkeit gibt, auch in 10 bit aufzunehmen oder warum der "Trick" mit HDR10+ Aufnahme und Konvertierung nicht schon öfters im internet erwähnt wurde, wenn er funktionieren sollte ...

Marco

Space


Antwort von Frank Glencairn:

ME2000 hat geschrieben:
dass sowohl die SDR Aufnahme als auch die HDR10+ Aufnahme ungefähr die gleiche Dateigröße hatten (aufgenommen in h.265). In Davinci Resolve sieht die HDR Aufnahme nach Konvertierung auf rec709 "normal" aus ...
Natürlich tut sie das. Wie soll sie denn sonst aussehen?

Space


Antwort von ME2000:

Es gibt schon eine ganze Menge an Einstellungen in DR, sodass es halt nicht "normal" sondern vielleicht ueber- oder unterbelichtet etc. aussieht. Wollte damit sagen, dass die Konvertierung klappt. Einen zusätzlichen Nutzen sehe ich aber noch nicht bei meiner "Analyse", also wenn das jemand noch mit Fachwissen untermauern könnte warum es was bringt (oder auch nicht), das wäre super.

Space


Antwort von Axel:

ME2000 hat geschrieben:
... oder warum der "Trick" mit HDR10+ Aufnahme und Konvertierung nicht schon öfters im internet erwähnt wurde, wenn er funktionieren sollte ...
Ach, es gibt viele Tricks, nach denen man vergeblich sucht. Ausprobieren ist da oft die einzige Möglichkeit.

Space


Antwort von cantsin:

ME2000 hat geschrieben:
Wollte damit sagen, dass die Konvertierung klappt. Einen zusätzlichen Nutzen sehe ich aber noch nicht bei meiner "Analyse", also wenn das jemand noch mit Fachwissen untermauern könnte warum es was bringt (oder auch nicht), das wäre super.
Da es sich bei dem HDR-Material um 10bit-Log handelt, solltest Du erheblich mehr Spielraum bei der Farb- und Belichtungskorrektur haben als bei 8bit-SDR-Material.

Das solltest Du eigentlich schon im Waveform-Monitor sehen - ob da die Kurven glatt sind (10bit HDR) oder interne Abrisse haben (8bit SDR). Ein guter Praxistest wäre auch das Filmen eines blauen Himmels, bei dem das SDR-Material wahrscheinlich schon unbearbeitet Color Banding zeigt (und garantiert, wenn Du es farbkorrigierend anfasst), das umgewandelte HDR-Material aber saubere Blau-Farbverläufe produzieren sollte.

Space


Antwort von Jott:

Axel hat geschrieben:
ME2000 hat geschrieben:
... oder warum der "Trick" mit HDR10+ Aufnahme und Konvertierung nicht schon öfters im internet erwähnt wurde, wenn er funktionieren sollte ...
Ach, es gibt viele Tricks, nach denen man vergeblich sucht. Ausprobieren ist da oft die einzige Möglichkeit.
Selbst ausprobieren ist so was von old school …

Space


Antwort von ME2000:

Jott hat geschrieben:
Axel hat geschrieben:


Ach, es gibt viele Tricks, nach denen man vergeblich sucht. Ausprobieren ist da oft die einzige Möglichkeit.
Selbst ausprobieren ist so was von old school …
Es geht darum das Vorgehen mit Fachwissen zu untermauern. Ich kenne mich da nicht so gut aus. Ausserdem sind die Unterschiede auch nicht so offensichtlich. Vielleicht mache ich ja auch was falsch, z.B. bei der Umwandlung von HDR auf SDR. Vielleicht hat es ja auch schon jemand ausprobiert. Vielleicht ist meine Herangehensweise falsch. Danke.

Space



Space


Antwort von ME2000:

Ich habe jetzt mal den Himmel aufgenommen, das HDR Material umgewandelt und farblich abgeändert. Ich sehe aber keinen wirklichen Unterschied, obwohl mir Davinci Resolve einmal 10 bit und einmal 8 bit sagt? Ein sehr starker Zoomausschnitt aus Davinci habe ich mal angefügt. Sieht jemand den Unterschied oder schaue ich mir einfach was Falsches an?

Space


Antwort von Darth Schneider:

Hm, um zu wissen was und ob da was falsch läuft , beziehungsweise um dir zu helfen müssten wir zuerst einmal wissen was genau du für Projekt Einstellungen du gewählt hast und auch wie du das HDR Material überhaupt in SDR wandelst.

Sonst helfen eventuell solche Videos:





Gruss Boris

Space


Antwort von cantsin:

ME2000 hat geschrieben:
Ich habe jetzt mal den Himmel aufgenommen, das HDR Material umgewandelt und farblich abgeändert. Ich sehe aber keinen wirklichen Unterschied, obwohl mir Davinci Resolve einmal 10 bit und einmal 8 bit sagt? Ein sehr starker Zoomausschnitt aus Davinci habe ich mal angefügt. Sieht jemand den Unterschied oder schaue ich mir einfach was Falsches an?
Nimm doch mal zwei sehr kurze Clips vom selben Motiv in identischem Blickwinkel auf (1 Sek. reicht), einmal als SDR und einmal als HDR, und teile sie hier per WeTransfer.

Dann können wir uns das mal richtig ansehen. Mit exportierten JPEGs kommen wir nicht wirklich weiter...

Space


Antwort von ME2000:

So, ich hoffe dies war jetzt alles richtig, musste mich auch erstmal bei WeTransfer anmelden.
Hier habe ich jetzt einen Link:
https://we.tl/t-7bZn9Dz0On
Dort habe ich drei kurze Clips: einen HDR und einen SDR Clip, direkt von der Handy-Kamera
Dann habe ich noch einen SDR_vs_HDR Clip, den ich aus Davinci exportiert habe (bei mir geht h.265 nicht in 10 Bit, daher anderes Format), bei dem ich die beiden Clips reingeladen habe und einmal nach dem Verfahren aus dem oben angegebenen Youtube-Video die Videos von HDR nach SDR konvertiert habe, sprich: ich habe im Color Tab ein "ColorSpaceTransform" gemacht von Rec.2100 (input Gamma Rec.2100 ST2084) nach Timeline, die ich auf Rec.709 gesetzt habe. Dies ist dann das letzte Video, sieht auch von den Farben sehr gut aus.
Kann damit jemand etwas anfangen?

Danke euch!

Space


Antwort von cantsin:

ffprobe (Teil von ffmpeg) sagt, dass das HDR-Videomaterial des Samsung-Smartphones im Rec2020-Farbraum aufgenommen wurde:
Screenshot from 2023-03-18 15-47-22.png

Mit den folgenden Parametern konvertiert es Resolve in ein Bild, das dem SDR-Material direkt aus der Kamera ziemlich nahe kommt:
Screenshot from 2023-03-18 15-46-58.png

Bildvergleich:
sdr-ooc_1.1.2.jpg SDR-Material direkt aus der Kamera

HDR_1.2.2.jpg HDR-Material, mit den obigen Parametern nach SDR/Rec709 gewandelt


Nun hat Dein Motiv wenig Kontrast, weswegen man den Unterschied von SDR und HDR in der Dynamikwiedergabe nicht sehen kann. Aber der Unterschied von 10bit zu 8bit wird schon sichtbar, wenn man das Material verbiegt, hier mal mit extremer Kontrastkurve:

SDR_1.1.1.jpg SDR mit aufgesteiltem Kontrast

HDR_1.2.1.jpg HDR mit aufgesteiltem Kontrast


Wenn Du die beiden Bilder gut vergleichst, stellst Du fest, dass es in dem 8bit-SDR-Bild bei Farbverläufen und Kontrastkanten Color-Banding gibt (sichtbar an den roten Flecken-Inseln im 1:1-Bildausschnitt):
SDR_1.1.1-crop.png
...während das 10bit-HDR-Bild hier die Verläufe besser wiedergibt:
HDR_1.2.1-crop.png

Space


Antwort von ME2000:

cantsin hat geschrieben:
ffprobe (Teil von ffmpeg) sagt, dass das HDR-Videomaterial des Samsung-Smartphones im Rec2020-Farbraum aufgenommen wurde:

Screenshot from 2023-03-18 15-47-22.png



Mit den folgenden Parametern konvertiert es Resolve in ein Bild, das dem SDR-Material direkt aus der Kamera ziemlich nahe kommt:

Screenshot from 2023-03-18 15-46-58.png



Bildvergleich:

sdr-ooc_1.1.2.jpg
SDR-Material direkt aus der Kamera


hdr-to-rec709_1.1.3.jpg
HDR-Material, mit den obigen Parametern nach SDR/Rec709 gewandelt


Nun hat Dein Motiv wenig Kontrast, weswegen man den Unterschied von SDR und HDR in der Dynamikwiedergabe nicht sehen kann. Aber der Unterschied von 10bit zu 8bit wird schon sichtbar, wenn man das Material verbiegt, hier mal mit extremer Kontrastkurve:


SDR_1.1.1.jpg
SDR mit aufgesteiltem Kontrast


HDR_1.2.1.jpg
HDR mit aufgesteiltem Kontrast


Wenn Du die beiden Bilder gut vergleichst, stellst Du fest, dass es in dem 8bit-SDR-Bild bei Farbverläufen und Kontrastkanten Color-Banding gibt (sichtbar an den roten Flecken-Inseln im 1:1-Bildausschnitt):

SDR_1.1.1-crop.png


...während das 10bit-HDR-Bild hier die Verläufe besser wiedergibt:

HDR_1.2.1-crop.png

Wow, also das nenne ich mal eine sehr gute Antwort, vielen lieben Dank. Da habe ich gleich einige Sachen neu gelernt. Ich muss auch sagen: das hätte ich selbst nie gesehen. Aber du hast das wirklich sehr detailliert aber auch intuitiv erklärt.
Ich werde also von jetzt an immer in HDR Filmen da ich ja jetzt weiß wie ich es zu konvertieren habe :). Die einzige Sache, bei der ich mir noch etwas unsicher bin, ist die Dateigröße. Beide Varianten haben ja ungefähr die gleiche Größe. Im Handy kann ich bei der Stock-Cam ja "nur" "Hohe Bitrate" einstellen. Da HDR ja dann 10 bit hat müsste die Datei ja eigentlich größer sein. Also müsste da "stärker" komprimiert werden? Aber deine Beispiele haben ja gezeigt, dass HDR trotzdem zu bevorzugen ist, von daher gehe ich mal diesen Weg. Danke nochmal!

Space


Antwort von cantsin:

ME2000 hat geschrieben:
Die einzige Sache, bei der ich mir noch etwas unsicher bin, ist die Dateigröße. Beide Varianten haben ja ungefähr die gleiche Größe. Im Handy kann ich bei der Stock-Cam ja "nur" "Hohe Bitrate" einstellen. Da HDR ja dann 10 bit hat müsste die Datei ja eigentlich größer sein. Also müsste da "stärker" komprimiert werden?
Bei 10bit fallen ggü. 8bit unkomprimiert ja nur 25% mehr Daten an, und der HEVC-/h265-Codec ist gerade für 10bit-HDR ausgelegt. Ich würde mir darüber keine Gedanken machen.

Und, wie gesagt, bei kontrastreichen Motiven (z.B. weißes Haus mit verschatteter Toreinfahrt in knallender Sonne vor blauem Himmel, wobei Du weder willst, dass die Hausfassade oder die Wolken ausbrennen, noch die Toreinfahrt zu einem schwarzen Loch absäuft) sollte HDR-Aufnahme noch viel mehr bringen als bei Deinem Beispielvideo. Zwar dürfte das Samsung-Telefon auch bei SDR die Spitzlichter absenken und Schatten anheben (bzw. Tonemapping betreiben, genau wie Resolve bei der Farbraumumwandlung), um ein stimmiges Gesamtbild zu erzeugen. Aber in dem Moment, in dem Du das Material anfasst, z.B. wenn Du die Schatten in Resolve noch weiter anheben willst, sollte der Unterschied sehr deutlich sichtbar werden.

Der einzige Vorteil der SDR-Aufnahme wäre, wenn Du direkt aus der Kamera Videomaterial haben willst, das Du überall unkompliziert und ohne Nachbearbeitung abspielen kannst bzw. mit dem auch mögliche Arbeitspartner einfach zurechtkommen, weil SDR-Rec709 natürlich der kleinste gemeinsame Nenner ist, der immer funktioniert.

Space


Antwort von ME2000:

cantsin hat geschrieben:
ffprobe (Teil von ffmpeg) sagt, dass das HDR-Videomaterial des Samsung-Smartphones im Rec2020-Farbraum aufgenommen wurde:

Screenshot from 2023-03-18 15-47-22.png



Mit den folgenden Parametern konvertiert es Resolve in ein Bild, das dem SDR-Material direkt aus der Kamera ziemlich nahe kommt:

Screenshot from 2023-03-18 15-46-58.png



Bildvergleich:

sdr-ooc_1.1.2.jpg
SDR-Material direkt aus der Kamera


hdr-to-rec709_1.1.3.jpg
HDR-Material, mit den obigen Parametern nach SDR/Rec709 gewandelt


Nun hat Dein Motiv wenig Kontrast, weswegen man den Unterschied von SDR und HDR in der Dynamikwiedergabe nicht sehen kann. Aber der Unterschied von 10bit zu 8bit wird schon sichtbar, wenn man das Material verbiegt, hier mal mit extremer Kontrastkurve:


SDR_1.1.1.jpg
SDR mit aufgesteiltem Kontrast


HDR_1.2.1.jpg
HDR mit aufgesteiltem Kontrast


Wenn Du die beiden Bilder gut vergleichst, stellst Du fest, dass es in dem 8bit-SDR-Bild bei Farbverläufen und Kontrastkanten Color-Banding gibt (sichtbar an den roten Flecken-Inseln im 1:1-Bildausschnitt):

SDR_1.1.1-crop.png


...während das 10bit-HDR-Bild hier die Verläufe besser wiedergibt:

HDR_1.2.1-crop.png


Hi Cantsin,

sorry, wenn ich nochmal fragen muss.
Ich habe mal versucht, deine Ergebnisse zu replizieren, bekomme es aber absolut nicht hin. Zunächst:
ich habe die gleichen Settings wie du gewählt (Rec.2020, ST2084 4000 nit, "Apply Forward OOTF", in der Timeline die Standard-Settings "Rec.709 Gamma 2.4"). In meiner "Parade" bei den Farben sehe ich schon Unterschiede zwischen SDR und HDR konvertiert, im Bild auch.
Was ich auch nicht ganz verstehe: die Bilder im Bildvergleich "sdr-ooc_1.1.2.jpg" und "hdr-to-rec709_1.1.3.jpg" scheinen wirklich exakt die Gleichen zu sein (beides mal das SDR-Bild). Sie sehen nicht nur gleich aus sondern haben auch exakt die gleiche Dateigröße (bis auf das letzte Byte bei mir)? Oder hat hier "slashcam" einfach was verändert?

Hast du eine Ahnung, woran das alles liegen könnte? Ich nutze die kostenlose Version von DR, könnte es daran liegen?

Danke und schönen Gruß
Marco

Space


Antwort von cantsin:

ME2000 hat geschrieben:
Ich habe mal versucht, deine Ergebnisse zu replizieren, bekomme es aber absolut nicht hin. Zunächst:
Ich muss mich entschuldigen, mir ist beim Screengrab des umgewandelten HDR-VollbIlds eine Verwechselung unterlaufen!

Hier noch mal das SDR-Bild direkt aus der Kamera:
SDR_1.1.1.jpg
Hier jetzt das korrekte mit "Color Space Transform" und den o.g. Parametern umgewandelte HDR-Bild:
HDR_1.2.2.jpg
Wenn man an den Parametern noch ein bisschen schraubt...
Screenshot from 2023-03-19 13-04-43.png
...kann man das Ergebnis dem SDR-Bild visuell noch stärker angleichen:
HDR tweaked_1.2.1.jpg
(Ist jetzt auch im Originalposting korrigiert.)

Space



Space


Antwort von Bruno Peter:

Was machst Du da eigentlich,
das Auge im ersten Bild ist noch scharf...

Space


Antwort von cantsin:

"Bruno Peter" hat geschrieben:
Was machst Du da eigentlich,
das Auge im ersten Bild ist noch scharf...
Das waren die zwei Beispielvideos des TO, wobei in der HDR-Aufnahme ein Kamerawackler saß. Es ging hier aber sowieso nur um Farb- und Dynamikwiedergabe.

Space


Antwort von ME2000:

cantsin hat geschrieben:
ME2000 hat geschrieben:
Ich habe mal versucht, deine Ergebnisse zu replizieren, bekomme es aber absolut nicht hin. Zunächst:
Ich muss mich entschuldigen, mir ist beim Screengrab des umgewandelten HDR-VollbIlds eine Verwechselung unterlaufen!

Hier noch mal das SDR-Bild direkt aus der Kamera:

SDR_1.1.1.jpg


Hier jetzt das korrekte mit "Color Space Transform" und den o.g. Parametern umgewandelte HDR-Bild:

HDR_1.2.2.jpg


Wenn man an den Parametern noch ein bisschen schraubt...

Screenshot from 2023-03-19 13-04-43.png


...kann man das Ergebnis dem SDR-Bild visuell noch stärker angleichen:

HDR tweaked_1.2.1.jpg


(Ist jetzt auch im Originalposting korrigiert.)

Nochmals vielen Dank. Bei mir sieht es irgendwie anders aus (ist jetzt nochmal JPG, aber man sieht die Parade und auch in der Hue vs Hue Curve eine Verschiebung der Farben??) ...
SDR habe ich einfach so gelassen, HDR habe ich nur den einen Color Transform Node mit den gleichen Settings wie bei dir. Project Settings stehen habe ich auch nochmal angefügt.
Hast du die Studio Version? Ich wundere mich ja eh, dass ich das HDR10+ Material überhaupt reinladen kann ...

Space


Antwort von cantsin:

Exportier mal Deine Bilder, indem Du Snapshots in Resolves "Gallery" machst (per Rechtsklick auf das Standbild im "Color Tab") und die dann direkt aus der Gallery (Rechtsklick auf gespeichertes Bild) als JPEG exportiest.

Screenshots des Programms-GUI sind relativ wenig aussagekräftig, da Deine Monitorkalibrierung zwischenfunken kann.

Space


Antwort von ME2000:

cantsin hat geschrieben:
Exportier mal Deine Bilder, indem Du Snapshots in Resolves "Gallery" machst (per Rechtsklick auf das Standbild im "Color Tab") und die dann direkt aus der Gallery (Rechtsklick auf gespeichertes Bild) als JPEG exportiest.

Screenshots des Programms-GUI sind relativ wenig aussagekräftig, da Deine Monitorkalibrierung zwischenfunken kann.

So, habe es mal als PNG exportiert, hoffe das macht Sinn.
Bin bald für ein paar Tage im Urlaub und wollte da "so gut es geht" Videos machen. Wäre halt nur blöd, wenn ich dann HDR nutze und ich es hinterher nicht mehr richtig "color gegradet" bekommen würde oder die Farben einfach "off" sind.

Space


Antwort von cantsin:

ME2000 hat geschrieben:
So, habe es mal als PNG exportiert, hoffe das macht Sinn.
Bin bald für ein paar Tage im Urlaub und wollte da "so gut es geht" Videos machen. Wäre halt nur blöd, wenn ich dann HDR nutze und ich es hinterher nicht mehr richtig "color gegradet" bekommen würde oder die Farben einfach "off" sind.
Weiss zwar nicht, warum das umgewandelte HDR-Bild bei Dir dunkler ist, aber das kannst Du sehr einfach korrigieren, wenn Du in "Color Space Transform" am "Adaptation"-Regler drehst, oder (natürliche) eine einfache Gammakorrektur machst.

Space


Antwort von ME2000:

cantsin hat geschrieben:
ME2000 hat geschrieben:
So, habe es mal als PNG exportiert, hoffe das macht Sinn.
Bin bald für ein paar Tage im Urlaub und wollte da "so gut es geht" Videos machen. Wäre halt nur blöd, wenn ich dann HDR nutze und ich es hinterher nicht mehr richtig "color gegradet" bekommen würde oder die Farben einfach "off" sind.
Weiss zwar nicht, warum das umgewandelte HDR-Bild bei Dir dunkler ist, aber das kannst Du sehr einfach korrigieren, wenn Du in "Color Space Transform" am "Adaptation"-Regler drehst, oder (natürliche) eine einfache Gammakorrektur machst.
OK, danke. Deine Kommentare helfen sehr.
Der Grund warum ich nachfrage ist einfach der: will demnächst mal einige Aufnahmen machen. Wäre dabei sehr ärgerlich, wenn ich das in HDR mache und es nicht "vernünftig" auf SDR bekomme bzw. Probleme beim colorgraden habe, weil Farben einfach nicht passen (in diesem Beispiel hier ist das Rot in der SDR Aufnahme ja schon etwas anders als beim konvertierten HDR Bild; wer weiss, was da noch passieren könnte).
Aber ich denke, ich werde es einfach mal riskieren und in HDR aufnehmen. Danke!

Space


Antwort von wolfgang:

Mich wundern an dieser Diskussion hier ein paar Punkte:

Ja, mit der Gratisversion von Resolve sollte man das HDR Material importieren können - und zu rec709 graden können. Unterschiede zwischen den Versionen liegen offenbar bei der kostenpflichtigen Studio Version in einigen professionelleren Codecs, oder in den Scopes die man auf Nits umstellen kann. Oder auch in den Ausgabeformaten, wo man bei der Studio Version mehr Auswahl hat. Will man zu rec709 graden, dann sollte das gehen

Was die kostenpflichtige Studio Version mehr kann:
https://www.blackmagicdesign.com/de/pro ... lve/studio

Was mich auch wundert ist der Umstand, dass hier zwar im ersten Posting gleich (völlig richtig) darauf hin gewiesen wird, dass man HDR Material besser im HDR Wide Gamut verarbeitet - und dann wird erst mit einer rec709 timeline gearbeitet. Das ist ungünstig, weil etwaige Grading Schritte besser im weiten Farbraum passieren, und erst dann dampft man zu dem schmäleren Farbraum von rec709 ein. Ich würde mir mal etwa bei https://www.youtube.com/watch?v=mCW4FZgv-pc&t=184s was von seinen Projekteinstellungen abschauen (es gibt sicher bessere Links dazu, den habe ich mal auf die Schnelle gefunden).

Was auch nur indirekt raus kommt, ist das Problem, dass man zwar für das Graden zu rec709 tatsächlich nicht unbedingt einen HDR Monitor benötigt, aber auf einem SDR Monitor halt nur das gewandelte Bild sehen kann - und nicht aus HDR10 Ausgangsmaterial. Ok, man kann damit leben.

Space


Antwort von ME2000:

wolfgang hat geschrieben:
Mich wundern an dieser Diskussion hier ein paar Punkte:

Ja, mit der Gratisversion von Resolve sollte man das HDR Material importieren können - und zu rec709 graden können. Unterschiede zwischen den Versionen liegen offenbar bei der kostenpflichtigen Studio Version in einigen professionelleren Codecs, oder in den Scopes die man auf Nits umstellen kann. Oder auch in den Ausgabeformaten, wo man bei der Studio Version mehr Auswahl hat. Will man zu rec709 graden, dann sollte das gehen

Was die kostenpflichtige Studio Version mehr kann:
https://www.blackmagicdesign.com/de/pro ... lve/studio

Was mich auch wundert ist der Umstand, dass hier zwar im ersten Posting gleich (völlig richtig) darauf hin gewiesen wird, dass man HDR Material besser im HDR Wide Gamut verarbeitet - und dann wird erst mit einer rec709 timeline gearbeitet. Das ist ungünstig, weil etwaige Grading Schritte besser im weiten Farbraum passieren, und erst dann dampft man zu dem schmäleren Farbraum von rec709 ein. Ich würde mir mal etwa bei https://www.youtube.com/watch?v=mCW4FZgv-pc&t=184s was von seinen Projekteinstellungen abschauen (es gibt sicher bessere Links dazu, den habe ich mal auf die Schnelle gefunden).

Was auch nur indirekt raus kommt, ist das Problem, dass man zwar für das Graden zu rec709 tatsächlich nicht unbedingt einen HDR Monitor benötigt, aber auf einem SDR Monitor halt nur das gewandelte Bild sehen kann - und nicht aus HDR10 Ausgangsmaterial. Ok, man kann damit leben.

Hi Wolfgang,

vielen lieben Dank. Du kennst dich glaube ich besser aus. Hier ist wie ich es sehe, korrigiere mich bitte wenn ich Unsinn erzähle...
Es gibt wohl Tricks wie ich HDR Videos auch irgendwie auf einem SDR Monitor colorgraden kann, kenne mich damit aber nicht so aus und wuerde das auch eher vermeiden, insbesondere das graden ohne das "richtige" Bild auf dem schirm zu haben. Mir geht es auch gar nicht so sehr um HDR an sich sondern die Tatsache, dass das HDR Material über Smartphone in 10 bit aufgenommen wird. Wenn man also das HDR10 bit "vernuenftig" auf SDR 10 bit timeline konvertieren kann hat hätte ich doch mein Ziel erreicht? Und es scheint ja auch zu funktionieren...

Gruß,
Marco

Space



Space


Antwort von wolfgang:

Auf einem SDR Monitor kannst du HDR-Material eigentlich grundsätzlich nicht zu HDR graden, einfach weil ein SDR Monitor als maximale Helligkeit 100 nits kann (in der Praxis etwas darüber, oft um die 200 nits herum), während ein HDR Monitor für das heute übliche Graden zu HDR eigentlich stabile 1000 nits über den ganzen Bildbereich können soll. Was bedeutet, dass er eine Spitzenluminanz von ca. 1200 bis 1600 nits können sollte.

Wenn du Helligkeiten auf einem SDR Monitor betrachtest, die über den darstellbaren 100 nits liegen, dann können die grundsätzlich nur noch als Weiß dargestellt werden - diese Bildteile erscheinen ausgebrannt. In anderen Worten: du würdest diese Bildteile nicht mehr sehen, und damit kannst es eigentlich nicht mehr sinnvoll bearbeiten.

Technisch kann man sich da noch so behelfen dass diese zu hohen Helligkeiten abgeregelt werden, als im darstellbaren Luminanzbereich des Monitors hineingepresst werden - also indem man ein tonmapping auf tiefere Werte vornimmt. So behelfen sich viele unserer heutigen HDR TVs. Nur für das Einstellen der Luminanz wünscht man sich eher einen Monitor, der explizit nicht ein derartiges Tonmapping durchführt - denn ich will ja das Bild so sehen wie es ist.

Das ist das Problem mit der Gamma-Funktion. Das zweite Problem ist, dass bei rec2020 der Farbraum ein anderer ist als bei SDR-Geräten. Das hast schon fest gestellt, dass etwa rote Bildteile anders dargestellt werden. Spielt man ein HDR-Signal auf einem SDR-Monitor ein, bekommt man auch hier die wunderbarsten und völlig falschen Farben - was gerade Anfänger in dem Bereich schwer verwirrt.

Fazit: willst HDR sinnvoll zu HDR graden und bearbeiten, dann brauchst halt einen vernünftigen HDR-Monitor, der noch dazu die geforderten Spitzenhelligkeiten kann. Beachte, dass so Dinge wie "HDR400" oder "HDR800" diesbezüglich arg irreführend sind - wenn, dann brauchst etwa "HDR1400".

Wenn man jetzt zu SDR graded, dann stellst ohnedies sowohl Gamma wie auch Gamut auf SDR um. Und beurteilst das Bild auf einem (hoffentlich auf SDR kalibrierten) Monitor. Stimmt also, dass einem dann das originale HDR Bild egal sein könnte - welches aber enorme Vorteile hätte, nicht nur wegen der Helligkeit sondern wegen des deutlich umfangreicheren Farbraums. Damit lebt in der Praxis heute wohl sogar eine deutliche Mehrheit an Usern, vor allem weil zumeist als Deliverable noch nicht HDR, sondern eher SDR gefordert wird.

Dies gilt aber nicht für den in den Projekteinstellungen/der Timeline von Resolve gewählten Farbraum. Wenn man schon weiß, dass man mit log oder HDR Material daher kommt, welches einen umfangreicheren Farbraum hat, dann bitte den Farbraum in den Projekteinstellungen so groß einstellen, dass man dieses Material dort graden kann, ohne an den Limits des engeren rec709 anzustehen. Man sollte in Resolve also entweder in ACES, oder dem Blackmagic eigenen Color Management (wide gamut) graden - und erst NACH dem Grading auf rec709 eindampfen.

Space


Antwort von ME2000:

wolfgang hat geschrieben:
Auf einem SDR Monitor kannst du HDR-Material eigentlich grundsätzlich nicht zu HDR graden, einfach weil ein SDR Monitor als maximale Helligkeit 100 nits kann (in der Praxis etwas darüber, oft um die 200 nits herum), während ein HDR Monitor für das heute übliche Graden zu HDR eigentlich stabile 1000 nits über den ganzen Bildbereich können soll. Was bedeutet, dass er eine Spitzenluminanz von ca. 1200 bis 1600 nits können sollte.

Wenn du Helligkeiten auf einem SDR Monitor betrachtest, die über den darstellbaren 100 nits liegen, dann können die grundsätzlich nur noch als Weiß dargestellt werden - diese Bildteile erscheinen ausgebrannt. In anderen Worten: du würdest diese Bildteile nicht mehr sehen, und damit kannst es eigentlich nicht mehr sinnvoll bearbeiten.

Technisch kann man sich da noch so behelfen dass diese zu hohen Helligkeiten abgeregelt werden, als im darstellbaren Luminanzbereich des Monitors hineingepresst werden - also indem man ein tonmapping auf tiefere Werte vornimmt. So behelfen sich viele unserer heutigen HDR TVs. Nur für das Einstellen der Luminanz wünscht man sich eher einen Monitor, der explizit nicht ein derartiges Tonmapping durchführt - denn ich will ja das Bild so sehen wie es ist.

Das ist das Problem mit der Gamma-Funktion. Das zweite Problem ist, dass bei rec2020 der Farbraum ein anderer ist als bei SDR-Geräten. Das hast schon fest gestellt, dass etwa rote Bildteile anders dargestellt werden. Spielt man ein HDR-Signal auf einem SDR-Monitor ein, bekommt man auch hier die wunderbarsten und völlig falschen Farben - was gerade Anfänger in dem Bereich schwer verwirrt.

Fazit: willst HDR sinnvoll zu HDR graden und bearbeiten, dann brauchst halt einen vernünftigen HDR-Monitor, der noch dazu die geforderten Spitzenhelligkeiten kann. Beachte, dass so Dinge wie "HDR400" oder "HDR800" diesbezüglich arg irreführend sind - wenn, dann brauchst etwa "HDR1400".

Wenn man jetzt zu SDR graded, dann stellst ohnedies sowohl Gamma wie auch Gamut auf SDR um. Und beurteilst das Bild auf einem (hoffentlich auf SDR kalibrierten) Monitor. Stimmt also, dass einem dann das originale HDR Bild egal sein könnte - welches aber enorme Vorteile hätte, nicht nur wegen der Helligkeit sondern wegen des deutlich umfangreicheren Farbraums. Damit lebt in der Praxis heute wohl sogar eine deutliche Mehrheit an Usern, vor allem weil zumeist als Deliverable noch nicht HDR, sondern eher SDR gefordert wird.

Dies gilt aber nicht für den in den Projekteinstellungen/der Timeline von Resolve gewählten Farbraum. Wenn man schon weiß, dass man mit log oder HDR Material daher kommt, welches einen umfangreicheren Farbraum hat, dann bitte den Farbraum in den Projekteinstellungen so groß einstellen, dass man dieses Material dort graden kann, ohne an den Limits des engeren rec709 anzustehen. Man sollte in Resolve also entweder in ACES, oder dem Blackmagic eigenen Color Management (wide gamut) graden - und erst NACH dem Grading auf rec709 eindampfen.
Danke Wolfgang für diese umfangreiche Information. Ich glaube nur sie ist zu hoch für mich (wie du an den folgenden Fragen sehen wirst ;) ).
Ich dachte ich könnte auf meinem SDR Monitor weder die hohe NIT Zahl sehen noch einen erweiterten Farbraum sehen. Wenn das stimmt, wie kann ich dann in diesem Farbraum graden, um es dann zu konvertieren? Muss daher die Timeline nicht immer auf Rec.709 mit 10 bit eingestellt sein? Ich reduziere zunächst den Farbraum, habe aber immer noch 10 bit und mache dann mögliche adjustierungen im rec.709 Farbraum?

Danke und Gruß,
Marco

Space


Antwort von wolfgang:

ME2000 hat geschrieben:
Ich dachte ich könnte auf meinem SDR Monitor weder die hohe NIT Zahl sehen noch einen erweiterten Farbraum sehen. Wenn das stimmt, wie kann ich dann in diesem Farbraum graden, um es dann zu konvertieren?
Du musst unterscheiden, was du auf einem Monitor siehst. Und der internen Berechnung.

Willst du auf dem Monitor eine HDR-Vorschau sehen, dann stellst die Timeline in Resolve auf HDR Wide Gamut ein. Solange du keinen LUT für die Vorschau aktivierst, überträgt er dir dann das HDR Bild auf die Vorschau. Hängt dann ein HDR Monitor dran, der das von Gamut und Gamma richtig interpretierst, hast eine korrekte HDR Vorschau.

Übrigens nimmt man bei Resolve eher nicht die Grafikkarten, sondern halt I/O devices, die ein normiertes Signal ausgeben (Decklink 4K Extreme 12G, Ultrastudio 4K mini). Damit umgeht man den Einfluss der Grafikkarte und des Betriebssystems auf die Vorschau. Allerdings macht das nur dann Sinn, wenn man den genutzten Monitor auch kalibriert.

ME2000 hat geschrieben:
Muss daher die Timeline nicht immer auf Rec.709 mit 10 bit eingestellt sein? Ich reduziere zunächst den Farbraum, habe aber immer noch 10 bit und mache dann mögliche adjustierungen im rec.709 Farbraum?
Hier fragst Du in Wirklichkeit nach der internen Berechnung. Und die interne Berechnung von Material mit weiten Farbräumen - sei es log Material oder auch deinem PQ Material - macht man eben idealerweise in weiten Farbräumen. Denn macht man die Berechnungen in kleineren Farbräumen, so wird das in den meisten Fällen zwar gut gehen. Aber in Fällen, wo man das Material massiver verändern will, kommst unnötigerweise und zu früh an Grenzen. DAher die Empfehlung, auch beim Graden zu rec709 eben weite Farbräume zu nutzen (siehe gleich die erste Antwort in diesem Thread).

Die Wandlung von so einem weiten Farbraum für den Zielfarbraum/Zielgamma rec709 macht man dann idealerweise erst im Anschluss an diesen Schritt. Gerade Resolve ist hier absolut vorbildlich, weil es diese Möglichkeit explizit vorsieht. Egal, ob man über eines der beiden Color Managementsysteme, oder über nodes arbeitet.

Für mich sind das die tatsächlich wesentlichen Dinge. Sonst hast halt Klagen, dass die Farbe rot plötzlich und aus unerklärlichen Gründen doch leicht anders aussieht. ;)

Space


Antwort von ME2000:

wolfgang hat geschrieben:
ME2000 hat geschrieben:
Ich dachte ich könnte auf meinem SDR Monitor weder die hohe NIT Zahl sehen noch einen erweiterten Farbraum sehen. Wenn das stimmt, wie kann ich dann in diesem Farbraum graden, um es dann zu konvertieren?
Du musst unterscheiden, was du auf einem Monitor siehst. Und der internen Berechnung.

Willst du auf dem Monitor eine HDR-Vorschau sehen, dann stellst die Timeline in Resolve auf HDR Wide Gamut ein. Solange du keinen LUT für die Vorschau aktivierst, überträgt er dir dann das HDR Bild auf die Vorschau. Hängt dann ein HDR Monitor dran, der das von Gamut und Gamma richtig interpretierst, hast eine korrekte HDR Vorschau.

Übrigens nimmt man bei Resolve eher nicht die Grafikkarten, sondern halt I/O devices, die ein normiertes Signal ausgeben (Decklink 4K Extreme 12G, Ultrastudio 4K mini). Damit umgeht man den Einfluss der Grafikkarte und des Betriebssystems auf die Vorschau. Allerdings macht das nur dann Sinn, wenn man den genutzten Monitor auch kalibriert.

ME2000 hat geschrieben:
Muss daher die Timeline nicht immer auf Rec.709 mit 10 bit eingestellt sein? Ich reduziere zunächst den Farbraum, habe aber immer noch 10 bit und mache dann mögliche adjustierungen im rec.709 Farbraum?
Hier fragst Du in Wirklichkeit nach der internen Berechnung. Und die interne Berechnung von Material mit weiten Farbräumen - sei es log Material oder auch deinem PQ Material - macht man eben idealerweise in weiten Farbräumen. Denn macht man die Berechnungen in kleineren Farbräumen, so wird das in den meisten Fällen zwar gut gehen. Aber in Fällen, wo man das Material massiver verändern will, kommst unnötigerweise und zu früh an Grenzen. DAher die Empfehlung, auch beim Graden zu rec709 eben weite Farbräume zu nutzen (siehe gleich die erste Antwort in diesem Thread).

Die Wandlung von so einem weiten Farbraum für den Zielfarbraum/Zielgamma rec709 macht man dann idealerweise erst im Anschluss an diesen Schritt. Gerade Resolve ist hier absolut vorbildlich, weil es diese Möglichkeit explizit vorsieht. Egal, ob man über eines der beiden Color Managementsysteme, oder über nodes arbeitet.

Für mich sind das die tatsächlich wesentlichen Dinge. Sonst hast halt Klagen, dass die Farbe rot plötzlich und aus unerklärlichen Gründen doch leicht anders aussieht. ;)

OK, ich verstehe es noch nicht aber werde mich weiter einarbeiten und mir danach nochmals deine Kommentare durchlesen.
Für den aktuellen Moment und fuer die Praxis ;) ... ich habe keinen HDR Monitor (also theoretisch kann er das mit geringer NIT Zahl, aber ignorieren wir das), ich nehme in HDR 10 bit auf und brauche SDR Material.
Wie muss ich die Timeline einstellen? Das ist mir leider immer noch nicht klar. Nicht rec.709? Kann ein SDR Monitor einen erweiterten Farbraum darstellen (also das bedeutet doch erweitert im Gegensatz zu rec.709)?

Danke fuer die Hilfe

Space


Antwort von wolfgang:

ME2000 hat geschrieben:
[OK, ich verstehe es noch nicht aber werde mich weiter einarbeiten und mir danach nochmals deine Kommentare durchlesen.
Es betrifft lediglich die höhere Güte der intenen Berechnung. Die kannst halt verbessern.
ME2000 hat geschrieben:
Wie muss ich die Timeline einstellen? Das ist mir leider immer noch nicht klar. Nicht rec.709? Kann ein SDR Monitor einen erweiterten Farbraum darstellen (also das bedeutet doch erweitert im Gegensatz zu rec.709)?

Danke fuer die Hilfe
Darren zeigt im oben verlinkten Video die passenden Einstellungen zu wide gamut. Er nutzt das sowohl für die Ausgabe zur rec709, wie auch zu PQ. Darum hatte ich dir das video ja verlinkt.

Space


Antwort von Paralkar:

Ich glaube dein Verständnisproblem ist, was da genau passiert,

Wenn du kein Color Management nutzt und Color Space Transform zu Rec709 (Timeline Color Space: Rec709) passiert die Wandlung dahin unmittelbar und du arbeitest und gradest nur in diesem beschränkten Farbraum. Bei stark gesättigten Farbtönen und auch hohen Luminanzen kann es dann je nach Einstellung in der Color Space Transform und der Automatik eben dieser zu Abrissen kommen, also Informationen verschluckt werden, da gegebenenfalls der Rot-Ton in deiner original HDR10+ Aufnahme noch da ist, aber bei der Transformation wegfällt, irgendwie muss er ja das maximal rot in deiner original Aufnahme in den deutlich kleineren Farbraum (Rec709) überführen.

Da gibt es verschiedene Möglichkeiten, bsp.: absolut, sprich alles was über dem maximal Rot in Rec709 ist, was im original HDR10+ noch Abstufungen hat, wird abgeschnitten und ist plötzlich das maximal Rot in deinem Rec709, adaptive Methode, er versucht das maximal Rot von deinem original HDR10+ auf maximal Rot (Rec709) zu mappen, und den Rest der Abstufungen irgendwie in den kleineren Farbraum zu mappen, so das Abstufungen erhalten bleiben etc.. Das ganze gilt auch für Luminanzen.

Das kommt auf die Einstellungen im Color Space Transform an, kann aber trotz der besten Einstellung etwas verschlucken.

Wenn du Color Management nutzt und ein deutlich größeren Farbraum (HDR Davinci Wide Gamut), dann passieren erstmal alle arbeiten in einem deutlich größeren Farbraum, der auch deutlich mehr Dynamik Umfang abdeckt. Um am Ende trotzdem in ein Rec709 zu kommen, wird eine ODT (Output Device Transformation) genutzt, die dafür sorgt, das dein Bild auf dem Monitor Rec709 ist und dein finales Rendering.
Du separierst damit den Arbeitsfarbraum, der bei der richtigen größe nichts clippen lässt (Farbe und Luminanzen) und den Output Farbraum. Somit kannst du jederzeit selbst entscheiden wie sollen deine Rottöne und und Luminanzen aussehen, ohne das deine Bildinformationen von Anfang an beschnitten und weg sind.

Hoffe ich konnte das halbwegs verständlich erklären, ist etwas Arbeit Scene Referred und Display Referred zu verstehen und der Unterschied wann die Wandlung in letzteres passiert...

Space


Antwort von wolfgang:

Paralkar hat geschrieben:
Da gibt es verschiedene Möglichkeiten, bsp.: absolut, sprich alles was über dem maximal Rot in Rec709 ist, was im original HDR10+ noch Abstufungen hat, wird abgeschnitten und ist plötzlich das maximal Rot in deinem Rec709, adaptive Methode, er versucht das maximal Rot von deinem original HDR10+ auf maximal Rot (Rec709) zu mappen, und den Rest der Abstufungen irgendwie in den kleineren Farbraum zu mappen, so das Abstufungen erhalten bleiben etc.. Das ganze gilt auch für Luminanzen.
...
Wenn du Color Management nutzt und ein deutlich größeren Farbraum (HDR Davinci Wide Gamut), dann passieren erstmal alle arbeiten in einem deutlich größeren Farbraum, der auch deutlich mehr Dynamik Umfang abdeckt. Um am Ende trotzdem in ein Rec709 zu kommen, wird eine ODT (Output Device Transformation) genutzt, die dafür sorgt, das dein Bild auf dem Monitor Rec709 ist und dein finales Rendering.
Du separierst damit den Arbeitsfarbraum, der bei der richtigen größe nichts clippen lässt (Farbe und Luminanzen) und den Output Farbraum. Somit kannst du jederzeit selbst entscheiden wie sollen deine Rottöne und und Luminanzen aussehen, ohne das deine Bildinformationen von Anfang an beschnitten und weg sind.
Ich suche nach einem Beispiel, welches das vielleicht noch verdeutlicht. Nehmen wir ein Tanzpaar, welches ausgezeichnet tanzt. Etwa bei einem Turnier. Die brauchen ihren Platz. Tanzen die einmal in einem kleinen 10m2 Raum, dann geht das zwar auch, nur steht man halt an der Enge des Raumes an. Wirklich schön wird es, wenn man in einem tollen 50m2 Raum genug Platz hat, und alles austanzen kann.

Und beim Graden im kleinen Farbraum von rec709 ist es halt ähnlich - man steht früher an. Beim großen Tanzraum - ACES oder wide gamut - ist das halt deutlich später der Platz. Vor allem, wenn schon in einem weiten Farbraum aufgenommen worden ist.

Paralkar hat geschrieben:
Hoffe ich konnte das halbwegs verständlich erklären, ist etwas Arbeit Scene Referred und Display Referred zu verstehen und der Unterschied wann die Wandlung in letzteres passiert...
Ich fürchte, jetzt überforderst ihn.... :)

Space


Antwort von dienstag_01:

Timeline Color Space erklärt:

https://www.youtube.com/watch?v=8geDbNpH5cI

Space


Antwort von wolfgang:

Ja, Darren ist immer wieder ein echter Genuss mit seinen auf den Punkt gebrachten Präsentationen.

Space



Space


Antwort von cantsin:

Der Workflow, mit Rec709 als Timeline-Colorspace zu arbeiten und dann das HDR-Material per Color Space Transform nach Rec709 zu bringen, ist in der Praxis aber erheblich einfacher, wenn das Ziel nur SDR-Video ist.

Und zwar aus zwei einfachen Gründen:

- in CST kann man die Tone Mapping-Parameter händisch optimieren - und zwar so, dass das gesamte Material (z.B. per Timeline- oder Group-Node) optimal umgewandelt wird und man im Endmaterial kein Highlight-Clipping wegen des kleineren Farbraums kriegt (vorausgesetzt natürlich, es ist auch kein Clipping im HDR-/Ausgangs-Material vorhanden).

Wenn man hingegen die Timeline auf einen weiteren Farbraum (wie z.B. Davinci Wide Gamut Intermediate) setzt und dann Rec709 als Ausgabe-Farbraum definiert, funktioniert das Tone Mapping nicht so gut, und man muss allerlei händische Belichtungskorrekturen machen.

- die Standard-Farbkorrektur-Tools Lift/Gamma/Gain sind sowieso nicht Color Management-aware und funktionieren nur für Rec709 richtig.


Mir ist schon klar, dass es der sauberere und eigentlich bessere Workflow ist, um auf der Timeline in einem weiteren Farbraum zu arbeiten als Rec709, aber in diesem Fall hat die abgekürzte/unsauberere Lösung IMHO Praxisvorteile.

Space


Antwort von Bruno Peter:

Der schnellste Weg um von HLG3 BT.2020 zum finalen BT.709 zu gelangen bietet diese Transform-LUT an.

https://www.adamxwebb.com/hlg-luts

Space


Antwort von wolfgang:

Bruno, der filmt in PQ mit seinem Handy. Und nicht mit HLG.

Space


Antwort von wolfgang:

cantsin hat geschrieben:
Der Workflow, mit Rec709 als Timeline-Colorspace zu arbeiten und dann das HDR-Material per Color Space Transform nach Rec709 zu bringen, ist in der Praxis aber erheblich einfacher, wenn das Ziel nur SDR-Video ist.
Ist er das? Ich bin mir da gerade nicht so sicher.
cantsin hat geschrieben:
- in CST kann man die Tone Mapping-Parameter händisch optimieren - und zwar so, dass das gesamte Material (z.B. per Timeline- oder Group-Node) optimal umgewandelt wird und man im Endmaterial kein Highlight-Clipping wegen des kleineren Farbraums kriegt (vorausgesetzt natürlich, es ist auch kein Clipping im HDR-/Ausgangs-Material vorhanden).
Dieses "man kann" ist natürlich erst wieder ein Aufwand. Gerade, wenn man noch nicht mal weiß, was Nodes so sind, wie das hier (noch) der Fall ist.
cantsin hat geschrieben:
Wenn man hingegen die Timeline auf einen weiteren Farbraum (wie z.B. Davinci Wide Gamut Intermediate) setzt und dann Rec709 als Ausgabe-Farbraum definiert, funktioniert das Tone Mapping nicht so gut, und man muss allerlei händische Belichtungskorrekturen machen.

- die Standard-Farbkorrektur-Tools Lift/Gamma/Gain sind sowieso nicht Color Management-aware und funktionieren nur für Rec709 richtig.
Tja, nur ist man allerdings im Color Managed Modus nicht gezwungen, mit dem Standard Farbkorrektur Tool zu arbeiten. Da sind dann wohl die log Wheels oder die HDR wheels sinnvoller, weil durchaus CM-aware. Aber zugegeben, gerade die HDR wheels sind definitiv auch nicht einfacher in der Bedienung als das Arbeiten mit CSTs.

Ist halt die Frage, ob es nicht gerade für den Einsteiger sinnvoll ist, gleich zu lernen wie man sauber arbeitet. Und den nicht in Fallen tappen zu lassen, selbst wenn es praktisch ist. Und dann seine eigenen Vorlieben für die workflows zu entwickeln, aus dem Erleben der Vor- und Nachteile heraus. Aber egal, welchen Weg jemand nimmt, Resolve hat natürlich einen enormen Komplexitätsgrad, und da ist eh eine steile Lernkurve angesagt.

Space


Antwort von Bruno Peter:

wolfgang hat geschrieben:
Bruno, der filmt in PQ mit seinem Handy. Und nicht mit HLG.
Das würde ich nie machen, mein HDR-Lieblingsformat ist die HLG3-Aufnahme.

Space


Antwort von Frank Glencairn:

cantsin hat geschrieben:


- die Standard-Farbkorrektur-Tools Lift/Gamma/Gain sind sowieso nicht Color Management-aware und funktionieren nur für Rec709 richtig.
Ähem....

image_2023-03-22_165258587.png

Space


Antwort von Frank Glencairn:

"Bruno Peter" hat geschrieben:
Der schnellste Weg um von HLG3 BT.2020 zum finalen BT.709 zu gelangen bietet diese Transform-LUT an.
Ne LUT für die Transformation von HLG3 zu 709?

Autsch!

Na ja, bei dem 8bit Material isses auch schon wurscht.

Space


Antwort von Bruno Peter:

"Frank Glencairn" hat geschrieben:

Na ja, bei dem 8bit Material isses auch schon wurscht.
Das 8Bit(HLG3) Material von Sony reicht aus für mich, ich muss da im Color-Management nichts auf den Kopf stellen.

Space


Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
cantsin hat geschrieben:


- die Standard-Farbkorrektur-Tools Lift/Gamma/Gain sind sowieso nicht Color Management-aware und funktionieren nur für Rec709 richtig.
Ähem....


image_2023-03-22_165258587.png
Ist das wirklich so? Im Resolve-Handbuch (S. 224) ist die einzige Information zu dieser Option "Other palettes, such as the Qualifier and Curves palettes, become color space aware when you turn on the 'Use Color Space Aware Grading Tools' checkbox".

Darren Mostyn zufolge sind Lift/Gamma/Gain jedoch nicht 'Color Space-Aware':
https://youtu.be/8geDbNpH5cI?t=266

Das Video ist 8 Monate alt und bezieht sich auf Resolve 18.

Space



Space


Antwort von ME2000:

Da komme ich von der Arbeit und sehe hier eine so intensive Diskussion. Sehr schön aber für mich natürlich überwältigend.
Ich mache aktuell einen (meiner Meinung nach sehr guten) colorgrading Kurs bei Udemy und kenne also schon Nodes und sowas wie Primary und secondary grading, lift/Gamma etc. Nur bei den color farbräumen und hdr grading kenne ich mich nicht aus.
Ich muss mir nochmal meinen Monitor genauer anschauen wie das dort mit den Farbräumen aussieht. Wenn ich das richtig verstehe kann ich also in der DR free Version auch auf einem SDR Monitor im erweiterten Farbraum color Graden und dann nach REC.709 exportieren? Und dies ist eigentlich der "richtige" weg? Die Alternative wäre direkt nach REC.709 zu konvertieren und dann zu Graden?

Space


Antwort von Darth Schneider:

Vielleicht naive Frage, aber:
Und was spricht denn eigentlich gegen mit 10 Bit im Rec709 Farbraum aufnehmen, bearbeiten und auch gleich auch so anschauen wenn du ja eh gar kein HDR Monitor/TV besitzt ?
Gruss Boris

Space


Antwort von cantsin:

ME2000 hat geschrieben:
Nur bei den color farbräumen und hdr grading kenne ich mich nicht aus.
Ich muss mir nochmal meinen Monitor genauer anschauen wie das dort mit den Farbräumen aussieht.

Die traurige Realität ist, dass Du mit heutigen PC-Setups nur sRGB (bzw. Rec709)-Workflows hinkriegst. Resolve hat eine verlässliche Videoausgabe in erweiterten Farbräumen nur dann, wenn man eine Decklink-Karte statt einer normalen Grafikkarte verwendet.

Unter MacOS und bei neueren Macs gibt's noch die Möglichkeit, das Monitorbild in "Display P3" auszugeben (das leider ein Apple-Eigengebräu und nicht kompatibel zu Standard-P3 ist), und in Foren sind Hacks/Workarounds beschrieben, wie man das auch mit Resolve nutzen kann.

Standardweisheit ist aber: Ohne Decklink-Karte und Wide-Gamut-Monitor (der Farbräume und Gammas wie P3 und Rec2020 unterstützt) läuft nur Rec709/sRGB. Ein großes Problem sind dabei auch die Betriebssysteme, die in ihrer Unterstützung erweiterter Farbräume noch extrem eingeschränkt sind.
Wenn ich das richtig verstehe kann ich also in der DR free Version auch auf einem SDR Monitor im erweiterten Farbraum color Graden und dann nach REC.709 exportieren? Und dies ist eigentlich der "richtige" weg? Die Alternative wäre direkt nach REC.709 zu konvertieren und dann zu Graden? Der von wolfgang vorgestellte Weg ist, dass Du das Material auf der Timeline in einem erweiterten Farbraum gradest und dann Resolve-intern Rec709 als Monitor- und Renderingsausgabe definierst.

Das ist ungefähr so, als wenn Du ein Audioprojekt in 24bit/96Hz bearbeitest, auch wenn Du es in 16bit/44Hz abhörst und exportierst. Du hast dann halt im Projekt selbst mehr Spielraum/Bandbreite bei der Bearbeitung des Signals.

Space


Antwort von ME2000:

"Darth Schneider" hat geschrieben:
Vielleicht naive Frage, aber:
Und was spricht denn eigentlich gegen mit 10 Bit im Rec709 Farbraum aufnehmen, bearbeiten und auch gleich auch so anschauen wenn du ja eh gar kein HDR Monitor/TV besitzt ?
Gruss Boris

Hier kommt dann wieder der Anfängerteil zum tragen...kann das Handy nicht. Ich kann SDR 8 bit oder HDR 10 bit aufnehmen ;). Traurig aber so schaut es wohl aus

Space


Antwort von ME2000:

cantsin hat geschrieben:
ME2000 hat geschrieben:
Nur bei den color farbräumen und hdr grading kenne ich mich nicht aus.
Ich muss mir nochmal meinen Monitor genauer anschauen wie das dort mit den Farbräumen aussieht.

Die traurige Realität ist, dass Du mit heutigen PC-Setups nur sRGB (bzw. Rec709)-Workflows hinkriegst. Resolve hat eine verlässliche Videoausgabe in erweiterten Farbräumen nur dann, wenn man eine Decklink-Karte statt einer normalen Grafikkarte verwendet.

Unter MacOS und bei neueren Macs gibt's noch die Möglichkeit, das Monitorbild in "Display P3" auszugeben (das leider ein Apple-Eigengebräu und nicht kompatibel zu Standard-P3 ist), und in Foren sind Hacks/Workarounds beschrieben, wie man das auch mit Resolve nutzen kann.

Standardweisheit ist aber: Ohne Decklink-Karte und Wide-Gamut-Monitor (der Farbräume und Gammas wie P3 und Rec2020 unterstützt) läuft nur Rec709/sRGB. Ein großes Problem sind dabei auch die Betriebssysteme, die in ihrer Unterstützung erweiterter Farbräume noch extrem eingeschränkt sind.
Wenn ich das richtig verstehe kann ich also in der DR free Version auch auf einem SDR Monitor im erweiterten Farbraum color Graden und dann nach REC.709 exportieren? Und dies ist eigentlich der "richtige" weg? Die Alternative wäre direkt nach REC.709 zu konvertieren und dann zu Graden? Der von wolfgang vorgestellte Weg ist, dass Du das Material auf der Timeline in einem erweiterten Farbraum gradest und dann Resolve-intern Rec709 als Monitor- und Renderingsausgabe definierst.

Das ist ungefähr so, als wenn Du ein Audioprojekt in 24bit/96Hz bearbeitest, auch wenn Du es in 16bit/44Hz abhörst und exportierst. Du hast dann halt im Projekt selbst mehr Spielraum/Bandbreite bei der Bearbeitung des Signals.
OK, vom Prinzip irgendwie klar. Wäre dieser Weg nicht in DR dann so ... meine settings sehen so aus ...
Davinci yrgb color managed
Automatic color management on
Color processing mode: HDR
Output color space: SDR Rec.709

Dann würde ich in der timeline in HDR arbeiten, exportieren in Rec.709 und bräuchte keine Node mehr fuer "color space transform".

Und wenn jetzt jemand sagt das wäre falsch oder dumm dann lass ich es 😉

Space


Antwort von cantsin:

ME2000 hat geschrieben:
Davinci yrgb color managed
Automatic color management on
Color processing mode: HDR
Output color space: SDR Rec.709

Dann würde ich in der timeline in HDR arbeiten, exportieren in Rec.709 und bräuchte keine Node mehr fuer "color space transform".

Und wenn jetzt jemand sagt das wäre falsch oder dumm dann lass ich es 😉
Nee, das ist der auch von wolfgang vorgeschlagene, saubere Workflow.

Nur passiert dann (leider), was ich auch in meiner Antwort an ihn schrieb, nämlich dass Du keine händische Kontrolle mehr über die Transformation hast und mehr Handarbeit angesagt ist.

Hier nochmal Dein SDR-Referenzbild:
SDR_1.1.1.jpg
Hier das von HDR nach SDR umgewandelte Bild mit dem obigen, sauberen Workflow:
HDR color managed_1.1.1.jpg
Und hier nochmal das von HDR händisch, per Color Space Transform, nach SDR gewandelte Bild in einer Rec709-Timeline - bzw. der ursprünglich von mir vorgestellte, 'unsaubere' Workflow:
HDR tweaked_1.2.1.jpg
(Und, wie ich bereits weiter oben schrieb, handelt man sich mit dem sauberen Color Managed-Workflow Highlight-Clipping ein, wenn man nicht jeden Clip anschließend händisch korrigiert. Hier der Waveform-Monitor des zweiten Bilds:
Screenshot from 2023-03-22 20-35-47.png Das ist übrigens eine blöde Beschränkung von Resolve. Denn es gibt eigentlich keinen guten Grund dafür, warum man Tone Mapping nicht auch in den Color Management-Projekteinstellung aktivieren kann.)

Space


Antwort von Darth Schneider:

@ME2000
Dann nimm doch einfach gleich mit h265, 8Bit in Rec709 auf.
Oder wenn du wirklich HDR willst, dann kauf dir ein HDR Fernseher…

Ist ja nicht so das 8 oder 10 Bit so genutzt wirklich einen sichtbaren Unterschied macht.
Und h265 ist ja ein sehr effizientes, modernes Paket.

Das macht nur einen Unterschied wenn du heftig Colorgrading machst.
Aber nur zum von HDR in SDR umwandeln doch eigentlich gar nicht wirklich.

Dann kannst du mit dem Smartphone genauso gut von Anfang an bei 8 Bit/SDR bleiben, wenn das Endprodukt gar kein HDR sein soll, finde ich jetzt.

Für mich tönt das nach sehr viel Wind um gar nicht viel…
Gruss Boris

Space


Antwort von ME2000:

"Darth Schneider" hat geschrieben:
@ME2000
Dann nimm doch einfach gleich mit h265, 8Bit in Rec709 auf.
Oder wenn du wirklich HDR willst, dann kauf dir ein HDR Fernseher…

Ist ja nicht so das 8 oder 10 Bit so genutzt wirklich einen sichtbaren Unterschied macht.
Und h265 ist ja ein sehr effizientes, modernes Paket.

Das macht nur einen Unterschied wenn du heftig Colorgrading machst.
Aber nur zum von HDR in SDR umwandeln doch eigentlich gar nicht wirklich.

Dann kannst du mit dem Smartphone genauso gut von Anfang an bei 8 Bit/SDR bleiben, wenn das Endprodukt gar kein HDR sein soll, finde ich jetzt.

Für mich tönt das nach sehr viel Wind um gar nicht viel…
Gruss Boris

Ja, ich gebe dir Recht .. es ist natürlich auch etwas "Spielerei" dabei was daran liegt, dass ich auch gerade diesen colorgrading Kurs mache. Ich glaube auch dass die "nicht optimale Qualität" meines Videos am Ende nicht an den 8 vs 10 bit liegt sondern an anderen Unzulänglichkeiten beim Filmen. Aber es interessiert/reizt mich das Beste rauszuholen, auch wenn man vielleicht in der Zukunft mal einen Gang hoch schaltet und sich eine richtige Kamera kauft.

Space


Antwort von Paralkar:

Naja 8 bit kann schon bei sowas einfachem wie nem Himmel mit vielen Nuancen zu Banding f?hren, da braucht es noch nichtmal "heftiges Grading".

@ Cantsin, ich vermute BM geht bei sowas wie Color Management ehh von nem Grading aus, abgesehen davon passiert das Tone Mapping ja mittels IDT bzw. ODT.

Und da sollte ja in Wirklichkeit alles noch da sein und nix geclippt, sobald man den Offset etwas runterzieht....

Space



Space


Antwort von ME2000:

Danke nochmal an Alle. Dann glaube habe ich es doch (hoffentlich) einigermaßen verstanden. Wichtig ist für mich ... wenn ich jetzt in HDR 10 bit aufnehme kann ich es hinterher in DR konvertieren. Ob mittels "sauberen" oder vielleicht nicht ganz so sauberen Weg. Ich glaube ich wüsste jetzt auch, wie ich das in DR einstelle, und glaube zu wissen wo die Unterschiede sind und würde beide Varianten einmal ausprobieren, wenn ich meine Videos alle aufgenommen habe.

Space


Antwort von wolfgang:

"Bruno Peter" hat geschrieben:
wolfgang hat geschrieben:
Bruno, der filmt in PQ mit seinem Handy. Und nicht mit HLG.
Das würde ich nie machen, mein HDR-Lieblingsformat ist die HLG3-Aufnahme.
Na großartig. Jetzt ist also HLG3 schon etwas anderes als HLG. :)

Nur damit hier auch das gesagt wird: lange diskutiert, und immer wieder ist gesagt worden, dass HLG als Distributionsformast gedacht ist, und für die Aufnahme definitiv nicht ideal ist. Wenn, dann macht man da halt eher nur harte Schnitte, ohne das Material aufgrund der wenigen Informationen in den oberen Blendenstufen zu graden. UND das ist halt eigentlich nicht ideal. ABER jeder wie er halt mag, gell Bruno?

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
"Bruno Peter" hat geschrieben:
Der schnellste Weg um von HLG3 BT.2020 zum finalen BT.709 zu gelangen bietet diese Transform-LUT an.
Ne LUT für die Transformation von HLG3 zu 709?

Autsch!

Na ja, bei dem 8bit Material isses auch schon wurscht.
So ist es. Bruno ist diesbezüglich nachweislich nicht umzustimmen. Ist eh sein Material, ist eh wurscht wie du so schön sagst!

Space


Antwort von wolfgang:

Zur Frage der "mehr Handarbeit": also da ich von BRAW oder slog oder vlog komme, bin ich es gewohnt mein Material eigentlich immer zumindest minimal zu graden. Da ist die Helligkeitsanpassung als erster Schritt halt sowieso immer drinnen. Die Frage ist eigentlich daher, wie die Arbeitsgewohnheiten hier aussehen.

Ich finde es interessant, dass man mit diesem Smartphone entweder zu 8bit in SDR, nicht aber zu 10bit in SDR filmen kann. Klingt eigentlich eher absurd. Ich habe sicher nichts gegen einen 10bit workflow - aber wurde hier eh oft diskutiert, dass ja gerade im kommerziellen Umfeld oft aus Gründen der Zeitersparnis man auch nicht mehr nachzubearbeitendes 8bit Material haben will. Hier scheint es aber eher ums Hobby zu gehen, und da ist die Zeit dann weniger wichtig. Vielleicht gäbe es aber eine App, mit der man auch zu 10bit in SDR filmen könnte?

Space


Antwort von wolfgang:

cantsin hat geschrieben:
Die traurige Realität ist, dass Du mit heutigen PC-Setups nur sRGB (bzw. Rec709)-Workflows hinkriegst. Resolve hat eine verlässliche Videoausgabe in erweiterten Farbräumen nur dann, wenn man eine Decklink-Karte statt einer normalen Grafikkarte verwendet.

Unter MacOS und bei neueren Macs gibt's noch die Möglichkeit, das Monitorbild in "Display P3" auszugeben (das leider ein Apple-Eigengebräu und nicht kompatibel zu Standard-P3 ist), und in Foren sind Hacks/Workarounds beschrieben, wie man das auch mit Resolve nutzen kann.

Standardweisheit ist aber: Ohne Decklink-Karte und Wide-Gamut-Monitor (der Farbräume und Gammas wie P3 und Rec2020 unterstützt) läuft nur Rec709/sRGB. Ein großes Problem sind dabei auch die Betriebssysteme, die in ihrer Unterstützung erweiterter Farbräume noch extrem eingeschränkt sind.
Auch mich nervt diese Einschränkung bei Resolve, nur über die Blackmagic I/O Karten (Decklink 4K Extreme 12G, Ultrastudio 4K mini bei mir) Produkte ein garantiert sauberes Vorschaubild beim Schnitt ausgeben zu können. Nicht nur das die was kosten - was definitiv ähnlich viel, aber auch schnell mehr kostet ist dann ein guter, kalibrierbarer HDR-Monitor, der stabil seine 1000 nits kann.

Es ist schon interessant, dass Resolve offenbar nur unter dem MAC auch ein Vorschaubild ohne diese I/O Karten - also nur über die sonst verpönte GPU - hin bekommt. Unter Windows machen die das nicht. Unter Windows kenne ich nur ein einziges Produkt, nämlich Vegas Pro, welches auf über die GPU ein HDR Bild auf einem HDR Monitor ausgibt.

Tatsächlich helfen sich dann viele mit der Nutzung von HDR-TVs und einer Ultrastudio 4K I/O box. Aber nicht alle HDR-TVs sind dafür auch nur halbwegs geeignet.

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:


So ist es. Bruno ist diesbezüglich nachweislich nicht umzustimmen. Ist eh sein Material, ist eh wurscht wie du so schön sagst!
8Bit und HDR sollten sowieso nicht in einem Satz stehen.

Space


Antwort von Bruno Peter:

wolfgang hat geschrieben:

So ist es. Bruno ist diesbezüglich nachweislich nicht umzustimmen. Ist eh sein Material, ist eh wurscht wie du so schön sagst!
Das ist das Material welches von den Sony-Kamera in HLG 8Bit geliefert wird,
es gibt eine ganze Serie verschiedener Ausführungen davon. Die meisten Anwender
dieser Sony Kameras kommen damit zurecht, weil man praktisch kaum ein Color-
Grading benötigt. Sättigung und Kontrast müssen ja nicht gedehnt werden.
Das Gespenst "Banding" habe ich bei meinen privaten Produktionen noch nicht gesehen!
Einfach die Kamera mit dem HDR-TV verbinden und schon hat man ein gute HDR-TV Bild,
besonders auf einem LG OLED-TV.

Eine 10Bit Video-Kamera interessiert mich derzeit noch nicht!

Space


Antwort von ME2000:

wolfgang hat geschrieben:
Zur Frage der "mehr Handarbeit": also da ich von BRAW oder slog oder vlog komme, bin ich es gewohnt mein Material eigentlich immer zumindest minimal zu graden. Da ist die Helligkeitsanpassung als erster Schritt halt sowieso immer drinnen. Die Frage ist eigentlich daher, wie die Arbeitsgewohnheiten hier aussehen.

Ich finde es interessant, dass man mit diesem Smartphone entweder zu 8bit in SDR, nicht aber zu 10bit in SDR filmen kann. Klingt eigentlich eher absurd. Ich habe sicher nichts gegen einen 10bit workflow - aber wurde hier eh oft diskutiert, dass ja gerade im kommerziellen Umfeld oft aus Gründen der Zeitersparnis man auch nicht mehr nachzubearbeitendes 8bit Material haben will. Hier scheint es aber eher ums Hobby zu gehen, und da ist die Zeit dann weniger wichtig. Vielleicht gäbe es aber eine App, mit der man auch zu 10bit in SDR filmen könnte?
Gibt tatsächlich eine andere App, aber die hat dann wieder andere Probleme (OIS läuft nicht so stabil, keine 4k 60fps, etc.) Die Handyhersteller wollen teilweise die Drittapps nicht haben und sperren scheinbar bewusst einzelne Bereiche.
Probiere aber auch eine App, die in RAW Videos aufnehmen kann. Noch so eine Spielerei aber ganz witzig, es auf die Spitze zu treiben 😉

Space


Antwort von wolfgang:

Filmic Pro gibt es, ist inzwischen aber auf ein Abo Modell umgestiegen - was viele stört. Eine Alternative wäre Cinema P3 https://www.blackburnapps.com/cinemap3/

Weiß aber weder was du jetzt so nutzt, noch was du da für ein Handy hast. iPhone? Android?

Space



Space


Antwort von Darth Schneider:

ME2000
Oder wenn du ein iPad hast oder dir mal eins zulegen möchtest dann läuft auch Resolve darauf.
Ich finde das ja immer noch unglaublich das das überhaupt möglich ist…;)

Was kann denn fimic Pro was Resolve nicht kann ?
Oder geht es dir nur darum gleich mit dem Smartphone schneiden zu können ?

Es würde mich auch interessieren was für ein Smartphone du nutzt ?
Das das Teil 10 Bit HDR aufnehmen kann, aber kein 10 Bit SDR ist schon seltsam…

Gruss Boris

Space


Antwort von wolfgang:

"Darth Schneider" hat geschrieben:
Was kann denn fimic Pro was Resolve nicht kann ?
Ist eine reine Filmer-Software. Und hat mit Resolve nichts zu tun.

Space


Antwort von Darth Schneider:

Gibt es inzwischen nicht Apps die beides können, filmen und bearbeiten ?
Wäre doch sinnvoll, gerade für Smartphones.
Ich hab gelesen z.B. beim mobilen Lightroom kann man auch fotografieren.
Gruss Boris

Space


Antwort von ME2000:

wolfgang hat geschrieben:
Filmic Pro gibt es, ist inzwischen aber auf ein Abo Modell umgestiegen - was viele stört. Eine Alternative wäre Cinema P3 https://www.blackburnapps.com/cinemap3/

Weiß aber weder was du jetzt so nutzt, noch was du da für ein Handy hast. iPhone? Android?

Ich nutze das Samsung S23 Ultra.
Das 10 bit SDR nicht geht liegt einfach an der Standard Kamera app.
Ich habe mir diverse andere Apps angeschaut...
1. FilmicPro: hier kann man angeblich inzwischen 8k 60fps mit dem S23 aufnehmen. Aber für mich (wie viele Andere denke ich) ist die monatliche Fee dort einfach zu hoch, kann also die 8k 60fps nicht verifizieren.
2. McPro24fps: die sind eigentlich sehr gut. Das Problem ist hier ... es funktioniert nicht so flüssig mit dem neuen Samsung. Hier meine Vermutung (!) ... es ist eine russische Firma und sie haben aktuell kein S23, dass sie auch nutzen können um weiter zu entwickeln. Da gibt es einen eigenen Roman zu erzählen.
3. MotionCam: die sind wirklich gut. Wie gesagt raw videos mit der Möglichkeit auch nach prores cinelog und so etwas zu konvertieren oder direkt als raw mit oder ohne noise reduction zu exportieren. Gibt auch eine Reihe Beispielvideos dazu bei Youtube.

Es gibt noch diverse andere Android Apps, aber ich glaube das sind die Wichtigsten.

Gruß,
Marco

Space


Antwort von Frank Glencairn:

ME2000 hat geschrieben:

Hier meine Vermutung (!) ... es ist eine russische Firma und sie haben aktuell kein S23, dass sie auch nutzen können um weiter zu entwickeln. Da gibt es einen eigenen Roman zu erzählen.
Natürlich gibt's das, kostet zwischen 84.000 und 95.445 Rubel - also sogar billiger als hier.

https://www.ozon.ru/category/s23-ultra- ... CUEALw_wcB

Space


Antwort von ME2000:

"Frank Glencairn" hat geschrieben:
ME2000 hat geschrieben:

Hier meine Vermutung (!) ... es ist eine russische Firma und sie haben aktuell kein S23, dass sie auch nutzen können um weiter zu entwickeln. Da gibt es einen eigenen Roman zu erzählen.
Natürlich gibt's das, kostet zwischen 84.000 und 95.445 Rubel - also sogar billiger als hier.

https://www.ozon.ru/category/s23-ultra- ... CUEALw_wcB

OK, aber sie scheinen es trotzdem nicht zu haben, ich verfolge deren Telegramm-Kanal ;)
FilmicPro scheint es erhalten zu haben. Wenn es halt eine noch kleinere Firma ist, dann können die natürlich nicht jedes Modell kaufen, das ist mir natürlich auch klar.

Space


Antwort von little-endian:

Paralkar hat geschrieben:
Naja 8 bit kann schon bei sowas einfachem wie nem Himmel mit vielen Nuancen zu Banding f?hren, da braucht es noch nichtmal "heftiges Grading".
Nun, genauso könnte man bei PCM sagen, dass jene 8 Bit bei sowas Einfachem wie einer leiseren Passage zu Verzerrungen führen können. Das ist aber keine zwingende Folge der Quantisierung*, sondern fehlendem Dithering geschuldet, sofern die Vorlage nicht selbst schon genügend Grundrauschen aufweist.

Während das bei Audio eigentlich Usus ist, findet das aus unterfindlichen** Gründen bei Video kaum bis keine Beachtung, obwohl dort genauso integraler Bestandteil, um den Quantisierungsfehler vom Eingangssignal zu entkoppeln.

* wie der Renderer madVR eindrucksvoll zeigt, weist auch ein im Extrem mit nur einem Bit / Farbkanal gerendertes Video und entsprechendem Dithering keinerlei Banding auf, ist dafür aber natürlich ziemlich verrauscht (analog zu DSD, wie es auch bei der einst umworbenen SACD der Fall ist, wo man das deftige Rauschen dann wieder herausfiltert, um im hörbaren Bereich die > 120dB Dynamikumfang zu haben).

Planet_Earth_intro_random_dither_1-bit.jpg
Und schon bei nur 6 Bit / Kanal muss man recht gut hinsehen, um da einen Unterschied zu 8 Bit oder mehr zu sehen:
Planet_Earth_intro_random_dither_6-bit.jpg
** einzig die tendenziell steigende Bitrate durch sinkende Encodereffizienz könnte zumindest bei Streamingdiensten ein Argument sein, doch spätestens bei Blu-rays mit gut 40 Mbps allein fürs Bild gibt es aus meiner Sicht keinen vernünftigen Grund, stattdessen regelmäßig die Ringe bei Auf- und Abblendungen zählen zu können - furchbar.

"Frank Glencairn" hat geschrieben:
8Bit und HDR sollten sowieso nicht in einem Satz stehen.
Ebenfalls mit Parallele zu Audio kommt das wohl auf die Definition von "HDR" an. Weniger Bittiefe senkt das Signal-/Rauschverhältnis, doch gerade bei nichtlinearen Quantisierungen (und hier müsste die Gamma-Geschichte bei Video in Richtung G.711 und andere Codecs gehen) lässt sich auch ein größerer Dynamikumfang abbilden, wenn man in Kauf nimmt, dass das Grundrauschen dann nicht konstant ist, sondern in "lauteren" (respektive "helleren") Passagen ansteigt.

Interessant wäre hier die akademische Frage, was generell den Titel "high dynamic range" rechtfertigt. An Bits kann es per se nicht hängen, sondern allenfalls am Äquivalent in Dezibel, denn auch ein HDR-Video könnte ja rein analog vorliegen und nie quantisiert worden sein.

Space


Antwort von wolfgang:

Wie HDR definiert ist, läßt sich seit geraumer Zeit in den diversen Publikationen nachlesen. Aber dort findet sich nie, dass es HDR mit nur 8bit gäbe. Stets sind es zumindest 10bit (HLG, HDR10) oder 12bit (Dolby Vision).

Mit der Bittiefe hat das auch nichts zu tun, sondern mit der Anzahl der darstellbaren Blendenstufen.

Space


Antwort von Frank Glencairn:

little-endian hat geschrieben:


Ebenfalls mit Parallele zu Audio kommt das wohl auf die Definition von "HDR" an. Weniger Bittiefe senkt das Signal-/Rauschverhältnis, doch gerade bei nichtlinearen Quantisierungen (und hier müsste die Gamma-Geschichte bei Video in Richtung G.711 und andere Codecs gehen) lässt sich auch ein größerer Dynamikumfang abbilden, wenn man in Kauf nimmt, dass das Grundrauschen dann nicht konstant ist, sondern in "lauteren" (respektive "helleren") Passagen ansteigt.
Die Definition heißt 10 bit - es gibt kein 8 bit HDR in irgend einem Standard.
Bittiefe und Dynamikumfang haben nix miteinander zu tun.

Space



Space


Antwort von little-endian:

Danke für eure Antworten.

Das mag schon so sein, dass übliche HDR-Standards keine 8 Bit vorsehen, doch mein Einwurf galt natürlich dem leider auch in Fachpublikation immer wieder irreführend dargestellten scheinbaren Zusammenhang "Bittiefe = Anzahl darstellbarer Farbwerte" sowie "mehr Bit gegen Banding".

Ansonsten sind wir uns anscheinend einig, dass HDR auch mit weniger machbar wäre. Diese Überlegung wollte ich jenseits etablierter "Standards" (wobei es immer herrlich ist, dann x-beliebige von diesen zu haben) mit einbringen.

Ich vermute, dass man das auch aufgrund der Enkodiereffizienz auf mindestens 10 Bit festgelegt hat und wohl auch wohlwissend, dass sich leider beim Mastering kaum jemand um vernünftiges Dithering schert.

Space


Antwort von Frank Glencairn:

HDR passiert erst im Endgerät.
Die HDR "Codierung" bezieht sich nur auf die Metadaten und nicht auf die eigentliche Datei (also Material/Encoding), deshalb gehen deine Überlegungen IMHO in die falsche Richtung.

Space


Antwort von wolfgang:

little-endian hat geschrieben:
Danke für eure Antworten.

Das mag schon so sein, dass übliche HDR-Standards keine 8 Bit vorsehen, doch mein Einwurf galt natürlich dem leider auch in Fachpublikation immer wieder irreführend dargestellten scheinbaren Zusammenhang "Bittiefe = Anzahl darstellbarer Farbwerte" sowie "mehr Bit gegen Banding".
Rein mathematisch bieten 8bit mit 2^8 natürlich weniger Farbwerte als 2^10. Das ist aber nur ein Punkt - in Wirklichkeit ist bei PQ/HLG/Dolby Vision der Farbraum rec2020 deutlich weiter, als er bei rec709 ist. Das ist einer der Vorteile von HDR. Und wenn Du Dich damit befasst, dann sieht man schon, dass die Aufzeichnung mit 14 oder 15 Blendenstufen ebenso deutliche Vorteile besitzt - egal, ob man dann zu HDR oder zu SDR (mit nur 6 Blendenstufen) transformiert.

"mehr bit gegen Banding" - das gibt es natürlich tatsächlich, sei es weil Banding bereits bei der Aufnahme entsteht, oder im Rahmen des Gradings. Man hat eben mit 8bit weniger Reserven, um das vermeiden zu können.

little-endian hat geschrieben:
Ansonsten sind wir uns anscheinend einig, dass HDR auch mit weniger machbar wäre. Diese Überlegung wollte ich jenseits etablierter "Standards" (wobei es immer herrlich ist, dann x-beliebige von diesen zu haben) mit einbringen.
Wenn man "machbar" als außerhalb der Spezifikationen definieren will, dann ist das "machbar". Aber die Frage stellt sich schon, ob ernsthaft erwartet wird, dass sich diejenigen, die diese Spezifikation entwickelt haben, dies nur aus Jux und Tollerei mit 10 oder 12bit gemacht haben.

Heute ist es selbst für Amateure einfach geworden, mit 10bit zu filmen. Ich persönlich würde ehrlich gesagt die Finger von HDR lassen, wenn ich das nur mit 8bit machen müsste. Wenn schon 8bit, dann bitte so dass man nicht oder nur minimal graded - und auch bei HLG sollten es eher harte Schnitte sein, wenn man schon in einem Format aufzeichnen will, welches nur für die Distribution gedacht war.

Und natürlich ist ein log-Workflow - egal of man zu SDR oder HDR transformieren will - immer aufwendiger, als ein rec709 workflow, wo man (wenn man geschickt ist) halt auch deutlich weniger Aufwand in der Post hat. Preiswertere Kameras nehmen kann. Zum Graden keinen HDR-Monitor am Platz benötigt. Und keinen HDR-TV benötigt.

Aber in Summe muss man halt immer wissen, was man für welchen Zweck macht.

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:


Und natürlich ist ein log-Workflow - egal of man zu SDR oder HDR transformieren will - immer aufwendiger, als ein rec709 workflow
Warum?

Space


Antwort von wolfgang:

Eigentlich ist dir das eh völlig klar. Aber bitte sehr: weil man praktisch immer immer eine Transformation in Gamut und Gamma benötigt, egal ob man das mit einem Farbmanagement System macht, oder ob man es mit einem LUT macht. Weil man eigentlich immer ein zumindest minimales Grading braucht. Weil man - wenn man für HDR graded - eigentlich immer eine Justierung der Spitzenluminanz benötigt, im Regelfall natürlich vorher eine gesamte Luminanzeinstellung. Abgesehen von den ganzen Anpassungen des Gamut Teils.

Während man bei rec709 deutlich leichter aus der Kamera heraus fertiges Material bekommen kann. Dieser Aspekt wurde gerade hier in diesem Forum intensiver diskutiert - wo man die eingesetzten Mannstunden in der Postpro halt signifikant geringer halten kann.

Theoretisch kann man natürlich auch für eine HDR Produktion viele Schritte optimieren. In der Praxis gelingt das zumindest mir nur beschränkt, und selbst bei SDR als Zielformat sehr ich es bei der Verwendung von log/raw als deutlich schwieriger an.

Von den unterschiedlichen Hardware-Requirements für die Prozesse könnte man auch noch reden, aber das weißt du eh alles.

Space


Antwort von Frank Glencairn:

Bei eingeschaltetem Colormanagement merkst du keinerlei Unterschied zu 709, es sind dafür auch keine zusätzlichen Arbeitsschritte nötig. "Aufwändiger" ist dabei also gar nix.

Space


Antwort von DKPost:

"Frank Glencairn" hat geschrieben:
Bei eingeschaltetem Colormanagement merkst du keinerlei Unterschied zu 709, es sind dafür auch keine zusätzlichen Arbeitsschritte nötig. "Aufwändiger" ist dabei also gar nix.
Sehe ich eigentlich auch so. Wenn man richtig belichtet sollte das Ergebnis von Log zu Rec709 via RCM identisch sein zur Aufnahme in Rec709 direkt in der Kamera.

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
Bei eingeschaltetem Colormanagement merkst du keinerlei Unterschied zu 709, es sind dafür auch keine zusätzlichen Arbeitsschritte nötig. "Aufwändiger" ist dabei also gar nix.
Dann würde ich im hier diskutierten Resolve eine Bereinigung um etliche Werkzeuge vorschlagen. Farbmanagement bringt es einfach.

PS: Rechtschreibfehler darfst dir gerne behalten.
DKPost hat geschrieben:
Sehe ich eigentlich auch so. Wenn man richtig belichtet sollte das Ergebnis von Log zu Rec709 via RCM identisch sein zur Aufnahme in Rec709 direkt in der Kamera.
Wie bitte kann eine log Aufnahme, die einen Dynamikumfang von 14 oder 15 Blendenstufen haben kann, ident sein mit einer direkt geschossenen rec709 Aufnahme, die lediglich so um die 6 Stufen kann?

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:

Dann würde ich im hier diskutierten Resolve eine Bereinigung um etliche Werkzeuge vorschlagen.
Und welche Werkzeuge schweben dir da vor?

Space



Space


Antwort von wolfgang:

Du suggerierst ja, dass du alles mit CM machen kannst.

Ich behalte hingegen die verfügbaren Werkzeuge.

Space


Antwort von Frank Glencairn:

Hab ich zu keinem Zeitpunkt gesagt, sondern nur daß du damit ohne weitere Arbeitsschritte zu deinem 709 kommst, wie direkt aus der Kamera auch (nur besser).
wolfgang hat geschrieben:


Ich behalte hingegen die verfügbaren Werkzeuge.
Was jetzt? Eben wolltest du doch noch welche abschaffen.

Space


Antwort von DKPost:

wolfgang hat geschrieben:
Wie bitte kann eine log Aufnahme, die einen Dynamikumfang von 14 oder 15 Blendenstufen haben kann, ident sein mit einer direkt geschossenen rec709 Aufnahme, die lediglich so um die 6 Stufen kann?
Durch die CST zu rec709 natürlich. Direkt in der Kamera in rec709 zu drehen ist ja vereinfacht gesagt auch nur eine CST der Sensordaten in den kleineren Farbraum. Das sieht man ja auch wenn man in LOG dreht aber rec709 auf dem Monitor angezeigt bekommt. Das ist nichts anderes als das Hersteller-LUT auf dem LOG-Footage.

Space


Antwort von wolfgang:

DKPost hat geschrieben:
wolfgang hat geschrieben:
Wie bitte kann eine log Aufnahme, die einen Dynamikumfang von 14 oder 15 Blendenstufen haben kann, ident sein mit einer direkt geschossenen rec709 Aufnahme, die lediglich so um die 6 Stufen kann?
Durch die CST zu rec709 natürlich. Direkt in der Kamera in rec709 zu drehen ist ja vereinfacht gesagt auch nur eine CST der Sensordaten in den kleineren Farbraum. Das sieht man ja auch wenn man in LOG dreht aber rec709 auf dem Monitor angezeigt bekommt. Das ist nichts anderes als das Hersteller-LUT auf dem LOG-Footage.
Wenn du mit einer Kamera zu log filmst, deren Sensor 14 Blendenstufen kann, dann hast dort wohl 14 Stufen Blendenumfang aufgezeichnet. Die du mit der Transformation in die 6 rec709 Stufen hineinpresst. Filmst jetzt mit einem rec709 Sensor, der eben nur 6 Stufen kann, dann hast aber vom Anfang an nur 6 Blendenstufen verfügbar. Wenn der Sensor jetzt der gleiche wäre, kannst dich noch halbwegs mit LUTs oder so netten Kurven wie den alten Hypergammakurven von Sony retten - die durchaus einen gesteigerten Dynamikumfang abbilden. Aber das wird dann eben doch ein anderes Ergebnis liefern, als wenn man eine log Kurve in der Post oder von mir aus mit eingebrannten LUT zu rec709 konvertiert.

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
Hab ich zu keinem Zeitpunkt gesagt, sondern nur daß du damit ohne weitere Arbeitsschritte zu deinem 709 kommst, wie direkt aus der Kamera auch (nur besser).
wolfgang hat geschrieben:


Ich behalte hingegen die verfügbaren Werkzeuge.
Was jetzt? Eben wolltest du doch noch welche abschaffen.
Nein, du! Einfach, weil du eh alles mit CM machst.

Space


Antwort von Frank Glencairn:

Hast du irgendwie Leseschwierigkeiten?
"Frank Glencairn" hat geschrieben:
Bei eingeschaltetem Colormanagement merkst du keinerlei Unterschied zu 709, es sind dafür auch keine zusätzlichen Arbeitsschritte nötig. "Aufwändiger" ist dabei also gar nix.


Space


Antwort von DKPost:

wolfgang hat geschrieben:
DKPost hat geschrieben:


Durch die CST zu rec709 natürlich. Direkt in der Kamera in rec709 zu drehen ist ja vereinfacht gesagt auch nur eine CST der Sensordaten in den kleineren Farbraum. Das sieht man ja auch wenn man in LOG dreht aber rec709 auf dem Monitor angezeigt bekommt. Das ist nichts anderes als das Hersteller-LUT auf dem LOG-Footage.
Wenn du mit einer Kamera zu log filmst, deren Sensor 14 Blendenstufen kann, dann hast dort wohl 14 Stufen Blendenumfang aufgezeichnet. Die du mit der Transformation in die 6 rec709 Stufen hineinpresst. Filmst jetzt mit einem rec709 Sensor, der eben nur 6 Stufen kann, dann hast aber vom Anfang an nur 6 Blendenstufen verfügbar. Wenn der Sensor jetzt der gleiche wäre, kannst dich noch halbwegs mit LUTs oder so netten Kurven wie den alten Hypergammakurven von Sony retten - die durchaus einen gesteigerten Dynamikumfang abbilden. Aber das wird dann eben doch ein anderes Ergebnis liefern, als wenn man eine log Kurve in der Post oder von mir aus mit eingebrannten LUT zu rec709 konvertiert.
Ich verstehe nicht worauf du hinaus willst.
Was ich sagen wollte: Wenn ich mit einer (der selben) Kamera in LOG drehe und via RCM oder LUT nach rec709 transformiere ist das Ergebnis bei korrekter Belichtung identisch zu einer Aufzeichnung direkt in rec709. Deswegen ist es null Aufwand mit LOG-Footage zu rec709 zu kommen so wie es auch die Kamera direkt aufzeichnen würde.
Das war auf diese Aussage von dir bezogen: "Während man bei rec709 deutlich leichter aus der Kamera heraus fertiges Material bekommen kann. Dieser Aspekt wurde gerade hier in diesem Forum intensiver diskutiert - wo man die eingesetzten Mannstunden in der Postpro halt signifikant geringer halten kann." Das stimmt nicht. Ich kann aus LOG-Footage ohne eine Sekunde Mehraufwand das exakt gleiche rec709 Bild wie aus der Kamera bekommen.

Space


Antwort von cantsin:

wolfgang hat geschrieben:
Filmst jetzt mit einem rec709 Sensor, der eben nur 6 Stufen kann, dann hast aber vom Anfang an nur 6 Blendenstufen verfügbar.
Solche Sensoren gibt es nicht. Sensorsignale haben auch gar keine Farbräume oder Gammas, sie haben sogar gar keine Farben.

Ich vermute außerdem stark, dass hier nicht jedem die Unterschiede zwischen (a) einem Workflow ohne Color Management mit LUTs, (b) einem Workflow ohne Color Management mit RCM und (c) einem Workflow mit Color Management völlig klar sind.

Wobei man ja auch noch verstehen muss, dass das Projekt-Color Management von Resolve nichts mit dem (auf die Monitorkalibrierung u.ä. bezogene) Color Management des Betriebssystems zu tun hat.

Und dass auch nicht jedem klar ist, was der Vorteil davon ist, wenn man zwar Log aufnimmt, aber dann im NLE (dank Color Management) das Material als Rec709 angezeigt bekommt, frei nach der Devise "dann kann ich doch gleich in Rec709" drehen... (Hint: Deutlich mehr Farb-/Bildinformation und daher mehr Korrekturspielraum im Quellmaterial, auch wenn man innerhalb von Rec709 gradet und auf das Material nur als Rec709 sieht.)

Space


Antwort von little-endian:

wolfgang hat geschrieben:
Rein mathematisch bieten 8bit mit 2^8 natürlich weniger Farbwerte als 2^10.
Bei einfacher, pixelbasierter Darstellung ohne vollständige Rekonstruktion am Bildschirm (!) sicherlich.
Die knifflige Frage ist aber: sagt die Mathematik tatsächlich was über die erzielbaren Werte aus oder nur über das Signal-/Rauschverhältnis? So entstehen zahlenmäßig ja auch bei einer geringeren Abtastrate weniger Werte pro Zeiteinheit und doch ist das Analogsignal daraus immer stufenlos verlustfrei rekonstruierbar, solange das Abtasttheorem eingehalten wird.

Mein Einwand beruht hier - zugegeben etwas akademisch und mit weitaus geringerem Praxisbezug im Vergleich zur bisherigen Diskussion - auf folgender Überlegung:

Bei Audio gilt es als Mythos, dass eine Bittiefe die Anzahl der Pegelabstufungen bestimme, was man auch immer wieder liest und auch zur irreführenden Bewerbung von 24 Bit als vermeintlich "feiner aufgelöstem Signal" führt. Tatsächlich maskiert Dithering aber keine Abstufungen, sondern eliminiert sie vollständig und ersetzt sie durch einen zum Eingangssignal unkorrelierten Rauschteppich. So beschreibt das auch Benchmark in einem seiner Artikel. Was sie natürlich auch nicht davon abhält, ihre Produkte als das Nonplusultra und inklusive Unterstützung für 24 Bit Audio zu vermarkten, womit sich der Kreis zu deinen Ausführungen schließt - warum heutzutage auch nicht? Man hat es ja und es schadet nicht.

Nun sind wir gedanklich inzwischen natürlich allesamt bei üblichen pixelbasierten Bildschirmen angekommen und die wenigsten bedenken, dass es diese Pixel bei idealer Rekonstruktion eigentlich gar nicht geben sollte. So hatten CRTs auch keine klaren Grenzen, zumindest in horizontaler Richtung und von daher auch nur eine Auflösung, die sich über Bandbreiten in MHz oder stellvertretend noch nicht zusammenmatschenden Linienpaaren angeben ließ, aber keine Pixel.

Allerdings ist ein ursprüngliches analoges Videosignal ja nichts anderes als ein Audiosignal, wenn auch mit deutlich höherer Bandbreite, so dass sich im Grunde die 1:1 Beziehung von Audio und Video ergibt.

Nun kann man diese Ausschweifung als höchst theoretisch abtun und eben auf heutige "digital" erzeugte Inhalte, Bildschirme und Verfahren verweisen, doch es zeigt sich ja, dass auch jenseits der Betrachtung "Video als Analogsignal" mit "pixelbasierten" Algorithmen wie von madVR Ergebnisse erzielbar sind, die sich ganz ähnlich verhalten und dank Dithering plötzlich effektiv beim Betrachter (!) Abstufungen möglich machen, die jenseits der bitbasierten Auflösung liegen. Nichts anderes machen ja auch Plasmafernseher, deren native Abstufungen selbst für SDR hinten und vorne nicht reichen würde. Das Dithering ist hier je nach Abstand und Empfindlichkeit durchaus minimal sichtbar, von daher gibt es freilich auch hier keinen "free lunch".

Mit anderen Worten: wäre ein HDR-Video in 10000 Nits erstrahlend , BT2020 Farbraum, Dolby Vision - Würze und allem Pipapo mit nur 8 Bit und idealem Dithering tatsächlich von einem in 10 Bit oder 12 Bit unterscheidbar? Technisch muss das mit 8 Bit schlechter sein, da der SNR-Wert sinken wird - zaubern kann man auch mit Dithering nicht, aber wie sehr sieht man das wirklich?
wolfgang hat geschrieben:
Das ist aber nur ein Punkt - in Wirklichkeit ist bei PQ/HLG/Dolby Vision der Farbraum rec2020 deutlich weiter, als er bei rec709 ist. Das ist einer der Vorteile von HDR.
Ist das aber streng genommen nicht auch wieder eine Vermischung von Farbräumen und Dynamikumfängen? Rec2020 kann man doch auch als SDR haben, meinen zumindest einige Playermenüs, womit umgekehrt auch HDR in Rec709 oder darunter möglich erscheinen.

Zur Einordnung meiner Beiträge - ich will zu keinem Zeitpunkt die praktischen Vorteile von größeren Farbräumen, Bittiefen, etc. in Frage stellen und auch im Audioumfeld können 96 kHz / 24 Bit ja ob höherer Reserve sinnvoll sein (gelten für ein Endformat allerdings als unnötiger Quatsch), doch ich lote gerne auch zum eigenen besseren Verständnis aus, was eine technische Notwendigkeit ist und welche Limitierungen sich tatsächlich ergeben oder lediglich durch die angewandte Praxis, bei der eben auch in Fachliteratur leider immer völlig verschiedene Dinge zusammengeworfen werden.

Vor allem wollte ich hier aber einbringen, dass Bandingfreiheit durchaus auch mit 8 Bit oder auch weniger (etwa mit dem berühmten Wertebereich 16-235) machbar ist und daher etliche Blu-ray-Veröffentlichungen diesbezüglich eine Frechheit sind.

Space


Antwort von wolfgang:

cantsin hat geschrieben:
wolfgang hat geschrieben:
Filmst jetzt mit einem rec709 Sensor, der eben nur 6 Stufen kann, dann hast aber vom Anfang an nur 6 Blendenstufen verfügbar.
Solche Sensoren gibt es nicht. Sensorsignale haben auch gar keine Farbräume oder Gammas, sie haben sogar gar keine Farben.

Ich vermute außerdem stark, dass hier nicht jedem die Unterschiede zwischen (a) einem Workflow ohne Color Management mit LUTs, (b) einem Workflow ohne Color Management mit RCM und (c) einem Workflow mit Color Management völlig klar sind.

Wobei man ja auch noch verstehen muss, dass das Projekt-Color Management von Resolve nichts mit dem (auf die Monitorkalibrierung u.ä. bezogene) Color Management des Betriebssystems zu tun hat.

Und dass auch nicht jedem klar ist, was der Vorteil davon ist, wenn man zwar Log aufnimmt, aber dann im NLE (dank Color Management) das Material als Rec709 angezeigt bekommt, frei nach der Devise "dann kann ich doch gleich in Rec709" drehen... (Hint: Deutlich mehr Farb-/Bildinformation und daher mehr Korrekturspielraum im Quellmaterial, auch wenn man innerhalb von Rec709 gradet und auf das Material nur als Rec709 sieht.)
Das ist eh klar, aber der Sensor kann eben einen gewissen Dynsmikumfang. Und die genutzte Gammakurve spielt eben mit, und bei Standard rec709 endest halt mit 6 Blendenstufen. Nur ist es eben ein Irrglaube anzunehmen, dass man zwischen einer transformierten log Aufnahme und einer rec709 Aufnahme keine Unterschiede bekommt. Ebenso, dass CM eh alles für uns erledigt.

Das Grading ist eben durchaus notwendig. Und grundsätzlich mache ich diese Operationen lieber in einem entsprechend weitem Gamut, und reduziere erst dann zu rec709. Stimmt.

Wenn wir hier von color management sprechen, dann sind natürlich die in Resolve implementierten CM Systeme gemeint - also ACES und das Resolve eigene CM. Also scene based workflows. Die Profilierung bzw monitorinterne Kalibrierung ist ja wieder ein anderer Teil der gesamten Kette - aber darüber war hier mE bisher nicht die Rede.

Space


Antwort von DKPost:

wolfgang hat geschrieben:
Nur ist es eben ein Irrglaube anzunehmen, dass man zwischen einer transformierten log Aufnahme und einer rec709 Aufnahme keine Unterschiede bekommt. Ebenso, dass CM eh alles für uns erledigt.

Das Grading ist eben durchaus notwendig. Und grundsätzlich mache ich diese Operationen lieber in einem entsprechend weitem Gamut, und reduziere erst dann zu rec709. Stimmt.
Wie kommst du da drauf? Ich komme vielleicht am Wochenende mal dazu das zu testen und hier hochzuladen. Aber mich würde interessieren woher du diese Idee hast?

Space


Antwort von wolfgang:

Worauf? Dass das Grading notwendig ist? Wenn du das meinst - wie stellst bei HDR die Spitzlichter ein? Wie Justierst du so Dinge wie Schwarz- und Weisspunkt? Wie justierst du den Kontrast? Von Farben abgesehen.

Selbst wenn du richtig belichtest - wovon man mal ausgehen sollte. Aber dann legst die mittlere Belichtung halt richtig hin. Aber all diese anderen Dinge sind nur vom CM alleine nicht unbedingt dort, wo sie hin gehören. Da braucht man ja nur mal die Messinstrumente einzusetzen.

Space


Antwort von cantsin:

wolfgang hat geschrieben:
Worauf? Dass das Grading notwendig ist? Wenn du das meinst - wie stellst bei HDR die Spitzlichter ein? Wie Justierst du so Dinge wie Schwarz- und Weisspunkt? Wie justierst du den Kontrast? Von Farben abgesehen.
Das macht Resolve per Tone Mapping und Gamut Mapping. Und was dann eventuell nicht stimmt, kannst Du immer noch problemlos händisch korrigieren.

Space


Antwort von wolfgang:

Ja genau. Du korrigierst händisch nach. Das ist nämlich die Realität. Ein CM alleine macht das noch nicht. Erst mit einer KI in einigen Jahren.

Space


Antwort von cantsin:

wolfgang hat geschrieben:
Ja genau. Du korrigierst händisch nach. Das ist nämlich die Realität. Ein CM alleine macht das noch nicht. Erst mit einer KI in einigen Jahren.
Was anderes behauptet ja auch niemand. Aber das gleiche musst Du ja auch bei Rec709-OOC-Material tun, nur dann mit weniger Spielraum im Material.

Intern macht Deine Kamera ja das gleiche wie Resolve, wenn sie Rec709 aufzeichnet (nämlich eine Transformationskurve mit tone mapping + gamut mapping anzuwenden). Nur dass die Transformation dann fest ins Material eingebrannt ist.

Meiner Erfahrung nach sind Resolves tone mapping-Algorithmen allerdings besser als kamerainterne und bügeln Belichtungsfehler teilweise aus.

Space


Antwort von wolfgang:

Na hier wurde sehr wohl gesagt, dass man alles dem CM in Resolve überlassen könne. Und selbst wenn das CM eine gute Basis liefert, perfekt ist das auch nicht. Weil auch unsere Aufnahmen nicht immer perfekt sind.

Space


Antwort von pillepalle:

Die werden genauso perfekt oder unperfekt wie das REC709 in der Kamera. Nur hat man eben noch nachträglich die Möglichgkeit einer Korrektur. Man kann graden, muss aber nicht.

VG

Space


Antwort von DKPost:

wolfgang hat geschrieben:
Worauf? Dass das Grading notwendig ist? Wenn du das meinst - wie stellst bei HDR die Spitzlichter ein? Wie Justierst du so Dinge wie Schwarz- und Weisspunkt? Wie justierst du den Kontrast? Von Farben abgesehen.

Selbst wenn du richtig belichtest - wovon man mal ausgehen sollte. Aber dann legst die mittlere Belichtung halt richtig hin. Aber all diese anderen Dinge sind nur vom CM alleine nicht unbedingt dort, wo sie hin gehören. Da braucht man ja nur mal die Messinstrumente einzusetzen.
Ich meinte wie du darauf kommst, dass LOG zu rec709 sich von rec709 direkt aus der Kamera unterscheidet?

Space


Antwort von wolfgang:

Ich beziehe mich primär auf PQ als Lieferformat. Die Einschränkung auf rec709 kam übrigens nicht von mir. Warum rede ich immer wieder von Spitzenlichtern?

Aber trotzdem hast aus den dargelegten Gründen Unterschiede zu erwarten. Die du optisch bei idealen Motiven nicht unbedingt sehen wirst. Nur das bedeutet nicht, dass das Material tatsächlich optimal passt, nur aus deM CM.

Space


Antwort von DKPost:

wolfgang hat geschrieben:
Ich beziehe mich primär auf PQ als Lieferformat. Die Einschränkung auf rec709 kam übrigens nicht von mir. Warum rede ich immer wieder von Spitzenlichtern?

Aber trotzdem hast aus den dargelegten Gründen Unterschiede zu erwarten. Die du optisch bei idealen Motiven nicht unbedingt sehen wirst. Nur das bedeutet nicht, dass das Material tatsächlich optimal passt, nur aus deM CM.
Nur um sicherzugehen: Wir reden von LOG-Material das z.B. in Resolve zu rec709 transformiert im Vergleich zu direkt in der Kamera aufgenommenes rec709-Material, oder?

Space


Antwort von wolfgang:

Nicht exakt: wir reden von log Material, welches einer Transformation unterzogen wird. Für mich primär zu HDR10. Für dich zu rec709.

Dann kam von Euch die These, dass das von log zu rec709 mit CM transformierte Material ident sei, verglichen zu gleich zu rec709 aufgenommenen Material. Dem habe ich widersprochen.

Und zwar einfach deshalb, weil eine direkte Aufzeichnung zu rec709 eben nur 6 Blendenstufen abbilden kann. Während hingegen eine log Aufnahme ja etwa 14 Blendenstufen umfasst. Nur wenn ich diese 14 Blendenstufen in die 6 Blendenstufen von rec709 mappe, dann bleibt mir der Inhalt der 14 Stufen erhalten. Bei der direkten Aufnahme zu rec709 schaffe ich hingegen nur 6. Daher können diese beiden Wege nicht das gleiche Ergebnis haben.

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:
Ja genau. Du korrigierst händisch nach. Das ist nämlich die Realität. Ein CM alleine macht das noch nicht. Erst mit einer KI in einigen Jahren.
Das CM macht genau das selbe wie die Kamera - nur mit dem Unterschied das bei 709 aus der Kamera alles was nicht rein passt geclippt wird und damit verloren ist, während du beim CM auf alles manuell zurück greifen kannst.

Kann doch nicht so schwer zu verstehen sein.
wolfgang hat geschrieben:


Dann kam von Euch die These, dass das von log zu rec709 mit CM transformierte Material ident sei, verglichen zu gleich zu rec709 aufgenommenen Material. Dem habe ich widersprochen.
Noch mal ganz langsam nur für dich zum mitlesen:

Du hast behauptet ein LOG Workflow sei immer aufwendiger als Workflow im "fertigem" 709 Material aus der Kamera.
wolfgang hat geschrieben:

Und natürlich ist ein log-Workflow - egal of man zu SDR oder HDR transformieren will - immer aufwendiger, als ein rec709 workflow
Darauf hin hatte ich erwähnt daß es mit CM keinen Unterschied im Workflow gibt, und deshalb da eben überhaupt nichts "immer aufwändiger" ist.
"Frank Glencairn" hat geschrieben:
Bei eingeschaltetem Colormanagement merkst du keinerlei Unterschied zu 709, es sind dafür auch keine zusätzlichen Arbeitsschritte nötig. "Aufwändiger" ist dabei also gar nix.
Wie du auf die schräge Idee kommst, irgendjemand hätte behauptet man muß da dann nix mehr dran drehen, und darauf daß man dann ja auch gleich ein paar Werkzeuge in Resolve "bereinigen" könne bleibt dein Geheimnis.

Space


Antwort von Bruno Peter:

Ich filme mit meiner Sony ZV-1 in HLG3/BT2020.
Ich muss nur noch wenig in DaVinci Resolve nacharbeiten, etwas Luminanzänderung,
Angleichung an benachbarte Clips und Nachschärfung, da ich die Details(Schärfe)
auf für die Aufnahme in der Kamera eingestellt habe. Für mich ist das OK so.
In Rec.709 oder den neun anderen PP nehme ich nichts mehr auf.

Space


Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
Das CM macht genau das selbe wie die Kamera - nur mit dem Unterschied das bei 709 aus der Kamera alles was nicht rein passt geclippt wird und damit verloren ist, während du beim CM auf alles manuell zurück greifen kannst.
Aha. Und ein CM kann also neuerdings auch bei der Aufnahme geclipptes Material zurück holen? Du vollbringst Wunder, wann machst du aus Wasser Wein?

Ernsthaft, das ist arg irreführend. Was du meinst ist, das bei rec709 aus der Kamera man aufgrund der nur 6 Blendenstufen früher am Clipping ansteht, als man es etwa bei log Material macht - weil damit ohne Clipping etwa die 14 oder 15 Blendenstufen zur Verfügung stehen. Nur - Clipping kann sowohl bei rec709 wie auch log Material passieren. Brauchst ja nur eine Szene vor der Linse haben, deren Dynamikumfang eben den maximalen Dynamikumfang des Sensors übersteigt.

Kann doch nicht so schwer zu verstehen sein.

Wobei ich natürlich weiß, dass du das sehr wohl weißt und verstehst. Nur bist halt so im Zorn, dass du hier Verkürzungen schreibst, die dann einfach falsch sind. So wie ich halt auch mal den Begriff "HDR Grading" genutzt habe, und mir dann gleich gesagt worden ist, das zeige ja was ich davon verstehe. In Wirklichkeit ist deine mangelnde Arroganz einfach Dein Problem. Behalte das doch einfach.
"Frank Glencairn" hat geschrieben:
Bei eingeschaltetem Colormanagement merkst du keinerlei Unterschied zu 709, es sind dafür auch keine zusätzlichen Arbeitsschritte nötig. "Aufwändiger" ist dabei also gar nix.
Langsam für dich zum Mitlesen: seit wann verlassen wir uns lediglich auf Automatiken? Und jedes CM ist eine Automatik. Oder traust dich endlich das zu schreiben, was du mit all deinen tollen Awards auch sicher machst: nämlich das Du das Material nach dem Durchlauf durch ein Farbmanagement selbstverständlich noch manuell justierst?

Na klar ist der Umgang mit log-Material aufwendiger. Denn ich sprach auch kaum von rec709, sondern eben primär von HDR. Siehe Titel der Diskussion. Und bei HDR stellst natürlich die diversen Luminanzbereiche ein. Justierst Spitzenlichter. Ich frage mich gerade, ob du tatsächlich und trotz vieler Awards überhaupt Erfahrung mit dem Graden zu HDR hast, um das es in diesem Thread geht?
"Frank Glencairn" hat geschrieben:
Wie du auf die schräge Idee kommst, irgendjemand hätte behauptet man muß da dann nix mehr dran drehen, und darauf daß man dann ja auch gleich ein paar Werkzeuge in Resolve "bereinigen" könne bleibt dein Geheimnis.
Ach so, jetzt ruderst zurück? Und hast nie gesagt, dass man mit dem CM System ja eh alles machen könne? Du bist schon eine merkwürdiger Zeitgenosse. Denn wäre das so, dann könnte man die Werkzeuge eliminieren, was ich dir natürlich scherzhaft entgegnet hab, um mal die Unsinnigkeit deiner These klar aufzuzeigen. Gell?

Space


Antwort von cantsin:

wolfgang hat geschrieben:
Ach so, jetzt ruderst zurück? Und hast nie gesagt, dass man mit dem CM System ja eh alles machen könne? Du bist schon eine merkwürdiger Zeitgenosse. Denn wäre das so, dann könnte man die Werkzeuge eliminieren, was ich dir natürlich scherzhaft entgegnet hab, um mal die Unsinnigkeit deiner These klar aufzuzeigen. Gell?
Ich glaube, Ihr missversteht einander völlig und schreibt komplett aneinander vorbei.

Was Frank meinte: Die häufige Annahme, dass Schneiden/Nachbearbeiten von Log-Material komplexer/aufwändiger/schwieriger ist als von Rec709-Material, stimmt nicht mehr, denn: Du kannst mit der Kamera intern Log aufnehmen und kriegst auf dem Display Rec709 angezeigt, und wenn Du dieses Material in Resolve mit RCM schmeißt, wird es Dir ebenfalls automatisch als Rec709 angezeigt (bei einem Rec709/sRGB-Monitor), ohne irgendwelches weiteres Zutun. Du siehst also keine grau-verwaschenen Bilder mehr und musst Dir auch keine Gedanken mehr über LUTs oder Farbraumumwandlungen machen (welche die richtige ist, wo in der Korrekturkette sie sitzen muss etc.).

Du kriegst also als Nutzer praktisch nicht mehr mit, dass unter der Haube Log-Material sitzt - außer eben, wenn Du es stärker korrigierst oder gradest und es dafür mehr Reserven hat bzw. weniger schnell auseinanderfällt.

(Also eigentlich genauso wie ein 16Bit-TIFF im ProPhoto-Farbraum ggü. einem 8-Bit-sRGB-JPEG, die in Photoshop erst einmal identisch aussehen und sich gleich anfühlen, aber unterschiedliche Bearbeitungsreserven haben.)

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
wolfgang hat geschrieben:
Ach so, jetzt ruderst zurück? Und hast nie gesagt, dass man mit dem CM System ja eh alles machen könne? Du bist schon eine merkwürdiger Zeitgenosse. Denn wäre das so, dann könnte man die Werkzeuge eliminieren, was ich dir natürlich scherzhaft entgegnet hab, um mal die Unsinnigkeit deiner These klar aufzuzeigen. Gell?
Ich glaube, Ihr missversteht einander völlig und schreibt komplett aneinander vorbei.

Was Frank meinte: Die häufige Annahme, dass Schneiden/Nachbearbeiten von Log-Material komplexer/aufwändiger/schwieriger ist als von Rec709-Material, stimmt nicht mehr, denn: Du kannst mit der Kamera intern Log aufnehmen und kriegst auf dem Display Rec709 angezeigt, und wenn Du dieses Material in Resolve mit RCM schmeißt, wird es Dir ebenfalls automatisch als Rec709 angezeigt (bei einem Rec709/sRGB-Monitor), ohne irgendwelches weiteres Zutun. Du siehst also keine grau-verwaschenen Bilder mehr und musst Dir auch keine Gedanken mehr über LUTs oder Farbraumumwandlungen machen (welche die richtige ist, wo in der Korrekturkette sie sitzen muss etc.).

Du kriegst also als Nutzer praktisch nicht mehr mit, dass unter der Haube Log-Material sitzt - außer eben, wenn Du es stärker korrigierst oder gradest und es dafür mehr Reserven hat bzw. weniger schnell auseinanderfällt.

(Also eigentlich genauso wie ein 16Bit-TIFF im ProPhoto-Farbraum ggü. einem 8-Bit-sRGB-JPEG, die in Photoshop erst einmal identisch aussehen und sich gleich anfühlen, aber unterschiedliche Bearbeitungsreserven haben.)
Ja, also jetzt haben es wirklich alle verstanden. Denke ich ;)

Space


Antwort von Bruno Peter:

Ja, Danke!

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:

Aha. Und ein CM kann also neuerdings auch bei der Aufnahme geclipptes Material zurück holen? Du vollbringst Wunder, wann machst du aus Wasser Wein?
Und das hab ich angeblich wo geschrieben?
wolfgang hat geschrieben:

Denn ich sprach auch kaum von rec709
wolfgang hat geschrieben:

Und natürlich ist ein log-Workflow - egal of man zu SDR oder HDR transformieren will - immer aufwendiger, als ein rec709 workflow, wo man (wenn man geschickt ist) halt auch deutlich weniger Aufwand in der Post hat.

wolfgang hat geschrieben:

Und hast nie gesagt, dass man mit dem CM System ja eh alles machen könne?
Die Stelle wo ich sowas gesagt haben soll, kannst du uns sicher auch zeigen.

Space


Antwort von wolfgang:

Du weißt genau, was du geschrieben hast.

Du weißt genau, wie lange du mit irgendwelchen Mini-Postings nur her gestichelt hast.

Du weißt genau, dass du ständig auf einem Rechtschreibfehler hier herum doktern musstest.

Alles oben nachlesbar.

Dein Verhalten ist aus all diesen Punkten eher von unterschwelliger, passiver Aggression geprägt. Keine Ahnung was dich dazu treibt so zu agieren. Mir egal.

Aber entweder du bist bereit auf ständige Stichelein zu verzichten - das erfordert aber auch, anderen mit Toleranz zu begegnen und sie ernst zu nehmen. Oder aber es gibt halt keine inhaltliche Diskussion mit dir, weil sinnlos.

Space


Antwort von Bruno Peter:

wolfgang hat geschrieben:
Aber entweder du bist bereit auf ständige Stichelein zu verzichten - das erfordert aber auch, anderen mit Toleranz zu begegnen und sie ernst zu nehmen. Oder aber es gibt halt keine inhaltliche Diskussion mit dir, weil sinnlos.
Wolfgang, das ist eine interessante Aussage von Dir.

Space


Antwort von Jörg:

Ich staune auch , Bruno

Space


Antwort von Frank Glencairn:

wolfgang hat geschrieben:
Du weißt genau, was du geschrieben hast.
Ich schon - du offensichtlich nicht, sonst könntest du uns die fraglichen Stellen ja mal zeigen.

wolfgang hat geschrieben:

Dein Verhalten ist aus all diesen Punkten eher von unterschwelliger, passiver Aggression geprägt.
Mimimi ....
wolfgang hat geschrieben:

das erfordert aber auch, anderen mit Toleranz zu begegnen und sie ernst zu nehmen.
Ehrlich gesagt tu ich mich ein bisschen schwer jemanden wirklich ernst zu nehmen der von einem "rec709 Sensor" spricht.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen //


Zweites Update zur finalen Version von Blackmagic DaVinci Resolve 19.0.2
Erstes Update zur finalen Version von Blackmagic DaVinci Resolve 19.0.1
Blackmagic DaVinci Resolve 19 Public Beta 5 ist da
DaVinci Resolve Key-Code - dreimal verwenden?
What’s New in DaVinci Resolve Public Beta 4
Blackmagic stellt DaVinci Resolve 19 für Qualcomm/ARM zum Download bereit
Find the Ultimate DaVinci Resolve Machine
DaVinci Resolve 19 Public-Beta 2 zum freien Download verfügbar
DaVinci Resolve 19: Die neuen Funktionen ausführlich erklärt
Blackmagic DaVinci Resolve 19 jetzt auch auf Deutsch
Neues Blackmagic DaVinci Resolve 19 bringt über 100 neue Funktionen
Blackamgic DaVinci Resolve 18.6.6 Update
LG 34WN80C: Extrabreiter UWQHD Monitor mit HDR10 und USB-C
FiLMiC Pro 6.13 ermöglicht 10-Bit SDR Video Aufnahme mit iPhone 12
Versehentliches HDR-Video von Samsung S23 in SDR konvertieren mit DaVinci Resolve
HDR in SDR wandeln?
Die HDR-Wheels in DVR 17 auch für SDR erklärt
AJA ColorBox: HDR/SDR/LUT-Transform: Der neue Standard für DITs am Set?
FX9 // kein S-Log3 im SDR Modus bzw. mit verstellbarem ISO
Neue DJI SDR Transmission: Erschwingliche Videofunkstrecke mit 2km Reichweite
DJI Rs4 Strom-Probleme mit SDR Transmission
Canon EOS C300 Mark III in der Praxis: Hauttöne, 10 und 12 Bit (internes) RAW und 10 Bit XF-AVC LOG Recording ?.
Wie herausfinden, ob echtes 10-bit video vorliegt o. 8bit Quelle in 10-bit Container?
Dynamik Smartphone mit 10 Bit Log vs. Vollformat Standardprofil 8 Bit
16 Bit Waveform schmaler als 24 Bit Waveform?
DaVinci Resolve Remote-Monitoring - 10 Bit HDR Vorschau über die Cloud mit iOS-App




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash