Logo Logo
/// 

HDR10+ vs SDR 8 bit in davinci



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Frage von ME2000:


Hallo Community,

Ich habe nochmal eine Frage bzgl Videos aufnehmen mit meinem Samsung S23 Ultra. Ich kann entweder klassisch in SDR 8bit mit hoher Bitrate aufnehmen oder die Option HDR10+. Ich würde gerne etwas colorgrading machen mit der davinci resolve free Version.

Ich frage mich:
1. Ich kann ein HDR10+ video in die kostenlose version von DR importieren. Warum geht das ueberhaupt da ich dachte HDR geht dort gar nicht?
2. Da ich auch keinen Monitor fuer HDR habe und nicht in DR in HDR exportieren kann würde ich gerne in SDR arbeiten. Macht es dann ueberhaupt Sinn, ein Video in HDR10+ aufzunehmen und dann in DR zu konvertieren? Ich dachte jetzt insbesondere daran, dass HDR10+ doch auch 10 bit ist (auch nach einem colorspace transform?). Hat dies nicht Vorteile ggü 8bit SDR?

Danke euch
Marco



Antwort von Paralkar:

Also vorausgesetzt du kriegst da wirklich 10 bit und die Bitrate ist nicht zu knapp, könnte das durchaus Sinn machen.

Was wichtig wäre, was tut das Handy da genau, was ist das für ein SDR 8 bit, Rec709 2.4 Gamma oder srgb 2.2 Gamma oder irgendwas anderes.
Was ist das für ein HDR10+, bei nem samsung kann man vielleicht davon ausgehen das es wirklich 10 bit ist, aber selbst auf der Homepage gibts dazu keine wirklichen Infos.

Ich denke probieren geht über studieren, einfach mal ähnliche Aufnahmen in beiden Formaten machen, dann siehst du ja Unterschiede, mal in Resolve probieren.

Das HDR Zeugs könnte auf nem SDR Monitor bisserl schräg aussehen, also entweder so anpassen das du glücklich bist oder recherchieren was das genau ist, und Color Management einschalten und von dem richtigen Farbraum in dein Wunschfarbraum.

Bei HDR10+ solltest du eigentlich mit Rec2100 ST2084 als Input Colour Space nicht ganz falsch liegen. Als Working Colour Space könntest du HDR Davinci Wide Gamut nehmen....



Antwort von ME2000:

Hi Paralkar,

vielen Dank fuer die Infos. Was mich etwas wundert ist, dass sowohl die SDR Aufnahme als auch die HDR10+ Aufnahme ungefähr die gleiche Dateigröße hatten (aufgenommen in h.265). In Davinci Resolve sieht die HDR Aufnahme nach Konvertierung auf rec709 "normal" aus, müsste selbst nochmal intensiv vergleichen. Mich wundert es etwas, dass es dann z.b. in der stockcam Kamera App nicht einfach die Möglichkeit gibt, auch in 10 bit aufzunehmen oder warum der "Trick" mit HDR10+ Aufnahme und Konvertierung nicht schon öfters im internet erwähnt wurde, wenn er funktionieren sollte ...

Marco








Antwort von Frank Glencairn:

ME2000 hat geschrieben:
dass sowohl die SDR Aufnahme als auch die HDR10+ Aufnahme ungefähr die gleiche Dateigröße hatten (aufgenommen in h.265). In Davinci Resolve sieht die HDR Aufnahme nach Konvertierung auf rec709 "normal" aus ...
Natürlich tut sie das. Wie soll sie denn sonst aussehen?



Antwort von ME2000:

Es gibt schon eine ganze Menge an Einstellungen in DR, sodass es halt nicht "normal" sondern vielleicht ueber- oder unterbelichtet etc. aussieht. Wollte damit sagen, dass die Konvertierung klappt. Einen zusätzlichen Nutzen sehe ich aber noch nicht bei meiner "Analyse", also wenn das jemand noch mit Fachwissen untermauern könnte warum es was bringt (oder auch nicht), das wäre super.



Antwort von Axel:

ME2000 hat geschrieben:
... oder warum der "Trick" mit HDR10+ Aufnahme und Konvertierung nicht schon öfters im internet erwähnt wurde, wenn er funktionieren sollte ...
Ach, es gibt viele Tricks, nach denen man vergeblich sucht. Ausprobieren ist da oft die einzige Möglichkeit.



Antwort von cantsin:

ME2000 hat geschrieben:
Wollte damit sagen, dass die Konvertierung klappt. Einen zusätzlichen Nutzen sehe ich aber noch nicht bei meiner "Analyse", also wenn das jemand noch mit Fachwissen untermauern könnte warum es was bringt (oder auch nicht), das wäre super.
Da es sich bei dem HDR-Material um 10bit-Log handelt, solltest Du erheblich mehr Spielraum bei der Farb- und Belichtungskorrektur haben als bei 8bit-SDR-Material.

Das solltest Du eigentlich schon im Waveform-Monitor sehen - ob da die Kurven glatt sind (10bit HDR) oder interne Abrisse haben (8bit SDR). Ein guter Praxistest wäre auch das Filmen eines blauen Himmels, bei dem das SDR-Material wahrscheinlich schon unbearbeitet Color Banding zeigt (und garantiert, wenn Du es farbkorrigierend anfasst), das umgewandelte HDR-Material aber saubere Blau-Farbverläufe produzieren sollte.



Antwort von Jott:

Axel hat geschrieben:
ME2000 hat geschrieben:
... oder warum der "Trick" mit HDR10+ Aufnahme und Konvertierung nicht schon öfters im internet erwähnt wurde, wenn er funktionieren sollte ...
Ach, es gibt viele Tricks, nach denen man vergeblich sucht. Ausprobieren ist da oft die einzige Möglichkeit.
Selbst ausprobieren ist so was von old school …



Antwort von ME2000:

Jott hat geschrieben:
Axel hat geschrieben:


Ach, es gibt viele Tricks, nach denen man vergeblich sucht. Ausprobieren ist da oft die einzige Möglichkeit.
Selbst ausprobieren ist so was von old school …
Es geht darum das Vorgehen mit Fachwissen zu untermauern. Ich kenne mich da nicht so gut aus. Ausserdem sind die Unterschiede auch nicht so offensichtlich. Vielleicht mache ich ja auch was falsch, z.B. bei der Umwandlung von HDR auf SDR. Vielleicht hat es ja auch schon jemand ausprobiert. Vielleicht ist meine Herangehensweise falsch. Danke.



Antwort von ME2000:

Ich habe jetzt mal den Himmel aufgenommen, das HDR Material umgewandelt und farblich abgeändert. Ich sehe aber keinen wirklichen Unterschied, obwohl mir Davinci Resolve einmal 10 bit und einmal 8 bit sagt? Ein sehr starker Zoomausschnitt aus Davinci habe ich mal angefügt. Sieht jemand den Unterschied oder schaue ich mir einfach was Falsches an?



Antwort von Darth Schneider:

Hm, um zu wissen was und ob da was falsch läuft , beziehungsweise um dir zu helfen müssten wir zuerst einmal wissen was genau du für Projekt Einstellungen du gewählt hast und auch wie du das HDR Material überhaupt in SDR wandelst.

Sonst helfen eventuell solche Videos:





Gruss Boris



Antwort von cantsin:

ME2000 hat geschrieben:
Ich habe jetzt mal den Himmel aufgenommen, das HDR Material umgewandelt und farblich abgeändert. Ich sehe aber keinen wirklichen Unterschied, obwohl mir Davinci Resolve einmal 10 bit und einmal 8 bit sagt? Ein sehr starker Zoomausschnitt aus Davinci habe ich mal angefügt. Sieht jemand den Unterschied oder schaue ich mir einfach was Falsches an?
Nimm doch mal zwei sehr kurze Clips vom selben Motiv in identischem Blickwinkel auf (1 Sek. reicht), einmal als SDR und einmal als HDR, und teile sie hier per WeTransfer.

Dann können wir uns das mal richtig ansehen. Mit exportierten JPEGs kommen wir nicht wirklich weiter...








Antwort von ME2000:

So, ich hoffe dies war jetzt alles richtig, musste mich auch erstmal bei WeTransfer anmelden.
Hier habe ich jetzt einen Link:
https://we.tl/t-7bZn9Dz0On
Dort habe ich drei kurze Clips: einen HDR und einen SDR Clip, direkt von der Handy-Kamera
Dann habe ich noch einen SDR_vs_HDR Clip, den ich aus Davinci exportiert habe (bei mir geht h.265 nicht in 10 Bit, daher anderes Format), bei dem ich die beiden Clips reingeladen habe und einmal nach dem Verfahren aus dem oben angegebenen Youtube-Video die Videos von HDR nach SDR konvertiert habe, sprich: ich habe im Color Tab ein "ColorSpaceTransform" gemacht von Rec.2100 (input Gamma Rec.2100 ST2084) nach Timeline, die ich auf Rec.709 gesetzt habe. Dies ist dann das letzte Video, sieht auch von den Farben sehr gut aus.
Kann damit jemand etwas anfangen?

Danke euch!



Antwort von cantsin:

ffprobe (Teil von ffmpeg) sagt, dass das HDR-Videomaterial des Samsung-Smartphones im Rec2020-Farbraum aufgenommen wurde:
Screenshot from 2023-03-18 15-47-22.png

Mit den folgenden Parametern konvertiert es Resolve in ein Bild, das dem SDR-Material direkt aus der Kamera ziemlich nahe kommt:
Screenshot from 2023-03-18 15-46-58.png

Bildvergleich:
sdr-ooc_1.1.2.jpg SDR-Material direkt aus der Kamera

HDR_1.2.2.jpg HDR-Material, mit den obigen Parametern nach SDR/Rec709 gewandelt


Nun hat Dein Motiv wenig Kontrast, weswegen man den Unterschied von SDR und HDR in der Dynamikwiedergabe nicht sehen kann. Aber der Unterschied von 10bit zu 8bit wird schon sichtbar, wenn man das Material verbiegt, hier mal mit extremer Kontrastkurve:

SDR_1.1.1.jpg SDR mit aufgesteiltem Kontrast

HDR_1.2.1.jpg HDR mit aufgesteiltem Kontrast


Wenn Du die beiden Bilder gut vergleichst, stellst Du fest, dass es in dem 8bit-SDR-Bild bei Farbverläufen und Kontrastkanten Color-Banding gibt (sichtbar an den roten Flecken-Inseln im 1:1-Bildausschnitt):
SDR_1.1.1-crop.png
...während das 10bit-HDR-Bild hier die Verläufe besser wiedergibt:
HDR_1.2.1-crop.png



Antwort von ME2000:

cantsin hat geschrieben:
ffprobe (Teil von ffmpeg) sagt, dass das HDR-Videomaterial des Samsung-Smartphones im Rec2020-Farbraum aufgenommen wurde:

Screenshot from 2023-03-18 15-47-22.png



Mit den folgenden Parametern konvertiert es Resolve in ein Bild, das dem SDR-Material direkt aus der Kamera ziemlich nahe kommt:

Screenshot from 2023-03-18 15-46-58.png



Bildvergleich:

sdr-ooc_1.1.2.jpg
SDR-Material direkt aus der Kamera


hdr-to-rec709_1.1.3.jpg
HDR-Material, mit den obigen Parametern nach SDR/Rec709 gewandelt


Nun hat Dein Motiv wenig Kontrast, weswegen man den Unterschied von SDR und HDR in der Dynamikwiedergabe nicht sehen kann. Aber der Unterschied von 10bit zu 8bit wird schon sichtbar, wenn man das Material verbiegt, hier mal mit extremer Kontrastkurve:


SDR_1.1.1.jpg
SDR mit aufgesteiltem Kontrast


HDR_1.2.1.jpg
HDR mit aufgesteiltem Kontrast


Wenn Du die beiden Bilder gut vergleichst, stellst Du fest, dass es in dem 8bit-SDR-Bild bei Farbverläufen und Kontrastkanten Color-Banding gibt (sichtbar an den roten Flecken-Inseln im 1:1-Bildausschnitt):

SDR_1.1.1-crop.png


...während das 10bit-HDR-Bild hier die Verläufe besser wiedergibt:

HDR_1.2.1-crop.png

Wow, also das nenne ich mal eine sehr gute Antwort, vielen lieben Dank. Da habe ich gleich einige Sachen neu gelernt. Ich muss auch sagen: das hätte ich selbst nie gesehen. Aber du hast das wirklich sehr detailliert aber auch intuitiv erklärt.
Ich werde also von jetzt an immer in HDR Filmen da ich ja jetzt weiß wie ich es zu konvertieren habe :). Die einzige Sache, bei der ich mir noch etwas unsicher bin, ist die Dateigröße. Beide Varianten haben ja ungefähr die gleiche Größe. Im Handy kann ich bei der Stock-Cam ja "nur" "Hohe Bitrate" einstellen. Da HDR ja dann 10 bit hat müsste die Datei ja eigentlich größer sein. Also müsste da "stärker" komprimiert werden? Aber deine Beispiele haben ja gezeigt, dass HDR trotzdem zu bevorzugen ist, von daher gehe ich mal diesen Weg. Danke nochmal!



Antwort von cantsin:

ME2000 hat geschrieben:
Die einzige Sache, bei der ich mir noch etwas unsicher bin, ist die Dateigröße. Beide Varianten haben ja ungefähr die gleiche Größe. Im Handy kann ich bei der Stock-Cam ja "nur" "Hohe Bitrate" einstellen. Da HDR ja dann 10 bit hat müsste die Datei ja eigentlich größer sein. Also müsste da "stärker" komprimiert werden?
Bei 10bit fallen ggü. 8bit unkomprimiert ja nur 25% mehr Daten an, und der HEVC-/h265-Codec ist gerade für 10bit-HDR ausgelegt. Ich würde mir darüber keine Gedanken machen.

Und, wie gesagt, bei kontrastreichen Motiven (z.B. weißes Haus mit verschatteter Toreinfahrt in knallender Sonne vor blauem Himmel, wobei Du weder willst, dass die Hausfassade oder die Wolken ausbrennen, noch die Toreinfahrt zu einem schwarzen Loch absäuft) sollte HDR-Aufnahme noch viel mehr bringen als bei Deinem Beispielvideo. Zwar dürfte das Samsung-Telefon auch bei SDR die Spitzlichter absenken und Schatten anheben (bzw. Tonemapping betreiben, genau wie Resolve bei der Farbraumumwandlung), um ein stimmiges Gesamtbild zu erzeugen. Aber in dem Moment, in dem Du das Material anfasst, z.B. wenn Du die Schatten in Resolve noch weiter anheben willst, sollte der Unterschied sehr deutlich sichtbar werden.

Der einzige Vorteil der SDR-Aufnahme wäre, wenn Du direkt aus der Kamera Videomaterial haben willst, das Du überall unkompliziert und ohne Nachbearbeitung abspielen kannst bzw. mit dem auch mögliche Arbeitspartner einfach zurechtkommen, weil SDR-Rec709 natürlich der kleinste gemeinsame Nenner ist, der immer funktioniert.



Antwort von ME2000:

cantsin hat geschrieben:
ffprobe (Teil von ffmpeg) sagt, dass das HDR-Videomaterial des Samsung-Smartphones im Rec2020-Farbraum aufgenommen wurde:

Screenshot from 2023-03-18 15-47-22.png



Mit den folgenden Parametern konvertiert es Resolve in ein Bild, das dem SDR-Material direkt aus der Kamera ziemlich nahe kommt:

Screenshot from 2023-03-18 15-46-58.png



Bildvergleich:

sdr-ooc_1.1.2.jpg
SDR-Material direkt aus der Kamera


hdr-to-rec709_1.1.3.jpg
HDR-Material, mit den obigen Parametern nach SDR/Rec709 gewandelt


Nun hat Dein Motiv wenig Kontrast, weswegen man den Unterschied von SDR und HDR in der Dynamikwiedergabe nicht sehen kann. Aber der Unterschied von 10bit zu 8bit wird schon sichtbar, wenn man das Material verbiegt, hier mal mit extremer Kontrastkurve:


SDR_1.1.1.jpg
SDR mit aufgesteiltem Kontrast


HDR_1.2.1.jpg
HDR mit aufgesteiltem Kontrast


Wenn Du die beiden Bilder gut vergleichst, stellst Du fest, dass es in dem 8bit-SDR-Bild bei Farbverläufen und Kontrastkanten Color-Banding gibt (sichtbar an den roten Flecken-Inseln im 1:1-Bildausschnitt):

SDR_1.1.1-crop.png


...während das 10bit-HDR-Bild hier die Verläufe besser wiedergibt:

HDR_1.2.1-crop.png


Hi Cantsin,

sorry, wenn ich nochmal fragen muss.
Ich habe mal versucht, deine Ergebnisse zu replizieren, bekomme es aber absolut nicht hin. Zunächst:
ich habe die gleichen Settings wie du gewählt (Rec.2020, ST2084 4000 nit, "Apply Forward OOTF", in der Timeline die Standard-Settings "Rec.709 Gamma 2.4"). In meiner "Parade" bei den Farben sehe ich schon Unterschiede zwischen SDR und HDR konvertiert, im Bild auch.
Was ich auch nicht ganz verstehe: die Bilder im Bildvergleich "sdr-ooc_1.1.2.jpg" und "hdr-to-rec709_1.1.3.jpg" scheinen wirklich exakt die Gleichen zu sein (beides mal das SDR-Bild). Sie sehen nicht nur gleich aus sondern haben auch exakt die gleiche Dateigröße (bis auf das letzte Byte bei mir)? Oder hat hier "slashcam" einfach was verändert?

Hast du eine Ahnung, woran das alles liegen könnte? Ich nutze die kostenlose Version von DR, könnte es daran liegen?

Danke und schönen Gruß
Marco



Antwort von cantsin:

ME2000 hat geschrieben:
Ich habe mal versucht, deine Ergebnisse zu replizieren, bekomme es aber absolut nicht hin. Zunächst:
Ich muss mich entschuldigen, mir ist beim Screengrab des umgewandelten HDR-VollbIlds eine Verwechselung unterlaufen!

Hier noch mal das SDR-Bild direkt aus der Kamera:
SDR_1.1.1.jpg
Hier jetzt das korrekte mit "Color Space Transform" und den o.g. Parametern umgewandelte HDR-Bild:
HDR_1.2.2.jpg
Wenn man an den Parametern noch ein bisschen schraubt...
Screenshot from 2023-03-19 13-04-43.png
...kann man das Ergebnis dem SDR-Bild visuell noch stärker angleichen:
HDR tweaked_1.2.1.jpg
(Ist jetzt auch im Originalposting korrigiert.)



Antwort von Bruno Peter:

Was machst Du da eigentlich,
das Auge im ersten Bild ist noch scharf...



Antwort von cantsin:

"Bruno Peter" hat geschrieben:
Was machst Du da eigentlich,
das Auge im ersten Bild ist noch scharf...
Das waren die zwei Beispielvideos des TO, wobei in der HDR-Aufnahme ein Kamerawackler saß. Es ging hier aber sowieso nur um Farb- und Dynamikwiedergabe.



Antwort von ME2000:

cantsin hat geschrieben:
ME2000 hat geschrieben:
Ich habe mal versucht, deine Ergebnisse zu replizieren, bekomme es aber absolut nicht hin. Zunächst:
Ich muss mich entschuldigen, mir ist beim Screengrab des umgewandelten HDR-VollbIlds eine Verwechselung unterlaufen!

Hier noch mal das SDR-Bild direkt aus der Kamera:

SDR_1.1.1.jpg


Hier jetzt das korrekte mit "Color Space Transform" und den o.g. Parametern umgewandelte HDR-Bild:

HDR_1.2.2.jpg


Wenn man an den Parametern noch ein bisschen schraubt...

Screenshot from 2023-03-19 13-04-43.png


...kann man das Ergebnis dem SDR-Bild visuell noch stärker angleichen:

HDR tweaked_1.2.1.jpg


(Ist jetzt auch im Originalposting korrigiert.)

Nochmals vielen Dank. Bei mir sieht es irgendwie anders aus (ist jetzt nochmal JPG, aber man sieht die Parade und auch in der Hue vs Hue Curve eine Verschiebung der Farben??) ...
SDR habe ich einfach so gelassen, HDR habe ich nur den einen Color Transform Node mit den gleichen Settings wie bei dir. Project Settings stehen habe ich auch nochmal angefügt.
Hast du die Studio Version? Ich wundere mich ja eh, dass ich das HDR10+ Material überhaupt reinladen kann ...








Antwort von cantsin:

Exportier mal Deine Bilder, indem Du Snapshots in Resolves "Gallery" machst (per Rechtsklick auf das Standbild im "Color Tab") und die dann direkt aus der Gallery (Rechtsklick auf gespeichertes Bild) als JPEG exportiest.

Screenshots des Programms-GUI sind relativ wenig aussagekräftig, da Deine Monitorkalibrierung zwischenfunken kann.



Antwort von ME2000:

cantsin hat geschrieben:
Exportier mal Deine Bilder, indem Du Snapshots in Resolves "Gallery" machst (per Rechtsklick auf das Standbild im "Color Tab") und die dann direkt aus der Gallery (Rechtsklick auf gespeichertes Bild) als JPEG exportiest.

Screenshots des Programms-GUI sind relativ wenig aussagekräftig, da Deine Monitorkalibrierung zwischenfunken kann.

So, habe es mal als PNG exportiert, hoffe das macht Sinn.
Bin bald für ein paar Tage im Urlaub und wollte da "so gut es geht" Videos machen. Wäre halt nur blöd, wenn ich dann HDR nutze und ich es hinterher nicht mehr richtig "color gegradet" bekommen würde oder die Farben einfach "off" sind.



Antwort von cantsin:

ME2000 hat geschrieben:
So, habe es mal als PNG exportiert, hoffe das macht Sinn.
Bin bald für ein paar Tage im Urlaub und wollte da "so gut es geht" Videos machen. Wäre halt nur blöd, wenn ich dann HDR nutze und ich es hinterher nicht mehr richtig "color gegradet" bekommen würde oder die Farben einfach "off" sind.
Weiss zwar nicht, warum das umgewandelte HDR-Bild bei Dir dunkler ist, aber das kannst Du sehr einfach korrigieren, wenn Du in "Color Space Transform" am "Adaptation"-Regler drehst, oder (natürliche) eine einfache Gammakorrektur machst.



Antwort von ME2000:

cantsin hat geschrieben:
ME2000 hat geschrieben:
So, habe es mal als PNG exportiert, hoffe das macht Sinn.
Bin bald für ein paar Tage im Urlaub und wollte da "so gut es geht" Videos machen. Wäre halt nur blöd, wenn ich dann HDR nutze und ich es hinterher nicht mehr richtig "color gegradet" bekommen würde oder die Farben einfach "off" sind.
Weiss zwar nicht, warum das umgewandelte HDR-Bild bei Dir dunkler ist, aber das kannst Du sehr einfach korrigieren, wenn Du in "Color Space Transform" am "Adaptation"-Regler drehst, oder (natürliche) eine einfache Gammakorrektur machst.
OK, danke. Deine Kommentare helfen sehr.
Der Grund warum ich nachfrage ist einfach der: will demnächst mal einige Aufnahmen machen. Wäre dabei sehr ärgerlich, wenn ich das in HDR mache und es nicht "vernünftig" auf SDR bekomme bzw. Probleme beim colorgraden habe, weil Farben einfach nicht passen (in diesem Beispiel hier ist das Rot in der SDR Aufnahme ja schon etwas anders als beim konvertierten HDR Bild; wer weiss, was da noch passieren könnte).
Aber ich denke, ich werde es einfach mal riskieren und in HDR aufnehmen. Danke!



Antwort von wolfgang:

Mich wundern an dieser Diskussion hier ein paar Punkte:

Ja, mit der Gratisversion von Resolve sollte man das HDR Material importieren können - und zu rec709 graden können. Unterschiede zwischen den Versionen liegen offenbar bei der kostenpflichtigen Studio Version in einigen professionelleren Codecs, oder in den Scopes die man auf Nits umstellen kann. Oder auch in den Ausgabeformaten, wo man bei der Studio Version mehr Auswahl hat. Will man zu rec709 graden, dann sollte das gehen

Was die kostenpflichtige Studio Version mehr kann:
https://www.blackmagicdesign.com/de/pro ... lve/studio

Was mich auch wundert ist der Umstand, dass hier zwar im ersten Posting gleich (völlig richtig) darauf hin gewiesen wird, dass man HDR Material besser im HDR Wide Gamut verarbeitet - und dann wird erst mit einer rec709 timeline gearbeitet. Das ist ungünstig, weil etwaige Grading Schritte besser im weiten Farbraum passieren, und erst dann dampft man zu dem schmäleren Farbraum von rec709 ein. Ich würde mir mal etwa bei https://www.youtube.com/watch?v=mCW4FZgv-pc&t=184s was von seinen Projekteinstellungen abschauen (es gibt sicher bessere Links dazu, den habe ich mal auf die Schnelle gefunden).

Was auch nur indirekt raus kommt, ist das Problem, dass man zwar für das Graden zu rec709 tatsächlich nicht unbedingt einen HDR Monitor benötigt, aber auf einem SDR Monitor halt nur das gewandelte Bild sehen kann - und nicht aus HDR10 Ausgangsmaterial. Ok, man kann damit leben.



Antwort von ME2000:

wolfgang hat geschrieben:
Mich wundern an dieser Diskussion hier ein paar Punkte:

Ja, mit der Gratisversion von Resolve sollte man das HDR Material importieren können - und zu rec709 graden können. Unterschiede zwischen den Versionen liegen offenbar bei der kostenpflichtigen Studio Version in einigen professionelleren Codecs, oder in den Scopes die man auf Nits umstellen kann. Oder auch in den Ausgabeformaten, wo man bei der Studio Version mehr Auswahl hat. Will man zu rec709 graden, dann sollte das gehen

Was die kostenpflichtige Studio Version mehr kann:
https://www.blackmagicdesign.com/de/pro ... lve/studio

Was mich auch wundert ist der Umstand, dass hier zwar im ersten Posting gleich (völlig richtig) darauf hin gewiesen wird, dass man HDR Material besser im HDR Wide Gamut verarbeitet - und dann wird erst mit einer rec709 timeline gearbeitet. Das ist ungünstig, weil etwaige Grading Schritte besser im weiten Farbraum passieren, und erst dann dampft man zu dem schmäleren Farbraum von rec709 ein. Ich würde mir mal etwa bei https://www.youtube.com/watch?v=mCW4FZgv-pc&t=184s was von seinen Projekteinstellungen abschauen (es gibt sicher bessere Links dazu, den habe ich mal auf die Schnelle gefunden).

Was auch nur indirekt raus kommt, ist das Problem, dass man zwar für das Graden zu rec709 tatsächlich nicht unbedingt einen HDR Monitor benötigt, aber auf einem SDR Monitor halt nur das gewandelte Bild sehen kann - und nicht aus HDR10 Ausgangsmaterial. Ok, man kann damit leben.

Hi Wolfgang,

vielen lieben Dank. Du kennst dich glaube ich besser aus. Hier ist wie ich es sehe, korrigiere mich bitte wenn ich Unsinn erzähle...
Es gibt wohl Tricks wie ich HDR Videos auch irgendwie auf einem SDR Monitor colorgraden kann, kenne mich damit aber nicht so aus und wuerde das auch eher vermeiden, insbesondere das graden ohne das "richtige" Bild auf dem schirm zu haben. Mir geht es auch gar nicht so sehr um HDR an sich sondern die Tatsache, dass das HDR Material über Smartphone in 10 bit aufgenommen wird. Wenn man also das HDR10 bit "vernuenftig" auf SDR 10 bit timeline konvertieren kann hat hätte ich doch mein Ziel erreicht? Und es scheint ja auch zu funktionieren...

Gruß,
Marco



Antwort von wolfgang:

Auf einem SDR Monitor kannst du HDR-Material eigentlich grundsätzlich nicht zu HDR graden, einfach weil ein SDR Monitor als maximale Helligkeit 100 nits kann (in der Praxis etwas darüber, oft um die 200 nits herum), während ein HDR Monitor für das heute übliche Graden zu HDR eigentlich stabile 1000 nits über den ganzen Bildbereich können soll. Was bedeutet, dass er eine Spitzenluminanz von ca. 1200 bis 1600 nits können sollte.

Wenn du Helligkeiten auf einem SDR Monitor betrachtest, die über den darstellbaren 100 nits liegen, dann können die grundsätzlich nur noch als Weiß dargestellt werden - diese Bildteile erscheinen ausgebrannt. In anderen Worten: du würdest diese Bildteile nicht mehr sehen, und damit kannst es eigentlich nicht mehr sinnvoll bearbeiten.

Technisch kann man sich da noch so behelfen dass diese zu hohen Helligkeiten abgeregelt werden, als im darstellbaren Luminanzbereich des Monitors hineingepresst werden - also indem man ein tonmapping auf tiefere Werte vornimmt. So behelfen sich viele unserer heutigen HDR TVs. Nur für das Einstellen der Luminanz wünscht man sich eher einen Monitor, der explizit nicht ein derartiges Tonmapping durchführt - denn ich will ja das Bild so sehen wie es ist.

Das ist das Problem mit der Gamma-Funktion. Das zweite Problem ist, dass bei rec2020 der Farbraum ein anderer ist als bei SDR-Geräten. Das hast schon fest gestellt, dass etwa rote Bildteile anders dargestellt werden. Spielt man ein HDR-Signal auf einem SDR-Monitor ein, bekommt man auch hier die wunderbarsten und völlig falschen Farben - was gerade Anfänger in dem Bereich schwer verwirrt.

Fazit: willst HDR sinnvoll zu HDR graden und bearbeiten, dann brauchst halt einen vernünftigen HDR-Monitor, der noch dazu die geforderten Spitzenhelligkeiten kann. Beachte, dass so Dinge wie "HDR400" oder "HDR800" diesbezüglich arg irreführend sind - wenn, dann brauchst etwa "HDR1400".

Wenn man jetzt zu SDR graded, dann stellst ohnedies sowohl Gamma wie auch Gamut auf SDR um. Und beurteilst das Bild auf einem (hoffentlich auf SDR kalibrierten) Monitor. Stimmt also, dass einem dann das originale HDR Bild egal sein könnte - welches aber enorme Vorteile hätte, nicht nur wegen der Helligkeit sondern wegen des deutlich umfangreicheren Farbraums. Damit lebt in der Praxis heute wohl sogar eine deutliche Mehrheit an Usern, vor allem weil zumeist als Deliverable noch nicht HDR, sondern eher SDR gefordert wird.

Dies gilt aber nicht für den in den Projekteinstellungen/der Timeline von Resolve gewählten Farbraum. Wenn man schon weiß, dass man mit log oder HDR Material daher kommt, welches einen umfangreicheren Farbraum hat, dann bitte den Farbraum in den Projekteinstellungen so groß einstellen, dass man dieses Material dort graden kann, ohne an den Limits des engeren rec709 anzustehen. Man sollte in Resolve also entweder in ACES, oder dem Blackmagic eigenen Color Management (wide gamut) graden - und erst NACH dem Grading auf rec709 eindampfen.



Antwort von ME2000:

wolfgang hat geschrieben:
Auf einem SDR Monitor kannst du HDR-Material eigentlich grundsätzlich nicht zu HDR graden, einfach weil ein SDR Monitor als maximale Helligkeit 100 nits kann (in der Praxis etwas darüber, oft um die 200 nits herum), während ein HDR Monitor für das heute übliche Graden zu HDR eigentlich stabile 1000 nits über den ganzen Bildbereich können soll. Was bedeutet, dass er eine Spitzenluminanz von ca. 1200 bis 1600 nits können sollte.

Wenn du Helligkeiten auf einem SDR Monitor betrachtest, die über den darstellbaren 100 nits liegen, dann können die grundsätzlich nur noch als Weiß dargestellt werden - diese Bildteile erscheinen ausgebrannt. In anderen Worten: du würdest diese Bildteile nicht mehr sehen, und damit kannst es eigentlich nicht mehr sinnvoll bearbeiten.

Technisch kann man sich da noch so behelfen dass diese zu hohen Helligkeiten abgeregelt werden, als im darstellbaren Luminanzbereich des Monitors hineingepresst werden - also indem man ein tonmapping auf tiefere Werte vornimmt. So behelfen sich viele unserer heutigen HDR TVs. Nur für das Einstellen der Luminanz wünscht man sich eher einen Monitor, der explizit nicht ein derartiges Tonmapping durchführt - denn ich will ja das Bild so sehen wie es ist.

Das ist das Problem mit der Gamma-Funktion. Das zweite Problem ist, dass bei rec2020 der Farbraum ein anderer ist als bei SDR-Geräten. Das hast schon fest gestellt, dass etwa rote Bildteile anders dargestellt werden. Spielt man ein HDR-Signal auf einem SDR-Monitor ein, bekommt man auch hier die wunderbarsten und völlig falschen Farben - was gerade Anfänger in dem Bereich schwer verwirrt.

Fazit: willst HDR sinnvoll zu HDR graden und bearbeiten, dann brauchst halt einen vernünftigen HDR-Monitor, der noch dazu die geforderten Spitzenhelligkeiten kann. Beachte, dass so Dinge wie "HDR400" oder "HDR800" diesbezüglich arg irreführend sind - wenn, dann brauchst etwa "HDR1400".

Wenn man jetzt zu SDR graded, dann stellst ohnedies sowohl Gamma wie auch Gamut auf SDR um. Und beurteilst das Bild auf einem (hoffentlich auf SDR kalibrierten) Monitor. Stimmt also, dass einem dann das originale HDR Bild egal sein könnte - welches aber enorme Vorteile hätte, nicht nur wegen der Helligkeit sondern wegen des deutlich umfangreicheren Farbraums. Damit lebt in der Praxis heute wohl sogar eine deutliche Mehrheit an Usern, vor allem weil zumeist als Deliverable noch nicht HDR, sondern eher SDR gefordert wird.

Dies gilt aber nicht für den in den Projekteinstellungen/der Timeline von Resolve gewählten Farbraum. Wenn man schon weiß, dass man mit log oder HDR Material daher kommt, welches einen umfangreicheren Farbraum hat, dann bitte den Farbraum in den Projekteinstellungen so groß einstellen, dass man dieses Material dort graden kann, ohne an den Limits des engeren rec709 anzustehen. Man sollte in Resolve also entweder in ACES, oder dem Blackmagic eigenen Color Management (wide gamut) graden - und erst NACH dem Grading auf rec709 eindampfen.
Danke Wolfgang für diese umfangreiche Information. Ich glaube nur sie ist zu hoch für mich (wie du an den folgenden Fragen sehen wirst ;) ).
Ich dachte ich könnte auf meinem SDR Monitor weder die hohe NIT Zahl sehen noch einen erweiterten Farbraum sehen. Wenn das stimmt, wie kann ich dann in diesem Farbraum graden, um es dann zu konvertieren? Muss daher die Timeline nicht immer auf Rec.709 mit 10 bit eingestellt sein? Ich reduziere zunächst den Farbraum, habe aber immer noch 10 bit und mache dann mögliche adjustierungen im rec.709 Farbraum?

Danke und Gruß,
Marco



Antwort von wolfgang:

ME2000 hat geschrieben:
Ich dachte ich könnte auf meinem SDR Monitor weder die hohe NIT Zahl sehen noch einen erweiterten Farbraum sehen. Wenn das stimmt, wie kann ich dann in diesem Farbraum graden, um es dann zu konvertieren?
Du musst unterscheiden, was du auf einem Monitor siehst. Und der internen Berechnung.

Willst du auf dem Monitor eine HDR-Vorschau sehen, dann stellst die Timeline in Resolve auf HDR Wide Gamut ein. Solange du keinen LUT für die Vorschau aktivierst, überträgt er dir dann das HDR Bild auf die Vorschau. Hängt dann ein HDR Monitor dran, der das von Gamut und Gamma richtig interpretierst, hast eine korrekte HDR Vorschau.

Übrigens nimmt man bei Resolve eher nicht die Grafikkarten, sondern halt I/O devices, die ein normiertes Signal ausgeben (Decklink 4K Extreme 12G, Ultrastudio 4K mini). Damit umgeht man den Einfluss der Grafikkarte und des Betriebssystems auf die Vorschau. Allerdings macht das nur dann Sinn, wenn man den genutzten Monitor auch kalibriert.

ME2000 hat geschrieben:
Muss daher die Timeline nicht immer auf Rec.709 mit 10 bit eingestellt sein? Ich reduziere zunächst den Farbraum, habe aber immer noch 10 bit und mache dann mögliche adjustierungen im rec.709 Farbraum?
Hier fragst Du in Wirklichkeit nach der internen Berechnung. Und die interne Berechnung von Material mit weiten Farbräumen - sei es log Material oder auch deinem PQ Material - macht man eben idealerweise in weiten Farbräumen. Denn macht man die Berechnungen in kleineren Farbräumen, so wird das in den meisten Fällen zwar gut gehen. Aber in Fällen, wo man das Material massiver verändern will, kommst unnötigerweise und zu früh an Grenzen. DAher die Empfehlung, auch beim Graden zu rec709 eben weite Farbräume zu nutzen (siehe gleich die erste Antwort in diesem Thread).

Die Wandlung von so einem weiten Farbraum für den Zielfarbraum/Zielgamma rec709 macht man dann idealerweise erst im Anschluss an diesen Schritt. Gerade Resolve ist hier absolut vorbildlich, weil es diese Möglichkeit explizit vorsieht. Egal, ob man über eines der beiden Color Managementsysteme, oder über nodes arbeitet.

Für mich sind das die tatsächlich wesentlichen Dinge. Sonst hast halt Klagen, dass die Farbe rot plötzlich und aus unerklärlichen Gründen doch leicht anders aussieht. ;)








Antwort von ME2000:

wolfgang hat geschrieben:
ME2000 hat geschrieben:
Ich dachte ich könnte auf meinem SDR Monitor weder die hohe NIT Zahl sehen noch einen erweiterten Farbraum sehen. Wenn das stimmt, wie kann ich dann in diesem Farbraum graden, um es dann zu konvertieren?
Du musst unterscheiden, was du auf einem Monitor siehst. Und der internen Berechnung.

Willst du auf dem Monitor eine HDR-Vorschau sehen, dann stellst die Timeline in Resolve auf HDR Wide Gamut ein. Solange du keinen LUT für die Vorschau aktivierst, überträgt er dir dann das HDR Bild auf die Vorschau. Hängt dann ein HDR Monitor dran, der das von Gamut und Gamma richtig interpretierst, hast eine korrekte HDR Vorschau.

Übrigens nimmt man bei Resolve eher nicht die Grafikkarten, sondern halt I/O devices, die ein normiertes Signal ausgeben (Decklink 4K Extreme 12G, Ultrastudio 4K mini). Damit umgeht man den Einfluss der Grafikkarte und des Betriebssystems auf die Vorschau. Allerdings macht das nur dann Sinn, wenn man den genutzten Monitor auch kalibriert.

ME2000 hat geschrieben:
Muss daher die Timeline nicht immer auf Rec.709 mit 10 bit eingestellt sein? Ich reduziere zunächst den Farbraum, habe aber immer noch 10 bit und mache dann mögliche adjustierungen im rec.709 Farbraum?
Hier fragst Du in Wirklichkeit nach der internen Berechnung. Und die interne Berechnung von Material mit weiten Farbräumen - sei es log Material oder auch deinem PQ Material - macht man eben idealerweise in weiten Farbräumen. Denn macht man die Berechnungen in kleineren Farbräumen, so wird das in den meisten Fällen zwar gut gehen. Aber in Fällen, wo man das Material massiver verändern will, kommst unnötigerweise und zu früh an Grenzen. DAher die Empfehlung, auch beim Graden zu rec709 eben weite Farbräume zu nutzen (siehe gleich die erste Antwort in diesem Thread).

Die Wandlung von so einem weiten Farbraum für den Zielfarbraum/Zielgamma rec709 macht man dann idealerweise erst im Anschluss an diesen Schritt. Gerade Resolve ist hier absolut vorbildlich, weil es diese Möglichkeit explizit vorsieht. Egal, ob man über eines der beiden Color Managementsysteme, oder über nodes arbeitet.

Für mich sind das die tatsächlich wesentlichen Dinge. Sonst hast halt Klagen, dass die Farbe rot plötzlich und aus unerklärlichen Gründen doch leicht anders aussieht. ;)

OK, ich verstehe es noch nicht aber werde mich weiter einarbeiten und mir danach nochmals deine Kommentare durchlesen.
Für den aktuellen Moment und fuer die Praxis ;) ... ich habe keinen HDR Monitor (also theoretisch kann er das mit geringer NIT Zahl, aber ignorieren wir das), ich nehme in HDR 10 bit auf und brauche SDR Material.
Wie muss ich die Timeline einstellen? Das ist mir leider immer noch nicht klar. Nicht rec.709? Kann ein SDR Monitor einen erweiterten Farbraum darstellen (also das bedeutet doch erweitert im Gegensatz zu rec.709)?

Danke fuer die Hilfe



Antwort von wolfgang:

ME2000 hat geschrieben:
[OK, ich verstehe es noch nicht aber werde mich weiter einarbeiten und mir danach nochmals deine Kommentare durchlesen.
Es betrifft lediglich die höhere Güte der intenen Berechnung. Die kannst halt verbessern.
ME2000 hat geschrieben:
Wie muss ich die Timeline einstellen? Das ist mir leider immer noch nicht klar. Nicht rec.709? Kann ein SDR Monitor einen erweiterten Farbraum darstellen (also das bedeutet doch erweitert im Gegensatz zu rec.709)?

Danke fuer die Hilfe
Darren zeigt im oben verlinkten Video die passenden Einstellungen zu wide gamut. Er nutzt das sowohl für die Ausgabe zur rec709, wie auch zu PQ. Darum hatte ich dir das video ja verlinkt.



Antwort von Paralkar:

Ich glaube dein Verständnisproblem ist, was da genau passiert,

Wenn du kein Color Management nutzt und Color Space Transform zu Rec709 (Timeline Color Space: Rec709) passiert die Wandlung dahin unmittelbar und du arbeitest und gradest nur in diesem beschränkten Farbraum. Bei stark gesättigten Farbtönen und auch hohen Luminanzen kann es dann je nach Einstellung in der Color Space Transform und der Automatik eben dieser zu Abrissen kommen, also Informationen verschluckt werden, da gegebenenfalls der Rot-Ton in deiner original HDR10+ Aufnahme noch da ist, aber bei der Transformation wegfällt, irgendwie muss er ja das maximal rot in deiner original Aufnahme in den deutlich kleineren Farbraum (Rec709) überführen.

Da gibt es verschiedene Möglichkeiten, bsp.: absolut, sprich alles was über dem maximal Rot in Rec709 ist, was im original HDR10+ noch Abstufungen hat, wird abgeschnitten und ist plötzlich das maximal Rot in deinem Rec709, adaptive Methode, er versucht das maximal Rot von deinem original HDR10+ auf maximal Rot (Rec709) zu mappen, und den Rest der Abstufungen irgendwie in den kleineren Farbraum zu mappen, so das Abstufungen erhalten bleiben etc.. Das ganze gilt auch für Luminanzen.

Das kommt auf die Einstellungen im Color Space Transform an, kann aber trotz der besten Einstellung etwas verschlucken.

Wenn du Color Management nutzt und ein deutlich größeren Farbraum (HDR Davinci Wide Gamut), dann passieren erstmal alle arbeiten in einem deutlich größeren Farbraum, der auch deutlich mehr Dynamik Umfang abdeckt. Um am Ende trotzdem in ein Rec709 zu kommen, wird eine ODT (Output Device Transformation) genutzt, die dafür sorgt, das dein Bild auf dem Monitor Rec709 ist und dein finales Rendering.
Du separierst damit den Arbeitsfarbraum, der bei der richtigen größe nichts clippen lässt (Farbe und Luminanzen) und den Output Farbraum. Somit kannst du jederzeit selbst entscheiden wie sollen deine Rottöne und und Luminanzen aussehen, ohne das deine Bildinformationen von Anfang an beschnitten und weg sind.

Hoffe ich konnte das halbwegs verständlich erklären, ist etwas Arbeit Scene Referred und Display Referred zu verstehen und der Unterschied wann die Wandlung in letzteres passiert...



Antwort von wolfgang:

Paralkar hat geschrieben:
Da gibt es verschiedene Möglichkeiten, bsp.: absolut, sprich alles was über dem maximal Rot in Rec709 ist, was im original HDR10+ noch Abstufungen hat, wird abgeschnitten und ist plötzlich das maximal Rot in deinem Rec709, adaptive Methode, er versucht das maximal Rot von deinem original HDR10+ auf maximal Rot (Rec709) zu mappen, und den Rest der Abstufungen irgendwie in den kleineren Farbraum zu mappen, so das Abstufungen erhalten bleiben etc.. Das ganze gilt auch für Luminanzen.
...
Wenn du Color Management nutzt und ein deutlich größeren Farbraum (HDR Davinci Wide Gamut), dann passieren erstmal alle arbeiten in einem deutlich größeren Farbraum, der auch deutlich mehr Dynamik Umfang abdeckt. Um am Ende trotzdem in ein Rec709 zu kommen, wird eine ODT (Output Device Transformation) genutzt, die dafür sorgt, das dein Bild auf dem Monitor Rec709 ist und dein finales Rendering.
Du separierst damit den Arbeitsfarbraum, der bei der richtigen größe nichts clippen lässt (Farbe und Luminanzen) und den Output Farbraum. Somit kannst du jederzeit selbst entscheiden wie sollen deine Rottöne und und Luminanzen aussehen, ohne das deine Bildinformationen von Anfang an beschnitten und weg sind.
Ich suche nach einem Beispiel, welches das vielleicht noch verdeutlicht. Nehmen wir ein Tanzpaar, welches ausgezeichnet tanzt. Etwa bei einem Turnier. Die brauchen ihren Platz. Tanzen die einmal in einem kleinen 10m2 Raum, dann geht das zwar auch, nur steht man halt an der Enge des Raumes an. Wirklich schön wird es, wenn man in einem tollen 50m2 Raum genug Platz hat, und alles austanzen kann.

Und beim Graden im kleinen Farbraum von rec709 ist es halt ähnlich - man steht früher an. Beim großen Tanzraum - ACES oder wide gamut - ist das halt deutlich später der Platz. Vor allem, wenn schon in einem weiten Farbraum aufgenommen worden ist.

Paralkar hat geschrieben:
Hoffe ich konnte das halbwegs verständlich erklären, ist etwas Arbeit Scene Referred und Display Referred zu verstehen und der Unterschied wann die Wandlung in letzteres passiert...
Ich fürchte, jetzt überforderst ihn.... :)



Antwort von dienstag_01:

Timeline Color Space erklärt:

https://www.youtube.com/watch?v=8geDbNpH5cI



Antwort von wolfgang:

Ja, Darren ist immer wieder ein echter Genuss mit seinen auf den Punkt gebrachten Präsentationen.



Antwort von cantsin:

Der Workflow, mit Rec709 als Timeline-Colorspace zu arbeiten und dann das HDR-Material per Color Space Transform nach Rec709 zu bringen, ist in der Praxis aber erheblich einfacher, wenn das Ziel nur SDR-Video ist.

Und zwar aus zwei einfachen Gründen:

- in CST kann man die Tone Mapping-Parameter händisch optimieren - und zwar so, dass das gesamte Material (z.B. per Timeline- oder Group-Node) optimal umgewandelt wird und man im Endmaterial kein Highlight-Clipping wegen des kleineren Farbraums kriegt (vorausgesetzt natürlich, es ist auch kein Clipping im HDR-/Ausgangs-Material vorhanden).

Wenn man hingegen die Timeline auf einen weiteren Farbraum (wie z.B. Davinci Wide Gamut Intermediate) setzt und dann Rec709 als Ausgabe-Farbraum definiert, funktioniert das Tone Mapping nicht so gut, und man muss allerlei händische Belichtungskorrekturen machen.

- die Standard-Farbkorrektur-Tools Lift/Gamma/Gain sind sowieso nicht Color Management-aware und funktionieren nur für Rec709 richtig.


Mir ist schon klar, dass es der sauberere und eigentlich bessere Workflow ist, um auf der Timeline in einem weiteren Farbraum zu arbeiten als Rec709, aber in diesem Fall hat die abgekürzte/unsauberere Lösung IMHO Praxisvorteile.



Antwort von Bruno Peter:

Der schnellste Weg um von HLG3 BT.2020 zum finalen BT.709 zu gelangen bietet diese Transform-LUT an.

https://www.adamxwebb.com/hlg-luts



Antwort von wolfgang:

Bruno, der filmt in PQ mit seinem Handy. Und nicht mit HLG.








Antwort von wolfgang:

cantsin hat geschrieben:
Der Workflow, mit Rec709 als Timeline-Colorspace zu arbeiten und dann das HDR-Material per Color Space Transform nach Rec709 zu bringen, ist in der Praxis aber erheblich einfacher, wenn das Ziel nur SDR-Video ist.
Ist er das? Ich bin mir da gerade nicht so sicher.
cantsin hat geschrieben:
- in CST kann man die Tone Mapping-Parameter händisch optimieren - und zwar so, dass das gesamte Material (z.B. per Timeline- oder Group-Node) optimal umgewandelt wird und man im Endmaterial kein Highlight-Clipping wegen des kleineren Farbraums kriegt (vorausgesetzt natürlich, es ist auch kein Clipping im HDR-/Ausgangs-Material vorhanden).
Dieses "man kann" ist natürlich erst wieder ein Aufwand. Gerade, wenn man noch nicht mal weiß, was Nodes so sind, wie das hier (noch) der Fall ist.
cantsin hat geschrieben:
Wenn man hingegen die Timeline auf einen weiteren Farbraum (wie z.B. Davinci Wide Gamut Intermediate) setzt und dann Rec709 als Ausgabe-Farbraum definiert, funktioniert das Tone Mapping nicht so gut, und man muss allerlei händische Belichtungskorrekturen machen.

- die Standard-Farbkorrektur-Tools Lift/Gamma/Gain sind sowieso nicht Color Management-aware und funktionieren nur für Rec709 richtig.
Tja, nur ist man allerdings im Color Managed Modus nicht gezwungen, mit dem Standard Farbkorrektur Tool zu arbeiten. Da sind dann wohl die log Wheels oder die HDR wheels sinnvoller, weil durchaus CM-aware. Aber zugegeben, gerade die HDR wheels sind definitiv auch nicht einfacher in der Bedienung als das Arbeiten mit CSTs.

Ist halt die Frage, ob es nicht gerade für den Einsteiger sinnvoll ist, gleich zu lernen wie man sauber arbeitet. Und den nicht in Fallen tappen zu lassen, selbst wenn es praktisch ist. Und dann seine eigenen Vorlieben für die workflows zu entwickeln, aus dem Erleben der Vor- und Nachteile heraus. Aber egal, welchen Weg jemand nimmt, Resolve hat natürlich einen enormen Komplexitätsgrad, und da ist eh eine steile Lernkurve angesagt.



Antwort von Bruno Peter:

wolfgang hat geschrieben:
Bruno, der filmt in PQ mit seinem Handy. Und nicht mit HLG.
Das würde ich nie machen, mein HDR-Lieblingsformat ist die HLG3-Aufnahme.



Antwort von Frank Glencairn:

cantsin hat geschrieben:


- die Standard-Farbkorrektur-Tools Lift/Gamma/Gain sind sowieso nicht Color Management-aware und funktionieren nur für Rec709 richtig.
Ähem....

image_2023-03-22_165258587.png



Antwort von Frank Glencairn:

"Bruno Peter" hat geschrieben:
Der schnellste Weg um von HLG3 BT.2020 zum finalen BT.709 zu gelangen bietet diese Transform-LUT an.
Ne LUT für die Transformation von HLG3 zu 709?

Autsch!

Na ja, bei dem 8bit Material isses auch schon wurscht.



Antwort von Bruno Peter:

"Frank Glencairn" hat geschrieben:

Na ja, bei dem 8bit Material isses auch schon wurscht.
Das 8Bit(HLG3) Material von Sony reicht aus für mich, ich muss da im Color-Management nichts auf den Kopf stellen.



Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
cantsin hat geschrieben:


- die Standard-Farbkorrektur-Tools Lift/Gamma/Gain sind sowieso nicht Color Management-aware und funktionieren nur für Rec709 richtig.
Ähem....


image_2023-03-22_165258587.png
Ist das wirklich so? Im Resolve-Handbuch (S. 224) ist die einzige Information zu dieser Option "Other palettes, such as the Qualifier and Curves palettes, become color space aware when you turn on the 'Use Color Space Aware Grading Tools' checkbox".

Darren Mostyn zufolge sind Lift/Gamma/Gain jedoch nicht 'Color Space-Aware':
https://youtu.be/8geDbNpH5cI?t=266

Das Video ist 8 Monate alt und bezieht sich auf Resolve 18.



Antwort von ME2000:

Da komme ich von der Arbeit und sehe hier eine so intensive Diskussion. Sehr schön aber für mich natürlich überwältigend.
Ich mache aktuell einen (meiner Meinung nach sehr guten) colorgrading Kurs bei Udemy und kenne also schon Nodes und sowas wie Primary und secondary grading, lift/Gamma etc. Nur bei den color farbräumen und hdr grading kenne ich mich nicht aus.
Ich muss mir nochmal meinen Monitor genauer anschauen wie das dort mit den Farbräumen aussieht. Wenn ich das richtig verstehe kann ich also in der DR free Version auch auf einem SDR Monitor im erweiterten Farbraum color Graden und dann nach REC.709 exportieren? Und dies ist eigentlich der "richtige" weg? Die Alternative wäre direkt nach REC.709 zu konvertieren und dann zu Graden?



Antwort von Darth Schneider:

Vielleicht naive Frage, aber:
Und was spricht denn eigentlich gegen mit 10 Bit im Rec709 Farbraum aufnehmen, bearbeiten und auch gleich auch so anschauen wenn du ja eh gar kein HDR Monitor/TV besitzt ?
Gruss Boris



Antwort von cantsin:

ME2000 hat geschrieben:
Nur bei den color farbräumen und hdr grading kenne ich mich nicht aus.
Ich muss mir nochmal meinen Monitor genauer anschauen wie das dort mit den Farbräumen aussieht.

Die traurige Realität ist, dass Du mit heutigen PC-Setups nur sRGB (bzw. Rec709)-Workflows hinkriegst. Resolve hat eine verlässliche Videoausgabe in erweiterten Farbräumen nur dann, wenn man eine Decklink-Karte statt einer normalen Grafikkarte verwendet.

Unter MacOS und bei neueren Macs gibt's noch die Möglichkeit, das Monitorbild in "Display P3" auszugeben (das leider ein Apple-Eigengebräu und nicht kompatibel zu Standard-P3 ist), und in Foren sind Hacks/Workarounds beschrieben, wie man das auch mit Resolve nutzen kann.

Standardweisheit ist aber: Ohne Decklink-Karte und Wide-Gamut-Monitor (der Farbräume und Gammas wie P3 und Rec2020 unterstützt) läuft nur Rec709/sRGB. Ein großes Problem sind dabei auch die Betriebssysteme, die in ihrer Unterstützung erweiterter Farbräume noch extrem eingeschränkt sind.
Wenn ich das richtig verstehe kann ich also in der DR free Version auch auf einem SDR Monitor im erweiterten Farbraum color Graden und dann nach REC.709 exportieren? Und dies ist eigentlich der "richtige" weg? Die Alternative wäre direkt nach REC.709 zu konvertieren und dann zu Graden?
Der von wolfgang vorgestellte Weg ist, dass Du das Material auf der Timeline in einem erweiterten Farbraum gradest und dann Resolve-intern Rec709 als Monitor- und Renderingsausgabe definierst.

Das ist ungefähr so, als wenn Du ein Audioprojekt in 24bit/96Hz bearbeitest, auch wenn Du es in 16bit/44Hz abhörst und exportierst. Du hast dann halt im Projekt selbst mehr Spielraum/Bandbreite bei der Bearbeitung des Signals.








Antwort von ME2000:

"Darth Schneider" hat geschrieben:
Vielleicht naive Frage, aber:
Und was spricht denn eigentlich gegen mit 10 Bit im Rec709 Farbraum aufnehmen, bearbeiten und auch gleich auch so anschauen wenn du ja eh gar kein HDR Monitor/TV besitzt ?
Gruss Boris

Hier kommt dann wieder der Anfängerteil zum tragen...kann das Handy nicht. Ich kann SDR 8 bit oder HDR 10 bit aufnehmen ;). Traurig aber so schaut es wohl aus



Antwort von ME2000:

cantsin hat geschrieben:
ME2000 hat geschrieben:
Nur bei den color farbräumen und hdr grading kenne ich mich nicht aus.
Ich muss mir nochmal meinen Monitor genauer anschauen wie das dort mit den Farbräumen aussieht.

Die traurige Realität ist, dass Du mit heutigen PC-Setups nur sRGB (bzw. Rec709)-Workflows hinkriegst. Resolve hat eine verlässliche Videoausgabe in erweiterten Farbräumen nur dann, wenn man eine Decklink-Karte statt einer normalen Grafikkarte verwendet.

Unter MacOS und bei neueren Macs gibt's noch die Möglichkeit, das Monitorbild in "Display P3" auszugeben (das leider ein Apple-Eigengebräu und nicht kompatibel zu Standard-P3 ist), und in Foren sind Hacks/Workarounds beschrieben, wie man das auch mit Resolve nutzen kann.

Standardweisheit ist aber: Ohne Decklink-Karte und Wide-Gamut-Monitor (der Farbräume und Gammas wie P3 und Rec2020 unterstützt) läuft nur Rec709/sRGB. Ein großes Problem sind dabei auch die Betriebssysteme, die in ihrer Unterstützung erweiterter Farbräume noch extrem eingeschränkt sind.
Wenn ich das richtig verstehe kann ich also in der DR free Version auch auf einem SDR Monitor im erweiterten Farbraum color Graden und dann nach REC.709 exportieren? Und dies ist eigentlich der "richtige" weg? Die Alternative wäre direkt nach REC.709 zu konvertieren und dann zu Graden?
Der von wolfgang vorgestellte Weg ist, dass Du das Material auf der Timeline in einem erweiterten Farbraum gradest und dann Resolve-intern Rec709 als Monitor- und Renderingsausgabe definierst.

Das ist ungefähr so, als wenn Du ein Audioprojekt in 24bit/96Hz bearbeitest, auch wenn Du es in 16bit/44Hz abhörst und exportierst. Du hast dann halt im Projekt selbst mehr Spielraum/Bandbreite bei der Bearbeitung des Signals.
OK, vom Prinzip irgendwie klar. Wäre dieser Weg nicht in DR dann so ... meine settings sehen so aus ...
Davinci yrgb color managed
Automatic color management on
Color processing mode: HDR
Output color space: SDR Rec.709

Dann würde ich in der timeline in HDR arbeiten, exportieren in Rec.709 und bräuchte keine Node mehr fuer "color space transform".

Und wenn jetzt jemand sagt das wäre falsch oder dumm dann lass ich es 😉



Antwort von cantsin:

ME2000 hat geschrieben:
Davinci yrgb color managed
Automatic color management on
Color processing mode: HDR
Output color space: SDR Rec.709

Dann würde ich in der timeline in HDR arbeiten, exportieren in Rec.709 und bräuchte keine Node mehr fuer "color space transform".

Und wenn jetzt jemand sagt das wäre falsch oder dumm dann lass ich es 😉
Nee, das ist der auch von wolfgang vorgeschlagene, saubere Workflow.

Nur passiert dann (leider), was ich auch in meiner Antwort an ihn schrieb, nämlich dass Du keine händische Kontrolle mehr über die Transformation hast und mehr Handarbeit angesagt ist.

Hier nochmal Dein SDR-Referenzbild:
SDR_1.1.1.jpg
Hier das von HDR nach SDR umgewandelte Bild mit dem obigen, sauberen Workflow:
HDR color managed_1.1.1.jpg
Und hier nochmal das von HDR händisch, per Color Space Transform, nach SDR gewandelte Bild in einer Rec709-Timeline - bzw. der ursprünglich von mir vorgestellte, 'unsaubere' Workflow:
HDR tweaked_1.2.1.jpg
(Und, wie ich bereits weiter oben schrieb, handelt man sich mit dem sauberen Color Managed-Workflow Highlight-Clipping ein, wenn man nicht jeden Clip anschließend händisch korrigiert. Hier der Waveform-Monitor des zweiten Bilds:
Screenshot from 2023-03-22 20-35-47.png Das ist übrigens eine blöde Beschränkung von Resolve. Denn es gibt eigentlich keinen guten Grund dafür, warum man Tone Mapping nicht auch in den Color Management-Projekteinstellung aktivieren kann.)



Antwort von Darth Schneider:

@ME2000
Dann nimm doch einfach gleich mit h265, 8Bit in Rec709 auf.
Oder wenn du wirklich HDR willst, dann kauf dir ein HDR Fernseher…

Ist ja nicht so das 8 oder 10 Bit so genutzt wirklich einen sichtbaren Unterschied macht.
Und h265 ist ja ein sehr effizientes, modernes Paket.

Das macht nur einen Unterschied wenn du heftig Colorgrading machst.
Aber nur zum von HDR in SDR umwandeln doch eigentlich gar nicht wirklich.

Dann kannst du mit dem Smartphone genauso gut von Anfang an bei 8 Bit/SDR bleiben, wenn das Endprodukt gar kein HDR sein soll, finde ich jetzt.

Für mich tönt das nach sehr viel Wind um gar nicht viel…
Gruss Boris



Antwort von ME2000:

"Darth Schneider" hat geschrieben:
@ME2000
Dann nimm doch einfach gleich mit h265, 8Bit in Rec709 auf.
Oder wenn du wirklich HDR willst, dann kauf dir ein HDR Fernseher…

Ist ja nicht so das 8 oder 10 Bit so genutzt wirklich einen sichtbaren Unterschied macht.
Und h265 ist ja ein sehr effizientes, modernes Paket.

Das macht nur einen Unterschied wenn du heftig Colorgrading machst.
Aber nur zum von HDR in SDR umwandeln doch eigentlich gar nicht wirklich.

Dann kannst du mit dem Smartphone genauso gut von Anfang an bei 8 Bit/SDR bleiben, wenn das Endprodukt gar kein HDR sein soll, finde ich jetzt.

Für mich tönt das nach sehr viel Wind um gar nicht viel…
Gruss Boris

Ja, ich gebe dir Recht .. es ist natürlich auch etwas "Spielerei" dabei was daran liegt, dass ich auch gerade diesen colorgrading Kurs mache. Ich glaube auch dass die "nicht optimale Qualität" meines Videos am Ende nicht an den 8 vs 10 bit liegt sondern an anderen Unzulänglichkeiten beim Filmen. Aber es interessiert/reizt mich das Beste rauszuholen, auch wenn man vielleicht in der Zukunft mal einen Gang hoch schaltet und sich eine richtige Kamera kauft.



Antwort von Paralkar:

Naja 8 bit kann schon bei sowas einfachem wie nem Himmel mit vielen Nuancen zu Banding f?hren, da braucht es noch nichtmal "heftiges Grading".

@ Cantsin, ich vermute BM geht bei sowas wie Color Management ehh von nem Grading aus, abgesehen davon passiert das Tone Mapping ja mittels IDT bzw. ODT.

Und da sollte ja in Wirklichkeit alles noch da sein und nix geclippt, sobald man den Offset etwas runterzieht....



Antwort von ME2000:

Danke nochmal an Alle. Dann glaube habe ich es doch (hoffentlich) einigermaßen verstanden. Wichtig ist für mich ... wenn ich jetzt in HDR 10 bit aufnehme kann ich es hinterher in DR konvertieren. Ob mittels "sauberen" oder vielleicht nicht ganz so sauberen Weg. Ich glaube ich wüsste jetzt auch, wie ich das in DR einstelle, und glaube zu wissen wo die Unterschiede sind und würde beide Varianten einmal ausprobieren, wenn ich meine Videos alle aufgenommen habe.



Antwort von wolfgang:

"Bruno Peter" hat geschrieben:
wolfgang hat geschrieben:
Bruno, der filmt in PQ mit seinem Handy. Und nicht mit HLG.
Das würde ich nie machen, mein HDR-Lieblingsformat ist die HLG3-Aufnahme.
Na großartig. Jetzt ist also HLG3 schon etwas anderes als HLG. :)

Nur damit hier auch das gesagt wird: lange diskutiert, und immer wieder ist gesagt worden, dass HLG als Distributionsformast gedacht ist, und für die Aufnahme definitiv nicht ideal ist. Wenn, dann macht man da halt eher nur harte Schnitte, ohne das Material aufgrund der wenigen Informationen in den oberen Blendenstufen zu graden. UND das ist halt eigentlich nicht ideal. ABER jeder wie er halt mag, gell Bruno?



Antwort von wolfgang:

"Frank Glencairn" hat geschrieben:
"Bruno Peter" hat geschrieben:
Der schnellste Weg um von HLG3 BT.2020 zum finalen BT.709 zu gelangen bietet diese Transform-LUT an.
Ne LUT für die Transformation von HLG3 zu 709?

Autsch!

Na ja, bei dem 8bit Material isses auch schon wurscht.
So ist es. Bruno ist diesbezüglich nachweislich nicht umzustimmen. Ist eh sein Material, ist eh wurscht wie du so schön sagst!








Antwort von wolfgang:

Zur Frage der "mehr Handarbeit": also da ich von BRAW oder slog oder vlog komme, bin ich es gewohnt mein Material eigentlich immer zumindest minimal zu graden. Da ist die Helligkeitsanpassung als erster Schritt halt sowieso immer drinnen. Die Frage ist eigentlich daher, wie die Arbeitsgewohnheiten hier aussehen.

Ich finde es interessant, dass man mit diesem Smartphone entweder zu 8bit in SDR, nicht aber zu 10bit in SDR filmen kann. Klingt eigentlich eher absurd. Ich habe sicher nichts gegen einen 10bit workflow - aber wurde hier eh oft diskutiert, dass ja gerade im kommerziellen Umfeld oft aus Gründen der Zeitersparnis man auch nicht mehr nachzubearbeitendes 8bit Material haben will. Hier scheint es aber eher ums Hobby zu gehen, und da ist die Zeit dann weniger wichtig. Vielleicht gäbe es aber eine App, mit der man auch zu 10bit in SDR filmen könnte?



Antwort von wolfgang:

cantsin hat geschrieben:
Die traurige Realität ist, dass Du mit heutigen PC-Setups nur sRGB (bzw. Rec709)-Workflows hinkriegst. Resolve hat eine verlässliche Videoausgabe in erweiterten Farbräumen nur dann, wenn man eine Decklink-Karte statt einer normalen Grafikkarte verwendet.

Unter MacOS und bei neueren Macs gibt's noch die Möglichkeit, das Monitorbild in "Display P3" auszugeben (das leider ein Apple-Eigengebräu und nicht kompatibel zu Standard-P3 ist), und in Foren sind Hacks/Workarounds beschrieben, wie man das auch mit Resolve nutzen kann.

Standardweisheit ist aber: Ohne Decklink-Karte und Wide-Gamut-Monitor (der Farbräume und Gammas wie P3 und Rec2020 unterstützt) läuft nur Rec709/sRGB. Ein großes Problem sind dabei auch die Betriebssysteme, die in ihrer Unterstützung erweiterter Farbräume noch extrem eingeschränkt sind.
Auch mich nervt diese Einschränkung bei Resolve, nur über die Blackmagic I/O Karten (Decklink 4K Extreme 12G, Ultrastudio 4K mini bei mir) Produkte ein garantiert sauberes Vorschaubild beim Schnitt ausgeben zu können. Nicht nur das die was kosten - was definitiv ähnlich viel, aber auch schnell mehr kostet ist dann ein guter, kalibrierbarer HDR-Monitor, der stabil seine 1000 nits kann.

Es ist schon interessant, dass Resolve offenbar nur unter dem MAC auch ein Vorschaubild ohne diese I/O Karten - also nur über die sonst verpönte GPU - hin bekommt. Unter Windows machen die das nicht. Unter Windows kenne ich nur ein einziges Produkt, nämlich Vegas Pro, welches auf über die GPU ein HDR Bild auf einem HDR Monitor ausgibt.

Tatsächlich helfen sich dann viele mit der Nutzung von HDR-TVs und einer Ultrastudio 4K I/O box. Aber nicht alle HDR-TVs sind dafür auch nur halbwegs geeignet.



Antwort von Frank Glencairn:

wolfgang hat geschrieben:


So ist es. Bruno ist diesbezüglich nachweislich nicht umzustimmen. Ist eh sein Material, ist eh wurscht wie du so schön sagst!
8Bit und HDR sollten sowieso nicht in einem Satz stehen.



Antwort von Bruno Peter:

wolfgang hat geschrieben:

So ist es. Bruno ist diesbezüglich nachweislich nicht umzustimmen. Ist eh sein Material, ist eh wurscht wie du so schön sagst!
Das ist das Material welches von den Sony-Kamera in HLG 8Bit geliefert wird,
es gibt eine ganze Serie verschiedener Ausführungen davon. Die meisten Anwender
dieser Sony Kameras kommen damit zurecht, weil man praktisch kaum ein Color-
Grading benötigt. Sättigung und Kontrast müssen ja nicht gedehnt werden.
Das Gespenst "Banding" habe ich bei meinen privaten Produktionen noch nicht gesehen!
Einfach die Kamera mit dem HDR-TV verbinden und schon hat man ein gute HDR-TV Bild,
besonders auf einem LG OLED-TV.

Eine 10Bit Video-Kamera interessiert mich derzeit noch nicht!



Antwort von ME2000:

wolfgang hat geschrieben:
Zur Frage der "mehr Handarbeit": also da ich von BRAW oder slog oder vlog komme, bin ich es gewohnt mein Material eigentlich immer zumindest minimal zu graden. Da ist die Helligkeitsanpassung als erster Schritt halt sowieso immer drinnen. Die Frage ist eigentlich daher, wie die Arbeitsgewohnheiten hier aussehen.

Ich finde es interessant, dass man mit diesem Smartphone entweder zu 8bit in SDR, nicht aber zu 10bit in SDR filmen kann. Klingt eigentlich eher absurd. Ich habe sicher nichts gegen einen 10bit workflow - aber wurde hier eh oft diskutiert, dass ja gerade im kommerziellen Umfeld oft aus Gründen der Zeitersparnis man auch nicht mehr nachzubearbeitendes 8bit Material haben will. Hier scheint es aber eher ums Hobby zu gehen, und da ist die Zeit dann weniger wichtig. Vielleicht gäbe es aber eine App, mit der man auch zu 10bit in SDR filmen könnte?
Gibt tatsächlich eine andere App, aber die hat dann wieder andere Probleme (OIS läuft nicht so stabil, keine 4k 60fps, etc.) Die Handyhersteller wollen teilweise die Drittapps nicht haben und sperren scheinbar bewusst einzelne Bereiche.
Probiere aber auch eine App, die in RAW Videos aufnehmen kann. Noch so eine Spielerei aber ganz witzig, es auf die Spitze zu treiben 😉



Antwort von wolfgang:

Filmic Pro gibt es, ist inzwischen aber auf ein Abo Modell umgestiegen - was viele stört. Eine Alternative wäre Cinema P3 https://www.blackburnapps.com/cinemap3/

Weiß aber weder was du jetzt so nutzt, noch was du da für ein Handy hast. iPhone? Android?



Antwort von Darth Schneider:

ME2000
Oder wenn du ein iPad hast oder dir mal eins zulegen möchtest dann läuft auch Resolve darauf.
Ich finde das ja immer noch unglaublich das das überhaupt möglich ist…;)

Was kann denn fimic Pro was Resolve nicht kann ?
Oder geht es dir nur darum gleich mit dem Smartphone schneiden zu können ?

Es würde mich auch interessieren was für ein Smartphone du nutzt ?
Das das Teil 10 Bit HDR aufnehmen kann, aber kein 10 Bit SDR ist schon seltsam…

Gruss Boris



Antwort von wolfgang:

"Darth Schneider" hat geschrieben:
Was kann denn fimic Pro was Resolve nicht kann ?
Ist eine reine Filmer-Software. Und hat mit Resolve nichts zu tun.



Antwort von Darth Schneider:

Gibt es inzwischen nicht Apps die beides können, filmen und bearbeiten ?
Wäre doch sinnvoll, gerade für Smartphones.
Ich hab gelesen z.B. beim mobilen Lightroom kann man auch fotografieren.
Gruss Boris








Antwort von ME2000:

wolfgang hat geschrieben:
Filmic Pro gibt es, ist inzwischen aber auf ein Abo Modell umgestiegen - was viele stört. Eine Alternative wäre Cinema P3 https://www.blackburnapps.com/cinemap3/

Weiß aber weder was du jetzt so nutzt, noch was du da für ein Handy hast. iPhone? Android?

Ich nutze das Samsung S23 Ultra.
Das 10 bit SDR nicht geht liegt einfach an der Standard Kamera app.
Ich habe mir diverse andere Apps angeschaut...
1. FilmicPro: hier kann man angeblich inzwischen 8k 60fps mit dem S23 aufnehmen. Aber für mich (wie viele Andere denke ich) ist die monatliche Fee dort einfach zu hoch, kann also die 8k 60fps nicht verifizieren.
2. McPro24fps: die sind eigentlich sehr gut. Das Problem ist hier ... es funktioniert nicht so flüssig mit dem neuen Samsung. Hier meine Vermutung (!) ... es ist eine russische Firma und sie haben aktuell kein S23, dass sie auch nutzen können um weiter zu entwickeln. Da gibt es einen eigenen Roman zu erzählen.
3. MotionCam: die sind wirklich gut. Wie gesagt raw videos mit der Möglichkeit auch nach prores cinelog und so etwas zu konvertieren oder direkt als raw mit oder ohne noise reduction zu exportieren. Gibt auch eine Reihe Beispielvideos dazu bei Youtube.

Es gibt noch diverse andere Android Apps, aber ich glaube das sind die Wichtigsten.

Gruß,
Marco



Antwort von Frank Glencairn:

ME2000 hat geschrieben:

Hier meine Vermutung (!) ... es ist eine russische Firma und sie haben aktuell kein S23, dass sie auch nutzen können um weiter zu entwickeln. Da gibt es einen eigenen Roman zu erzählen.
Natürlich gibt's das, kostet zwischen 84.000 und 95.445 Rubel - also sogar billiger als hier.

https://www.ozon.ru/category/s23-ultra- ... CUEALw_wcB



Antwort von ME2000:

"Frank Glencairn" hat geschrieben:
ME2000 hat geschrieben:

Hier meine Vermutung (!) ... es ist eine russische Firma und sie haben aktuell kein S23, dass sie auch nutzen können um weiter zu entwickeln. Da gibt es einen eigenen Roman zu erzählen.
Natürlich gibt's das, kostet zwischen 84.000 und 95.445 Rubel - also sogar billiger als hier.

https://www.ozon.ru/category/s23-ultra- ... CUEALw_wcB

OK, aber sie scheinen es trotzdem nicht zu haben, ich verfolge deren Telegramm-Kanal ;)
FilmicPro scheint es erhalten zu haben. Wenn es halt eine noch kleinere Firma ist, dann können die natürlich nicht jedes Modell kaufen, das ist mir natürlich auch klar.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen:
DaVinci Resolve 18.1.4 Update
DaVinci Resolve: Wie erkennen, ob Quellmaterial Rec.709 oder Rec.2020?
Davinci Resolve Experte für 1h Tutorial gesucht
Input Farbprofil für Davinci
Davinci Resolve: "Voice Isolation" umgekehrt
Davinci Resolve stürzt nach Update auf VENTURA ab
DaVinci Resolve 18 Beta 6 ist da
Wie DaVinci Resolve 17 und 18 Beta parallel nutzen?
Canon R5 Ninja V DaVinci Resolve
DaVinci Resolve 18 Beta 4 Update
Eure Erfahrung mit magic mask in DaVinci Resolve?
Davinci 17 - Soundproblem mit All Intra
FiLMiC Pro 6.13 ermöglicht 10-Bit SDR Video Aufnahme mit iPhone 12
Panasonic SDR-S150 (SDR-S150EG-S) Nachfolger ?
Preisknaller GPU für DaVinci Resolve? Nvidia RTX 2060 Super mit 256 Bit / 8GB RAM
HDR in SDR wandeln?
Ist HDR10+ eine reine Luftnummer?
LG 34WN80C: Extrabreiter UWQHD Monitor mit HDR10 und USB-C
LG 38WK95C: Curved 38" UltraWide HDR10 Monitor mit 3.840 x 1.600
Die HDR-Wheels in DVR 17 auch für SDR erklärt
Wie herausfinden, ob echtes 10-bit video vorliegt o. 8bit Quelle in 10-bit Container?
Sound von 8 Bit Mono in 16 Bit Stereo umwandeln...
ViewSonic VP2768-4K: professioneller 27 Zöller mit 4K, HDR10 und 100% sRGB
LG 32UK550-B: 4K 32" HDR10-Monitor mit 95% DCI-P3 für nur 500 Dollar
AJA ColorBox: HDR/SDR/LUT-Transform: Der neue Standard für DITs am Set?
Die Panasonic S1H in der Praxis: Die neue Vollformat-Referenz? Hauttöne, 6K 10 Bit intern, 4K 50p 10 Bit - Teil 1

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom