Natürlich tut sie das. Wie soll sie denn sonst aussehen?
Ach, es gibt viele Tricks, nach denen man vergeblich sucht. Ausprobieren ist da oft die einzige Möglichkeit.
Da es sich bei dem HDR-Material um 10bit-Log handelt, solltest Du erheblich mehr Spielraum bei der Farb- und Belichtungskorrektur haben als bei 8bit-SDR-Material.
Es geht darum das Vorgehen mit Fachwissen zu untermauern. Ich kenne mich da nicht so gut aus. Ausserdem sind die Unterschiede auch nicht so offensichtlich. Vielleicht mache ich ja auch was falsch, z.B. bei der Umwandlung von HDR auf SDR. Vielleicht hat es ja auch schon jemand ausprobiert. Vielleicht ist meine Herangehensweise falsch. Danke.
Nimm doch mal zwei sehr kurze Clips vom selben Motiv in identischem Blickwinkel auf (1 Sek. reicht), einmal als SDR und einmal als HDR, und teile sie hier per WeTransfer.ME2000 hat geschrieben: ↑Sa 18 Mär, 2023 12:19 Ich habe jetzt mal den Himmel aufgenommen, das HDR Material umgewandelt und farblich abgeändert. Ich sehe aber keinen wirklichen Unterschied, obwohl mir Davinci Resolve einmal 10 bit und einmal 8 bit sagt? Ein sehr starker Zoomausschnitt aus Davinci habe ich mal angefügt. Sieht jemand den Unterschied oder schaue ich mir einfach was Falsches an?
cantsin hat geschrieben: ↑Sa 18 Mär, 2023 16:22 ffprobe (Teil von ffmpeg) sagt, dass das HDR-Videomaterial des Samsung-Smartphones im Rec2020-Farbraum aufgenommen wurde:
Screenshot from 2023-03-18 15-47-22.png
Mit den folgenden Parametern konvertiert es Resolve in ein Bild, das dem SDR-Material direkt aus der Kamera ziemlich nahe kommt:
Screenshot from 2023-03-18 15-46-58.png
Bildvergleich:
sdr-ooc_1.1.2.jpg
SDR-Material direkt aus der Kamera
hdr-to-rec709_1.1.3.jpg
HDR-Material, mit den obigen Parametern nach SDR/Rec709 gewandelt
Nun hat Dein Motiv wenig Kontrast, weswegen man den Unterschied von SDR und HDR in der Dynamikwiedergabe nicht sehen kann. Aber der Unterschied von 10bit zu 8bit wird schon sichtbar, wenn man das Material verbiegt, hier mal mit extremer Kontrastkurve:
SDR_1.1.1.jpg
SDR mit aufgesteiltem Kontrast
HDR_1.2.1.jpg
HDR mit aufgesteiltem Kontrast
Wenn Du die beiden Bilder gut vergleichst, stellst Du fest, dass es in dem 8bit-SDR-Bild bei Farbverläufen und Kontrastkanten Color-Banding gibt (sichtbar an den roten Flecken-Inseln im 1:1-Bildausschnitt):
SDR_1.1.1-crop.png
...während das 10bit-HDR-Bild hier die Verläufe besser wiedergibt:
HDR_1.2.1-crop.png
Bei 10bit fallen ggü. 8bit unkomprimiert ja nur 25% mehr Daten an, und der HEVC-/h265-Codec ist gerade für 10bit-HDR ausgelegt. Ich würde mir darüber keine Gedanken machen.ME2000 hat geschrieben: ↑Sa 18 Mär, 2023 17:34 Die einzige Sache, bei der ich mir noch etwas unsicher bin, ist die Dateigröße. Beide Varianten haben ja ungefähr die gleiche Größe. Im Handy kann ich bei der Stock-Cam ja "nur" "Hohe Bitrate" einstellen. Da HDR ja dann 10 bit hat müsste die Datei ja eigentlich größer sein. Also müsste da "stärker" komprimiert werden?
cantsin hat geschrieben: ↑Sa 18 Mär, 2023 16:22 ffprobe (Teil von ffmpeg) sagt, dass das HDR-Videomaterial des Samsung-Smartphones im Rec2020-Farbraum aufgenommen wurde:
Screenshot from 2023-03-18 15-47-22.png
Mit den folgenden Parametern konvertiert es Resolve in ein Bild, das dem SDR-Material direkt aus der Kamera ziemlich nahe kommt:
Screenshot from 2023-03-18 15-46-58.png
Bildvergleich:
sdr-ooc_1.1.2.jpg
SDR-Material direkt aus der Kamera
hdr-to-rec709_1.1.3.jpg
HDR-Material, mit den obigen Parametern nach SDR/Rec709 gewandelt
Nun hat Dein Motiv wenig Kontrast, weswegen man den Unterschied von SDR und HDR in der Dynamikwiedergabe nicht sehen kann. Aber der Unterschied von 10bit zu 8bit wird schon sichtbar, wenn man das Material verbiegt, hier mal mit extremer Kontrastkurve:
SDR_1.1.1.jpg
SDR mit aufgesteiltem Kontrast
HDR_1.2.1.jpg
HDR mit aufgesteiltem Kontrast
Wenn Du die beiden Bilder gut vergleichst, stellst Du fest, dass es in dem 8bit-SDR-Bild bei Farbverläufen und Kontrastkanten Color-Banding gibt (sichtbar an den roten Flecken-Inseln im 1:1-Bildausschnitt):
SDR_1.1.1-crop.png
...während das 10bit-HDR-Bild hier die Verläufe besser wiedergibt:
HDR_1.2.1-crop.png
Ich muss mich entschuldigen, mir ist beim Screengrab des umgewandelten HDR-VollbIlds eine Verwechselung unterlaufen! [Bei den kontrastaufgesteilten Bildern stimmt es aber wieder.]
Das waren die zwei Beispielvideos des TO, wobei in der HDR-Aufnahme ein Kamerawackler saß. Es ging hier aber sowieso nur um Farb- und Dynamikwiedergabe.Bruno Peter hat geschrieben: ↑So 19 Mär, 2023 14:46 Was machst Du da eigentlich,
das Auge im ersten Bild ist noch scharf...
cantsin hat geschrieben: ↑So 19 Mär, 2023 13:11Ich muss mich entschuldigen, mir ist beim Screengrab des umgewandelten HDR-VollbIlds eine Verwechselung unterlaufen! [Bei den kontrastaufgesteilten Bildern stimmt es aber wieder.]
Hier noch mal das SDR-Bild direkt aus der Kamera:
SDR_1.1.1.jpg
Hier jetzt das korrekte mit "Color Space Transform" und den o.g. Parametern umgewandelte HDR-Bild:
HDR_1.2.2.jpg
Wenn man an den Parametern noch ein bisschen schraubt...
Screenshot from 2023-03-19 13-04-43.png
...kann man das Ergebnis dem SDR-Bild visuell noch stärker angleichen:
HDR tweaked_1.2.1.jpg
(Ist jetzt auch im Originalposting korrigiert.)
cantsin hat geschrieben: ↑So 19 Mär, 2023 17:22 Exportier mal Deine Bilder, indem Du Snapshots in Resolves "Gallery" machst (per Rechtsklick auf das Standbild im "Color Tab") und die dann direkt aus der Gallery (Rechtsklick auf gespeichertes Bild) als JPEG exportiest.
Screenshots des Programms-GUI sind relativ wenig aussagekräftig, da Deine Monitorkalibrierung zwischenfunken kann.
Weiss zwar nicht, warum das umgewandelte HDR-Bild bei Dir dunkler ist, aber das kannst Du sehr einfach korrigieren, wenn Du in "Color Space Transform" am "Adaptation"-Regler drehst, oder (natürliche) eine einfache Gammakorrektur machst.ME2000 hat geschrieben: ↑So 19 Mär, 2023 17:47 So, habe es mal als PNG exportiert, hoffe das macht Sinn.
Bin bald für ein paar Tage im Urlaub und wollte da "so gut es geht" Videos machen. Wäre halt nur blöd, wenn ich dann HDR nutze und ich es hinterher nicht mehr richtig "color gegradet" bekommen würde oder die Farben einfach "off" sind.
OK, danke. Deine Kommentare helfen sehr.cantsin hat geschrieben: ↑So 19 Mär, 2023 17:54Weiss zwar nicht, warum das umgewandelte HDR-Bild bei Dir dunkler ist, aber das kannst Du sehr einfach korrigieren, wenn Du in "Color Space Transform" am "Adaptation"-Regler drehst, oder (natürliche) eine einfache Gammakorrektur machst.ME2000 hat geschrieben: ↑So 19 Mär, 2023 17:47 So, habe es mal als PNG exportiert, hoffe das macht Sinn.
Bin bald für ein paar Tage im Urlaub und wollte da "so gut es geht" Videos machen. Wäre halt nur blöd, wenn ich dann HDR nutze und ich es hinterher nicht mehr richtig "color gegradet" bekommen würde oder die Farben einfach "off" sind.
wolfgang hat geschrieben: ↑Di 21 Mär, 2023 13:26 Mich wundern an dieser Diskussion hier ein paar Punkte:
Ja, mit der Gratisversion von Resolve sollte man das HDR Material importieren können - und zu rec709 graden können. Unterschiede zwischen den Versionen liegen offenbar bei der kostenpflichtigen Studio Version in einigen professionelleren Codecs, oder in den Scopes die man auf Nits umstellen kann. Oder auch in den Ausgabeformaten, wo man bei der Studio Version mehr Auswahl hat. Will man zu rec709 graden, dann sollte das gehen
Was die kostenpflichtige Studio Version mehr kann:
https://www.blackmagicdesign.com/de/pro ... lve/studio
Was mich auch wundert ist der Umstand, dass hier zwar im ersten Posting gleich (völlig richtig) darauf hin gewiesen wird, dass man HDR Material besser im HDR Wide Gamut verarbeitet - und dann wird erst mit einer rec709 timeline gearbeitet. Das ist ungünstig, weil etwaige Grading Schritte besser im weiten Farbraum passieren, und erst dann dampft man zu dem schmäleren Farbraum von rec709 ein. Ich würde mir mal etwa bei was von seinen Projekteinstellungen abschauen (es gibt sicher bessere Links dazu, den habe ich mal auf die Schnelle gefunden).
Was auch nur indirekt raus kommt, ist das Problem, dass man zwar für das Graden zu rec709 tatsächlich nicht unbedingt einen HDR Monitor benötigt, aber auf einem SDR Monitor halt nur das gewandelte Bild sehen kann - und nicht aus HDR10 Ausgangsmaterial. Ok, man kann damit leben.
Danke Wolfgang für diese umfangreiche Information. Ich glaube nur sie ist zu hoch für mich (wie du an den folgenden Fragen sehen wirst ;) ).wolfgang hat geschrieben: ↑Mi 22 Mär, 2023 07:39 Auf einem SDR Monitor kannst du HDR-Material eigentlich grundsätzlich nicht zu HDR graden, einfach weil ein SDR Monitor als maximale Helligkeit 100 nits kann (in der Praxis etwas darüber, oft um die 200 nits herum), während ein HDR Monitor für das heute übliche Graden zu HDR eigentlich stabile 1000 nits über den ganzen Bildbereich können soll. Was bedeutet, dass er eine Spitzenluminanz von ca. 1200 bis 1600 nits können sollte.
Wenn du Helligkeiten auf einem SDR Monitor betrachtest, die über den darstellbaren 100 nits liegen, dann können die grundsätzlich nur noch als Weiß dargestellt werden - diese Bildteile erscheinen ausgebrannt. In anderen Worten: du würdest diese Bildteile nicht mehr sehen, und damit kannst es eigentlich nicht mehr sinnvoll bearbeiten.
Technisch kann man sich da noch so behelfen dass diese zu hohen Helligkeiten abgeregelt werden, als im darstellbaren Luminanzbereich des Monitors hineingepresst werden - also indem man ein tonmapping auf tiefere Werte vornimmt. So behelfen sich viele unserer heutigen HDR TVs. Nur für das Einstellen der Luminanz wünscht man sich eher einen Monitor, der explizit nicht ein derartiges Tonmapping durchführt - denn ich will ja das Bild so sehen wie es ist.
Das ist das Problem mit der Gamma-Funktion. Das zweite Problem ist, dass bei rec2020 der Farbraum ein anderer ist als bei SDR-Geräten. Das hast schon fest gestellt, dass etwa rote Bildteile anders dargestellt werden. Spielt man ein HDR-Signal auf einem SDR-Monitor ein, bekommt man auch hier die wunderbarsten und völlig falschen Farben - was gerade Anfänger in dem Bereich schwer verwirrt.
Fazit: willst HDR sinnvoll zu HDR graden und bearbeiten, dann brauchst halt einen vernünftigen HDR-Monitor, der noch dazu die geforderten Spitzenhelligkeiten kann. Beachte, dass so Dinge wie "HDR400" oder "HDR800" diesbezüglich arg irreführend sind - wenn, dann brauchst etwa "HDR1400".
Wenn man jetzt zu SDR graded, dann stellst ohnedies sowohl Gamma wie auch Gamut auf SDR um. Und beurteilst das Bild auf einem (hoffentlich auf SDR kalibrierten) Monitor. Stimmt also, dass einem dann das originale HDR Bild egal sein könnte - welches aber enorme Vorteile hätte, nicht nur wegen der Helligkeit sondern wegen des deutlich umfangreicheren Farbraums. Damit lebt in der Praxis heute wohl sogar eine deutliche Mehrheit an Usern, vor allem weil zumeist als Deliverable noch nicht HDR, sondern eher SDR gefordert wird.
Dies gilt aber nicht für den in den Projekteinstellungen/der Timeline von Resolve gewählten Farbraum. Wenn man schon weiß, dass man mit log oder HDR Material daher kommt, welches einen umfangreicheren Farbraum hat, dann bitte den Farbraum in den Projekteinstellungen so groß einstellen, dass man dieses Material dort graden kann, ohne an den Limits des engeren rec709 anzustehen. Man sollte in Resolve also entweder in ACES, oder dem Blackmagic eigenen Color Management (wide gamut) graden - und erst NACH dem Grading auf rec709 eindampfen.
Du musst unterscheiden, was du auf einem Monitor siehst. Und der internen Berechnung.
Hier fragst Du in Wirklichkeit nach der internen Berechnung. Und die interne Berechnung von Material mit weiten Farbräumen - sei es log Material oder auch deinem PQ Material - macht man eben idealerweise in weiten Farbräumen. Denn macht man die Berechnungen in kleineren Farbräumen, so wird das in den meisten Fällen zwar gut gehen. Aber in Fällen, wo man das Material massiver verändern will, kommst unnötigerweise und zu früh an Grenzen. DAher die Empfehlung, auch beim Graden zu rec709 eben weite Farbräume zu nutzen (siehe gleich die erste Antwort in diesem Thread).
wolfgang hat geschrieben: ↑Mi 22 Mär, 2023 09:47Du musst unterscheiden, was du auf einem Monitor siehst. Und der internen Berechnung.
Willst du auf dem Monitor eine HDR-Vorschau sehen, dann stellst die Timeline in Resolve auf HDR Wide Gamut ein. Solange du keinen LUT für die Vorschau aktivierst, überträgt er dir dann das HDR Bild auf die Vorschau. Hängt dann ein HDR Monitor dran, der das von Gamut und Gamma richtig interpretierst, hast eine korrekte HDR Vorschau.
Übrigens nimmt man bei Resolve eher nicht die Grafikkarten, sondern halt I/O devices, die ein normiertes Signal ausgeben (Decklink 4K Extreme 12G, Ultrastudio 4K mini). Damit umgeht man den Einfluss der Grafikkarte und des Betriebssystems auf die Vorschau. Allerdings macht das nur dann Sinn, wenn man den genutzten Monitor auch kalibriert.
Hier fragst Du in Wirklichkeit nach der internen Berechnung. Und die interne Berechnung von Material mit weiten Farbräumen - sei es log Material oder auch deinem PQ Material - macht man eben idealerweise in weiten Farbräumen. Denn macht man die Berechnungen in kleineren Farbräumen, so wird das in den meisten Fällen zwar gut gehen. Aber in Fällen, wo man das Material massiver verändern will, kommst unnötigerweise und zu früh an Grenzen. DAher die Empfehlung, auch beim Graden zu rec709 eben weite Farbräume zu nutzen (siehe gleich die erste Antwort in diesem Thread).
Die Wandlung von so einem weiten Farbraum für den Zielfarbraum/Zielgamma rec709 macht man dann idealerweise erst im Anschluss an diesen Schritt. Gerade Resolve ist hier absolut vorbildlich, weil es diese Möglichkeit explizit vorsieht. Egal, ob man über eines der beiden Color Managementsysteme, oder über nodes arbeitet.
Für mich sind das die tatsächlich wesentlichen Dinge. Sonst hast halt Klagen, dass die Farbe rot plötzlich und aus unerklärlichen Gründen doch leicht anders aussieht. ;)
Es betrifft lediglich die höhere Güte der intenen Berechnung. Die kannst halt verbessern.
Darren zeigt im oben verlinkten Video die passenden Einstellungen zu wide gamut. Er nutzt das sowohl für die Ausgabe zur rec709, wie auch zu PQ. Darum hatte ich dir das video ja verlinkt.
Ich suche nach einem Beispiel, welches das vielleicht noch verdeutlicht. Nehmen wir ein Tanzpaar, welches ausgezeichnet tanzt. Etwa bei einem Turnier. Die brauchen ihren Platz. Tanzen die einmal in einem kleinen 10m2 Raum, dann geht das zwar auch, nur steht man halt an der Enge des Raumes an. Wirklich schön wird es, wenn man in einem tollen 50m2 Raum genug Platz hat, und alles austanzen kann.Paralkar hat geschrieben: ↑Mi 22 Mär, 2023 12:48 Da gibt es verschiedene Möglichkeiten, bsp.: absolut, sprich alles was über dem maximal Rot in Rec709 ist, was im original HDR10+ noch Abstufungen hat, wird abgeschnitten und ist plötzlich das maximal Rot in deinem Rec709, adaptive Methode, er versucht das maximal Rot von deinem original HDR10+ auf maximal Rot (Rec709) zu mappen, und den Rest der Abstufungen irgendwie in den kleineren Farbraum zu mappen, so das Abstufungen erhalten bleiben etc.. Das ganze gilt auch für Luminanzen.
...
Wenn du Color Management nutzt und ein deutlich größeren Farbraum (HDR Davinci Wide Gamut), dann passieren erstmal alle arbeiten in einem deutlich größeren Farbraum, der auch deutlich mehr Dynamik Umfang abdeckt. Um am Ende trotzdem in ein Rec709 zu kommen, wird eine ODT (Output Device Transformation) genutzt, die dafür sorgt, das dein Bild auf dem Monitor Rec709 ist und dein finales Rendering.
Du separierst damit den Arbeitsfarbraum, der bei der richtigen größe nichts clippen lässt (Farbe und Luminanzen) und den Output Farbraum. Somit kannst du jederzeit selbst entscheiden wie sollen deine Rottöne und und Luminanzen aussehen, ohne das deine Bildinformationen von Anfang an beschnitten und weg sind.
Ich fürchte, jetzt überforderst ihn.... :)
Sind hybride Kameras für die szenische Arbeit etwa "fertig" entwickelt? Und falls ja, was bedeutet dies für die Zukunft dieser Geräteklasse? weiterlesen>>