Ja was soll denn das GUI dann auch sonst machen?pillepalle hat geschrieben: ↑Di 19 Jul, 2022 08:44 .. dass wenn ich den Output verändere sich nicht nur der Vorschauonitor verändert, sondern auch die GUI Ansicht in der Color Page. Das ausgegebene Bild sieht dann über die GUI genauso aus wie über den Videoout des Referenzmonitors via Decklink. Deshalb fand ich cantsins Aussage, er würde die Farben in der GUI anders darstellen (z.B. nur in sRGB) ja auch so irritierend. Ich habe einfach den Eindruck dass aus einer 10bit Grafikarte genau die gleichen Farben herauskommen wie aus einer Decklink-Karte, vorausgesetzt man benutzt bei beiden einen Kalibrierten Monitor.
https://www.image-engineering.de/librar ... 09-vs-srgbThe chromaticity coordinates of the primaries are identical to those defined in sRGB standard. The white point is also D65. So far, the both color spaces seem to be identical.
..this is where the difference comes to light. The sRGB transfer function is very close to, but not identical to Rec. 709.
Both transfer functions are defined piece-wise, with a small linear part in the beginning and a main power function part. Although, the exponent in the power function of sRGB transfer function is 2.4, sRGB is often said to have a decoding gamma of 2.2. Due to the influence of the linear part of the function, the median is close to 2.2.
Das stimmt zwar, aber das ist natürlich vor allem ne theoretische Anwendung. In 99% aller Fälle wird unsereiner am Ende mit 709 arbeiten, weil das ist was die meisten sehen können (und die meisten Endgeräte darstellen).pillepalle hat geschrieben: ↑Di 19 Jul, 2022 09:05 Deutlicher wird das vor allem, wenn man größere Farbräume darstellt, vorausgesetzt der Monitor macht das mit.
Verwendest Du Resolve 17 oder 18?pillepalle hat geschrieben: ↑Di 19 Jul, 2022 08:58 Kommando zurück... sorry, eventuell könnte das doch stimmen, denn wenn ich gerade hin und her schalte sieht's über die Decklink doch etwas anders aus.
Wobei das jetzt noch stimmt. Mittel- und langfristig sehe ich die Reise doch in Richtung HDR und wide color gamuts gehen. Die Handy- und Tablet-Bildschirme können das ja schon, und einigermaßen aktuelle Flatscreen-TVs auch. Und bei aktuellen TV-Serien und sonstigen -Produktionen auf Netflix & Co. sieht man - finde ich - mit denen eigenen Augen einen echten Bildqualitätssprung, wenn HDR-Content gespielt wird.Frank Glencairn hat geschrieben: ↑Di 19 Jul, 2022 09:08Das stimmt zwar, aber das ist natürlich vor allem ne theoretische Anwendung. In 99% aller Fälle wird unsereiner am Ende mit 709 arbeiten, weil das ist was die meisten sehen können (und die meisten Endgeräte darstellen).pillepalle hat geschrieben: ↑Di 19 Jul, 2022 09:05 Deutlicher wird das vor allem, wenn man größere Farbräume darstellt, vorausgesetzt der Monitor macht das mit.
Also, ich arbeite in ACEScct v1.3 und setze als IDT entweder Panasonic v35 oder eben nichts, wenn ich (B)RAW Material habe. Ist aber eigentlich irrelevant, solange das eine standard ACES IDT ist.cantsin hat geschrieben: ↑Mo 18 Jul, 2022 22:55 Tu mir doch bitte mal den kleinen Gefallen und setze mal experimentellerweise sowohl den "Timeline Colorspace", als auch den "Output Color Space" in Resolve auf ein Log-Profil (z.B. Cineon oder S-Log). Das bedeutet, da sind wir uns sicher einig, eine drastische Veränderung der Farben. Warum ändern sich dann, nach dieser Einstellung, die Farben im GUI-Video-Viewer nicht?
HDR10 ist aber der doch der Standard bzw. der Fallback den alle anderen "Standards" gemein haben. Du solltest mit deinem HDR10 TV bei Prime auf jedenfall HDR bekommen, denn die streamen ja nur so und Netflix streamt dir auch HDR10 wenn dein TV kein Dolby Vision unterstützt da ja bei Dolby Vision HDR10 als Fallback dient.Frank Glencairn hat geschrieben: ↑Di 19 Jul, 2022 11:13 Mein TV kann auch HDR allerdings nur das schnöde HDR10 - außer irgendwelche Demovideos auf YT bekomme ich also auf Netflix oder Prime quasi nix HDRiges zu sehen.
auf welchem Modell schaust Du?Auf meinem LG OLED sehen auch heutige
Jetzt wäre natürlich die Frage: auch in/für Resolve, über die normale Grafikkarte? ;-)DKPost hat geschrieben: ↑Di 19 Jul, 2022 14:09 Ich habe den LG CX9LA, auch 55". Sowohl als TV zu Hause, als auch als Vorschau- und Gradingmonitor im Studio. Ich bin immer wieder von dem Bild begeistert. Und über die Software von Calman lässt sich der Screen auch hervorragend für Grading kalibrieren.
Über eine Intensity. Funktioniert in Resolve, Avid, Premiere, After Effects etc.cantsin hat geschrieben: ↑Di 19 Jul, 2022 14:11Jetzt wäre natürlich die Frage: auch in/für Resolve, über die normale Grafikkarte? ;-)DKPost hat geschrieben: ↑Di 19 Jul, 2022 14:09 Ich habe den LG CX9LA, auch 55". Sowohl als TV zu Hause, als auch als Vorschau- und Gradingmonitor im Studio. Ich bin immer wieder von dem Bild begeistert. Und über die Software von Calman lässt sich der Screen auch hervorragend für Grading kalibrieren.
Genau so sehe ich das auch!cantsin hat geschrieben: ↑Di 19 Jul, 2022 13:39 Und zwar weniger wegen HDR und seinem Kontrastumfang als solchem - der bei OLEDs sowieso nur sehr begrenzt erreicht wird -, sondern weil im HDR-Mode einfach das vorhandene Farbspektrum bzw. die mögliche Wiedergabequalität des OLED voll genutzt und nicht (wie bei Rec709) künstlich beschnitten wird.
Da bin ich leider noch nicht schlauer geworden. Habe auch bei BM gestöbert aber bis auf einen Einzeiler (der nur sagt, dass nun 10bit angezeigt werden können) nichts gefunden.
Man macht das um auf den keinsten gemeinsamen Nenner zu kommen. Dann können es alle richtig sehen. Wenn Du in HDR gradest, dann machst Du das, zumindest zur Zeit noch, nur für eine sehr kleine Elite, die mit spezieller Hardware und Einstellungen schaut. Für alle Anderen sieht es dann eher mittelmäßig aus.
Wann ist es denn nötig? Wenn Zuschauer vor ihrem TV eine Sonnenbrille tragen, wie draussen an einem sonnigen Tag?SamSuffy hat geschrieben:Warum soll ich freiwillig mein Bild an Informationen beschneiden, wenn dies nicht nötig ist?!
So sarkastisch wie das hier gemeint ist, so war ist es leider auch.dienstag_01 hat geschrieben: ↑Di 19 Jul, 2022 14:37 Wann ist es denn nötig? Wenn Zuschauer vor ihrem TV eine Sonnenbrille tragen, wie draussen an einem sonnigen Tag?
Wenn du weißt, was du tust wirfst du da gar nix weg, sondern du komprimierst es nur - die Anmutung bleibt die selbe, nur weniger gespreizt - oder vereinfacht gesagt, deine Highlights sind nicht so hell.SamSuffy hat geschrieben: ↑Di 19 Jul, 2022 14:19... wir müssen uns halt entscheiden, wieviel wir von den Spitzenlichtern und dem Schatten wegwerfen damit wir von den Mitten noch soviel haben, dass wir ein Bild schaffen können, dass unseren natürlichen Sehgewohnheiten entspricht.
Wir werfen also einiges weg.
kannste dann gleich auch hierhin liefern lassen ...;-))Meine momentane Einschätzung ist, dass man Naturdokus gar nicht zu hoch auflösend gucken kann. 8k HDR @ 120p? Bring it on!
Nein, OpenCL (vorhin verwechselt mit OpenGL), CUDA oder Metal je nach Hardware. Hat per se nichts mit OpenCL oder CUDA zu tun, nur dass AMD keine Treiberaufteilung in Studio oder GameReady betreibt und damit das Feature gar nicht hat. Nvidia hat(te?) das früher auch nur im Studio-, nicht im GeForce/GameReady Treiber.