Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum VFX / Compositing / Special Effects-Forum

Infoseite // Farbraum und VFX Workflow - ich sehe nicht mehr durch...



Frage von hexapilots:


Hi,

ich habe jetzt endlich einen sinnvollen Workflow zwischen Resolve (BMPCC Raw Footage) und Nuke hinbekommen. DNGs als Rec.709 mit Linear Gamma importieren, und dann als EXR Half float wieder raus. Funktioniert perfekt.

Mein Problem: Wie geht das eigentlich? Ich dachte Rec.709 hätte Gamma 2,2. Wie kann ich also Rec.709 mit Linear zusammen wählen? Ich habe hier offensichtlich ein generelles Verständnisproblem...

Außerdem: Ich dachte immer Raw bedeutet automatisch Linear Light, aber das kann ja offensichtlich nicht der Fall sein, denn wie würde die BMPCC dann 13 stops DR in ein 12 Bit RAW file bekommen, wenn nicht durch Log-codierung? Aber wenn die DNGs Log sind, woher weiß der PC das denn?

Space


Antwort von kundesbanzler:

Also grundsätzlich hast du schon einen ganz guten Weg gefunden, der auf jeden Fall für das Material der BMPCC funktioniert, für andere evtl. nicht, zb. wenn du gar nicht die Möglichkeit hast, es als linear zu erkennen.

Dass Colorspace und Gamma unabhängig voneinander eingestellt werden können, ist in der Tat etwas widersprüchlich. Betrachte es einfach als Rec709 mit linearisiertem Gamma. Du kannst die exrs auch ohne linearisierung ausspielen und dann in Nuke einen Colorspace von Rec709 nach linear dranhängen, dann ist das Ergebnis visuell identisch. Mathematisch allerdings nicht ganz, Abweichung ist um die 10^-4

Mit welcher Übertragunskurve die Raws gespeichert werden ist evtl. irgendwo dokumentiert evtl. nicht. Die Frage ist, welche Relevanz das für deinen Workflow hat.

Space


Antwort von hexapilots:

Danke für die Erkläreung! Ja die letzte Frage war nur so zum Verständnis, solange es funktioniert wie es soll ist ja gut :D

Space


Antwort von Peppermintpost:

ja willkommen im Club. Genau was du beschreibst ist kein Einzelfall. Die Masse an Menschen steigen da nicht durch, deswegen passieren so viele Fehler in der Post Pipeline.

Dein Problem ist, das du eine Menge unterschiedlicher Dinge die erstmal nichts miteinander zu tun haben, aber ähnlich klingen zusammen in einen Topf schmeisst.

Raw zum Beispiel hat erst einmal nichts mit Lin/Log/Rec/srgb zu tun, es sagt nur, das je nach Kamera mehr oder weniger direkt die Sensor Daten ausgelesen werden, was aber im Detail dann in den meisten Fällen auch nicht wirklich stimmt. Diese Raw Daten kannst du dir auch nicht wirklich als Bild ansehen, auch wenn diverse Programme den Eindruck vermitteln.

Stell dir dein Camera Raw vor wie eine verschlüsselte Email. Ohne den richtigen Schlüssel ist es erst einmal nur Datenmüll. Mit dem richtigen Schlüssel wird der Text sichtbar.
Resolve hat den richtigen Schlüssel für deine BM Camera (und für viele andere Kameras), der Witz ist aber, das es für Kamera Raw in den meisten Fällen verschiedene Schlüssel gibt, und jeder Schlüssel verändet die Farbgebung. Sehr schön kannst du das bei Red Material sehen, die haben über die Jahre immer weiter entwickelt also gibts inzwischen eine ganze Reihe von Schlüsseln (Redgamma, Redcolor), die dann auch noch in Kombination benutzt werden, was eine Vielzahl von Versionen ergibt.
LIN/LOG ist das erstmal alles nicht. Ich kenne mich mit den BM Kameras nicht so gut aus, ich ich glaube da kannst du bei der Aufnahme bestimmt auch sowas einstellen wie Kino oder TV oder sonst etwas. Und diese Einstellung sollte sich dann im Resolve beim Interpretierendeiner Daten auch wieder finden, oder du entscheidest dich bewusst dagegen und nimmst z.B. in einem Farbraum auf und gibst in einem anderen wieder, um einen bestimmten Effekt zu erreichen.

Ähnlich wie bei der Cross Entwicklung von Negativen, die werden bewusst "falsch" entwickelt um einen anderen Farbeffekt zu bekommen.

Das was du im Resolve dann angezeigt bekommst hat immer irgend eine Gamma Kurve drauf, Linear gibts da nie. Es gibt schlicht und ergreifend kein Anzeige Monitor der Linear ist. Eine alte Röhre ist CCIR601, ein Flachheimer ist REC709, ein Computer Monitor sRGB usw. Das sind aber alles Anzeigen die ein "verbogenes" Gamma um 2.2 haben.
Das alles ist auch nicht weiter dramatisch und sollte dich nicht jucken,

komisch wird es dann erst wenn du auf Nuke mit seinem Linear prallst.
Linear ist im Foundy Universum offensichtlich der Begriff für "grösster Schwachsinn auf Gottes Erdboden" und ist offensichtlich den kranken Hirnen von irgend welchen Marketing Fuzzies entsprunegn. Der Eindruck der entstehen soll ist, hier werden Farben Linear verarbeitet. Das werden sie aber IMMER!!!!
Lift, Gain, Offset, Multiply und sogar Gamma sind einfache Mathematische Funktionen, und die sind IMMER, IMMER, IMMER Linear. Es ist vollkommen egal was dein Monitor anzeigt, Gain von 1 auf 2 macht immer deine Highlights doppelt so hell.
Ich selbst Compe in Nuke in 95% der Fälle mit der Monitor Einstellung sRGB weil nunmal fast alles und fast immer auf Computer Monitoren angesehen wird. Ich könnte auch REC709 benutzen, oder irgend einen Custom LUT benutzen, es würde mein Comp nicht beeinflussen, worauf ich bei Nuke penibel achte, ist das das war rein kommt auch 100% dem entspricht was raus geht, nicht 95% oder 99% sondern auf den Pixel genau mit 3 Stellen hinter dem Komma, wenn du das ebenfalls so machst, dann geht dir dieses ganze LIN/LOG/LUT sehr schnell da vorbei wo keine Sonne scheint.

Ich hoffe das hilft dir ein wenig.

Space


Antwort von TheBubble:

Mein Problem: Wie geht das eigentlich? Ich dachte Rec.709 hätte Gamma 2,2. Wie kann ich also Rec.709 mit Linear zusammen wählen? Ich habe hier offensichtlich ein generelles Verständnisproblem... Rec.709 beschreibt eine Vielzahl von Dingen. Insbesondere:

- Die Empfehling legt den Farbraum durch die Wahl der Grundfarben fest (die gleichen wie für sRGB, daher die gute Kompatibilität)-

- Es wird eine stückweise Übertragungsfunktion definiert, die ungangssprachlich oft als "Gamma" bezeichnet wird.

- Weitere Festlegungen betreffen Dinge wie z.B. die digitale 8-Bit-Repräsentation mit Schwarzpunkt (16), nominellem Weiss(235) oder eine weitere Umrechnung in eine YCbCr-Darstellung mit Unterabtastung.

Daher könnte man "Rec.709 linear" erstmal als den sRGB/BT.709 Farbraum ohne Übertragungsfunktion interpretieren.
Außerdem: Ich dachte immer Raw bedeutet automatisch Linear Light Nein. Auch schon deswegen, weil der Sensor nicht unbedingt ein lineares Verhalten haben muss.

Space


Antwort von jwd96:

TheBubble, vielen Dank für die Erklärungen! Ich bin mir jetzt um einiges Bewusster was ich da eigentlich mache, und froh dass mein Workflow funktioniert wie er es soll :)

Space


Antwort von kundesbanzler:

Sorry peppermint, aber auch hier verzapfst du wieder ziemlichen Unsinn bzw. verstrickst dich in Aussagen, die schon sprachlich inkonsistent sind. Aber dass du es mit Sprache nicht so hast, hatten wir ja schon mal festgestellt.
Der Eindruck der entstehen soll ist, hier werden Farben Linear verarbeitet. Das werden sie aber IMMER!!!!
Lift, Gain, Offset, Multiply und sogar Gamma sind einfache Mathematische Funktionen, und die sind IMMER, IMMER, IMMER Linear. Dieser Satz macht insofern keinen Sinn, als dass der Begriff linear selbst lediglich eine mathematische Funktion beschreibt. Genauso gut hättest du schreiben können „Addition und Subtraktion sind mathematische Operationen, die sind immer Multiplikation“ das ist auf gleichem Niveau sinnbefreit.

Linear ist bei Nuke und auch bei jedem Renderer lediglich eine Abkürzung von scene-linear und das ist weder Schwachsinn noch Marketing. Es beschreibt die Tatsache, dass alle Werte im internen Repräsentationsmodell physikalische Energiemengen widerspiegeln sollen und deswegen Farb- bzw. Lichtoperationen sich so verhalten wie in der echten Welt und erst ganz am Ende der Berechnungskette eine Gammakorrektur entsprechend deines Monitors draufgelegt wird. Im Gegensatz dazu steht das Modell, dass alle Werte bereits in einer z.B. auf den Monitor abgestimmten Gewichtungsskala vorliegen und auch so verrechnet werden, was zu ungenauen Ergebnissen führt.

Da VFX bzw. CGI-Rendering von seiner Grundidee den Anspruch hat, echte Begebenheiten zu reproduzieren und deswegen auch physikalisch plausibel zu sein, ist das scene-lineare Modell natürlich das der Wahl. Beispiel: du hast zwei Lichter die auf einer Oberfläche an einem bestimmten Punkt jeweils für sich eine Helligkeit produzieren die auf deinem Ausgabegerät als Mittelgrau angekommen, also bei einem 8bit sRGB-Wert von 127 was intern einen linear float Wert von ca. 0,21 bedeutet - unter der gemeinen Annahme, dass 255 in sRGB auf den Wert 1 im float abgebildet wird. Was ist nun, wenn du diese beiden Lichter gleichzeitig anschaltest, ihre Intensität also addierst? Wenn du in einem gammakorrigierten Modell arbeitest kommst du bei einem Wert von 127 + 127 = 254 an, im linearen bei 0,21 + 0,21 = 0,42, was nach Gammakorrektur einem sRGB-Wert von 172 und eben nicht 254 entspricht.

Wobei hier nicht grundsätzlich der eine Wert richtig und der andere falsch ist. Es sind schlicht zwei Modelle, von denen das eine physikalisch plausibler als das andere ist und deswegen für realistische VFX besser geeignet ist.

Space


Antwort von jwd96:

Da VFX bzw. CGI-Rendering von seiner Grundidee den Anspruch hat, echte Begebenheiten zu reproduzieren und deswegen auch physikalisch plausibel zu sein, ist das scene-lineare Modell natürlich das der Wahl. So wurde mir das auch erklärt, deswegen exportiere ich die plates aus Resolve linear. Es gibt gerade was solche Sachen angeht sicherlich dutzende Wege zum Ziel zu kommen, die alle nicht unbedingt schlechter sind... aber so ist es für mich am logischsten und einfachsten.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum VFX / Compositing / Special Effects-Forum

Antworten zu ähnlichen Fragen //


Farbraum und VFX Workflow - ich sehe nicht mehr durch...
Ich sehe was, was du auch siehst - Meta dekodiert Bilder aus Gehirnaktivität
Unreal VFX in Zukunft nicht mehr kostenlos
4K BluRays von 2K Master: Erweiterter Farbraum „echt“?
WQHD Monitor mit 144hz, 10bit und gutem Farbraum
BM VideoAssist 12G 5" Unterschiedlicher Farbraum zwischen interner und externen Aufzeichnung
ACR Tonkurve - ich dreh durch!
Google Research VideoPoet - mehr Konsistenz für KI-Bewegtbilder durch LLMs
Ich werd reich, ich hab einen neuen Job
ASUS PRIME Z390-P schaltet nicht zum Windows Auto-Start durch
Adobe Premiere Pro 15.0 März Update bringt neuen Untertitel-Workflow und mehr
Wie kriege ich für meinen Youtube-Kanal mehr Abos, Kommentare, Likes etc...?
Ich hoffe, Netflix versaut das nicht
Ich finde die Filme einfach nicht!
Nuke Indie -- neue, günstige Version der Compositing Software für freie VFX Artists
SAE-Diploma VFX & 3D-Animation
Resolve VFX Handbuch
Updates für Maxon One Compositing Tools - ua. Trapcode Suite 17, VFX Suite 2




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash