Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic DaVinci Resolve / Fusion-Forum

Infoseite // DRT statt CST in Resolve?



Frage von cantsin:


Darren Mostyn macht hier ein Fass auf und argumentiert, dass man statt Resolves mitgeliefertem "Color Space Transform"-Effekt (CST) zur Umwandlung von Gammas und Farbräumen (wie z.B. Log zu Rec709) lieber Third Party-DRTs (Device Rendering Transforms) verwenden solle. Diese werden als DCTLs ausgeliefert und installiert und setzen daher Resolve Studio voraus.

DRTs gibt es sowohl als Gratis-, als auch als kommerzielle Software. Es handelt sich faktisch um alternative Tone Mapper, die den erweiteren Farbraum und die erweiterte Dynamik von Log/Wide Gamut in den engeren Farbraum und den geringeren DR von Rec709 hineinkomprimieren.

Bei meinen eigenen Experimenten mit den DRTs JP2499 sowie OpenDRT erhalte ich jedoch hauptsächlich stärkere Bildkontraste mit weniger Farbseparation - sozusagen einen stilisierten Filmlook-Filter - ggü. CST und bin daher bei CST geblieben.

Mich würden daher mal Eure Erfahrungen und Tips interessieren. Gut möglich, dass ich das Licht noch nicht richtig gesehen habe...

Hier das Video:
https://www.youtube.com/watch?v=AW42k79BnuI

Und hier eine KI-Zusammenfassung von Google Gemini:
Das Video ist ein Tutorial über die Verwendung von Device Rendering Transforms (DRTs) in DaVinci Resolve für das Farbmanagement.

Was ist ein DRT?

Ein DRT ist der letzte Schritt im Farbmanagementprozess. Es nimmt einen weiten Farbraum, wie DaVinci Wide Gamut, und wandelt ihn in einen Anzeigefarbraum wie Rec. 709 um.

Das Color Space Transform (CST)-Tool in DaVinci Resolve ist eine Form von DRT, die der Host seit Jahren verwendet.

Drittanbieter-Entwickler haben ihre eigenen benutzerdefinierten DRTs erstellt, die oft bevorzugt werden, weil sie ansprechendere Ergebnisse liefern und den Workflow vereinfachen, indem sie Tone-Mapping automatisch handhaben.

Im Video vorgestellte DRTs

Der Host vergleicht vier DRTs an vier verschiedenen Aufnahmen (einer Testkarte, Innenaufnahmen, Außenaufnahmen und Nachtaufnahmen):

1. DaVinci Resolves CST: Das Standard-DRT, das der Host seit Jahren verwendet, erfordert manuelle Anpassungen von Einstellungen wie Tone-Mapping und Sättigungskompression.

2. JP2499: Ein kostenloses DRT von Juan Pablo Zambranos GitHub-Seite. Es macht manuelle Tone-Mapping-Anpassungen überflüssig und liefert einen ansprechenden, wenn auch unverwechselbaren Look mit einer leichten Wärme- und Farbverschiebung.

3. Mononodes Look Lab Print: Ein DCTL von Mononodes, das der Host speziell wegen seines Print-Elements verwendet. Es bietet eine saubere Transformation mit exzellentem Tone-Mapping, das Highlights und Farben sehr gut handhabt.

4. OpenDRT: Ein kostenloses DRT von Jed Smith. Es bietet standardmäßig einen Look mit hohem Kontrast, kann aber für einen neutraleren Ausgangspunkt auf ein "Basis"-Level eingestellt werden.

So installieren und verwenden Sie ein DCTL (DRT):

Gehen Sie zu Project Settings > Color Management > Lookup Tables.

Klicken Sie auf Open L Folder, um auf das Verzeichnis zuzugreifen, in das Sie die DCTL-Dateien legen.

Nach dem Hinzufügen der Dateien gehen Sie zurück zu den Resolve-Einstellungen und klicken Sie auf Update Lists, starten Sie dann die Software neu.

Sie können das DCTL dann auf einer Node anwenden, indem Sie es aus dem DCTL-Menü auswählen.

Das Video schließt mit der Demonstration, wie jedes DRT die verschiedenen Arten von Aufnahmen handhabt, und erklärt, warum der Host die Verwendung von DRTs von Drittanbietern bevorzugt, um einen besseren und konsistenteren farbverwalteten Look zu erzielen, insbesondere bei schwierigen Aufnahmen wie Nachtaufnahmen mit Neonlichtern.


Space


Antwort von vago:

cantsin hat geschrieben:
Mich würden daher mal Eure Erfahrungen und Tips interessieren. Gut möglich, dass ich das Licht noch nicht richtig gesehen habe...

Hallo Cantsin,

sind ja einige, die das auf Youtube gerade rauf und runterbeten, neben Darren u.a. auch Cullen Kelly ...
Von daher ging es mir genauso wie dir, ich musste es mal ausprobieren (hatte früher schon ein paar Mal versucht das JP2499 zu verwenden und hatte immer Probleme, allerdings muss ich zugeben, ich hab am Schluss des Gradens damit rumgespielt und der Erfolg war eher bescheiden.
Mit dem OpenDRT erziele ich bessere Erfolge (als mit JP2499) - zumindest für meinen Geschmack. Allerdings auch nur wenn ich das von Anfang an als ->REC709 Node am Ende verwende ...
Ob es wirklich besser als Davinci Resolves CST ist? Da bin ich mir auch noch nicht schlüssig und werd noch ein bisschen rumspielen .... bin aber neugierig auf die Diskussion hier.

LG
Michael

Space


Antwort von TheBubble:

Vorweg: Ich habe das Video nur auszugsweise und im Schnelldurchgang (mit häufigem Vorspringen) angesehen. Fast eine halbe Stunde ist mir zu lang.

Mir ist unklar, warum überhaupt geraten wird Eingangs- und Ausgangstransformationen für jeden Clip anzulegen - die einfache und zukunftsorientierte Vorgehensweise wäre es einfach das Farbmanagement zu aktivieren und sich danach auf die kreative Farbanpassung zu konzentrieren. Da von DaVinci Resolve sowieso alles als Fließkommazahlen verarbeitet wird, geht auch nichts verloren und man kann drauf los graden.

Einer der Gründe zusätzliche technische (und folglich nicht kreative) Transformationen einzufügen wäre nur dann vorhanden, wenn es zu einem (unbeabsichtigten) Fehlverhalten kommt: Beispielsweise können einzelne Pixel Werte außerhalb des Zielfarbraums haben, die dann beim Clippen (in jenen Zielfarbraum) zu einer unschönen Farbverschiebung führen. Das kann man aber trotz aktivem Farbmanagement beheben, manuell, per LUT, per DCTL oder per Plugin.

Ein mir bekanntes (und hier auch schon mal vor Jahren besprochenes) Beispiel sind Aufnahmen eines inzwischen über 10 Jahre alten Camcorders, der einen erweiterten Farbraum unterstützt, wodurch beispielsweise ein Himmelblau durch Clippen zum unschönen Türkis wird.

Falls jemand dieses Problem hat, einfach bei mir melden, ich hätte eine Lösung als DCTL.

Space


Antwort von stip:

Das ist ja einfach "nur" eine weitere Display Transformation, wenn auch sehr schön gelungen m.M.
Im Prinzip ist es aber dasselbe wie eine LUT die bestimmtes Log Material nach zB BT-.1886 transformiert oder eben Resolve's CST's bzw Davinci YRGB Color Managed oder auch die ACES Transformation: die machen alle nichts anderes als ein log oder raw Bild dahin zu bringen, dass es "normal" auf einem Bildschirm aussieht. Die Unterschiede sind rein subjektiv, ein Look. Der eine eher neutral (Resolve), der andere schon mit mehr oder weniger fertigem look (zb OpenDRT, 2499).

Unterm Strich: es ist Geschmacksache welche Transformation einem am besten gefällt.

Space


Antwort von roki100:

https://youtu.be/4ITPPxj-v2o?t=265

Space


Antwort von cantsin:

TheBubble hat geschrieben:
Einer der Gründe zusätzliche technische (und folglich nicht kreative) Transformationen einzufügen wäre nur dann vorhanden, wenn es zu einem (unbeabsichtigten) Fehlverhalten kommt: Beispielsweise können einzelne Pixel Werte außerhalb des Zielfarbraums haben, die dann beim Clippen (in jenen Zielfarbraum) zu einer unschönen Farbverschiebung führen.
Es geht bei den DRTs sowieso nur ums letzte Glied in der Kette, also typischerweise die Transformation von Davinci WideGamut + Davinci Intermediate Gamma nach Rec709.

Mostyns Argumentation ist hier, dass das Standard-Tonemapping/Gamutmapping von Resolve, das sowohl bei CST, als auch beim Resolve Color Managed-Workflow verwendet wird, nicht gut darin ist, Farben, die außerhalb von sRGB/Rec709 liegen in den engeren Farbraum zu mappen, auch nicht mit den unter "Gamut Mapping" gebotenen Einstelloptionen. Das betrifft vor allem Neonröhren/-reklamen und ähnliche Lichtquellen bzw. Motive, deren Farben dann in Rec709 ausbluten.

Mostyn argumentiert, dass Third Party-DRTs wie OpenDRT und Mononodes Look Lab Print besser darin sind, solche extremen Farbtöne in Rec709 zu "zähmen" und sie daher Arbeit in der Post ersparen bzw. einen besseren Ausgangspunkt fürs eigene Grading bieten.

Für mich sieht das aber eher so aus, als ob sie die Farbsättigung (im Vergleich zu CST) generell runterregeln und dadurch problematische Grenzfälle umgehen.

Space


Antwort von roki100:

Ich habe OpenDRT ausprobiert und muss sagen, es ist schon besser. Viel natürlicherer Look, vor allem bei Skintones.
(Boris, wenn du noch da bist, es ist genau was für dich bzw. VLOG)

Space


Antwort von cantsin:

Hier mal ein eigener Test, mit für Rec709 kritischen Farbtönen von nächtlichen LED-/Neonlichtern. Das Ausgangsmaterial war ein mit einer Nikon Z6iii geschossenes und in DNG umgewandeltes Foto-Raw, im Resolve Projekt interpretiert als Davinci WideGamut/Intermediate und dann jeweils mit CST, OpenDRT und JP_2499 nach Rec709 gewandelt:
CST default_1.2.1.jpg CST default-settings.png CST, mit Standardeinstellungen


CST tweaked_1.3.1.jpg CST tweaked-settings.png CST, mit getweakted Einstellungen (vor allem: Gamut-Mapping + Knee)


OpenDRT default_1.4.1.jpg OpenDRT default-settings.png OpenDRT, auf Standard-Setting


OpenDRT tweaked_1.5.1.jpg OpenDRT tweaked-settings.png OpenDRT, mit getweakted Settings.



(JP_2499 folgt, wegen der Forums-Software-Beschränkungen für Dateianhänge, im nächsten Posting)

Space


Antwort von cantsin:

JP_2499 default_1.6.1.jpg JP_2499 default-settings.png JP_2499, Default


JP_2499 tweaked_1.7.1.jpg JP_2499 tweaked-settings.png JP_2499, Tweaked




Nochmal alle Bilder im Direktvergleich (CST, CST tweaked, OpenDRT, OpenDRT tweaked, JP_2499, JP_2499 tweaked):
CST default_1.2.1.jpg CST tweaked_1.3.1.jpg OpenDRT default_1.4.1.jpg OpenDRT tweaked_1.5.1.jpg JP_2499 default_1.6.1.jpg JP_2499 tweaked_1.7.1.jpg
Lustigerweise finde ich ja, dass CST z.B. das ausblutende Rot der Verkehrsampel noch am besten in den Griff kriegt...

Space



Space


Antwort von roki100:

Auch in deinem Beispiel finde ich OpenDRT schon besser.

Ich finde das mit den Farben/Skintones sehr interessant, scheint also (wie damals vermutet als ich VLOG in FCP kennengelernt habe) tatsächlich ein VLOG-Problem zu sein? Hier ein Beispiel:

CST
(Ohr rötlich, seltsame Farben ehrlich gesagt, wirkt zu digital...) Bildschirmfoto 2025-08-05 um 01.37.43.jpg OpenDRT Bildschirmfoto 2025-08-05 um 01.36.44.jpg sehr ähnlich auch in FCP (nur Belichtung angepasst) Bildschirmfoto 2025-08-05 um 01.36.22.jpg Selbst das (Lumix) Like709-Profil wirkt viel näher an OpenDRT als an CST.

Space


Antwort von TheBubble:

Mir gefallen die CST Varianten auch noch am Besten, wobei bei den Ampeln die eigentliche Lampe, bei der Fahrradampel die Maske mit dem Fahrrad, auffällig schärfer umrandet sind. Aber das sind Details, auf die kaum ein normaler Betrachter achten wird, schon gar nicht wenn die Einstellung nur kurz ist.

Ich habe hier noch ein extremes Beispiel zur Illustration, was Clipping einzelner Komponenten eines Farbvektors verursachen kann (auch wenn dies hier kein HDR-Beispiel ist):

Ein Clip wird importiert, der mit einer (alten) Kamera aufgenommen wurde, deren Sensor aber einen größeren Farbraum als Rec.709/sRGB erfassen kann. Die zusätzlichen Farben sind in sRGB/Rec.709 nicht darstellbar, sie liegen außerhalb des Farbwürfels. Gespeichert wurden sie ursprünglich von der Kamera als YCbCr-Vektoren, die nach RGB rücktransformiert allerdings außerhalb des RGB-Würfels des Rec.709/sRGB Farbraums liegen.

Alle folgenden Bearbeitungen und Analysen wurden im Rec.709/sRGB Farbraum vorgenommen.

Zuerst sieht es so aus: Still Default.jpg Sehr auffällig ist die Farbe des Himmels, so sieht ein blauer Himmel für mich jedenfalls nicht aus.

Das könnte man jetzt manuell korrigieren (oder es zumindest versuchen), aber analysieren wir zuerst mit einem Hilfsmittel das Problem: Still Default ooG Highlighed.jpg Alles was entsättigt (grau) ist, liegt im RGB-Würfel. Alle roten Pixel haben einen Farbvektor, von dem mindestens eine Komponente größer 1.0 ist, d.h. der Vektor zeigt auf einen Punkt (eine Farbe) außerhalb des darstellbaren Farbwürfels.

Diese unzulässigen Werte einzelner Vektorkomponenten müssen vor der Darstellung abgeschnitten (geclipped) werden, was praktisch alle Medienplayer machen. Hierbei entsteht die seltsame Farbgebung.

Anstelle mich manuell am Problem zu versuchen, korrigiere ich die problematischen Pixel automatisiert. Alle anderen Pixel bleiben unangetastet, was allerdings auch Vor- und Nachteile hat (die hier im Beispiel aber keine Rolle spielen): Still Fixed.jpg Analysiert man jetzt die reparierte Variante, dann liegen hier alle Pixel innerhalb des darstellbaren Farbwürfels: Still Fixed ooG Highlighted.jpg Ob das Ergebnis gefällt ist Geschmackssache. Tatsächlich weicht es die ursprüngliche Variante mit Clipping mathematisch gesehen weniger stark vom Original ab, als die "Verbesserte".

Es sieht aber nicht mehr so ungewöhnlich aus.

Space


Antwort von Axel:

TheBubble hat geschrieben:
Ob das Ergebnis gefällt ist Geschmackssache..
Darauf läuft es hinaus. Grading lässt sich gut mit Kochen vergleichen, und ob man nun mit Salinensalz (CST) oder Meersalz (DRT) würzt, darauf hätten Köche durchaus eine Antwort (wenn auch eine hypothetische. Profiköche müssen auf die Lebensmittelinflation reagieren, und so gilt: was der Gast nicht bemängelt …)

Mein Problem mit beiden ist mein Workflow. Ich möchte nicht nach dem Import und während des Schnitts noch auf Log-Grauschleier-Footage starren. Wenn ich nicht einen groben Denkfehler mache (? - bitte kommentieren) lösen nur RCM und ACES dieses Problem - beide ja ebenfalls mit unterschiedlichen Look-Charakteristika.

Space


Antwort von cantsin:

Axel hat geschrieben:
Mein Problem mit beiden ist mein Workflow. Ich möchte nicht nach dem Import und während des Schnitts noch auf Log-Grauschleier-Footage starren. Wenn ich nicht einen groben Denkfehler mache (? - bitte kommentieren) lösen nur RCM und ACES dieses Problem - beide ja ebenfalls mit unterschiedlichen Look-Charakteristika.
Ja, machst Du.... Du siehst im. Schnitt doch immer das gegradete Endergebnis, keinen Log-Grauschleier.

EDIT: Bei Dir ist wahrscheinlich versehntlich die "Highlight"-Option aktiviert, dieses Icon:
Screenshot From 2025-08-05 09-57-19.png Wenn die aktiv ist, siehst Du immer nur das Grading bis zur aktuell aktiven Node, nicht das Endresultat. (Bin darüber früher auch gestolpert - eine fiese Interface-Falle von Resolve...)

Space


Antwort von iasi:

Er will scheinbar das eigentliche Grading durch eine Wunder-Transformation am Ende ersetzen.

https://youtu.be/AW42k79BnuI?t=776

An einer Stelle weiter vorn meint er auch, er wisse nicht was das Wunderteil genau mache.

Eine neutrale Transformation am Ende, um auf dem Monitor etwas zu sehen, ist doch die beste Voraussetzung für das eigentliche Grading, wofür Resolve weit bessere Werkzeuge bietet, als ein paar Schieberegler.

Space


Antwort von cantsin:

iasi hat geschrieben:
Er will scheinbar das eigentliche Grading durch eine Wunder-Transformation am Ende ersetzen.
Lies doch mal den Anfang dieses Threads....
An einer Stelle weiter vorn meint er auch, er wisse nicht was das Wunderteil genau mache. Er sagt schon, dass CST Probleme mit dem Mapping von Farbtönen hat, die außerhalb des Rec709-Farbraums liegen, und dass andere DRTs das besser machen würden.

Space


Antwort von stip:

iasi klugscheisst mal wieder ohne es überhaupt zu checken. OpenDRT ist ein Look. Es ist quasi das Äquivalent zu einer Show LUT. Das zeigen ja schon die verschiedenen Look-Presets.

Gute Show LUTs zB werden so gebaut dass sie universal funktionieren, d.h. bei Tag/Nacht/Innen/Aussen/low light ect, d.h. sie können gar nicht sehr invasiv sein (wie zB typisches Amateur-Grading auf YouTube). OpenDRT macht genau dasselbe, es ist wie eine Show LUT, darunter wird dann nur noch korrigiert, die wenigen kreativen Entscheidungen sind dann noch Farbtemp und Tint zum modellieren der Stimmung. Powerwindows fallen nicht unter den Look, damit willst du ja gleich wieder anrücken.

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Er will scheinbar das eigentliche Grading durch eine Wunder-Transformation am Ende ersetzen.
Lies doch mal den Anfang dieses Threads....
An einer Stelle weiter vorn meint er auch, er wisse nicht was das Wunderteil genau mache. Er sagt schon, dass CST Probleme mit dem Mapping von Farbtönen hat, die außerhalb des Rec709-Farbraums liegen, und dass andere DRTs das besser machen würden.
"Probleme"?
Die Transformation erfolgt auf eine bestimmte Art, auf die man das eigentliche Grading anpasst. Warum sollte man das Grading auf ein letztes Node und die dort enthaltenen Schieberegler konzentrieren.
Das Rot der Ampeln ist übertrieben? Dann begegnet man dem während des Gradings.

Sein Beispiel macht doch den für mich falschen Ansatz deutlich: 3 Notes, bei dem er leichte Einstellungen vornimmt, und dann man Ende Herumgestelle bei der Transformation.
Warum macht er nicht ein ordentiches Grading?

Space


Antwort von stip:

iasi hat geschrieben:
Warum sollte man das Grading auf ein letztes Node und die dort enthaltenen Schieberegler konzentrieren.
Das Rot der Ampeln ist übertrieben? Dann begegnet man dem während des Gradings.
Du schmeisst 2 Dinge durcheinander, den Look und das Grading. Dein erster Satz zeigt wie ahnungslos du bist, denn das ist exakt die Arbeitsweise die in jedem Posthaus genutzt wird. Der Look kommt ganz am Ende, unter dem wird korrigiert und gegradet.

Der Look wird iim Vorfeld entwickelt, allgemein Show LUT genannt. Unter der wird gedreht und dann auch gegradet, ob mit der LUT selbst oder den einzelnen Komponenten aus denen die LUT gerechnet wurde.

Das "Rot der Ampel" ist zum grössten Teil auch schon in der Look Entwicklung behandelt, da musst du nicht jedes mal mit deinen Powerwindows oder Qualifiern anrücken, die groben Striche sind gemacht, der Rest ist mit simplen Boardmitteln zu machen. Das ist der Sinn von guten Transformationen.

OpenDRT, wie auch andere Transformationen, sind in sich ein Look, nicht ein Grading. Je näher der Look an deinem Wunschergebnis desto weniger Korrekturen und Grading müssen gemacht werden - was man daran nicht verstehen kann ist mir ein Rätsel aber du wirst gleich wieder irgendwas theoretisches in den Ring werfen.

Space



Space


Antwort von cantsin:

Da hier im Thread ja auch Skintones und ihre jeweilige Darstellung durch CST/OpenDRT/JP_2499 thematisiert wurden, habe ich meine Test-Settings noch einmal auf eine Porträtaufnahme im Tageslicht losgelassen, mit jeweils denselben Einstellungen wie in meinem Posting weiter oben:


CST, OpenDRT, JP_2499 mit Standard-Einstellungen:
CST default_1.16.1.jpg OpenDRT default_1.18.1.jpg JP_2499 default_1.20.1.jpg


CST, OpenDRT, JP_2499 mit getweakten Einstellungen (selbe Parameter wie im älteren Posting):
CST tweaked_1.17.1.jpg OpenDRT tweaked_1.19.1.jpg JP_2499 tweaked_1.21.1.jpg

Für mich ist immer noch CST der Gewinner, weil die beiden anderen DRTs härtere Mikrokontraste ins Bild bringen (die schwierig rauszukorrigieren sind), die gerade bei Porträts nicht vorteilhaft sind. Das "Problem" von CST ist, dass in der Standardeinstellung die Farbraumkompression/Gamut Compression nicht aktiviert ist und daher starke Farben ausbluten, hier die roten Muster der Jacke. Sobald man aber Gamut Compression aktiviert und das "Saturation Knee" etwas runterzieht (in meinem Beispiel, CST Tweaked, auf 0.75), ist dieses Problem gelöst.

Ich finde auch, dass mit CST die Hauttöne differenzierter aufgefächert/abgestuft werden und mit den beiden DRTs monochromer werden.

Space


Antwort von stip:

Wie gesagt, reine Geschmacksache, es gibt nicht besser oder schlechter.

Space


Antwort von Axel:

cantsin hat geschrieben:
Wenn ich nicht einen groben Denkfehler mache (? - bitte kommentieren) lösen nur RCM und ACES dieses Problem.
Ja, machst Du.... Du siehst im. Schnitt doch immer das gegradete Endergebnis, keinen Log-Grauschleier. Immer noch nicht verstanden. Meine Clips im Mediapool - dort, wo ich sie sichte und bewerte - sind noch nicht in der Timeline und würden erst dann normalisiert (vorausgesetzt, ich hätte CST oder DRT als Timeline-Nodes), wenn ich sie dort einsetze. Oder?

Space


Antwort von Darth Schneider:

Also gerade bei Skintones wirkt für mich das mit CST natürlicher.
Gruss Boris

Space


Antwort von cantsin:

Axel hat geschrieben:
cantsin hat geschrieben:

Ja, machst Du.... Du siehst im. Schnitt doch immer das gegradete Endergebnis, keinen Log-Grauschleier.
Immer noch nicht verstanden. Meine Clips im Mediapool - dort, wo ich sie sichte und bewerte - sind noch nicht in der Timeline und würden erst dann normalisiert (vorausgesetzt, ich hätte CST oder DRT als Timeline-Nodes), wenn ich sie dort einsetze. Oder?
Ah, jetzt verstehe ich Dich - sorry. Ich dachte, Du beziehst Dich auf die Timeline bzw. die Color-Page. (Bei letzterer kann man nur graue Log-Suppe sehen, wenn die Umwandlung nach Rec709 auf der letzten Node sitzt, die Option "Highlight" sowie eine frühere Node aktiviert ist.)

In der Tat, im Mediapool sieht man bei manuellem Color Management über CST-/DRT-Nodes nur Log-Suppe. Ich wüsste keine Option, das zu umgehen; nur, als Hack, per temporärer Setzung einer Input-LUT in den Color Management-Projekt-Settings; die man dann aber wieder fürs echte Grading wieder deaktivieren müsste.

Space


Antwort von roki100:

Dein Skintones Beispiel, OpenDRT und JP... sieht für mich definitiv viel besser aus, organischer irgendwie filmischer.

Space


Antwort von Axel:

cantsin hat geschrieben:
In der Tat, im Mediapool sieht man bei manuellem Color Management über CST-/DRT-Nodes nur Log-Suppe. Ich wüsste keine Option, das zu umgehen; nur, als Hack, per temporärer Setzung einer Input-LUT in den Color Management-Projekt-Settings; die man dann aber wieder fürs echte Grading wieder deaktivieren müsste.
Das ginge schon einfacher. Für den Schnitt eine Projekteinstellung in HD und RCM, für‘s Grading wechseln auf UHD und CST (custom presets). Bisher war es halt so, dass ich keinen Vorteil bzw. überhaupt Unterschiede von CST gegenüber RCM erkennen konnte. Falls das mit OpenDRT nun anders sein sollte, werde ich’s wohl so machen.

Space


Antwort von cantsin:

Axel hat geschrieben:
Bisher war es halt so, dass ich keinen Vorteil bzw. überhaupt Unterschiede von CST gegenüber RCM erkennen konnte.
Wenn Du CST auf den Standardwerten belässt, gibt es auch keine Unterschiede - da RCM nichts anderes tut, als alle Gamma-/Farbraum-Transformationen im Projekt automatisch per CST im Hintergrund zu erledigen (also sozusagen per automatisch gesetzten, unsichtbaren CST-Nodes). Der Vorteil von händischem CST ist nur, dass die Parameter tweaken kannst, wie in meinem Fall (die standardmäßige inaktive) Gamut Compression + Saturation Knee.

Zurück zum DRT-Vergleich: Mein Traumszenario wäre, wenn sich ein Open Source-Programmierer fände, der den "Sigmoid"-Tonemapper des Open Source Foto-Raw-Entwicklers Darktable in eine Resolve-DRT umpacken würde. Zum Vergleich:

Sigmoid.jpg Sigmoid


CST tweaked_1.17.1.jpg CST


OpenDRT tweaked_1.19.1.jpg OpenDRT

Space


Antwort von iasi:

stip hat geschrieben:
iasi hat geschrieben:
Warum sollte man das Grading auf ein letztes Node und die dort enthaltenen Schieberegler konzentrieren.
Das Rot der Ampeln ist übertrieben? Dann begegnet man dem während des Gradings.
Du schmeisst 2 Dinge durcheinander, den Look und das Grading. Dein erster Satz zeigt wie ahnungslos du bist, denn das ist exakt die Arbeitsweise die in jedem Posthaus genutzt wird. Der Look kommt ganz am Ende, unter dem wird korrigiert und gegradet.

Der Look wird iim Vorfeld entwickelt, allgemein Show LUT genannt. Unter der wird gedreht und dann auch gegradet, ob mit der LUT selbst oder den einzelnen Komponenten aus denen die LUT gerechnet wurde.

Das "Rot der Ampel" ist zum grössten Teil auch schon in der Look Entwicklung behandelt, da musst du nicht jedes mal mit deinen Powerwindows oder Qualifiern anrücken, die groben Striche sind gemacht, der Rest ist mit simplen Boardmitteln zu machen. Das ist der Sinn von guten Transformationen.

OpenDRT, wie auch andere Transformationen, sind in sich ein Look, nicht ein Grading. Je näher der Look an deinem Wunschergebnis desto weniger Korrekturen und Grading müssen gemacht werden - was man daran nicht verstehen kann ist mir ein Rätsel aber du wirst gleich wieder irgendwas theoretisches in den Ring werfen.
Das ist doch Blödsinn. Schon weil du Look und Grading meinst unterscheiden zu müssen.

Der Look entsteht beim Grading. Dass nun danach noch herumgedoktert werden soll, ist doch kontraproduktiv.

Zumal mal wieder etwas Vorgefertigtes genutzt werden soll. Was du als "Korrekturen und Grading" bezeichnest, die du verringert haben willst, dient eigentlich der gezielten und kontrollierten Bildgestaltung.

Und wenn ich an die Ergebnisse denke, die man von so manchen Posthäusern auf der Leinwand und dem Bildschirm gezeigt bekommt, sollte ihnen dringend geraten werden, ihre Arbeitsweise zu überdenken. ;)

Das Problem, das ich sehe, ist ja gerade, dass "OpenDRT in sich ein Look sind" - wie du sagst.
Im Video oben sieht man ja, wohin das führt: 2 Transformationsnodes und dazwischen 3 Nodes fürs Grading.
Auch eure ganzen Beispiele lassen das Grading vermissen und OpenDRT soll gleich ein fertiges Ergebnis ausspucken, das dann vergleicht wird.
Es ist dasselbe wie mit den "Testaufnahmen" von Kameras, bei denen anhand des Aufnahemmaterials die Hauttöne verglichen werden - ohne echtes Grading.

OpenDRT dient als Gradingersatz - und das nenne ich einfach faul.

Space



Space


Antwort von stip:

Ah, jetzt erklärt iasi sogar schon der gesamten Filmindustrie dass sie Grading falsch angehen. Du solltest ihnen Kurse verkaufen, fang bei Company 3 an.

EDIT: btw du redest volkommenen Quatsch, da stimmt ja nichts.

Space


Antwort von cantsin:

iasi hat geschrieben:
Auch eure ganzen Beispiele lassen das Grading vermissen und OpenDRT soll gleich ein fertiges Ergebnis ausspucken, das dann vergleicht wird.
Es ist dasselbe wie mit den "Testaufnahmen" von Kameras, bei denen anhand des Aufnahemmaterials die Hauttöne verglichen werden - ohne echtes Grading.
Du weisst offensichtlich nicht, was der Unterschied von Farbraumumwandlung, Farbkorrektur und Grading ist.

Space


Antwort von Darth Schneider:

Ich denke der iasi bringt den ungefähren, den möglichst cleanen Look (welcher ja DRT/CST mit der Umwandlung definieren) mit dem Grading durcheinander.

Und natürlich, wenn man Log/Raw Kameras oder verschiedene Workflows betreffend Hauttöne miteinander vergleicht, dann aber bitte für mich nur ganz ohne Colorgrading, nur mit CST oder DRT.
Gruss Boris

Space


Antwort von Darth Schneider:

@Cantisn
Mir gefällt CST immer noch am besten…;)
Gruss Boris

Space


Antwort von Axel:

@cantsin
Danke für deine Erläuterungen. Für mich sind die Unterschiede schon deutlich sichtbar, allerdings bin ich mir unsicher, ob nicht in deinen letzten drei Vergleichsbildern mir CST (=RCM) am besten gefällt.
@iasi
Schätze, ich weiß, was du meinst. Für mich galt bisher: das Farbmanagement in Resolve ist kein Look, sondern so eine Art mathematisch errechnete Wandlung vom einen ins andere. Wäre nie überhaupt nur auf die Idee gekommen, das anzuzweifeln. Und selbstverständlich kann das Grading einen Einfluss auf den Look haben. Wichtig ist halt, dass der Look einen Einfluss auf das Grading hat, weswegen er in der sichtbaren Bearbeitungskette (d.h. am Schluss) am Anfang steht, nicht ein nur theoretisch ausbalanciertes, neutrales Bild. Vor allem Cullen Kelly wies zuletzt immer wieder darauf hin, dass Coloristen sich sofort von "kamerabasierter" Korrektur abwenden sollten und sich der szenenbasierten zuwenden. Zuletzt demonstriert an den Camera-Raw-Werkzeugen, die nicht wirklich die Daten zerstören, aber eine Idee im Kopf des Bearbeiters entstehen lassen, es ginge um eine Optimierung der rec709-Interpretation. Wenn es darum ginge, bräuchte man gar kein Raw oder Log, sondern bloß ein (so genanntes) neutrales 709-Profil bei der Aufnahme.

Also: CST ist eine mögliche Interpretation des Eingangs-Farbprofils, nicht die eine (wie die DRTs zeigen). Sie ist i.d.R. nicht der fertige Look, sondern ein alternativer Ausgangspunkt, der, wie man sieht, Geschmacksache ist.

Space


Antwort von Darth Schneider:

Für mein Verständnis ist CRT schon auch ein Look, aber ein neutraler Look.
Halt nur Farbmanagment.
Ich arbeite öfters mal nur mit CRT, für vieles genügts…

Und sieht für meine Augen immer noch besser aus, als das „in Camera zu Rec709“.
Egal ob mit der LUMIX oder mit der Blackmagic.
Und man hat mit CRT mit RAW oder Log die Möglichkeit in Post Details (wie Skintones) viel besser korrigieren zu können.
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Ich denke der iasi bringt den ungefähren, den möglichst cleanen Look (welcher ja DRT/CST mit der Umwandlung definieren) mit dem Grading durcheinander.

Und natürlich, wenn man Log/Raw Kameras oder verschiedene Workflows betreffend Hauttöne miteinander vergleicht, dann aber bitte für mich nur ganz ohne Colorgrading, nur mit CST oder DRT.
Gruss Boris
Da ist nichts "clean", wenn man noch herumstellt.

Wenn man Kameras vergleicht, dann nur mit komplettem Colorgrading.
Eine Arri Alexa oder Red-Cam machen nun einmal auch ihre Raw-Formate und deren Gradingpotential aus.

Es ist schon eine eigenartige Modeerscheinung vorgefertigte Looks über das Material legen zu wollen, statt das Material zu gestalten.

https://youtu.be/bbpOWNeOG3g?t=676

Aber immerhin einer der erfolgreichsten deutschen Filme der letzten Zeit. :)

Space


Antwort von Darth Schneider:

@iasi
Da bin ich voll anderer Meinung.
Das vergleichen (auch von RAW oder Log Kameras) geht für mich nur ganz ohne Colorgrading.
Ich will wissen wie gut eine Kamera ganz ohne Colorgrading, nur mit (Auto) CST performt.

Das was ein Profi mit Grading aus der Kamera herausholen kann ist für mich überhaupt nicht relevant. Weil ich bin kein Colorgrading Profi und habe auch nicht das nötige Geld einen zu bezahlen…;))

Und hey, das richtig belichtete und schön beleuchtete Bild aus einer Arri oder aus einer teuren Red. Auch einer URSA, Pyxis, FX9/6/3, oder Nikon Z8/Z6IIII, sieht auch ganz ohne Colorgrading schon sehr toll aus….
Weil die Skintones sind in etwa da wo sie hingehören. Darum geht es ja schlussendlich.

Skintones ist und bleibt die absolute Königsklasse bei allen Kamera Vergleichen..
Diese möglichst neutral zu vergleichen geht nur ganz ohne Colorgrading.

Mit Grading Kameras vergleichen kann man schon, aber dann geht es nur noch um den bevorzugten Look, nicht um die Kamera an sich.
Gruss Boris

Space


Antwort von stip:

Also mal zum Grundverständnis.

Display-Standards wie BT.1886 (Rec.709 + 2.4 transfer function) haben keinen genormten Basis "Look".
ACES, CST's, DRT's oder LUTs dienen alle dazu aus log oder raw Material ein "brauchbares" Bild auf einem normalen Bildschirm zu machen. Alle darin enthaltenen Berechnungen sind sowohl technische (gamut ect) aber eben auch ästhetische Entscheidungen der Designer. Wieviel Kontrast, wie stark die Sättigung. Eine Kontrastkurve zu definieren ist bereits eine ästhetische Interpretation der Daten. Es gibt keinen standardisierten Nullpunkt von dem aus der Rest dann als Grading oder Look-Development gilt.

Die Transformation an sich ist eine gestalterische Interpretation. Kamerahersteller fangen mit der Interpretation schon beim Wandeln der Sensordaten an. Auch für iasis geliebtes REDRAW hat RED mehrere Transformation erarbeitet die dann eben ihren Vorstellungen eines ästhetischen Bildes entsprechen. Arri hat andere Entscheidungen getroffen, Sony wieder andere, Blackmagic wieder andere.

Es gibt also keine "neutrale" Transformation.

Space



Space


Antwort von stip:

"Darth Schneider" hat geschrieben:

Und hey, das richtig belichtete und schön beleuchtete Bild Bild einer Arri oder einer teuren Red sieht auch ganz ohne Colorgrading schon sehr toll aus….
Gruss Boris
Richtig. Und das ist so weil deren Transformationen, wie oben beschrieben, eben bereits ästhetische Interpretationen sind.

Space


Antwort von Darth Schneider:

Kar, darum wäre es sinnvoll bei allen LOG/RAW Kamera Vergleichen nur mit automatischem CST zu arbeiten…Immer in der selben Software.
Weil nur so hat man einen wirklich neutralen Bezugspunkt/die selbe Ausgangslage.

Sonst (auch mit nur wenig Colorgrading/Corection oder dem nutzen von verschiedenen Software Tools) werden Kamera Vergleiche zur reinen Lotterie.
Gruss Boris

Space


Antwort von cantsin:

stip hat geschrieben:
Es gibt also keine "neutrale" Transformation.
Ja. Und schon die Tatsache, wie Farben außerhalb des Farbraums und Lichter außerhalb des darstellbaren DRs gemappt bzw. im kleineren Farb- und Kontrastraum dargestellt werden, ist eine ästhetische Entscheidung.

Abgesehen von der allgemeinen Tatsache, dass eine Kamera sowieso in jeder Hinsicht anders "sieht" als das menschliche Auge und jede Umwandlung der Sensordaten in ein fürs menschliche Auge stimmige Bild subjektiv-ästhetische Entscheidungen nötig macht. In der Zeit Rembrandts hätte man DRTs daher wohl anders gestaltet als heute. Und die JPEG-Kameraprofile alter DSLRs waren aus ähnlichen Gründen noch viel stärker an den Farben chemischer Filme angelehnt.

Allerdings gibt es schon einen Unterschied, ob eine DRT möglichst viel Bildinformationen (wie z.B. Luma-Gradationen und Farbnuancen) bewahrt oder ob sie eher Bildinformation stilistisch reduziert. Im letzteren Fall eignet sie sich dann weniger gut als Basis eigener Looks.

Space


Antwort von Axel:

iasi hat geschrieben:
Es ist schon eine eigenartige Modeerscheinung vorgefertigte Looks über das Material legen zu wollen, statt das Material zu gestalten.
Der Look ist die Gestaltung. Wir hatten das schon früher. Selbst wenn du einen neutralen Look anstrebst, ist es zu guter Letzt ein Look (siehe auch "Realismus", lange Debatten hier). Und es gibt mehrere Gründe, ein Video nicht so zu bearbeiten wie eine einzelne Fotografie in Lightroom oder CR+Photoshop:

1. Jeder Bearbeitungsschritt ist zwar theoretisch reversibel, also nicht-destruktiv, aber der Weg und das Ziel sind die kreative Zerstörung der Daten um der Wirkung willen.

2. Man kann natürlich - anscheinend dein MO - eine Bilddatei zuerst in Belichtung, Farbtemperatur und Kontrast *aufgrund bestimmter Kriterien* korrigieren, um sie anschließend peu à peu zu würzen, zu verbiegen, zu beschneiden, kreativ zu verhunzen. Das mache ich mit Fotos so. Idealerweise hat man sich halbwegs bei der Aufnahme drum bemüht, dass die Parameter optimal sind (Weißabgleich, richtige Motivbelichtung). Das richtige Ausgangsmaterial kameraseits. In Resolve kann ich nun in den ersten Nodes das noch weiter optimieren: perfekte Scopes! Und dann Schritt für Schritt, immer ein neuer, jungfräulicher Node, in die Gegenrichtung gehen, experimentell, den Look erfühlen, erforschen. Dabei ist jedoch jeder vorgehende Node das Vorurteil, dem ich nicht entgehen kann. Ich sehe nolens volens immer das Endergebnis. Und ich zerstöre, wie gesagt nie wirklich, aber effektiv, meine vorhergehenden Bemühungen. Jeder weitere Node beruht auf weniger verfügbaren Originaldaten.

3. Der Unterschied von einem Bild-Unikat und einer Filmsequenz ist, dass letztere einen einheitlichen Look und Feel haben muss. Viel Spaß damit bei deinem Trial&Error - Workflow. Stu Maschwitz schrieb es genau so: first grade for look, then for consistency und Alexis van Hurkman mit seinem Beharren auf der Beachtung der Pipeline. Der zerstörerischste Node, der Look, muss am Schluss stehen, aber er steht dort von Anfang an. Wird er erst am Ende der Bearbeitung hinzugefügt, war deine ganze Arbeit für die Katz.

4. Selbstverständlich müssen Looks nicht vorgefertigt sein. Beispiel Bleach Bypass. Das kann dooferweise eine LUT am Ende sein oder der Film Look Creator. Oder du willst dem Schwarz-Weiß-Composite etwas mehr Aufmerksamkeit schenken und es zum Beispiel in einem Layer-Mixer-Node durch den Kanalmixer harscher oder softer in der Hauttextur machen. Du kannst auch den Farb-Node getrennt bearbeiten und bestimmte Wirkungen erzielen. Die grundlegende Belichtung (oft der erste Node) legst du fest nicht als Korrektur der Kamera, sondern der Szene!

Space


Antwort von Darth Schneider:

5. Der wirklich coole Look entsteht zu 80 oder 90% doch immer schon mal vor der Kamera, nur zu 10 oder 20% in Post, egal ob bei Foto oder Film.
Mal abgesehen von GreenScreen, oder speziellen und in Post sehr aufwendigem VFX/Clorgrading Shots/Jobs,

Nur meine vielleicht etwas altmodische Meinung..

Mit anderen Worten,
wenn die Leute vor der Kamera und die Crew beim Dreh, ganz genau wissen was sie tun und was sie wollen,
ja dann wird der ganze Film am Schluss viel günstiger….;)
Gruss Boris

Space


Antwort von Axel:

"Darth Schneider" hat geschrieben:
5. Der wirklich coole Look entsteht zu 80 oder 90% doch immer schon mal vor der Kamera, nur zu 10 oder 20% in Post, egal ob bei Foto oder Film.
Der Look ist als Konzept schon vorhergesehen worden, siehe Moodboards und andere Concept-Art. Die Beleuchtung, die Farben der Kostüme und des Sets, da wird wenig dem Zufall überlassen. Man verstärkt (und manchmal fixt) in der Post, was schon vorgegeben war. Es ist kein Fischen im Trüben.

Space


Antwort von Darth Schneider:

Das selbe meine ich mit 80 oder 90% vom Look passiert schon „vor der Kamera“….
Planung und die richtigen Leute rund herum beim Dreh.
Die vor dem Dreh schon ganz genau wissen wie und was es alles dazu braucht.

Natürlich waren/sind Filme wie Shining, 2001, Indiana Jones, Seven, Blade Runner, Angel Heart, Alien, The Batman, F1, (neue Dune Filme) und natürlich Oppenheimer, oder auch Barbie somit gar gar kein visuelles fischen im trüben Wasser.

Zum Beispiel, Star Wars Episode 4 aber schon.
Das fischen im visuell trüben Gewässer sieht man dem trotzdem genialen Film (wegen der VFX und was SF Design betrifft. Allgemeine Pionierarbeit) auch heute noch ganz klar an…;D
Gruss Boris

Space


Antwort von Axel:

"Darth Schneider" hat geschrieben:
Das selbe meine ich mit 80 oder 90% vom Look passiert schon „vor der Kamera“….
Kennt jemand von euch Procreate? Es macht Spaß, damit zu malen. Man kann auch löschen, skizzieren, übermalen und mit Transparenzen spielen. Das Malen selbst ist überwiegend absichtsvoll, teilweise natürlich intuitiv.

Es macht auch Spaß, die Gemälde nochmal nachzubearbeiten, ihnen einen zusätzlichen Look-Filter zu geben. So verstehe ich - abgesehen vom reinen Fixen - Colorgrading. Mehr draus machen durch eine Schicht aus schickem Kokolores.


zum Bild

Lampe über meinem Bett, Procreate.

zum Bild

Lampe über meinem Bett, iPhone.

Space


Antwort von Darth Schneider:

Klar kenn ich das, aber beim Film ist das anders….
Das Licht, die Farben, was vor der Kamera bei bewegten Bildern passiert und die ganzen Fehler am Set kann man nicht so einfach in Post mit Colorgrading reparieren und verbessern wie so manche hier scheinbar immer noch glauben.
Das braucht jahrelange Übung, viel Zeit und sehr viel professionelle Erfahrung,…

Aber natürlich, man kann in naher Zukunft die Filme oder die Fotos auch gleich komplett mit einer AI gestalten.
Und Jahre todlangweilig damit verbringen der Ai zu versuchen zu sagen was sie überhaupt machen soll…;)))
Gruss Boris

Space



Space


Antwort von roki100:

OFX: https://github.com/Dec18studios/Open-DRT-OFX/releases

https://www.youtube.com/watch?v=OUn_o_e-D3g

Space


Antwort von iasi:

stip hat geschrieben:
Also mal zum Grundverständnis.

Display-Standards wie BT.1886 (Rec.709 + 2.4 transfer function) haben keinen genormten Basis "Look".
ACES, CST's, DRT's oder LUTs dienen alle dazu aus log oder raw Material ein "brauchbares" Bild auf einem normalen Bildschirm zu machen. Alle darin enthaltenen Berechnungen sind sowohl technische (gamut ect) aber eben auch ästhetische Entscheidungen der Designer. Wieviel Kontrast, wie stark die Sättigung. Eine Kontrastkurve zu definieren ist bereits eine ästhetische Interpretation der Daten. Es gibt keinen standardisierten Nullpunkt von dem aus der Rest dann als Grading oder Look-Development gilt.

Die Transformation an sich ist eine gestalterische Interpretation. Kamerahersteller fangen mit der Interpretation schon beim Wandeln der Sensordaten an. Auch für iasis geliebtes REDRAW hat RED mehrere Transformation erarbeitet die dann eben ihren Vorstellungen eines ästhetischen Bildes entsprechen. Arri hat andere Entscheidungen getroffen, Sony wieder andere, Blackmagic wieder andere.

Es gibt also keine "neutrale" Transformation.
Die Kamerahersteller betreiben einen sehr großen Aufwand mit ihrem Color-Sience.
Warum sollte man da einen "Look" drüberklatschen?

Eine "neutrale" Transformation streben dabei alle an. Und genau hier liegen doch die Stärken von Arri und Red. Bei Arri hast du z.B. so gut wie keinen Color-Shift über den DR-Bereich.

Und eine Kamera testet man doch eher indem man sie und ihren Codec so richtig fordert.
u.a.: Wie weit lassen sich die Hauttöne auch bei Aufnahmen mit miesem Licht noch hinbiegen.

Irgendwelche vorgefertigten Looks mögen einem intensives, also ordentliches Grading ersparen, aber dabei wird viel zu viel verschenkt.

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Das selbe meine ich mit 80 oder 90% vom Look passiert schon „vor der Kamera“….
Planung und die richtigen Leute rund herum beim Dreh.
Die vor dem Dreh schon ganz genau wissen wie und was es alles dazu braucht.

Natürlich waren/sind Filme wie Shining, 2001, Indiana Jones, Seven, Blade Runner, Angel Heart, Alien, The Batman, F1, (neue Dune Filme) und natürlich Oppenheimer, oder auch Barbie somit gar gar kein visuelles fischen im trüben Wasser.

Zum Beispiel, Star Wars Episode 4 aber schon.
Das fischen im visuell trüben Gewässer sieht man dem trotzdem genialen Film (wegen der VFX und was SF Design betrifft. Allgemeine Pionierarbeit) auch heute noch ganz klar an…;D
Gruss Boris
Was soll denn immer diese Trennung von "vor der Kamera" und Post.
Beides gehört untrennbar zusammen.
Oppenheimer wurde auf Negativ gedreht, das dann sehr gezielt - nach vielen Test - belichtet und entwickelt wurde.
Das dürfte so ziemlich allen auf Negativ gedrehten Filmen der Fall gewesen sein, die du auszählst. Da hatte auch niemand am Set auf einen Vorschaumonitor gestarrt, um den "Look" zu überprüfen.

Auch bei Digi-Cine-Cams gilt: Der Vorschaumonitor zeigt nicht das fertige Bild - das wird erst in der Post "ausentwickelt".

Space


Antwort von pillepalle:

iasi hat geschrieben:
Auch bei Digi-Cine-Cams gilt: Der Vorschaumonitor zeigt nicht das fertige Bild - das wird erst in der Post "ausentwickelt".
Schade, dass du dich in der Post nicht auch mal ausentwickelst. Du bist in deiner Ansel-Adams-Gedankenschleife gefangen... und wir müssen drunter leiden :)

VG

Space


Antwort von ich nicht:

pillepalle hat geschrieben:
iasi hat geschrieben:
Auch bei Digi-Cine-Cams gilt: Der Vorschaumonitor zeigt nicht das fertige Bild - das wird erst in der Post "ausentwickelt".
Schade, dass du dich in der Post nicht auch mal ausentwickelst. Du bist in deiner Ansel-Adams-Gedankenschleife gefangen... und wir müssen drunter leiden :)

VG
jemand soll ja mal über ansel adams gesagt haben, er habe beethovens mondscheinsonate gespielt als würde jemand einen sack kartoffeln eine treppe hinunterwerfen ... in der hoffnung das dabei zufällig die richtigen töne entstehen. das wäre ja wie wenn jemand eine kamera einfach aus dem handschuhfach seines autos laufen lässt ohne lichtsetzung, mit falschem codec und overexposure ... und dann erwartet, dass das material besser als lawrence of arabia in 70mm aussieht.

Space


Antwort von iasi:

stip hat geschrieben:
Ah, jetzt erklärt iasi sogar schon der gesamten Filmindustrie dass sie Grading falsch angehen. Du solltest ihnen Kurse verkaufen, fang bei Company 3 an.

EDIT: btw du redest volkommenen Quatsch, da stimmt ja nichts.
Du gehörst zu denen, die Grading so verstehen, dass sie das Material einigermaßen hinbiegen, statt es wirklich zu gestalten, um dann am Ende einen "Look" drüberzulegen.

Die erfolgreiche Filmindustrie weiß das Grading zu schätzen und zu nutzen, weshalb z.B. die meisten deutschen Produktionen nicht so aussehen, wie internationale.

Die youtuber-Helden beginnen mal eben mit einem DRT- vs CST-Aufreger und schon jubelst du.
Das läuft dann so wie hier ab:

https://youtu.be/AW42k79BnuI?t=770

Die funktionierende Filmindustrie führt ein vollständiges und ordentliches Grading durch und verliert sich nicht in solchen faulen Scheinvergleichen.

Die "gesamte Filmindustrie" ! :):):)
Du erkennst keinen Unterschied zwischen z.B. vielen deutschen Filmen und internationalen?

Space


Antwort von stip:

iasi hat geschrieben:
stip hat geschrieben:
Also mal zum Grundverständnis.

Display-Standards wie BT.1886 (Rec.709 + 2.4 transfer function) haben keinen genormten Basis "Look".
ACES, CST's, DRT's oder LUTs dienen alle dazu aus log oder raw Material ein "brauchbares" Bild auf einem normalen Bildschirm zu machen. Alle darin enthaltenen Berechnungen sind sowohl technische (gamut ect) aber eben auch ästhetische Entscheidungen der Designer. Wieviel Kontrast, wie stark die Sättigung. Eine Kontrastkurve zu definieren ist bereits eine ästhetische Interpretation der Daten. Es gibt keinen standardisierten Nullpunkt von dem aus der Rest dann als Grading oder Look-Development gilt.

Die Transformation an sich ist eine gestalterische Interpretation. Kamerahersteller fangen mit der Interpretation schon beim Wandeln der Sensordaten an. Auch für iasis geliebtes REDRAW hat RED mehrere Transformation erarbeitet die dann eben ihren Vorstellungen eines ästhetischen Bildes entsprechen. Arri hat andere Entscheidungen getroffen, Sony wieder andere, Blackmagic wieder andere.

Es gibt also keine "neutrale" Transformation.
Die Kamerahersteller betreiben einen sehr großen Aufwand mit ihrem Color-Sience.
Warum sollte man da einen "Look" drüberklatschen?

Eine "neutrale" Transformation streben dabei alle an. Und genau hier liegen doch die Stärken von Arri und Red. Bei Arri hast du z.B. so gut wie keinen Color-Shift über den DR-Bereich.

Und eine Kamera testet man doch eher indem man sie und ihren Codec so richtig fordert.
u.a.: Wie weit lassen sich die Hauttöne auch bei Aufnahmen mit miesem Licht noch hinbiegen.

Irgendwelche vorgefertigten Looks mögen einem intensives, also ordentliches Grading ersparen, aber dabei wird viel zu viel verschenkt.
Du hast nichts verstanden, ist jetzt aber auch nichts neues.

Space


Antwort von stip:

iasi hat geschrieben:

Auch bei Digi-Cine-Cams gilt: Der Vorschaumonitor zeigt nicht das fertige Bild - das wird erst in der Post "ausentwickelt".

Du lebst in deiner eigenen Welt. Ein Beispiel:

Joachim Zell von Arri hat für Roger Deakins in wochenlanger Arbeit eine LUT entwickelt die auf Film-Datensets basierte. Deakins hatte ihm "True Grit" als Referenz gegeben,. Diese LUT nutzt Deakins seit seinem ersten digitalen Film, "In Time" (2011) für jeden Film, ob Bladerunner 2049, 2017, Skyfall, Prisoners.

Er sitzt nach jedem Dreh in der Grading Suite um den Prozess zu supervisen. Die einzigen Änderungen die sie vornehmen sind leichte Belichtungs-, Sättigungs- und Temp/Tint-tweaks.

Deakins nutzt also eine custom-made DRT und zwar die gleiche für alle seine Filme. Gemacht werden muss danach wenig. Der grobe Pinsel wurde schon längst geschwungen, die Post ist Feinjustierung.

Diesen Ansatz verfolgen echte Coloristen (also nicht die auf YouTube) ebenso. Die Show LUT wird vorher entwickelt, in Verbindung mit Kamera- (und im Idealfall mit) Location- und Kostümtests, in der tatsächlichen Postproduction folgt lediglich Perfektionierung.

Nur wenn die Planung Schrott ist wird erst nach dem Dreh ein Look "entwickelt". Was aber iasi's Vorstellung des Prozesses ist (der sich mit dem der selbsternannten Coloristen auf YouTube deckt und in deren nutzlosen LUT-Packs mündet).

Space


Antwort von iasi:

stip hat geschrieben:
iasi hat geschrieben:


Die Kamerahersteller betreiben einen sehr großen Aufwand mit ihrem Color-Sience.
Warum sollte man da einen "Look" drüberklatschen?

Eine "neutrale" Transformation streben dabei alle an. Und genau hier liegen doch die Stärken von Arri und Red. Bei Arri hast du z.B. so gut wie keinen Color-Shift über den DR-Bereich.

Und eine Kamera testet man doch eher indem man sie und ihren Codec so richtig fordert.
u.a.: Wie weit lassen sich die Hauttöne auch bei Aufnahmen mit miesem Licht noch hinbiegen.

Irgendwelche vorgefertigten Looks mögen einem intensives, also ordentliches Grading ersparen, aber dabei wird viel zu viel verschenkt.
Du hast nichts verstanden, ist jetzt aber auch nichts neues.
Du verstehst offensichtlich nicht die Grundlagen des Gradings.
Statt solche oberflächlichen Look-Vergleich-youtube-Videos solltest du dir vielleicht mal Beispiele ansehen, wie eine Einstellung wirklich richtig und komplett gegradet wird.

Wie schon gesagt:
Das hier ist gerade so, wie dieses Kamera-Vergleiche, bei denen LUT-drüber-Hauttonvergleiche gemacht werden.
Da gefällt dann 10bit-S-log-Material fast so gut wie unkomprimiertes Arri-Raw. Man blendet mal eben das Grading komplett aus.
Ganz so als das Negativ einer nach dem Zonensystem belichteten Aufnahme, bei der Drogerie um die Ecke zur Entwicklung geschickt. Und wenn die Abzüge dann nicht gut aussehen, flüchtet man sich in Phrasen wie: "90% des Bildes entstehen vor der Kamera."

Space



Space


Antwort von iasi:

stip hat geschrieben:
iasi hat geschrieben:

Auch bei Digi-Cine-Cams gilt: Der Vorschaumonitor zeigt nicht das fertige Bild - das wird erst in der Post "ausentwickelt".

Du lebst in deiner eigenen Welt. Ein Beispiel:

Joachim Zell von Arri hat für Roger Deakins in wochenlanger Arbeit eine LUT entwickelt die auf Film-Datensets basierte. Deakins hatte ihm "True Grit" als Referenz gegeben,. Diese LUT nutzt Deakins seit seinem ersten digitalen Film, "In Time" (2011) für jeden Film, ob Bladerunner 2049, 2017, Skyfall, Prisoners.

Er sitzt nach jedem Dreh in der Grading Suite um den Prozess zu supervisen. Die einzigen Änderungen die sie vornehmen sind leichte Belichtungs-, Sättigungs- und Temp/Tint-tweaks.

Deakins nutzt also eine custom-made DRT und zwar die gleiche für alle seine Filme. Gemacht werden muss danach wenig. Der grobe Pinsel wurde schon längst geschwungen, die Post ist Feinjustierung.

Diesen Ansatz verfolgen echte Coloristen (also nicht die auf YouTube) ebenso. Die Show LUT wird vorher entwickelt, in Verbindung mit Kamera- (und im Idealfall mit) Location- und Kostümtests, in der tatsächlichen Postproduction folgt lediglich Perfektionierung.

Nur wenn die Planung Schrott ist wird erst nach dem Dreh ein Look "entwickelt". Was aber iasi's Vorstellung des Prozesses ist (der sich mit dem der selbsternannten Coloristen auf YouTube deckt und in deren nutzlosen LUT-Packs mündet).
Danke für das passende Beispiel, das dieses universelles-Look-gestalten am Ende widerlegt.

Deakins hat seine Arbeitsweise auf eine bestimmte Art des Gradings abgestimmt. Da wird nicht getrennt, sondern Grading als Teil des Prozesses verstanden. Und Arri hat hierzu seine Color-Sience beigetragen.
Das ist dann wie beim Fotografieren nach dem Zonensystem. Wer die Post nicht mitdenkt, verschenkt die Möglichkeiten des Zonensystems.

Wer natürlich wie stip denkt, er könne am Ende mal eben ein wenig mit verschiedenen Looks herumprobieren, die er zusammengetragen hat, wird keine Ergebnisse wie Deakins erzielen können, auch wenn stip davon träumt.

Space


Antwort von cantsin:

iasi hat geschrieben:
Du verstehst offensichtlich nicht die Grundlagen des Gradings.
Hast Du schon mal den Namen Dunning-Kruger gehört?

Space






Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic DaVinci Resolve / Fusion-Forum

Antworten zu ähnlichen Fragen //


Open DRT Stickshift für Resolve
Resolve Color Management - V-log, mixed footage & plugins, RCM/CST/ACES
Probleme mit RCM vs. CST
Speicherplatz statt GPU-Power: Neue Cryptowährung Chia könnte zu HDD/SSD Knappheit führen
NAB 2021 findet im Oktober statt - IBC 2021 ist auf Dezember verschoben
2,7 Mio.€ vom Land - LED-Wand statt Greenscreen
Ruckeln von Material aus GH5 mit 59,94 FPS (statt 50 FPS vorher)
Low Budget Virtual Production: Monitor statt teurer LED-Wand
Kinefinity MAVO Edge 6K - ProRes statt compressed RAW
KI statt Greenscreen: Videohintergründe per Kommandozeile ändern
DeepFake statt Nachdreh: Schimpfwörter nachträglich aus Kinofilm entfernt
Neue Thunderbolt-Version wird bis zu 4x schneller: 120 statt 40 Gbit/s
Statt Rechnung Honorrarbasis um KSK zu umgehen?
Zoom F6 mit IPhone 14Pro (statt Ipad Pro) verbindbar?
Hamburger Fotomesse Photopia wird eingestellt und findet 2024 nicht mehr statt
Skateboard + Stativ statt Gimbal?
Alternative Encore ODER Menü für HDD statt BD/DVD
Motion Graphics mit KI statt After Effects?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash