slashCAM
Administrator
Administrator
Beiträge: 11279

Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von slashCAM »

Bild
Farbkorrektur kann nur korrekt funktionieren, wenn sie in einem kontrollierten Farbraum stattfindet. Dies bedeutet in der Praxis, dass man laut Lehrbuch immer in einem linearen Farbraum korrigieren sollte. Doch warum ist das so und was bedeutet dies eigentlich?



Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Grundlagen: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums



dienstag_01
Beiträge: 14443

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von dienstag_01 »

Die dritte Komponente in diesem Spiel ist das Vorschau-Profil. Um während der Arbeit im Arbeitsfarbraum die Ergebnisse korrekt beurteilen zu können, muss die TimelineTimeline im Glossar erklärt für die korrekte Darstellung am Monitor ebenfalls angepasst werden. Stellt der Monitor beispielsweise Farben im sRGB-Farbraum dar, so muss die TimelineTimeline im Glossar erklärt mit einem Farbprofil für die Vorschau nach sRGB transformiert werden.
Das verstehe ich, ehrlich gesagt, nicht. Wenn ich z. B. Log-Material auf der Timeline und als Vorschau einen 709-Monitor habe, dann kann ich das Material doch komplett ohne irgendwelche LUTs für eine 709 Ausgabe bearbeiten. Warum *muss* ich die Timeline nach 709 wandeln, ich sehe doch sowieso das Ergebnis (und passe es gegebenenfalls an).
Oder?



rudi
Administrator
Administrator
Beiträge: 1541

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von rudi »

dienstag_01 hat geschrieben: Di 13 Nov, 2018 10:52
Die dritte Komponente in diesem Spiel ist das Vorschau-Profil. Um während der Arbeit im Arbeitsfarbraum die Ergebnisse korrekt beurteilen zu können, muss die TimelineTimeline im Glossar erklärt für die korrekte Darstellung am Monitor ebenfalls angepasst werden. Stellt der Monitor beispielsweise Farben im sRGB-Farbraum dar, so muss die TimelineTimeline im Glossar erklärt mit einem Farbprofil für die Vorschau nach sRGB transformiert werden.
Das verstehe ich, ehrlich gesagt, nicht. Wenn ich z. B. Log-Material auf der Timeline und als Vorschau einen 709-Monitor habe, dann kann ich das Material doch komplett ohne irgendwelche LUTs für eine 709 Ausgabe bearbeiten. Warum *muss* ich die Timeline nach 709 wandeln, ich sehe doch sowieso das Ergebnis (und passe es gegebenenfalls an).
Oder?
Hmm, vielleicht nicht einfach genug formuliert. Gemeint ist: Wenn die Timeline linear ist, dann muss ich sie noch zur Vorschau am Monitor an die Gammakaurve des Monitors anpassen. Diese Transformation geht jedoch nicht in den Output ein, sondern wird nur speziell zu Vorschauzwecken vom Signal "abgezweigt".



cantsin
Beiträge: 16244

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von cantsin »

Das praktische Problem dürfte sein, dass fast alle Konversions-LUTs (z.B. für Log-Profile) direkt nach Rec709 konvertieren, nicht in einen linearen Farbraum.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip



blueplanet
Beiträge: 1676

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von blueplanet »

...und mit anderen Worten, man benötigt (möglichst) einen kalibrierten Bildschirm. Somit sehe ich auch korrekt das, was ich am PC-Schirm gegradet habe auf meinem TV (wenn dieser ebenfalls kalibriert ist). Und spätestens dort trifft mathtematische Theorie consumer Praxis.
Wer hat, wer kann schon seinen TV kalibrieren?! Ich habe einen guten, alten THX-zertifizierten Neon-Plasma. Dort war und ist das möglich...schau' ich mir dagegen mein Material auf irgendeinem Rec709-Schirm aus dem Bekanntenkreis an, dann gibt es ebenso viele "Bildprofil-Varianten" wie es Geräte gibt. Ergo, das Zünglein an der Waage sind nicht Rec709 oder 2020 etc. sondern bestenfalls der persönliche Geschmack und schlimmstenfalls was die Hersteller uns werksseitig vor die Augen setzen. Siehe Sony vs. Samsung vs. Panasonic vs...



rudi
Administrator
Administrator
Beiträge: 1541

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von rudi »

cantsin hat geschrieben: Di 13 Nov, 2018 13:15 Das praktische Problem dürfte sein, dass fast alle Konversions-LUTs (z.B. für Log-Profile) direkt nach Rec709 konvertieren, nicht in einen linearen Farbraum.
Definitv. Wobei mir absolut nicht klar ist, warum das die Hersteller so machen. Weil sie einfach davon ausgehen dass 99 Prozent aller Timelines in Rec709 betrachtet werden?
Solche LUTs erhöhen die Komplexität des Color Managements unnnötig. Darum auch Lob für Blackmagic, die explizit LUTs nach Linear beilegen.
Eigentlich wären jetzt aber LUTs nach linear ACES gefragt. Der Standard ist da und jeder könnte sich dran halten. Ich frage mich nur, wie stark die Farben dann nach der Linearisierung zwischen den Herstellern noch differieren würden. Im Zweifelsfall dürfte es bei RAW kaum noch Unterschiede zwischen den Kameras geben.



dienstag_01
Beiträge: 14443

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von dienstag_01 »

Helft mir nochmal. Wenn ich in den Projekt Settings als 3D Color Viewer LUT *Linear to sRGB* wähle (Timeline Color Space ist linear), wird mein Vorschaubild deutlich zu hell. Und es werden auch die Scopes beeinflusst. Das ist doch völliger Nonsens.



susy
Beiträge: 183

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von susy »

rudi hat geschrieben: Di 13 Nov, 2018 13:39
cantsin hat geschrieben: Di 13 Nov, 2018 13:15 Das praktische Problem dürfte sein, dass fast alle Konversions-LUTs (z.B. für Log-Profile) direkt nach Rec709 konvertieren, nicht in einen linearen Farbraum.
Definitv. Wobei mir absolut nicht klar ist, warum das die Hersteller so machen. Weil sie einfach davon ausgehen dass 99 Prozent aller Timelines in Rec709 betrachtet werden?
Solche LUTs erhöhen die Komplexität des Color Managements unnnötig. Darum auch Lob für Blackmagic, die explizit LUTs nach Linear beilegen.
Eigentlich wären jetzt aber LUTs nach linear ACES gefragt. Der Standard ist da und jeder könnte sich dran halten. Ich frage mich nur, wie stark die Farben dann nach der Linearisierung zwischen den Herstellern noch differieren würden. Im Zweifelsfall dürfte es bei RAW kaum noch Unterschiede zwischen den Kameras geben.
Für ACES gibt es doch schon viele IDTs, oder ist das wieder was anderes?



dienstag_01
Beiträge: 14443

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von dienstag_01 »

rudi hat geschrieben: Di 13 Nov, 2018 11:27
dienstag_01 hat geschrieben: Di 13 Nov, 2018 10:52
Das verstehe ich, ehrlich gesagt, nicht. Wenn ich z. B. Log-Material auf der Timeline und als Vorschau einen 709-Monitor habe, dann kann ich das Material doch komplett ohne irgendwelche LUTs für eine 709 Ausgabe bearbeiten. Warum *muss* ich die Timeline nach 709 wandeln, ich sehe doch sowieso das Ergebnis (und passe es gegebenenfalls an).
Oder?
Hmm, vielleicht nicht einfach genug formuliert. Gemeint ist: Wenn die Timeline linear ist, dann muss ich sie noch zur Vorschau am Monitor an die Gammakaurve des Monitors anpassen. Diese Transformation geht jedoch nicht in den Output ein, sondern wird nur speziell zu Vorschauzwecken vom Signal "abgezweigt".
Ist zwar schon etwas älter (Resolve 12), beschreibt aber den Workflow komplett anders: Mit dem Output Color Space wird auch der Colorspace von Monitor und Viewer festgelegt.
https://mixinglight.com/color-tutorial/ ... anagement/

Ausserdem sind die Bezeichnungen LUT im Workflow Diagramm eures Artikels falsch INPUT LUT, OUTPUT LUT). Das sind Profile.
Wenn der von mir verlinkte Artikel stimmen sollte ;)



rudi
Administrator
Administrator
Beiträge: 1541

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von rudi »

dienstag_01 hat geschrieben: Di 13 Nov, 2018 21:11
rudi hat geschrieben: Di 13 Nov, 2018 11:27

Hmm, vielleicht nicht einfach genug formuliert. Gemeint ist: Wenn die Timeline linear ist, dann muss ich sie noch zur Vorschau am Monitor an die Gammakaurve des Monitors anpassen. Diese Transformation geht jedoch nicht in den Output ein, sondern wird nur speziell zu Vorschauzwecken vom Signal "abgezweigt".
Ist zwar schon etwas älter (Resolve 12), beschreibt aber den Workflow komplett anders: Mit dem Output Color Space wird auch der Colorspace von Monitor und Viewer festgelegt.
https://mixinglight.com/color-tutorial/ ... anagement/

Ausserdem sind die Bezeichnungen LUT im Workflow Diagramm eures Artikels falsch INPUT LUT, OUTPUT LUT). Das sind Profile.
Wenn der von mir verlinkte Artikel stimmen sollte ;)
Jein: Wir wollten einen Grundlagen Artikel dazu schreiben, aber haben verwirrenderweise eine Abbildung von Resolve mitreingenommen. Du hast insofern vollkommen recht: In Resolve zweigt die Viewer LUT nicht von der Timeline sondern vom Output ab, was ebenso sinnvoll sein kann. Das erklärt auch die anderen Fragen hier: Die Skopes hängen in Resolve wohl übrigens auch hinter der Output LUT, aber da bin ich mir grade selbst nicht sicher, würde aber der "Resolve Denke" entsprechen.



dienstag_01
Beiträge: 14443

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von dienstag_01 »

rudi hat geschrieben: Di 13 Nov, 2018 21:36
dienstag_01 hat geschrieben: Di 13 Nov, 2018 21:11
Ist zwar schon etwas älter (Resolve 12), beschreibt aber den Workflow komplett anders: Mit dem Output Color Space wird auch der Colorspace von Monitor und Viewer festgelegt.
https://mixinglight.com/color-tutorial/ ... anagement/

Ausserdem sind die Bezeichnungen LUT im Workflow Diagramm eures Artikels falsch INPUT LUT, OUTPUT LUT). Das sind Profile.
Wenn der von mir verlinkte Artikel stimmen sollte ;)
Jein: Wir wollten einen Grundlagen Artikel dazu schreiben, aber haben verwirrenderweise eine Abbildung von Resolve mitreingenommen. Du hast insofern vollkommen recht: In Resolve zweigt die Viewer LUT nicht von der Timeline sondern vom Output ab, was ebenso sinnvoll sein kann. Das erklärt auch die anderen Fragen hier: Die Skopes hängen in Resolve wohl übrigens auch hinter der Output LUT, aber da bin ich mir grade selbst nicht sicher, würde aber der "Resolve Denke" entsprechen.
Ich habe das jetzt mal so verstanden, dass man in Resolve beim Scene Reffered Color Managment überhaupt keine LUTs verwendet - sondern die Profile. Da also zusätzlich eine Output LUT auszuwählen, wäre also Blödsinn. Oder?
Anders beim Display Reffered CM, aber das ist ja sozusagen *überhaupt kein* CM, da es der Anwender übernimmt - und dann mit LUTs.



rudi
Administrator
Administrator
Beiträge: 1541

Re: Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums

Beitrag von rudi »

dienstag_01 hat geschrieben: Mi 14 Nov, 2018 10:15
rudi hat geschrieben: Di 13 Nov, 2018 21:36

Jein: Wir wollten einen Grundlagen Artikel dazu schreiben, aber haben verwirrenderweise eine Abbildung von Resolve mitreingenommen. Du hast insofern vollkommen recht: In Resolve zweigt die Viewer LUT nicht von der Timeline sondern vom Output ab, was ebenso sinnvoll sein kann. Das erklärt auch die anderen Fragen hier: Die Skopes hängen in Resolve wohl übrigens auch hinter der Output LUT, aber da bin ich mir grade selbst nicht sicher, würde aber der "Resolve Denke" entsprechen.
Ich habe das jetzt mal so verstanden, dass man in Resolve beim Scene Reffered Color Managment überhaupt keine LUTs verwendet - sondern die Profile. Da also zusätzlich eine Output LUT auszuwählen, wäre also Blödsinn. Oder?
Anders beim Display Reffered CM, aber das ist ja sozusagen *überhaupt kein* CM, da es der Anwender übernimmt - und dann mit LUTs.
Das entspricht auch meinem Verständnis von Resolve. Da ist in den letzten Versionen aber auch viel dazu gekommen, was ich mir noch nie so genau angesehen habe. Das Display Referred Color Management ist wohl insofern noch Management, dass man die Prozesse/Transformationen selber festlegen kann. Aber ist halt kein ACES-Autopilot ;)



 Aktuelle Beiträge [alle Foren]
 
» Firmware-Updates für die Panasonic Lumix S1RII, S1II und S1IIE
von cantsin - Di 15:37
» Nvidia GeForce RTX 5050 im Anflug - 10 Bit 4:2:2 Decoding für 200 Euro?
von slashCAM - Di 10:24
» Magic Lantern mit deutlichem Lebenszeichen - Frische Motivation und frischer Code
von Da_Michl - Di 9:44
» Bildsensor mit Perowskit verdreifacht mögliche Auflösung
von CotORR - Di 8:48
» 36% mehr DSLMs ausgeliefert im April als im Vorjahr
von iasi - Mo 23:00
» Neuer XAVC-L Standard für ARD/ZDF – Interlacing noch Thema?
von vaio - Mo 21:26
» Higgsfield.ai - Aufwändige Videoeffekte auf Knopfdruck aus der KI-Cloud
von Drushba - Mo 18:34
» Manueller Video Modus nicht mehr erreichbar.
von milesdavis - Mo 15:45
» Rode Wireless Go 3 - Ton zu leise
von rush - Mo 10:49
» BM Micro Studio Camera G2 erhält Pyxis Monitor Kompatibelität
von Darth Schneider - Mo 9:19
» Suche Omnidirektionales Mikrofon-Setup für Sony FX3
von pillepalle - Mo 6:25
» Bildschirmaufnahme mit VLC Player oder andere Software?
von gunman - So 21:07
» Unzuverlässiger Autofokus HC-X2E
von Jott - So 20:39
» UHD Progressive zu HD Interlaced Workflow - Hardware-Lösung für Preview?
von SonyTony - So 13:06
» Kompakte OM-5 Mark II bekommt zwei neue Bildprofile
von cantsin - So 10:25
» Nikon Z5 II mit interner RAW-Aufzeichnung - Debayering, Rolling Shutter und Dynamik
von cantsin - So 9:09
» Film wurde nur mit Handys gedreht...
von Jott - Sa 20:48
» Insta360 Studio - Bildjustagen verschwunden nach update
von soulbrother - Sa 20:09
» Was hörst Du gerade?
von 7River - Sa 15:33
» Welche USB-C SSD für 4k120 prores am iPhone 16 Pro?
von Totao - Sa 11:43
» Die beste Hardware für KI-Video - oder was man wirklich (nicht) braucht...
von Totao - Sa 11:38
» Kleines Schwanenhalsmikro für AVX-Bodypacksenser gesucht
von pillepalle - Fr 16:04
» Magix Video deluxe 2026 und Video Pro X17 mit neuen KI-Funktionen
von slashCAM - Fr 11:45
» Nanlite FM Mount Projektionsaufsatz 18°-36° für präzise Lichtgestaltung
von Darth Schneider - Fr 11:20
» Adobe Firefly jetzt als Smartphone-App - samt Nutzung von Veo 3, Luma und Pika
von peter161170 - Fr 9:14
» Sony FX2 im Praxistest: Erstmalig neigbarer Sucher, Cine-Gehäuse wie FX3, 33 MP Fullframe CMOS
von pillepalle - Fr 7:18
» Panasonic S1RII im Praxistest: Überraschend viele Videofunktionen für Pros
von iasi - Fr 0:18
» Blackmagic Updates für Web Presenter, Video Assist, Cloud und BRAW
von slashCAM - Do 11:27
» Adobe Premiere Pro ab sofort mit 4:2:2 Beschleunigung per Nvidia GPU und mehr
von dienstag_01 - Do 11:03
» Superman | Offizieller Trailer
von 7River - Do 5:11
» Midjourney startet eigene Video-KI V1
von slashCAM - Do 1:09
» DJI RS4 Pro und LiDAR: Bestes AF/Tracking (inkl. Stabilisierung) für Cine-Setups?
von pillepalle - Mi 23:45
» Sigma 17-40mm F1.8 DC | Art für APS-C vorgestellt u.a. mit RF-Mount
von iasi - Mi 23:24
» SIRUI Reparaturen/Customer Service Germany
von gizmotronic - Mi 18:47
» RS4 mit XR AR Brillen als Videomonitor möglich?
von Silentsnoop - Mi 18:45