Logo Logo
/// 

Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


https://images.slashcam.de/texte/1742-- ... -FRONT.jpg
Farbkorrektur kann nur korrekt funktionieren, wenn sie in einem kontrollierten Farbraum stattfindet. Dies bedeutet in der Praxis, dass man laut Lehrbuch immer in einem linearen Farbraum korrigieren sollte. Doch warum ist das so und was bedeutet dies eigentlich?

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Grundlagen: FarbkorrekturFarbkorrektur im Glossar erklärt, Color Management und der Vorteil des linearen Arbeitsfarbraums




Antwort von dienstag_01:

Die dritte Komponente in diesem Spiel ist das Vorschau-Profil. Um während der Arbeit im Arbeitsfarbraum die Ergebnisse korrekt beurteilen zu können, muss die TimelineTimeline im Glossar erklärt für die korrekte Darstellung am Monitor ebenfalls angepasst werden. Stellt der Monitor beispielsweise Farben im sRGB-Farbraum dar, so muss die TimelineTimeline im Glossar erklärt mit einem Farbprofil für die Vorschau nach sRGB transformiert werden.
Das verstehe ich, ehrlich gesagt, nicht. Wenn ich z. B. Log-Material auf der TimelineTimeline im Glossar erklärt und als Vorschau einen 709-Monitor habe, dann kann ich das Material doch komplett ohne irgendwelche LUTs für eine 709 Ausgabe bearbeiten. Warum *muss* ich die TimelineTimeline im Glossar erklärt nach 709 wandeln, ich sehe doch sowieso das Ergebnis (und passe es gegebenenfalls an).
Oder?



Antwort von rudi:


Die dritte Komponente in diesem Spiel ist das Vorschau-Profil. Um während der Arbeit im Arbeitsfarbraum die Ergebnisse korrekt beurteilen zu können, muss die TimelineTimeline im Glossar erklärt für die korrekte Darstellung am Monitor ebenfalls angepasst werden. Stellt der Monitor beispielsweise Farben im sRGB-Farbraum dar, so muss die TimelineTimeline im Glossar erklärt mit einem Farbprofil für die Vorschau nach sRGB transformiert werden.
Das verstehe ich, ehrlich gesagt, nicht. Wenn ich z. B. Log-Material auf der TimelineTimeline im Glossar erklärt und als Vorschau einen 709-Monitor habe, dann kann ich das Material doch komplett ohne irgendwelche LUTs für eine 709 Ausgabe bearbeiten. Warum *muss* ich die TimelineTimeline im Glossar erklärt nach 709 wandeln, ich sehe doch sowieso das Ergebnis (und passe es gegebenenfalls an).
Oder?

Hmm, vielleicht nicht einfach genug formuliert. Gemeint ist: Wenn die TimelineTimeline im Glossar erklärt linear ist, dann muss ich sie noch zur Vorschau am Monitor an die Gammakaurve des Monitors anpassen. Diese Transformation geht jedoch nicht in den Output ein, sondern wird nur speziell zu Vorschauzwecken vom Signal "abgezweigt".





Antwort von cantsin:

Das praktische Problem dürfte sein, dass fast alle Konversions-LUTs (z.B. für Log-Profile) direkt nach Rec709 konvertieren, nicht in einen linearen Farbraum.



Antwort von blueplanet:

...und mit anderen Worten, man benötigt (möglichst) einen kalibrierten Bildschirm. Somit sehe ich auch korrekt das, was ich am PC-Schirm gegradet habe auf meinem TV (wenn dieser ebenfalls kalibriert ist). Und spätestens dort trifft mathtematische Theorie consumer Praxis.
Wer hat, wer kann schon seinen TV kalibrieren?! Ich habe einen guten, alten THX-zertifizierten Neon-Plasma. Dort war und ist das möglich...schau' ich mir dagegen mein Material auf irgendeinem Rec709-Schirm aus dem Bekanntenkreis an, dann gibt es ebenso viele "Bildprofil-Varianten" wie es Geräte gibt. Ergo, das Zünglein an der Waage sind nicht Rec709 oder 2020 etc. sondern bestenfalls der persönliche Geschmack und schlimmstenfalls was die Hersteller uns werksseitig vor die Augen setzen. Siehe Sony vs. Samsung vs. Panasonic vs...



Antwort von rudi:


Das praktische Problem dürfte sein, dass fast alle Konversions-LUTs (z.B. für Log-Profile) direkt nach Rec709 konvertieren, nicht in einen linearen Farbraum.

Definitv. Wobei mir absolut nicht klar ist, warum das die Hersteller so machen. Weil sie einfach davon ausgehen dass 99 Prozent aller Timelines in Rec709 betrachtet werden?
Solche LUTs erhöhen die Komplexität des Color Managements unnnötig. Darum auch Lob für Blackmagic, die explizit LUTs nach Linear beilegen.
Eigentlich wären jetzt aber LUTs nach linear ACES gefragt. Der Standard ist da und jeder könnte sich dran halten. Ich frage mich nur, wie stark die Farben dann nach der Linearisierung zwischen den Herstellern noch differieren würden. Im Zweifelsfall dürfte es bei RAW kaum noch Unterschiede zwischen den Kameras geben.



Antwort von dienstag_01:

Helft mir nochmal. Wenn ich in den Projekt Settings als 3D Color Viewer LUT *Linear to sRGB* wähle (Timeline Color Space ist linear), wird mein Vorschaubild deutlich zu hell. Und es werden auch die Scopes beeinflusst. Das ist doch völliger Nonsens.



Antwort von susy:



Das praktische Problem dürfte sein, dass fast alle Konversions-LUTs (z.B. für Log-Profile) direkt nach Rec709 konvertieren, nicht in einen linearen Farbraum.

Definitv. Wobei mir absolut nicht klar ist, warum das die Hersteller so machen. Weil sie einfach davon ausgehen dass 99 Prozent aller Timelines in Rec709 betrachtet werden?
Solche LUTs erhöhen die Komplexität des Color Managements unnnötig. Darum auch Lob für Blackmagic, die explizit LUTs nach Linear beilegen.
Eigentlich wären jetzt aber LUTs nach linear ACES gefragt. Der Standard ist da und jeder könnte sich dran halten. Ich frage mich nur, wie stark die Farben dann nach der Linearisierung zwischen den Herstellern noch differieren würden. Im Zweifelsfall dürfte es bei RAW kaum noch Unterschiede zwischen den Kameras geben.

Für ACES gibt es doch schon viele IDTs, oder ist das wieder was anderes?



Antwort von dienstag_01:



Das verstehe ich, ehrlich gesagt, nicht. Wenn ich z. B. Log-Material auf der TimelineTimeline im Glossar erklärt und als Vorschau einen 709-Monitor habe, dann kann ich das Material doch komplett ohne irgendwelche LUTs für eine 709 Ausgabe bearbeiten. Warum *muss* ich die TimelineTimeline im Glossar erklärt nach 709 wandeln, ich sehe doch sowieso das Ergebnis (und passe es gegebenenfalls an).
Oder?

Hmm, vielleicht nicht einfach genug formuliert. Gemeint ist: Wenn die TimelineTimeline im Glossar erklärt linear ist, dann muss ich sie noch zur Vorschau am Monitor an die Gammakaurve des Monitors anpassen. Diese Transformation geht jedoch nicht in den Output ein, sondern wird nur speziell zu Vorschauzwecken vom Signal "abgezweigt".

Ist zwar schon etwas älter (Resolve 12), beschreibt aber den Workflow komplett anders: Mit dem Output Color Space wird auch der Colorspace von Monitor und Viewer festgelegt.
https://mixinglight.com/color-tutorial/ ... anagement/

Ausserdem sind die Bezeichnungen LUT im Workflow Diagramm eures Artikels falsch INPUT LUT, OUTPUT LUT). Das sind Profile.
Wenn der von mir verlinkte Artikel stimmen sollte ;)



Antwort von rudi:



Hmm, vielleicht nicht einfach genug formuliert. Gemeint ist: Wenn die TimelineTimeline im Glossar erklärt linear ist, dann muss ich sie noch zur Vorschau am Monitor an die Gammakaurve des Monitors anpassen. Diese Transformation geht jedoch nicht in den Output ein, sondern wird nur speziell zu Vorschauzwecken vom Signal "abgezweigt".

Ist zwar schon etwas älter (Resolve 12), beschreibt aber den Workflow komplett anders: Mit dem Output Color Space wird auch der Colorspace von Monitor und Viewer festgelegt.
https://mixinglight.com/color-tutorial/ ... anagement/

Ausserdem sind die Bezeichnungen LUT im Workflow Diagramm eures Artikels falsch INPUT LUT, OUTPUT LUT). Das sind Profile.
Wenn der von mir verlinkte Artikel stimmen sollte ;)

Jein: Wir wollten einen Grundlagen Artikel dazu schreiben, aber haben verwirrenderweise eine Abbildung von Resolve mitreingenommen. Du hast insofern vollkommen recht: In Resolve zweigt die Viewer LUT nicht von der TimelineTimeline im Glossar erklärt sondern vom Output ab, was ebenso sinnvoll sein kann. Das erklärt auch die anderen Fragen hier: Die Skopes hängen in Resolve wohl übrigens auch hinter der Output LUT, aber da bin ich mir grade selbst nicht sicher, würde aber der "Resolve Denke" entsprechen.



Antwort von dienstag_01:



Ist zwar schon etwas älter (Resolve 12), beschreibt aber den Workflow komplett anders: Mit dem Output Color Space wird auch der Colorspace von Monitor und Viewer festgelegt.
https://mixinglight.com/color-tutorial/ ... anagement/

Ausserdem sind die Bezeichnungen LUT im Workflow Diagramm eures Artikels falsch INPUT LUT, OUTPUT LUT). Das sind Profile.
Wenn der von mir verlinkte Artikel stimmen sollte ;)

Jein: Wir wollten einen Grundlagen Artikel dazu schreiben, aber haben verwirrenderweise eine Abbildung von Resolve mitreingenommen. Du hast insofern vollkommen recht: In Resolve zweigt die Viewer LUT nicht von der TimelineTimeline im Glossar erklärt sondern vom Output ab, was ebenso sinnvoll sein kann. Das erklärt auch die anderen Fragen hier: Die Skopes hängen in Resolve wohl übrigens auch hinter der Output LUT, aber da bin ich mir grade selbst nicht sicher, würde aber der "Resolve Denke" entsprechen.

Ich habe das jetzt mal so verstanden, dass man in Resolve beim Scene Reffered Color Managment überhaupt keine LUTs verwendet - sondern die Profile. Da also zusätzlich eine Output LUT auszuwählen, wäre also Blödsinn. Oder?
Anders beim Display Reffered CM, aber das ist ja sozusagen *überhaupt kein* CM, da es der Anwender übernimmt - und dann mit LUTs.



Antwort von rudi:



Jein: Wir wollten einen Grundlagen Artikel dazu schreiben, aber haben verwirrenderweise eine Abbildung von Resolve mitreingenommen. Du hast insofern vollkommen recht: In Resolve zweigt die Viewer LUT nicht von der TimelineTimeline im Glossar erklärt sondern vom Output ab, was ebenso sinnvoll sein kann. Das erklärt auch die anderen Fragen hier: Die Skopes hängen in Resolve wohl übrigens auch hinter der Output LUT, aber da bin ich mir grade selbst nicht sicher, würde aber der "Resolve Denke" entsprechen.

Ich habe das jetzt mal so verstanden, dass man in Resolve beim Scene Reffered Color Managment überhaupt keine LUTs verwendet - sondern die Profile. Da also zusätzlich eine Output LUT auszuwählen, wäre also Blödsinn. Oder?
Anders beim Display Reffered CM, aber das ist ja sozusagen *überhaupt kein* CM, da es der Anwender übernimmt - und dann mit LUTs.

Das entspricht auch meinem Verständnis von Resolve. Da ist in den letzten Versionen aber auch viel dazu gekommen, was ich mir noch nie so genau angesehen habe. Das Display Referred Color Management ist wohl insofern noch Management, dass man die Prozesse/Transformationen selber festlegen kann. Aber ist halt kein ACES-Autopilot ;)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
Farbkorrektur, Color Management und der Vorteil des linearen Arbeitsfarbraums
Sony x.v Color-Vorteil und Nutzung in Final Cut X?
Color Management und Videoausgabekarte
Erfahrung mit Farbkorrektur und Color Grading "DVD-Lernkurs"
GearEye - Digitales RFID-Management des eigenen Equipments
suche Coloristen / Farbkorrektur/ Color Grading
Frage bezüglich des Ressourcenverbauchs und Anzahl der Effekte.
Die Geschichte der Farbkorrektur
Kyno Media Management Software goes Pro: 1.5 Version und Kyno Premium im Anflug
Lytro DepthFX- Farbkorrektur und Compositing via Tiefenkanal
Mikrofonanschluss des Mikros der XL1S
Media Asset Management Software
Änderung des Bildformates während der Aufnahme
Entladung des Akkus bei der Hero 7
Adobe Premiere Pro CC mit VR und integrierter Lumetri Farbkorrektur // NAB
Edius 8.2 bringt Motion Tracking und primäre Farbkorrektur // NAB 2016
TV - Ausgang der Grafikkarte des PCs per Software aufzeichnen
Corel VideoStudio Ultimate 2019 bringt neue Farbkorrektur und Split-Screen-Effekte mit Keyframes
Vorlauf des Tons auf der DVD nach bearbeitung mit Nero Visionexpress3.0
RED: Der Fahrplan für den Start des Holo-Smartphones Hydrogen One steht
Digitalausgang des LCD TVs auf analogen Eingang des Verstärkers?
Die Philosophie des Editings - Typische Schritte des Filmschnitts
Tool zum Setzen des Wake-On-Alarm-Timers des Bios von Windows XP?
spielt der farbraum des monitors eine rolle, wenn content nur für's internet produziert wird
RedcineX und Avid Artist Color
Color Grading und Weissabgleich A7SII

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
7-10. November / Linz
Linz International Short Film Festival
alle Termine und Einreichfristen