Logo Logo
/// 

Wo ist der Weißabgleich in DaVinci Resolve?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


Selbst wer sich in den Menüstrukturen in DaVinci Resolve gut auskennt, dürfte schon mehr als einmal vergeblich nach einer schnellen Korrektur des Weißabgleichs gesucht haben.

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Tips: Wo ist der WeißabgleichWeißabgleich im Glossar erklärt in DaVinci Resolve?




Antwort von cantsin:

Warum nicht einfach den Offset verschieben?

Ausserdem: Für Raw-Videomaterial gibt's sehr wohl einen klassischen Weissabgleich-Regler, im Raw-Tab.



Antwort von rudi:

Warum nicht einfach den Offset verschieben?
Geht natürlich auch, allerdings sieht man halt nicht, wann man auf der gedachten Linie R=G=B liegt.

Ausserdem: Für Raw-Videomaterial gibt's sehr wohl einen klassischen Weissabgleich-Regler, im Raw-Tab.

Drum auch der einleitende Satz im Artikel:

Außer beim Debayering von RAW-Material gibt es unseres Wissens in DaVinci Resolve weit und breit keine entsprechende Weißabgleichs-Funktion.

Aber BTW: Weißt du, ob der Offset linear arbeitet? Ich glaube der läuft oben nicht gerade aus, habs aber nie ausprobiert.





Antwort von Paralkar:

Also im Balancing/Leveln oder "Normalisieren" eines Shots gehen viele Coloristen so vor, das Sie mittels Parade alle Farbkanäle im Schwarz, Weiß und 50% grau auf das selbe level bringen

Natürlich falls möglich, wenn es im Bild kein absolutes Weiß gibt bzw. geben soll, dann macht das weniger Sinn, dann nur Grau und Schwarz.

Damit kann man immer gut als Grundlage arbeiten,

Hatte damit noch nie n Problem es so zu machen, selbst ne richtig eingestellte Kamera muss man immer ein wenig korrigeren



Antwort von enilnacs:

Ja, aber was ich mich auch gefragt hab ist, warum gibt es keinen Programm der bei jeder Korrektur des RGB/YUV Raums immer die Temperatur in KelvinKelvin im Glossar erklärt angibt und manipuliert:

ZB: Ich stelle es auf 5500 in der Kamera ein, Nehme 5500 Strahler zB, und dann ? Im Programm gibts sowas nicht. Damit ich von 5500K auf 6500K erhöhe je auf jedes Lift, GammaGamma im Glossar erklärt, Gain, Offset, etc...
Ich würde schon gerne wissen um wieviel K ich auf dem gain, mit dem Master gehe... ?

Und noch was, auch wenn DaVinci schön mit einem externen Monitor läuft, einen sekundären Wide Gamut Monitor mit LUT auf der GPU fehlt immer noch.
Ja, ich weiss BMD will seine Karten verkaufen... trotzdem, Premiere kann das seit Langem.

Ich glaube es fehlen noch viele Dinge in aktuelle Programmen.



Antwort von Peppermintpost:

Hey Rudi,

ich mag deine beiträge weil du dir immer sehr viel mühe gibst den dingen auf den grund zu gehen und sehr detailiert beschreibst was du tust.
ich befürchte aber, bitte nimm das nicht als bashing, das ist nur mein eindruck, das dir beim thema farbkorrektur einfach die erfahrung fehlt.

zum einen erstmal, natürlich hat resolve eine einstellung für die farbtemperatur. du kannst bei den clip einstellungen sagen wie der weisabgleich sein soll, und auch wenn das natürlich nicht zu perfekt farb neutralen bildern führt, damit kannst du es auf jeden fall schon mal in eine richtung pushen die sich einem neutralen bild nähert.

wen du dann an die farbkorrektur gehst, dann ist die vorgehensweise mit den kurven die version die die meisten grader nicht benutzen würden. das bedeutet nicht das es nicht geht, aber es ist der langwierigste prozess, bei dem jede änderung, genau wie du es auch beschreibst maximal fummelig ist.

für dinge wie WB oder um einem bild einen look zu geben sollten dir offset, gamma, gain, saturation vollkommen ausreichen, und es ist auch sehr empfehlenswert diese zu benutzen, weil die zum einen nicht fummelig sind, zum anderen sich sehr exakt und reproduzierbar einstellen lassen. zudem hast du dabei mit mathematischen operationen zu tuen die auch auf jedem system gleich aussehen. ob ich das gain +10% im resolve oder im nuke oder in der flame anhebe, das ergebniss ist immer das gleiche. gleiches gilt für offset und gamma.

also mein eindruck ist erst einmal du benutzt das falsche tool für den job.
man bekommt natürlich eine schraube auch mit einem hammer ins brett, aber ein schraubenzieher macht den job einfach besser.

das zweite ist das tool mit dem du misst. klar führt ein rgb pixel messer auch zu einem ergebniss. aber in resolve ist der wirklich schlecht. bevor es im nuke ein waveform gab hab ich da natürlich auch den pixel analyze benutzt. aber im nuke ist der auch klasse, weil der zum einen einen durchschnittswert aus einem feld errechnet, sodass du das noise/grain ausschliessen kannst, zum anderen hat es eine life update funktion, d.h. du siehst wie sich die werte ändern während du an den farben schraubst.

im resolve ist aber das tool der wahl die parade funktion, wie es paralkar auch geschrieben hat. wenn du nur auf eine parade schaust und nur mit offset, gamma, gain deine kurven angleichst solltest du bei einem weitestgehend neutralem bild landen.

natürlich funktioniert das nicht wenn du einen typen in jeans vor blauer wand korrigieren willst, aber für bilder wie dein beispielbild, die das ganze farbspekrtum enthaltten sollten geht das wunderbar.

nimm das bitte nicht als kritik, sondern nur als anregung.



Antwort von CameraRick:


ZB: Ich stelle es auf 5500 in der Kamera ein, Nehme 5500 Strahler zB, und dann ? Im Programm gibts sowas nicht. Damit ich von 5500K auf 6500K erhöhe je auf jedes Lift, GammaGamma im Glossar erklärt, Gain, Offset, etc...
Ich würde schon gerne wissen um wieviel K ich auf dem gain, mit dem Master gehe... ?
Die Software kann ja nicht wissen, worauf Du geschossen hast. Gibt diverse Programme die den WB über eine Leiste einstellen können, wie akkurat die wäre wenn man sie mit KelvinKelvin im Glossar erklärt beschriftet ist natürlich eine andere Frage.
Auch stellt sich die Frage, wieso man genau +100 K machen will; meistens will man ja eher eine Referenz matchen, oder einen Look bauen. Für beides braucht es den Vergleich, keine absoluten Nummern (die ggf abweichen)

Und noch was, auch wenn DaVinci schön mit einem externen Monitor läuft, einen sekundären Wide Gamut Monitor mit LUT auf der GPU fehlt immer noch.
Ja, ich weiss BMD will seine Karten verkaufen... trotzdem, Premiere kann das seit Langem.
Da gibts noch viele andere Dinge die DaVinci nicht kann die Premiere schon längst beherrscht, und anders herum.
BMDs Standpunkt, eine Bildreferenz ist nur über eine I/O Karte gegeben, ist einerseits nicht unbedingt falsch und will natürlich auch den Verkauf von Karten vorschieben. Verstehen kann ich es schon - ich bezahle lieber die paar Taler für so eine Karte als das geld für die teurere Software.

Natürlich, dem DaVinci fehlt vieles, wobei ich ihn noch nicht als volles NLE sehe. So oder so, was man da umsonst kriegt ist absurd; da muss man einen Tod eben sterben.
Wer die Dongle-Variante gekauft hat sieht das natürlich anders, das verstehe ich schon (wobei man dann vielleicht auch die I/O Karte über die Steuer mal abrechnen sollte)



Antwort von Axel:

Ausserdem: Für Raw-Videomaterial gibt's sehr wohl einen klassischen Weissabgleich-Regler, im Raw-Tab.

Drum auch der einleitende Satz im Artikel:
"Außer beim Debayering von RAW-Material gibt es unseres Wissens in DaVinci Resolve weit und breit keine entsprechende Weißabgleichs-Funktion.

Das ist ein Farbtemperatur-Regler. Einen Weiß/Grauwert als neutral zu definieren erlaubt er dagegen nicht.

In Apples Color, dem ersten Farbprogramm, das ich kennenlernte, gab es ebenfalls keinen Weißabgleich. In Color Finesse gab es keinen direkten Weg, genau so wenig in Lumetri (auch der Farbtemperaturregler). Der einzige direkte WB-Picker scheint mir im ACR zu sitzen.

Und nun Resolve - warum?

Vielleicht, weil bei dem Aufwand, den ihr dort in der Redaktion betrieben habt, dies hier herauskam:
https://www.slashcam.de/images/texte/1428-Bild5-Bild5.jpg

Was soll das denn sein? Das fertige, genießbare, präsentable Endprodukt? Bei dem der Betrachter raunt, Potzblitz, na das sind mal Farben! ???
Denn dann würde ich sagen, igitt, der Puppe wurden aber eben die Weißheitszähne mit der Rohrzange gezogen, und das Kaninchen, das da aus dem Bild springt, glüht irgendwie rosa.

Und als wertemäßig optimierter Ausgangspunkt für die weiteren Gradingnodes taugt es noch viel weniger.

Für Color und Resolve weiß ich aus den Ripple-Kursen, dass ein Schritt der FarbkorrekturFarbkorrektur im Glossar erklärt die Entfernung eines offenkundigen Stichs ist (der natürlich durch beim Drehen vergessenen WeißabgleichWeißabgleich im Glossar erklärt gekommen sein kann). Man stellt eine Farbbalance her, meist unter paralleler Beobachtung des Referenzmonitors und der RGBRGB im Glossar erklärt Parade. Interessanterweise erwähnen die Handbücher solch ein banales Zeug wie "Weißabgleich" erst gar nicht. Zur A(utomatik)-Funktion sagt Handbuch-Schöpfer Alexis van Hurkman im September 2015 Manual (S.660), dass es zu so ungefähr 50% aller Clips "etwas taugt", meist aber eher nicht.

Eine provokante These: WeißabgleichWeißabgleich im Glossar erklärt ist für Live-Fernsehen (das Papier des armen Tagesschau-Sprechers - ist es nicht eigentlich längst eine Requisite wie das Stethoskop um den Hals des Serien-Doktors? - soll natürlich nicht gelb und damit vergilbt aussehen) und aktuelle Berichterstattung, in der ein "Stil" unerwünscht ist.

Ansonsten ist es vermessen, irgendein Motivdetail als weiß oder grau auszuwählen. Per se, weil reines Weiß sowieso selten ist. Im weiteren Sinne, weil Licht eine Farbe hat und nur über dem Stahltisch in der Pathologie eventuell nicht.

Darüber hinaus ist es mit der Farbneutralität auch aus einem weiteren Grund Essig: der verwendeten Kamera. Darum auch gibt es die Farbcharts und Color Match.

Ich bin selbst kein Colorist, aber das Testbild würde ich nur durch

a) eine Zentrierung im Vektorskop durch das globale Color Wheel
b) eine leichte Balance der RGB-Verteilung in der Parade
c) durch leichte Entsättigung

vornehmen.

Das Ergebnis sieht nach Kunstlicht aus, ohne aber einen auffälligen Stich zu haben. Ob die Wand neutralgrau wäre, bei neutralweißem Licht, kann ich nicht entscheiden, ich kenne die Wand nicht. Ich glaube nur, es ist sinnlose Liebesmüh', Neutralität zu erzwingen, die es objektiv sowieso nicht gibt. Und das Fehlen der Weißabgleich-Funktionen in den Color-Programmen scheint mir Recht zu geben?



Antwort von dienstag_01:

Wann dreht hier eigentlich mal jemand das Grün aus den Lichtern ;)



Antwort von Peppermintpost:

Wann dreht hier eigentlich mal jemand das Grün aus den Lichtern ;)

das ist, auch wenn mit einem ;-) gekennzeichnet, eine sehr gute frage. weil sich die white balance ja nur zwischen gelb und cyan abspielt (über rot) und grün dabei vollkommen ausser acht gelassen wird.

grün ist aber genau der farbpeak mit dem wir bei flureszierendem licht und auch mit modernem led zu kämpfen haben. also gerade die billo china led machen sehr oft super n*a*s*t*y (wieso ist den das wort verboten?) hauttöne aufgrund dieses grün peaks.

zur zeit habe ich da auch noch keine wirklich befriedigende herangehensweise. glücklicher weise bin ich ja comper und kein color grader, wenns bei mir ätzend aussieht ist ja mein job die farben so zu belassen und den rest anzupasen anstatt das los zu werden. aber in den fällen wo ich auch am look arbeite benutze ich für so einen fall die hue despill curve. das funktioniert irgendwie, aber geil ist auch anders. hat da jemand einen guten tip?



Antwort von maxx miliano:

LED-Bändern von Edison Opto Kelvin-Werte um die 3000 K

Also, das war vor einiger Zeit, ein kleines Modell und Stop-go-animo.
Kamera und so weiter. ( mach ich erst 2099 wieder!)
Zuerst alle möglichen ( sch..[] )s Leds und GRÜN!
Kotzgrün, Beerdigungsgrün,Besoffengrün, Omahattotenfischgekochtgrün..
alle Grüns dieser Welt. ( Normale gute Lampe ging nich = Set abgefackelt!)

Dann diese relativ harmlosen und Mittelbilligen!!!!
LED-Bändern von Edison Opto Kelvin-Werte um die 3000 K ..
taht war es, für den Fall. Das war es nur in klein, aber es waren über
68 dieser Bänder im Einsatz mit dem totlaen Gefrikel, das alles neutral
hinzubekomen, weil ja Schatten da nur..und so weiter. :)



Antwort von kavenzmann:

Der Witz ist ja:

Ein "richtiger" WeissabgleichWeissabgleich im Glossar erklärt setzt eine homogene Beleuchtung voraus.
D.h. das die Lichtquelle jeweils lineare R,G und B Anteile ausstrahlen muss, also das Verhältnis der 3 Farbanteile zueinander immer gleich sein muss. Kommt eine weitere oder gar mehrere Lichtquellen ins Spiel, wird es nochmal komplizierter. Das das ausgestrahlete Licht dann noch auf evtl. farbige Flächen trifft und dann wieder von das farbig auf die Motive abstrahlt lassen wir besser außen vor...

Deshalb gibt es, außer vielleicht in Testaufbauten oder Packshots eigentlich keinen "richtigen " Weissabgleich.

In der Regel geht man in Resolve deshalb so vor:

Man hat ein Bedienpanel mit 3 3.dimensionalen Bällen und jeweils einem Ring drumherum als Hauptwerkzeug zur Verfügung. Damit lassen sich die Farbe von Schatten, Mitten und Lichtern = Lift, GammaGamma im Glossar erklärt, Gain getrennt regeln.
Normalerweise hat man dann gerne schwarze Schatten, weisse Lichter und nette Hautfarben im Mittelbereich. Aber genau hier setzt die kreative Arbeit des Coloristen an: Für eine Abendstimmung möchte ich leicht bläuliche Schatten bei warmen Lichtern erzeugen oderoderoder...

Geht alles Ruckzuck mit den 3 Bällen!

Manch einer arbeitet auch mit dem Offset oder diesem oder jenen Tool. Mit den Kurven versucht man aber eher selten eine Art WeissabgleichWeissabgleich im Glossar erklärt zu besorgen.

Bei höherwertigen Produktionen ist inzwischen sowieso RAW der Königsweg. D.h. es wird kein WeissabgleichWeissabgleich im Glossar erklärt am Set eingebrannt, sondern lediglich als Empfehlung mitgegeben. Alles weitere macht dann der Colorist.
LUTs als Looks benutzt i.d. Regel auch kein echter Colorist. Man baut ihn eher selbst nach, als einfach ein generelles LUT drüberzuknallen.

P.S.: Um das Grün aus den Lichtern zu drehen, nehme ich einfach den Gain (=Lichter)-Ball und drehe ihn gegen grün, also in Richtung magenta... ;)



Antwort von srone:



wie immer predige ich obiges video, welches auf rgb-kurven beruht und habe beste erfahrungen damit gemacht, betrachte ich allerdings meine vorgehensweise, mit der im obigen artikel, wird klar was hier schiefläuft, der versuch zuerst grau neutral zu machen scheitert, erst die lichter (rudi bitte clipfrei, farbe für farbe), dann die schatten - der berühmte bierdeckel der unten dazwischenpasst (alles in ansicht rgb-parade) und wenn ich dann alle stimmung killen will (danke axel), biege ich noch da dazwischen herum, vorzugsweise mit einem maskierten hautton (vektorskop ansicht).

lg

srone



Antwort von rudi:



Was soll das denn sein? Das fertige, genießbare, präsentable Endprodukt? Bei dem der Betrachter raunt, Potzblitz, na das sind mal Farben! ???
Denn dann würde ich sagen, igitt, der Puppe wurden aber eben die Weißheitszähne mit der Rohrzange gezogen, und das Kaninchen, das da aus dem Bild springt, glüht irgendwie rosa.

Dies sollte keinesfalls ein Positv-Beispiel darstellen, sondern illustrieren, was passiert, wenn man so vorgeht und die Schatten und Lichter nicht berücksichtigt.

Ich muss allerdings gestehen, dass ich den Artikel recht schnell - und vielleicht etwas zu lieblos- gemacht habe, da wir hier an etwas arbeiten, das noch vor Weihnachten fertig sein soll. Und das werdet Ihr uns dann wahrscheinlich richtig um die Ohren hauen ;)



Antwort von domain:

Axel hat das schwache Resolve-Zwischenergebnis m.E. emotional, aber richtig beurteilt :-)
Aber was will man aus einem 12 Lux-Bild denn schon herausholen?
Das Farbkippen ist ja schon im Originalbild eingebaut bei gleichzeitig viel zu hohem Kontrast und zu intensiven Farben.
Was möchte man eigentlich? Mathematisch richtige Farben in einer durchgängig linearen RGB-Parade oder ein an den Zielsetzungen angepasstes Colorgrading.
Diese Zielsetzungen können aber sehr verschieden sein, angefangen von korrekten Farben bis zu schönen Farben bis hin zu emotionalen Farben z.B. im Orange-Teal-Look.
Aber selbst bei höchsten Anforderungen in einer für Kunden befriedigenden Produktdarstellung (bei Stoffen und Lacken z.B.) wird vermutlich ziemlich viel in nichtlinearer Weise manipuliert.
Ich wage zu behaupten, dass fast alle schönen oder sgn. korrekten Darstellungen genauso manipuliert werden wie Teal-Orange etc., nur halt so, dass es nicht direkt ins Auge springt, sondern mehr dezent und unauffällig.

In meinem alten Liquid gab es übrigens die Möglichkeit, ausgewählte Lichter- und Schattenpunkte in einer Zweipunktkorrektur, verbunden mit einer gezogenen Linie, so halbwegs auf Grauwerte zu bringen. Nicht perfekt aber in wenigen Sekunden gemacht. Sieht es ev. so ähnlich wie Axels Bemühungen aus?

zum Bild http://www.fotos-hochladen.net/uploads/puppe3e19rl6jhc8.jpg



Antwort von Axel:

Mein Bild sieht doof aus. Ich hab einfach kein Auge für Farbkorrektur. Steve Hullfish betonte in seinem hier mal verlinkten Tutorial, man dürfe bei den ersten Schritten seinen Augen nicht trauen, man solle sich besser an die Scopes halten. Wie dieses Beispiel aber zeigt, bringen die einen nicht weiter. Wenn es aber um gefällige Farben geht, muss man den Augen trauen.



Antwort von CameraRick:

Man muss aber auch dabei sagen dass das Ausgangsmaterial nicht das angenehmste zum Anfassen ist. Da brennt ja auch schon viel weg (Stirn der Puppe, Stoff oben rechts, Schallplatte). Da ists schwierig einen Blumentopf zu gewinnen.
Nimmst ein nicht so ein "verschandeltes" Bild, wie zB das aus dem G70 Test, sieht das schon anders aus (das ist ein Zwei-Klick Beispiel, verurteilt mich nicht)



Antwort von Peppermintpost:

Mein Bild sieht doof aus. Ich hab einfach kein Auge für Farbkorrektur. Steve Hullfish betonte in seinem hier mal verlinkten Tutorial, man dürfe bei den ersten Schritten seinen Augen nicht trauen, man solle sich besser an die Scopes halten. Wie dieses Beispiel aber zeigt, bringen die einen nicht weiter. Wenn es aber um gefällige Farben geht, muss man den Augen trauen.

ne an der stelle hat steve hullfish recht. es geht hier erstmal nicht darum das das bild gut ausschaut. das ist auch genau der punkt den viele durcheinander bringen. speziell in den älteren beiträgen wo es um das thema LUT geht wird das auch immer wieder deutlich.

du must(solltest) unterscheiden zwischen einem technischen grading und einem look. hier beim thema white balance sprechen wir über ein technisches grading. das kann durchaus total ätzend aussehen. wichtig ist dabei eine einheitliche grundlage für ein zweites grading(look) oder andere postproduktions etappen zu schaffen. wenn alle shots die aus der technischen farbkorrektur kommen ätzend aussehen, aber alle auf die gleiche weise ätzend, dann ist alles erstmal richtig.
die einzigen zwei dinge die man an der stelle vermeiden sollte ist klipping im weiss und clipping (aufsetzen) im schwarz.
das auge sollte an der stelle nur dazu dienen nochmal nach den scopes zu verifizieren das es technisch ok ist. mehr eingendlich nicht.
erst das anschliessende grading wo das alles einen look bekommt da entfernst du dich wieder von der original darstellung und da ist subjektive wahrnehmung und creativität gefragt.



Antwort von Paralkar:

Der Schritt des Balancings kann man komplett nach Parade machen, es gilt halt eines zu beachten

"Weißabgleich", vorausgesetzt es gibt überhaupt Weiß im Bild (ich weiß hört sich ultra logisch an), aber bei nem monochromatischem Bild, in dem die Highlights garnicht über 50% gehen, macht es natürlich kein Sinn das Bild auf 100% zu leveln und das Signal so zu korrigieren das Weiß - Weiß ist.

Letzteres gilt das auch für den "Grauabgleich", wenn ich keine graue Fläche im Bild hab,

Ansonsten ist das auch oft sehr gängig ein Kunstlicht WeißabgleichWeißabgleich im Glossar erklärt der Kamera erstmal zu normalisieren, also auf Tageslicht zu bringen, um eine saubere Grundlage für die Lookentwicklung zu haben und diese bei allen Clips schonmal weitestgehend funktioniert, die im selben "Licht" gedreht wurden.

Zum Thema Kameraweißabgleich, Raw und Videosignal, klar ist es bei Raw ohne Qualitätseinschränkung, aber auch ProResProRes im Glossar erklärt 4444 oder sogar bei ner DSLR kann man im Grading noch retten, wenn er bei der Kamera mal falsch war, kommt natürlich immer auf die Situation an, aber da kann man meistens noch einiges machen.



Antwort von Axel:

Trotzdem: Wenn ich eine offenkundige Kunstlichtsituation habe, ist es wenig sinnvoll, erst alles komplett zu neutral zu machen, um dann wieder Orange ins Bild zu pumpen. Oder anders gesagt, das ist dann eine sehr "moderne" Auffassung, die die Bemühungen des DOP, ein stimmungsvolles Bild auszuleuchten, gar nicht will.



Antwort von cantsin:

Trotzdem: Wenn ich eine offenkundige Kunstlichtsituation habe, ist es wenig sinnvoll, erst alles komplett zu neutral zu machen, um dann wieder Orange ins Bild zu pumpen.
Das geht aber nur unter der Idealannahme, dass alles Material einer Szene mit derselben Kamera und unter denselben Lichtbedingungen gedreht wurde. Ansonsten ist es sinnvoller, alles erst zu normalisieren/neutralisieren und dann auf den gewünschten Look zu bringen.



Antwort von Paralkar:

Naja es geht ja vielmehr um Arbeitsweise und Workflow, wenn die Szene gut balanced ist, kann ich viel schneller drüber arbeiten, und es springt nichtmehr so sehr (falls das überhaupt der Fall ist)

Letzteres mögen die meisten sowieso nicht den Look vom Rec709 - Kunstlicht Bild, da kann ich dann im Primary grading ja ohne Probleme wieder ne andere Kunstlichtstimmung draus machen und diese überall drüber werfen



Antwort von mash_gh4:

bei derartigen fragen, wo eine korrekte antwort und die praktisch gebräuchlichen kompromisse so weit auseinander klaffen, ist es immer schwer position zu beziehen.

trotzdem: man muss aufpassen, die tatsächliche tri-stimuli spektralempfindlichkeit bzw. das zusammenspiel aller beteiligten farben nicht einfach mit den drei grundfarben irgendwelcher technischen abbildungstechniken gleichzusetzten! deswegen ist die beschriebene methode leider wirklich nur als ausgesprochen notdürftiger kompromiss zu sehen. ein bisserl sauberer wird es, wenn man die entsprechenden adaptionen in dafür besser geeigneten farbräumen durchführt. (siehe dazu die ganz einfache erklärung: http://en.wikipedia.org/wiki/Color_bala ... or_balance )

ich kann allerdings auf die schnelle auch kein passendes freies openfx plugin aus dem ärmel schütteln, mit dem man das im resolve ein wenig korrekter und trotzdem überschaubar einfach abwickeln könnte.

wirklich gut geht es auch tatsächlich nur mit raw daten od. direkt in der kamera. alles andere ist mit derart unangenehmen begleiterscheinungen verknüpft, dass man kaum von einer "richtige vorgehensweise" sprechen kann.

aber, natürlich ist mir klar, dass das alles ein bisserl weltfremd klingen muss. in der praxis setzten wir uns andauernd über all diese theoretischen schwierigkeiten hinweg -- und sehr oft kommt dabei ja auch akzeptables heraus. ;)



Antwort von dienstag_01:

Man kann doch einfach den Knopf AUTO BALANCE drücken, kommt dasselbe raus. Oder gibts den in Resolve gar nicht?



Antwort von Axel:

Man kann doch einfach den Knopf AUTO BALANCE drücken, kommt dasselbe raus. Oder gibts den in Resolve gar nicht?
Doch. Aber wie weiter oben beschrieben ist eine automatische Tonwertspreizung und eine automatische Farbbalance eher selten der Aufnahme adäquat, weswegen das Handbuch selbst die Funktion als Notbehelf für Farbkorrekteure unter extremem Zeitdruck bezeichnet. Dasselbe gilt für "Match frame" (oder wie das in Resolve heißt). Neutrale Farben und ausgenutzter DR sind tatsächlich Workflow-Entscheidungen und müssen schon vor und in der Kamera gemacht werden, soweit wie möglich.



Antwort von Darth Schneider:

Also wenn es soviel Text braucht um mir zu zeigen wie ich einen Weissableich machen muss, spricht das nicht gerade für eine Software deren Sinn es ist Colorcorection zu machen. Da bleibe ich lieber bei meinem Premiere und iMovie dort geht das viel einfacher, wenn ich es denn einmal im Jahr machen muss, weil man den Weissableich eh besser in der Kamera richtig machen sollte.



Antwort von CameraRick:

Also wenn es soviel Text braucht um mir zu zeigen wie ich einen Weissableich machen muss, spricht das nicht gerade für eine Software deren Sinn es ist Colorcorection zu machen. Da bleibe ich lieber bei meinem Premiere und iMovie dort geht das viel einfacher
Eine Spezialanwendung zeichnet sich auch nicht dafür aus, dass alle Tasks undglaublich einfach sein wollen. Wenns nur um die Einfachheit der Dinge geht, sind Farbkorrektur-Funktionen im NLE ja komplett ausreichend.
Automatismen gibt es ja (anscheinend, wie Axel beschreibt), aber gut ist eben anders.



Antwort von handiro:


Nimmst ein nicht so ein "verschandeltes" Bild, wie zB das aus dem G70 Test, sieht das schon anders aus (das ist ein Zwei-Klick Beispiel, verurteilt mich nicht)

Das sieht hier gut aus. Freispruch :-)



Antwort von srone:

Man kann doch einfach den Knopf AUTO BALANCE drücken, kommt dasselbe raus. Oder gibts den in Resolve gar nicht?
Doch. Aber wie weiter oben beschrieben ist eine automatische Tonwertspreizung und eine automatische Farbbalance eher selten der Aufnahme adäquat, weswegen das Handbuch selbst die Funktion als Notbehelf für Farbkorrekteure unter extremem Zeitdruck bezeichnet. Dasselbe gilt für "Match frame" (oder wie das in Resolve heißt). Neutrale Farben und ausgenutzter DR sind tatsächlich Workflow-Entscheidungen und müssen schon vor und in der Kamera gemacht werden, soweit wie möglich.

danke axel, ich oder du entscheide, im sinne des workflows, was passt, auch das kann eine neutrale basis sein, obiger link interpretiert, da fängt es an spannend zu werden.

lg

srone




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
RED Raven - 4K unter 10K - was man schon weiß...
Blackmagic DaVinci Resolve 12 ist da
Blackmagic DaVinci Resolve 12.5 ist final...
Blackmagic DaVinci Resolve 15 ist final
Blackmagic DaVinci Resolve 14 Beta 8 ist da
Davinci Resolve Update 11.3.1 ist raus
Davinci Resolve v14 ist fertig
Davinci Resolve Beta 5 ist raus
Blackmagic DaVinci Resolve 12 (Beta) ist da
Blackmagic DaVinci Resolve 14.1 ist ab sofort verfügbar
Der Preis der zusätzlichen Leistung - Zwei und mehr GPUs unter DaVinci Resolve
Welche CPU ist optimal für DaVinci Resolve 15?
Blackmagic DaVinci Resolve 14 ist final // IBC 2017
AMD Radeon VII - der DaVinci Resolve Afterburner
Der neue ProRes-Decoder für Windows in DaVinci Resolve
Nuke 10 ist draußen
Die Intro-Animationen der großen Film-Studios im Wandel der Zeit
Kann man den Blackmagic DaVinci Resolve Studio 15 Key auch für Resolve 16 nutzen?
Facebook contra YouTube: der große Video-Klau
WeltN24 mit 360° Video von der G7 Großdemo
Intel hat große Pläne mit der RealSense Tiefendaten Kamera
SmallHD gibt Preise der neuen großen 10-Bit HDR Field-Monitore bekann
Davinci Resolve 15
DaVinci Resolve 15.0.1 - Update
DaVinci Resolve 12.3 Update
Davinci Resolve stabilizer

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom