die meisten kameras und raw-entwickler realisieren den weißabgleich ganz einfach dadurch, dass die aussteuerung der drei von sensor gelieferten farbkanäle jeweils mit einem korrekturfaktor multipliziert wird (=
scaling), so dass dann schließlich im falle eines weißen od. neutral grauen messebereichs im bild jeweils gleich große werte in allen drei kanälen herauskommen.
dieses sehr einfache vorgehen hat mit komplizierten modellen der farbtheorie nicht viel gemeinsam. weder dem konzept der farbtemperatur (=die spektrale zusammesetzung eines erwärmten idealen schwarzen körpers), noch der entsprechenden anpassungsleistungen unserer sinne (chromatische adaption), wird hier rechnung getragen. in der praxis genügt dieses vorgehen aber trotzdem im allgemeinen.
erst, wenn man entsprechende operationen nachträglich korrigieren od. rechnerisch von einem farbraum bzw. einer spezifizierten beleuchtungsart in eine andere übersetzen will, wird es ein bisserl komplizierter.
das einfache ändern der verstärkung in den einzelnen farbkanälen liefert hier nur eine annäherung, die für die meisten zwecke als ungeeignet grob angesehen werden muss -- obwohl das natürlich auch ein solches behelfsmäßiges vorgehen noch immer gang und gäbe ist (also bspw. einfache printer light korrekturen an hand der vector scope angaben -- und dass sogar meist unmittelbar im gerade verwendeten
display referred space, was nocheinmal deutlich unbefriediegendern ausfällt bzw. den wesentlichen unterschied zu einer umrechnung in dafür geeigneteren arbeitsräume aussmacht)
geeignetere methoden, die chromatische adaption der farbwahrnehmung möglichst realistisch nachzubilden (also bspw. bradford od. CIECAT02
chromatic adaptation transforms), nutzen dazu statt einfachem
scaling isolierten werte in den drei vorgegebene farbkanälen etwas kompliziertere transformations matrizen. deren eingriffsmöglichkeiten kann man sich ungefähr so vorstellen, wie geometrische operationen (drehungen, verzerrungen...), die den ganzen
color cube als ganzes erfassen, und damit u.a. auch eine mathematisch saubere übersetzung zw. verschiedenen standardisierten farbmodellen erlauben.
aber auch diese eingriffsmöglichkeit bzw. beschreibung von veränderungen als transformation mittels farbmatrix hat ihre grenzen!
unterschiede, wie sie bspw. durch die jeweilige spektrale sensibilität verschiedener sensoren gegeben sind, und leider auch jede menge abweichungen, die uns durch die eigenheiten der color science der div. hersteller beschert werden, lassen sich auf diese weise nicht erfassen und korrigieren.
darin steckt auch bereits die erklärung, warum dem automatische farbausgeleich, wie ihn resolve anbietet, klare grenzen gesetzt sind bzw. warum das in praxis sehr oft nichteinmal annäherungsweise befriedigend funktioniert.
dort wo es tatsächlich nur sehr einfache korrekturen geht (also bspw. die selben kamera mit geringfügig abweichendem weißabgleich angepasst werden soll), wird es natürlich klappen, weil es ja nur eine etwas abgewandelte varaiante der oben geschrieben techniken darstellt, wobei halt in dem fall die korrekturmatrix an hand von empirischen anhaltspunkte ermittelt wird, statt auf formeln und berechnung bzgl. der adaption zw. verschiedenen farbräumen od. weißpunkten zurückzugreifen.
wenn man diese prinzipielle einschränkungen und grenzen beachtet, kann man das zeug daher durchaus in manchen sehr einfach gelagerten fällen sinnvoll benutzen.
für komplizierte anwendungen -- also bspw. die errechnung von korrekten IDTs, um tatsächlich unterschiedliche kameras im ACES arbeitsmodell nebeneinander nutzen zu können -- braucht man ohnehin wesentlich genauere ausgangsmesswerte, wie sie ein color checker mit seiner sehr begrenzen anzahl an patches bzw. dem umfang damit abgedeckten kontrasts und farbsättigung nie liefern kann.
ich persönlich finde es auch sehr unbefriedigend, dass die umsetzung des entsprechenden tools im resolve ausgesprochen wenig sinnvolles feedback liefert, an dem man die plausibilität der vorgeschlagenen korrktur überprüfen könnte, oder eben auch (bspw. über die gewichtung einzelner patches od. gruppen) präziser steuern könnte. diesbezüglich halte ich
DCamProf für ein deutlich mächtigeres und lehrreicheres werkzeug.