cantsin hat geschrieben: ↑So 12 Apr, 2020 14:06
Man kann schon eine LUT in kleinerer Auflösung (17x17x17 statt 33x33x33) bereitstellen, die dann eigentlich nur als Monitoring-LUT und nicht als Postproduktion-LUT gedacht ist, aber deutlich genug sehen lässt, wie sich das Material farblich verhält.
wirklich optimal ist beides nicht!
wenn man es sauber macht, hast du am anfang drei 1D-Luts, die jeweils 1024 werte übersetzten -- also für jeden 10bit ausgangswert exakt eine lösung bereithalten --, um damit die drei farbkanäle zu "linearisieren".
dann erst kommt der zweite schritt, wo man den farbraum transformiert. das kann man entweder mit mathemischen matrix operationen durchführen, die quasi den betreffenden würfel mit dreidimensionalen farbwerten in einheitlicher weise rotieren, stauchen oder verzerren können -- was perfekt funktioniert wenn man z.b. eine umwandlung zwischen klar spezifizierten farbräumen (also z.b. V-gamut -> sRGB/rec709) vornehmen will.
natürlich kann man auch diesen schritt bereits mittels 3D-Luts abwickeln, weil die betreffenden operationen ohnehin nur eingriffe vornehmen, die sich auch im punktgitter einer 3D-Lut minmimalster größe (im prinzip reicht eine 2x2x2 Lut dafür!) völlig verlustfrei (sofern man von rundungsfehlern od. unzureichender interpolation absieht) umsetzten lassen. man braucht sich das wirklich nur als operation an räumlichen gestalten vor dem inneren auge im gedanken durchspielen.
die operationen mit 3D-Luts, von denen du hier sprichts, wo dann die auflösung des entsprechenden gitters mit den transformationsangaben eine rolle spielt, bilden im regelfall eine kombination aus mehrern der oben genannten elementaren operationen in einer stark vereinfachten bzw. interpolierten weise ab.
das ist natürlich nicht wirklich optimal, gerade dort, wo man es fast ohne zusätzlichen rechenaufwand od. in der praxis sogar weniger rechenschritten(!) in der beschriebenen weise auch sauberer umsetzten kann.
aber natürlich stellen 3D-Luts eine interessante möglichkeit dar, ein ganze kette von farboperationen mit einem einfachen mechanismus zu beschreiben bzw. weiterzureichen.
das problem das sich hier stellt, hat hauptsächlich damit zu tun, dass die wenigsten anwender dieser technik tatsächlich beherzen, wie die betreffenden stützpunkte im gitter der betreffenden 3D-Luts tatsächlich gesetzt werden müssten, die fehler, die sich hier im zuge der notwendigen interpolation bei der anwendung ergeben, möglichst gering zu halten bzw. eine klare kenntnis davon besitzen, was sich mit diesem werkzeug tatsächlich einigermaßen sauber bewerkstelligen lässt bzw. wo man bessere andere lösungswege beschreitet.
wenn man sich anschaut, wie die meisten Log-formate spezifiziert bzw. mathematisch beschrieben werden, dann gibt es darin normalerweise einen unteren bereich, wo die werte in linearer weise übertragen werden, weil in diesen dunklen bereichen so wenig unterscheidbare ausgangsinformation vorliegt, dass diese art der abbildung die effizienteste ist, und erst dort wo dann immer mehr unterscheidbare helligkeitswerte vom sensor geliefert werden, schwenkt man auf die logarithmische werteabbildung um, um eine möglichst gleichmäßige differenzierung in allen verbelibenden blendenstufen bzw. EV-stufen zu gewährleisten. das ist also bereits eine zusammengesetzte operation, die sich mittels 3D-Luts pinzipiell nicht mehr optimal abbilden bzw. handhaben lässt. deswegen eben besser 3x1D-Lut + 3D-Lut od. matrix.
aber natürlich muss man das nicht unbedingt so rational handhaben, sondern kann natürlich beliebige filter drüber klatschen -- so wie da ja auch niemand verbiten kann, irgendwas buntes vor dein objektiv zu schrauben, um als möglichst kreativ gefeiert zu werden.
mir persönlich scheint es vernünftiger, derartige mittel tatsächlich in handwerklich korrekter form dazu zu nutzen, um eigenheiten des sensors nbzw. der kamera möglichst auszugleichen, um eine korrekte und einheitliche ausgangsbasis für alle weiteren gestalterischen eingriffe zur verfügung zu haben.
natürlich gibt's da immer ein paar kollegen, die das mit sehr viel mühen und manuellem herumspielen auch hinzubekommen hoffen bzw. dann ihre kompromisse mit anderen teilen, aber im grunde geht's hier um dinge, die man auch weitestgehend objektivieren und mit entsprechenden automatismen behandeln und optimieren kann. deshalb finde ich es deutlich zweckmäßiger, dafür spezialisierte kamerakalibrierungslösungen (bspw.
DCamProf) heranzuziehen, die ja genau diese daten bzw. möglichst saubere korrekturtabellen -- vorzugsweise auf mehreren zweckmäßig kombinierte operationen verteilt -- liefern, wenn man schon vom hersteller der kamera nichts passendes geboten bekommt.