Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic S1 / S1H / S5 / S1R / GH4 / GH5 / GH5s / GH6-Forum

Infoseite // Panasonic S5 - Welches LUT?



Frage von ksingle:


Ich habe bisher das LUT VLog_to_V709_forV35_ver100.cube
von Panasonic zur Neutralisierung der mit V-Log gedrehten Videos
bei der S5 genutzt.

Welche nutzt Ihr dafür?

Space


Antwort von cantsin:

Wenn Du Resolve nutzt, würde ich als erstes den Effekt "Color Space Transform" nehmen, und dann als Input-Farbraum und -Gamma "Panasonic V-Gamut" und "Panasonic V-Log" wählen, Tone Mapping aktivieren (Tone Mapping Method = DaVinci) und eventuell "Apply Forward OOTF" ankreuzen. Das ergibt schon mal deutlich bessere Ergebnisse als die Panasonic-LUT.

Alternativ @DeeZids LUT, die nicht nur an den Rolloff von RED und Arri angeglichen sind, sondern im Gegensatz zu vielen 3rd-Party-LUTs auch farbtreu sind:

https://55media.net/55mluts/

Mehr dazu hier:
https://youtu.be/xDjLHiiatUA?t=609

Space


Antwort von Bruno Peter:

Welches End-Ziel verfolgst Du mit Deiner LUT, soll das Video am Ende so aussehen:
https://www.youtube.com/watch?v=60wsxcGx_Ew
???

Space


Antwort von cantsin:

"Bruno Peter" hat geschrieben:
Welches End-Ziel verfolgst Du mit Deiner LUT
Schrieb er doch, "Neutralisierung". Also eine farbtreue Umwandlung von VLog nach Rec709, kein Styling.

Space


Antwort von ksingle:

@cantsin
Danke für deinen netten Tipp :-)

Da ich aber seit einigen Wochen nur noch mit Final Cut arbeite, klappt das leider mit der Color Transformation unter Resolve nicht mehr. Und noch einmal rund 50$ ausgeben möchte ich auch nicht. Daher dachte ich eher an ein Standard-LUT von Panasonic. Aber das scheint es wohl (explizit für die S5) nicht zu geben.

Käsekuchen .-)

Space


Antwort von cantsin:

ksingle hat geschrieben:
Daher dachte ich eher an ein Standard-LUT von Panasonic. Aber das scheint es wohl (explizit für die S5) nicht zu geben.
Die LUT, die Du eingangs nanntest, ist die Standard-LUT von Panasonic. Es gibt (wie im Nachbarthread zur GH5 II diskutiert) nur ein V-Log-Profil für alle Panasonic-Kameras. Im Gegensatz zu Herstellern wie Blackmagic verwendet Panasonic keine Kamera- bzw. sensorspezifischen Log-Profile und LUTs, sondern verfährt nach dem Motto "one size fits all" - wobei das bei den Full Frame-Kameras besser passt als bei den MFT-Kameras.

Du kannst aber auch das folgende machen: In Resolve mit "Color Space Transform" eine Umwandlung machen, die Dir am besten gefällt und zu Deinem Material pauschal am besten passt, und die als LUT exportieren und in FCPX verwenden.

Space


Antwort von cantsin:

Hier mal ein visueller Vergleich:

V-Log_1.48.8.POST.jpg V-Log, unkorrigiert

Panasonic LUT 3.5_1.48.9.POST.jpg umgewandelt mit Panasonics Standard-LUT


Color Space Fwd OOTF_1.48.2.POST.jpg umgewandelt mit Resolves Color Space Transform (Tone Mapping="DaVinci" + "Apply Forward OOTF" aktiviert)


DeeZid Neutral_1.48.6.POST.jpg DeeZid/55M Advanced LUTs, S1/S5/S1H-LUT "Neutral" ("an accurate and linearized Rec709 conversion, but with a smooth roll-off")


DeeZid Advanced_1.48.1.POST.jpg 55M Advanced LUTs "Advanced" ("mimicking the RED IPP2 Medium/Soft Rec709 conversion")


DeeZid Film_1.48.3.POST.jpg 55M Advanced LUTs "Film" ("mimicking the ARRI Rec709 conversion")


DeeZid Main_1.48.5.POST.jpg 55M Advanced LUTs "Main" ("a mixture between RED IPP2 Rec709 and ARRI Rec709, best of both worlds")


EDIT:
Und hier noch ein Nebeneinander-Vergleich:
montage.png V-Log ungraded | Panasonic LUT | Resolve Color Space Transform | 55M Neutral | 55M Advanced | 55M Film | 55M Main

Space


Antwort von arcon30:

mir gefällt an besten, Resolves Color Space Transform (Tone Mapping="DaVinci" + "Apply Forward OOTF" aktiviert)!

habe ich auch für meine s5 mal probiert, sieht sehr gut auf mein LG OLED aus!

LG
Kai

Space


Antwort von roki100:

Danke cantsin.
Also CST sieht m.M. am besten aus. Das ist auch bei der G9 so.
Der unterschied zu DeeZid LUT ist aber minimal...

Space



Space


Antwort von ksingle:

@cantsin

Florian (cantsin) ist ein prima Beispiel für ein konstruktives Miteinander in einem Forum. Durch ihn habe ich über diesen Thread etwas hinzu gelernt. Danke dafür. Einige Zeitgenossen sollten sich davon eine dicke Scheibe abschneiden .-)

Space


Antwort von cantsin:

Danke für die Blumen.

Der Einfachheit halber habe ich in Resolve mal eben schnell selbst eine LUT (65 Point Cube) aus der "Color Space Transform" mit gesetztem Tone Mapping und Forward OOTF generiert, siehe Dateianhang. Da Tone Mapping und OOTF auch vom Motiv abhängig sind, kann ich aber nicht garantieren, dass die LUT für alle Zwecke gut funktioniert.

Space


Antwort von Darth Schneider:

Was ich nie ganz verstanden habe, wozu braucht ihr diese Color Transform Luts eigentlich genau ?
Es wird ja wohl kaum sein das die S5 von Natur aus keine schönen Farben filmen kann ? ;)

@Cantsin
Ich bin ja wirklich ein Dummy was Colorcorrection betrifft, aber mir gefällt trotzdem das Panasonic Standart Lut am besten. Die Wiese ist zwar zu wenig grün, und die Haut hat irgend eine Farbstich, das könnte man doch bestimmt ganz leicht korrigieren.
Bei den anderen Luts finde ich eigentlich alles grundsätzlich ein wenig zu bunt, erinnert schon fast ein wenig an den Deep Sonylook, wie das noch vor 10 Jahren so aussah. ;)
Gruss Boris

Space


Antwort von ksingle:

"Darth Schneider" hat geschrieben:
Was ich nie ganz verstanden habe, wozu braucht ihr diese Color Transform Luts eigentlich genau ?
Es wird ja wohl kaum sein das die S5 von Natur aus keine schönen Farben filmen kann ? ;)
Gruss Boris
Hallo Boris,
wenn du mal in die Testkiste von Slshcam schaust, wirst du sehen, dass die Pana S5 nicht schlecht abschneidet. Sie liegt in wichtigen Dingen sogar direkt hinter der Sony A73S. Dazu gehört z.B. auch ein erwähnenswerter Dynamikumfang. Diesen erzielt man mit dem V-LOG-Profil. Da LOG jedoch ein flaches und farbenarmes Bid erzeugt, holt man sich u.a. die Farben mit einem "Neutralisierungs"-Profil (LUT) wieder zurück und spreizt dabei den Dynamikumfang auf.

Space


Antwort von Darth Schneider:

Danke.
Spannend wäre es, finde ich, wenn die Kamera Hersteller endlich selber auf die Idee kommen würden, solche verschiedene, hochwertige Luts anzubieten, am besten mit ganz verschiedenen Looks, aber halt wirklich passend zu den entsprechenden Kameras, mit dem, gespreizten Dynamikumfang…D
(Coole Wörter, liest sich irgendwie sexy)
Sonst bringt das doch eigentlich nur wenig.
Oder sonst muss man das dann halt doch besser wie mit den BMD/Red/Arri Kameras den Look selber gestalten, dabei lernen und sich die Zeit nehmen.

Grundsätzlich:
Ich selber komme immer mehr weg von den zu natürlichen Farben, (dem quasi neutralen Look), Das will doch eigentlich auch (fast) niemand sehen..D
Den versuchen zurückzuholen, das mach ich eigentlich nie.
Film soll doch eben doch gar nicht wie das echte Leben sein, lieber viel mehr kreativ, schön, anders, künstlerisch, oder wie eine Show…
Gut es kommt natürlich drauf an was man dreht, braucht man schnell einen möglichst natürlichen, echten Look ?
Das geht doch am einfachsten mit Kameras die das halt in Kamera, schon bei der Aufnahme, das so perfekt beherrschen, gibt es doch genug, in allen Preisklasen.
Gruss Boris

Space


Antwort von andieymi:

"Darth Schneider" hat geschrieben:
Spannend wäre es, finde ich, wenn die Kamera Hersteller endlich selber auf die Idee kommen würden, solche verschiedene, hochwertige Luts anzubieten, am besten mit ganz verschiedenen Looks, aber halt wirklich passend zu den entsprechenden Kameras, mit dem, gespreizten Dynamikumfang…D
Gibt es bei Red, nennt sich IPP2. Du kannst innerhalb von r3d das Kontrastmapping und den Highlightrolloff auf mehrere Arten einstellen. Das ist durchaus noch was anderes, als die üblichen 3-4 Raw-Regler-Kandidaten (ISO, Kontrast, Belichtung, Highlights) die wir sonst in fast jedem Rohdatenformat haben.

Von den "Creative Luts", die es bei Red ebenfalls gibt halte ich allerdings nicht viel... allerdings teilweise auch nicht so schlecht, wie das was sonst an kreativen LUTs so überall herumfliegt.
Gibt es dann auch in der Kombivariante (Medium Contrast + Soft Highlight-Rolloff + Creative LUT-XYZ), wobei Du dann jeden der Parameter variiert mit anderen kombiniert haben kannst.

Also ja, es ist auch unendlich viel, das man so nie verwenden würde - ich lande fast immer bei Medium Contrast + Soft HLR als Grund-Normalisierung, aber gibt es wie gesagt.

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Was ich nie ganz verstanden habe, wozu braucht ihr diese Color Transform Luts eigentlich genau ?
Hier die Erklärung:
https://www.slashcam.de/artikel/Grundla ... lmen-.html

Space


Antwort von roki100:

Boris, Du hast Dir doch Colorgrading Bücher geholt, aber scheinbar noch nicht gelesen?
Neutralisieren / die Umwandlung zu Rec709, ist eben etwa - was als erster Schritt betrachtet wird...Erst danach kommt Colorgrading, also einen gewissen Look stylen....

Space


Antwort von mash_gh4:

"Darth Schneider" hat geschrieben:
Spannend wäre es, finde ich, wenn die Kamera Hersteller endlich selber auf die Idee kommen würden, solche verschiedene, hochwertige Luts anzubieten, am besten mit ganz verschiedenen Looks, ...
nein! -- genau das finde ich leider an der hiesigen gegenüberstellung der verschiedenen varianten auch nicht ganz glücklich gelöst. IDTs und LOOKs gehören meinem verständnis nach einfach ganz streng auseinander gehalten.

ich versteh zwar cantsins herangehensweise, die immer mit praktischen beispielen an die sache herangeht bzw. sich an der realen wirkung und konkreten bildeindrücken orientiert, trotzdem finde ich es manchmal vorteilhafter, die dinge ein wenig objektiver zu betrachten bzw. mit einfachen messmethoden zu analysieren.

von den passenden IDTs einer kamera will ich eigentlich nur wissen, wie gegebene farbbeispiele auf irgendwelchen bunten color charts in digitalen bildern bzw. den dortigen werten wiedergeben werden. das kann man dann ausgesprochen sauber und objektiv beurteilen bzw. miteinander vergleichen. die entsprechenden abweichungen lassen sich in den dafür üblichen deltaE angaben ganz unmissverständlich festhalten.

genau gleich also, wie man das etwa auch bei bildschirmen bzw. deren kalibrierung handhabt. warum soll man es nicht auch bei kameras in der selben weise handhaben bzw. objektivieren?

nur weil man dann letztlich natürlich in den bildern meist ein wenig mehr als nur farben ganz korrekt wiedergeben will, sollte man sich in diesem ersten schritt der datenaufbereitung trotzdem nicht zu sehr vom gefühl od. geschmacklichen vorlieben leiten lassen. dafür ist ja in den nachfolgenden bearbeitungsschritten -- von mir aus sogar in form des wahllosen draufklatschens irgendwelcher kitschigen LOOK-LUTs -- noch mehr als genug speielraum offen. aber zuerst braucht man für aller anspruchsvolleren weiteren eingriffe vor allem einmal eine saubere und korrekte ausgangsbasis.

Space



Space


Antwort von Darth Schneider:

Ok
Ich fang an die Bücher zu lesen…Grundlagen sind immer wichtig.
Gruss Boris

Space


Antwort von roki100:

Das auf jeden Fall. Dein Bildschirm musst aber nicht unbedingt extra dafür Kalibrieren, sondern alle andere müssen eigenen Bildschirm auf deinen anpassen^^

Space


Antwort von roki100:

ksingle hat geschrieben:
@cantsin

Florian (cantsin) ist ein prima Beispiel für ein konstruktives Miteinander in einem Forum. Durch ihn habe ich über diesen Thread etwas hinzu gelernt. Danke dafür. Einige Zeitgenossen sollten sich davon eine dicke Scheibe abschneiden .-)
ja, hätte ich ein Foto&Video Laden, würde ich cantsin sofort einstellen^^

Space


Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:

Das geht doch am einfachsten mit Kameras die das halt in Kamera, schon bei der Aufnahme, das so perfekt beherrschen,
Die machen auch nix anderes als ne LUT drüber zu bügeln - intern halt.

Space


Antwort von Frank Glencairn:

roki100 hat geschrieben:
Boris, Du hast Dir doch Colorgrading Bücher geholt, aber scheinbar noch nicht gelesen?
Neutralisieren / die Umwandlung zu Rec709, ist eben etwa - was als erster Schritt betrachtet wird...Erst danach kommt Colorgrading, also einen gewissen Look stylen....
Ja aber so ein Workflow ist eher suboptimal.
Wenn man anspruchsvoll arbeiten will, ist ein manueller (kein RCM) ACES Workflow eher angesagt.
Wenn das Bild schon am Anfang auf Rec709 reduziert ist, hast du das beste schon aus dem Fenster geschmissen - REC 709 macht man eigentlich erst ganz am Schluß - also wenn man aus ACES raus geht.

Space


Antwort von roki100:

Jeder macht es irgendwie so wie es einem gefällt, es gibt auch keine feste Regeln in Davinci , nur das Ergebnis zählt. Dabei bemerkt der eine oder andere, dass es schon eine Rolle spielt, ob man Node für X/Y davor oder danach setzt. Und so lernt man m.M. am besten.

Ich finde manches bei YouTube schon viel interessanter als kostenpflichtige Bücher. Die Auswahl ist größer, von dem einen lernt man das, von dem anderen was anderes usw.

Seit Davinci 17, finde ich "DaVinci Wide Gamut" sehr interessant.

Space


Antwort von Frank Glencairn:

roki100 hat geschrieben:

Seit Davinci 17, finde ich "DaVinci Wide Gamut" sehr interessant.
Auf dem Papier schon, aber leider hat der noch das ein oder andere Problemchen - sollte aber demnächst behoben sein, so lange bleib ich lieber erst mal noch bei ACES.

Space


Antwort von roki100:

welche Problemchen? Unter MacOS funktioniert es (wie ich finde) sehr gut.

Space


Antwort von Frank Glencairn:

roki100 hat geschrieben:

Ich finde manches bei YouTube schon viel interessanter als kostenpflichtige Bücher. Die Auswahl ist größer, von dem einen lernt man das, von dem anderen was anderes usw.
Da kann ich dir diesen Kanal empfehlen:
https://www.youtube.com/c/CullenKelly/videos

Space



Space


Antwort von Frank Glencairn:

roki100 hat geschrieben:
welche Problemchen? Unter MacOS funktioniert es (wie ich finde) sehr gut.
Unter bestimmten Bedingungen kann es negative (falsche) Werte geben - das ist unabhängig vom Betriebssystem.

Space


Antwort von roki100:

"Frank Glencairn" hat geschrieben:
roki100 hat geschrieben:

Ich finde manches bei YouTube schon viel interessanter als kostenpflichtige Bücher. Die Auswahl ist größer, von dem einen lernt man das, von dem anderen was anderes usw.
Da kann ich dir diesen Kanal empfehlen:
https://www.youtube.com/c/CullenKelly/videos
Kannte ich gar nicht. Danke.

sehr interessant:

https://www.youtube.com/watch?v=v8P3rshGgdM

https://www.youtube.com/watch?v=jLQG5_dovYw
...REC 709 macht man eigentlich erst ganz am Schluß - also wenn man aus ACES raus geht. Nachdem man die Videos gesehen hat, wird einem klarer was Du damit meinst. :)

Space


Antwort von roki100:

ACES Sandwich funktioniert tatsächlich besser auch mit VLOG.
Auch das Problem mit rötliche Gesichter verschwindet damit definitiv.

Hier ein Beispiel mit dem Bild von cantsin:
Bildschirmfoto 2021-07-17 um 10.39.27.png oder so (GHAlex): Bildschirmfoto 2021-07-17 um 10.52.37.png oder Look (FilmConverter) Bildschirmfoto 2021-07-17 um 10.58.34.png

Space


Antwort von Frank Glencairn:

Mein Reden :D

Space


Antwort von cantsin:

Die Farbraum-Übersetzungen, die Resolve bei ACES macht, sind aber letztlich wirkungsgleich zu denen/verwenden dieselben Tonemapping-Algorithmen, die das Programm seinem eigenen Arbeitsfarbraum DaVinci YRGB + Color Space Transform verwendet.

Space


Antwort von Darth Schneider:

Warum braucht dann jede scheiss Software, ( oder auch Hardware) ihren eigenen Farbraum ?
Können sich die denn nicht einigen, einer für Print, einer für Film/Video ?
Wir Menschen haben doch schliesslich auch nur ein einzigen Farbraum, nämlich den von unseren Augen….

@ roki
Nein, ich habe leider noch nicht angefangen die Resolve/Colorgrading Bücher zu lesen, hab im Moment noch ein Freibad ( nicht nur) zu leiten, sondern auch noch sauber zu halten.
Bei schlechterem Wetter arbeitet immer einer alleine, meistens ich.;(
Gruss Boris

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
Die Farbraum-Übersetzungen, die Resolve bei ACES macht, sind aber letztlich wirkungsgleich zu denen/verwenden dieselben Tonemapping-Algorithmen, die das Programm seinem eigenen Arbeitsfarbraum DaVinci YRGB + Color Space Transform verwendet.
ja -- das fürchte ich leider auch. :(

das tolle an ACES ist ja eher darin zu sehen, dass es in nachvollziehbarerer weise rahmenvorgaben für eine vorbildliche verabeitungspipeline spezifiziert, die in allen programmen ähnlich funktionieren sollte bzw. in jedem arbeitschritt einen problemlosen austausch mit anderer software erlaubt.

und da das entsprechende vorgehen zum größten teil gut begründet ist bzw. den heutigen best practice vorgehen entspricht, funktiuonieren natürlich auch die anderen varianten, die sich auf irgendwelche resolve-spezifischen eigenheiten stützen, in vielen fällen ganz ähnlich. es ist daher oft einfach nur diese völlig unnötige verdoppelung der bezeichungen bzw. die errichtung eines paralleluniversums aus firmenspezifischer begriffen und bedienungsgewohneheiten, die sich bekanntlich nicht besonders erfreulich finde. wenn man aber erst einmal versteht, worum es tatsächlich geht, kann man natürlich auf vielfältigste weise und mit ganz unterschiedlichen werkzeugen diesen grundsätzlichen orientierungen in der verarbeitung gerecht zu werden versuchen.

jedenfalls hab ich so meine zweifel, wie weit die mitgelieferten BMD farbraumübersetzungen tatsächlich korrekt funktionieren bzw. auf die faktischen eigenheiten der verschiedenen V-Log umsetzungen in den kameras rücksicht nehmen.

mir ist nur einzige sammlung von entsprechenden IDTs bzw. LUTs aus dem kommerzielen umfeld bekannt, die sich hier wirklich ganz konsequent auf aufwendige eigene empirische messungen gestützt hat. das war diese FUJI-color-science service, der eine weile im netz zugänglich war, bevor er wieder in der versenkung verschwunden ist bzw. nur mehr in irgendwelchen geschlosssen anwedungen genutzt werden dürfte. ich hab natürlich auch keine ahnung, wie weit man dort diese ganzen änderungen, die mit neuen kameras ständig hinzukommen noch immer weiterverfolgt und ergänzt?

generell finde ich es aber ein ganz unbefriedigendes trauerspiel, dass wir uns hier meist einfach nur auf diese höchst unbefriedigenden kompromisse stützen können, wie sie von den kameraherstellern in der regel mitgeliefert und in praktische allen softwarelösungen 1-zu-1 übernommen und genutzt werden.

das führt dazu, dass wir ständig mit irgendwelchen firmentypischen farbverzerrungen konfrontiert sind, die so durchgängig präsent sind, dass wir uns ständig wieder daran gewöhnen bzw. sie schon nach kurzer zeit für das erstrebenswerte ideal bzw. ein befriedigendes abbild der wirklichkeit halten.

dem bewusst zu begegnen -- sich also wirklich auf saubere messungen und korrekturen zu stützen --, halte ich bei den kameras für genauso unabdingbar und wichtig wie im umfeld der wiedergabegerätschaften.

edit: beim suchen dieser alten fuji color science infos ist mir eine seite untergekommen, die kameras bzw. die farbwiedergabe in ihren bildern tatsächlich in einer weise gegenüberstellt, wie ich mir das auch im videoumfeld wünschen würde:

https://pdnonline.com/gear/cameras/the- ... on-ranked/

bspw.:

zum Bild


Space


Antwort von Darth Schneider:

@GHMash
Cooler, so dein Name, oder ? ;)
Ich denke du hast ganz bestimmt recht, und scheinbar weisst du sehr viel darüber, und du kannst dein Wissen auch hier sehr effektiv weitergeben.
Grundsätzlich mal ganz allgemein, danke !
Wird es dir dann manchmal nicht fast schlecht, wenn dann manche Leute deine Filme auf was auch immer für billig Geräten anschauen, die gar nicht kalibriert, (oder auch falsch) oder die einfach überhaupt nicht darauf getrimmt sind neutrale, oder nur ansatzweise die richtigen ( deine ) Farben und Bildlooks abzubilden..??

Also ich werde mich dann auch mit diesen ACES befassen müssen, scheint mir sicher ansatzweise Software und Hersteller übergreifend zu sein…
Das ergibt sicher schlussendlich mehr Sinn.
Dann muss ich auch lernen die Messinstrumente richtig zu nutzen….
Gruss Boris

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Warum braucht dann jede scheiss Software, ( oder auch Hardware) ihren eigenen Farbraum ?
Historisch hat das damit zu tun, dass verschiedene Ausgabemedien (Röhrenfernseher, HD-Flatscreen, 4K HDR-Flatscreen, analoger Film, DCP-Projektion) Farben verschieden wiedergeben.

ACES ist der Versuch, alle Farbräume und Gammas zumindest in der Postproduktion zu vereinheitlichen.

Space



Space


Antwort von andieymi:

mash_gh4 hat geschrieben:
mir ist nur einzige sammlung von entsprechenden IDTs bzw. LUTs aus dem kommerzielen umfeld bekannt, die sich hier wirklich ganz konsequent auf aufwendige eigene empirische messungen gestützt hat. das war diese FUJI-color-science service, der eine weile im netz zugänglich war, bevor er wieder in der versenkung verschwunden ist bzw. nur mehr in irgendwelchen geschlosssen anwedungen genutzt werden dürfte. ich hab natürlich auch keine ahnung, wie weit man dort diese ganzen änderungen, die mit neuen kameras ständig hinzukommen noch immer weiterverfolgt und ergänzt?

generell finde ich es aber ein ganz unbefriedigendes trauerspiel, dass wir uns hier meist einfach nur auf diese höchst unbefriedigenden kompromisse stützen können, wie sie von den kameraherstellern in der regel mitgeliefert und in praktische allen softwarelösungen 1-zu-1 übernommen und genutzt werden.

das führt dazu, dass wir ständig mit irgendwelchen firmentypischen farbverzerrungen konfrontiert sind, die so durchgängig präsent sind, dass wir uns ständig wieder daran gewöhnen bzw. sie schon nach kurzer zeit für das erstrebenswerte ideal bzw. ein befriedigendes abbild der wirklichkeit halten.

dem bewusst zu begegnen -- sich also wirklich auf saubere messungen und korrekturen zu stützen --, halte ich bei den kameras für genauso unabdingbar und wichtig wie im umfeld der wiedergabegerätschaften.
Interessanter Link. Ich glaube sogar anhand der Targets (weitergedacht in möglicher Motivdarstellung) zu erkennen, welche Farbgebung mir zusagt und welche nicht.
Aber ich glaube das bringt uns zu einer, wie ich finde (und das meine ich nicht böse oder sonst etwas, ist nur meine Meinung) Fehlannahme, die ich glaube herauszulesen: Dass Kameras Farbmessinstrumente sind. Das ist nicht so, das wären dann wohl eher Spektralphotomter. Nicht dass ich so ein Ding jemals live gesehen habe, der technische Zugang ist bei Kameras einfach ein anderer.

Ich glaube keinem Hersteller - und das war mitnichten schon zu Filmzeiten so - WILL eine 100% akkurate Farbreproduktion liefern. Ich habe die Vermutung, dass im Gegenzug sehr viel hinsichtlich menschlicher Haut und Naturfarben (Blattgrün, Himmel, etc.) hin optimiert wird und in diesem Optimierungsprozess sogar so etwas wie Sehgewohnheiten einfließen. Was Du "höchst unbefriedigende Kompromisse" nennst ist für jemand anderen der Look von Kodachrome, Kodak 5203 oder ALEVIII.

Nehmen wir Arri als Beispiel. Ich glaube, die sind 100% so erfolgreich (nimm das jüngst gepostete Cannes-Beispiel, oder jede andere Kinofilm - bis jetzt sogar Broadcast - Kamera-Auswertung Deiner Wahl), weil sie ein Rezept gefunden haben Farben scheinbar natürlich zu reproduzieren, das hat allerdings nullkommanull mit einer farblich akkuraten Wiedergabe von Farben (das macht ja auch das ganze Weißabgleichsthema auf das hatten wir schon zu oft, aber für Deine Zwecke ließe sich das auch farbrichtig unter gleichen Bedingungen lösen wohl) zu tun.

Das ist jetzt eine Annahme, aber würden Nutzer auf farbakkuraten Kameras drehen wollen gäbe es diese und würden Rezipienten das sehen wollen würde darauf auch gedreht werden. Letztendlich ist Arri als Beispiel defintiv alles andere als farbakkurat. Letztendlich ist jede Technologie die irgendwie das menschliche Auge nachahmt ein Kompromiss und die Hersteller entscheiden da glaube ich oft motivabhängig (Haut, Naturfarben, Sehgewohnheiten). Dass jetzt Farbräume ums Eck kommen, die mehr beinhalten, als ich glaube, dass in der Natur da draußen vorkommt setzt dem irgendwie Krone auf. Sehen will das so dann keiner schätze ich, zumidnest nicht im szenischen Bereich.
Das Endprodukt, das bewusst versucht die (akkuraten) Grenzen von Farbräumen zu sehr auszunutzen, will eigentlich kein Mensch sehen... In der ASC Masterclass leuchten sie auch trotz HDR und Gedöns bei motivwichtigen Sachen alles <7 Blenden. Der Rest ist nett für etwas Zeichnung bei Naturdokus und Fernseherverkauf, aber bei den mittlerweile immer gängigeren 2-3 Blenden zwischen Key und Fill und Shoot into the shadows braucht kein Mensch die Grenzen von Rec2020 wiedergeben (so es diese Displays mal gibt) und wird niemand akkuratere Farben sehen wollen.

Space


Antwort von mash_gh4:

Interessanter Link. Ich glaube sogar anhand der Targets (weitergedacht in möglicher Motivdarstellung) zu erkennen, welche Farbgebung mir zusagt und welche nicht. ja -- diese gegenüberstellung bzw. beurteilung in der kamera fertig entwickelter farbwerte deutet natürlich wirklich nur den gipfel des eisbergs an.

in wahrheit sind die relativ wenigen messpunkte derartiger color charts kaum ausreichend, um das tatsächliche verhalten der sensoren bzw. der interenen bildaufbereitung vernünfig zu rekonstruieren. noch schlimmer ist es, wenn man überhaupt nur die gebräuchlichen CC24 charts für die beurteilung verwendet, wo man dann gerade einmal genügend anhaltspunkte hat, um den color cube ein klein wenig zu rotierenaod zu stauchen -- also eine sehr einfache korrekturmatrix zu errechnen. viel sauberer funktionert das, wenn man die tatsächliche selektive empfindlichkeit der verscheidenfarbigen sensel über das spektrum hinweg mittels monochromator ermittelt und aus diesen daten dann genauere korrekturen ableitet. damit werden dann auch die wirklich spannenden geschichten, die sehr oft mit der dortigen trennung der grundfarben zu tun haben, wesentlich sauberer erfassbar...

für mich sind in dieser hinsicht noch immer die diskussionen rund um die entwicklung von DCamProf eine wahre fundgrube an nützlicher information:

https://torger.se/anders/dcamprof.html
https://forum.luminous-landscape.com/in ... c=100015.0
Aber ich glaube das bringt uns zu einer, wie ich finde (und das meine ich nicht böse oder sonst etwas, ist nur meine Meinung) Fehlannahme, die ich glaube herauszulesen: Dass Kameras Farbmessinstrumente sind. Das ist nicht so, das wären dann wohl eher Spektralphotomter. da hast du natürlich völlig recht, trotzdem versucht man in heutiger farbbearbeitungssoftware diesen physikalischen gesetzmäßigkeiten weit mehr beachtung zu schenken als das früher der fall war, wo man sich eher an den eigenschaften der apparate und übertragungsbedingungen orientiert hat. das hat seinen guten grund, weil sich sehr viele detailprobleme, die sich aus diesem anderen weg ergeben erst wirklich klar werden bzw. vermiden werden können, wenn man eben konsequent in scene referred bezugsräumen operiert, etc.

und wenn ich diesem zusammenhang eben eine objektive korrekte ausgangsbasis für recht erstebenswert erachte, will ich damit keineswegs behaupten, dass die fertigen bilder sich letztlich auch nur an derart puristischen wiedergabekriterien orientieren müssen, sondern nur, dass es sehr hilfreich ist, eine kameraunabhängige möglichst saubere ausgangsbasis für die weiteren eingriffe zur verfügung zu haben.

das ist ungefähr so, wie es ja auch beim hausbauen hilfreich sein kann, auf ein ebenes fundament aufzubauen, statt die hübschen natürlichen hügelformen der landschaft und die tagesverfassung und kreativen allüren der gerade tätigen handwerker in jedem weiteren detail der inneren raumgestaltung ständig mitbedenken und ausgleichen zu müssen. ;)

Ich glaube keinem Hersteller - und das war mitnichten schon zu Filmzeiten so - WILL eine 100% akkurate Farbreproduktion liefern. das schlimme ist, dass die einzelnen hersteller mittlerweile oft ganze eigene formen der farbverzerrung kultivieren, die nicht nur eine bindung an die marke fördern sollen, sondern vor allem auch derart komplizierte eingriffe enthalten, dass man sie nachträglich gar nicht vernünftig aus den bilder rausrechnen und eliminieren kann.

so lange es also wirklich nur irgendwelche voreinstellungen sind, die man ohnehin nicht nutzen muss od. sie mit besseren aufbereitungsmitteln umgehen kann, ist es mir ohnehein ziemlich egal, welche bilder eine kamera liefert, aber es muss eben auch dieser weg hin zu möglichst korrekten ausgangsdaten für eine bewussteres arbeiten mit den farben bzw. reibungslosem kombinieren von ausgangsmaterial verschiedener kameras offen bleiben.
Ich habe die Vermutung, dass im Gegenzug sehr viel hinsichtlich menschlicher Haut und Naturfarben (Blattgrün, Himmel, etc.) hin optimiert wird und in diesem Optimierungsprozess sogar so etwas wie Sehgewohnheiten einfließen.

Was Du "höchst unbefriedigende Kompromisse" nennst ist für jemand anderen der Look von Kodachrome, Kodak 5203 oder ALEVIII. ja -- z.b. die sehr starken abweichungen praktisch aller kameras im etwas geringer gesättigten rot und orange, deuten definitiv auf eine derartiges entgegenkommen im hinblick auf unsere sehgewohnheiten bzw. schönheitsideale hin.

das ist eine spannede gescheichte, weil es tlw. sogar physiologische ursachen hat -- also z.b. die tatsache, dass "gelb" zu sehen eine komplizierte kognitive leistung darstellt als die meisten anderen farben wahrzunehmen --, aber eben auch bis zurück in die heute völlig absurd anmutenden ausführungen zur farbenlehre in der antike immer auch an die gerade verfügbaren techniken der künstlichen farbgebung bzw. gerade verfügbaren gestaltungsmittel gebunden war.
Nehmen wir Arri als Beispiel. Ich glaube, die sind 100% so erfolgreich (nimm das jüngst gepostete Cannes-Beispiel, oder jede andere Kinofilm - bis jetzt sogar Broadcast - Kamera-Auswertung Deiner Wahl), weil sie ein Rezept gefunden haben Farben scheinbar natürlich zu reproduzieren, das hat allerdings nullkommanull mit einer farblich akkuraten Wiedergabe von Farben (das macht ja auch das ganze Weißabgleichsthema auf das hatten wir schon zu oft, aber für Deine Zwecke ließe sich das auch farbrichtig unter gleichen Bedingungen lösen wohl) zu tun. wie gesagt: ich plädiere hier nicht dafür, dass alle kameras ein möglichst nichtssagendes gleiches bild lieferen sollen, sondern vielmehr dafür, dass sie, wie wie jedes wirklich gute werkzeug, den damit arbeitenden möglichst nicht im weg stehen und ihn in seiner tätigkeit unterstützen. ich denke, dass ARRI in dieser hinsicht zwar auch nur mit wasser kocht, aber zumindest dem feedback richtig guter kameraleute und color grader mehr gehör schenken od. sogar aktive unterstützung zukommen lassen dürfte als das bei den meisten anderen herstellern der fall ist, die eher für einen relativ anspruchslossen massenmark produzieren, dem man mit ein bisserl sugestion via werbebotschaften viel leichter gerecht werden kann.

Space


Antwort von Frank Glencairn:

Die Colorscince der Hersteller ist wie früher die verschiedenen Filmmaterialien, jedes hat seinen eigenen Charakter, seinen Look seine Schwerpunkte - kein Mensch wäre damals auf die Idee gekommen eine 1:1 Reproduktion zu erwarten, sondern - im Gegenteil - die unterschiedliche Gewichtung der Memory Colors, nach der man ich das - zum Film passende - aussucht. Natürlich liegt der Hauptschwerpunkt dabei immer auf Hauttönen, aber jeder Hersteller hatte da ne andere Philosophie.

Wenn dir die RED Color Science nicht gefällt, nimmst du halt BM, Sony oder Arri, was halt am besten zu deinem jeweiligen Projekt passt.

Was diese Geschichte mit dem "neutralen Startpunkt" betrifft, halte ich das für eher nebensächlich.
Ob ich meinen Show Look ausgehend von einem "neutralen Startpunkt" dahin grade, oder von einem nicht ganz so neutralen Startpunkt ist doch egal, das Endergebnis ist ja immer das selbe. Wird ja auch keiner gezwungen irgend ne LUT oder IDT oder sonstwas zu nutzen, man kann LOG material auch einfach ganz ohne sowas graden, wenn einem die Hersteller LUTs/IDTs nicht anspruchsvoll genug sind.

Space


Antwort von roki100:

mash_gh4 hat geschrieben:
ich denke, dass ARRI in dieser hinsicht zwar auch nur mit wasser kocht, aber zumindest dem feedback richtig guter kameraleute und color grader mehr gehör schenken od. sogar aktive unterstützung zukommen lassen dürfte als das bei den meisten anderen herstellern der fall ist, die eher für einen relativ anspruchslossen massenmark produzieren, dem man mit ein bisserl sugestion via werbebotschaften viel leichter gerecht werden kann.
Angeblich ist ZCAM das auch, zumindest die neue ZCAM Kameras wurden angeblich auf wünsche der professionelle Kameraleute, coloriosten usw. entwickelt. Ob das aber tatsächlich stimmt, weiß ich nicht.

Space


Antwort von pillepalle:

Das Normalisieren, also den 'neutralen Startpunkt', nutzt man ja vor allem aus praktischen Gründen. Häufig hat man es ja mit ganz unterschiedlichen Materialien aus unterschiedlichen Kameras zu tun. Wenn man das Material vorher vereinheitlicht, dann braucht man praktisch nur einen Grade der dann zum gesamten Material passt. Man braucht also nicht jeden Clip individuell und eventuell ganz unterschiedlich zum gewünschen Ziel hin drehen. Das ist auch besser, wenn man den Look nachträglich nochmal ändert. Dann ändert man wieder nur das eine Grading und kann es erneut auf das gesamte Material übertagen. Wenn das Grading, um zum gewünschten Look zu kommen, bei jedem Clip anders ist, weil die Ausgangsbasis anders war, fummelt man an jedem einzelnen Clip herum. Man macht sich also vorher die Arbeit, um nacher effizienter graden zu können und weniger Arbeit zu haben.

VG

Space


Antwort von srone:

"Frank Glencairn" hat geschrieben:
Die Colorscince der Hersteller ist wie früher die verschiedenen Filmmaterialien, jedes hat seinen eigenen Charakter, seinen Look seine Schwerpunkte - kein Mensch wäre damals auf die Idee gekommen eine 1:1 Reproduktion zu erwarten, sondern - im Gegenteil - die unterschiedliche Gewichtung der Memory Colors, nach der man ich das - zum Film passende - aussucht. Natürlich liegt der Hauptschwerpunkt dabei immer auf Hauttönen, aber jeder Hersteller hatte da ne andere Philosophie.

Wenn dir die RED Color Science nicht gefällt, nimmst du halt BM, Sony oder Arri, was halt am besten zu deinem jeweiligen Projekt passt.

Was diese Geschichte mit dem "neutralen Startpunkt" betrifft, halte ich das für eher nebensächlich.
Ob ich meinen Show Look ausgehend von einem "neutralen Startpunkt" dahin grade, oder von einem nicht ganz so neutralen Startpunkt ist doch egal, das Endergebnis ist ja immer das selbe. Wird ja auch keiner gezwungen irgend ne LUT oder IDT oder sonstwas zu nutzen, man kann LOG material auch einfach ganz ohne sowas graden, wenn einem die Hersteller LUTs/IDTs nicht anspruchsvoll genug sind.
oder wie bob ross gesagt hätte, you have to make a decision...;-)

ob ich nun eine (billige) gh-2 nehme und eben leuchten und graden muss oder eine arri, die teuer und weniger arbeitsintensiv, ich muss es entscheiden, das ist mein job mit welchem werkzeug ich das bestmöglichste ergebnis für den kunden erzeuge und gleichzeitig am besten verdiene...;-)

lg

srone

Space


Antwort von Darth Schneider:

@toki
Interessanter Punkt, betreffend ZCam, wobei mir wäre es lieber die würden gar nicht erst die Coloristen um Rat fragen sondern die Kameraleute, um die Kameras zu entwickeln….;)
Gruss Boris

Space


Antwort von Frank Glencairn:

pillepalle hat geschrieben:
Das Normalisieren, also den 'neutralen Startpunkt', nutzt man ja vor allem aus praktischen Gründen. Häufig hat man es ja mit ganz unterschiedlichen Materialien aus unterschiedlichen Kameras zu tun.
Eigentlich eher in Ausnahmefällen, anstatt häufig.

Der Normalfall ist eigentlich daß man nur mit einer Sorte von Kameras dreht.
Die Ausnahmen sind: Man braucht aus irgendeinem Grund ne kleinere/andere als die A-Cam - das betrifft dann aber nur wenige Szenen/Clips, oder es fehlt am Budget, zwei oder mehrere gleiche A-Cams zu mieten.

pillepalle hat geschrieben:
Das ist auch besser, wenn man den Look nachträglich nochmal ändert. Dann ändert man wieder nur das eine Grading und kann es erneut auf das gesamte Material übertagen.
Das ist so ne Hochzeitsfilmer-Wunschkonzert Sichtweise, aber normal passiert das nicht.
Schon allein aus dem Grund, weil es nicht wirklich funktioniert, selbst wenn das Material aus einer einzigen Kamera kommt (es sei denn, die eigenen Qualitätsansprüchen an das Grading sind wirklich extrem niedrig).

Der Look wird in der Regel schon lange vor dem Dreh festgelegt, und nicht erst im nachhinein, geschweige denn nochmal geändert.
Solche Änderungen kommen bestenfalls vor, wenn Laien am Entscheidungsprozess beteiligt sind, alle anderen können sich in der Preprodution auf etwas einigen und festlegen - schon aus Kostengründen.

Selbst Plugins wie Cinematch oder die programmeigenen Funktionen funktionieren da nur eingeschränkt, und taugen oft nicht mal als Startpunkt, weil sie das Material oft dermaßen verbiegen, daß danach kaum noch ein sinnvoller Eingriff drin ist, ohne daß alles auseinander fällt.

Statt das Material selbst zu "vereinheitlichen" macht es deshalb eben viel mehr Sinn, in einem ACES Workflow, den Colorspace zu vereinheitlichen.

Space


Antwort von roki100:

für unterschiedliche Materialien aus unterschiedlichen Kameras, ist FilmConverter wirklich super.

Space



Space


Antwort von cantsin:

roki100 hat geschrieben:
für unterschiedliche Materialien aus unterschiedlichen Kameras, ist FilmConverter wirklich super.
Sofern Du dessen Preset-Looks gut findest und nichts (oder kaum noch etwas) mehr weiter graden willst - denn er reduziert Dir (genau wie Styling-LUTs) die Farbauflösung Deines Materials erheblich.

Space


Antwort von roki100:

Es gibt speziell extra tool für matching bzw. "CineMatch" von FilmConverter.

https://www.youtube.com/watch?v=t00TazsaDHM

Space


Antwort von cantsin:

roki100 hat geschrieben:
Es gibt speziell extra tool für matching bzw. "CineMatch" von FilmConverter.

https://www.youtube.com/watch?v=t00TazsaDHM
Siehe Franks Kommentar weiter oben:
"Selbst Plugins wie Cinematch oder die programmeigenen Funktionen funktionieren da nur eingeschränkt, und taugen oft nicht mal als Startpunkt, weil sie das Material oft dermaßen verbiegen, daß danach kaum noch ein sinnvoller Eingriff drin ist, ohne daß alles auseinander fällt."

Space


Antwort von roki100:

Hmm, das ist dann wirklich schade.

Space


Antwort von Darth Schneider:

Es gibt Luts die man bezahlen muss die vorgeben einen bestimmten Look zu kreieren, die dann aber doch ganz anders aussehen. Oder es gibt Luts die möglichst neutral aussehen sollten, dies aber in den wenigsten Fällen auch wirklich tun.
Dann kommt man manchmal durch reinen Zufall ganz ohne irgendwas zu bezahlen, auf wirklich sehr tolle Luts von wirklich erfahrenen Leuten wie Frank und freezer. In Foren wie SlashCAM, die einfach grundsätzlich einfach nur toll aussehen, fast egal wie man sie aufs Material drauf klatscht.;)
Das ist fast schon etwas komisch, finde ich, weil nicht ein einziges von den von mir gekauften Luts, die mit Hochglanz beworben werden taugen irgend was…
Aber das ist nur meine bescheidene Meinung, beziehungsweise ich frage mich warum die Auswahl an hochwertigen Luts zum kaufen nicht viel grösser ist…?
Die guten Filmemacher wollen ihre eigenen Luts/Looks scheinbar einfach nicht verkaufen.
Was ich irgendwie schon nachvollziehen kann, weil da halt jahrelange Arbeit und Erfahrung drin steckt, die will ein Profi halt nicht verhökern, sondern damit arbeiten, oder was denkt ihr ?

@roki
Wenn es so einfach wäre verschiedenste Kameras mit ebensolchen Sensoren und auch unterschiedliche Aufnahme Codecs in Post, miteinander zu matchen, dann wäre doch so ein Fairchild, oder auch ein Arri Sensor doch eigentlich voll überflüssig. Dann könnten doch, überspitzt formuliert, alle Filmemacher gleich mit dem iPhone, mit der Pocket oder mit einer G9 drehen und das Material dann mit einem Lut zu dem perfekten Arri Look verwandeln...;)
Das geht doch so aber überhaupt nicht wirklich.
Nur mal zum darüber nachdenken.
Meine Theorie:
Wenn das reale Licht nicht von einer echten Arri eingefangen wird kann man das nachher am Computer auch nicht mehr ändern, to late ! .D
Gruss Boris

Space


Antwort von mash_gh4:


Statt das Material selbst zu "vereinheitlichen" macht es deshalb eben viel mehr Sinn, in einem ACES Workflow, den Colorspace zu vereinheitlichen. die wahl des farbraums alleine bringt recht wenig (außer natürlich, dass z.b. verschiedene probleme der gamut-kompression wegfallen, wenn er groß genug bzw. dem verwendungszweck entsprechende gewählt wurde), viel wichtiger ist es aber, dass man ihn auch richtig benutzt und die darin verorteten farben auch tatsächlich den vorgaben und erwartungen entsprechen -- kurz: das ein ganz bestimmtest rot an position X/Y/Z in den aufgezeicheten daten auch tatsächlich dieser farbe draußen in der wirklichkeit entspricht.

diesen anspruch mehr od. weniger befriedigend gerecht zu werden, sollte man von kameras, herstellerseitig mitgelieferten umwandlungsangaben und bearbeitungssoftware einfach verlangen können od. zumindest als recht bedeutsames qualitätskriterium verstehen.

das war ja nicht immer so. traditionelles display referred rec.709 RGB bzw. YCbCr steht in keinem derartigen direkten verhältnis zu farben draußen in der wirklichkeit und wurde lange zeit auch einfach nur recht losgelöst von irgendwelchen physikalischen gesetzmäßigkeiten prozessiert bzw. nach gefühl zurechtgebogen. bei ACES bzw. scene referred farbmodellen ist das aber ein bisserl anders. hier versucht man sehr wohl auch diese korrespondenz zur wirklichkeit bzw. objektiven anhaltspunkten einzubeziehen.

siehe auch:
https://www.toodee.de/?page_id=1021
https://www.arri.com/en/learn-help/lear ... background

Space


Antwort von Darth Schneider:

Ist denn diese ACES auch sinnvoll, beziehungsweise nötig, das zu lernen, wenn man nur mit einer BMD Kamera und immer nur zusammen mit Resolve arbeitet ?
Gibt es dann keinen einfacheren Weg ?
Ich meine das einzige was in dem Workflow nicht von Black Magic kommt, ist mein iMac und unser Panasonic TV…und wer es kleiner mag, die iPhones und das iPad…
Der Panasonic TV wird kaum wissen was ACES ist,,oder ?

@mash gh4
Bedeutet das, das irgend so ein armer Kerl denn ganzen Tag lang mit dem Colorchecker auf dem Set herum rennt, und kontrolliert ob alle Blumen den absolut richtige Farbton haben ?
Wenn nicht, dann hilft Pflanzenschutzmittel, die Blumen ändern die Farbe ganz schnell wenn man sie damit voll spritzt.;)))
Gruss Boris

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Ist denn diese ACES auch sinnvoll, beziehungsweise nötig, das zu lernen, wenn man nur mit einer BMD Kamera und immer nur zusammen mit Resolve arbeitet ?
In der Praxis macht es da keinen Unterschied, ob Du in ACES oder in Resolves eigenem Farbraum arbeitest.

ACES hätte dann Praxisvorteile, wenn Du (a) Projekte mit anderen Leuten teilst, die mit anderer (ACES-kompatibler) Software arbeiten, (b) Material von Kameras bzw. in Farbräumen/Gammas in Deinem Projekt verwendest, die Resolve mit seinen Farbraumtransformationen nicht unterstützt, für die es aber ACES-Transformationen (IDTs) gibt.

Und, wie Du richtig schreibst, gibt's keine Endgeräte (außer Postproduction-Software), die Material im ACES-Farbraum abspielen. Man muss also immer in einen Farbraum rendern, der für das Endgerät/Zielmedium passt (wie Rec709 für HD, Rec2020 für HDR 4K, P3 für DCP etc.). Aber das ist ja nicht anders, wenn Du in Resolves eigenem Farbraum bzw. mit Resolves Standardeinstellungen arbeitest.

Space


Antwort von mash_gh4:

"Darth Schneider" hat geschrieben:
@mash gh4
Bedeutet das, das irgend so ein armer Kerl denn ganzen Tag lang mit dem Colorchecker auf dem Set herum rennt, und kontrolliert ob alle Blumen den absolut richtige Farbton haben ?
nein -- im gegenteil: mit colorchecker alleine lässt sich das nicht hinbekommen sondern höchstens grob überprüfen.

was es wirklich braucht, sind saubere umwandlungsangeben der hersteller, die mit viel aufwendigerem messinstrumentarium das reale verhalten der kameras beschreiben und damit die rohen ausgangsdaten korrekt einen gegeben farbraum übersetzen lassen.

bei den ersthafteren professionellen kameras ist das ohnehin völlig selbstverständlich. bei dem ganzen consumer-müll, mit dem wir uns als normalsterbliche im alltag herumschlagen müssen, ist das aber leider nicht in gleicher weise der fall. deshalb eben auch all diese probleme bzw. kaum sauber in den griff zu bekommenden farbabweichungen, die den kern dieses threads bilden.

Space



Space


Antwort von roki100:

@roki
Wenn es so einfach wäre verschiedenste Kameras mit ebensolchen Sensoren und auch unterschiedliche Aufnahme Codecs in Post, miteinander zu matchen, dann wäre doch so ein Fairchild, oder auch ein Arri Sensor doch eigentlich voll überflüssig. Dann könnten doch, überspitzt formuliert, alle Filmemacher gleich mit dem iPhone, mit der Pocket oder mit einer G9 drehen und das Material dann mit einem Lut zu dem perfekten Arri Look verwandeln...;)
Das geht doch so aber überhaupt nicht wirklich.
Ja.

Siehe GHAlex: https://nofilmschool.com/GH5-GH5s-ALEXA-LUT

GH5 Bildschirmfoto 2021-07-18 um 15.44.46.png P4K Bildschirmfoto 2021-07-18 um 15.42.55.png

Space


Antwort von cantsin:

roki100 hat geschrieben:

Ja.

Siehe GHAlex: https://nofilmschool.com/GH5-GH5s-ALEXA-LUT

GH5
Bildschirmfoto 2021-07-18 um 15.44.46.png

P4K
Bildschirmfoto 2021-07-18 um 15.42.55.png
Das ist doch totaler Werbe-Bullshit.

Und sowieso reine Blenderei und Influencer-Abzockerei, weil die LUTs nach Rec709 (also einen vergleichsweise extrem kleinen Farbraum) konvertieren.

Space


Antwort von roki100:

Mir gefällt es. Wird auch von viele andere Nutzer als sehr gut bewertet.
Frank hat damals darüber informiert: viewtopic.php?f=93&t=147452

Space


Antwort von Darth Schneider:

@roki
Sieht schon gut aus, auf den Fotos, in real ? Keine Ahnung.
Müsste ich mal probieren…Noch mehr Luts kaufen…grrrr !
Aber so für Dinge die man nicht gross bearbeiten mag, warum auch nicht.
Aber wenn das Material so gestaucht wird das man nix mehr damit machen kann, schränkt das Lut grundsätzlich den Verwendungszweck schon ein.
Was Franks Und Freezers Lut z,B. nicht (für mich spürbar) machen.
Gruss Boris

Space


Antwort von cantsin:

So eine Alexa-Emulations-LUT macht nichts anderes, als Arris Standard-Rec709-Umwandlung/LUT visuell zu simulieren. Man dreht aber i.d.R. nicht mehr einer Alexa, um dann die Arri-LUT draufzuklatschen und das dann so zu senden bzw. im Kino zu projizieren.

Das ist ungefähr so, als wenn eine iPhone-App das Standard-Farbprofil (bzw. JPEG-Profil) einer Nikon D850 nachbaut und die dann als "iD850" verkauft wird.

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Sieht schon gut aus, auf den Fotos, in real ?
auch gut.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic S1 / S1H / S5 / S1R / GH4 / GH5 / GH5s / GH6-Forum

Antworten zu ähnlichen Fragen //


Nikon 10 Bit N-Log LUT ausprobiert: Wie gut ist die offizielle N-Log LUT für Nikon Z6 und Z7?
Update für Panasonic Lumix S1 bringt 10 Bit V-Log, LUT und Waveform-Monitor
Panasonic S5 in der Praxis: Hauttöne, 10 Bit 50p intern, Gimbal-Betrieb, AF, LOG/LUT ? Teil 1
Nikon 10 Bit N-Log 3D LUT für Nikon Z6 u. Z7 zum freien Download da - ProRes RAW kostenpflichtig
LUT-Box mit HDMI In & Out
P4KALEXA Lut Erfahrung
Frage Resolve Lut speichern
Nikon: Neue REC 709 N-Log 3D LUT für Nikon D780 DSLR als freier Download
Lut macht Bild kaputt?
Fuji F-log 3d lut
Arbeitweise mit Log Aufnahmen und LUT-Dateien?
Autokorrektur als LUT
Neuer Feelworld Field-Monitor mit Lut
Sony A7S III Praxistest: Hauttöne, 10 Bit 4:2:2 LOG/LUT und stabilisierter Sensor - Teil 1
Canon EOS R5 im Praxistest: Hauttöne, 12 Bit RAW, LOG/LUT - Teil 1
Welcher Lut ist so ähnlich wie in dem Video?
BMD Microconverter mit LUT - Verständnisfrage
Wie finde ich diesen Lut?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash