Richtig. Und das ist so weil deren Transformationen, wie oben beschrieben, eben bereits ästhetische Interpretationen sind.Darth Schneider hat geschrieben: ↑Di 05 Aug, 2025 17:03
Und hey, das richtig belichtete und schön beleuchtete Bild Bild einer Arri oder einer teuren Red sieht auch ganz ohne Colorgrading schon sehr toll aus….
Gruss Boris
Ja. Und schon die Tatsache, wie Farben außerhalb des Farbraums und Lichter außerhalb des darstellbaren DRs gemappt bzw. im kleineren Farb- und Kontrastraum dargestellt werden, ist eine ästhetische Entscheidung.
Der Look ist die Gestaltung. Wir hatten das schon früher. Selbst wenn du einen neutralen Look anstrebst, ist es zu guter Letzt ein Look (siehe auch "Realismus", lange Debatten hier). Und es gibt mehrere Gründe, ein Video nicht so zu bearbeiten wie eine einzelne Fotografie in Lightroom oder CR+Photoshop:
Der Look ist als Konzept schon vorhergesehen worden, siehe Moodboards und andere Concept-Art. Die Beleuchtung, die Farben der Kostüme und des Sets, da wird wenig dem Zufall überlassen. Man verstärkt (und manchmal fixt) in der Post, was schon vorgegeben war. Es ist kein Fischen im Trüben.Darth Schneider hat geschrieben: ↑Di 05 Aug, 2025 18:33 5. Der wirklich coole Look entsteht zu 80 oder 90% doch immer schon mal vor der Kamera, nur zu 10 oder 20% in Post, egal ob bei Foto oder Film.
Kennt jemand von euch Procreate? Es macht Spaß, damit zu malen. Man kann auch löschen, skizzieren, übermalen und mit Transparenzen spielen. Das Malen selbst ist überwiegend absichtsvoll, teilweise natürlich intuitiv.Darth Schneider hat geschrieben: ↑Di 05 Aug, 2025 19:05 Das selbe meine ich mit 80 oder 90% vom Look passiert schon „vor der Kamera“….
Die Kamerahersteller betreiben einen sehr großen Aufwand mit ihrem Color-Sience.stip hat geschrieben: ↑Di 05 Aug, 2025 17:19 Also mal zum Grundverständnis.
Display-Standards wie BT.1886 (Rec.709 + 2.4 transfer function) haben keinen genormten Basis "Look".
ACES, CST's, DRT's oder LUTs dienen alle dazu aus log oder raw Material ein "brauchbares" Bild auf einem normalen Bildschirm zu machen. Alle darin enthaltenen Berechnungen sind sowohl technische (gamut ect) aber eben auch ästhetische Entscheidungen der Designer. Wieviel Kontrast, wie stark die Sättigung. Eine Kontrastkurve zu definieren ist bereits eine ästhetische Interpretation der Daten. Es gibt keinen standardisierten Nullpunkt von dem aus der Rest dann als Grading oder Look-Development gilt.
Die Transformation an sich ist eine gestalterische Interpretation. Kamerahersteller fangen mit der Interpretation schon beim Wandeln der Sensordaten an. Auch für iasis geliebtes REDRAW hat RED mehrere Transformation erarbeitet die dann eben ihren Vorstellungen eines ästhetischen Bildes entsprechen. Arri hat andere Entscheidungen getroffen, Sony wieder andere, Blackmagic wieder andere.
Es gibt also keine "neutrale" Transformation.
Was soll denn immer diese Trennung von "vor der Kamera" und Post.Darth Schneider hat geschrieben: ↑Di 05 Aug, 2025 19:05 Das selbe meine ich mit 80 oder 90% vom Look passiert schon „vor der Kamera“….
Planung und die richtigen Leute rund herum beim Dreh.
Die vor dem Dreh schon ganz genau wissen wie und was es alles dazu braucht.
Natürlich waren/sind Filme wie Shining, 2001, Indiana Jones, Seven, Blade Runner, Angel Heart, Alien, The Batman, F1, (neue Dune Filme) und natürlich Oppenheimer, oder auch Barbie somit gar gar kein visuelles fischen im trüben Wasser.
Zum Beispiel, Star Wars Episode 4 aber schon.
Das fischen im visuell trüben Gewässer sieht man dem trotzdem genialen Film (wegen der VFX und was SF Design betrifft. Allgemeine Pionierarbeit) auch heute noch ganz klar an…;D
Gruss Boris
Schade, dass du dich in der Post nicht auch mal ausentwickelst. Du bist in deiner Ansel-Adams-Gedankenschleife gefangen... und wir müssen drunter leiden :)
jemand soll ja mal über ansel adams gesagt haben, er habe beethovens mondscheinsonate gespielt als würde jemand einen sack kartoffeln eine treppe hinunterwerfen ... in der hoffnung das dabei zufällig die richtigen töne entstehen. das wäre ja wie wenn jemand eine kamera einfach aus dem handschuhfach seines autos laufen lässt ohne lichtsetzung, mit falschem codec und overexposure ... und dann erwartet, dass das material besser als lawrence of arabia in 70mm aussieht.pillepalle hat geschrieben: ↑Mi 06 Aug, 2025 00:33Schade, dass du dich in der Post nicht auch mal ausentwickelst. Du bist in deiner Ansel-Adams-Gedankenschleife gefangen... und wir müssen drunter leiden :)
VG
Du gehörst zu denen, die Grading so verstehen, dass sie das Material einigermaßen hinbiegen, statt es wirklich zu gestalten, um dann am Ende einen "Look" drüberzulegen.
Du hast nichts verstanden, ist jetzt aber auch nichts neues.iasi hat geschrieben: ↑Mi 06 Aug, 2025 00:06Die Kamerahersteller betreiben einen sehr großen Aufwand mit ihrem Color-Sience.stip hat geschrieben: ↑Di 05 Aug, 2025 17:19 Also mal zum Grundverständnis.
Display-Standards wie BT.1886 (Rec.709 + 2.4 transfer function) haben keinen genormten Basis "Look".
ACES, CST's, DRT's oder LUTs dienen alle dazu aus log oder raw Material ein "brauchbares" Bild auf einem normalen Bildschirm zu machen. Alle darin enthaltenen Berechnungen sind sowohl technische (gamut ect) aber eben auch ästhetische Entscheidungen der Designer. Wieviel Kontrast, wie stark die Sättigung. Eine Kontrastkurve zu definieren ist bereits eine ästhetische Interpretation der Daten. Es gibt keinen standardisierten Nullpunkt von dem aus der Rest dann als Grading oder Look-Development gilt.
Die Transformation an sich ist eine gestalterische Interpretation. Kamerahersteller fangen mit der Interpretation schon beim Wandeln der Sensordaten an. Auch für iasis geliebtes REDRAW hat RED mehrere Transformation erarbeitet die dann eben ihren Vorstellungen eines ästhetischen Bildes entsprechen. Arri hat andere Entscheidungen getroffen, Sony wieder andere, Blackmagic wieder andere.
Es gibt also keine "neutrale" Transformation.
Warum sollte man da einen "Look" drüberklatschen?
Eine "neutrale" Transformation streben dabei alle an. Und genau hier liegen doch die Stärken von Arri und Red. Bei Arri hast du z.B. so gut wie keinen Color-Shift über den DR-Bereich.
Und eine Kamera testet man doch eher indem man sie und ihren Codec so richtig fordert.
u.a.: Wie weit lassen sich die Hauttöne auch bei Aufnahmen mit miesem Licht noch hinbiegen.
Irgendwelche vorgefertigten Looks mögen einem intensives, also ordentliches Grading ersparen, aber dabei wird viel zu viel verschenkt.
Du verstehst offensichtlich nicht die Grundlagen des Gradings.stip hat geschrieben: ↑Mi 06 Aug, 2025 09:35Du hast nichts verstanden, ist jetzt aber auch nichts neues.iasi hat geschrieben: ↑Mi 06 Aug, 2025 00:06
Die Kamerahersteller betreiben einen sehr großen Aufwand mit ihrem Color-Sience.
Warum sollte man da einen "Look" drüberklatschen?
Eine "neutrale" Transformation streben dabei alle an. Und genau hier liegen doch die Stärken von Arri und Red. Bei Arri hast du z.B. so gut wie keinen Color-Shift über den DR-Bereich.
Und eine Kamera testet man doch eher indem man sie und ihren Codec so richtig fordert.
u.a.: Wie weit lassen sich die Hauttöne auch bei Aufnahmen mit miesem Licht noch hinbiegen.
Irgendwelche vorgefertigten Looks mögen einem intensives, also ordentliches Grading ersparen, aber dabei wird viel zu viel verschenkt.
Danke für das passende Beispiel, das dieses universelles-Look-gestalten am Ende widerlegt.stip hat geschrieben: ↑Mi 06 Aug, 2025 09:51
Du lebst in deiner eigenen Welt. Ein Beispiel:
Joachim Zell von Arri hat für Roger Deakins in wochenlanger Arbeit eine LUT entwickelt die auf Film-Datensets basierte. Deakins hatte ihm "True Grit" als Referenz gegeben,. Diese LUT nutzt Deakins seit seinem ersten digitalen Film, "In Time" (2011) für jeden Film, ob Bladerunner 2049, 2017, Skyfall, Prisoners.
Er sitzt nach jedem Dreh in der Grading Suite um den Prozess zu supervisen. Die einzigen Änderungen die sie vornehmen sind leichte Belichtungs-, Sättigungs- und Temp/Tint-tweaks.
Deakins nutzt also eine custom-made DRT und zwar die gleiche für alle seine Filme. Gemacht werden muss danach wenig. Der grobe Pinsel wurde schon längst geschwungen, die Post ist Feinjustierung.
Diesen Ansatz verfolgen echte Coloristen (also nicht die auf YouTube) ebenso. Die Show LUT wird vorher entwickelt, in Verbindung mit Kamera- (und im Idealfall mit) Location- und Kostümtests, in der tatsächlichen Postproduction folgt lediglich Perfektionierung.
Nur wenn die Planung Schrott ist wird erst nach dem Dreh ein Look "entwickelt". Was aber iasi's Vorstellung des Prozesses ist (der sich mit dem der selbsternannten Coloristen auf YouTube deckt und in deren nutzlosen LUT-Packs mündet).
Hast Du schon mal den Namen Dunning-Kruger gehört?
solche Art Selbstzerstörung ist schmerzhaft, wenn man sie über Jahre verfolgen muss...iasi hat geschrieben: ↑Mi 06 Aug, 2025 10:04
Du verstehst offensichtlich nicht die Grundlagen des Gradings.
Und wie nennt man den Effekt nochmal, bei dem Leute einer Modeerscheinung folgen? ;):)
Dann schau dir doch nicht so viele Produktionen an, die nach den youtube-Wahrheiten erstellt wurden.
iasi dreht sich wieder alles zurecht nur um ein Argument zu "gewinnen".
Das ist genau falsch. Es gab bei 1917, wie auch bei allen Deakins Filmen, kaum "Grading". Sie haben gemacht was du hier die ganze Zeit kritisierst: unter einer ordentlichen Transformation drehen und finalisieren.
Letztendlich auch eine Definitiosfrage, was "Look" für einen ist.
Das "Processing" ist ja auch die Interpretation der Sensordaten. Man kann auch die Herstellerinterpretation komplett aushebeln, so wie Steve Yedlin es macht, der die Sensordaten von Alexas direkt abgreift bevor sie als LogC3 gespeichert werden, um seine eigene Transformationen zu nutzen.Bildlauf hat geschrieben: ↑Mi 06 Aug, 2025 11:24
Zumindest der Grundlook wird denke ich durch Processing, Objektiv etc. geschaffen und ist nicht abänderbar.
Also ich glaube nicht an das Ammenmärchen, daß man jeden Look in der Post schaffen kann. Man schafft es ja auch nicht echten Filmlook digital zu generieren, es sind immer nur Annäherungen.
arri raw könnte vielleicht eine Ausnahme sein, als gar nicht/minimalst komprimiertes raw.
nehme ich ähnlich wahr, wenn ich gute Filme schaue, man merkt einfach, daß richtig gutes Licht gesetzt wurde (nix relight oder so in der Post).Darth Schneider hat geschrieben: ↑Mi 06 Aug, 2025 11:22
Gefühlt lag das aber meistens am Licht und an den tollen Locations, weniger am Grading.
Aber das zb ein Zenith und ein Pentax M im Log Profil unterschiedlich aussehen zeigt doch, daß alleine die Objektive einen Unterschied machen und eben auch die Hintergrundunschärfe.stip hat geschrieben: ↑Mi 06 Aug, 2025 11:35
Das "Processing" ist ja auch die Interpretation der Sensordaten. Man kann auch die Herstellerinterpretation komplett aushebeln, so wie Steve Yedlin es macht, der die Sensordaten von Alexas direkt abgreift bevor sie als LogC3 gespeichert werden, um seine eigene Transformationen zu nutzen.
Die übrigens von Film nicht zu unterscheiden sind, schau dir gerne den Vergleich auf seiner Webseite an.
Roger Deakins Filme mit der Stock Arri 709 LUT konvertiert würden eine vollkommen andere Stimmung haben. Das darf man schon nicht unterschätzen. Wenn man eine Analogie machen will könnte man sagen man kann einen Unterschied zwischen Kohlezeichnung und Ölfarbenbild nur durch die Interpretation der Sensordaten erzeugen. Ich glaube man kann nicht behaupten dass das keinen fundamentalen Unterschied in der Wahrnehmung eines Bildes ausmacht.