Es ist so, dass man einmal auf dieses Icon klicken muss, damit der permanente Effect-Highlight mit shift h weiß, was gerade bearbeitet wird. Hier hätte das Manual deutlicher sein können.Manual hat geschrieben: Highlight: Clicking on this icon will enable a Highlight view, showing the areas of the image that will be modified by the controlY. You can also use this view to make it easier to refine the parameters below.
So ganz viel macht der FLC eigentlich nicht, hauptsächlich Kontrast (angelehnt an eine Printfilm Kurve).Axel hat geschrieben: ↑Mo 27 Mai, 2024 10:31
Betreff Film Look Creator. Das ist ein Studio-only-Feature. Ich selbst bin etwas ratlos, weil es Dinge etwas stark vereinfacht und gleichzeitig undurchschaubar macht. Angeblich (Kelly) sind Halation und Grain im Vergleich mit den dezidierten Einzeleffekten besser, aber die Dinge, die es für mich zunächst interessant machten, überzeugen mich nicht. Split Tone etwa gehört für mich weit vorne in den Node Tree, weil es verwandt ist mit Farbseparation ("Weißabgleich") und Farbkontrast und quasi eine Schnittmenge mit Look-Findung hat. Viele Wege führen nach Rom, aber mMn nach kann man nicht gleichzeitig mit dem VW-Bus fahren und beamen.
Ich denke, es geht nicht wirklich darum, exakt identisch von analoger Kamera X auf digitale Kamera Y zu übertragen. Sondern, das digitale zu entfernen und wenn, dann eben möglichst nahe am analogen Look (FilmGrain, Farben, Halation usw.). Wohin den sonst, als dahin, was sich in unsere köpfe als schön filmisch eingebrannt hat.-paleface- hat geschrieben: ↑Mo 27 Mai, 2024 19:32 ABER was den Unterschied macht ist die korrekte Voreinstellung.
Denn was nützt es mir wenn ich einen Analogen Look drauf packe, ich aber gar nicht weiß ob das wirklich ein Analoger Look ist
Es gibt ja tonnenweise Vergleichsmaterial. Sah zum Beispiel kürzlich nochmal Wenn die Gondeln Trauer tragen, und da fiel mir an einigen Stellen Halation wieder auf. Es ist größtenteils zu subtil, um wirklich ins Auge zu fallen. Und mir persönlich ist es egal, ob ich Film akkurat simuliere, ich will nur, dass es edel aussieht. Und das tut das normale Halation-Tool, der tollen Kontrollen zum Trotz, angeblich nicht, weil es eine scharfe Kontrastkante produziert. Das wurde schon verschiedentlich mit Dehancer und Filmbox verglichen und deswegen für fast unbrauchbar befunden. Auch irgendwo noch in 19, wo Cullen Kelly der FLC-Halation den Segen gibt.-paleface- hat geschrieben: ↑Mo 27 Mai, 2024 19:32 ...
Denn was nützt es mir wenn ich einen Analogen Look drauf packe, ich aber gar nicht weiß ob das wirklich ein Analoger Look ist oder ich den einfach nur cool finde.
Aktuelles Beispiel FC Halation.
Super mächtiges Tool mit vielen Reglern. Aber wann weiß ich denn nun wann es genauso wie Film Halation aussieht?
... die aber durchaus etwas evozieren, siehe Grindhouse. Aber du hast Recht. Node-Layer 5 (theoretisch möglich durch "Timeline", ist das nicht sowieso automatisch der Output?): Verhunzung.Darth Schneider hat geschrieben: ↑Mo 27 Mai, 2024 20:28 Und mit Kratzern, irgendwelche Störungen und digitalem Pseudo S8/16/35mm hat der echte Filmlook gar nix zu tun.
Kratzer und Störungen waren auch früher schon nur doofe Fehler…;))
IMHO werden wir keine überzeugenden Simulationen von analogem Film sehen, solange da ohne generative KI gearbeitet wird.Frank Glencairn hat geschrieben: ↑Mo 27 Mai, 2024 22:08 Aber wie ich oben schon sagte kommt demnächst was von Colourlab, das nochmal in einer völlig anderen Liga spielt (aktuell noch in der Beta).
Ja, sehr "glatte" Digitalisierungen von analogem Film (auf Grund sehr guter bzw. restaurierter Negative, womöglich noch in der Post mit Rauschfilter bearbeitet) kann man mit Dehancer & Co. schon gut simulieren.
Ich weiß was du meinst (ist auch ein Grund warum z.B. GPU für Grain eingesetzt wird). Aber ich las irgendwo von Dehancer Entwickler selbst, ein Blog oderso, wo es darum ging, wie sie Film Grain simulieren und finde das daher etwas widersprüchlich. Ich denke aber, dass das mit 3D Partikel stimmt bzw. es kam vlt erst später hinzu.... Das andere bedeutet dennoch nicht schlechter, sondern eher originaler.Frank Glencairn hat geschrieben: ↑Mo 27 Mai, 2024 22:08
Nicht ganz.
Filmconvert, Resolve und alle anderen machen das tatsächlich nur mit einem Overlay.
Das Grain von Dehancer ist ein 3D Partikelsystem auf das das Bild Projiziert wird, und ist somit aktuell am nächsten an echtem Grain das ja auch ne Tiefe hat dran (was man IMHO auch deutlich in der Qualität sieht).
Völlig richtig - und genau das haben die bei Colourlab AI gerade gemacht.cantsin hat geschrieben: ↑Mo 27 Mai, 2024 22:17
Filmsimulationen können also nur dann funktionieren, wenn sie dem Sensorbild etwas hinzufügen, was da ursprünglich nicht war - und beim Grain reicht da ein Overlay nicht, sondern eigentlich muss das ganze Bild auf der Basis von simulierten chaotischen Teilchenstrukturen und deren optischen Eigenschaften von Grund auf neugebaut werden, bis hin zur Simulation der aus chemischen Prozessen resultierenden Farben.
Ich sehe da keinen anderen Weg, als Film-Testaufnahmen parallel mit digitalen Kameras und Filmkameras zu machen, und dann mit diesem Vergleichsmaterial ein Deep Learning-System zu trainieren, das anschließend A nach B übersetzen kann, und zwar eben nicht nach starren algorithmischen (Filter-) oder tabellarischen (LUT-) Regeln, sondern dynamisch und für jedes Einzelbild anders.
Die entscheidende Frage ist, was das Grain mit dem Bild tatsächlich macht.