"Aber was bringt mir der ganze Aufwand? Wann ziehe ich mein Footage schonmal SO stark runter, dass ich den Unterschied sehe?" fragt ihr Euch hier jetzt sicher. Und das absolut mit Recht, denn kaum einer, der die Belichtung beim Dreh nicht ganz versemmelt hat, Testcharts für Kameratests dreht oder ein Noisefloor-Fetischist ist, würde derart viele Blenden nach unten korrigieren wollen.
Aber es gibt einen sehr gebräuchlichen Fall, wo wir im täglichen Gebrauch an die mit dem "Falsche Reihenfolge-Workflow" geschaffenen Grenzen stoßen: Bei gewöhnlichen Schwarzblenden!
Wenn man jetzt nämlich einfach die Transparenz seiner Clips animiert, dann macht man genau das gleiche, man bekommt bei seinen Highlights wieder die grauen Flächen. Je länger eine Schwarzblende andauert, desto stärker ist der Effekt, und desto video-artiger sieht das Ergebnis aus.
Wenn man die Blende aber nicht mit der Transparenz des Clips steuert, sondern mit einer animierten Unterbelichtung die VOR der LUT passiert, dann kann man auch noch die letzten Bits an Informationen, die im Ursprungsmaterial waren, nutzen - bei Schwarzblenden sieht man das ganz stark an großen hellen Stellen wie z.B. einer Sonne, die groß im Bild ist. Hier im Youtube-Video der Vergleich, wiederum mit ARRI-Testmaterial, damit es jeder nachvollziehen kann:
Auf der linken Seite sehen wir, wie es aussieht, wenn man die LUT vor der Schwarzblende setzt (egal ob es eine animierte Belichtung ist oder das Runterziehen der Transparenz des Clips) und auf der rechten Seite das Ergebnis, wenn die Reihenfolge "stimmt": Der Himmel behält noch länger Zeichnung und ganz besonders bei der Sonne in der Gegenlicht-Situation sieht man sehr schnell nur noch einen grauen Fleck, obwohl durchaus noch einiges an Zeichnung "drin gewesen" wäre.
Es gibt übrigens einen gut versteckten kleinen Hinweis, dass den Premiere-Entwicklern der "richtige Workflow" durchaus bekannt ist und er korrekt implementiert wurde - denn wenn man z.B. Alexa- oder Amira-ProRes-Material auf die Timeline zieht, wird automatisch ein Lumetri-Masterclip-Effekt hinzugefügt, mit einer eigenen "embedded LUT". Und - siehe da - die findet sich nicht bei der INPUT LUT, sondern automatisch in der "Creative"-Sektion. Genau da, wo sie hingehört.
Praxis: Film Grain in Resolve mit eigenen Fotoemulsionen simulieren Do, 2.Dezember 2021 Realistischer Film Grain hat immer wieder Saison. Allerdings muss man für eine Simulation nicht gleich mehrere hundert Euro ausgeben. Mit etwas Handarbeit kann man in Resolve auch kostenlos ein virtuelles Filmentwicklungslabor einrichten...
Praxis: Schnell zu guten Hauttönen bei Sony Alpha S-LOG 3 Material kommen Do, 29.Juli 2021 Wir hatten bereits die wichtigsten Workflows gezeigt, um in DaVinci Resolve schnell zu guten Hauttönen zu gelangen. Den Auftakt zu kameraspezifischen Tips machen hier nun die aktuellen Sony DSLMSs Alpha 7S III, die Alpha 1 etc. mit S-Log 3 Material. Wie kommen wir also am schnellsten zu guten Hauttönen mit den Sony Alphas?