Wohl eher nicht. Um einen kompletten Set auszuleuchten müsste man viele Relight-Nodes hintereinander und parallel schalten, und dazu ist die Berechnung definitiv zu zäh, „on current hardware“. Außerdem, aufgrund der fehlenden Schlagschatten, würde das schnell sehr künstlich aussehen, nicht zuletzt auch deshalb, weil die Map sehr blurry ist. Ich stellte ja schon fest, dass eine Outside Node zu Halos führt. Bislang ist es also ein besseres, weil auf Motivkonturen genaueres Powerwindow, mit dem man Fill- oder Negativ-Fill-Akzente setzen kann. Aber ein Anfang ist gemacht, und im Lauf der Zeit werden wir in Kombination mit anderen Masken und so schon ein paar gute Anwendungsfälle haben, und das Tool wird mit KI ja auch besser werden.klusterdegenerierung hat geschrieben: ↑So 23 Apr, 2023 00:00 Dann kann man ja jetzt doch wieder Geld in die Cam statt ins Licht stecken. ;-))
Das ist aber recht grob gedacht.pillepalle hat geschrieben: ↑So 23 Apr, 2023 11:10 Das 'besser machen' vor Ort bezahlt der Kunde aber in der Regel recht gut, das 'aufräumen' in Photoshop eher nicht. Manchmal geht's auch einfach schneller den Mülleimer aus dem Bild zu räumen, statt ihn nachträglich heraus zu retuschieren. Mit Relight ist's im Grunde genauso :)
VG
Den interessiert letztlich nur, wieviel Geld und Zeit er für das Ergebnis aufbringen muss. Wenn du seine Produktion 2 Tage behinderst und das doppelt von dem verlangst, was ein anderer an einem Tag ebensogut abliefert, bezahlt dich der Kunde in der Regel gar nicht mehr, denn dann bezahlt er den Konkurrenten. :)
Natürlich ging´s um Schwarz-Weiß: Statt es als erweitertes Gestaltungsmittel zu sehen, wird wieder von schlechtem Ausleuchtem am Set geredet.pillepalle hat geschrieben: ↑So 23 Apr, 2023 11:38 @ iasi
Hat ja niemand behauptet das es nur Schwarz oder Weiß gäbe. Es ging nur darum das es sich nicht unbedingt lohnt vieles in die Post zu schieben, weil die Zeit in der Regel schlechter bezahlt wird als die Zeit am Set.
Man kann auch mal eine simple und einfach Kalkulation aufstellen:pillepalle hat geschrieben: ↑So 23 Apr, 2023 11:38Den interessiert letztlich nur, wieviel Geld und Zeit er für das Ergebnis aufbringen muss. Wenn du seine Produktion 2 Tage behinderst und das doppelt von dem verlangst, was ein anderer an einem Tag ebensogut abliefert, bezahlt dich der Kunde in der Regel gar nicht mehr, denn dann bezahlt er den Konkurrenten. :)
Richtig. An Jobs an denen man wenig verdient habe ich auch kein Interesse ;) Aber das kann ja jeder machen wie er meint. Wer das Ganze lieber schnell hin huddelt und nacher Stunden am Rechner sitzt, damit er etwas günstiger anbieten kann, soll so arbeiten. Ich bin da eher altmodisch und möchte möglichst wenig Aufwand in der Post haben, zumal ich auch lieber am Set arbeite als später in der Post zu hocken.
VG
Früher hatte man abgewedelt.pillepalle hat geschrieben: ↑So 23 Apr, 2023 12:07 @ iasi
Aber Du hast insofern Recht, als das ich auch Relight nicht wirklich als erweiterte Gestaltungsmöglichkeit sehe, sondern eher als zusätzliches Tool. Auch ohne Relight kann man Helligkeiten/Kontraste im Gesicht problemlos in der Post anpassen. Nur ändert man nachträglich nicht so leicht die Lichtrichtung und Charakteristik. Aber warum sollte man das (außer z.B. bei Montagen, CGI, usw) bei einer Aufnahme wollen? Das sind eben Deine typischen Beispiele, wo man nach dem Dreh seine Meinung um 180° ändert und plötzlich alles anders haben möchte als ursprünglich geplant. Das ist in meinen Augen aber bestenfalls Unentschlossenheit und hat weniger mit neuen Gestaltungsmöglichkeiten zu tun.
VG
Naja, für eine Instanz des Effekts reicht's ja. Es ist ja nicht so, als wären getrackte Powerwindows von einem Tag auf den anderen unbrauchbar geworden.
Tja - wer natürlich alles immer so getrennt betrachtet, erkennt nicht, dass eine 8bit-Kamera ein anderes Post erlaubt, als eine Raw-Kamera - und dass sich daher der gesamte Workflow eklatant unterscheidet.pillepalle hat geschrieben: ↑So 23 Apr, 2023 12:31 Bei Deinem Camera-Shootout Beispiel von 1812 geht es um unterschiedliche Kameras, nicht um unterschiedliche Tools in der Post. Aber da ich Deine Einstellung ohnehin nicht ändern werde, akzeptiere ich durchaus das wir diesbezüglich anderer Meinung sind. Ist ja nicht das erste Mal 😅
VG
Mein Notebook mit 8GB-VRam reicht leider nicht.
Sehr unterschiedlich. Magic Mask ist auf Basis Mac Studio und sogar iPad Pro M2 Echtzeit in UHD (Edit: nicht das Tracken, aber einmal getrackt, bremst es nicht mehr). Was aber dort ähnlich zäh ist wie Relight ist die Depth Map.
Hervorhebung von mir. Render it to the cache, was soll das heißen? Es gibt bei mir keinen Performance-Unterschied zwischen einem Node und zweien. 5 fps. Muss ich dieses Cache-Rendern irgendwo anschubsen?Analyzing the image, creating a surface map, and then relighting the result is very computationally intensive, and it is difficult to get real time performance in a single node on current hardware. While it is possible to do both operations in a single node and is the default setup, if you’re encountering performance issues, it may be necessary to split the computational load up into two separate Relight nodes. The first node will handle creating the surface map and render it to the cache, then feed the results into the second node which will handle the actual relighting. The sample dual node tree for Relight is below.
Weil nun einmal die Kamera den gesamten Workflow beeinflusst.pillepalle hat geschrieben: ↑So 23 Apr, 2023 14:56 Keine Ahnung warum Du jetzt wieder mit Deiner 8 Bit Kamera anfängst?
Render-Cache aktiviert, dann das Masken-Note durchrechnen lassen, und noch die Nvidia-GPU von der Bildschirmausgabe befreit, nun läuft es ohne Fehlermeldung. Gerade mal so.Axel hat geschrieben: ↑So 23 Apr, 2023 14:46Sehr unterschiedlich. Magic Mask ist auf Basis Mac Studio und sogar iPad Pro M2 Echtzeit in UHD (Edit: nicht das Tracken, aber einmal getrackt, bremst es nicht mehr). Was aber dort ähnlich zäh ist wie Relight ist die Depth Map.
Aus deinem Link:Hervorhebung von mir. Render it to the cache, was soll das heißen? Es gibt bei mir keinen Performance-Unterschied zwischen einem Node und zweien. 5 fps. Muss ich dieses Cache-Rendern irgendwo anschubsen?Analyzing the image, creating a surface map, and then relighting the result is very computationally intensive, and it is difficult to get real time performance in a single node on current hardware. While it is possible to do both operations in a single node and is the default setup, if you’re encountering performance issues, it may be necessary to split the computational load up into two separate Relight nodes. The first node will handle creating the surface map and render it to the cache, then feed the results into the second node which will handle the actual relighting. The sample dual node tree for Relight is below.
8 GB mögen nicht viel sein. In den Preferences werden bei mir Color automatisch 24 von 32 GB RAM zugewiesen (das ist ja "unified RAM", weiß nicht, wie sich das zu einer dedizierten Graka wie Nvidia verhält). Benutze ich Noise Reduction, verliere ich automatisch Echtzeit, mit diesen Settings lande ich bei 21 von 23,98 fps:
Dass das geklappt hat, war wohl eher in Zufall. Ein bisschen wundert's mich, dass mich da noch keiner korrigiert hat.
Also irgendwie hat er das Tool nicht verstanden.
Aha. Und dann mal eben den Wald ausleuchten.Darth Schneider hat geschrieben: ↑Do 04 Mai, 2023 18:43 Anstelle der neuen Grafikkarte oder einem neuen schnellerem Rechner, könnte man sich auch ganz einfach ein paar zusätzliche schöne Leuchten kaufen..;)
Gruss Boris
Relight ist ein interessantes Tool, das man einsetzen kann, wenn man es kann.Darth Schneider hat geschrieben: ↑Do 04 Mai, 2023 18:54 Ich würde doch nicht mal versuchen den ganzen Wald auszuleuchten, und es gibt auch ziemlich starke Leuchten mit der Möglichkeit zum Batteriebetrieb….
Gruss Boris
Der Typ kann eh nur Standbilder graden, dem sollte man keine große Beachtung schenken.
Zumal er versucht Probleme zu lösen die gar nicht da waren, bevor er seinen "Look" drüber gebügelt hat.
Nun ja, man gradet immer auf dem pausierten Bild. Davon abgesehen finde ich ihn normalerweise auch nicht so interessant. Dicke Hose, ja, trifft's ziemlich gut. Aber die Sache mit den Halos und die allgemein etwas ungenaue Map selbst sind ja leicht im Versuch zu bestätigen.klusterdegenerierung hat geschrieben: ↑Do 04 Mai, 2023 20:31Der Typ kann eh nur Standbilder graden, dem sollte man keine große Beachtung schenken.
Der macht immer ein auf dicke Hose, aber am Ende ist es nur heise Luft, da gibt es zig besserer von denen man sich was abgucken kann!
Denke ich nun nicht.
Da hast Du mich vielleicht missverstanden.
Dazu gibt es bei mir gar keinen Nachmach-Reiz, weil ich seine Gradings nicht toll finde. Aber er hatte mal einen freien Mitarbeiter, Jake Pierrelee, der auch einen eigenen Kanal hat, den ich interessant finde. Zum ersten Mal gesehen im Zusammenhang mit Halation:klusterdegenerierung hat geschrieben: ↑Do 04 Mai, 2023 23:02
Ich habe eine ganze Zeitlang verfolgt was er macht und dann versucht das genauso umzusetzten und in Frames sah das gut aus, bis das nächste frame kam. Oder er nimmt nur eine winzige Sequenz und beschreibt nicht wie es denn in der nächsten die anders ausschaut geht.
Probier das doch mal aus!