Frage von iasi:Ich hab mal erste Gehversuche mit RELIGHT gemacht.
Mein erster Eindruck: Sehr beeindruckend.
Nur mal mit 3 Notes experimentiert - und ohne Masken:
Mitten und Lichter im ersten Note etwas zurückgenommen.
Dann ein Relight-Note für die Map und ein weiteres Relight-Note für die "Lichtquelle" mit Anhebung der Mitten und Lichter.
Wow.
Da stecken enorme Gestaltungsmöglichkeiten drin.
Für mich ist Relight das Highlight des Updates - und ein echter Meilenstein.
Antwort von klusterdegenerierung:
Dann kann man ja jetzt doch wieder Geld in die Cam statt ins Licht stecken. ;-))
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Dann kann man ja jetzt doch wieder Geld in die Cam statt ins Licht stecken. ;-))
Wohl eher nicht. Um einen kompletten Set auszuleuchten müsste man viele Relight-Nodes hintereinander und parallel schalten, und dazu ist die Berechnung definitiv zu zäh, „on current hardware“. Außerdem, aufgrund der fehlenden Schlagschatten, würde das schnell sehr künstlich aussehen, nicht zuletzt auch deshalb, weil die Map sehr blurry ist. Ich stellte ja schon fest, dass eine Outside Node zu Halos führt. Bislang ist es also ein besseres, weil auf Motivkonturen genauer
es Powerwindow, mit dem man Fill- oder Negativ-Fill-Akzente setzen kann. Aber ein Anfang ist gemacht, und im Lauf der Zeit werden wir in Kombination mit anderen Masken und so schon ein paar gute Anwendungsfälle haben, und das Tool wird mit KI ja auch besser werden.
Ich habe diese Woche von 18 Kollegen Foto-Portraits gemacht und dachte zuhause zweierlei: mehr Zeit und kontrolliertes Licht hätte zu besseren Bildern geführt, trotz all der Photoshop-Tools und meiner Erfahrung als Fotolaborant (trotzdem ziemlich gut geworden). Und: Papierweiß als hellste Repräsentation von Licht ist zurückgewöhnungsbedürftig.
Antwort von klusterdegenerierung:
Yepp, hab ich die Tage beim Kunden auch wieder gedacht, wo ich zu früh war und die Zeit für kein 0815 Lichtsetup genutzt habe.
Zu oft ist man Gefangen und dödelt dann anschliessend im Photoshop rum,was man hätte vor Ort viel besser machen können.
Manchmal höre ich mich schon selber sagen, lass man stehen, räume ich im Photoshop weg, albern. ;-)
Antwort von pillepalle:
Das 'besser machen' vor Ort bezahlt der Kunde aber in der Regel recht gut, das 'aufräumen' in Photoshop eher nicht. Manchmal geht's auch einfach schneller den Mülleimer aus dem Bild zu räumen, statt ihn nachträglich heraus zu retuschieren. Mit Relight ist's im Grunde genauso :)
VG
Antwort von iasi:
pillepalle hat geschrieben:
Das 'besser machen' vor Ort bezahlt der Kunde aber in der Regel recht gut, das 'aufräumen' in Photoshop eher nicht. Manchmal geht's auch einfach schneller den Mülleimer aus dem Bild zu räumen, statt ihn nachträglich heraus zu retuschieren. Mit Relight ist's im Grunde genauso :)
VG
Das ist aber recht grob gedacht.
Gibt"s bei euch denn nur Schwarz oder Weiß, also perfekt oder schlecht ausgeleuchtet?
Der Kunde bezahlt zudem nur das, was er für das Ergebnis und im Vergleich zur Konkurrenz als angemessen betrachtet.
Den interessiert letztlich nur, wieviel Geld und Zeit er für das Ergebnis aufbringen muss. Wenn du seine Produktion 2 Tage behinderst und das doppelt von dem verlangst, was ein anderer an einem Tag ebensogut abliefert, bezahlt dich der Kunde in der Regel gar nicht mehr, denn dann bezahlt er den Konkurrenten. :)
Antwort von pillepalle:
@ iasi
Hat ja niemand behauptet das es nur Schwarz oder Weiß gäbe. Es ging nur darum das es sich nicht unbedingt lohnt vieles in die Post zu schieben, weil die Zeit in der Regel schlechter bezahlt wird als die Zeit am Set.
Den interessiert letztlich nur, wieviel Geld und Zeit er für das Ergebnis aufbringen muss. Wenn du seine Produktion 2 Tage behinderst und das doppelt von dem verlangst, was ein anderer an einem Tag ebensogut abliefert, bezahlt dich der Kunde in der Regel gar nicht mehr, denn dann bezahlt er den Konkurrenten. :)
Richtig. An Jobs an denen man wenig verdient habe ich auch kein Interesse ;) Aber das kann ja jeder machen wie er meint. Wer das Ganze lieber schnell hin huddelt und nacher Stunden am Rechner sitzt, damit er etwas günstiger anbieten kann, soll so arbeiten. Ich bin da eher altmodisch und möchte möglichst wenig Aufwand in der Post haben, zumal ich auch lieber am Set arbeite als später in der Post zu hocken.
VG
Antwort von iasi:
Relight ist übrigens ziemlich hardwarehungrig.
Auf dem Laptop mit 8GB-VRAM lief"s schon nicht mehr. Selbst mit einer 1080p-Timeline kam die Meldung, der Grafikkartenspeicher sei voll.
Wer sich Feintuning an seinen Aufnahmen spart, kann sich sich natürlich auch leistungsfähigere Hardware sparen.
Wer das Beste aus dem Material herausholen und alle Gestaltungsmöglichkeiten nutzen will, wird reichlich Grafikkartenspeicher benötigen.
Gerade bei Laptops wird das wohl wichtig. Auch wieviel RAM ein Apple-M1/M2 haben muss.
Antwort von iasi:
pillepalle hat geschrieben:
@ iasi
Hat ja niemand behauptet das es nur Schwarz oder Weiß gäbe. Es ging nur darum das es sich nicht unbedingt lohnt vieles in die Post zu schieben, weil die Zeit in der Regel schlechter bezahlt wird als die Zeit am Set.
Natürlich ging"s um Schwarz-Weiß: Statt es als erweitertes Gestaltungsmittel zu sehen, wird wieder von schlechtem Ausleuchtem am Set geredet.
pillepalle hat geschrieben:
Den interessiert letztlich nur, wieviel Geld und Zeit er für das Ergebnis aufbringen muss. Wenn du seine Produktion 2 Tage behinderst und das doppelt von dem verlangst, was ein anderer an einem Tag ebensogut abliefert, bezahlt dich der Kunde in der Regel gar nicht mehr, denn dann bezahlt er den Konkurrenten. :)
Richtig. An Jobs an denen man wenig verdient habe ich auch kein Interesse ;) Aber das kann ja jeder machen wie er meint. Wer das Ganze lieber schnell hin huddelt und nacher Stunden am Rechner sitzt, damit er etwas günstiger anbieten kann, soll so arbeiten. Ich bin da eher altmodisch und möchte möglichst wenig Aufwand in der Post haben, zumal ich auch lieber am Set arbeite als später in der Post zu hocken.
VG
Man kann auch mal eine simple und einfach Kalkulation aufstellen:
Was treibt die Produktionskosten wohl stärker in die Höhe?
1. Eine Stunde länger am Set mit dem Feintuning zu verbringen.
oder
2. Eine Stunde in der Post für dieses Feintuning.
Es geht dabei nicht um Ausleuchten oder nicht Ausleuchten, sondern um das anheben der rechten Gesichtshälfte um eine halbe Blendenstufe mit einem zusätzlichen Licht.
Zumal am Set diese präzise Steuerung, die die Post ermöglicht, gar nicht zu leisten ist.
Antwort von pillepalle:
@ iasi
Es ging bei meinem Post auch nicht so sehr um Relight, als um die Kommentare meiner Vorposter und was man in der Post machen kann. Man muss eben auch wissen was einfacher vor Ort zu erledigen ist und was besser in der Post, denn Deine 1:1 Zeitaufwand-Rechnung stimmt ja vorne und hinten nicht.
Aber Du hast insofern Recht, als das ich auch Relight nicht wirklich als erweiterte Gestaltungsmöglichkeit sehe, sondern eher als zusätzliches Tool. Auch ohne Relight kann man Helligkeiten/Kontraste im Gesicht problemlos in der Post anpassen. Nur ändert man nachträglich nicht so leicht die Lichtrichtung und Charakteristik. Aber warum sollte man das (außer z.B. bei Montagen, CGI, usw) bei einer Aufnahme wollen? Das sind eben Deine typischen Beispiele, wo man nach dem Dreh seine Meinung um 180° ändert und plötzlich alles anders haben möchte als ursprünglich geplant. Das ist in meinen Augen aber bestenfalls Unentschlossenheit und hat weniger mit neuen Gestaltungsmöglichkeiten zu tun.
VG
Antwort von iasi:
pillepalle hat geschrieben:
@ iasi
Aber Du hast insofern Recht, als das ich auch Relight nicht wirklich als erweiterte Gestaltungsmöglichkeit sehe, sondern eher als zusätzliches Tool. Auch ohne Relight kann man Helligkeiten/Kontraste im Gesicht problemlos in der Post anpassen. Nur ändert man nachträglich nicht so leicht die Lichtrichtung und Charakteristik. Aber warum sollte man das (außer z.B. bei Montagen, CGI, usw) bei einer Aufnahme wollen? Das sind eben Deine typischen Beispiele, wo man nach dem Dreh seine Meinung um 180° ändert und plötzlich alles anders haben möchte als ursprünglich geplant. Das ist in meinen Augen aber bestenfalls Unentschlossenheit und hat weniger mit neuen Gestaltungsmöglichkeiten zu tun.
VG
Früher hatte man abgewedelt.
Dann kamen die Post-Fenster.
Relight sehe ich als nächsten Schritt.
Das hat auch alles nichts mit "Unentschlossenheit" zu tun, denn wenn jemand am Set die Postmöglichkeit mitdenkt, dann behält er die Kontrolle über die Bildgestaltung.
Mein oft zitierter Camerashootout 2012 zeigte genau das.
Während die Crews mit 8bit-Kameras mehr zusätzliche Beleuchtungsmittel und mehr Zeit am Set einsetzen mussten, nahmen sich die Raw-Crews etwas mehr Zeit in der Post.
Die Ergebnisse waren dann fast identisch, aber bei den Raw-Crews präziser.
Denn mit einem window in der Post, kann man einem sich durch den Raum bewegenden Gesicht besser folgen, als mit einem kleinen Aufheller.
Antwort von pillepalle:
Bei Deinem Camera-Shootout Beispiel von 1812 geht es um unterschiedliche Kameras, nicht um unterschiedliche Tools in der Post. Aber da ich Deine Einstellung ohnehin nicht ändern werde, akzeptiere ich durchaus das wir diesbezüglich anderer Meinung sind. Ist ja nicht das erste Mal 😅
VG
Antwort von Axel:
Zwischen Schwarz (alles muß in-camera gemacht werden, "Fixen in Post" ist Feigheit vor dem Feind, kein oder schlechtes Handwerk) und Weiß (ich erziele die Wirkung erst in der Post, bei der Aufnahme kostet das zu viel Zeit) sitze ich in der Mitte. Ich weiß, dass der Raum hell genug sein muss, ich kenne das Grundprinzip der Drei-Faktoren-Beleuchtung (Drei Punkte sind mE irreführend, da sie oft einem natürlich wirkenden Licht widersprechen). Das heißt nicht unbedingt, dass ich überhaupt Licht aufstelle, aber zumindest Reflektoren für Fülllicht. Oder ich positioniere mich relativ zu dem Motiv so, dass das vorhandene Licht gut wirkt. Die globale Wirkung muss stimmen, was immer dazu an zeitlichem Aufwand nötig ist. Bei den oben erwähnten Portraits ärgerte mich im Nachhinein, dass ich, obwohl ich die Kollegen so relativ zu Fenstern stehen ließ, dass ihre Gesichter weich und plastisch modelliert waren, ich keine deutlichen Augenreflexe hatte. Ich habe so einen Makro-Diffusor, den ich über mein Objektiv ziehen und mit einer am Tophandle befestigten dimm- und temperierbaren Mini-LED-Fläche rückbeleuchten kann. Nicht als "Headlight", nicht als Blitzersatz, sondern für dieses schmeichelhafte Funkeln der Augen. Hatte ich nicht mit. Das hätte vielleicht geholfen. Hätte, hätte, Fahrradkette.
Ich war bei Drehs dabei, in denen der Kameramann enorm viel Zeit der Ausleuchtung, äh, widmete, und das bei versammeltem Team. Das Makeup schmolz und ebenso mein Eindruck, dass das was mit professioneller Disziplin oder Perfektion zu tun hatte.
Zu guter Letzt - als Plädoyer für ein entspanntes Verhältnis zu Post - mein Hinweis darauf, dass es das schon immer gab. In der klassischen Malerei wurde endlos verbessert, übermalt und, wie wir heute sagen würden, Farben auf mehreren Ebenen mit Blendmodi aufgetragen. Das war in der Fotografie genau dasselbe, wie ich aus eigener Post-Erfahrung weiß. Mein Filmemacher-Idol Kubrick, ganz gewiss ein unerträglicher Pedant, machte tage-, manchmal wochenlange Testshots am Set, aber er konzipierte immer Licht, das als practicals durchgehen konnte, auch wenn es eine halbe Million Watt durch Fensterstreufolie oder eine 20.000-Watt Fläche als Mondlicht auf einem Baukran bedeutete.
Auch er und alle seine every-frame-a-painting-Zeitgenossen hätten heute gewiss höchstpersönlich vor Resolve gehockt und nachpoliert, was das Zeug hält.
iasi hat geschrieben:
Relight ist übrigens ziemlich hardwarehungrig.
Naja, für eine Instanz des Effekts reicht's ja. Es ist ja nicht so, als wären getrackte Powerwindows von einem Tag auf den anderen unbrauchbar geworden.
Antwort von iasi:
pillepalle hat geschrieben:
Bei Deinem Camera-Shootout Beispiel von 1812 geht es um unterschiedliche Kameras, nicht um unterschiedliche Tools in der Post. Aber da ich Deine Einstellung ohnehin nicht ändern werde, akzeptiere ich durchaus das wir diesbezüglich anderer Meinung sind. Ist ja nicht das erste Mal 😅
VG
Tja - wer natürlich alles immer so getrennt betrachtet, erkennt nicht, dass eine 8bit-Kamera ein anderes Post erlaubt, als eine Raw-Kamera - und dass sich daher der gesamte Workflow eklatant unterscheidet.
In diesem Camera-Shootout war dann eben auch die Post ein Teil des Vergleichtests.
Es wurde ein Set mit einer Grundausleuchtung vorgegeben. Jede Crew hatte dann eine Zeitvorgabe für die Herstellung des Clips, der dann vorgeführt wurde.
Es hat dann auch nichts mit "Meinung" zu tun, dass die 8bit-Crews mehr Zeit am Set mit Ausleuchtung verbringen mussten, als die Raw-Crews. Sie setzten auch mehr zusätzliche Leuchtmittel ein.
Dass Drehzeit teurer und knapper ist, als Post-Zeit, ist nun einmal auch ein üblicher Fakt.
Antwort von iasi:
Axel hat geschrieben:
iasi hat geschrieben:
Relight ist übrigens ziemlich hardwarehungrig.
Naja, für eine Instanz des Effekts reicht's ja. Es ist ja nicht so, als wären getrackte Powerwindows von einem Tag auf den anderen unbrauchbar geworden.
Mein Notebook mit 8GB-VRam reicht leider nicht.
Und dies bei einer 1080p-Timeline.
Ein Beispiel für Relight in Verbindung mit Magic-Mask gibt"s übrigens in der Anleitung:
http://documents.blackmagicdesign.com/S ... 1801210000
Relight bietet mehr als ein Powerwindow.
Leider kratzt auch Relight, wie Magic-Mask und andere Funktionen am Hardwarelimit.
Da müssen wir wohl noch eine Hardwaregeneration abwarten, bevor man damit flüssig arbeiten kann.
Antwort von Axel:
iasi hat geschrieben:
Leider kratzt auch Relight, wie Magic-Mask und andere Funktionen am Hardwarelimit.
Da müssen wir wohl noch eine Hardwaregeneration abwarten, bevor man damit flüssig arbeiten kann.
Sehr unterschiedlich. Magic Mask ist auf Basis Mac Studio und sogar iPad Pro M2 Echtzeit in UHD (Edit: nicht das Tracken, aber einmal getrackt, bremst es nicht mehr). Was aber dort ähnlich zäh ist wie Relight ist die Depth Map.
Aus deinem Link:
Analyzing the image, creating a surface map, and then relighting the result is very computationally intensive, and it is difficult to get real time performance in a single node on current hardware. While it is possible to do both operations in a single node and is the default setup, if you’re encountering performance issues, it may be necessary to split the computational load up into two separate Relight nodes. The first node will handle creating the surface map and render it to the cache, then feed the results into the second node which will handle the actual relighting. The sample dual node tree for Relight is below.
Hervorhebung von mir. Render it to the cache, was soll das heißen? Es gibt bei mir keinen Performance-Unterschied zwischen einem Node und zweien. 5 fps. Muss ich dieses Cache-Rendern irgendwo anschubsen?
Antwort von pillepalle:
Keine Ahnung warum Du jetzt wieder mit Deiner 8 Bit Kamera anfängst? Dann haben die Leute ja auch andere Voraussetzungen. Das ist doch etwas völlig anderes, als wenn ich etwas freiwillig anders mache.
Ich sitze nach dem Dreh eben lieber mit meiner Handkurbelkamera und Keule am Lagerfeuer und Du spielst lieber den Stubenhocker am Rechner und 'gestaltest' 😂 Ist doch beides ok.
VG
Antwort von iasi:
pillepalle hat geschrieben:
Keine Ahnung warum Du jetzt wieder mit Deiner 8 Bit Kamera anfängst?
Weil nun einmal die Kamera den gesamten Workflow beeinflusst.
Das sollte dir das Beispiel der 8bit-Kamera verdeutlichen.
Vielleicht wird es dir aber klarer, wenn du mal die Arbeitsschritte vom Einlegen eines Negativs bis zur Projektion auf der Leinwand, mit denen einer Raw-Cine-Cam vergleichst.
Es hat sich weit mehr verändert, als es sich viele bewußt machen.
Antwort von iasi:
Axel hat geschrieben:
iasi hat geschrieben:
Leider kratzt auch Relight, wie Magic-Mask und andere Funktionen am Hardwarelimit.
Da müssen wir wohl noch eine Hardwaregeneration abwarten, bevor man damit flüssig arbeiten kann.
Sehr unterschiedlich. Magic Mask ist auf Basis Mac Studio und sogar iPad Pro M2 Echtzeit in UHD (Edit: nicht das Tracken, aber einmal getrackt, bremst es nicht mehr). Was aber dort ähnlich zäh ist wie Relight ist die Depth Map.
Aus deinem Link:
Analyzing the image, creating a surface map, and then relighting the result is very computationally intensive, and it is difficult to get real time performance in a single node on current hardware. While it is possible to do both operations in a single node and is the default setup, if you’re encountering performance issues, it may be necessary to split the computational load up into two separate Relight nodes. The first node will handle creating the surface map and render it to the cache, then feed the results into the second node which will handle the actual relighting. The sample dual node tree for Relight is below.
Hervorhebung von mir. Render it to the cache, was soll das heißen? Es gibt bei mir keinen Performance-Unterschied zwischen einem Node und zweien. 5 fps. Muss ich dieses Cache-Rendern irgendwo anschubsen?
Render-Cache aktiviert, dann das Masken-Note durchrechnen lassen, und noch die Nvidia-GPU von der Bildschirmausgabe befreit, nun läuft es ohne Fehlermeldung. Gerade mal so.
Mir ist nun deutlich vor Augen geführt worden:
8GB-Grafikkartenspeicher sind nicht mehr genug.
 |
Antwort von Axel:
Ich hab's!
Mit >Topmenu >Playback > Render Cache >User und per Rechtsklick erzwungenem "Render Cache Color Output" (bei ausgewähltem "Map"-Node, weiß nicht, ob das eine Rolle spielt) habe ich sofort volle Echtzeit. Damit wird natürlich Relight voll brauchbar.
iasi hat geschrieben:
Mir ist nun deutlich vor Augen geführt worden:
8GB-Grafikkartenspeicher sind nicht mehr genug.
8 GB mögen nicht viel sein. In den Preferences werden bei mir Color automatisch 24 von 32 GB RAM zugewiesen (das ist ja "unified RAM", weiß nicht, wie sich das zu einer dedizierten Graka wie Nvidia verhält). Benutze ich Noise Reduction, verliere ich automatisch Echtzeit, mit diesen Settings lande ich bei 21 von 23,98 fps:
zum Bild
Die GPU ist dabei laut Aktivitätsanzeige zu 95,6% ausgelastet. Das ist, lese ich, ein Anzeichen für gute Softwareoptimierung. Bei einem Flaschenhals sollte die angesprochene Komponente auch ausgelastet sein (Premiere auf M1 dümpelt bei 30-40% rum, wie andere bei ruckelnder Wiedergabe ermittelt haben: schlechte Software-Optimierung! Nicht, wie man zuerst denken könnte, "Luft nach oben").
Aber: bei den getrennten "Map"- und "Relight"-Nodes, bei denen ich nach Cache-Rendern wie gesagt Echtzeit habe, ist die GPU-Auslastung 28,3 %. Das wären 6,8 GB RAM (bei 24 GB). Oder ist das eine Milchmädchenrechnung?
zum Bild
Antwort von Axel:
Axel hat geschrieben:
Mit >Topmenu >Playback > Render Cache >User und per Rechtsklick erzwungenem "Render Cache Color Output" (bei ausgewähltem "Map"-Node, weiß nicht, ob das eine Rolle spielt) habe ich sofort volle Echtzeit.
Dass das geklappt hat, war wohl eher in Zufall. Ein bisschen wundert's mich, dass mich da noch keiner korrigiert hat.
Gerade habe ich das nachgebaut, und mit den zwei unterschiedlichen zusätzlichen Nodes Echtzeit behalten bei jetzt 32% GPU-Auslastung! Das heißt, da geht noch mehr. BTW: ich glaube nicht, dass in dem oben gezeigten Beispiel irgend einem zufälligen Betrachter des Videos ein Unterschied zu Powerwindows aufgefallen wäre ...
Das (Rechtsklick in den Node >Render Node Cache >On und den blauen Renderbalken zuende laufen lassen) geht auch - Schande, dass ich das nicht wusste! - mit allen anderen Effekten. Heftigste Noise Reduction (benutze ich eigentlich nie, ist nur mein worst case scenario): Echtzeit bei unter 30% Auslastung. Auch Downstream, d.h. wenn ich nach diesem Node noch weitere anhänge (Upstream natürlich nicht). Cool.
Ach ja, funktioniert auch mit der eher noch zäheren Depth Map.
Antwort von pillepalle:
Vielleicht muss ich doch mal demnächst über eine neue Grafikkarte nachdenken :)
Bisher hat die RTX 2060 Super eigentlich alles bei meinen 'normalen' Projekten flott erledigt, aber gestern an einem viereinhalb Minuten Clip in 4K mal eben 9 Stunden gerendert 🙈 Ok, ich gebe zu es war auch das volle Programm, mehrere Videospuren mit Magic Masking, Neat Denoising, Retuschen usw... aber das nervt schon. Auch meinen schnellen 1TB Rendercache füllt Resovle innerhalb einer Stunde, wenn der Render-Cache-Balken überhaupt mal blau werden soll, um das Video abzuspielen. Und in Zukunft werden da vermutlich noch mehr rechenintensive AI-Spielereien dazu kommen. Wenn das so weiter geht kostet der Rechner bald deutlich mehr als die Kamera :)
VG
Antwort von Axel:
Ein kritischer Blick von Waqas Qazi:
Würde sagen, gut die Schwächen des Relight-Tools herausgearbeitet und die - flächig betrachtet - präziseren Powerwindows. Und für die braucht ihr alle keine neue Graka ...
Antwort von iasi:
Axel hat geschrieben:
Ein kritischer Blick von Waqas Qazi:
Würde sagen, gut die Schwächen des Relight-Tools herausgearbeitet und die - flächig betrachtet - präziseren Powerwindows. Und für die braucht ihr alle keine neue Graka ...
Also irgendwie hat er das Tool nicht verstanden.
Er dreht Gain hoch. Und das soll"s dann gewesen sein.
Die Schwächen sitzen offensichtlich wieder einmal vor der Tastatur. :)
Antwort von Darth Schneider:
Anstelle der neuen Grafikkarte oder einem neuen schnellerem Rechner, könnte man sich auch ganz einfach ein paar zusätzliche schöne Leuchten kaufen..;)
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Anstelle der neuen Grafikkarte oder einem neuen schnellerem Rechner, könnte man sich auch ganz einfach ein paar zusätzliche schöne Leuchten kaufen..;)
Gruss Boris
Aha. Und dann mal eben den Wald ausleuchten.
Dabei nicht das Stromkabel vergessen, das bis zum Wohnzimmer reicht, denn die zusätzlichen schönen Leuchten brauchen auch im Wald Strom. :)
Antwort von Darth Schneider:
@iasi
Ich würde doch nicht mal versuchen den ganzen Wald auszuleuchten, und es gibt auch ziemlich starke Leuchten mit der Möglichkeit zum Batteriebetrieb….
(Und zur Not tun es in der Dämmerung zu ausleuchten des näheren Dickichts wie auf dem Foto auch ein paar Autoscheinwerfer und unter Umständen zum noch etwas mehr Stimmung machen, eine Nebel Maschine, die dann natürlich über die Autobatterie läuft…;)))
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Ich würde doch nicht mal versuchen den ganzen Wald auszuleuchten, und es gibt auch ziemlich starke Leuchten mit der Möglichkeit zum Batteriebetrieb….
Gruss Boris
Relight ist ein interessantes Tool, das man einsetzen kann, wenn man es kann.
Nur den Gain hochdrehen, ist jedenfalls nicht die beste Methode.
Und lieber lasse ich die Relight-Maske mal in den Cache rechnen, statt all die Akkus zu laden, die es braucht, um den Wald auszuleuchten. :)
Antwort von Darth Schneider:
Sicher ist es das. Ein interessantes Tool, zum hier und da, was kleines zu verbessern,
aber ich würde mir jedenfalls trotzdem viel lieber mehr Licht kaufen als ne teure Grafikkarte nur wegen diesem Tool.
Der Nutzen ist doch in der Hinsicht von echtem Licht, in jedem Fall einfach viel grösser.
Gruss Boris
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Ein kritischer Blick von Waqas Qazi:
Der Typ kann eh nur Standbilder graden, dem sollte man keine große Beachtung schenken.
Der macht immer ein auf dicke Hose, aber am Ende ist es nur heise Luft, da gibt es zig besserer von denen man sich was abgucken kann!
Antwort von Frank Glencairn:
iasi hat geschrieben:
Also irgendwie hat er das Tool nicht verstanden.
Zumal er versucht Probleme zu lösen die gar nicht da waren, bevor er seinen "Look" drüber gebügelt hat.
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Ein kritischer Blick von Waqas Qazi:
Der Typ kann eh nur Standbilder graden, dem sollte man keine große Beachtung schenken.
Der macht immer ein auf dicke Hose, aber am Ende ist es nur heise Luft, da gibt es zig besserer von denen man sich was abgucken kann!
Nun ja, man gradet immer auf dem pausierten Bild. Davon abgesehen finde ich ihn normalerweise auch nicht so interessant. Dicke Hose, ja, trifft's ziemlich gut. Aber die Sache mit den Halos und die allgemein etwas ungenaue Map selbst sind ja leicht im Versuch zu bestätigen.
Abwedeln und Nachbelichten haben darüber hinaus wie die klassische Vignette immer etwas Malerischeres. Was man nicht bei der Aufnahme mit Licht malen konnte oder wenn man keine Möglichkeit hatte, größeren Einfluss zu nehmen, kann man in der Post besser mit klassischen Tools pimpen. Während nämlich das simulierte Licht in der SW-Map selbst irgendwie magisch plastisch wirkt, verpufft dieser Effekt auf dem eigentlichen Bitmap. Es fehlen Bounces und Schlagschatten. Irgendwann ...
Antwort von iasi:
Axel hat geschrieben:
Aber die Sache mit den Halos und die allgemein etwas ungenaue Map selbst sind ja leicht im Versuch zu bestätigen.
Denke ich nun nicht.
Man darf die Map nicht mit den Windows verwechseln.
Diese Halos sind ja gerade ein Resultat des Prinzips. Ein Fehler ist es aber eben, wenn man nur Gain hochdreht, wodurch solche Halos dann entstehen.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Nun ja, man gradet immer auf dem pausierten Bild. Davon abgesehen finde ich ihn normalerweise auch nicht so interessant.
Da hast Du mich vielleicht missverstanden.
Das man an einem Standbild bzw "Frame" aber in einer Node des "Clips" arbeitet müßte es eigentlich heißen, denn dann würde auch klar, das diese heiße Luft mit der er kocht sich darauf bezieht, das viele Dinge die er wie im Photoshop angeht, in einem Bewegtbild garnicht funktionieren.
Zudem, und das ist das wesentliche, zeigt er ja nicht das es funktioniert und wenn es funktionieren würde, müßte er zeigen wie dies umgesetzt wird das es auf Bewegtbild funktioniert, denn die Farbverschiebungen und sonstigen Dinge die er schön zeigt, die müßen auch mal getrackt werden und dann trennt sich die Spreu vom Weizen und er müßte zeigen wie er dies umsetzt denn das kann man ja bekanntlich über diverse Wege realisieren, aber da kommt null komma nix.
Ich habe eine ganze Zeitlang verfolgt was er macht und dann versucht das genauso umzusetzten und in Frames sah das gut aus, bis das nächste frame kam. Oder er nimmt nur eine winzige Sequenz und beschreibt nicht wie es denn in der nächsten die anders ausschaut geht.
Probier das doch mal aus!
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Ich habe eine ganze Zeitlang verfolgt was er macht und dann versucht das genauso umzusetzten und in Frames sah das gut aus, bis das nächste frame kam. Oder er nimmt nur eine winzige Sequenz und beschreibt nicht wie es denn in der nächsten die anders ausschaut geht.
Probier das doch mal aus!
Dazu gibt es bei mir gar keinen Nachmach-Reiz, weil ich seine Gradings nicht toll finde. Aber er hatte mal einen freien Mitarbeiter, Jake Pierrelee, der auch einen eigenen Kanal hat, den ich interessant finde. Zum ersten Mal gesehen im Zusammenhang mit Halation:
Seitdem sehe ich Halation überall. Es ist der einzige Filmlook-Bildverhunzer, den ich selbst benutzen würde, gelegentlich. Powerwindows allerdings sehr oft.
Antwort von iasi:
Axel hat geschrieben:
klusterdegenerierung hat geschrieben:
Ich habe eine ganze Zeitlang verfolgt was er macht und dann versucht das genauso umzusetzten und in Frames sah das gut aus, bis das nächste frame kam. Oder er nimmt nur eine winzige Sequenz und beschreibt nicht wie es denn in der nächsten die anders ausschaut geht.
Probier das doch mal aus!
Dazu gibt es bei mir gar keinen Nachmach-Reiz, weil ich seine Gradings nicht toll finde. Aber er hatte mal einen freien Mitarbeiter, Jake Pierrelee, der auch einen eigenen Kanal hat, den ich interessant finde. Zum ersten Mal gesehen im Zusammenhang mit Halation:
Seitdem sehe ich Halation überall. Es ist der einzige Filmlook-Bildverhunzer, den ich selbst benutzen würde, gelegentlich. Powerwindows allerdings sehr oft.
Halation soll ja wohl eher Objektivschwächen simulieren. ;) :)
Ich finde es ja immer interessant, wenn Filmnegativ-Look das Ziel ist, aber nur Einzelbilder betrachtet werden.
Dabei ist es doch der Unterschied der einzelnen Frames eines Negativfilms, die den fließend weichen Look ausmachen und auch zu einem Gewinn an Details führen.
Die Kornstruktur des Negativs ist in jedem Einzelbild anderes und führt in der Projektion zu einem Fluss.
Gibt es eigentlich Plugins, die so etwas simulieren? Denn dann erst würden die Kanten weicher ohne Details zu verlieren.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Gibt es eigentlich Plugins, die so etwas simulieren? Denn dann erst würden die Kanten weicher ohne Details zu verlieren.
Dehancer - die nehmen das Thema sehr ernst.
Das Dehancer Grain ist eigentlich ein recht komplexes 3D Partikel System, auf das dein Bild projiziert wird.
This model is based on physical properties of real emulsion. Here are some of them:
Grain isn’t just overlaid on the image. Image consists of grain.
One of the key points (but not the only one) that follows from this is that image detail depends on grain size, and usually visible details do not exceed grain size.
Film emulsion has a certain thickness, i.e. it is not flat. When passing through multiple layers of emulsion, light is reflected, refracted and diffused in many ways.
Silver halides (as well as dye granules) have volume. Accordingly, they are turned differently relative to film plane and therefore inevitably cast shadows.
There are different shapes of granules – classical rounded and flat grain, also called ’T-grain’.
Silver halides are distributed unevenly in the depth of emulsion layer. Tiny grains do not exist alone, forming complex conglomerations.
There is always considerable amount of grain in highlights because these areas correspond to maximum negative density, i.e. maximum accumulation of silver halides (Dmax). These always affect positive image printed from film to film or from film to photo paper. At the same time, due to the nature of human perception, grain is less noticeable in the highlights (but cannot be null).
Grain is always found in deep shadows too, as these areas correspond to minimum exposure, i.e. minimal amount of silver halides (Dmin, most transparent areas of the negative).
Accordingly, when printing from film to film (or from film to paper), print media is getting maximum amount of light in the shadows of the final image. In this way, the grain of print media itself becomes visible, along with slight grain of the source negative film.
Our algorithm generates grain based on local colour and brightness characteristics of the image, and thus is always related with it.
The granules are in fact 3D particles in the volume. Each granule is rotated relative to the image plane by a certain angle. Granules are randomly shifted and sometimes grouping in clusters. The resulting structure of ‘halides’ is superimposed over the original image (not vice versa like with traditional approach), taking into account the reflection, refraction and diffusion effects in the layers of ‘emulsion’.
In the process of printing simulation, the initial negative grain becomes positive and is built into the image as an integral part of it, that is, it does not look like overlaid on top.
On the one hand, procedural grain eliminates the need to use quite large scan files, which should be included in the installer bundle. In this case, tens or even hundreds of high-resolution scans would be required to avoid repeating patterns. And also results in additional tricks – rotation and mirroring for each frame, etc.
On the other hand, grain generation requires computational resources and inevitably slows down the framerate in the viewport and during the rendering process. However, we managed to accommodate these losses to a mere 5% of the plugin’s total performance.
 |
Antwort von freezer:
iasi hat geschrieben:
Halation soll ja wohl eher Objektivschwächen simulieren. ;) :)
Halation kann sowohl eine Objektiv- als auch eine Analogfilmschwäche sein.
Beim Analogfilm war Halation meist rötlich gefärbt, da es eine physikalische Interaktion mit der untersten Farbschicht hat.
Antwort von macaw:
freezer hat geschrieben:
iasi hat geschrieben:
Halation soll ja wohl eher Objektivschwächen simulieren. ;) :)
Halation kann sowohl eine Objektiv- als auch eine Analogfilmschwäche sein.
Beim Analogfilm war Halation meist rötlich gefärbt, da es eine physikalische Interaktion mit der untersten Farbschicht hat.
Korrekt. Das Licht geht durch die blaue, dann die grüne und danach durch die rote Emulsionsschicht des Filmmaterials und trifft dann auf den Halation Layer (die quasi schwarze Rückseite, im Kontrast zur hellbraun anmutenden Vorderseite). Der Halation Layer besteht aus Kohle ("Rem-jet") und ist nicht zu 100% lichtundurchlässig, daher penetri*rt starkes Licht zu einem kleinen Anteil auch diese Schicht, wird dann von der metallischen Oberfläche des Kameralaufwerks bzw. dessen Innenleben reflektiert und belichtet den Film von hinten.
Antwort von klusterdegenerierung:
In dem Zusammenhang, ziemlich cool die Rückseite des 35mm Sofortbild Diafilmes von Polaroid, die mutet wie eine regenbogenfarbene Metalschicht an und dessen Bildwirkung ist im Dia Bereich wohl einzigartig.
Antwort von iasi:
freezer hat geschrieben:
iasi hat geschrieben:
Halation soll ja wohl eher Objektivschwächen simulieren. ;) :)
Halation kann sowohl eine Objektiv- als auch eine Analogfilmschwäche sein.
Beim Analogfilm war Halation meist rötlich gefärbt, da es eine physikalische Interaktion mit der untersten Farbschicht hat.
Das gab´s mal einst bei den ersten Negativfilmen. Man muss ja nun wirklich nicht so nostalgisch werden, dass man versucht die Schwächen der ersten Filme zu imitieren.
Antwort von iasi:
macaw hat geschrieben:
freezer hat geschrieben:
Halation kann sowohl eine Objektiv- als auch eine Analogfilmschwäche sein.
Beim Analogfilm war Halation meist rötlich gefärbt, da es eine physikalische Interaktion mit der untersten Farbschicht hat.
Korrekt. Das Licht geht durch die blaue, dann die grüne und danach durch die rote Emulsionsschicht des Filmmaterials und trifft dann auf den Halation Layer (die quasi schwarze Rückseite, im Kontrast zur hellbraun anmutenden Vorderseite). Der Halation Layer besteht aus Kohle ("Rem-jet") und ist nicht zu 100% lichtundurchlässig, daher penetri*rt starkes Licht zu einem kleinen Anteil auch diese Schicht, wird dann von der metallischen Oberfläche des Kameralaufwerks bzw. dessen Innenleben reflektiert und belichtet den Film von hinten.
Ist das aus einem Lehrbuch aus dem 50er-Jahren? :)
Antwort von pillepalle:
Ja, zeitlich irgendwo zwischen Lawrence von Arabien und dem Kamera-Shootout 🙃
VG
Antwort von iasi:
pillepalle hat geschrieben:
Ja, zeitlich irgendwo zwischen Lawrence von Arabien und dem Kamera-Shootout 🙃
VG
Nein. Bei LoA hast du keine solchen Bildfehler. Also eher noch davor. ;)
Antwort von Frank Glencairn:
Denkst du allen Ernstes, die hätten bei LOA einen geheimen Wunderfilm gehabt, der anders funktioniert als alles andere Filmmaterial?
Natürlich nicht.
image_2023-05-05_145851086.png
Antwort von Frank Glencairn:
Wenn man Relight vernünftig benützt, funktioniert es auch anständig.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Denkst du allen Ernstes, die hätten bei LOA einen geheimen Wunderfilm gehabt, der anders funktioniert als alles andere Filmmaterial?
Natürlich nicht.
image_2023-05-05_145851086.png
Da hast du aber reichlich herausvergrößert.
Aha. Und wenn ich mir die Qualität so ansehe, ist das nicht gerade eine besonders gute Kopie, von dem das Bild gesannt wurde - geschweige denn ein Scan vom 65mm-Negativ.
"Diffusionslichthöfe sind bei modernen Filmen durch dünnere Emulsionsschichten geringer geworden, gegen Reflexionslichthöfe wird das Trägermaterial leicht eingefärbt"