Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum VFX / Compositing / Special Effects-Forum

Infoseite // NUKE in einer Produktion - Welche Aufgaben hat der Comper ?



Frage von MIIIK:


Hey Leute,

ich arbeite mich grad intensiv in die Arbeit mit Nuke ein. Allerdings fällt mir eins auf. Es wird unfassbar viel mit 3D Objekten gearbeitet.

Wie sieht es denn in der Produktionsumgebung aus ? Sagen wir bei Kleinen bis mittel großen Firmen.

Ist da der Comper auch direkt ein 3D Artist ? Ich meine, wenn man sein Model fertig bekommt ist das Animieren ja eher das kleinste Problem. Es ist eher schwierig Fotorealistische Animationsobjekte zu erstellen und auch ohne größere Kenntnisse aus beispielsweise Maya zu exportieren.

Daher meine Frage wie das meist gehandhabt wird. Und, wo bekommt man eigentlich pre rendered Footage kostenfrei zur nicht kommerziellen Nutzung her ? Maya Models zu bekommen ist nicht schwer. Aber da Kommt ja dann das Lighting hinzu um das ganze auch schön aussehen zu lassen und nicht wie billiges Plastik.

Beste Grüße

Space


Antwort von Peppermintpost:

eine der Nuke Besonderheiten ist, das es einen echten 3D Space hat, wie man es auch aus gängiger 3D Software gewohnt ist. Im Gegensatz zu After Effects, wo ich den 3D Space eher als 2,5D bezeichnen würde, und selbst bei Smoke und Flame, wi man zwar ebenfalls einen echten 3D Space hat ist das deutlich auf Compositing Bedürfnisse ausgelegt.
Bei Nuke ist es aber tatsächlich eine 3D Software innerhalb eines 2D Compositing Tools. Per Default kommt Nuke mit einem Scanline Renderer, aber es gibt inzwischen auch echte Raytracer für Nuke, zum Beispiel Atomkraft oder sehr bekannt V-Ray(beta).
Damit könnte man also komplette 3D Szenen als z.B. FBX in Nuke importieren dort texturieren und rendern.

Die Frage ist natürlich macht das Sinn. Ich selbst kenne keinen einzigen Comper der von 3D texturing und shading auch nur halb so viel Ahnung hat wie ein durchschnittlicher Lighting Artist, also wieso einen Comper das Lighting machen lassen? Man würde einen Cutter ja auch nicht an eine komplexe Audio Bearbeitung setzen.
Entsprechend findet das auch nicht statt. Einfache Dinge, da kann das schon mal passieren, das man ein 3D Objekt importiert und rendert, aber das ist eher die Ausnahme.

Die andere Sache ist, das man natürlich auch unter zu Hilfenahme der 3D Tools 2D Aufgaben löst, bzw lösen muss. Solche Aufgaben kommen vor, sind aber selten. Junior Comper tendieren dazu alles in 3D zu lösen, weil es einfach ist, es ist aber fast immer der Weg der länger dauert, schlecht zu ändern ist und in den man oft auch weniger detailiert eingreifen kann.

Also ist es sehr empfehlenswert sich erst einmal mit allen 2D Tools und Verfahrensweisen auseinander zu setzen, bevor man ins 3D einsteigt. 95% aller Compositing Aufgaben lassen sich 2D lösen.

Space


Antwort von MIIIK:

Vielen dank schonmal für die Antwort.

Ich habe mich eher auf einzelne Elemente in 3D bezogen als eine Szene in 3D zu bearbeiten. Also keine Cards oder Cylinder auf denen ich eine Grafik projiziere.

Eher 3D Objekte. Sei es ein Lebewesen, Flugzeug, Auto ... was auch immer.

Es ging mir bei der Frage also mehr darum ob ich als Comper Bildsequenzen mit fertig gerendertem Material mit alpha geliefert bekomme oder ob ich teilweise nur die 3D Models bekomme die ich selber noch beleuchten und rendern muss bevor ich sie wirklich nutzen kann.

Space


Antwort von Peppermintpost:

du bekommst gerenderte Sequenzen mit entsprechenden Channels. Manchmal fragst du deinen 3D Artist ob er dir ein FBX der Szene geben kann, das dient aber nicht dazu es neu zu rendern, sondern um Positionen auf dem 3D Objekt zu finden und ggf was dran zu heften, oder um Kontakt Schatten nach zu arbeiten oder so etwas. Du solltest dich also mit Multi Channel Compositing auseinander setzen, das ist täglich Brot. Du musst also wissen was die einzelnen Kanäle machen und wie man sie zusammen setzt.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum VFX / Compositing / Special Effects-Forum

Antworten zu ähnlichen Fragen //


Nvida hat die Produktion der 40er Serie nahezu gestoppt
Nuke: Problem mit "Blackframes"
Tracking und Retusche wie bei Nuke möglich?
Foundry Nuke 16.0 - jetzt u.a. mit Multishot Workflow
OpenDRT v1.0.0 für Resolve und Nuke
Welche Hardware hat mein iMac 2009
Einer der berühmtesten Soundeffekte der Filmgeschichte: Wilhelm Scream
KI-generierte Fake-Trailer: Wie Hollywood an der Irreführung der Zuschauer mitverdient (hat)
DJI stellt Produktion der Profi-Drohne Inspire 2 ein - wann kommt die Inspire 3?
Probleme bei der NAND Flash Produktion: Steigen die SSD Preis wieder an?
SUCHE: Fallbeispiel für Einsatz von KI in der Produktion von Dokumentarfilmen
Apple Vision Pro: Lang erwartetes Mixed Reality Headset - der Beginn einer neuen Geräte-Ära?
Hat Canon eine ?Cinema? EOS R5 mit aktiver Kühlung in der Pipeline?
Remote Produktion mit David Guetta in Dubai
Casting-Tipps für die Low Budget Produktion
6K Pro von Blackmagic Design, DaVinci Resolve und die Produktion von Ninja Kidz Video
Canon bringt 5.2mm F2.8 L DUAL FISHEYE Optik für VR-Produktion
Sony stellt wegen Chipmangel die Produktion von Sony Alpha 7 II, Alpha 6100/6400 und PXW-Z190 ein




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash