Es kann also nicht nur in der Schärfeebene gewechselt werden sondern auch optisch korrektes Ein- und Auszoomen sowie nachträglicher Motion-Blur auf Objekte soll hiermit möglich werden.
Das schließt aber mit ein, dass ich vorher keinen Motionblur haben darf - da muss man aber auch ganz schön kurz für belichten.
Und Bewegungsvektoren habe ich dann auch noch keine, was die Software hier errechnet ist nicht immer das gelbe vom Ei. Na mal sehen, darf man gespannt bleiben.
Was ich mich ja auch frage ist, wie hoch der Spielraum ist. Mache ich den Vordergrund unscharf, muss ich zwangsläufig auch mehr Informationen vom Hintergrund haben als ich vorher durch die komplette Verdeckung sehen konnte. Bin mal gespannt, "wie weit" man also gehen kann. Gerade extrem wichtig bei Motionblur.
Antwort von Frank Glencairn:
Das wird genau so den Bach runter gehen wie die Consumer Nummer.
Nur weil man irgendwas technisch machen kann, heißt es noch lange nicht, daß es einen Markt dafür gibt.
Antwort von WoWu:
Das wird ein paar experimentelle auf irgendwelchen Festivals geben ... and that's it.
Speziell, weil es absolut nichts, aber auch gar nichts dabei gibt, das den Zuschauer interessieren könnte oder das sich im Bild niederschlägt.
Und wenn man eine Crew zusammenstellt, die nicht mal am Set sagen kann, was hinterher scharf dargestellt werden soll oder welcher Bildausschnitt angesagt ist, würde ich die Crew wechseln und nicht die Kamera.
Antwort von StanleyK2:
Eine alte Weisheit der Dakota-Indianer besagt: "Wenn du merkst, daß du ein totes Pferd reitest: steig ab!"
Antwort von Hirschflo:
Das wird ein paar experimentelle auf irgendwelchen Festivals geben ... and that's it.
Speziell, weil es absolut nichts, aber auch gar nichts dabei gibt, das den Zuschauer interessieren könnte oder das sich im Bild niederschlägt.
Und wenn man eine Crew zusammenstellt, die nicht mal am Set sagen kann, was hinterher scharf dargestellt werden soll oder welcher Bildausschnitt angesagt ist, würde ich die Crew wechseln und nicht die Kamera.
So wie ich die Kamera und deren Markt verstehe, ist sie vor allem für VFX-Shots interessant. Theoretisch bietet sie annähernd Deep Compositing bei Realaufnahmen. Bei vielen Shots könnten Green- und Bluescreen überflüssig werden und auch der Roto-Aufwand könnte deutlich niedriger werden, als es heute oft der Fall ist. Digitale Setextensions auch bei Drehs an Originalschauplätzen sollten damit deutlich einfacher möglich sein, als bisher. Ich frag mich nur, wie die Kamera mit transparenten Materialen umgeht - das könnte eine Achillesferse des Systems sein.
Als VFX-Artist sehe ich das als sehr spannende Entwicklung. Für normale Shots finde ich die Kamera dagegen völlig uninteressant.
Antwort von rainermann:
Ich seh das gar nicht so negativ - spannend fände ich es schon, wenn man im Nachhinein zB die Schärfe ändern könnte! Aber nicht als Spielerei, dass man erst im Schnitt entscheidet, wo die Schärfenebene liegt, sondern einfach als eine Korrekturmöglichkeit, falls mal was beim Dreh nicht 100% hingehauen hat. Selbst bei größeren Spielfilmen kommt es immer wieder mal vor, dass hie und da die Schärfe nicht 100%ig gezogen wurde. Oder bei Event-Sachen, Interviews mit offener Blende, Augen unscharf etc.. Wie schön wäre es, da mit einem Klick in der Timeline irgendwann in ferner Zukunft die Schärfenebene da hinzuziehen, wo man sie eigentlich haben wollte. Von mir aus gerne. Find ich gut. Aber das wird wohl noch Jahre dauern...
Antwort von Gabriel_Natas:
Also für VFX fänd ich das schon Klasse.
Man erhält einen 3D Track der Aufnahme und Tiefeninformationen für jeden Pixel in jedem Frame ... kein rotoskopieren mehr, problemelose Integration von 3D Objekten im Raum ... damit würde vieles der zeitaufwendigen Fleißarbeit in der Postproduction entfallen und man könnte sich ganz auf das kreative Element konzentrieren.
Antwort von CameraRick:
Aber Kameraden das ist doch eine Milchmädchenrechnung. Das macht ja Roto und Greenscreen nicht zwangsläufig gleich überflüssig, leider.
Denkt an Motionblur, Haare, all so etwas.
Man hat ja keine komplette Plate des Hintergrundes, das heißt jeder Blur (sei es durch bewegung, Objektiv, whatever) den ich auf Vordergrund-Elemente Anwende kann nur zu einem bestimmten Punkt gepushed werden, irgendwann geht dann zwangsläufig die BG-Info flöten. Wie bei einer Kinect.
Feine Details, halbtransparenzen, da glaubt ihr doch selbst nicht dran dass das klappen wird.
Ich lass mich gerne eines besseren belehren, aber bisher wirkt das wie ein sehr teures Spielzeug für Leute, die so ein Budget nicht haben.
Antwort von enilnacs:
Theoretisch interessant. aber praktisch bei VFX:
1. Schärfeebene im Nachhinein einstellen:
a. bei normalem Chromakey/3DRoto/AOVs irrelevant da einfach im Post.
b. bei Shots die tatsächlich dies szenerisch benötigen (unter 2-3%) ist immer genug Licht (da VFX Halle/Setup) für einen 8+ Blenden Shot da + ein weit präziseres LIDAR Scan + Post 3D Track (3D Equalizer!)
2. Bewegungsdaten der Pixel: bei RAW oder 444 kein Thema und seit 15 Jahren mit Optical Flow existent.
3. Motion blur nachträglich: das muss aber ein verdammt hoher Shutter sein, und die Photonen werden auch nicht mehr. Spielt in Compositing keine Rolle, da einfach, wieder: Optical Flow Data oder 3D Roto
4. 16 Blenden ? Wie ist das Rauschen ? Farbgamut ? uvm !
Aber es erzeugt ja auch Probleme/Fragen!
1. Wie geht es mit Transparenten Flächen um ? Hat man Deep Data, also das Glas und die Objekte dahinter zugleich oder nur die erste Rayfläche ? Wenn nicht (und es schaut so aus) Dann wäre AOV+Multishot Compositing besser und einfacher.
2. Ist der extra Speicherplatz gerechtfertigt ? Speichert eine Tonne Wellendaten (wenn man sie denn bräuchte, dann würde man, paperlapapp...)
3. Was macht man mit SNR bei zu wenig Rays... ahja, Belichtungszeit wieder erhöhen (dann hat man wider das gleiche Problem) denn bei hoher Shutter wieder ne Rauschsauerei (die arbeiten auch nur mit Photonen) :-P
4. Ist die 3D Information pro Pixel wirklich sauberer als 2D>3D Track oder gleich Stereo 3D Track? Ich zweifle bei den 300 fps sehr daran, oder man flutet bis es nicht mehr geht, aber dann: Aufwand gerechtfertigt ?
usw, usf...
Mm. eine Nette Sache, aber das muss sich entweder 3-4 Generationen bewähren und den Workflow wirklich VIEL vereinfachen, ODER es wird in der Versenkung verschwinden.
Antwort von Ab-gedreht:
Auch wenn das ding alles kann was es verspricht:
Wenn der zug nicht auf die verlegten schienen passt wird es schwer!
Das derzeite system ist einfach zu verschieden, um solch eine Änderung aufgreifen zu können..
Antwort von Skeptiker:
Hier
dpreview, Apr 20, 2016 | Rishi Sanyal
war man offenbar ziemlich beeindruckt von Lytros NAB-Vorstellung.
Könnte schon ein Blick in die (fernere) Zukunft sein. Wenn sie finanziell durchhalten (wer immer das finanziert), was spricht dagegen?
Es soll ja auch schon vorgekommen sein, dass Visionäre ihren Weg erfolgreich gegangen sind. Wir nutzen so einiges, das ursprünglich als Spinnerei abgetan wurde, heute ganz selbstverständlich im filmerischen Alltag.
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr InfosVerstanden!