Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Lytro - Neue Lichtfeld-Kamera im professionellen Cinema-Umfeld



Newsmeldung von slashCAM:


Nachdem Lytro https://www.slashcam.de/news/single/Lyt ... -12786.htm...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Lytro - Neue Lichtfeld-Kamera im professionellen Cinema-Umfeld


Space


Antwort von CameraRick:

Es kann also nicht nur in der Schärfeebene gewechselt werden sondern auch optisch korrektes Ein- und Auszoomen sowie nachträglicher Motion-Blur auf Objekte soll hiermit möglich werden. Das schließt aber mit ein, dass ich vorher keinen Motionblur haben darf - da muss man aber auch ganz schön kurz für belichten.
Und Bewegungsvektoren habe ich dann auch noch keine, was die Software hier errechnet ist nicht immer das gelbe vom Ei. Na mal sehen, darf man gespannt bleiben.

Was ich mich ja auch frage ist, wie hoch der Spielraum ist. Mache ich den Vordergrund unscharf, muss ich zwangsläufig auch mehr Informationen vom Hintergrund haben als ich vorher durch die komplette Verdeckung sehen konnte. Bin mal gespannt, "wie weit" man also gehen kann. Gerade extrem wichtig bei Motionblur.

Space


Antwort von Frank Glencairn:

Das wird genau so den Bach runter gehen wie die Consumer Nummer.

Nur weil man irgendwas technisch machen kann, heißt es noch lange nicht, daß es einen Markt dafür gibt.

Space


Antwort von WoWu:

Das wird ein paar experimentelle auf irgendwelchen Festivals geben ... and that's it.
Speziell, weil es absolut nichts, aber auch gar nichts dabei gibt, das den Zuschauer interessieren könnte oder das sich im Bild niederschlägt.

Und wenn man eine Crew zusammenstellt, die nicht mal am Set sagen kann, was hinterher scharf dargestellt werden soll oder welcher Bildausschnitt angesagt ist, würde ich die Crew wechseln und nicht die Kamera.

Space


Antwort von StanleyK2:

Eine alte Weisheit der Dakota-Indianer besagt: "Wenn du merkst, daß du ein totes Pferd reitest: steig ab!"

Space


Antwort von Hirschflo:

Das wird ein paar experimentelle auf irgendwelchen Festivals geben ... and that's it.
Speziell, weil es absolut nichts, aber auch gar nichts dabei gibt, das den Zuschauer interessieren könnte oder das sich im Bild niederschlägt.

Und wenn man eine Crew zusammenstellt, die nicht mal am Set sagen kann, was hinterher scharf dargestellt werden soll oder welcher Bildausschnitt angesagt ist, würde ich die Crew wechseln und nicht die Kamera. So wie ich die Kamera und deren Markt verstehe, ist sie vor allem für VFX-Shots interessant. Theoretisch bietet sie annähernd Deep Compositing bei Realaufnahmen. Bei vielen Shots könnten Green- und Bluescreen überflüssig werden und auch der Roto-Aufwand könnte deutlich niedriger werden, als es heute oft der Fall ist. Digitale Setextensions auch bei Drehs an Originalschauplätzen sollten damit deutlich einfacher möglich sein, als bisher. Ich frag mich nur, wie die Kamera mit transparenten Materialen umgeht - das könnte eine Achillesferse des Systems sein.

Als VFX-Artist sehe ich das als sehr spannende Entwicklung. Für normale Shots finde ich die Kamera dagegen völlig uninteressant.

Space


Antwort von rainermann:

Ich seh das gar nicht so negativ - spannend fände ich es schon, wenn man im Nachhinein zB die Schärfe ändern könnte! Aber nicht als Spielerei, dass man erst im Schnitt entscheidet, wo die Schärfenebene liegt, sondern einfach als eine Korrekturmöglichkeit, falls mal was beim Dreh nicht 100% hingehauen hat. Selbst bei größeren Spielfilmen kommt es immer wieder mal vor, dass hie und da die Schärfe nicht 100%ig gezogen wurde. Oder bei Event-Sachen, Interviews mit offener Blende, Augen unscharf etc.. Wie schön wäre es, da mit einem Klick in der Timeline irgendwann in ferner Zukunft die Schärfenebene da hinzuziehen, wo man sie eigentlich haben wollte. Von mir aus gerne. Find ich gut. Aber das wird wohl noch Jahre dauern...

Space


Antwort von Gabriel_Natas:

Also für VFX fänd ich das schon Klasse.
Man erhält einen 3D Track der Aufnahme und Tiefeninformationen für jeden Pixel in jedem Frame ... kein rotoskopieren mehr, problemelose Integration von 3D Objekten im Raum ... damit würde vieles der zeitaufwendigen Fleißarbeit in der Postproduction entfallen und man könnte sich ganz auf das kreative Element konzentrieren.

Space


Antwort von CameraRick:

Aber Kameraden das ist doch eine Milchmädchenrechnung. Das macht ja Roto und Greenscreen nicht zwangsläufig gleich überflüssig, leider.
Denkt an Motionblur, Haare, all so etwas.

Man hat ja keine komplette Plate des Hintergrundes, das heißt jeder Blur (sei es durch bewegung, Objektiv, whatever) den ich auf Vordergrund-Elemente Anwende kann nur zu einem bestimmten Punkt gepushed werden, irgendwann geht dann zwangsläufig die BG-Info flöten. Wie bei einer Kinect.
Feine Details, halbtransparenzen, da glaubt ihr doch selbst nicht dran dass das klappen wird.
Ich lass mich gerne eines besseren belehren, aber bisher wirkt das wie ein sehr teures Spielzeug für Leute, die so ein Budget nicht haben.

Space



Space


Antwort von enilnacs:

Theoretisch interessant. aber praktisch bei VFX:

1. Schärfeebene im Nachhinein einstellen:

a. bei normalem Chromakey/3DRoto/AOVs irrelevant da einfach im Post.
b. bei Shots die tatsächlich dies szenerisch benötigen (unter 2-3%) ist immer genug Licht (da VFX Halle/Setup) für einen 8+ Blenden Shot da + ein weit präziseres LIDAR Scan + Post 3D Track (3D Equalizer!)

2. Bewegungsdaten der Pixel: bei RAW oder 444 kein Thema und seit 15 Jahren mit Optical Flow existent.

3. Motion blur nachträglich: das muss aber ein verdammt hoher Shutter sein, und die Photonen werden auch nicht mehr. Spielt in Compositing keine Rolle, da einfach, wieder: Optical Flow Data oder 3D Roto

4. 16 Blenden ? Wie ist das Rauschen ? Farbgamut ? uvm !



Aber es erzeugt ja auch Probleme/Fragen!

1. Wie geht es mit Transparenten Flächen um ? Hat man Deep Data, also das Glas und die Objekte dahinter zugleich oder nur die erste Rayfläche ? Wenn nicht (und es schaut so aus) Dann wäre AOV+Multishot Compositing besser und einfacher.
2. Ist der extra Speicherplatz gerechtfertigt ? Speichert eine Tonne Wellendaten (wenn man sie denn bräuchte, dann würde man, paperlapapp...)
3. Was macht man mit SNR bei zu wenig Rays... ahja, Belichtungszeit wieder erhöhen (dann hat man wider das gleiche Problem) denn bei hoher Shutter wieder ne Rauschsauerei (die arbeiten auch nur mit Photonen) :-P
4. Ist die 3D Information pro Pixel wirklich sauberer als 2D>3D Track oder gleich Stereo 3D Track? Ich zweifle bei den 300 fps sehr daran, oder man flutet bis es nicht mehr geht, aber dann: Aufwand gerechtfertigt ?
usw, usf...


Mm. eine Nette Sache, aber das muss sich entweder 3-4 Generationen bewähren und den Workflow wirklich VIEL vereinfachen, ODER es wird in der Versenkung verschwinden.

Space


Antwort von Ab-gedreht:

Auch wenn das ding alles kann was es verspricht:

Wenn der zug nicht auf die verlegten schienen passt wird es schwer!

Das derzeite system ist einfach zu verschieden, um solch eine Änderung aufgreifen zu können..

Space


Antwort von Skeptiker:

Hier

dpreview, Apr 20, 2016 | Rishi Sanyal

war man offenbar ziemlich beeindruckt von Lytros NAB-Vorstellung.

Lytro poised to forever change filmmaking: debuts Cinema prototype and short film at NAB
http://www.dpreview.com/news/6720444400 ... era-at-nab

Space


Antwort von ruessel:



Space


Antwort von Jott:

Könnte schon ein Blick in die (fernere) Zukunft sein. Wenn sie finanziell durchhalten (wer immer das finanziert), was spricht dagegen?

Es soll ja auch schon vorgekommen sein, dass Visionäre ihren Weg erfolgreich gegangen sind. Wir nutzen so einiges, das ursprünglich als Spinnerei abgetan wurde, heute ganz selbstverständlich im filmerischen Alltag.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Kamera Rig für professionellen Einsatz. Bitte um Einschätzung
Neue Videokamera mit professionellen Audio-Funktionen von Zoom - Q8n-4K
Sony steigt in das Geschäft mit professionellen Drohnen ein
THE BOND - James Bond Fan-Film mit professionellen Actionszenen
Monitor+: Kostenlose App verwandelt Smartphone in professionellen Vorschau-Monitor für Sony Kameras
Zoom Q8n-4K Videokamera mit professionellen Audio-Funktionen wird ausgeliefert
Drei Nikon Z 9 Lesertests aus der professionellen Praxis + Bekanntgabe des Z 9 Gewinners
Synthetische KI-Stimmen machen professionellen Sprechern Konkurrenz
Canon Vision: am 24.9. neue Cinema-Kamera
Canon stellt am 19. Januar neue Cinema EOS Kamera vor - kommt die EOS R5C?
Neue Sony Cinema Line Kamera kommt demnächst - mit APS-C Sensor?
Sony bestätigt eine FX6 Cinema-Kamera für diesen Herbst
Klassische VJ-Kamera (Sony) oder Blackmagic Pocket Cinema Camera 4k?
Canon R5 C - 8K Cinema EOS Kamera mit Vollformat-Sensor ist offiziell
Sigma FP ist eine sehr gute cinema Kamera
Sony FR7 - erste Cinema Line PTZ-Kamera mit Vollformatsensor und Wechselmount
Entwickelt Apple eine Cinema Kamera?
Geleakte Fotos? Stellt DJI eine Cinema Kamera zur NAB 2024 vor?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash