Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Virtuelle Produktionen mit Sony Venice: Neues Toolset soll Workflows und Farbmanagement verbessern



Newsmeldung von slashCAM:



Sony kündigt ein neues Kamera- und Display-Plugin für Unreal Engine sowie einen Farbkalibrator als Teil des neuen Tool-Sets für die virtuelle Produktion an. Sie sollen de...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Virtuelle Produktionen mit Sony Venice: Neues Toolset soll Workflows und Farbmanagement verbessern


Space


Antwort von Debonnaire:

Ich finde diese virtuellen Sets, von welchen wir nun schon ein paar spannende Beiträge lesen durften, irre spannend! Was aber bisher noch nie zur Sprache gekommen ist, sind Produktionen in real 3D, wo also gleichzeitig mit zwei Objektiven im Augenabstand parallel gefilmt wird um die stereokopische Tiefenwirkung zu erzielen. Das würde dann ja in einem solchen virtuellen Set nicht mehr funktionieren, da der (perspektivisch simulierte) Hintergrund eben nur zweidimensional vorliegt und für beide Kamera"augen" derselbe wäre. Gibt es dahingehend bereits Lösungsansätze? Das 3D-len ist ja immer noch total in Mode...

Space


Antwort von prime:

Geht es darum zwischen zwei Perspektiven hin- und herzuschalten oder meinst du für stereoskopische 3D-Bilder? Für ersteres gibt es ja bereits ne Lösung, sofern eine Kamera nicht die gesamte LED-Wand abfilmt. Für zweiteres, wenn man vor grün filmt, sollte das kein Problem sein, bei LED-Wänden hingegen hab ich auch noch nix gesehen. Eventuell könnte man zwischen zwei Bildsignalen hin-und-herschalten bei 2x Frequenz der Ziel-FPS. Kameras / Shutter müssten dann jeweils entsprechend zu den Signal getaktet werden.

Space


Antwort von Debonnaire:

Habe meine Frage noch etwas präziser ausformuliert. Natürlich meine ich stereoskopisches real 3D, nicht ein Mehrkamera-Shoot aus unterschiedlichen Perspektiven; wobei auch dieser nur dann funktionieren würde, wenn beide Kameras komplett unterschiedliche, sich also null überlappende, Hintergrundbereiche im Blickfeld hätten.

Space


Antwort von MarcusG:

Ich finde Kamerahersteller sollten dringend Systeme zum 3D Tracking in die Kamera einbauen, so wie es das iPhone hat, sodass man die Position der Kamera direkt in der Unreal Engine verwenden kann. Das würde vieles vereinfachen und wäre ein echtes Kaufargument für diesen Sektor und Indie Filmer die in dieses Feld wollen.

Space


Antwort von Frank Glencairn:

Das ist leider ziemlich ungenau - für irgendwelche TikTok Spaßettchen mag das reichen, für ne richtige Produktion aber nicht.
Wobei gute Systeme ja auch nicht die Welt kosten.

Space


Antwort von MarcusG:

Frank hast du das schon selbst probiert? Also große Kanäle wie Filmriot haben Camtrack AR gezeigt und das sah extrem korrekt getracked aus.

Die Frage ist wie man die unterschiedlichen Brennweiten verarbeitet. Aber da Zoom ja eine lineare Ausschnittsvergrößerung ist, abgesehen von tonnenverzeichnung der Objekrive, dann müsste das in der Post bzw bei der Aufnahme relativ leicht auf mit den Lidar und Gyro Daten zu verrechnen bzw zu korrigieren sein.

Space


Antwort von Frank Glencairn:

Ja, wir haben mal Versuche damit gemacht, war okay, aber halt nicht gut genug für das was wir machen.
Das System mit dem ich zu tun habe, macht 2000 Messungen pro Sekunde und mit ner Mischung aus 3 verschiedenen Sensoren kommen wir auf ne Genauigkeit von unter nem Millimeter.

Für die Optiken gibts ein eigenes Modul (Brennweite/Zoom/Blende etc.)

Space


Antwort von MarcusG:

Was ist das für ein System und wie teuer ist das?

Space



Space


Antwort von Frank Glencairn:

MarcusG hat geschrieben:
Was ist das für ein System und wie teuer ist das?
Kommt auf die Anzahl der Tracker und Größe der Fläche an.

Schau mal da: https://antilatency.com

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Virtuelle Produktionen mit Sony Venice: Neues Toolset soll Workflows und Farbmanagement verbessern
Teradek-Unterstützung für Sony Ci Cloud-Workflows
Sony A7iii Workflow
TIPP: Sony SLog2 mit ACES Workflow korrigiert
Sony-F3 S-Log workflow
Workflow AVCHD Premiere CS5.5 , Sony Nex FS100
Postworkflow Sony nex fs100
Workflow Sony NEX FS100e
Farbmanagement korrekt? Der slashCAM Color Workflow Schnellcheck!
Neues ARRI-Zubehör für Sony Venice und Venice 2 verfügbar
Adobe: Creative Cloud Updates und C2C Workflows für die virtuelle Produktion
Samsung eröffnet weltweit größtes Micro-LED Filmset für virtuelle Produktionen mit 32K x 4K
Samyang Firmware Updates für Sony E Objektive verbessern Autofokus
Wozu Farbmanagement in der Filmproduktion? Netflix klärt auf
Umfrage zum Farbmanagement - "How do you manage your colors?"
Wie Workflow in Resolve mit mehreren Greenscreen- Fusion- Spuren verbessern?
Kleine Firmware-Updates für Nikon Z 5, Z 6, Z 50, Z 6II und Z 7II verbessern u.a. Autofokusleistung
Gibt es schon Filter um das Gesicht zu verbessern/ändern, für die Stimme etc.?
Sony stellt MicroLED Wand für virtuelle Filmsets wie bei "The Mandalorian" vor
8K VENICE mit E-Mount? Sony teasert eine neue CineAlta-Kamera an
Dynamic Shootout - ARRI ALEXA Mini LF vs. Sony VENICE 2 mit 8K
Sony kündigt VENICE 2 Verlängerungssystem 2 mit Gyrosensor und 12m Kabellänge an
Sony kündigt FX6 Firmware Version 4.0 mit Anamorphic Desqueeze und Venice 2 Firmware Roadmap an
Sony Venice mit völlig neuem Sensor
Sony Venice 2 Firmware v3.00 mit aktualisierten Funktionen verfügbar




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash