Newsmeldung von slashCAM:
Sony kündigt ein neues Kamera- und Display-Plugin für Unreal Engine sowie einen Farbkalibrator als Teil des neuen Tool-Sets für die virtuelle Produktion an. Sie sollen de...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Virtuelle Produktionen mit Sony Venice: Neues Toolset soll Workflows und Farbmanagement verbessern
Antwort von Debonnaire:
Ich finde diese virtuellen Sets, von welchen wir nun schon ein paar spannende Beiträge lesen durften, irre spannend! Was aber bisher noch nie zur Sprache gekommen ist, sind Produktionen in real 3D, wo also gleichzeitig mit zwei Objektiven im Augenabstand parallel gefilmt wird um die stereokopische Tiefenwirkung zu erzielen. Das würde dann ja in einem solchen virtuellen Set nicht mehr funktionieren, da der (perspektivisch simulierte) Hintergrund eben nur zweidimensional vorliegt und für beide Kamera"augen" derselbe wäre. Gibt es dahingehend bereits Lösungsansätze? Das 3D-len ist ja immer noch total in Mode...
Antwort von prime:
Geht es darum zwischen zwei Perspektiven hin- und herzuschalten oder meinst du für stereoskopische 3D-Bilder? Für ersteres gibt es ja bereits ne Lösung, sofern eine Kamera nicht die gesamte LED-Wand abfilmt. Für zweiteres, wenn man vor grün filmt, sollte das kein Problem sein, bei LED-Wänden hingegen hab ich auch noch nix gesehen. Eventuell könnte man zwischen zwei Bildsignalen hin-und-herschalten bei 2x Frequenz der Ziel-FPS. Kameras / Shutter müssten dann jeweils entsprechend zu den Signal getaktet werden.
Antwort von Debonnaire:
Habe meine Frage noch etwas präziser ausformuliert. Natürlich meine ich stereoskopisches real 3D, nicht ein Mehrkamera-Shoot aus unterschiedlichen Perspektiven; wobei auch dieser nur dann funktionieren würde, wenn beide Kameras komplett unterschiedliche, sich also null überlappende, Hintergrundbereiche im Blickfeld hätten.
Antwort von MarcusG:
Ich finde Kamerahersteller sollten dringend Systeme zum 3D Tracking in die Kamera einbauen, so wie es das iPhone hat, sodass man die Position der Kamera direkt in der Unreal Engine verwenden kann. Das würde vieles vereinfachen und wäre ein echtes Kaufargument für diesen Sektor und Indie Filmer die in dieses Feld wollen.
Antwort von Frank Glencairn:
Das ist leider ziemlich ungenau - für irgendwelche TikTok Spaßettchen mag das reichen, für ne richtige Produktion aber nicht.
Wobei gute Systeme ja auch nicht die Welt kosten.
Antwort von MarcusG:
Frank hast du das schon selbst probiert? Also große Kanäle wie Filmriot haben Camtrack AR gezeigt und das sah extrem korrekt getracked aus.
Die Frage ist wie man die unterschiedlichen Brennweiten verarbeitet. Aber da Zoom ja eine lineare Ausschnittsvergrößerung ist, abgesehen von tonnenverzeichnung der Objekrive, dann müsste das in der Post bzw bei der Aufnahme relativ leicht auf mit den Lidar und Gyro Daten zu verrechnen bzw zu korrigieren sein.
Antwort von Frank Glencairn:
Ja, wir haben mal Versuche damit gemacht, war okay, aber halt nicht gut genug für das was wir machen.
Das System mit dem ich zu tun habe, macht 2000 Messungen pro Sekunde und mit ner Mischung aus 3 verschiedenen Sensoren kommen wir auf ne Genauigkeit von unter nem Millimeter.
Für die Optiken gibts ein eigenes Modul (Brennweite/Zoom/Blende etc.)
Antwort von MarcusG:
Was ist das für ein System und wie teuer ist das?
Antwort von Frank Glencairn:
MarcusG hat geschrieben:
Was ist das für ein System und wie teuer ist das?
Kommt auf die Anzahl der Tracker und Größe der Fläche an.
Schau mal da:
https://antilatency.com