micha2305 hat geschrieben: ↑Di 29 Apr, 2025 13:14
ich möchte bei einem Filmprojekt Material aus verschiedenen Kameras, das auch in verschiedenen Gangzahlen aufgenommen wurde, kombinieren.
Z.B wurde manches Material mit 30 fps, anderes mit 120 fps und wieder anderes mit 25 fps / Off speed 120 fps
aufgenommen wurde. Bei denen mit 120 fps soll die Zeitlupe sichtbar erhalten bleiben, d. h. sie sollen am Ende nur mit 25 fps abgespielt werden.
Der Film soll am Ende 25 fps haben.
Gibt es eine einfache und übersichtliche Methode, dies zu realisieren ? Ein Cutter meinte, dies immer manuell zu verschieben, sei unprofessionell.
Mit anderen Worten, nur das 120p-Material soll als 480% Zeitlupe abgespielt werden, das 30p-Material aber in Echtzeit auf der 25p-Timeline (also nicht als 120%-Zeitlupe)?
Es gibt keine wirklich gute/saubere Methode, das zu tun. Das ist genauso, als wenn Du eine Mauer bauen willst und Dir dafür zur Hälfte europäische Ziegel mit mm-Maßen und zur Hälfte amerikanische Ziegel mit Zollmaßen gekauft hast, aber alles ins Raster der europäischen Ziegel bringen musst. Die falsche bzw. eine nicht ganzzahlig teilbare Framerate aufzunehmen, ist einfach ein Fehler, den man nur mit Kollateralschäden korrigieren kann.
Die beste Möglichkeit bei Resolve ist, das 30p-Material in die 25p-Timeline zu werfen und in den Projekteinstellungen als Frame-Interpolationsmethode "Optical Flow" einzustellen. Zuvor solltest Du das Material auf ganzzahlige 30p (statt der wahrscheinlich vorliegenden 29,97p) konformieren und die Audiospur mitanpassen (d.h. auf 100.1% beschleunigen um Asynchronität/Versatz zu vermeiden), um einen besseren Teiler zu 25p zu bekommen.
Da das größte gemeinsame Vielfache von 25 und 30=5 ist, heisst das, das in einer Sekunde Deines 30p-Materials nur 5 Frames noch echte, real aufgenommene Frames sein werden und die restlichen 20 Frames interpolierte Zwischenframes, die sehr wahrscheinlich Bewegungs- bzw. Interpolationsartefakte enthalten werden (z.B. bei sich bewegenden Händen und allen sonstigen sich schnell bewegenden Motiven, die dann Morphingartefakte enthalten werden). Wenn Du mit 180 Grad-Shutter bzw. 1/60 Verschlusszeit aufgenommen hast, werden diese Artefakte wegen der Bewegungsunschärfe noch stärker - besser funktioniert die Interpolation, wenn das Material mit möglichst kurzen Verschlusszeiten, ohne Bewegungsunschärfe, aufgenommen wurde.
Du kannst bei Resolve die Qualität der Optical Flow-Framerinterpolation nochmal qualitativ verbessern, wenn Du als "Motion Estimation" das Verfahren "Speed Warp Better" wählst:
Screenshot From 2025-04-29 15-01-56.png
Das kostet allerdings Rechenzeit und macht es ggfs. unmöglich, die Clips in der Timeline noch in Echtzeit abzuspielen. Abhilfe schafft hier Resolves Render-Cache. Alternativ kann man während des Schneidens die Optical Flow-Einstellung auf dem Standardwert belassen und "Speed Warp Better" erst vor dem Rendern einschalten.
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.