Wie willst Du denn die 60 fps in 24 fps wandeln? Mit (1) nearest neighbor, (2) frame blending oder (3) optical flow? Oder (4) per Zeitlupe?klusterdegenerierung hat geschrieben: ↑Mi 25 Mär, 2020 12:52 Wenn ich nun in PS aufnehme und in Resolve auf 24fps wandel,
Lesen ist nicht soo Deins? :-)
Dann wählt Resolve trotzdem eine der ersten drei Optionen (Nearest Neighbor, Frame Blending oder Optical Flow), je nach dem, was in Deinen Projekteinstellungen als Standard gesetzt ist:klusterdegenerierung hat geschrieben: ↑Mi 25 Mär, 2020 13:12 Öh, ich blende da garnix.
Nach import in ein 24p Projekt ändere ich in Datei Attribute die Rate von 60p auf 24, mehr nicht.
Vielleicht gibst Du Dir einfach noch mal etwas mehr Mühe!Jott hat geschrieben: ↑Mi 25 Mär, 2020 13:28 Du kannst ja versuchen, deine Frage noch mal so zu stellen, dass man sie verstehen kann.
Du willst in 24p drehen und machst ein Problem draus? Wieso?
60p zu 24p wandeln bei unveränderter Abspielgeschwindigkeit geht nicht ohne Bewegungsartefakte und ist somit Unfug. Das muss doch klar sein?
Wieso, wenn ich in Attribute die Rate ändere, wird ja garkein blendprozess oder eine konvertierung vollzogen,cantsin hat geschrieben: ↑Mi 25 Mär, 2020 13:26Dann wählt Resolve trotzdem eine der ersten drei Optionen (Nearest Neighbor, Frame Blending oder Optical Flow), je nach dem, was in Deinen Projekteinstellungen als Standard gesetzt ist:klusterdegenerierung hat geschrieben: ↑Mi 25 Mär, 2020 13:12 Öh, ich blende da garnix.
Nach import in ein 24p Projekt ändere ich in Datei Attribute die Rate von 60p auf 24, mehr nicht.
Also in Deinem Fall wahrscheinlich "Nearest Neighbor". Das bedeutet, dass 36 der 60 Frames pro Sekunde weggeschmissen und 24 behalten werden. Damit werden 40% der Daten weggeschmissen, und als Nebeneffekt erhältst Du ausserdem noch Bildruckeln bei bewegter Kamera bzw. bewegten Motiven...
Kurz gesagt: Du handelst Dir nur Nachteile ein.
Ja, wenn man den Text dazu liest!
Naja, in der Theorie schon. Die Frage wäre z.B., ob bei hochkomprimierten Codecs Optical Flow aus 60fps-Material auf 24fps-Material ggfs. für weniger Kompressionsartefakte sorgt als in der nativen 24fps-Aufnahme, wenn diese nativen 24fps eine sehr geringe Datenrate haben, so dass das Zusammenfügen der 60fps-Bilder bei bestimmten Motiven vielleicht die Nachteile der Optical Flow-Artefakte aufwiegen könnte.
Okay, jetzt musst Du noch einmal zur Verdeutlichung helfen:klusterdegenerierung hat geschrieben: ↑Mi 25 Mär, 2020 13:36Wieso, wenn ich in Attribute die Rate ändere, wird ja garkein blendprozess oder eine konvertierung vollzogen,cantsin hat geschrieben: ↑Mi 25 Mär, 2020 13:26
Dann wählt Resolve trotzdem eine der ersten drei Optionen (Nearest Neighbor, Frame Blending oder Optical Flow), je nach dem, was in Deinen Projekteinstellungen als Standard gesetzt ist:
Also in Deinem Fall wahrscheinlich "Nearest Neighbor". Das bedeutet, dass 36 der 60 Frames pro Sekunde weggeschmissen und 24 behalten werden. Damit werden 40% der Daten weggeschmissen, und als Nebeneffekt erhältst Du ausserdem noch Bildruckeln bei bewegter Kamera bzw. bewegten Motiven...
Kurz gesagt: Du handelst Dir nur Nachteile ein.
das Material wird ja lediglich in Zeitlupe abgespielt.
Deswegen ja auch die Frage ob Bitraten Zugewinn oder nicht.
Du sprichst wahrscheinlich davon wenn die 60 frames korrekt als 24 frames dargestellt werden sollen, also alles so bleibt wie aufgenommen, aber das wäre ja in meinem Fall nicht der Fall.
Nicht ein Viertel, nur ein Sechstel mehr.
Hmm, kluster meinte doch, es seien 21MBit/s bs. 28Mbit/s? Also richtig gerechnet: Ein Drittel mehr.
Das ist allerdings wahr. Die AVCHD Implementierung ist bei den beiden wirklich erstaunlich gut.
Lesen Jott!!
Ja oder so.cantsin hat geschrieben: ↑Mi 25 Mär, 2020 13:40Naja, in der Theorie schon. Die Frage wäre z.B., ob bei hochkomprimierten Codecs Optical Flow aus 60fps-Material auf 24fps-Material ggfs. für weniger Kompressionsartefakte sorgt als in der nativen 24fps-Aufnahme, wenn diese nativen 24fps eine sehr geringe Datenrate haben, so dass das Zusammenfügen der 60fps-Bilder bei bestimmten Motiven vielleicht die Nachteile der Optical Flow-Artefakte aufwiegen könnte.
Im Fall von klusters Kamera (bei lediglich 25% mehr Datenrate bei 60fps ggü. 24fps-Aufnahme) ist das aber klar zu verneinen. Und sowieso dürfte das nur, wenn überhaupt, bei relativ statischen Motiven funktionieren.
24 ist das max was der Cdec an der Stelle kann, aber nie macht, mehr als 22 kommen fasst bei keiner Aufnahme raus, erst recht nicht wenn Du Dich nicht bewegst.
Frank, ich hab ja garnicht gefragt ob ich einen Unterschied sehe, ihr interpretiert dort alle Wahnsinnig viel rein. :-)Frank Glencairn hat geschrieben: ↑Mi 25 Mär, 2020 14:20Das ist allerdings wahr. Die AVCHD Implementierung ist bei den beiden wirklich erstaunlich gut.
Ich würde mir da ehrlich keinen Kopf machen Kluster, IMHO wirst du da keinen Unterschied sehen.
hier hast du einen denkfehler, die datenrate bezieht sich auf eine sekunde unabhängig davon wie viele frames darin enthalten sind, willst du das auf einen einzelnen frame beziehen, sieht das ergebnis genau andersherum aus.klusterdegenerierung hat geschrieben: ↑Mi 25 Mär, 2020 17:41 Selbstverständlich ist bei 21 und 28 kein Unterschied zu erwarten, aber bei 21 zu 70 vielleicht schon.
So eine Rechnung kann (ansatzweise) funktionieren, wenn man mit höherer Auflösung filmt oder den Ton mit höherer Samplingfrequenz aufnimmt. Denn Bildauflösungen und Samplingfrequenzen kann man recht sauber interpolieren. Aber mit Frameraten klappt das nicht. Dazu ist das zeitliche Verrechnen von Frames ein viel zu komplexer Prozess und viel zu stark vom Bildinhalt abhängig.klusterdegenerierung hat geschrieben: ↑Do 26 Mär, 2020 12:50 Ich dachte da ich auf 2,5x weniger frames für mein Bild verzichte, werden diese nicht obsolet, sondern zusammen addiert und ergibt somit eine höhere Datenrate als nur ein Frame. [...]
So hat man doch früher bei den ersten Generationen von Mittelformat Rückteilen auch die Megapixel interpoliert.
via pixelshift, aber eben nicht via zeit...;-)klusterdegenerierung hat geschrieben: ↑Do 26 Mär, 2020 13:36 Naja, Du sprichst ja jetzt vom Aufnahme Prozess, aber ich vom danach, da drücke ich doch zwei Bilder zu einem zusammen un erhöhe die Dichte, oder?
So hat man doch früher bei den ersten Generationen von Mittelformat Rückteilen auch die Megapixel interpoliert.