wie dreht Ihr eigentlich? Stellt Ihr bei der Aufzeichnung die FPS immer so ein wie man es nacher benötigt?
Was ist wenn ich 24FPS für Kino und Bluray brauche. 25 FPS für eine DVD und oder 29,97 FPS /60FPS für Internet oder slomo?
29,97 FPS nacher runter auf 24 FPS läuft dann nie so flüssig.
Drehen in 29,97 fps braucht heute kein Mensch mehr. Das ist weder richtig flüssig noch "Filmlook" noch passt es richtig zu DVD oder Blu-ray. Es war einfach nur ein Kompromiss für flüssigere Bewegungen in Online-Videos, als YouTube noch keine 59,94 fps konnte.
Wenn man fürs Kino dreht, nimmt man natürlich 24 fps (oder ersatzweise 23,976 fps, falls die Kamera keine echten 24 fps kann). Beide Frameraten kann man auch 1:1 auf Blu-ray brennen.
25 fps liefert den gleichen Look wie 24 fps und ist dann besser, wenn DVD und europäische Fernsehausstrahlung im Vordergrund stehen und/oder wenn man Flimmerproblemen unter 50-Hz-Licht vorbeugen will.
Aber notfalls kann man zwischen 24 und 25 fps relativ leicht uminterpretieren.
Leider gibt es kaum Kameras, mit denen man als Kompromiss gleich in 24,5 fps drehen könnte. ;)
Wenn man für DVD, Blu-ray oder Internet statt Filmlook lieber flüssige Bewegungen haben will, nimmt man 50 oder 59,94 fps. 50 fps bieten sich an, wenn das Material auch mal ins europäische Fernsehen oder auf DVD soll und/oder wenn man Flimmerprobleme mit 50-Hz-Licht umgehen will. 59,94 fps harmoniert noch etwas besser mit Computermonitoren und ggfs. amerikanischem Fernsehen.
Für Blu-ray ist es hierzulande relativ egal, ob man 50 oder 59,94 fps benutzt, weil europäische Blu-ray-Player beide Varianten abspielen (jeweils als p-Variante in 720er-Auflösung oder als i-Variante in 1080er-Auflösung).
Hochwertiges Umwandeln zwischen 50 und 59,94 fps ist zwar möglich, aber aufgrund der benötigten Spezialsoftware bzw. Konverter-Hardware leider etwas aufwendiger als im Fall von 24/25 fps.
Natürlich kann man 50 oder 59,94 fps auch zweckentfremden, um daraus Zeitlupen in einer 24/25-fps-Timeline zu erstellen.
Schleichmichel hat geschrieben: ↑Di 09 Mai, 2017 10:55 dass man mit Bildüberblendungs-Reduktion relativ flüssig 29,97fps auf 25fps bekommt.
Das ist eine Frage des Anspruchs. ;)
Man kommt mittels Blending auch ganz brauchbar von 50 auf 59,94 fps oder umgekehrt (sogar noch besser als von 29,97 auf 25, weil die zeitlichen Abstände bei höheren Frameraten kürzer sind).
Aber wenn man das im Direktvergleich zu einem nativ aufgenommenen oder hochwertig gewandelten Video sieht, findet man es doch wieder ruckelig.
ich gehe davon aus, dass alles über 25 fps zunehmend an Relevanz verliert.
Der Grund ist, dass die Displays (Monitore, TV, Projektoren) zunehmend eine
echte aktive Zwischenbildberechnung selber durchführen und nicht nur
ein stumpfes oversampling.
So ist eine ruckelfreie Wiedergabe problemlos ohne Ressourcen-Vergeudung
(Bandbreite) möglich.
Trotz 50fps bei den ÖffRechies ist mir bisher kein Film im TV begegnet,
der echte 50 fps macht. Das waren bisher immer nur duplizierte 25 fps.
(Life-Sendungen sind hingegen oft echte 50fps)
Dies könnte sich allmählich ändern, parallel wird es aber zunehmend irrelevant.
Denkbar wären noch VFR-Encodings (Variable Frame Rate),
aber dies sehen m.W. die gängigen Standards der EBU nicht vor.
10Bit Auflösung wäre wirklich gut. Aber dies ist wohl auch
nicht in der EBU-Queue als Standard vorgesehen?!?
WoWu hat geschrieben: ↑Di 09 Mai, 2017 19:03
Selbst 709 ist schon seit den 90er Jahren sowohl in 8, als auch in 10 Bit standardisiert.
ja, sicher
in der Norm ist es schon einige Jahre.
Aber die EBU hat das mW noch nicht in der Queue zur Umsetzung.
Also bleibt 8bit erst einmal Standard.
Vielleicht gips ein neuestes Update dazu?
Kann man ignorieren, die TV-Stationen ignorieren das wohl eher nicht.
Die Produktion von Premiumprodukten ist schon seit 10 Jahren in 10 Bit.
Und dass es für EB & Co. nicht erforderlich ist, das muss ja nicht neu diskutiert werden.
Das der Sendestandard noch 8Bit ist, betrifft zunächst mal die TV Industrie, die flächendeckend mal 10 Bit TV Geräte bereitstellen sollte.
Die wird es aber erst geben, wenn HDR kommt.
Also, wo ist das Problem ?
Warum sollte man auf 10 Bit umstellen, wenn die meisten TV Geräte das noch gar nicht können?
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.