carstenkurz hat geschrieben: Die Interessante Frage ist nur, ob sie einen Unterschied zwischen 23,97p und 24p machen. Bei einigen Gerätetests von TVs und Heimkinobeamern wird von Microrucklern im 24p Modus berichtet, obwohl die Geräte mit 24p spezifiziert sind. Wäre durchaus möglich, dass das Problem auch in diesen Fällen nicht 24p, sondern 23,97p sind.
Ich habe meine Frage jetzt selber beantworten können, und zwar durch einen (fast) wissenschaftlichen Test:
Ich habe zuerst ein Testvideo mit senkrechten Streifen erstellt, die horizontal durchs Bild laufen (daran erkennt man Ruckler besonders gut).
Dieses Video habe ich so oft hintereinander gehängt, dass sich bei 24 fps eine Länge von ca. 6' 24" Minuten ergab.
Dann habe ich eine BD gebrannt mit zwei Varianten des Testvideos drauf: eine in 24,000 fps Geschwindigkeit und eine in 23,976 fps Geschwindigkeit. (Habe die Files nachher mit MediaInfo überprüft. Sind wirklich so auf der Disc. Bei BD kann man ja verschiedene Formate mischen.)
Der optische Vergleich am Fernseher ergab schon mal keine irregulären Ruckler (habe beide Versionen des Streifenvideos über 2 Minuten lang konzentriert angeschaut - da wird man fast blöd dabei).
Bei ganz korrekter Wiedergabe müsste die 23er-Version etwa 1 Promille langsamer laufen als die 24er-Version. Bei 6' 24" Minuten Länge wäre das ein Längenunterschied von 0,38 Sekunden. Zu wenig, um es mit bloßem Auge zu sehen - aber messbar.
Als Messinstrument habe ich meinen Camcorder benutzt: Einfach den Fernseher abgefilmt.
Die so entstandenen Videos habe ich dann in zwei Spuren ins Schnittprogramm gelegt und mit jeweils demselben Punkt am Anfang synchronisiert. Dann habe ich geschaut, wie stark sie am Ende abweichen. (Das geht natürlich nicht 100-prozentig exakt, weil das abgefilmte Video aufgrund der abweichenden Framerate etwas flimmert.)
Und das kam dabei raus: Die Version mit 23,976 ist auf dem abgefilmten Video um 9 Frames länger. Bei den 25 fps meines Camcorders entspricht das einem Zeitversatz von 0,36 Sekunden.
Ich finde, das deckt sich erstaunlich gut mit der zu erwartenden Abweichung.
Wenn man es genauer wissen wollte, könnte man das Experiment nochmal mit längeren Videos durchführen. Aber mir reicht das so.
ERGEBNIS IN KÜRZE:
Mein Blu-ray-Player und mein Fernseher geben beide Geschwindigkeiten originalgetreu wieder. Also wenn der Fernseher anzeigt "1080/24p", kann das in Wahrheit 24,000p oder auch 23,976p sein.
Demnach hat der WDTV einfach nur einen blöden Bug.
Kleine Neben-Beobachtung: Im Gegensatz zum Bildinhalt laufen die Zeitangaben des Blu-ray-Players nicht auseinander. Es ist kein richtiger Timecode, sondern nur eine sekundengenaue Anzeige (ich habe die Sekunden-Umschalt-Punkte verglichen). Auf jeden Fall wird der "NTSC-Fehler" automatisch ausgeglichen wie beim Drop-Frame-Timecode, und die Uhr läuft in beiden Varianten synchron. Wäre das Video deutlich länger und die Abweichung im Sekundenbereich, könnte man das auch an der Sekundenangabe sehen.