Du hast insofern hundertprozentig recht, dass Pulldown und Pullup in den meisten Fällen auf Interlaced basiert. Allerdings ist uns dieser Begriff auch im Zusammenhang mit der besagten Frameratenkonvertierung öfters begegnet. Wir lernen aber gerne dazu und ändern das im Artikel, falls uns jemand sagen kann, wie die korrektere Bezeichnung dafür lautet (falls es eine solche gibt).dienstag_01 hat geschrieben: ↑Do 28 Nov, 2019 10:47 Wo habt ihr denn das mit dem Pulldown her, das ist doch komplett falsch.
Pulldown beschreibt einen für NTSC üblichen Prozess der Wandlung von Voll-in Halbbilder.
(Sorry, gibts auch für Pal, bleibt aber das Gleiche: Voll- in Halbbilder)
Jetzt macht ihr hier noch alles verrückt ;)
Ich denke, dieser ganze Abschnitt basiert rein auf Vermutungen, daher werdet ihr wohl auch keinen korrekten Begriff finden.rudi hat geschrieben: ↑Do 28 Nov, 2019 10:55Du hast insofern hundertprozentig recht, dass Pulldown und Pullup in den meisten Fällen auf Interlaced basiert. Allerdings ist uns dieser Begriff auch im Zusammenhang mit der besagten Frameratenkonvertierung öfters begegnet. Wir lernen aber gerne dazu und ändern das im Artikel, falls uns jemand sagen kann, wie die korrektere Bezeichnung dafür lautet (falls es eine solche gibt).dienstag_01 hat geschrieben: ↑Do 28 Nov, 2019 10:47 Wo habt ihr denn das mit dem Pulldown her, das ist doch komplett falsch.
Pulldown beschreibt einen für NTSC üblichen Prozess der Wandlung von Voll-in Halbbilder.
(Sorry, gibts auch für Pal, bleibt aber das Gleiche: Voll- in Halbbilder)
Jetzt macht ihr hier noch alles verrückt ;)
Aber wie dürfen/sollen/können wir es denn nun nennen?Jott hat geschrieben: ↑Do 28 Nov, 2019 11:31 Da geht as aber immer nur um den faulen Trick, 24p zu 60i (!) zu bringen für NTSC-TV. Faul deshalb, weil das eklig ruckelt (muss man in den USA mal gehen haben - keine Ahnung, wie die das seit Jahrzehnten aushalten). Dagegen haben wir hier ruckelfreien Luxus (Upspeed 24p zu 25p/50i).
Mit 24p oder 25p auf Computern gucken hat das aber nichts zu tun.
die Darstellung ist mE überwiegend in Ordnung.
Nee, man kann das nicht einfach irgendwie bezeichnen, sondern man müsste wissen, wie es funktioniert. Sonst schreibt man vielleicht einfach keinen Artikel.rudi hat geschrieben: ↑Do 28 Nov, 2019 11:51 Auch wenn man es wohl als 6:4-Pulldown bezeichnen kann, nützt es ja nichts wenn der Begriff nicht geläufig ist. Ich habe Pulldown daher im Artikel jetzt durch den weiteren Begriff Frameraten-Konvertierung ersetzt. Nur falls sich spätere Leser über diese (durchaus lehrreiche) Diskussion hier wundern...
So wie du?dienstag_01 hat geschrieben: ↑Do 28 Nov, 2019 11:55Sonst schreibt man vielleicht einfach keinen Artikel.rudi hat geschrieben: ↑Do 28 Nov, 2019 11:51 Auch wenn man es wohl als 6:4-Pulldown bezeichnen kann, nützt es ja nichts wenn der Begriff nicht geläufig ist. Ich habe Pulldown daher im Artikel jetzt durch den weiteren Begriff Frameraten-Konvertierung ersetzt. Nur falls sich spätere Leser über diese (durchaus lehrreiche) Diskussion hier wundern...
Warum muss man wissen wie eine Konvertierung funktioniert, bevor man etwas als Konvertierung bezeichnet? Ich bin ein Techniker, aber ich finde, Frameratenkonvertierung trifft es doch ganz gut. Man überführt eine Framerate in eine andere.dienstag_01 hat geschrieben: ↑Do 28 Nov, 2019 11:55Nee, man kann das nicht einfach irgendwie bezeichnen, sondern man müsste wissen, wie es funktioniert. Sonst schreibt man vielleicht einfach keinen Artikel.rudi hat geschrieben: ↑Do 28 Nov, 2019 11:51 Auch wenn man es wohl als 6:4-Pulldown bezeichnen kann, nützt es ja nichts wenn der Begriff nicht geläufig ist. Ich habe Pulldown daher im Artikel jetzt durch den weiteren Begriff Frameraten-Konvertierung ersetzt. Nur falls sich spätere Leser über diese (durchaus lehrreiche) Diskussion hier wundern...
Ich würde es als eine Form temporaler Interpolation bezeichnen. Resampling ist eine Umsetzung einer Interpolation. Es gibt ja auch NN Resampling, das würde auch einfach Werte kopieren. Bildraten-Anpassung wäre mein Vorschlag für eine allgemein verständliche Bezeichnung in diesem speziellen Fall.
Unverständlich finde ich die unterste Abbildung im verlinkten 6:4-Pulldown-Artikel, wo 24p zu 60p beschrieben werden soll. Wenn man nachzählt, dann ist dort eine Umwandlung von 24p nach 120p beschrieben: Aus jeweils zwei Frames der 24p Quelle sollen 10 Frames werden. Um 1s zu verarbeiten, müsste man dies 12 Mal tun, was 120 Frames anstelle der gewünschten 60 ergibt.
Resampling ist nicht ausdrücklich spatial. Bei der Verarbeitung zeitlicher Messwert-Folgen, wie z.B. Audio-Samples, würde etwas anderes als temporales Resampling gar keinen Sinn machen.
Könntest du dir ein Beispiel nehmen ;)rudi hat geschrieben: ↑Do 28 Nov, 2019 13:11So wie du?dienstag_01 hat geschrieben: ↑Do 28 Nov, 2019 11:55
Sonst schreibt man vielleicht einfach keinen Artikel.
woher/von wann stammt diese Theorie?
Da muss man ggfs. unterscheiden, welche Arbeitsweise angesprochen wird. Ursprünglich war der AVID mal ein reiner Film-Offline-Editor. Es musste aus der Vorschau eine eindeutige Beziehung zu Edgecodes für den Negativ-Schnitt hergeleitet werden, die EDL/TC Basis musste also auch bei 25fps Vorschau grundsätzlich 24fps bleiben.Ich kenne nur die speedup-Variante 24fps -> 25 fps -> 50 PSF (P in segmented fields)
mit pitch-up Ton.
Wohl eher umgekehrt?
Was ist denn in diesem Zusammenhang bitte 'ein normiertes Signal'? Wieviel 'normierter' als z.B. 1080p24/YCbCr/limited range kann denn ein Signal sein?
Was ist *normal*? Beispiel: Ich gebe mein Projekt in 24p über eine Monitoring Karte in 1080p24 an einem Monitor mit 48Hz aus. Wenn der Monitor keine 48Hz kann, bleibt er schwarz. Stelle ich die Frequenzen im Betriebssystem/an der GPU ein, ist das dem Projekt egal und es wird im Zweifelsfall mein 24p Projekt auch an 60Hz angezeigt. Auch irgendwie *normal*. Aber falsch ;)carstenkurz hat geschrieben: ↑Do 28 Nov, 2019 17:18Wohl eher umgekehrt?
Alle Computer-Grafikkarten, die ich in den letzten Jahren unter den Fingern hatte konnten sowohl zwischen RGB und YCbCr umkonfiguriert werden, und auch Full Range (0-255)/Limited range (16-235) ist einstellbar.
Was ist denn in diesem Zusammenhang bitte 'ein normiertes Signal'? Wieviel 'normierter' als z.B. 1080p24/YCbCr/limited range kann denn ein Signal sein?
Ja, es gibt durchaus noch ein paar Unterschiede zwischen expliziten Videokarten und Computergrafikkarten, aber die meisten Nutzer dürften mit den erwähnten Anpassungsmöglichkeiten bei üblichen Bildraten, RGB/YCbCr und Full/Limited Range zufrieden zu stellen sein. Das sind die wesentlichen Parameter, um reproduzierbare rec.709 Resultate zu bekommen.
Schlussendlich wird ja heutzutage ohnehin das meiste für die Wiedergabe an Computersystemen und mobilen Endgeräten geschnitten.
- Carsten
Nicht vergessen: plus den richtigen Monitor ;)Jott hat geschrieben: ↑Do 28 Nov, 2019 18:22 Der Blackmagic Ultra Studio Mini Monitor löst das Problem für 140 Euro, und gut ist.
Wer sich gerne an Schwenks und Fahrten erfreut, die beim Schneiden schön gleichmäßig ohne Ruckeln dargestellt werden, so wie man sie gefilmt hat, legt sich das Ding zu. Oder halt eine Ausgabekarte, wenn das Kästchen zu popelig erscheint.
Der wiederum sollte doch auch die Halbbildfraktion glücklich mach ;)
Ganz einfach, Dosaris, durch praktisches Arbeiten. Die Dupe Detection im Avid erinnertwoher/von wann stammt diese Theorie?
Also die Grafikkarten die ich kenne liefern - weil für PC-Monitore gedacht - wogl eher YUV Signale. Was ja auch ok ist weil kaum wer hängt heute noch einen Röhrenmonitor dran. Und jahrelang war ein normiertes RGB Signal ein Argument für die Videoschnittkarten. Wenn das nicht mehr gelten soll, dann soll mir das recht sein (ich bin hier auch kein Physiker der das nachmisst, aber ich frage mich schon auch ob ihr das seid und das so genau sagen könnt - oder hier nur etwas glaubt).carstenkurz hat geschrieben: ↑Do 28 Nov, 2019 17:18Wohl eher umgekehrt?
Alle Computer-Grafikkarten, die ich in den letzten Jahren unter den Fingern hatte konnten sowohl zwischen RGB und YCbCr umkonfiguriert werden, und auch Full Range (0-255)/Limited range (16-235) ist einstellbar.
Was ist denn in diesem Zusammenhang bitte 'ein normiertes Signal'? Wieviel 'normierter' als z.B. 1080p24/YCbCr/limited range kann denn ein Signal sein?
Ja, es gibt durchaus noch ein paar Unterschiede zwischen expliziten Videokarten und Computergrafikkarten, aber die meisten Nutzer dürften mit den erwähnten Anpassungsmöglichkeiten bei üblichen Bildraten, RGB/YCbCr und Full/Limited Range zufrieden zu stellen sein. Das sind die wesentlichen Parameter, um reproduzierbare rec.709 Resultate zu bekommen.
Schlussendlich wird ja heutzutage ohnehin das meiste für die Wiedergabe an Computersystemen und mobilen Endgeräten geschnitten.
- Carsten