Newsmeldung von slashCAM:
Was bringt eigentlich eine dedizierte Capture/Wiedergabe-Karte in der heutigen Zeit? Um dies zu erklären hilft vor allem ein Blick in die Geschichte der Videobearbeitung am PC und Mac.
Hier geht es zum slashCAM Artikel:
Grundlagen: Warum braucht(e) man eine Videoschnittkarte?
Antwort von dienstag_01:
Wo habt ihr denn das mit dem Pulldown her, das ist doch komplett falsch.
Pulldown beschreibt einen für NTSC üblichen Prozess der Wandlung von Voll-in Halbbilder.
(Sorry, gibts auch für Pal, bleibt aber das Gleiche: Voll- in Halbbilder)
Jetzt macht ihr hier noch alles verrückt ;)
Antwort von rudi:
dienstag_01 hat geschrieben:
Wo habt ihr denn das mit dem Pulldown her, das ist doch komplett falsch.
Pulldown beschreibt einen für NTSC üblichen Prozess der Wandlung von Voll-in Halbbilder.
(Sorry, gibts auch für Pal, bleibt aber das Gleiche: Voll- in Halbbilder)
Jetzt macht ihr hier noch alles verrückt ;)
Du hast insofern hundertprozentig recht, dass Pulldown und Pullup in den meisten Fällen auf Interlaced basiert. Allerdings ist uns dieser Begriff auch im Zusammenhang mit der besagten Frameratenkonvertierung öfters begegnet. Wir lernen aber gerne dazu und ändern das im Artikel, falls uns jemand sagen kann, wie die korrektere Bezeichnung dafür lautet (falls es eine solche gibt).
Antwort von Bruno Peter:
Resampling ...
Antwort von rudi:
Hier wird es z.B. explizit als 6:4 Pulldown beschrieben (Das Bild weiter unten will ich nicht hier ungefragt reinkopieren)...
https://www.computerlanguage.com/result ... 3+pulldown
Antwort von Jott:
Da geht as aber immer nur um den faulen Trick, 24p zu 60i (!) zu bringen für NTSC-TV. Faul deshalb, weil das eklig ruckelt (muss man in den USA mal gehen haben - keine Ahnung, wie die das seit Jahrzehnten aushalten). Dagegen haben wir hier ruckelfreien Luxus (Upspeed 24p zu 25p/50i).
Mit 24p oder 25p auf Computern gucken hat das aber nichts zu tun.
Antwort von dienstag_01:
rudi hat geschrieben:
dienstag_01 hat geschrieben:
Wo habt ihr denn das mit dem Pulldown her, das ist doch komplett falsch.
Pulldown beschreibt einen für NTSC üblichen Prozess der Wandlung von Voll-in Halbbilder.
(Sorry, gibts auch für Pal, bleibt aber das Gleiche: Voll- in Halbbilder)
Jetzt macht ihr hier noch alles verrückt ;)
Du hast insofern hundertprozentig recht, dass Pulldown und Pullup in den meisten Fällen auf Interlaced basiert. Allerdings ist uns dieser Begriff auch im Zusammenhang mit der besagten Frameratenkonvertierung öfters begegnet. Wir lernen aber gerne dazu und ändern das im Artikel, falls uns jemand sagen kann, wie die korrektere Bezeichnung dafür lautet (falls es eine solche gibt).
Ich denke, dieser ganze Abschnitt basiert rein auf Vermutungen, daher werdet ihr wohl auch keinen korrekten Begriff finden.
Antwort von balkanesel:
Vermutungen hast eher du ins Spiel gebracht, grundsätzlich gehts natürlich um die Wandlung NTSC PAL, dass dabei Vollbilder und Halbbilder verwendet werden ist eine Methode.^^
Antwort von rudi:
Jott hat geschrieben:
Da geht as aber immer nur um den faulen Trick, 24p zu 60i (!) zu bringen für NTSC-TV. Faul deshalb, weil das eklig ruckelt (muss man in den USA mal gehen haben - keine Ahnung, wie die das seit Jahrzehnten aushalten). Dagegen haben wir hier ruckelfreien Luxus (Upspeed 24p zu 25p/50i).
Mit 24p oder 25p auf Computern gucken hat das aber nichts zu tun.
Aber wie dürfen/sollen/können wir es denn nun nennen?
Wie gesagt ComputerLanguage.com, meistens zuverlässige Tech Enziklopedie nennt das explizit 6:4 Pulldown, auch wenn ich das selbst nicht so treffend finde. Resampling ist IMHO etwas anderes und beschreibt in der Regel einen spatialen Prozess...
Antwort von dosaris:
rudi hat geschrieben:
dass Pulldown und Pullup in den meisten Fällen auf Interlaced basiert. Allerdings ist uns dieser Begriff auch im Zusammenhang mit der besagten Frameratenkonvertierung öfters begegnet.
die Darstellung ist mE überwiegend in Ordnung.
Dieses Pull-up/-down-Verfahren nutzt den "Umweg" über (DE-)interlacing um eine max flüssige
Wiedergabe von Kinofilmen (24fps) in US-TV-Norm zu wandeln.
Dabei sind die microruckler eher positiv zu sehen, denn die Alternative bei der
Umsetzung durch reines frame-doubling ergäbe derbe macroruckler.
Konsequenz sind stattdessen periodische (unschärfere) blended-frames
durch das blending der fields aus benachbarten unterschiedlichen frames.
Besser gez nur durch aktive Zwischenbildberechnung, die gab's aber vor >25 Jahren noch nicht
als das Pulldown-Prinzip entwickelt wurde
Antwort von dienstag_01:
Da seht ihr, was ihr mit diesem Artikel angerichtet habt. Das war abzusehen, dass irgendwann die Halbbilder kommen ;)
Antwort von rudi:
Auch wenn man es wohl als 6:4-Pulldown bezeichnen kann, nützt es ja nichts wenn der Begriff nicht geläufig ist. Ich habe Pulldown daher im Artikel jetzt durch den weiteren Begriff Frameraten-Konvertierung ersetzt. Nur falls sich spätere Leser über diese (durchaus lehrreiche) Diskussion hier wundern...
Antwort von dienstag_01:
rudi hat geschrieben:
Auch wenn man es wohl als 6:4-Pulldown bezeichnen kann, nützt es ja nichts wenn der Begriff nicht geläufig ist. Ich habe Pulldown daher im Artikel jetzt durch den weiteren Begriff Frameraten-Konvertierung ersetzt. Nur falls sich spätere Leser über diese (durchaus lehrreiche) Diskussion hier wundern...
Nee, man kann das nicht einfach irgendwie bezeichnen, sondern man müsste wissen, wie es funktioniert. Sonst schreibt man vielleicht einfach keinen Artikel.
Antwort von rudi:
dienstag_01 hat geschrieben:
rudi hat geschrieben:
Auch wenn man es wohl als 6:4-Pulldown bezeichnen kann, nützt es ja nichts wenn der Begriff nicht geläufig ist. Ich habe Pulldown daher im Artikel jetzt durch den weiteren Begriff Frameraten-Konvertierung ersetzt. Nur falls sich spätere Leser über diese (durchaus lehrreiche) Diskussion hier wundern...
Sonst schreibt man vielleicht einfach keinen Artikel.
So wie du?
Antwort von Frank B.:
dienstag_01 hat geschrieben:
rudi hat geschrieben:
Auch wenn man es wohl als 6:4-Pulldown bezeichnen kann, nützt es ja nichts wenn der Begriff nicht geläufig ist. Ich habe Pulldown daher im Artikel jetzt durch den weiteren Begriff Frameraten-Konvertierung ersetzt. Nur falls sich spätere Leser über diese (durchaus lehrreiche) Diskussion hier wundern...
Nee, man kann das nicht einfach irgendwie bezeichnen, sondern man müsste wissen, wie es funktioniert. Sonst schreibt man vielleicht einfach keinen Artikel.
Warum muss man wissen wie eine Konvertierung funktioniert, bevor man etwas als Konvertierung bezeichnet? Ich bin ein Techniker, aber ich finde, Frameratenkonvertierung trifft es doch ganz gut. Man überführt eine Framerate in eine andere.
@slashcam
Danke für den interessanten Artikel. Nun müsste aber daraus folgen, dass bei Monitortests immer angegeben werden müsste, ob sie die Frameraten 24, 25, 50 und 60P darstellen können. Und eine Frage hätte ich noch. Kann man bei Fernsehern grundsätzlich davon ausgehen, dass sie, wenn sie in Deutschland vertrieben werden, 24, 25 und 50P nativ darstellen können, also ohne interne Umrechnerei auf 60P?
Antwort von TheBubble:
rudi hat geschrieben:
Aber wie dürfen/sollen/können wir es denn nun nennen?
Ich würde es als eine Form temporaler Interpolation bezeichnen. Resampling ist eine Umsetzung einer Interpolation. Es gibt ja auch NN Resampling, das würde auch einfach Werte kopieren. Bildraten-Anpassung wäre mein Vorschlag für eine allgemein verständliche Bezeichnung in diesem speziellen Fall.
rudi hat geschrieben:
Wie gesagt ComputerLanguage.com, meistens zuverlässige Tech Enziklopedie nennt das explizit 6:4 Pulldown, auch wenn ich das selbst nicht so treffend finde.
Unverständlich finde ich die unterste Abbildung im verlinkten 6:4-Pulldown-Artikel, wo 24p zu 60p beschrieben werden soll. Wenn man nachzählt, dann ist dort eine Umwandlung von 24p nach 120p beschrieben: Aus jeweils zwei Frames der 24p Quelle sollen 10 Frames werden. Um 1s zu verarbeiten, müsste man dies 12 Mal tun, was 120 Frames anstelle der gewünschten 60 ergibt.
3:2-Pulldown mit Frames anstelle von Fields, würde IMO das gewünschte Ergebnis bringen.
rudi hat geschrieben:
Resampling ist IMHO etwas anderes und beschreibt in der Regel einen spatialen Prozess...
Resampling ist nicht ausdrücklich spatial. Bei der Verarbeitung zeitlicher Messwert-Folgen, wie z.B. Audio-Samples, würde etwas anderes als temporales Resampling gar keinen Sinn machen.
Antwort von dienstag_01:
rudi hat geschrieben:
dienstag_01 hat geschrieben:
Sonst schreibt man vielleicht einfach keinen Artikel.
So wie du?
Könntest du dir ein Beispiel nehmen ;)
Antwort von TheBubble:
Kurzes Prolem mit dem Forum: Ich habe an meinem Beitrag eine Kleinigkeit bearbeitet und das Forum hat von selbst ein ungewolltes Selbst-Vollzitat als weiteren Beitrag eingefügt. Jetzt schon zum 2. Mal, nur diesmal kann ich selbst nichts mehr löschen.
Wäre schön, wenn das repariert werden kann. Danke. :-)
PS: Diesen letzten Beitag hier konnte ich wie erwartet bearbeiten, scheinbar gibt es nur ein Problem, wenn zwischenzeitlich eine weitere Antwort dazugekommen ist.
Antwort von MK:
Die ersten Videoschnittkarten brauchte man vor allem auch deswegen weil En- und Decoding ebenfalls auf den Karten stattfand sowie die Berechnung von Effekten in Echtzeit, weil die Computer dafür lange Zeit einfach zu langsam waren...
Antwort von carstenkurz:
Hier steht auch was zur Herleitung des Begriffs 'Pulldown'. Grundsätzlich ist das ein generischer Begriff, der nur in der Variante '3:2' explizit mit NTSC zu tun hat. Es gibt auch andere Pulldown Verhältnisse für andere Anwendungen.
https://en.wikipedia.org/wiki/Three-two_pull_down
- Carsten
Antwort von Salcanon:
Bisher ist kein Cutter seit der Einführung des AVID und Konsorten in den USA irre geworden,
denn die Umrechnung von 24 zu 60i war auch im Filmschnitt Standard.
Da sich 24 auch sauber in 60 "umverteilen lässt, gab es keine Synchronisationsprobleme zum Ton.
In der PAL-Welt wurde wegen 24 zu 25 wurde einfach im AVID alle 12Frames ein Halbbild hinzugesetzt, fiel nur bei Schwenks auf
und guckte sich nach kurzer Gewöhnungszeit weg. Abgetastet vom Negativ auf Betamax und Co. wurde durch upspeed von 24 auf 25.
Darum hat hierzulande auch FCP PAL-Mässig im Filmschnitt verloren, die wollten nach meiner Erinnerung,
dass man den Ton von der Geschwindigkeit anpasst. Aber ich hatte alle Filmprojekte auf dem AVID und mag da falsch liegen.
(FCP7 ist bis heute mein Favourite und läuft heute auf einem Imac von 2018, mit der letztmöglichen Version, Sierra)
Zu 50 Hz nativer Wiedergabe:
Darum habe ich noch heute einen uralten Plasma von Panasonic, vielleicht 2te Generation.
Der verlangte via HDMI auch wirklich von der Graka 50Hz - alle anderen Fernseher zu der Zeit wollten 60Hz via HDMI.
Antwort von Jott:
Salcanon hat geschrieben:
In der PAL-Welt wurde wegen 24 zu 25 wurde einfach im AVID alle 12Frames ein Halbbild hinzugesetzt
OMG.
Antwort von dosaris:
Salcanon hat geschrieben:
In der PAL-Welt wurde wegen 24 zu 25 wurde einfach im AVID alle 12Frames ein Halbbild hinzugesetzt,
fiel nur bei Schwenks auf
woher/von wann stammt diese Theorie?
ganz so einfach ist es nicht.
PAL (wenn dies wirklich gemeint war) impliziert ja immer Interlace-Encoding.
Ergo muss man nach dem Einfügen eines fields die field-order bis zur nächsten Einfügung
umkehren. Sonst gäbe es derbe Interlace-fieldorder-Artefakte bei Bewegung.
Ist sicher machbar, aber davon hatte ich nie gehört.
Ich kenne nur die speedup-Variante 24fps -> 25 fps -> 50 PSF (P in segmented fields)
mit pitch-up Ton.
Antwort von wolfgang:
Spannender ist doch der Artikel selbst. Es stört also offenbar niemanden mehr, dass eine Grafikkarte in YUV ausgibt, die Videoschnittkarte in RGB? Oder ist das längst überholt?
Es stört auch niemanden mehr dass die Grafikkarte halt nicht unbedingt ein normiertes Signal ausgibt, die Videoschnittkarte aber schon? Ist das wirklich alles überholt?
Ok, vielleicht ist das ja wirklich Alles unbedeutend geworden, bei der Verwendung von Computerdisplays. Die sind ja längst gut genug.
Antwort von carstenkurz:
Ich kenne nur die speedup-Variante 24fps -> 25 fps -> 50 PSF (P in segmented fields)
mit pitch-up Ton.
Da muss man ggfs. unterscheiden, welche Arbeitsweise angesprochen wird. Ursprünglich war der AVID mal ein reiner Film-Offline-Editor. Es musste aus der Vorschau eine eindeutige Beziehung zu Edgecodes für den Negativ-Schnitt hergeleitet werden, die EDL/TC Basis musste also auch bei 25fps Vorschau grundsätzlich 24fps bleiben.
Heutzutage spielt das keine große Rolle mehr, weil die Schnittsysteme und Postproduktionsumgebungen alle 24/25fps agnostisch sind.
- Carsten
Antwort von carstenkurz:
wolfgang hat geschrieben:
Spannender ist doch der Artikel selbst. Es stört also offenbar niemanden mehr, dass eine Grafikkarte in YUV ausgibt, die Videoschnittkarte in RGB? Oder ist das längst überholt?
Wohl eher umgekehrt?
Alle Computer-Grafikkarten, die ich in den letzten Jahren unter den Fingern hatte konnten sowohl zwischen RGB und YCbCr umkonfiguriert werden, und auch Full Range (0-255)/Limited range (16-235) ist einstellbar.
wolfgang hat geschrieben:
Es stört auch niemanden mehr dass die Grafikkarte halt nicht unbedingt ein normiertes Signal ausgibt, die Videoschnittkarte aber schon? Ist das wirklich alles überholt?
Was ist denn in diesem Zusammenhang bitte 'ein normiertes Signal'? Wieviel 'normierter' als z.B. 1080p24/YCbCr/limited range kann denn ein Signal sein?
Ja, es gibt durchaus noch ein paar Unterschiede zwischen expliziten Videokarten und Computergrafikkarten, aber die meisten Nutzer dürften mit den erwähnten Anpassungsmöglichkeiten bei üblichen Bildraten, RGB/YCbCr und Full/Limited Range zufrieden zu stellen sein. Das sind die wesentlichen Parameter, um reproduzierbare rec.709 Resultate zu bekommen.
Schlussendlich wird ja heutzutage ohnehin das meiste für die Wiedergabe an Computersystemen und mobilen Endgeräten geschnitten.
- Carsten
Antwort von dienstag_01:
carstenkurz hat geschrieben:
wolfgang hat geschrieben:
Spannender ist doch der Artikel selbst. Es stört also offenbar niemanden mehr, dass eine Grafikkarte in YUV ausgibt, die Videoschnittkarte in RGB? Oder ist das längst überholt?
Wohl eher umgekehrt?
Alle Computer-Grafikkarten, die ich in den letzten Jahren unter den Fingern hatte konnten sowohl zwischen RGB und YCbCr umkonfiguriert werden, und auch Full Range (0-255)/Limited range (16-235) ist einstellbar.
wolfgang hat geschrieben:
Es stört auch niemanden mehr dass die Grafikkarte halt nicht unbedingt ein normiertes Signal ausgibt, die Videoschnittkarte aber schon? Ist das wirklich alles überholt?
Was ist denn in diesem Zusammenhang bitte 'ein normiertes Signal'? Wieviel 'normierter' als z.B. 1080p24/YCbCr/limited range kann denn ein Signal sein?
Ja, es gibt durchaus noch ein paar Unterschiede zwischen expliziten Videokarten und Computergrafikkarten, aber die meisten Nutzer dürften mit den erwähnten Anpassungsmöglichkeiten bei üblichen Bildraten, RGB/YCbCr und Full/Limited Range zufrieden zu stellen sein. Das sind die wesentlichen Parameter, um reproduzierbare rec.709 Resultate zu bekommen.
Schlussendlich wird ja heutzutage ohnehin das meiste für die Wiedergabe an Computersystemen und mobilen Endgeräten geschnitten.
- Carsten
Was ist *normal*? Beispiel: Ich gebe mein Projekt in 24p über eine Monitoring Karte in 1080p24 an einem Monitor mit 48Hz aus. Wenn der Monitor keine 48Hz kann, bleibt er schwarz. Stelle ich die Frequenzen im Betriebssystem/an der GPU ein, ist das dem Projekt egal und es wird im Zweifelsfall mein 24p Projekt auch an 60Hz angezeigt. Auch irgendwie *normal*. Aber falsch ;)
|
|
Antwort von Jott:
Der Blackmagic Ultra Studio Mini Monitor löst das Problem für 140 Euro, und gut ist.
Wer sich gerne an Schwenks und Fahrten erfreut, die beim Schneiden schön gleichmäßig ohne Ruckeln dargestellt werden, so wie man sie gefilmt hat, legt sich das Ding zu. Oder halt eine Ausgabekarte, wenn das Kästchen zu popelig erscheint.
Antwort von dienstag_01:
Jott hat geschrieben:
Der Blackmagic Ultra Studio Mini Monitor löst das Problem für 140 Euro, und gut ist.
Wer sich gerne an Schwenks und Fahrten erfreut, die beim Schneiden schön gleichmäßig ohne Ruckeln dargestellt werden, so wie man sie gefilmt hat, legt sich das Ding zu. Oder halt eine Ausgabekarte, wenn das Kästchen zu popelig erscheint.
Nicht vergessen: plus den richtigen Monitor ;)
Antwort von Jott:
Yep, ein gescheiter Fernseher tut's.
Antwort von dienstag_01:
Jott hat geschrieben:
Yep, ein gescheiter Fernseher tut's.
Der wiederum sollte doch auch die Halbbildfraktion glücklich mach ;)
Antwort von Jott:
Auch das! Wunderbare Lösung für zu 1080i gezwungene TV-Zulieferer.
Antwort von Frank Glencairn:
Ahhh good ole times ;-)
Kann mich noch gut erinnern wie wir Mitte der 90er das Plastik-Chassis des Mac mit einem glühenden Schraubenzieher erweitert hatten, um ne weitere Platte rein zu bekommen, die dann mit selbst geschriebener Software gestriped (wahnsinnige 6 MB/s) und dann endlich in der Lage waren fullframe PAL in Echtzeit mit einer sündteueren Radius VideoVision Karte auszugeben und aufzuzeichnen - wir gehörten damals zu den ersten in Deutschland die das konnten.
Vorher mußten wir 3D Animationen halbbildweise an die Matz füttern, was die Mechanik immer in kürzester Zeit ruiniert hat. War ein enormer Fortschritt damals.
Wirklich Wahnsinn wie schnell sich das entwickelt hat, und wie einfach und billig das alles heute ist.
Antwort von Salcanon:
woher/von wann stammt diese Theorie?
Ganz einfach, Dosaris, durch praktisches Arbeiten. Die Dupe Detection im Avid erinnert
noch heute an die Anforderungen des Negativschnitts, natürlich Checkerboard
Antwort von wolfgang:
carstenkurz hat geschrieben:
wolfgang hat geschrieben:
Spannender ist doch der Artikel selbst. Es stört also offenbar niemanden mehr, dass eine Grafikkarte in YUV ausgibt, die Videoschnittkarte in RGB? Oder ist das längst überholt?
Wohl eher umgekehrt?
Alle Computer-Grafikkarten, die ich in den letzten Jahren unter den Fingern hatte konnten sowohl zwischen RGB und YCbCr umkonfiguriert werden, und auch Full Range (0-255)/Limited range (16-235) ist einstellbar.
wolfgang hat geschrieben:
Es stört auch niemanden mehr dass die Grafikkarte halt nicht unbedingt ein normiertes Signal ausgibt, die Videoschnittkarte aber schon? Ist das wirklich alles überholt?
Was ist denn in diesem Zusammenhang bitte 'ein normiertes Signal'? Wieviel 'normierter' als z.B. 1080p24/YCbCr/limited range kann denn ein Signal sein?
Ja, es gibt durchaus noch ein paar Unterschiede zwischen expliziten Videokarten und Computergrafikkarten, aber die meisten Nutzer dürften mit den erwähnten Anpassungsmöglichkeiten bei üblichen Bildraten, RGB/YCbCr und Full/Limited Range zufrieden zu stellen sein. Das sind die wesentlichen Parameter, um reproduzierbare rec.709 Resultate zu bekommen.
Schlussendlich wird ja heutzutage ohnehin das meiste für die Wiedergabe an Computersystemen und mobilen Endgeräten geschnitten.
- Carsten
Also die Grafikkarten die ich kenne liefern - weil für PC-Monitore gedacht - wogl eher YUV Signale. Was ja auch ok ist weil kaum wer hängt heute noch einen Röhrenmonitor dran. Und jahrelang war ein normiertes RGB Signal ein Argument für die Videoschnittkarten. Wenn das nicht mehr gelten soll, dann soll mir das recht sein (ich bin hier auch kein Physiker der das nachmisst, aber ich frage mich schon auch ob ihr das seid und das so genau sagen könnt - oder hier nur etwas glaubt).
Ich weiß nur dass der Fachhandel eindeutig von der Verwendung von irgendwelchen Monitoren abrät, zuletzt bei den aufkommenden HDR PQ Monitoren die mir ein namhafter Händler nicht mal für meinen eher preiswerten HDR Schnittplatz verkaufen hat wollen. Und dass die sehr wohl zu Videoschnittkarten raten. Aber bitte, vielleicht wollen die ja nur ihren Umsatz machen.
Ob full range oder limited range - na früher wurdest gerade hier zerhackt wenn man die Superweiß Diskussionen geführt hat. Heute ist full range salonfähig geworden. Nur noch für mobile Endgeräte und PC Monitore schneiden? Na mag sein. Deswegen wirft man alles über Board? Das halte ich doch für gewagt, wenn ich mir alleine anschaue wie unterschiedlich justiert nicht kalibrierte PC Monitore noch immer daher kommen.
Ich kann nur sagen dass selbst eine eher preiswerte Kette - bestehend aus einer Decklink 4K Extreme und einem (begrenzt guten) Atomos Sumo - noch immer eine recht gute Prüfung beim HDR Schnitt erlauben. Und eine Bildqualität liefern die eine recht gute Beurteilung des Materials Erlauben, zumindest für die spätere Betrachtung auf meinem OLED HDR TV. Mir wäre ein besserer Monitor lieber, aber das war halt preislich möglich. Und viele hängen sich ja gleich solche OLEDs an die Videoschnittkarten.
Aber jeder wie er mag.
|
Antwort von Frank Glencairn:
wolfgang hat geschrieben:
.. wenn ich mir alleine anschaue wie unterschiedlich justiert nicht kalibrierte PC Monitore noch immer daher kommen.
Ich schaff es nicht mal das die Geräte hier im Haushalt, Tablet, TV, Phone, auch nur annähernd das selbe Bild zeigen, wie ich es auf meinem kalibrierten Vorschau Monitor hier sehe. Jeder Browser, jede App, jeder Player, YT sowieso, werfen noch zusätzlich einen Sack Getriebesand in das ganze - Kampf gegen Windmühlen.
Antwort von dienstag_01:
wolfgang hat geschrieben:
carstenkurz hat geschrieben:
Wohl eher umgekehrt?
Alle Computer-Grafikkarten, die ich in den letzten Jahren unter den Fingern hatte konnten sowohl zwischen RGB und YCbCr umkonfiguriert werden, und auch Full Range (0-255)/Limited range (16-235) ist einstellbar.
Was ist denn in diesem Zusammenhang bitte 'ein normiertes Signal'? Wieviel 'normierter' als z.B. 1080p24/YCbCr/limited range kann denn ein Signal sein?
Ja, es gibt durchaus noch ein paar Unterschiede zwischen expliziten Videokarten und Computergrafikkarten, aber die meisten Nutzer dürften mit den erwähnten Anpassungsmöglichkeiten bei üblichen Bildraten, RGB/YCbCr und Full/Limited Range zufrieden zu stellen sein. Das sind die wesentlichen Parameter, um reproduzierbare rec.709 Resultate zu bekommen.
Schlussendlich wird ja heutzutage ohnehin das meiste für die Wiedergabe an Computersystemen und mobilen Endgeräten geschnitten.
- Carsten
Also die Grafikkarten die ich kenne liefern - weil für PC-Monitore gedacht - wogl eher YUV Signale. Was ja auch ok ist weil kaum wer hängt heute noch einen Röhrenmonitor dran. Und jahrelang war ein normiertes RGB Signal ein Argument für die Videoschnittkarten. Wenn das nicht mehr gelten soll, dann soll mir das recht sein (ich bin hier auch kein Physiker der das nachmisst, aber ich frage mich schon auch ob ihr das seid und das so genau sagen könnt - oder hier nur etwas glaubt).
Ich weiß nur dass der Fachhandel eindeutig von der Verwendung von irgendwelchen Monitoren abrät, zuletzt bei den aufkommenden HDR PQ Monitoren die mir ein namhafter Händler nicht mal für meinen eher preiswerten HDR Schnittplatz verkaufen hat wollen. Und dass die sehr wohl zu Videoschnittkarten raten. Aber bitte, vielleicht wollen die ja nur ihren Umsatz machen.
Ob full range oder limited range - na früher wurdest gerade hier zerhackt wenn man die Superweiß Diskussionen geführt hat. Heute ist full range salonfähig geworden. Nur noch für mobile Endgeräte und PC Monitore schneiden? Na mag sein. Deswegen wirft man alles über Board? Das halte ich doch für gewagt, wenn ich mir alleine anschaue wie unterschiedlich justiert nicht kalibrierte PC Monitore noch immer daher kommen.
Ich kann nur sagen dass selbst eine eher preiswerte Kette - bestehend aus einer Decklink 4K Extreme und einem (begrenzt guten) Atomos Sumo - noch immer eine recht gute Prüfung beim HDR Schnitt erlauben. Und eine Bildqualität liefern die eine recht gute Beurteilung des Materials Erlauben, zumindest für die spätere Betrachtung auf meinem OLED HDR TV. Mir wäre ein besserer Monitor lieber, aber das war halt preislich möglich. Und viele hängen sich ja gleich solche OLEDs an die Videoschnittkarten.
Aber jeder wie er mag.
Der Wahnsinn hat Methode ;)
|
Antwort von MK:
Video ist YUV, PC ist RGB...
Antwort von carstenkurz:
Computer liefern seit jeher RGB full range - VGA, DVI, HDMI, Displayport. Erst mit der Verbreitung von HDMI-Ausgängen kamen die Optionen, YCbCr und limited range auszugeben, damit man Videos auf typischen Heimvideogeräten wiedergeben kann, die ggfs. keine diesbezüglichen Konfigurationsmöglichkeiten haben. Viele Fernseher und Computermonitore haben heutzutage dafür aber auch entweder Erkennungsautomatiken oder sind manuell konfigurierbar. Lohnt sich halt, vor dem Kauf mal das Handbuch zu konsultieren.
Nun kosten einfache Decklinks eher weniger als selbst nur mittelmäßige Computergrafikkarten, von daher, warum nicht zusätzlich... Aber auch wenn man eine Decklink als Vorschaulösung verwendet, muss man Ausgang und Monitor immer noch korrekt konfigurieren. Wie gesagt, den einen oder anderen Unterschied gibt es da schon immer noch, aber das Gros der Anwender wird geeignete Bildrate und Farbmodell als ausreichend empfinden, und das ist eben am Grafikkartenausgang machbar.
Ob der Monitor nun echte oder mit 60fps geschaukelte 24fps darstellt, entscheidet sich ja auch nicht via Decklink, sondern ausschließlich am konkreten Monitor. Nebenbei ist die Computergrafik an Monitor oder Glotze eben auch als erweiterter Desktop nutzbar, was mit der Videokarte nicht geht.
- Carsten
Antwort von wolfgang:
dienstag_01 hat geschrieben:
wolfgang hat geschrieben:
Also die Grafikkarten die ich kenne liefern - weil für PC-Monitore gedacht - wogl eher YUV Signale. Was ja auch ok ist weil kaum wer hängt heute noch einen Röhrenmonitor dran. Und jahrelang war ein normiertes RGB Signal ein Argument für die Videoschnittkarten. Wenn das nicht mehr gelten soll, dann soll mir das recht sein (ich bin hier auch kein Physiker der das nachmisst, aber ich frage mich schon auch ob ihr das seid und das so genau sagen könnt - oder hier nur etwas glaubt).
Ich weiß nur dass der Fachhandel eindeutig von der Verwendung von irgendwelchen Monitoren abrät, zuletzt bei den aufkommenden HDR PQ Monitoren die mir ein namhafter Händler nicht mal für meinen eher preiswerten HDR Schnittplatz verkaufen hat wollen. Und dass die sehr wohl zu Videoschnittkarten raten. Aber bitte, vielleicht wollen die ja nur ihren Umsatz machen.
Ob full range oder limited range - na früher wurdest gerade hier zerhackt wenn man die Superweiß Diskussionen geführt hat. Heute ist full range salonfähig geworden. Nur noch für mobile Endgeräte und PC Monitore schneiden? Na mag sein. Deswegen wirft man alles über Board? Das halte ich doch für gewagt, wenn ich mir alleine anschaue wie unterschiedlich justiert nicht kalibrierte PC Monitore noch immer daher kommen.
Ich kann nur sagen dass selbst eine eher preiswerte Kette - bestehend aus einer Decklink 4K Extreme und einem (begrenzt guten) Atomos Sumo - noch immer eine recht gute Prüfung beim HDR Schnitt erlauben. Und eine Bildqualität liefern die eine recht gute Beurteilung des Materials Erlauben, zumindest für die spätere Betrachtung auf meinem OLED HDR TV. Mir wäre ein besserer Monitor lieber, aber das war halt preislich möglich. Und viele hängen sich ja gleich solche OLEDs an die Videoschnittkarten.
Aber jeder wie er mag.
Der Wahnsinn hat Methode ;)
Deiner durchaus!
|