Logo Logo
/// 

8Bit 4:2:0 vs 8Bit 4:2:2



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Frage von klusterdegenerierung:


Wir hatten das Thema ja vor kurzem schon mal auf dem Schirm und da konnte ja nicht wirklich geklärt werden ob 422 only wenigstens so viel Potenzial hat, das es Wert ist es vorzuziehen.

Ich habe einige simultane Testaufnahmen mit Shogun in 422 und internen 420 mit der A7III angefertigt und in Resolve etwas näher betrachtet.

Oft wird ja der Einfluß von colorsub sampling mit Bittiefe gleichgestellt und so kommt es regelmäßig zu Missverständnissen weil auch bei subsampling Vergleichen in Farbverläufen in Himmeln geschaut wird.

Dies führt dann dazu, das man keinen Unterschied zwischen beiden Versionen sieht.
Bei Color Subsampling geht es ja viel mehr um die Interpolation & Komprimierung der Farben, die sich in fiesen Farbpixeln und unsauberen Farbkanten darstellt.

Wie groß diese Unterschiede sind, hängt wahrscheinlich auch vom Motiv und Licht ab, aber selbst in meinem relativ einfachen und unspektakulären Test konnte ich sichtbare Unterschiede feststellen.

Wer wirklich jedes quäntchen Quali auskosten möchte, der ist mit 422 selbst bei 8Bit besser dran und in extremen Motiven vielleicht sogar noch etwas mehr.

Auf meinen Screenshots seht ihr bei Vergößerungen im Bereich zwischen 300-500% das es auf der Haut besonders überm Auge deutlichere Farbflecken gibt und im Haar etwas gröbere Farbpunkte wie ein Rauschen.

Auch im HistogrammHistogramm im Glossar erklärt kann man besonders gut die Sägezahnartige Abstufung gegenüber der viel homogeneren Abstufungen im 422 Histogram sehen.

Klar, das ist jetzt kein 420 vs 444 Vergleich, aber ich finde wer einen Recorder hat kann durchaus dieses Potenzial nutzen.
Im dritten Bild habe ich noch eine Cinelut drübergelegt um zu schauen ob es noch deutlicher wird.



Antwort von cantsin:

Danke, mal ein wirklich sinnvoller Test!

Allerdings ein bisschen schwer zu beurteilen, was ArtefakteArtefakte im Glossar erklärt von 4:2:04:2:0 im Glossar erklärt ggü 4:2:24:2:2 im Glossar erklärt sind und was vielleicht auch Codec-Artefakte von XAVC-S ggü. ProRes.

EDIT: Zumal die von Dir hochgeladenen JPEGs laut ImageMagick auch nur 4:2:04:2:0 im Glossar erklärt haben:

"Colorspace: RGB
Sampling Factors: 1x1,1x1,1x1
JPEG 400x228 400x228+0+0 8-bit sRGB 24019B 0.000u 0:00.000"



Antwort von mash_gh4:

ich finde den test nicht wirklich aussagekräftig, weil sich die betreffenden unterschiede ja wirklich nur bei farbübergängen in um unmittelbar benachbarten pixel darüber od. darunter zeigen sollten. alle anderen abweichungen haben andere ursachen od. erklärungen.





Antwort von klusterdegenerierung:


ich finde den test nicht wirklich aussagekräftig, weil sich die betreffenden unterschiede ja wirklich nur bei farbübergängen in um unmittelbar benachbarten pixel darüber od. darunter zeigen sollten. alle anderen abweichungen haben andere ursachen od. erklärungen.

Das ist aber genau das worum es geht, nicht mehr nicht weniger.
Man kann da keine Unterschiede wie bei 8Bit vs 10Bit erkennen.

Der unterschied ist dann auch eher eines in Summe und besonders gut bei Alexas mit 444 zu erkennen, dessen Material viel ruhiger und homogener ist und dabei geht es nicht um Schärfe oder DR oder Farbverläufe, aber es wird sauberer.



Antwort von klusterdegenerierung:


Danke, mal ein wirklich sinnvoller Test!

Allerdings ein bisschen schwer zu beurteilen, was ArtefakteArtefakte im Glossar erklärt von 4:2:04:2:0 im Glossar erklärt ggü 4:2:24:2:2 im Glossar erklärt sind und was vielleicht auch Codec-Artefakte von XAVC-S ggü. ProRes.

EDIT: Zumal die von Dir hochgeladenen JPEGs laut ImageMagick auch nur 4:2:04:2:0 im Glossar erklärt haben:

"Colorspace: RGB
Sampling Factors: 1x1,1x1,1x1
JPEG 400x228 400x228+0+0 8-bit sRGB 24019B 0.000u 0:00.000"

J klar, da hast Du recht, aber auch der anderen Seite muß man es ja auch so sehen, wenn man etwas schon mit unzulänglichen Bedingungen sichtbar machen kann, dann ist es einerseits wirklich existent und wenn man es vernünftig macht, noch relevanter.

War ja nur auf die schnelle, wenn ich mich da noch besser auskennen würde, hätte ich es sicher perfekter hinbekommen. ;-))



Antwort von klusterdegenerierung:

Was ich besonders interessant finde und was wohl der Grund dafür sein könnte, das viele Tester keine Unterschiede feststellen können ist, das die Histogramme ungegraded fasst identisch aussehen und keine Sägezahnkanten aufweisen.

Erst wenn man das Material bearbeitet, tritt dieser Effekt ein und gibt einen guten Hinweis daraf, das Potenzial immer dann wichtig ist, wenn man das Material graded.

Da es sich um Slog handelt ist es sehr wahrscheinlich, das man es graden wird.



Antwort von mash_gh4:

ich kann es zwar entsprechende fehler technisch provozieren und herausheben, aber ich glaub ehrlich gestanden, dass sie in der praxis fast überhaupt keine rolle spielen od. tatsächlich erkennbar sind. andere kompressionsbedingte abweichungen treten da wesentlich intensiver zu tage.

im übigen muss man ja auch mitbedenken, dass die verwendeten optiken wirklich ganz ungewöhnlich gut auflösen müssen, damit solche fehler überhaupt erst entstehen können. dort wo sie von vornherein nicht in der lage sind, derart klar abgegrenzten farbunterschiede zwischen den pixeln festzuhalten, gibt's auch keinen grund, warum man überhaupt einen diesbezüglichen unterschiede erkennen können sollte. in wahrheit werden aber die daten vor dem farbunterabtasten ohnehin immer in einer weise gefilter, die genau den selben zweck erfüllt. d.h. wenn es richtig umgesetzt wurde, musst du sehr lange nach wirklich störenden artefakten suchen, die tatsächlich dieser ursache zuzuordnen sind.



Antwort von klusterdegenerierung:

Falsche Ansatz, das hat alles nix mit gutem Glas oder genau hinsehen oder derartiges zu tun.
Auf die Idee würde bei BitBit im Glossar erklärt Vergleichen ja auch keiner kommen.

Nur weil etwas nicht soo stark im Ergebnis ausgeprägt ist, hat es nicht eine existenz.
Hier ein sehr guter Artikel die das Thema noch professioneller beleuchten.

Sehr lesens und sehenswert.
http://www.niwa.nu/2013/05/why-chroma-s ... important/



Antwort von mash_gh4:

schau dir einmal das an, wenn dich die sache wirklich interessiert:

https://forum.blackmagicdesign.com/view ... 21&t=79163



Antwort von klusterdegenerierung:

Tja, solls geben, aber was hat das mit 420 vs 422 zu tun?



Antwort von mash_gh4:


Tja, solls geben, aber was hat das mit 420 vs 422 zu tun?

in der diskussion dort wurde zwar aufgezeigt, wie einfach man diese farbunterabtastungsbedingten fehler bewusst verstärken und hervorheben kann, aber nur wenige haben zum schluss auch eingesehen, dass manches davon mit jenen filtern zu tun hat, die man im rahmen eines solchen verfahrens nutzen muss, um nicht noch gröbere probleme heraufzubeschwören.

im grunde ist es ohnehin das selbe prozedere wie beim normalen skalieren, aber da wie dort sind diese details auf den ersten blick nicht unbedingt intuitiv verständlich od. völlig selbsterklärend.

jedenfalls sorgen diese mechanismen dafür, dass die praktischen unterschiede bzw. fehlfarben in wahrheit ausgesprochen klein ausfallen.

4:4:4, wo man dann ja normalerweise gleich RGBRGB im Glossar erklärt farbkanäle statt den verschiedenen YUVYUV im Glossar erklärt varianten verwendet, ist natürlich wieder eine ganz andere geschichte, aber zw. 4:2:24:2:2 im Glossar erklärt und 4:2:04:2:0 im Glossar erklärt fallen die tatsächlichen visuellen unterschiede wirklich vernachlässigbar klein aus.

der grund, warum 4:2:24:2:2 im Glossar erklärt früher tatsächlich eine technische berechtigung hatte, ist vielmehr darin zu sehen, dass diese unterschiedliche vertikale und horizontale farbauflösung notwendig war, um auch noch im zeilensprungverfahren genügend anhaltspunkte für eine befriedigende farbrekonstruktion zur verfügung zu haben. da wir uns aber heute glücklicherweise mit diesem fernsehtechnischen erbe kaum mehr herumschlagen müssen, ist 4:2:04:2:0 im Glossar erklärt die technisch weitaus sinnvollere lösung. das ist auch der grund, warum die ganzen neueren codecs und übertragungstechniken fast nur mehr diese variante vorsehen.



Antwort von rdcl:

Man muss sich ja nur die Histogramme anschauen, um die Unterschiede zu sehen. 4:2:04:2:0 im Glossar erklärt hat da doch deutlich sichtbare Lücken. Und das wohl gemerkt vor dem Grading.

Wobei der Vergleich nur wirklich Sinn machen würde, wenn es auch der gleiche CodecCodec im Glossar erklärt wäre.



Antwort von dienstag_01:

Ehrlich gesagt, ich habe noch nie einen Unterschied im HistogrammHistogramm im Glossar erklärt von verschiedenem Material gesehen (wär ja auch einfach).
Daher vermute ich mal, es hat nichts mit 4:2:04:2:0 im Glossar erklärt vs 4.2:2 zu tun.



Antwort von mash_gh4:


Ehrlich gesagt, ich habe noch nie einen Unterschied im HistogrammHistogramm im Glossar erklärt von verschiedenem Material gesehen (wär ja auch einfach).

bei den unterschieden im histogram bzw. den offensichtlichen quantisierungssprüngen, würde ich gefühlsmäßig auf SLog als ursache tippen.



Antwort von Blackbox:

Mag Placeboeffekt sein, aber ich bilde mir ein bei Greenbox mit 4:2:24:2:2 im Glossar erklärt leichter eine saubere Freistellung zu kriegen als bei 4:2:0.
Farbsäume, Haarprobleme scheinen mir deutlich weniger zu sein.
Einbildung oder erklärbar?



Antwort von prime:

Mit 4:2:24:2:2 im Glossar erklärt (oder gar 4:4:4) ist KeyingKeying im Glossar erklärt natürlich einfacher/besser, warum auch nicht? Es sind mehr 'echte' Farbsamples vorhanden.



Antwort von klusterdegenerierung:


Man muss sich ja nur die Histogramme anschauen, um die Unterschiede zu sehen. 4:2:04:2:0 im Glossar erklärt hat da doch deutlich sichtbare Lücken. Und das wohl gemerkt vor dem Grading.

Wobei der Vergleich nur wirklich Sinn machen würde, wenn es auch der gleiche CodecCodec im Glossar erklärt wäre.

Da gebe ich Dir vollkommen Recht.
Aber auf der anderen Seite ist es doch trotzdem ein guter Vergleich, weil man ja auch diesen anderen CodecCodec im Glossar erklärt am Ende zur Verfügung hat und der bringt ein weiteres Plus.

Im übrigen, hatte ich auch noch mal geschrieben, war das Sägezahn Histo erst nach anfassen von GammaGamma im Glossar erklärt und Lift enstanden.
Das ist für mich eine der massivsten Aussagen überhaupt, denn auf der einen Seite bestätigt es den effekt das out of the box beide Clips vorm grading gleichwertig sind und auf der anderen Seite, das es nur einen minimalen Eingriff benötigt um das XAVC so in strudeln zu bringen.

Ich habe ja nicht mal irgendwas wildes gemacht, sondern lediglich zweidrei normale Parameter ein bisschen verschoben.
Was passiert erst, wenn man richtig loslegt?

Sehr interessant wäre natürlich, wenn der Shogun die Möglichkeit hätte, sampling und Bittiefe selbst einzustellen, denn dann könnte ich auch feststellen, ob sich ProResProRes im Glossar erklärt im Shogun nicht bei 420 genauso verhalten würde wie bei 422.

Was mash schreibt, ist sicherlich richtig, aber das geht für mich in eine völlig andere Richtung.
Für mich gilt zumindest, wenn ein Unterschied wahrnehmbar ist, ist er da und hat seine Berechtigung und solange man noch nicht abschliessend sagen kann an was es genau liegt, kann es weitherhin der Grund sein, den man vermutet bzw anstrebt.



Antwort von klusterdegenerierung:


Ehrlich gesagt, ich habe noch nie einen Unterschied im HistogrammHistogramm im Glossar erklärt von verschiedenem Material gesehen (wär ja auch einfach).
Daher vermute ich mal, es hat nichts mit 4:2:04:2:0 im Glossar erklärt vs 4.2:2 zu tun.

Wie schon gesagt, vorm graden sind bei Histos nahezu identisch, erst beim bearbeiten wird ein UNterschied sichtbar, das sagt für mich am meisten aus.



Antwort von klusterdegenerierung:


Mag Placeboeffekt sein, aber ich bilde mir ein bei Greenbox mit 4:2:24:2:2 im Glossar erklärt leichter eine saubere Freistellung zu kriegen als bei 4:2:0.
Farbsäume, Haarprobleme scheinen mir deutlich weniger zu sein.
Einbildung oder erklärbar?

Ist ja auch so, deswegen nimmt man ja auch gerne Cams die diese Parameter Unterstützen.



Antwort von rdcl:



Man muss sich ja nur die Histogramme anschauen, um die Unterschiede zu sehen. 4:2:04:2:0 im Glossar erklärt hat da doch deutlich sichtbare Lücken. Und das wohl gemerkt vor dem Grading.

Wobei der Vergleich nur wirklich Sinn machen würde, wenn es auch der gleiche CodecCodec im Glossar erklärt wäre.

Da gebe ich Dir vollkommen Recht.
Aber auf der anderen Seite ist es doch trotzdem ein guter Vergleich, weil man ja auch diesen anderen CodecCodec im Glossar erklärt am Ende zur Verfügung hat und der bringt ein weiteres Plus.

Im übrigen, hatte ich auch noch mal geschrieben, war das Sägezahn Histo erst nach anfassen von GammaGamma im Glossar erklärt und Lift enstanden.
Das ist für mich eine der massivsten Aussagen überhaupt, denn auf der einen Seite bestätigt es den effekt das out of the box beide Clips vorm grading gleichwertig sind und auf der anderen Seite, das es nur einen minimalen Eingriff benötigt um das XAVC so in strudeln zu bringen.

Ich habe ja nicht mal irgendwas wildes gemacht, sondern lediglich zweidrei normale Parameter ein bisschen verschoben.
Was passiert erst, wenn man richtig loslegt?

Sehr interessant wäre natürlich, wenn der Shogun die Möglichkeit hätte, sampling und Bittiefe selbst einzustellen, denn dann könnte ich auch feststellen, ob sich ProResProRes im Glossar erklärt im Shogun nicht bei 420 genauso verhalten würde wie bei 422.

Was mash schreibt, ist sicherlich richtig, aber das geht für mich in eine völlig andere Richtung.
Für mich gilt zumindest, wenn ein Unterschied wahrnehmbar ist, ist er da und hat seine Berechtigung und solange man noch nicht abschliessend sagen kann an was es genau liegt, kann es weitherhin der Grund sein, den man vermutet bzw anstrebt.

Sorry, ich ich hatte mich da unklar ausgedrückt. Ein wenig Lift und GammaGamma im Glossar erklärt zähle ich jetzt nicht als Grading. Da kommt man bei SLog ja sowieso nicht drum herum. Du sagst ja selbst, dass du nichts wildes gemacht hast.
Und das bestätigt auch meinen Eindruck, den ich auch bei der letzten Diskussion geäussert habe: Ich bezweifle, dass Log generell mit 8-bit 4:2:04:2:0 im Glossar erklärt wirklich sinnvoll ist.

Man sieht übrigens auch deutliches Farbrauschen in den Haaren bei 4:2:0



Antwort von klusterdegenerierung:

Du meinst ich sollte es mal ohne Slog probieren?
A weiß ich garnicht so Recht ob der Shogun das kann, noch nie Probiert, B ist gerade das für mich eines der wichtigen Punkte, da ich dauerhaft Slog nutze, da macht es für mich natürlich besonders Sinn, denn was habe ich davon wenn der Effekt nur in 709 auftreten würde, ich aber in Log grade? ;-)



Antwort von rdcl:


Du meinst ich sollte es mal ohne Slog probieren?
A weiß ich garnicht so Recht ob der Shogun das kann, noch nie Probiert, B ist gerade das für mich eines der wichtigen Punkte, da ich dauerhaft Slog nutze, da macht es für mich natürlich besonders Sinn, denn was habe ich davon wenn der Effekt nur in 709 auftreten würde, ich aber in Log grade? ;-)

Nein, ich wollte damit nur sagen, dass man SLog ja nicht so lässt, sondern dass man da zumindest an Lift, GammaGamma im Glossar erklärt und Gain in der Regel etwas schraubt. Und da zerfällt das 4:2:04:2:0 im Glossar erklärt ja bereits.
Daher glaube ich, dass das Drehen in LOG keinen Sinn macht, wenn kein besserer CodecCodec im Glossar erklärt als 4:2:04:2:0 im Glossar erklärt zur Verfügung steht.



Antwort von klusterdegenerierung:

Ah, achso!
Ja dann werde ich es mal in 709 probieren. :-)



Antwort von mash_gh4:

ich würde vorschlagen, du nimmst wirklich gutes 4:4:44:4:4 im Glossar erklärt RGBRGB im Glossar erklärt ausgangsmaterial (zur not tut's aber auch runterskalierters gebräuchlicheres footage) und exportierst es mit mit einem guten videotranscoder deiner wahl als 4:2:04:2:0 im Glossar erklärt und 4:2:2.

in dem fall dürften die unterschiede dann wirklich fast nur mehr folgen der unterschiedlichen farbunterabtatstung betreffen.

theoretisch muss man halt der 4:2:2-variante auch ein bisserl mehr platz für die zusätzlichen informationen einräumen, also eine geringfügig höhre ausgabebandbreite nutzen, aber das ist vermutlich in der praxis auch eher vernachlässigbar, wenn man von vorherein für beide relativ großzügige bzw. qualitätsorientierte einstellungen wählt.

wenn du in diesem fall dann wirklich noch immer mit freiem auge signifikante unterschiede zwischen den beiden ausgaben ausmachen kannst, würde mich das wirklich überraschen.



Antwort von klusterdegenerierung:

Ich stelle mir trotzdem die Frage, würde ein Hersteller der 8bit 420 anbietet auch mit dem gleichen CodecCodec im Glossar erklärt 422 anbieten?
Und ist es nicht auch so, das manche Codecs das garnicht Unterstützen?

Dein Test ergibt erstmal Sinn, aber ich denke das recording und Prozessing in der Cam gehört auch zur Unterschied Bildung dazu.
Bei Deinem Test schwebt ja schon das Damoklesschwert der Erfolglosigkeit über das ganze, da braucht man ja schon eigentlich nicht mehr test, auch nicht wegen der rum konvertiererei, das macht für mich keinen Sinn.

Auch sagt das ja aus, das wir eigentlich nur noch Cams mit BitBit im Glossar erklärt Unterschiede brauchen, Colorsubsampling ist nicht mehr relevant.



Antwort von dienstag_01:


Ich stelle mir trotzdem die Frage, würde ein Hersteller der 8bit 420 anbietet auch mit dem gleichen CodecCodec im Glossar erklärt 422 anbieten?
Und ist es nicht auch so, das manche Codecs das garnicht Unterstützen?

Dein Test ergibt erstmal Sinn, aber ich denke das recording und Prozessing in der Cam gehört auch zur Unterschied Bildung dazu.
Bei Deinem Test schwebt ja schon das Damoklesschwert der Erfolglosigkeit über das ganze, da braucht man ja schon eigentlich nicht mehr test, auch nicht wegen der rum konvertiererei, das macht für mich keinen Sinn.

Auch sagt das ja aus, das wir eigentlich nur noch Cams mit BitBit im Glossar erklärt Unterschiede brauchen, Colorsubsampling ist nicht mehr relevant.

Color Subsampling war schon immer relevant, nämlich beim Keyen. Dass sich Color Subsampling wie oben beschrieben so negativ auf den Log-Workflow auswirken sollte, dazu würde schon ein ordentlicher Test weiterhelfen.



Antwort von mash_gh4:


Ich stelle mir trotzdem die Frage, würde ein Hersteller der 8bit 420 anbietet auch mit dem gleichen CodecCodec im Glossar erklärt 422 anbieten?
Und ist es nicht auch so, das manche Codecs das garnicht Unterstützen?

speziell die nvidia-hardware-decoder unterstützen es nicht, weshalb programme bei 4:2:24:2:2 im Glossar erklärt material diese beschleunigungsmöglichkeit nicht nutzen können und auf langsamere softwareimplementationen zurückgreifen müssen. man macht sich damit also zum teil das leben selber schwer, wenn man diese offenkundigen nachteile nicht auch mitbeachtet.

Dein Test ergibt erstmal Sinn, aber ich denke das recording und Prozessing in der Cam gehört auch zur Unterschied Bildung dazu.

natürlich sollte man letztlich immer das system als ganzes sehen.
aber in dem fall ist vermutlich trotzdem sinnvoll, wenn man dieses spezielle detail einmal herauszuheben und möglichst isoliert zu betrachten versucht -- also alle die anderen unterschiede ausklammert, die einen vernünftigen vergleich verunmöglichen, der wirklich nur ganz selektiv den tatsächlichen einfluss dieser technik klären will.

Bei Deinem Test schwebt ja schon das Damoklesschwert der Erfolglosigkeit über das ganze, da braucht man ja schon eigentlich nicht mehr test, auch nicht wegen der rum konvertiererei, das macht für mich keinen Sinn.

du hat schon recht, dass ich mir im laufe der zeit dazu eine meinung gebildet habe, von der ich natürlich auch nicht ohne weiteres herunter steige, so lange mir nicht jemand überzeugende beweise vorlegt, die mich zu einem umdenken zwingen.

umkehrt ist das ja auch bei vielen anderen -- gerade hier im forum! -- so, dass sie 4:2:24:2:2 im Glossar erklärt für ein völlig unverzichtbares feature halten, ohne das man gar nicht erst an ein ernsthaftes arbeiten denken braucht. das halt ich für einen derartigen unsinn, dass ich darüber kaum mehr einfach gleichgültig hinwegsehen kann, sondern eben ganz offen auch meine gegenteilige ansicht immer wieder einbringen.

ich würde fast sagen, dass diese punkt neben der dauernden undiffernzierten zuschreibung von "nachschärfung", die ja auch in den meisten fällen weit eher unvermeidbaren folgen einer DCT-kompression zuzuschreiben ist, statt tatsächlich in einem davon losgelösten bewussten eingriff seitens der hersteller ihre ursachen zu haben, zum unausrottbarsten und irreführendsten aberglauben in unseren kreisen zählt.



Antwort von mash_gh4:


Color Subsampling war schon immer relevant, nämlich beim Keyen.

das color subsampling und chroma keying sich nicht sonderlich gut vertragen, dürfte vermutlich kaum jemanden weiter überraschen.

die frage ist nur, ob es tatsächlich so vorteilhaft, wenn die betreffenden fehler sich bei horizontalen grenzlinen anders ausnehmen als bei vertikalen?

genau diese asymmetrie bzw. unterschiedliche behandlung der verikalen und horizonalen farbauflösung ist ja der der kern, der die eigenwilligkeit von 4:2:24:2:2 im Glossar erklärt ausmacht.

ich würde behaupten, dass es fast erstrebenswerter ist, wenigstens eine gleichmäßige unschärfe im bild zu haben, statt eine die sich nur in einer achse auswirkt. aber ich bin ja auch kein freund von anamorphoten oder jenen techniken, die im broadcastumfeld vor zwei-drei jahrzehnten allgegenwärtig waren, wo man die kompletten pixel in der horizontalen achse gestaucht hat, um sie besser in älteren aufzeichnungs- und übertragungsverfahen unterzubringen.

man kann es aber auch so betrachten, dass man einfach den größten tatsächlich erkennbaren fehler heranzieht, um die eignung bspw. für das keyen vernünftig einzuordnen. auch dann würde 4:2:24:2:2 im Glossar erklärt nicht besser dastehen als 4:2:04:2:0 im Glossar erklärt, weil ja die farbunterabtastung zumindest in der horizontalen richtung genau die selbe ist bzw. die selben fehler verursacht.

dass ich zum keyen 4:4:44:4:4 im Glossar erklärt ausgangsmaterial od. zumindest entsprechend skaliertes 4:2:04:2:0 im Glossar erklärt für eine empfehlenswertere ausgangsbasis halte, brauch ich wohl ohnehin nicht extra zu erwähnen.



Antwort von dienstag_01:



Color Subsampling war schon immer relevant, nämlich beim Keyen.

das color subsampling und chroma keying sich nicht sonderlich gut vertragen, dürfte vermutlich kaum jemanden weiter überraschen.

die frage ist nur, ob es tatsächlich so vorteilhaft, wenn die betreffenden fehler sich bei horizontalen grenzlinen anders ausnehmen als bei vertikalen?

genau diese asymmetrie bzw. unterschiedliche behandlung der verikalen und horizonalen farbauflösung ist ja der der kern, der die eigenwilligkeit von 4:2:24:2:2 im Glossar erklärt ausmacht.

ich würde behaupten, dass es fast erstrebenswerter ist, wenigstens eine gleichmäßige unschärfe im bild zu haben, statt eine die sich nur in einer achse auswirkt. aber ich bin ja auch kein freund von anamorphoten oder jenen techniken, die im broadcastumfeld vor zwei-drei jahrzehnten allgegenwärtig waren, wo man die kompletten pixel in der horizontalen achse gestaucht hat, um sie besser in älteren aufzeichnungs- und übertragungsverfahen unterzubringen.

man kann es aber auch so betrachten, dass man einfach den größten tatsächlich erkennbaren fehler heranzieht, um die eignung bspw. für das keyen vernünftig einzuordnen. auch dann würde 4:2:24:2:2 im Glossar erklärt nicht besser dastehen als 4:2:04:2:0 im Glossar erklärt, weil ja die farbunterabtastung zumindest in der horizontalen richtung genau die selbe ist bzw. die selben fehler verursacht.

das ich zum keyen 4:4:44:4:4 im Glossar erklärt ausgangsmaterial od. zumindest entsprechend skaliertes 4:2:04:2:0 im Glossar erklärt für eine empfehlenswertere ausgangsbasis halte, brauch ich wohl ohnehin nicht extra zu erwähnen.

Ich erinnere mich, dass trotzdem lieber 4:2:24:2:2 im Glossar erklärt genommen wurde als 4:2:04:2:0 im Glossar erklärt, wenn kein 4:4:44:4:4 im Glossar erklärt zu bekommen war. Vielleicht liegt es daran, dass im wirklichen Leben die Linien selten kerzengerade verlaufen, vielleicht ist es auch nur Esoterik gewesen, keine Ahnung.



Antwort von klusterdegenerierung:

Denke ich nicht, das Netz ist voll von tutos von greenscreenen von Cams mit oder ohne 422, da ist schon was dran, denn genau beim sauberen Freistellen kommt einem ein hohes subsampling zu gute.



Antwort von mash_gh4:



Color Subsampling war schon immer relevant, nämlich beim Keyen.

das color subsampling und chroma keying sich nicht sonderlich gut vertragen, dürfte vermutlich kaum jemanden weiter überraschen.

die frage ist nur, ob es tatsächlich so vorteilhaft, wenn die betreffenden fehler sich bei horizontalen grenzlinen anders ausnehmen als bei vertikalen?

genau diese asymmetrie bzw. unterschiedliche behandlung der verikalen und horizonalen farbauflösung ist ja der der kern, der die eigenwilligkeit von 4:2:24:2:2 im Glossar erklärt ausmacht.

ich würde behaupten, dass es fast erstrebenswerter ist, wenigstens eine gleichmäßige unschärfe im bild zu haben, statt eine die sich nur in einer achse auswirkt. aber ich bin ja auch kein freund von anamorphoten oder jenen techniken, die im broadcastumfeld vor zwei-drei jahrzehnten allgegenwärtig waren, wo man die kompletten pixel in der horizontalen achse gestaucht hat, um sie besser in älteren aufzeichnungs- und übertragungsverfahen unterzubringen.

man kann es aber auch so betrachten, dass man einfach den größten tatsächlich erkennbaren fehler heranzieht, um die eignung bspw. für das keyen vernünftig einzuordnen. auch dann würde 4:2:24:2:2 im Glossar erklärt nicht besser dastehen als 4:2:04:2:0 im Glossar erklärt, weil ja die farbunterabtastung zumindest in der horizontalen richtung genau die selbe ist bzw. die selben fehler verursacht.

dass ich zum keyen 4:4:44:4:4 im Glossar erklärt ausgangsmaterial od. zumindest entsprechend skaliertes 4:2:04:2:0 im Glossar erklärt für eine empfehlenswertere ausgangsbasis halte, brauch ich wohl ohnehin nicht extra zu erwähnen.





Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen:
Die Wahrheit über 8-Bit / 4:2:0
Resamp from 8bit 4:2:0 4 k APP am MAC
4:2:0 und 8 Bit fürs Fernsehen! JA es geht !!!!
Mein 8Bit Experiment!
Farbtiefe 8bit vs 10bit
8bit-Log nach s/w - Einschränkungen?
10 Bit 420 vs 8Bit 422
Keying: UHD 8Bit o. FHD 10Bit?
Pseudo-Information in 8bit-Rec709-Superwhites?!?
Panasonic GH4 - Color Grading 8Bit-Problem?
GH5 10bit Extern und gleichzeitig 8bit
6 Jahre altes 8Bit Material in moderner NLE!
8Bit AVCHD vs 12Bit Sony Raw CDNG
upsampling von 8bit auf 10bit erkennen - wie?
Canon C200 - MXF-Firmware Update Q1-2018 nur 8Bit 4:2:0?
Brauche Einsteigertipps für Premiere Pro (8bit vs. 10bit, V-LOG, HLG, etc)

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
GoPro
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom