Hey!
Genau das ist tatsächlich der Sinn der Farbunterabtastung, dass du eben KEINEN Unterschied zwischen 4:4:4, 4:2:2 und 4:2:0 sehen kannst.
Das basiert auf dem Wissen, dass im menschlichen Auge mehr Stäbchen (benötigt für das Helligkeitssehen), als Zapfen (für das Farbsehen) vorkommen.
Da der Mensch folglich eine höhere Helligkeits- statt Farbauflösung im Auge hat, konnte/kann man dadurch viele Daten/Bandbreite ohne erkennbaren Qualitätsverlust sparen.
Deswegen macht es bei "normalen" Drehs tatsächlich keinen Unterschied.
Warum gibt es dennoch 4:2:2:
Es gibt auch Bereiche, wo es tatsächlich sinnvoll ist:
In der Postproduktion.
- Insbesondere beim Keying / Greenscreen / Chroma-Keying. Hier kommt dir die doppelte horizontale Farbunterabtastung wieder zu Gute und es wird deutlich besser funktionieren. (hier hilft auch immer eine noch höhere Auflösung)
- Bei extremen Colorgrading mit 10 Bit Material und starken Farben, oder
- bei Texten und Grafiken mit sehr harten Kanten und sehr feinen Farbverläufen kann es vorteilhaft sein.
bei normalen Videos, V-Logs etc. wird man
keinen Unterschied erkennen können.
(das ist genau der Grund warum es gemacht wird)
Zum Bayer-Pattern:
Dies hat bei den genannten Codecs KEINEN Einfluss auf das Chroma Subsampling.
Das liegt an der Reihenfolge der Abarbeitung der Daten:
- 1. Sensor Raw --> 2. Debayering! --> 3. RGB → YCbCr-Wandlung --> 4. Chroma-Subsampling (4:4:4 → 4:2:2 oder 4:2:0) --> h264/H265 Sampling
Das das Chroma - Subsampling so weit hinten liegt hat das Bayerpattern keinen Einfluss mehr.
Nerdtalk:
Zu den höheren Auflösungen, die zu einem höheren Chroma-Subsampling führen sollen.
Das ist theoretisch richtig.
Man führt zum Beispiel bei 8K zu 4k Downsampling jeweils 4 Pixel zusammen und hat somit bei 4:2:0 4 Helligkeitsinformationen und eine Farbinformation, die man dann zu einer Farbinformation und einer Helligkeitsinformation zusammenfassen kann und so theoretisch ein 4:4:4 Signal erhält.
(jeder horizontale und vertikale Pixel hat in dem resultierenden 4k Bild dann je eine Farb- und eine Helligkeitsinformation.)
Wenngleich ich so eine höhere Auflösung und Farbqualität erhalte ist es dennoch ein Unterschied zu einem nativen 4:4:4, weil ich zum einen nur eine Farbinformation für meine 4 Helligkeitspixel habe, die ich auf das Signal anwende, aber diese ist auch noch beeinflusst von dem genannten Bayerpattern im allgemeinen.
Denn, selbst wenn ich alle 4 Farbinformationen aus den vier Bayerpixeln entnehmen würde und diese zusammenrechne, habe ich trotzdem einen örtlichen Versatz durch das Bayerpattern. Die 4 Farbinformationen sind zwar alle innerhalb meines neu generierten Downgesampelten Pixels, aber im Gegensatz zu einem Foveon Sensor (bei dem die einzelnen Farbpixel nicht nebeneinander, sondern übereinander liegen, was eine genauere Farbwiedergabe ermöglicht, da hier die komplette Farbinterpolation entfällt), oder einem Wellenlängendetektor, der die genaue Farbwellenlänge für den Pixel messen könnte, hat man hier immer noch einen Örtlichen Versatz und muss die anderen 3 Farbinformationen für jeden einzelnen Pixel interpolieren, da jeder einzelne Pixel nur reine Helligkeitsinformationen aufnimmt, welche sich lediglich durch den vorgelagerten Farbfilter des Bayerpatterns unterscheiden, was natürlich zu Ungenauigkeiten führt, weil durch den Farbfilter nur je eine Farbe an dem Pixel ankommt und die restlichen Farben für diesen Pixel aus den umliegenden Pixeln interpoliert werden muss.
Das ist allerdings auch absolutes Pixelpeeping und Nerd Talk.
Aber es ist tatsächlich ein Unterschied, wie das Signal entsteht.
In der Praxis ist es bei den heutigen Auflösungen und vor allem Wiedergabemedien meistens völlig uninteressant.
Fazit:
4:2:0 reicht meistens aus, falls du keinen der oben genannten Einsatzzwecke hast.
Liebste Grüße
Jesus
JuliaLL hat geschrieben: ↑Do 05 Feb, 2026 21:12
Hallo zusammen,
ich habe mir als „Immer-dabei-Kamera“ die Panasonic S9 gekauft.
Sie kann sowohl in 6K 4:2:0 als auch in 4K 4:2:2 aufnehmen.
Ich habe nun Testaufnahmen in beiden Formaten gemacht, aber ich kann zwischen den 4:2:2- und 4:2:0-Videos keinen sichtbaren Unterschied erkennen (abgesehen von der höheren Auflösung bei 6K).
Theoretisch müsste das 4:2:2‑Material doch im Farbbereich Vorteile haben, oder?
Könnt ihr mich hierzu bitte etwas aufschlauen?
Vielen Dank für eure Hilfe!