Video DSLR & Großsensor Kameras Allgemein Forum



Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0



Besonderheiten, Pro und Contra sowie Fragen zu digitalen (Spiegelreflex-)Kameras mit Videofunktion sowie Cine-Camcordern mit großem Sensor
Antworten
Darth Schneider
Beiträge: 27143

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Darth Schneider »

Welche aktuellen Kameras bieten heute überhaupt noch 4:2:1 ?



Jott
Beiträge: 23467

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

Blackbox hat geschrieben: ↑Sa 14 Feb, 2026 16:32 Danke, endlich mal verständlich erklärt!
Heisst dann für die Praxis zB, dass bei Greenscreen mit 4:2:0 die ggf. auftretenden grünen Säume auf den Schultern durch Hochformataufnahme reduziert werden können?
Früher - vor HD - hatte man in der Tat Personen vor Greenscreen vertikal aufgenommen, wenn irgend möglich. Allerdings einfach nur, weil die Auflösung - quasi Pixel pro Person - so höher war.



iasi
Beiträge: 30163

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

Sind wir jetzt mit der Infragestellung von Pixelauflösung durch und arbeiten uns nun an der Farbauflösung ab?

Währenddessen feiern wir aber das unkomprimierte Arri-Raw, obwohl doch eigentlich H265 mit GOP und 4:2:0 völlig ausreichend ist. ;):)



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

JuliaLL hat geschrieben: ↑Sa 14 Feb, 2026 16:36 Jetzt habe ich doch auch noch eine "Nerd-Frage" zum Thema "Bayer-Sensoren nehmen nur in 4:2:0 auf" - evtl. kann Jesus hier wieder helfen und Licht ins Dunkle bringen.

Habe ich das richtig verstanden, dass das daran liegt, dass Bayer‑Sensoren ohnehin nur die RGB‑Werte interpolieren und daher gar kein "natives" 4:2:2 (oder 4:4:4) liefern können?

Und ein kleiner Ausflug in die Praxis:
Deshalb bieten viele Kameras bei ihrer höchsten Auflösung auch "nur" 4:2:0 an, wie zum Beispiel die Panasonic LUMIX S1RII bei 8,1K.

Und Kameras wie etwa die Canon EOS C500 Mark II können nur deshalb bei ihrer höchsten Auflösung in 4:2:2 aufnehmen, weil der Sensor 20,8 MP besitzt und somit etwas Oversampling möglich ist?

Habe ich das so grob richtig verstanden?
Das ist falsch.
Ich habe das versucht im ersten Beitrag zu erklären.
Bayer Sensor und 4:2:0 sind zwei völlig unterschiedliche Dinge.

Bei einem Bayer Sensor hast du für JEDEN einzelnen Bildpunkt eine volle Farbinformation.
Je nach Farbfilter entweder für Rot, oder für Grün, oder für Blau.
Die restlichen Farben und AUCH die Helligkeit! werden interpoliert.
Das ist also etwas völlig anderes, als nur 2 Farbdifferenzinformationen für 8 Pixel zu haben bei 4:2:0.
Falls das Debayering/Demosaicing ein Problem darstellen sollte, wäre folglich schon die erste 4 (Luminanz) bei 4:2:0 falsch, weil es diesen Wert tatsächlich nirgendwo bei einem Pixel nativ gibt. (es sei denn du hast zufällig genau auf diesem einen Pixel reines Rot, Grün oder Blau.)

Zur Veranschaulichung hier der Bildverarbeitungsablauf:
  • Zuerst werden die Raw Daten aus dem Sensor ausgelesen
  • Dann gibt es eine Black-Level-Subtraktion & Fixed-Pattern-Noise-Korrektur
  • Dann erfolgt die ISO-Verstärkung und gegebenenfalls die Sensorlinearisierung
  • Dann kommt die Whitebalance (meistens vor, manchmal auch nach dem Debayering)
  • Dann findet das Debayering statt und dein Ergebnis ist ein 4:4:4 RGB
    Hochwertige Algorithmen (z. B. Gradient-basiert, Malvar-He-Cutler, AHD, VNG) vermeiden hierbei auch Farbsäume an Kanten.
    An diesem Punkt hat man ein volles RGB Signal!
  • Als nächstes kommt die Farbraumtransformation von von Camera-RGB (Sensor-spezifisch) in den Arbeitsfarbraum (z. B. Rec.709, DCI-P3, ARRI Wide Gamut, Rec.2020, etc.).
    Gegebenenfalls auch noch die Anwendung einer Gammakurve (S-Log3, V-Log, C-Log, ARRILogC etc.), um den Dynamikumfang für einen kleineren 8 oder 10 Bit Codec zu komprimieren
  • Dann kommen alle Bildverbesserungen, wie Objektivkorrektur, Schärfe, Kontrast, Rauschunterdrückung usw.
  • Dann kommt gegebenenfalls die Skalierung auf die Zielauflösung, falls nötig
  • Dann wird das 4:4:4 RGB in YCbCr umgewandelt, um die Datenreduktion durch Farbunterabtastung nutzen zu können
  • Und erst dann kommt die Farbunterabtastung.
    4:4:4, 4:2:2, 4:2:0
  • Danach kommt die Quantisierung mit 8, 10 oder 12 Bit
  • Danach das Encoding in h264, h265, h266 oder ähnliches
  • Dann wird alles zusammengemuxt (Audio, Video und Mediadaten zusammen in einen Container geschrieben (mp4, mov etc.)
  • Als letztes wird es auf die Speicherkarte geschrieben
Du kannst also sehr wohl ein 4:4:4 oder 4:2:2 Signal aus einem Bayerpatternsensor herausbekommen.
Völlig ohne Oversampling.

So gut wie jede Cinekamera verwendet einen Bayersensor, die einzigen, die seit 2020 davon abweichen sind die neuen High End Modelle von Blackmagic, die einen RGBW Sensor haben.
Der hat zwar eine höhere Lichtempfindlichkeit, aber eine schlechtere Farbauflösung. Dafür sind die mittlerweile am höchsten aufgelöst mit bis zu 17K.

Jeder andere hat Bayersensoren und bei den Cinekameras ist es normal, das die maximale Ausgabeauflösung auch die maximale native Sensorauflösung ist, also kein Oversampling stattfindet.

Bei Volumenmodellen im Cine Bereich findet man ausschließlich Bayer Sensoren.
  • ARRI (ALEXA 35, Mini LF, 65 usw.) --> 100 % Bayer (Arri gilt als der Benchmark in Hollywood)
  • RED (V-Raptor, Komodo-X, Monstro usw.) -->100 % Bayer
  • Sony (Venice 2, Burano, FX9, FX6, FX3, FX30, CineAlta usw.) --> 100 % Bayer
  • Canon (C300 Mark III, C500 Mark II, C70 usw.) -->100 % Bayer
  • Panasonic, Fujifilm (GFX ETERNA usw.) und die meisten Hybrid-Cine-Kameras --> 100% Bayer
Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.

Soviel zu Bayerpattern Sensoren.
Offensichtlich reicht die Qualität eines hervorragend gedebayerten Sensors für Maximale Ansprüche aus.

Die Idee, dass man bei einem Bayerpattern Sensor durch Oversampling die echte volle Farbauflösung hat ist übrigens auch falsch.
Die Annahme ist, dass man durch zum Beispiel die 4-fache Auflösung, also zum Beispiel 8K -> 4K komplett alle Farbinformationen hat,
klingt im ersten Moment logisch weil man ja für den einen Bildpunkt dann beide Grünpixel, den Rotpixel und den Blaupixel hat.

Das ist aber falsch!

Denn:
  • Die Fläche des Pixels ist nun auch größer geworden (viermal so groß)
  • Daraus resultiert, dass man statt der vollen Farbauflösung des Pixels nun:
    • 50% Grün Information (2x Grünpixel / die Hälfte der Fläche)
    • 25% Rot Information (1x Rotpixel / ein Viertel der Fläche)
    • 25% Blau Information (1x Blaupixel / ein Viertel der Fläche)
    hat
  • Daraus resultiert auch, dass, da wir 100% Rot, 100% Grün und 100% Blau Informationen für unsere volle Luminanzinformation brauchen, wir
    • 100% (Rot) + 100% (Grün) +100% (Blau) = 300%
    Information brauchen aber nur
    • 25% (Rot) + 50% (Grün) +25% (Blau) = 100%
    von den benötigen 300% haben.
    Normiert auf 100% sind es nur 33,3% der benötigten Information für die volle Luminanz
Das heißt NICHT, dass ein Oversampling gar keinen Sinn, oder Vorteil hätte. Ganz im Gegenteil.
Aber durch einen Bayersensor habe ich erstens nicht nur 4:2:0 Signal und zweitens durch Oversampling ebenjenes auch kein 4:4:4 Signal. Das ist einfach falsch.

100% Farbgenauigkeit bekomme ich ausschließlich theoretisch mit
  • Foveon Sensoren (Alle 3 Farbfilter liegen übereinander), hier gibt es allerdings bisher nur sehr alte Fotokameras von Sigma mit Aps-C Sensor oder kleiner. Das ist also bisher uninteressant fürs Filmen.
    An einer Vollformat Kamera mit Full-Frame Foveon X3 Sensor arbeitet Sigma seit 2018 und sie wird auch 2025 und wahrscheinlich auch nicht 2026 und vielleicht auch nie herauskommen.
  • Oder praktisch mit 3-Chip Kameras, bei denen das Licht durch ein Prisma aufgebrochen wird und an 3 einzelne Chips, je für eine Farbe aufgeteilt wird.
    Die gibt es momentan nur noch im Broadcast Bereich mit kleineren Sensoren (2/3 Zoll im kommerziellen Bereich, Ich glaube bis 1" im experimentellen Bereich)

    Vorteile sind hierbei:
    • Perfekte Farbegenauigkeit (100% genaue RGB Informationen)
    • Bessere Leistung beim Chroma Keying, insbesondere bei Echtzeit - Workflows
    • Höhere Lichtempfindlichkeit, weil die Farbfilter fehlen (bei Bayerpattern werden so ca. 2/3 des Lichts gefiltert)
    • Da es keine periodische Bayerstruktur gibt, kann man einfachere Low Pass Filter optimieren, um Moire und Alias Effekte zu vermindern und hat eine höhere Auflösung
    • Außerdem ist die Farbauflösung natürlich auch viel größer: 100% auf allen 3 Farbkanälen
Ich hoffe JETZT ist es verständlich :-)

Liebe Grüße
Jesus
Zuletzt geändert von JesusWolf am So 15 Feb, 2026 02:44, insgesamt 1-mal geändert.



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

Blackbox hat geschrieben: ↑Sa 14 Feb, 2026 16:32 Danke, endlich mal verständlich erklärt!
Heisst dann für die Praxis zB, dass bei Greenscreen mit 4:2:0 die ggf. auftretenden grünen Säume auf den Schultern durch Hochformataufnahme reduziert werden können?
Sehr gerne.
Meinst du wirklich 4:2:0?
Bei 4:2:0 macht es keinen Unterschied, ob du horizontal oder vertikal filmst, außer natürlich, dass du eine Person vertikal größer Framen kannst, aber die horizontale und vertikale Farbauflösung ist in beiden Fällen identisch.

Ausgehend von meinem Text sollte das der Fall sein:
4:2:0
Luminanz:
1111
1111
CbCr Zeile 1:
1010
CbCr Zeile 2:
0000
Es gibt also die volle Luminanzinformation in beiden Zeilen.
In der ersten Zeile genau wie bei 4:2:2 einen Pixel mit Farbdifferenzinformation und einen ohne. Also 2 Farbdifferenzinformationen in der ersten Zeile.
In der zweiten Zeile gibt es jedoch gar keine Farbdifferenzinformation!
Wenn ich dies nun auf die Chrominanz begrenze und 4 Zeilen nehme ergibt sich:
1010
0000
1010
0000

Wenn ich das um 90 Grad drehe ergibt sich:
1010
0000
1010
0000

Das sollte also bis auf das andere Framing keinen Unterschied machen.



iasi
Beiträge: 30163

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

JesusWolf hat geschrieben: ↑So 15 Feb, 2026 02:14

Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.

Na ja - auch eine Alexa 35 ist keine eierlegende Wollmilchsau. ;)

Das bei Bayer-Sensoren immer empfehlenswerte Oversampling bietet die Alexa zudem auch - wenn auch in der Mindestgröße. :)

Arri ist zudem der einzige Cine-Cam-Hersteller, der noch unkomprimiertes Raw wegschreibt - und daher auch nicht einfach mal eine Vollformat-Version des 35er-Sensor bringen kann.

Schon die Komprimierung der Raw-Formate anderer Hersteller ist nicht verlustfrei, was bedeutet, dass die ursprünglichen Raw-Daten nicht vollständig wiederhergestellt werden können.
Bei Farbunterabtastung gehen natürlich auch Daten verloren.
Da kann man dann von visual-lossless reden, um es zu beschönigen, aber den Datenverlust hat man.
Wenn man die Daten dann mit H265/GOP/4:2:0 eindampft, ist es dann doch auch mit visual-lossless schnell mal kritisch.


Übrigens:
Die Sensoren der Blackmagic 12k/17k-Kameras sollte man nicht vergessen.



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

iasi hat geschrieben: ↑So 15 Feb, 2026 02:47
JesusWolf hat geschrieben: ↑So 15 Feb, 2026 02:14

Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.

Na ja - auch eine Alexa 35 ist keine eierlegende Wollmilchsau. ;)

Das bei Bayer-Sensoren immer empfehlenswerte Oversampling bietet die Alexa zudem auch - wenn auch in der Mindestgröße. :)

Arri ist zudem der einzige Cine-Cam-Hersteller, der noch unkomprimiertes Raw wegschreibt - und daher auch nicht einfach mal eine Vollformat-Version des 35er-Sensor bringen kann.

Schon die Komprimierung der Raw-Formate anderer Hersteller ist nicht verlustfrei, was bedeutet, dass die ursprünglichen Raw-Daten nicht vollständig wiederhergestellt werden können.
Bei Farbunterabtastung gehen natürlich auch Daten verloren.
Da kann man dann von visual-lossless reden, um es zu beschönigen, aber den Datenverlust hat man.
Wenn man die Daten dann mit H265/GOP/4:2:0 eindampft, ist es dann doch auch mit visual-lossless schnell mal kritisch.


Übrigens:
Die Sensoren der Blackmagic 12k/17k-Kameras sollte man nicht vergessen.
Die habe ich ja hier angesprochen:
So gut wie jede Cinekamera verwendet einen Bayersensor, die einzigen, die seit 2020 davon abweichen sind die neuen High End Modelle von Blackmagic, die einen RGBW Sensor haben.
Der hat zwar eine höhere Lichtempfindlichkeit, aber eine schlechtere Farbauflösung. Dafür sind die mittlerweile am höchsten aufgelöst mit bis zu 17K.
Das die meisten Kameras AUCH Oversampling bei geringeren Auflösungen können ist mir schon bewusst.
Ich bin auch ein großer Fan von Oversampling, gerade im Hinblick auf maximale Auflösung.
Das ändert aber nichts an der Aussage:
Bayer ist kein 4:2:0 Sensor.
Und durch Oversampling generiert man auch kein perfektes 3-Chip RGB Bild.

Was die Alexa angeht: Ich habe nie behauptet, dass sie die eierlegende Wollmilchsau für alle Aufnahmesituationen ist.
Aber sie hat definitiv das beste Bild.
Ich habe mal die 2,8K Alexa gegen eine 6k Red Epic, war es glaube ich, durchgemessen.
Ich war immer ein Red Fan, aber da musste ich einsehen, dass die Alexa trotz der viel geringeren Pixelanzahl die höhere Auflösung hatte UND auch das bessere Bild.
Die haben wirklich das beste in Camera Debayering und die Beste Bildverarbeitung.

Ich verstehe nicht, was das unkomprimierte Raw mit der Sensorgröße zu tun hat?
Die hat höchstens Einfluss auf die Auslesegeschwindigkeit.
Außerdem gibt es eine 65mm Arri Kamera, die ALEXA 65 (2014) und die neue ALEXA 265 (2024) die hat einen 54,12 x 25,58 mm Sensor (das ist sogar größer als Foto Vollformat mit 36x24)
Es macht für Arri aber auch gar keinen Sinn einen Foto Vollformat Sensor zu entwickeln, weil es reine Cine Cams sind.
Da gab es S35 (~APS-C, das ist das Film 35mm Vollformat weil der Film Vertikal, statt horizontal geführt wurde) und 65mm.
Foto Vollformat ist eine Neuentwicklung in der Filmlandschaft, die durch die Hybridkameras entstanden ist.
Desweiteren macht es absolut Sinn mindestens eine Laufzeitkomprimierung auf Videodaten anzuwenden. Das geht theoretisch auch komplett verlustfrei.
Eine Farbunterabtastung gibt es bei echtem Raw aber nicht, es gibt ja noch gar keine Daten die man unterabtasten könnte.
Ohne Debayering ist das nicht möglich.

Natürlich hat man bei einer verlustbehafteten Datenkomprimierung einen Datenverlust. Das ist ja Sinn der Sache...?



iasi
Beiträge: 30163

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

JesusWolf hat geschrieben: ↑So 15 Feb, 2026 15:10
Und durch Oversampling generiert man auch kein perfektes 3-Chip RGB Bild.


Natürlich hat man bei einer verlustbehafteten Datenkomprimierung einen Datenverlust. Das ist ja Sinn der Sache...?
Bei dir klingt das wie ein Naturgesetz.
Dabei erhält man von einem 8k-Sensor durchaus 4k-R-, 4k-B- und sogar mehr als 4k-G-Werte.


Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.


Um die Daten möglichst stark eindampfen zu können, sind GOP und 4:2:0 recht effiziente Methoden. Aber sie führen nun mal zu erheblichen Datenverlusten/-verfälschungen.
Beim Original mag man davon nicht viel sehen, aber schon bei der ersten Generation und vor allem der Bearbeitung treten sie hervor.



ffm
Beiträge: 377

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von ffm »

Man hätte ihn warnen müssen



vaio
Beiträge: 1365

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von vaio »

iasi hat geschrieben: ↑So 15 Feb, 2026 16:07 Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.

Es gibt verlustfreie Datenkompressionen und dann gibt es Verlustbehaftete.

In der hier beschriebenen Anwendung reden wir sehr wohl von einer verlustbehafteten Datenreduktion (Komprimierung). Es wäre auch nicht sinnvoll in einen Codec zu wandeln, der explizit für eine reduzierte Datenmenge im Sinne einer geringeren Übertragungslast und/oder zum Speichern mit verminderten Speicherbedarf gedacht ist. Das alles mit möglichst optimierter Qualität.
Stell dir vor, der würde wieder zur ursprünglichen Größe extrahieren… Bitte beschäftige dich mit dem Sinn von verlustfreier und verlustbehafteter Komprimierung. Weiterhin mit den verschiedenen Codecs im Sinne von Anwenderspezifischen Bedürfnissen.
Zurück in die Zukunft
Zuletzt geändert von vaio am So 15 Feb, 2026 17:17, insgesamt 1-mal geändert.



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

iasi hat geschrieben: ↑So 15 Feb, 2026 16:07
JesusWolf hat geschrieben: ↑So 15 Feb, 2026 15:10
Und durch Oversampling generiert man auch kein perfektes 3-Chip RGB Bild.


Natürlich hat man bei einer verlustbehafteten Datenkomprimierung einen Datenverlust. Das ist ja Sinn der Sache...?
Bei dir klingt das wie ein Naturgesetz.
Dabei erhält man von einem 8k-Sensor durchaus 4k-R-, 4k-B- und sogar mehr als 4k-G-Werte.


Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.


Um die Daten möglichst stark eindampfen zu können, sind GOP und 4:2:0 recht effiziente Methoden. Aber sie führen nun mal zu erheblichen Datenverlusten/-verfälschungen.
Beim Original mag man davon nicht viel sehen, aber schon bei der ersten Generation und vor allem der Bearbeitung treten sie hervor.
ist es.

Wie ich oben ausführlich erklärt habe erhälst du eben keine vollen 4k RGB Werte. Lediglich Teile ebendieser.
Du wirst definitiv einen Unterschied zwischen einem 8k-4k Bild und einem 3 Chip 4k Bild haben.

Bei Verlustbehafteten Komprimierungen (wie oben geschrieben) schon.
Steckt ja schon im Namen drin. Ich opfere Daten zu Gunsten der größeren Datenreduktion.
Wie weit ich damit gehe und ob das sichtbar wird, liegt dann in der Stärke der verlustbehaften Komprimierung.
Aber Verlustbehaftet bedeutet nunmal zwangsweise Verlust von Daten.
Ist eigentlich ziemlich einfach.

Ein GOP führt nicht automatisch zu Datenverlusten, oder Verfälschungen und erst recht nicht zu erheblichen.
Ich kann mit einer Group of Pictures auch komplett verlustfrei massiv viele Daten sparen.

Ein einfaches Beispiel:
Du hast ein schwarzes Bild und ein rotes Viereck, das von links nach rechts wandert.
Du kannst entweder jedes einzelne Bild mit vollen RGB Werten für jeden einzelnen Pixel abspeichern, oder
Du sagst: Ich habe einen Hintergrund, der ist schwarz und einen roten Kasten mit Kantenlänge xy und dieser befindet sich anfangs an Position XY und im zweiten Bild Bei Position X2Y usw.
Beim ersten hast du alle Informationen abgespeichert und viele Daten verbraucht und eine genaue Bewegungsauflösung.
Beim zweiten exakt das selbe Ergebnis, aber mit viel weniger Datenverbrauch.

Nun machen wir es komplexer:
Im Hintergrund ein ultrakomplexes Bild. Meinetwegen ein Pixelgenaues Schachbrettmuster mit allen Farben, die es gibt.
Und das Viereck ist nun ein Video mit einer Maximalen Actionsequenz aus Transformers, bei dem kein Bild dem anderen gleicht.
Variante 1: Jeder Pixel wird wieder einzeln mit RGB Werten für jeden einzelnen Pixel abgespeichert.
Variante 2: man speichert den Hintergrund mit allen Details im ersten Bild und sagt: Der Kasten hat Größe XY und dieser wandert von Position XY zu X2Y und die Bilddaten aus diesem Kasten muss ich bei jedem Bild abspeichern. Aber eben NUR die Daten aus dem kleinen Kasten.
Bei beiden Verfahren kann ich das Video mit allen feinsten Details wiederherstellen, zu 100%.
Aber bei der zweiten Variante habe ich massiv Daten gespart.

4:2:0 hat natürlich erheblichen Datenverlust zur Folge.
Dafür spart man sich 50% der Datenmenge.



iasi
Beiträge: 30163

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

JesusWolf hat geschrieben: ↑So 15 Feb, 2026 17:17
iasi hat geschrieben: ↑So 15 Feb, 2026 16:07

Bei dir klingt das wie ein Naturgesetz.
Dabei erhält man von einem 8k-Sensor durchaus 4k-R-, 4k-B- und sogar mehr als 4k-G-Werte.


Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.


Um die Daten möglichst stark eindampfen zu können, sind GOP und 4:2:0 recht effiziente Methoden. Aber sie führen nun mal zu erheblichen Datenverlusten/-verfälschungen.
Beim Original mag man davon nicht viel sehen, aber schon bei der ersten Generation und vor allem der Bearbeitung treten sie hervor.
ist es.

Wie ich oben ausführlich erklärt habe erhälst du eben keine vollen 4k RGB Werte. Lediglich Teile ebendieser.
Du wirst definitiv einen Unterschied zwischen einem 8k-4k Bild und einem 3 Chip 4k Bild haben.
Bei einem typischen Bayer-Sensor hast du 1/4 der gesamten Sensel für R und 1/4 für B. Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.


JesusWolf hat geschrieben: ↑So 15 Feb, 2026 17:17 Bei Verlustbehafteten Komprimierungen (wie oben geschrieben) schon.
Steckt ja schon im Namen drin. Ich opfere Daten zu Gunsten der größeren Datenreduktion.
Wie weit ich damit gehe und ob das sichtbar wird, liegt dann in der Stärke der verlustbehaften Komprimierung.
Aber Verlustbehaftet bedeutet nunmal zwangsweise Verlust von Daten.
Ist eigentlich ziemlich einfach.

Ein GOP führt nicht automatisch zu Datenverlusten, oder Verfälschungen und erst recht nicht zu erheblichen.
Ich kann mit einer Group of Pictures auch komplett verlustfrei massiv viele Daten sparen.

Ein einfaches Beispiel:
Du hast ein schwarzes Bild und ein rotes Viereck, das von links nach rechts wandert.
Du kannst entweder jedes einzelne Bild mit vollen RGB Werten für jeden einzelnen Pixel abspeichern, oder
Du sagst: Ich habe einen Hintergrund, der ist schwarz und einen roten Kasten mit Kantenlänge xy und dieser befindet sich anfangs an Position XY und im zweiten Bild Bei Position X2Y usw.
Beim ersten hast du alle Informationen abgespeichert und viele Daten verbraucht und eine genaue Bewegungsauflösung.
Beim zweiten exakt das selbe Ergebnis, aber mit viel weniger Datenverbrauch.

Nun machen wir es komplexer:
Im Hintergrund ein ultrakomplexes Bild. Meinetwegen ein Pixelgenaues Schachbrettmuster mit allen Farben, die es gibt.
Und das Viereck ist nun ein Video mit einer Maximalen Actionsequenz aus Transformers, bei dem kein Bild dem anderen gleicht.
Variante 1: Jeder Pixel wird wieder einzeln mit RGB Werten für jeden einzelnen Pixel abgespeichert.
Variante 2: man speichert den Hintergrund mit allen Details im ersten Bild und sagt: Der Kasten hat Größe XY und dieser wandert von Position XY zu X2Y und die Bilddaten aus diesem Kasten muss ich bei jedem Bild abspeichern. Aber eben NUR die Daten aus dem kleinen Kasten.
Bei beiden Verfahren kann ich das Video mit allen feinsten Details wiederherstellen, zu 100%.
Aber bei der zweiten Variante habe ich massiv Daten gespart.

4:2:0 hat natürlich erheblichen Datenverlust zur Folge.
Dafür spart man sich 50% der Datenmenge.
Ja. Die Idee hinter GOP ist schon klar.
Es wird davon ausgegangen, dass sich zwischen mehreren Bildern nicht alle Pixel ändern.
Man speichert also nur die Veränderungen und benötigt weniger Daten.
Nur werden dann Fans cinematischer Bilder aufschreien, denn es sind gerade die Unterschiede in der Kornstruktur von Negativmaterial zwischen aufeinander folgenden Bildern, die einen weichen Fluss erzeugen. Dieses Chaos kann jedoch eine GOP-Komprimierung gar nicht brauchen, weshalb zunächst eine NR notwendig ist.

Und richtig - 4:2:0 spart erheblich Datenmengen.

Einzig Arri wendet eine verlustfreie Komprimierung der Raw-Aufnahmen an, was den Komprimierungsfaktor aber auch sehr niedrig hält.

RedRaw ist nur visuell-verlustfrei, aber dies auch nicht in extremen Fällen. Bei einem Test u.a. mit starkem Schneefall war auch die RedRaw-Komprimierung einmal überfordert.

GOP zusammen mit 4:2:0 kommt dann natürlich nochmal schneller an die Grenze.
Zumal: Bearbeitet man dieses Material in einem Grading-Programm, werden die fehlerhaft wiederhergestellten Daten bei der folgenden Komprimierung noch weiter degenerieren.



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

iasi hat geschrieben: ↑So 15 Feb, 2026 23:14
JesusWolf hat geschrieben: ↑So 15 Feb, 2026 17:17 Wie ich oben ausführlich erklärt habe erhälst du eben keine vollen 4k RGB Werte. Lediglich Teile ebendieser.
Du wirst definitiv einen Unterschied zwischen einem 8k-4k Bild und einem 3 Chip 4k Bild haben.
Bei einem typischen Bayer-Sensor hast du 1/4 der gesamten Sensel für R und 1/4 für B.
Korrekt.
Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.
Falsch. Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
Folglich hast du zwar eine Blau Information, eine Rot Information und zwei Grün Informationen in deinem neuen Pixel aber diese machen trotzdem nur 1/4 der Fläche des neuen 4mal so großen Pixels für Blau, 1/4 des neuen 4mal so großen Pixels für Rot und 1/2 des neuen 4mal so großen Pixels für Grün aus. Dein neuer resultierender Pixel muss also trotzdem teilweise interpoliert werden.
Desweiteren würde ein 4 Chip System mit 2 Grün Chips keinen Sinn machen, denn, selbst wenn du das Grün Signal wie auch immer aufspaltest, hast du entsprechend nur noch einen Teil des grünen Lichts übrig.
Zuletzt geändert von JesusWolf am Mo 16 Feb, 2026 17:31, insgesamt 1-mal geändert.



Mantas
Beiträge: 1648

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Mantas »

Megaspannend JesusWolf, danke für die ausführlichen Posts und dein Wissen.

kleiner Fehler ist dir hier unterlaufen:
JesusWolf hat geschrieben: ↑So 15 Feb, 2026 15:10 Ich habe mal die 2,8K Alexa gegen eine 6k Red Epic, war es glaube ich, durchgemessen.
Ich war immer ein Red Fan, aber da musste ich einsehen, dass die Alexa trotz der viel geringeren Pixelanzahl die höhere Auflösung hatte UND auch das bessere Bild.
Die haben wirklich das beste in Camera Debayering und die Beste Bildverarbeitung.
du solltest nix gegen RED und nun Nikon bei iasi sagen ;)
JesusWolf hat geschrieben: ↑Mo 16 Feb, 2026 13:32 Falsch. Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
krass, so habe ich es bis jetzt noch nie gesehen.

wie ist denn deine Meinung zu den BM RGBW Sensoren im Vergleich zu Bayer? Was zb die Auflösung angeht, ist 12k Vergleichbar mit 8k Bayer?



iasi
Beiträge: 30163

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

JesusWolf hat geschrieben: ↑Mo 16 Feb, 2026 13:32
iasi hat geschrieben: ↑So 15 Feb, 2026 23:14
Bei einem typischen Bayer-Sensor hast du 1/4 der gesamten Sensel für R und 1/4 für B.
Korrekt.
Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.
Falsch. Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
Folglich hast du zwar eine Blau Information, eine Rot Information und zwei Grün Informationen in deinem neuen Pixel aber diese machen trotzdem nur 1/4 der Fläche des neuen 4mal so großen Pixels für Blau, 1/4 des neuen 4mal so großen Pixels für Rot und 1/2 des neuen 4mal so großen Pixels für Grün aus. Dein neuer resultierender Pixel muss also trotzdem teilweise interpoliert werden.
Desweiteren würde ein 4 Chip System mit 2 Grün Chips keinen Sinn machen, denn, selbst wenn du das Grün Signal wie auch immer aufspaltest, hast du entsprechend nur noch einen Teil des grünen Lichts übrig.
Es ging mir nicht darum, dass man 4 Chips benötigt - ich stimme dir da zu: 2 grüne Chips machen wenig Sinn.
Und natürlich wird beim Debayern RGBG mit einander verrechnet. Jedoch wären ausreichend Pixelinformationen bei einem 8k-Sensor vorhanden, um die volle 4k-Farbauflösung wie bei einer 3 Chip-Kamera zu erhalten. Das ist Theorie.

In der Praxis erzielt man von einem 8k-Sensor jedoch ein perfekt debayertes 4k.

Was die 2,8k-Arri-Raw und 5k-RedRaw betrifft, kommt mir immer Skyfall in den Sinn: Der Unterschied zwischen den Alexa-Aufnahmen und den Red Epic-Luftaufnahmen stach mir damals ziemlich ins Auge.

Eine Alexa LF und Alexa 65 profitieren von ihrer Sensorfläche mit ihren Vorteilen, was die Optik betrifft. Die LF bietet bei anamorphic-Projekten und die 65 beim Breitbild signifikant größere Sensorflächen als eine Red.



Jott
Beiträge: 23467

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

Du hast vergessen zu erwähnen, dass Deakins bei Skyfall angeblich Angst vor IMAX hatte.



Darth Schneider
Beiträge: 27143

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Darth Schneider »

Das meint die AI dazu:
„Roger Deakins hatte keine direkte „Angst“ vor IMAX bei Skyfall, war aber anfangs skeptisch bezüglich der Qualität der Alexa-Aufnahmen beim Hochskalieren (Upscaling) für die riesige IMAX-Leinwand. Erste Tests zeigten unschöne Farben und einen „duplizierten“ Look, was jedoch durch Anpassungen beim Digital Intermediate (DI) gelöst wurde, sodass die Ergebnisse letztlich überzeugten.
Die wichtigsten Punkte:
Bedenken: Deakins befürchtete, dass digitale Aufnahmen der Arri Alexa auf IMAX-Größe nicht gut aussehen könnten.
Lösung: Nach dem Weglassen der internen IMAX-Verbesserungssysteme und der direkten Nutzung des DI-Outputs sah das Bild „spektakulär“ aus.
Format: Der Film wurde im 1.90:1 Format für IMAX optimiert.“

Mein Fazit:
Die Google AI hat iasis Meinung darüber teilweise übernommen.
Weil der iasi das hier so viele Male erwähnt hatte.;))))



Jott
Beiträge: 23467

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

Das hat die KI schon richtig kapiert:

„Nach dem Weglassen der internen IMAX-Verbesserungssysteme und der direkten Nutzung des DI-Outputs sah das Bild „spektakulär“ aus.“

Trotz der Kack-Arri, die nicht mal 4K konnte. Das stößt manchen sauer auf.

Egal. Der Thread geht ja im Prinzip darum, was man sehen will - oder eben nicht sehen will. Und um die sich daraus ergebenden verschiedenen Meinungen.



Darth Schneider
Beiträge: 27143

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Darth Schneider »

Es geht aber dabei immer noch um einen Bond Film und keine Highend Natur Doku.
Die Bond Girls sind auch ohne 4K scharf genug…;))



TheBubble
Beiträge: 2096

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von TheBubble »

JesusWolf hat geschrieben: ↑Mo 16 Feb, 2026 13:32 Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
Folglich hast du zwar eine Blau Information, eine Rot Information und zwei Grün Informationen in deinem neuen Pixel aber diese machen trotzdem nur 1/4 der Fläche des neuen 4mal so großen Pixels für Blau, 1/4 des neuen 4mal so großen Pixels für Rot und 1/2 des neuen 4mal so großen Pixels für Grün aus. Dein neuer resultierender Pixel muss also trotzdem teilweise interpoliert werden.
Die "Pixelfläche" hat aber im Wesentlichen mit dem Rauschverhalten zu tun, nicht mit der Auflösung der Farbkanäle. Bei genügen auflösenden Sensoren kann sich die Interpolation im Prinzip darauf beschränken, die örtlich versetzten Abtastpunkte (für R, G und B) auf einen gemeinsamen virtuellen Punk zusammenzuführen.

Von der reinen Theorie her wären allerkleinste Sensel hinter einem Tiefpass die richtige Lösung. Es geht nur in der Praxis nicht.

Die ganze Diskussion ist aber etwas übertrieben solange niemand fordert auch den Subpixel-Versatz gängiger Displays vor der Darstellung zu berücksichtigen und die Pixeldaten entsprechend anzupassen.



iasi
Beiträge: 30163

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

Darth Schneider hat geschrieben: ↑Mo 16 Feb, 2026 20:15 Das meint die AI dazu:
„Roger Deakins hatte keine direkte „Angst“ vor IMAX bei Skyfall, war aber anfangs skeptisch bezüglich der Qualität der Alexa-Aufnahmen beim Hochskalieren (Upscaling) für die riesige IMAX-Leinwand. Erste Tests zeigten unschöne Farben und einen „duplizierten“ Look, was jedoch durch Anpassungen beim Digital Intermediate (DI) gelöst wurde, sodass die Ergebnisse letztlich überzeugten.
Die wichtigsten Punkte:
Bedenken: Deakins befürchtete, dass digitale Aufnahmen der Arri Alexa auf IMAX-Größe nicht gut aussehen könnten.
Lösung: Nach dem Weglassen der internen IMAX-Verbesserungssysteme und der direkten Nutzung des DI-Outputs sah das Bild „spektakulär“ aus.
Format: Der Film wurde im 1.90:1 Format für IMAX optimiert.“

Mein Fazit:
Die Google AI hat iasis Meinung darüber teilweise übernommen.
Weil der iasi das hier so viele Male erwähnt hatte.;))))
Und weil die 2,8k der Alexa ja völlig ausreichend waren und sind, drehen auch heute noch alle damit - auch Deakins. ;)

Es sind ja schließlich so toll große Pixel.
Übrigens viel viel größere als bei dieser neumodischen Alexa 35, bei der Arri gleich 4,6k auf einen S35 gequetscht hat.
Der Schuß musste doch nach hinten losgehen. ... Oder doch nicht? :)

Jedenfalls erzählen deutsche "Filmanalysten" herum, dass Train Dreams auf klassischem Film gedreht wurde, weil die Alexa 35 mit ihren winzigen Senseln einfach keinen cinematischen Look liefern kann. ;):)



Jott
Beiträge: 23467

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

RED-Iasi hat den Skyfall-Fall nach 14 Jahren noch nicht verwunden. Arri-Katastrophe! 😎



iasi
Beiträge: 30163

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

Jott hat geschrieben: ↑Di 17 Feb, 2026 05:38 RED-Iasi hat den Skyfall-Fall nach 14 Jahren noch nicht verwunden. Arri-Katastrophe! 😎
Jott braucht immer ganz dringend das Klatsch-Drama, sonst kommt er nicht über den Tag. :)



ffm
Beiträge: 377

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von ffm »

iasi blamiert sich weiterhin



JuliaLL
Beiträge: 7

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JuliaLL »

JesusWolf hat geschrieben: ↑So 15 Feb, 2026 02:14 Das ist falsch.
Ich habe das versucht im ersten Beitrag zu erklären.
Bayer Sensor und 4:2:0 sind zwei völlig unterschiedliche Dinge.

[...]

Ich hoffe JETZT ist es verständlich :-)

Liebe Grüße
Jesus

Mega Erklärung, vielen Dank Jesus!

Vielleicht noch zwei Bonus‑Fragen - etwas vom eigentlichen Thema weg, aber Dinge, die mich trotzdem interessieren.

Wenn wir noch einmal das Praxisbeispiel der Panasonic LUMIX S1RII nehmen, die in 8,1K mit 4:2:0 aufzeichnet:
D. h. der Sensor debayert ein 4:4:4 RGB und um die Datenmenge zu sparen (warum auch immer, ggf. kann die Hardware auch nicht mehr oder man hätte noch größere Files, was auch immer) erfolgt eine Farbunterabtastung auf 4:2:0, richtig?


Und noch die Frage „über den Tellerrand“:
Hat die Sensortechnik selbst einen Einfluss auf die Farbgenauigkeit, oder hängt das ausschließlich vom verwendeten Farbfilter (in unserem Beispiel Bayer‑Pattern) ab?
Ich denke dabei an frühere Zeiten: Damals gab es 3‑CCD‑Sensoren oder „nur“ CCD‑Sensoren (bei diesen hatte ich z. B. häufig Blooming‑ bzw. Smearing‑Effekte bei hellen Lichtreflexen; allerdings nur beim Filmen, nicht beim Fotografieren).
Heute findet man fast ausschließlich CMOS‑Sensoren.



 Aktuelle Beiträge [alle Foren]
 
» Was schaust Du gerade?
von 7River - Fr 21:23
» Günstige Alternative zum Studio Display - BenQ MA270S 5K-Monitor mit Thunderbolt 4
von cantsin - Fr 21:21
» YouTuber Markiplier dreht erfolgreichen Kinofilm im Alleingang
von iasi - Fr 20:43
» Honor Robot Phone - erstes Smartphone mit integrierter Ausklapp-Gimbalkamera
von Jott - Fr 17:51
» Import in FCP nur über Umweg
von Jott - Fr 17:22
» Apple stellt mit MacBook Neo günstigstes MacBook mit A18 Pro mobiler CPU vor
von Totao - Fr 16:01
» Shape mit neuen, günstigen Sony FX3/FX30 und Nikon ZR Creator Rigs
von slashCAM - Fr 15:36
» Sängerin für No-Budget-Spielfilmprojekt gesucht (Raum Köln / Hennef Sieg)
von joerg-emil - Fr 14:31
» Nikon verklagt Hersteller von Z-Mount Objektiven - in Zukunft weniger und teurer?
von GaToR-BN - Fr 14:00
» KI unterstützter Schnitt - Was kann der Adobe Firefly Online Video Editor?
von slashCAM - Fr 12:21
» DV-Format (MiniDV) platzsparend archivieren
von Jott - Fr 11:16
» Neue Umfrage: Was bremst Deinen Workflow aktuell am meisten?
von tom - Fr 10:53
» Fake oder nicht? Image Whisperer - neues kostenloses Profi-Tool erkennt KI-Bilder
von Bluboy - Do 23:06
» GoPro scheint an einer kompakten Cine-Kamera zu arbeiten
von Magnetic - Do 12:35
» Mavis Camera v7 für iOS - überarbeitet, kostenlos und mit iPad-Support
von Uli Plank - Do 7:14
» Regelmäßige Bildaussetzer bei Wiedergabe von Video8-Kassetten
von Blackbox - Do 5:23
» Neue Apple MacBook Pro und Air Modelle, erstmals auch mit M5 Pro und M5 Max
von berlin123 - Mi 20:02
» Sachtler DV8 Counterbalance zu stark: Justierbar?
von pillepalle - Mi 14:39
» Welche Videokamera für Theateraufführung
von Karlz - Mi 12:26
» Nikon ZR in der Praxis: 6K 50p RED RAW Monster für 2.349,- Euro mit klassenbester Colorscience?
von Bildlauf - Mi 11:12
» ARRI Farb-Science wandert in Consumer-Smartphones von Honor
von philr - Di 21:12
» Sirui Saturn & Venus Anamorphoten jetzt 56 % billiger
von MeisterAlterKlassen - Di 17:23
» Kleines Upgrade und neues Topmodell - Apple Studio Display und Studio Display XDR
von slashCAM - Di 17:09
» Nikon ZR Rigging-Setups - von der Hosentaschen-RED bis zum Cine-Rig: 6 Setups vorgestellt
von slashCAM - Di 12:12
» Kinotip: Marty Supreme
von cantsin - Di 6:52
» Apple iPhone 17e: A19 Chip, doppelter Speicher – zum gleichen Preis wie Vorgänger
von slashCAM - Mo 18:33
» Behringer Flow 8 - Digitales Mini-Mischpult mit sorgsam gewählten Kompromissen
von CameraRick - Mo 17:38
» Seedance 2.0 = Game Changer?
von iasi - Mo 15:25
» Orico MetaBox vorgestellt - hybrides NAS für Festplatten und NVMe SSDs speziell für Cutter
von susy - Mo 13:23
» WIEVIEL verdienen Schauspieler? ANDREA LAMBSDORFF
von Nigma1313 - Mo 9:52
» Der Fluch der KI-Kamera
von cantsin - Mo 9:25
» Vergleich Autofokus GH7 zu Lumix S
von cantsin - Mo 6:56
» Leica steht angeblich zum Verkauf, u.a. China interessiert
von Jan - So 20:41
» Drei Tage Apple Mega-Event mit Einsteiger-MacBook und MacBooks Pro mit M5
von cantsin - So 19:03
» So arbeitet der Lawinenwarndienst
von gammanagel - So 18:49