Video DSLR & Großsensor Kameras Allgemein Forum



Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0



Besonderheiten, Pro und Contra sowie Fragen zu digitalen (Spiegelreflex-)Kameras mit Videofunktion sowie Cine-Camcordern mit großem Sensor
Antworten
Darth Schneider
Beiträge: 27756

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Darth Schneider »

Welche aktuellen Kameras bieten heute überhaupt noch 4:2:1 ?



Jott
Beiträge: 23770

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

Blackbox hat geschrieben: Sa 14 Feb, 2026 16:32 Danke, endlich mal verständlich erklärt!
Heisst dann für die Praxis zB, dass bei Greenscreen mit 4:2:0 die ggf. auftretenden grünen Säume auf den Schultern durch Hochformataufnahme reduziert werden können?
Früher - vor HD - hatte man in der Tat Personen vor Greenscreen vertikal aufgenommen, wenn irgend möglich. Allerdings einfach nur, weil die Auflösung - quasi Pixel pro Person - so höher war.



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

Sind wir jetzt mit der Infragestellung von Pixelauflösung durch und arbeiten uns nun an der Farbauflösung ab?

Währenddessen feiern wir aber das unkomprimierte Arri-Raw, obwohl doch eigentlich H265 mit GOP und 4:2:0 völlig ausreichend ist. ;):)



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

JuliaLL hat geschrieben: Sa 14 Feb, 2026 16:36 Jetzt habe ich doch auch noch eine "Nerd-Frage" zum Thema "Bayer-Sensoren nehmen nur in 4:2:0 auf" - evtl. kann Jesus hier wieder helfen und Licht ins Dunkle bringen.

Habe ich das richtig verstanden, dass das daran liegt, dass Bayer‑Sensoren ohnehin nur die RGB‑Werte interpolieren und daher gar kein "natives" 4:2:2 (oder 4:4:4) liefern können?

Und ein kleiner Ausflug in die Praxis:
Deshalb bieten viele Kameras bei ihrer höchsten Auflösung auch "nur" 4:2:0 an, wie zum Beispiel die Panasonic LUMIX S1RII bei 8,1K.

Und Kameras wie etwa die Canon EOS C500 Mark II können nur deshalb bei ihrer höchsten Auflösung in 4:2:2 aufnehmen, weil der Sensor 20,8 MP besitzt und somit etwas Oversampling möglich ist?

Habe ich das so grob richtig verstanden?
Das ist falsch.
Ich habe das versucht im ersten Beitrag zu erklären.
Bayer Sensor und 4:2:0 sind zwei völlig unterschiedliche Dinge.

Bei einem Bayer Sensor hast du für JEDEN einzelnen Bildpunkt eine volle Farbinformation.
Je nach Farbfilter entweder für Rot, oder für Grün, oder für Blau.
Die restlichen Farben und AUCH die Helligkeit! werden interpoliert.
Das ist also etwas völlig anderes, als nur 2 Farbdifferenzinformationen für 8 Pixel zu haben bei 4:2:0.
Falls das Debayering/Demosaicing ein Problem darstellen sollte, wäre folglich schon die erste 4 (Luminanz) bei 4:2:0 falsch, weil es diesen Wert tatsächlich nirgendwo bei einem Pixel nativ gibt. (es sei denn du hast zufällig genau auf diesem einen Pixel reines Rot, Grün oder Blau.)

Zur Veranschaulichung hier der Bildverarbeitungsablauf:
  • Zuerst werden die Raw Daten aus dem Sensor ausgelesen
  • Dann gibt es eine Black-Level-Subtraktion & Fixed-Pattern-Noise-Korrektur
  • Dann erfolgt die ISO-Verstärkung und gegebenenfalls die Sensorlinearisierung
  • Dann kommt die Whitebalance (meistens vor, manchmal auch nach dem Debayering)
  • Dann findet das Debayering statt und dein Ergebnis ist ein 4:4:4 RGB
    Hochwertige Algorithmen (z. B. Gradient-basiert, Malvar-He-Cutler, AHD, VNG) vermeiden hierbei auch Farbsäume an Kanten.
    An diesem Punkt hat man ein volles RGB Signal!
  • Als nächstes kommt die Farbraumtransformation von von Camera-RGB (Sensor-spezifisch) in den Arbeitsfarbraum (z. B. Rec.709, DCI-P3, ARRI Wide Gamut, Rec.2020, etc.).
    Gegebenenfalls auch noch die Anwendung einer Gammakurve (S-Log3, V-Log, C-Log, ARRILogC etc.), um den Dynamikumfang für einen kleineren 8 oder 10 Bit Codec zu komprimieren
  • Dann kommen alle Bildverbesserungen, wie Objektivkorrektur, Schärfe, Kontrast, Rauschunterdrückung usw.
  • Dann kommt gegebenenfalls die Skalierung auf die Zielauflösung, falls nötig
  • Dann wird das 4:4:4 RGB in YCbCr umgewandelt, um die Datenreduktion durch Farbunterabtastung nutzen zu können
  • Und erst dann kommt die Farbunterabtastung.
    4:4:4, 4:2:2, 4:2:0
  • Danach kommt die Quantisierung mit 8, 10 oder 12 Bit
  • Danach das Encoding in h264, h265, h266 oder ähnliches
  • Dann wird alles zusammengemuxt (Audio, Video und Mediadaten zusammen in einen Container geschrieben (mp4, mov etc.)
  • Als letztes wird es auf die Speicherkarte geschrieben
Du kannst also sehr wohl ein 4:4:4 oder 4:2:2 Signal aus einem Bayerpatternsensor herausbekommen.
Völlig ohne Oversampling.

So gut wie jede Cinekamera verwendet einen Bayersensor, die einzigen, die seit 2020 davon abweichen sind die neuen High End Modelle von Blackmagic, die einen RGBW Sensor haben.
Der hat zwar eine höhere Lichtempfindlichkeit, aber eine schlechtere Farbauflösung. Dafür sind die mittlerweile am höchsten aufgelöst mit bis zu 17K.

Jeder andere hat Bayersensoren und bei den Cinekameras ist es normal, das die maximale Ausgabeauflösung auch die maximale native Sensorauflösung ist, also kein Oversampling stattfindet.

Bei Volumenmodellen im Cine Bereich findet man ausschließlich Bayer Sensoren.
  • ARRI (ALEXA 35, Mini LF, 65 usw.) --> 100 % Bayer (Arri gilt als der Benchmark in Hollywood)
  • RED (V-Raptor, Komodo-X, Monstro usw.) -->100 % Bayer
  • Sony (Venice 2, Burano, FX9, FX6, FX3, FX30, CineAlta usw.) --> 100 % Bayer
  • Canon (C300 Mark III, C500 Mark II, C70 usw.) -->100 % Bayer
  • Panasonic, Fujifilm (GFX ETERNA usw.) und die meisten Hybrid-Cine-Kameras --> 100% Bayer
Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.

Soviel zu Bayerpattern Sensoren.
Offensichtlich reicht die Qualität eines hervorragend gedebayerten Sensors für Maximale Ansprüche aus.

Die Idee, dass man bei einem Bayerpattern Sensor durch Oversampling die echte volle Farbauflösung hat ist übrigens auch falsch.
Die Annahme ist, dass man durch zum Beispiel die 4-fache Auflösung, also zum Beispiel 8K -> 4K komplett alle Farbinformationen hat,
klingt im ersten Moment logisch weil man ja für den einen Bildpunkt dann beide Grünpixel, den Rotpixel und den Blaupixel hat.

Das ist aber falsch!

Denn:
  • Die Fläche des Pixels ist nun auch größer geworden (viermal so groß)
  • Daraus resultiert, dass man statt der vollen Farbauflösung des Pixels nun:
    • 50% Grün Information (2x Grünpixel / die Hälfte der Fläche)
    • 25% Rot Information (1x Rotpixel / ein Viertel der Fläche)
    • 25% Blau Information (1x Blaupixel / ein Viertel der Fläche)
    hat
  • Daraus resultiert auch, dass, da wir 100% Rot, 100% Grün und 100% Blau Informationen für unsere volle Luminanzinformation brauchen, wir
    • 100% (Rot) + 100% (Grün) +100% (Blau) = 300%
    Information brauchen aber nur
    • 25% (Rot) + 50% (Grün) +25% (Blau) = 100%
    von den benötigen 300% haben.
    Normiert auf 100% sind es nur 33,3% der benötigten Information für die volle Luminanz
Das heißt NICHT, dass ein Oversampling gar keinen Sinn, oder Vorteil hätte. Ganz im Gegenteil.
Aber durch einen Bayersensor habe ich erstens nicht nur 4:2:0 Signal und zweitens durch Oversampling ebenjenes auch kein 4:4:4 Signal. Das ist einfach falsch.

100% Farbgenauigkeit bekomme ich ausschließlich theoretisch mit
  • Foveon Sensoren (Alle 3 Farbfilter liegen übereinander), hier gibt es allerdings bisher nur sehr alte Fotokameras von Sigma mit Aps-C Sensor oder kleiner. Das ist also bisher uninteressant fürs Filmen.
    An einer Vollformat Kamera mit Full-Frame Foveon X3 Sensor arbeitet Sigma seit 2018 und sie wird auch 2025 und wahrscheinlich auch nicht 2026 und vielleicht auch nie herauskommen.
  • Oder praktisch mit 3-Chip Kameras, bei denen das Licht durch ein Prisma aufgebrochen wird und an 3 einzelne Chips, je für eine Farbe aufgeteilt wird.
    Die gibt es momentan nur noch im Broadcast Bereich mit kleineren Sensoren (2/3 Zoll im kommerziellen Bereich, Ich glaube bis 1" im experimentellen Bereich)

    Vorteile sind hierbei:
    • Perfekte Farbegenauigkeit (100% genaue RGB Informationen)
    • Bessere Leistung beim Chroma Keying, insbesondere bei Echtzeit - Workflows
    • Höhere Lichtempfindlichkeit, weil die Farbfilter fehlen (bei Bayerpattern werden so ca. 2/3 des Lichts gefiltert)
    • Da es keine periodische Bayerstruktur gibt, kann man einfachere Low Pass Filter optimieren, um Moire und Alias Effekte zu vermindern und hat eine höhere Auflösung
    • Außerdem ist die Farbauflösung natürlich auch viel größer: 100% auf allen 3 Farbkanälen
Ich hoffe JETZT ist es verständlich :-)

Liebe Grüße
Jesus
Zuletzt geändert von JesusWolf am So 15 Feb, 2026 02:44, insgesamt 1-mal geändert.



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

Blackbox hat geschrieben: Sa 14 Feb, 2026 16:32 Danke, endlich mal verständlich erklärt!
Heisst dann für die Praxis zB, dass bei Greenscreen mit 4:2:0 die ggf. auftretenden grünen Säume auf den Schultern durch Hochformataufnahme reduziert werden können?
Sehr gerne.
Meinst du wirklich 4:2:0?
Bei 4:2:0 macht es keinen Unterschied, ob du horizontal oder vertikal filmst, außer natürlich, dass du eine Person vertikal größer Framen kannst, aber die horizontale und vertikale Farbauflösung ist in beiden Fällen identisch.

Ausgehend von meinem Text sollte das der Fall sein:
4:2:0
Luminanz:
1111
1111
CbCr Zeile 1:
1010
CbCr Zeile 2:
0000
Es gibt also die volle Luminanzinformation in beiden Zeilen.
In der ersten Zeile genau wie bei 4:2:2 einen Pixel mit Farbdifferenzinformation und einen ohne. Also 2 Farbdifferenzinformationen in der ersten Zeile.
In der zweiten Zeile gibt es jedoch gar keine Farbdifferenzinformation!
Wenn ich dies nun auf die Chrominanz begrenze und 4 Zeilen nehme ergibt sich:
1010
0000
1010
0000

Wenn ich das um 90 Grad drehe ergibt sich:
1010
0000
1010
0000

Das sollte also bis auf das andere Framing keinen Unterschied machen.



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

JesusWolf hat geschrieben: So 15 Feb, 2026 02:14

Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.

Na ja - auch eine Alexa 35 ist keine eierlegende Wollmilchsau. ;)

Das bei Bayer-Sensoren immer empfehlenswerte Oversampling bietet die Alexa zudem auch - wenn auch in der Mindestgröße. :)

Arri ist zudem der einzige Cine-Cam-Hersteller, der noch unkomprimiertes Raw wegschreibt - und daher auch nicht einfach mal eine Vollformat-Version des 35er-Sensor bringen kann.

Schon die Komprimierung der Raw-Formate anderer Hersteller ist nicht verlustfrei, was bedeutet, dass die ursprünglichen Raw-Daten nicht vollständig wiederhergestellt werden können.
Bei Farbunterabtastung gehen natürlich auch Daten verloren.
Da kann man dann von visual-lossless reden, um es zu beschönigen, aber den Datenverlust hat man.
Wenn man die Daten dann mit H265/GOP/4:2:0 eindampft, ist es dann doch auch mit visual-lossless schnell mal kritisch.


Übrigens:
Die Sensoren der Blackmagic 12k/17k-Kameras sollte man nicht vergessen.



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

iasi hat geschrieben: So 15 Feb, 2026 02:47
JesusWolf hat geschrieben: So 15 Feb, 2026 02:14

Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.

Na ja - auch eine Alexa 35 ist keine eierlegende Wollmilchsau. ;)

Das bei Bayer-Sensoren immer empfehlenswerte Oversampling bietet die Alexa zudem auch - wenn auch in der Mindestgröße. :)

Arri ist zudem der einzige Cine-Cam-Hersteller, der noch unkomprimiertes Raw wegschreibt - und daher auch nicht einfach mal eine Vollformat-Version des 35er-Sensor bringen kann.

Schon die Komprimierung der Raw-Formate anderer Hersteller ist nicht verlustfrei, was bedeutet, dass die ursprünglichen Raw-Daten nicht vollständig wiederhergestellt werden können.
Bei Farbunterabtastung gehen natürlich auch Daten verloren.
Da kann man dann von visual-lossless reden, um es zu beschönigen, aber den Datenverlust hat man.
Wenn man die Daten dann mit H265/GOP/4:2:0 eindampft, ist es dann doch auch mit visual-lossless schnell mal kritisch.


Übrigens:
Die Sensoren der Blackmagic 12k/17k-Kameras sollte man nicht vergessen.
Die habe ich ja hier angesprochen:
So gut wie jede Cinekamera verwendet einen Bayersensor, die einzigen, die seit 2020 davon abweichen sind die neuen High End Modelle von Blackmagic, die einen RGBW Sensor haben.
Der hat zwar eine höhere Lichtempfindlichkeit, aber eine schlechtere Farbauflösung. Dafür sind die mittlerweile am höchsten aufgelöst mit bis zu 17K.
Das die meisten Kameras AUCH Oversampling bei geringeren Auflösungen können ist mir schon bewusst.
Ich bin auch ein großer Fan von Oversampling, gerade im Hinblick auf maximale Auflösung.
Das ändert aber nichts an der Aussage:
Bayer ist kein 4:2:0 Sensor.
Und durch Oversampling generiert man auch kein perfektes 3-Chip RGB Bild.

Was die Alexa angeht: Ich habe nie behauptet, dass sie die eierlegende Wollmilchsau für alle Aufnahmesituationen ist.
Aber sie hat definitiv das beste Bild.
Ich habe mal die 2,8K Alexa gegen eine 6k Red Epic, war es glaube ich, durchgemessen.
Ich war immer ein Red Fan, aber da musste ich einsehen, dass die Alexa trotz der viel geringeren Pixelanzahl die höhere Auflösung hatte UND auch das bessere Bild.
Die haben wirklich das beste in Camera Debayering und die Beste Bildverarbeitung.

Ich verstehe nicht, was das unkomprimierte Raw mit der Sensorgröße zu tun hat?
Die hat höchstens Einfluss auf die Auslesegeschwindigkeit.
Außerdem gibt es eine 65mm Arri Kamera, die ALEXA 65 (2014) und die neue ALEXA 265 (2024) die hat einen 54,12 x 25,58 mm Sensor (das ist sogar größer als Foto Vollformat mit 36x24)
Es macht für Arri aber auch gar keinen Sinn einen Foto Vollformat Sensor zu entwickeln, weil es reine Cine Cams sind.
Da gab es S35 (~APS-C, das ist das Film 35mm Vollformat weil der Film Vertikal, statt horizontal geführt wurde) und 65mm.
Foto Vollformat ist eine Neuentwicklung in der Filmlandschaft, die durch die Hybridkameras entstanden ist.
Desweiteren macht es absolut Sinn mindestens eine Laufzeitkomprimierung auf Videodaten anzuwenden. Das geht theoretisch auch komplett verlustfrei.
Eine Farbunterabtastung gibt es bei echtem Raw aber nicht, es gibt ja noch gar keine Daten die man unterabtasten könnte.
Ohne Debayering ist das nicht möglich.

Natürlich hat man bei einer verlustbehafteten Datenkomprimierung einen Datenverlust. Das ist ja Sinn der Sache...?



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

JesusWolf hat geschrieben: So 15 Feb, 2026 15:10
Und durch Oversampling generiert man auch kein perfektes 3-Chip RGB Bild.


Natürlich hat man bei einer verlustbehafteten Datenkomprimierung einen Datenverlust. Das ist ja Sinn der Sache...?
Bei dir klingt das wie ein Naturgesetz.
Dabei erhält man von einem 8k-Sensor durchaus 4k-R-, 4k-B- und sogar mehr als 4k-G-Werte.


Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.


Um die Daten möglichst stark eindampfen zu können, sind GOP und 4:2:0 recht effiziente Methoden. Aber sie führen nun mal zu erheblichen Datenverlusten/-verfälschungen.
Beim Original mag man davon nicht viel sehen, aber schon bei der ersten Generation und vor allem der Bearbeitung treten sie hervor.



ffm
Beiträge: 395

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von ffm »

Man hätte ihn warnen müssen



vaio
Beiträge: 1384

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von vaio »

iasi hat geschrieben: So 15 Feb, 2026 16:07 Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.

Es gibt verlustfreie Datenkompressionen und dann gibt es Verlustbehaftete.

In der hier beschriebenen Anwendung reden wir sehr wohl von einer verlustbehafteten Datenreduktion (Komprimierung). Es wäre auch nicht sinnvoll in einen Codec zu wandeln, der explizit für eine reduzierte Datenmenge im Sinne einer geringeren Übertragungslast und/oder zum Speichern mit verminderten Speicherbedarf gedacht ist. Das alles mit möglichst optimierter Qualität.
Stell dir vor, der würde wieder zur ursprünglichen Größe extrahieren… Bitte beschäftige dich mit dem Sinn von verlustfreier und verlustbehafteter Komprimierung. Weiterhin mit den verschiedenen Codecs im Sinne von Anwenderspezifischen Bedürfnissen.
Zurück in die Zukunft
Zuletzt geändert von vaio am So 15 Feb, 2026 17:17, insgesamt 1-mal geändert.



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

iasi hat geschrieben: So 15 Feb, 2026 16:07
JesusWolf hat geschrieben: So 15 Feb, 2026 15:10
Und durch Oversampling generiert man auch kein perfektes 3-Chip RGB Bild.


Natürlich hat man bei einer verlustbehafteten Datenkomprimierung einen Datenverlust. Das ist ja Sinn der Sache...?
Bei dir klingt das wie ein Naturgesetz.
Dabei erhält man von einem 8k-Sensor durchaus 4k-R-, 4k-B- und sogar mehr als 4k-G-Werte.


Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.


Um die Daten möglichst stark eindampfen zu können, sind GOP und 4:2:0 recht effiziente Methoden. Aber sie führen nun mal zu erheblichen Datenverlusten/-verfälschungen.
Beim Original mag man davon nicht viel sehen, aber schon bei der ersten Generation und vor allem der Bearbeitung treten sie hervor.
ist es.

Wie ich oben ausführlich erklärt habe erhälst du eben keine vollen 4k RGB Werte. Lediglich Teile ebendieser.
Du wirst definitiv einen Unterschied zwischen einem 8k-4k Bild und einem 3 Chip 4k Bild haben.

Bei Verlustbehafteten Komprimierungen (wie oben geschrieben) schon.
Steckt ja schon im Namen drin. Ich opfere Daten zu Gunsten der größeren Datenreduktion.
Wie weit ich damit gehe und ob das sichtbar wird, liegt dann in der Stärke der verlustbehaften Komprimierung.
Aber Verlustbehaftet bedeutet nunmal zwangsweise Verlust von Daten.
Ist eigentlich ziemlich einfach.

Ein GOP führt nicht automatisch zu Datenverlusten, oder Verfälschungen und erst recht nicht zu erheblichen.
Ich kann mit einer Group of Pictures auch komplett verlustfrei massiv viele Daten sparen.

Ein einfaches Beispiel:
Du hast ein schwarzes Bild und ein rotes Viereck, das von links nach rechts wandert.
Du kannst entweder jedes einzelne Bild mit vollen RGB Werten für jeden einzelnen Pixel abspeichern, oder
Du sagst: Ich habe einen Hintergrund, der ist schwarz und einen roten Kasten mit Kantenlänge xy und dieser befindet sich anfangs an Position XY und im zweiten Bild Bei Position X2Y usw.
Beim ersten hast du alle Informationen abgespeichert und viele Daten verbraucht und eine genaue Bewegungsauflösung.
Beim zweiten exakt das selbe Ergebnis, aber mit viel weniger Datenverbrauch.

Nun machen wir es komplexer:
Im Hintergrund ein ultrakomplexes Bild. Meinetwegen ein Pixelgenaues Schachbrettmuster mit allen Farben, die es gibt.
Und das Viereck ist nun ein Video mit einer Maximalen Actionsequenz aus Transformers, bei dem kein Bild dem anderen gleicht.
Variante 1: Jeder Pixel wird wieder einzeln mit RGB Werten für jeden einzelnen Pixel abgespeichert.
Variante 2: man speichert den Hintergrund mit allen Details im ersten Bild und sagt: Der Kasten hat Größe XY und dieser wandert von Position XY zu X2Y und die Bilddaten aus diesem Kasten muss ich bei jedem Bild abspeichern. Aber eben NUR die Daten aus dem kleinen Kasten.
Bei beiden Verfahren kann ich das Video mit allen feinsten Details wiederherstellen, zu 100%.
Aber bei der zweiten Variante habe ich massiv Daten gespart.

4:2:0 hat natürlich erheblichen Datenverlust zur Folge.
Dafür spart man sich 50% der Datenmenge.



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

JesusWolf hat geschrieben: So 15 Feb, 2026 17:17
iasi hat geschrieben: So 15 Feb, 2026 16:07

Bei dir klingt das wie ein Naturgesetz.
Dabei erhält man von einem 8k-Sensor durchaus 4k-R-, 4k-B- und sogar mehr als 4k-G-Werte.


Datenverlust ist zudem nicht der Sinn der Sache - eher im Gegenteil.
Datenreduktion möglichst mit einer Wiederherstellung der Daten ohne Verlust ist das Ziel und der Sinn aller Komprimierungslösungen.


Um die Daten möglichst stark eindampfen zu können, sind GOP und 4:2:0 recht effiziente Methoden. Aber sie führen nun mal zu erheblichen Datenverlusten/-verfälschungen.
Beim Original mag man davon nicht viel sehen, aber schon bei der ersten Generation und vor allem der Bearbeitung treten sie hervor.
ist es.

Wie ich oben ausführlich erklärt habe erhälst du eben keine vollen 4k RGB Werte. Lediglich Teile ebendieser.
Du wirst definitiv einen Unterschied zwischen einem 8k-4k Bild und einem 3 Chip 4k Bild haben.
Bei einem typischen Bayer-Sensor hast du 1/4 der gesamten Sensel für R und 1/4 für B. Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.


JesusWolf hat geschrieben: So 15 Feb, 2026 17:17 Bei Verlustbehafteten Komprimierungen (wie oben geschrieben) schon.
Steckt ja schon im Namen drin. Ich opfere Daten zu Gunsten der größeren Datenreduktion.
Wie weit ich damit gehe und ob das sichtbar wird, liegt dann in der Stärke der verlustbehaften Komprimierung.
Aber Verlustbehaftet bedeutet nunmal zwangsweise Verlust von Daten.
Ist eigentlich ziemlich einfach.

Ein GOP führt nicht automatisch zu Datenverlusten, oder Verfälschungen und erst recht nicht zu erheblichen.
Ich kann mit einer Group of Pictures auch komplett verlustfrei massiv viele Daten sparen.

Ein einfaches Beispiel:
Du hast ein schwarzes Bild und ein rotes Viereck, das von links nach rechts wandert.
Du kannst entweder jedes einzelne Bild mit vollen RGB Werten für jeden einzelnen Pixel abspeichern, oder
Du sagst: Ich habe einen Hintergrund, der ist schwarz und einen roten Kasten mit Kantenlänge xy und dieser befindet sich anfangs an Position XY und im zweiten Bild Bei Position X2Y usw.
Beim ersten hast du alle Informationen abgespeichert und viele Daten verbraucht und eine genaue Bewegungsauflösung.
Beim zweiten exakt das selbe Ergebnis, aber mit viel weniger Datenverbrauch.

Nun machen wir es komplexer:
Im Hintergrund ein ultrakomplexes Bild. Meinetwegen ein Pixelgenaues Schachbrettmuster mit allen Farben, die es gibt.
Und das Viereck ist nun ein Video mit einer Maximalen Actionsequenz aus Transformers, bei dem kein Bild dem anderen gleicht.
Variante 1: Jeder Pixel wird wieder einzeln mit RGB Werten für jeden einzelnen Pixel abgespeichert.
Variante 2: man speichert den Hintergrund mit allen Details im ersten Bild und sagt: Der Kasten hat Größe XY und dieser wandert von Position XY zu X2Y und die Bilddaten aus diesem Kasten muss ich bei jedem Bild abspeichern. Aber eben NUR die Daten aus dem kleinen Kasten.
Bei beiden Verfahren kann ich das Video mit allen feinsten Details wiederherstellen, zu 100%.
Aber bei der zweiten Variante habe ich massiv Daten gespart.

4:2:0 hat natürlich erheblichen Datenverlust zur Folge.
Dafür spart man sich 50% der Datenmenge.
Ja. Die Idee hinter GOP ist schon klar.
Es wird davon ausgegangen, dass sich zwischen mehreren Bildern nicht alle Pixel ändern.
Man speichert also nur die Veränderungen und benötigt weniger Daten.
Nur werden dann Fans cinematischer Bilder aufschreien, denn es sind gerade die Unterschiede in der Kornstruktur von Negativmaterial zwischen aufeinander folgenden Bildern, die einen weichen Fluss erzeugen. Dieses Chaos kann jedoch eine GOP-Komprimierung gar nicht brauchen, weshalb zunächst eine NR notwendig ist.

Und richtig - 4:2:0 spart erheblich Datenmengen.

Einzig Arri wendet eine verlustfreie Komprimierung der Raw-Aufnahmen an, was den Komprimierungsfaktor aber auch sehr niedrig hält.

RedRaw ist nur visuell-verlustfrei, aber dies auch nicht in extremen Fällen. Bei einem Test u.a. mit starkem Schneefall war auch die RedRaw-Komprimierung einmal überfordert.

GOP zusammen mit 4:2:0 kommt dann natürlich nochmal schneller an die Grenze.
Zumal: Bearbeitet man dieses Material in einem Grading-Programm, werden die fehlerhaft wiederhergestellten Daten bei der folgenden Komprimierung noch weiter degenerieren.



JesusWolf
Beiträge: 17

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JesusWolf »

iasi hat geschrieben: So 15 Feb, 2026 23:14
JesusWolf hat geschrieben: So 15 Feb, 2026 17:17 Wie ich oben ausführlich erklärt habe erhälst du eben keine vollen 4k RGB Werte. Lediglich Teile ebendieser.
Du wirst definitiv einen Unterschied zwischen einem 8k-4k Bild und einem 3 Chip 4k Bild haben.
Bei einem typischen Bayer-Sensor hast du 1/4 der gesamten Sensel für R und 1/4 für B.
Korrekt.
Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.
Falsch. Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
Folglich hast du zwar eine Blau Information, eine Rot Information und zwei Grün Informationen in deinem neuen Pixel aber diese machen trotzdem nur 1/4 der Fläche des neuen 4mal so großen Pixels für Blau, 1/4 des neuen 4mal so großen Pixels für Rot und 1/2 des neuen 4mal so großen Pixels für Grün aus. Dein neuer resultierender Pixel muss also trotzdem teilweise interpoliert werden.
Desweiteren würde ein 4 Chip System mit 2 Grün Chips keinen Sinn machen, denn, selbst wenn du das Grün Signal wie auch immer aufspaltest, hast du entsprechend nur noch einen Teil des grünen Lichts übrig.
Zuletzt geändert von JesusWolf am Mo 16 Feb, 2026 17:31, insgesamt 1-mal geändert.



Mantas
Beiträge: 1650

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Mantas »

Megaspannend JesusWolf, danke für die ausführlichen Posts und dein Wissen.

kleiner Fehler ist dir hier unterlaufen:
JesusWolf hat geschrieben: So 15 Feb, 2026 15:10 Ich habe mal die 2,8K Alexa gegen eine 6k Red Epic, war es glaube ich, durchgemessen.
Ich war immer ein Red Fan, aber da musste ich einsehen, dass die Alexa trotz der viel geringeren Pixelanzahl die höhere Auflösung hatte UND auch das bessere Bild.
Die haben wirklich das beste in Camera Debayering und die Beste Bildverarbeitung.
du solltest nix gegen RED und nun Nikon bei iasi sagen ;)
JesusWolf hat geschrieben: Mo 16 Feb, 2026 13:32 Falsch. Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
krass, so habe ich es bis jetzt noch nie gesehen.

wie ist denn deine Meinung zu den BM RGBW Sensoren im Vergleich zu Bayer? Was zb die Auflösung angeht, ist 12k Vergleichbar mit 8k Bayer?



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

JesusWolf hat geschrieben: Mo 16 Feb, 2026 13:32
iasi hat geschrieben: So 15 Feb, 2026 23:14
Bei einem typischen Bayer-Sensor hast du 1/4 der gesamten Sensel für R und 1/4 für B.
Korrekt.
Bei einem 8k-Sensor ergibt sich somit, dass du 4k-R- und 4k-B-Auflösung hast. Eigentlich erhältst du sogar in gewisser Weise ein 4 Chip 4k Bild, denn G verfügt ja über die doppelte Auflösung.
Falsch. Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
Folglich hast du zwar eine Blau Information, eine Rot Information und zwei Grün Informationen in deinem neuen Pixel aber diese machen trotzdem nur 1/4 der Fläche des neuen 4mal so großen Pixels für Blau, 1/4 des neuen 4mal so großen Pixels für Rot und 1/2 des neuen 4mal so großen Pixels für Grün aus. Dein neuer resultierender Pixel muss also trotzdem teilweise interpoliert werden.
Desweiteren würde ein 4 Chip System mit 2 Grün Chips keinen Sinn machen, denn, selbst wenn du das Grün Signal wie auch immer aufspaltest, hast du entsprechend nur noch einen Teil des grünen Lichts übrig.
Es ging mir nicht darum, dass man 4 Chips benötigt - ich stimme dir da zu: 2 grüne Chips machen wenig Sinn.
Und natürlich wird beim Debayern RGBG mit einander verrechnet. Jedoch wären ausreichend Pixelinformationen bei einem 8k-Sensor vorhanden, um die volle 4k-Farbauflösung wie bei einer 3 Chip-Kamera zu erhalten. Das ist Theorie.

In der Praxis erzielt man von einem 8k-Sensor jedoch ein perfekt debayertes 4k.

Was die 2,8k-Arri-Raw und 5k-RedRaw betrifft, kommt mir immer Skyfall in den Sinn: Der Unterschied zwischen den Alexa-Aufnahmen und den Red Epic-Luftaufnahmen stach mir damals ziemlich ins Auge.

Eine Alexa LF und Alexa 65 profitieren von ihrer Sensorfläche mit ihren Vorteilen, was die Optik betrifft. Die LF bietet bei anamorphic-Projekten und die 65 beim Breitbild signifikant größere Sensorflächen als eine Red.



Jott
Beiträge: 23770

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

Du hast vergessen zu erwähnen, dass Deakins bei Skyfall angeblich Angst vor IMAX hatte.



Darth Schneider
Beiträge: 27756

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Darth Schneider »

Das meint die AI dazu:
„Roger Deakins hatte keine direkte „Angst“ vor IMAX bei Skyfall, war aber anfangs skeptisch bezüglich der Qualität der Alexa-Aufnahmen beim Hochskalieren (Upscaling) für die riesige IMAX-Leinwand. Erste Tests zeigten unschöne Farben und einen „duplizierten“ Look, was jedoch durch Anpassungen beim Digital Intermediate (DI) gelöst wurde, sodass die Ergebnisse letztlich überzeugten.
Die wichtigsten Punkte:
Bedenken: Deakins befürchtete, dass digitale Aufnahmen der Arri Alexa auf IMAX-Größe nicht gut aussehen könnten.
Lösung: Nach dem Weglassen der internen IMAX-Verbesserungssysteme und der direkten Nutzung des DI-Outputs sah das Bild „spektakulär“ aus.
Format: Der Film wurde im 1.90:1 Format für IMAX optimiert.“

Mein Fazit:
Die Google AI hat iasis Meinung darüber teilweise übernommen.
Weil der iasi das hier so viele Male erwähnt hatte.;))))



Jott
Beiträge: 23770

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

Das hat die KI schon richtig kapiert:

„Nach dem Weglassen der internen IMAX-Verbesserungssysteme und der direkten Nutzung des DI-Outputs sah das Bild „spektakulär“ aus.“

Trotz der Kack-Arri, die nicht mal 4K konnte. Das stößt manchen sauer auf.

Egal. Der Thread geht ja im Prinzip darum, was man sehen will - oder eben nicht sehen will. Und um die sich daraus ergebenden verschiedenen Meinungen.



Darth Schneider
Beiträge: 27756

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Darth Schneider »

Es geht aber dabei immer noch um einen Bond Film und keine Highend Natur Doku.
Die Bond Girls sind auch ohne 4K scharf genug…;))



TheBubble
Beiträge: 2121

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von TheBubble »

JesusWolf hat geschrieben: Mo 16 Feb, 2026 13:32 Du vergisst hierbei, dass sich AUCH die Pixelfläche deines resultierenden 4K Signals vervierfacht.
Folglich hast du zwar eine Blau Information, eine Rot Information und zwei Grün Informationen in deinem neuen Pixel aber diese machen trotzdem nur 1/4 der Fläche des neuen 4mal so großen Pixels für Blau, 1/4 des neuen 4mal so großen Pixels für Rot und 1/2 des neuen 4mal so großen Pixels für Grün aus. Dein neuer resultierender Pixel muss also trotzdem teilweise interpoliert werden.
Die "Pixelfläche" hat aber im Wesentlichen mit dem Rauschverhalten zu tun, nicht mit der Auflösung der Farbkanäle. Bei genügen auflösenden Sensoren kann sich die Interpolation im Prinzip darauf beschränken, die örtlich versetzten Abtastpunkte (für R, G und B) auf einen gemeinsamen virtuellen Punk zusammenzuführen.

Von der reinen Theorie her wären allerkleinste Sensel hinter einem Tiefpass die richtige Lösung. Es geht nur in der Praxis nicht.

Die ganze Diskussion ist aber etwas übertrieben solange niemand fordert auch den Subpixel-Versatz gängiger Displays vor der Darstellung zu berücksichtigen und die Pixeldaten entsprechend anzupassen.



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

Darth Schneider hat geschrieben: Mo 16 Feb, 2026 20:15 Das meint die AI dazu:
„Roger Deakins hatte keine direkte „Angst“ vor IMAX bei Skyfall, war aber anfangs skeptisch bezüglich der Qualität der Alexa-Aufnahmen beim Hochskalieren (Upscaling) für die riesige IMAX-Leinwand. Erste Tests zeigten unschöne Farben und einen „duplizierten“ Look, was jedoch durch Anpassungen beim Digital Intermediate (DI) gelöst wurde, sodass die Ergebnisse letztlich überzeugten.
Die wichtigsten Punkte:
Bedenken: Deakins befürchtete, dass digitale Aufnahmen der Arri Alexa auf IMAX-Größe nicht gut aussehen könnten.
Lösung: Nach dem Weglassen der internen IMAX-Verbesserungssysteme und der direkten Nutzung des DI-Outputs sah das Bild „spektakulär“ aus.
Format: Der Film wurde im 1.90:1 Format für IMAX optimiert.“

Mein Fazit:
Die Google AI hat iasis Meinung darüber teilweise übernommen.
Weil der iasi das hier so viele Male erwähnt hatte.;))))
Und weil die 2,8k der Alexa ja völlig ausreichend waren und sind, drehen auch heute noch alle damit - auch Deakins. ;)

Es sind ja schließlich so toll große Pixel.
Übrigens viel viel größere als bei dieser neumodischen Alexa 35, bei der Arri gleich 4,6k auf einen S35 gequetscht hat.
Der Schuß musste doch nach hinten losgehen. ... Oder doch nicht? :)

Jedenfalls erzählen deutsche "Filmanalysten" herum, dass Train Dreams auf klassischem Film gedreht wurde, weil die Alexa 35 mit ihren winzigen Senseln einfach keinen cinematischen Look liefern kann. ;):)



Jott
Beiträge: 23770

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

RED-Iasi hat den Skyfall-Fall nach 14 Jahren noch nicht verwunden. Arri-Katastrophe! 😎



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

Jott hat geschrieben: Di 17 Feb, 2026 05:38 RED-Iasi hat den Skyfall-Fall nach 14 Jahren noch nicht verwunden. Arri-Katastrophe! 😎
Jott braucht immer ganz dringend das Klatsch-Drama, sonst kommt er nicht über den Tag. :)



ffm
Beiträge: 395

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von ffm »

iasi blamiert sich weiterhin



JuliaLL
Beiträge: 7

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von JuliaLL »

JesusWolf hat geschrieben: So 15 Feb, 2026 02:14 Das ist falsch.
Ich habe das versucht im ersten Beitrag zu erklären.
Bayer Sensor und 4:2:0 sind zwei völlig unterschiedliche Dinge.

[...]

Ich hoffe JETZT ist es verständlich :-)

Liebe Grüße
Jesus

Mega Erklärung, vielen Dank Jesus!

Vielleicht noch zwei Bonus‑Fragen - etwas vom eigentlichen Thema weg, aber Dinge, die mich trotzdem interessieren.

Wenn wir noch einmal das Praxisbeispiel der Panasonic LUMIX S1RII nehmen, die in 8,1K mit 4:2:0 aufzeichnet:
D. h. der Sensor debayert ein 4:4:4 RGB und um die Datenmenge zu sparen (warum auch immer, ggf. kann die Hardware auch nicht mehr oder man hätte noch größere Files, was auch immer) erfolgt eine Farbunterabtastung auf 4:2:0, richtig?


Und noch die Frage „über den Tellerrand“:
Hat die Sensortechnik selbst einen Einfluss auf die Farbgenauigkeit, oder hängt das ausschließlich vom verwendeten Farbfilter (in unserem Beispiel Bayer‑Pattern) ab?
Ich denke dabei an frühere Zeiten: Damals gab es 3‑CCD‑Sensoren oder „nur“ CCD‑Sensoren (bei diesen hatte ich z. B. häufig Blooming‑ bzw. Smearing‑Effekte bei hellen Lichtreflexen; allerdings nur beim Filmen, nicht beim Fotografieren).
Heute findet man fast ausschließlich CMOS‑Sensoren.



FocusPIT
Beiträge: 189

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von FocusPIT »

Hallo Alle,
ich fand das Thema, den Gegensatz Kamerafahrt versus Zoom interessant und habe mal diese zwei Beispiele hergestellt. Sie machte mir sehr klar, warum Frank unbedingt den Slider haben wollte.

Kamerafahrt / Zoom
Die Kamerafahrt dauerte 13 Sekunden. Die Zeitlupe dauert 2:21 Minuten.
Der Zoom dauerte 4 Sekunden. Die Zeitlupe dauert 23 Minuten.
Brennweite 18mm, 90º in der horizontalen Ebene.
Brennweite 35mm, 54,4º in der horizontalen Ebene.

Kamerafahrt
https://www.skop-ffm.de/movies/Test_ohn ... afahrt.mp4

Zoom
https://www.skop-ffm.de/movies/Test_mit ... afahrt.mp4

Kamerafahrt von Objektiv ab Linseneingang gemessen, hat eine Länge von 2.10 Meter.

Fahre mit der Kamera auf dem Wagen von der Raummitte bis zur Fensteröffnung und Filme dabei die mir gegenüberliegende Hausfassade. Die Entfernung beträgt 12 Meter von Hauswand zu Hauswand, plus 0.85 Meter, vom Objektiv bis Endpunkt der Fahrt im Raum bis zur Aussenwand unseres Hauses. Daraus folgen die Abmessungen für die Kamera-Fahrt von 2.10 Meter und eine Länge für die Entfernung Ojektiv zur gegenüberliegendeden Hausfront von 12.85 Meter.

Die Fahrt mit dem 35mm Objektiv bedeutet für die Darstellung des Innenraums eine deutlich wahrnehmbare Erweiterung des Raumes. Demgegenüber ist eine Erweiterung des Darstellung der gegenüberliegenden Fassade unmerklich. Das liese sich auch mit einer Zeichnung verdeutlichen, in der die Projektionsebenen Objektiv zu Beginn der Fahrt und Projektionsebene zum Ende der Fahrt und die Projektionsebenen der gegenüberliegenden Hausfront bei Beginn und Ende der Fahrt. Durch den Öffnungswinkel von 54,4º, der sich während der Kamerafahrt nicht veränderte, wurde das Abgebildete in der Größe nicht verändert, sondern nur die Perspektivebenen verhalten sich unterschiedlich. Der Wahrnehmungseindruck ist so, als würde der Raum sich nach hinten bewegen und die Hausfront des gegenüberliegenden Hauses blieb von einer Veränderung unberührt. Die kurze Entfernung vom Objektiv zu den Objekten im Raum erzeugen diesen Eindruck, dass sich der Innenraum nach hinten bewegt während die deutlich weitere Entfernung zu der gegenüberliegenden Fassade das Bild nur minimal vergrößert oder bewegt, nur die Fensteröffnung "bewegt" sich scheinbar, indem sie sich durch die Bewegung der Fahrt des Wagens erweitert. Das gekoppelt mit einer Slowmotion wirkt wie "magisch". Es ist eine mehrdimensionale Veränderung.

Bei einer Aufnahme mit Zoom-Objektiv von 54,4º zu 90º wird jedoch die Bildgröße verändert. Der Bildausschnitt wird grösser wenn ich von 54,4º nach 90º den Zoom betätige. Die Fensteröffnung und die gegenüberliegende Hausfront beide werden im gleichen Masse vergrößert oder verkleinert. Das Bild verändert sich gleichmäßig auf allen Schärfentiefen. Es ist eine eindimensionale Veränderung.

Gruß an Alle
aus Frankfurt
FocusPIT
iasi hat geschrieben: Sa 07 Feb, 2026 07:02
Jott hat geschrieben: Fr 06 Feb, 2026 23:30
Ist auch gut so. Fahrt und Zoom sehen verschieden aus. Stehende gegen bewegte Kamera. Die „Arbeit“ lohnt sich. Aber mach ruhig deine Digitalzooms. Muss reichen.
Reicht auch sehr oft, selbst wenn mancher meint, die "Arbeit" (also der höhere Aufwand) würde einen Unterschied bei der Wirkung machen.

Vielmehr ist es sogar so, dass die sehr viel kontrolliertere digitale Lösung die bessere sein kann, wenn die Nebeneffekte von Kamerafahrt oder optischem Zoom kontraproduktiv für die gewünschte Wirkung auf den Zuschauer wären.

Zudem: Gerade langsames, für den Zuschauer bewußt nicht wahrnehmbares Verdichten über einen langen Zeitraum ist mit optischem Zoom oder Fahrt sehr aufwendig umzusetzen. Die Post hingegen eröffnet hier schlicht die bessere Umsetzungsmöglichkeit.



Jott
Beiträge: 23770

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

Schön, dass du dir die Mühe gemacht hast. Da kann ein gewisser Film-Großmeister was lernen.



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

FocusPIT hat geschrieben: Di 31 Mär, 2026 17:08 Hallo Alle,
ich fand das Thema, den Gegensatz Kamerafahrt versus Zoom interessant und habe mal diese zwei Beispiele hergestellt. Sie machte mir sehr klar, warum Frank unbedingt den Slider haben wollte.

Kamerafahrt / Zoom
Die Kamerafahrt dauerte 13 Sekunden. Die Zeitlupe dauert 2:21 Minuten.
Der Zoom dauerte 4 Sekunden. Die Zeitlupe dauert 23 Minuten.
Brennweite 18mm, 90º in der horizontalen Ebene.
Brennweite 35mm, 54,4º in der horizontalen Ebene.

Kamerafahrt
https://www.skop-ffm.de/movies/Test_ohn ... afahrt.mp4

Zoom
https://www.skop-ffm.de/movies/Test_mit ... afahrt.mp4

Kamerafahrt von Objektiv ab Linseneingang gemessen, hat eine Länge von 2.10 Meter.

Fahre mit der Kamera auf dem Wagen von der Raummitte bis zur Fensteröffnung und Filme dabei die mir gegenüberliegende Hausfassade. Die Entfernung beträgt 12 Meter von Hauswand zu Hauswand, plus 0.85 Meter, vom Objektiv bis Endpunkt der Fahrt im Raum bis zur Aussenwand unseres Hauses. Daraus folgen die Abmessungen für die Kamera-Fahrt von 2.10 Meter und eine Länge für die Entfernung Ojektiv zur gegenüberliegendeden Hausfront von 12.85 Meter.

Die Fahrt mit dem 35mm Objektiv bedeutet für die Darstellung des Innenraums eine deutlich wahrnehmbare Erweiterung des Raumes. Demgegenüber ist eine Erweiterung des Darstellung der gegenüberliegenden Fassade unmerklich. Das liese sich auch mit einer Zeichnung verdeutlichen, in der die Projektionsebenen Objektiv zu Beginn der Fahrt und Projektionsebene zum Ende der Fahrt und die Projektionsebenen der gegenüberliegenden Hausfront bei Beginn und Ende der Fahrt. Durch den Öffnungswinkel von 54,4º, der sich während der Kamerafahrt nicht veränderte, wurde das Abgebildete in der Größe nicht verändert, sondern nur die Perspektivebenen verhalten sich unterschiedlich. Der Wahrnehmungseindruck ist so, als würde der Raum sich nach hinten bewegen und die Hausfront des gegenüberliegenden Hauses blieb von einer Veränderung unberührt. Die kurze Entfernung vom Objektiv zu den Objekten im Raum erzeugen diesen Eindruck, dass sich der Innenraum nach hinten bewegt während die deutlich weitere Entfernung zu der gegenüberliegenden Fassade das Bild nur minimal vergrößert oder bewegt, nur die Fensteröffnung "bewegt" sich scheinbar, indem sie sich durch die Bewegung der Fahrt des Wagens erweitert. Das gekoppelt mit einer Slowmotion wirkt wie "magisch". Es ist eine mehrdimensionale Veränderung.

Bei einer Aufnahme mit Zoom-Objektiv von 54,4º zu 90º wird jedoch die Bildgröße verändert. Der Bildausschnitt wird grösser wenn ich von 54,4º nach 90º den Zoom betätige. Die Fensteröffnung und die gegenüberliegende Hausfront beide werden im gleichen Masse vergrößert oder verkleinert. Das Bild verändert sich gleichmäßig auf allen Schärfentiefen. Es ist eine eindimensionale Veränderung.

Gruß an Alle
aus Frankfurt
FocusPIT
iasi hat geschrieben: Sa 07 Feb, 2026 07:02

Reicht auch sehr oft, selbst wenn mancher meint, die "Arbeit" (also der höhere Aufwand) würde einen Unterschied bei der Wirkung machen.

Vielmehr ist es sogar so, dass die sehr viel kontrolliertere digitale Lösung die bessere sein kann, wenn die Nebeneffekte von Kamerafahrt oder optischem Zoom kontraproduktiv für die gewünschte Wirkung auf den Zuschauer wären.

Zudem: Gerade langsames, für den Zuschauer bewußt nicht wahrnehmbares Verdichten über einen langen Zeitraum ist mit optischem Zoom oder Fahrt sehr aufwendig umzusetzen. Die Post hingegen eröffnet hier schlicht die bessere Umsetzungsmöglichkeit.
Es gibt einen Unterschied zwischen Heranfahrt/Verdichten auf eine Person und die Kamerafahrt durch ein Fenster.

Wozu sollen denn deine beiden Beispiel dienen?
Welche Wirkung/Aussage willst du damit erzielen?

Eine Fahrt durch ein geöffnetes Fenster erzeugt im Zuschauer die Erwartung da draußen etwas gezeigt zu bekommen.

Eine Fahrt auf eine Person wirkt als Annäherung und Konzentration auf die Person - auf das, was sie ausdrückt - auf das, was sie vielleicht sagen wird. Alles, was davon ablenkt, ist kontraproduktiv.

Versuch doch mal so ein sehr langsame Fahrt - auf das Gesicht einer Person zu. Von Nah auf Groß.
Überleg mal, welche Brennweite du nutzen wirst. Welche Blende.
Wie führst du den Fokus nach, der auf den Augen sitzen sollte?
Die Annäherung/Verdichtung soll sehr langsam - also möglichst für den Zuschauer nicht bewußt wahrnehmbar - erfolgen.

Du musst auch zum Vergleich keine Fahrt auf einem Auto durch einen Tunnel als Vergleich hernehmen. :)

Aber ernsthaft: Weder die Wirkung einer Brennweitenveränderung, noch die Veränderungen des Hintergrundes durch eine Kamerafahrt will ich, wenn die Konzentration auf dem Darsteller liegen soll.



Jott
Beiträge: 23770

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

„ Wie führst du den Fokus nach, der auf den Augen sitzen sollte?“

Du bist doch Autofocus-Verfechter?



acrossthewire
Beiträge: 1076

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von acrossthewire »

JuliaLL hat geschrieben: Di 17 Feb, 2026 18:00
Hat die Sensortechnik selbst einen Einfluss auf die Farbgenauigkeit, oder hängt das ausschließlich vom verwendeten Farbfilter (in unserem Beispiel Bayer‑Pattern) ab?
Ich denke dabei an frühere Zeiten: Damals gab es 3‑CCD‑Sensoren oder „nur“ CCD‑Sensoren (bei diesen hatte ich z. B. häufig Blooming‑ bzw. Smearing‑Effekte bei hellen Lichtreflexen; allerdings nur beim Filmen, nicht beim Fotografieren).
Heute findet man fast ausschließlich CMOS‑Sensoren.
Nicht ohne Grund gibt es im Profibereich bei den Kleinsensoren (bis 2/3Zoll) nach wie vor 3CMOS Modelle welche auf ein Bayer Pattern verzichten und die drei Grundfarben vor dem Sensor splitten und jeder Farbe einen separaten Sensor gönnen.
Hat Vorteile für die Farbauflösung, Rauschen sowie ist nicht so anfällig für Moire Muster.
Be Yourself. Everyone else is already taken
Oscar Wilde



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

acrossthewire hat geschrieben: Di 31 Mär, 2026 22:33
JuliaLL hat geschrieben: Di 17 Feb, 2026 18:00
Hat die Sensortechnik selbst einen Einfluss auf die Farbgenauigkeit, oder hängt das ausschließlich vom verwendeten Farbfilter (in unserem Beispiel Bayer‑Pattern) ab?
Ich denke dabei an frühere Zeiten: Damals gab es 3‑CCD‑Sensoren oder „nur“ CCD‑Sensoren (bei diesen hatte ich z. B. häufig Blooming‑ bzw. Smearing‑Effekte bei hellen Lichtreflexen; allerdings nur beim Filmen, nicht beim Fotografieren).
Heute findet man fast ausschließlich CMOS‑Sensoren.
Nicht ohne Grund gibt es im Profibereich bei den Kleinsensoren (bis 2/3Zoll) nach wie vor 3CMOS Modelle welche auf ein Bayer Pattern verzichten und die drei Grundfarben vor dem Sensor splitten und jeder Farbe einen separaten Sensor gönnen.
Hat Vorteile für die Farbauflösung, Rauschen sowie ist nicht so anfällig für Moire Muster.
Foveon-Sensor liefern für jeden Bildpunkt auch die volle RGB-Information - wie die 3-Sensoren-Kameras.
Bei der Farbgenauigkeit hat das Vorteile, denn bei Bayer-Sensoren werden die Farbwerte berechnet.
Nachteile sind Auflösung und Empfindlichkeit.

Wobei ein klassischer 8k-Bayer-Sensor für alle Farben auch volle 4k-Werte liefert.
Entsprechend liest man dann bei slashcam-Tests:
4K Debayering Qualität ? nahezu perfektes Debayering



FocusPIT
Beiträge: 189

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von FocusPIT »

Hallo iasi,

das wäre jetzt dein Part, die "sehr langsame Fahrt - auf das Gesicht einer Person zu..."

Wer aus den zwei Beispielen etwas für sich erkennt, der kann es nutzen, wer nicht, nutzt es nicht.

Mein Interesse an Personen in Film und Foto ist sehr gering. Seit ca. 1990 habe ich umfangreiche "Stadtansichten" hergestellt. Wie der Name schon sagte, sind es keine "Personenansichten".

Wie gesagt: Du bist am Zug.

Gruß aus Frankfurt
von FocusPIT
iasi hat geschrieben: Di 31 Mär, 2026 20:35
FocusPIT hat geschrieben: Di 31 Mär, 2026 17:08
Versuch doch mal so ein sehr langsame Fahrt - auf das Gesicht einer Person zu. Von Nah auf Groß.
Überleg mal, welche Brennweite du nutzen wirst. Welche Blende.
Wie führst du den Fokus nach, der auf den Augen sitzen sollte?
Die Annäherung/Verdichtung soll sehr langsam - also möglichst für den Zuschauer nicht bewußt wahrnehmbar - erfolgen.



iasi
Beiträge: 30518

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von iasi »

FocusPIT hat geschrieben: Mi 01 Apr, 2026 11:01 Hallo iasi,

das wäre jetzt dein Part, die "sehr langsame Fahrt - auf das Gesicht einer Person zu..."

Wer aus den zwei Beispielen etwas für sich erkennt, der kann es nutzen, wer nicht, nutzt es nicht.

Mein Interesse an Personen in Film und Foto ist sehr gering. Seit ca. 1990 habe ich umfangreiche "Stadtansichten" hergestellt. Wie der Name schon sagte, sind es keine "Personenansichten".

Wie gesagt: Du bist am Zug.

Gruß aus Frankfurt
von FocusPIT
iasi hat geschrieben: Di 31 Mär, 2026 20:35
Versuch doch mal so ein sehr langsame Fahrt - auf das Gesicht einer Person zu. Von Nah auf Groß.
Überleg mal, welche Brennweite du nutzen wirst. Welche Blende.
Wie führst du den Fokus nach, der auf den Augen sitzen sollte?
Die Annäherung/Verdichtung soll sehr langsam - also möglichst für den Zuschauer nicht bewußt wahrnehmbar - erfolgen.
Hast du schon mal einen digitalen Schwenk versucht?
Bei großer Brennweite wirst du auch keinen großen Unterschied zwischen einem optischem Zoom und einem digitalen erkennen.
Ich denke da immer an die Titelsequenz von "Der letzte Mohikaner" mit dem Schwenk über die dichten Wälder - perfekt ist es nicht, zumal die statischen Titel die ungleichmäßigen Schwenkgeschwindigkeiten noch auffälliger machen.
Kurosawa hatte bei der "Ran"-Titelsequenz auf Kamerabewegungen verzichtet und nur auf Schnitt gesetzt.

Hier eröffnen hochauflösende Digitalkameras neue Möglichkeiten.

Die Qualität der Objektive setzt hier abhängig von der Sensorgröße natürlich Limits.

Eine Kamerafahrt verändert die Relation zwischen Vorder- und Hintergrund - z.B. gibt das Fenster einen weiteren Blick frei, wenn die Kamera darauf zufährt. Andererseits verlagert sich der Fokus. Und wenn mit kurzer Brennweite auf das Gesicht einer Person zugefahren wird, wächst die Nase wie bei Pinocchio. :)
Bei optischem Zoom verändert sich die Entfernungen. Ein Heranzoomen an eine Person rückt auch den Hintergrund stärker an die Person heran und betont ihn dadurch stärker.

Man sollte also die 3 Möglichkeiten - Fahrt, optischer und digitaler Zoom/Schwenk - differenziert betrachten.

Digitaler Zoom/Schwenk/Winkelveränderung sind präzieser zu steuern und mit weit geringerem Aufwand verbunden.



Jott
Beiträge: 23770

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Jott »

Wie oft hast du jetzt dein lustiges Plädoyer gegen Fahrten schon gepredigt?



Ingole
Beiträge: 49

Re: Sichtbarer Unterschied zwischen 4:2:2 und 4:2:0

Beitrag von Ingole »

FocusPIT hat geschrieben: Di 31 Mär, 2026 17:08 Hallo Alle,
ich fand das Thema, den Gegensatz Kamerafahrt versus Zoom interessant und habe mal diese zwei Beispiele hergestellt. Sie machte mir sehr klar, warum Frank unbedingt den Slider haben wollte.

Kamerafahrt / Zoom
Die Kamerafahrt dauerte 13 Sekunden. Die Zeitlupe dauert 2:21 Minuten.
Der Zoom dauerte 4 Sekunden. Die Zeitlupe dauert 23 Minuten.
Brennweite 18mm, 90º in der horizontalen Ebene.
Brennweite 35mm, 54,4º in der horizontalen Ebene.

Kamerafahrt
https://www.skop-ffm.de/movies/Test_ohn ... afahrt.mp4

Zoom
https://www.skop-ffm.de/movies/Test_mit ... afahrt.mp4

Kamerafahrt von Objektiv ab Linseneingang gemessen, hat eine Länge von 2.10 Meter.


Gruß an Alle
aus Frankfurt
FocusPIT
Danke für die anschaulichen Beispiele.
Oder kurz
Nur mit der Kamerafahrt ändert sich die Perspektive – Wenn ich die Bewegung der sehenden Person darstellen will.
Mit Bescheiden ändert sich die Perspektive nicht, egal ob mit Zoom oder in der Post - Wenn ich kurz auf ein Detail hinweisen will oder allgemein weniger zeigen will.
Es gibt keinen „Turnschuh-Zoom“! – weil sich dabei die Perspektive ändert.



 Aktuelle Beiträge [alle Foren]
 
» Bosma Vega H2 - 6K-Kamera mit um 90° drehbarem Sensor und ToF-Fokus
von Jott - Sa 5:57
» Flusskreuzfahrt Teil 5: Brandenburg an der Havel
von Jott - Sa 5:27
» GoPro MISSION 1 Pro - 8K-Actioncams mit 1-Zoll-Sensor und MFT-Mount
von iasi - Fr 22:48
» Was schaust Du gerade?
von Darth Schneider - Fr 22:22
» DNG ist offizieller ISO-Standard – Meilenstein für ein offenes RAW-Format, das keiner will?
von Darth Schneider - Fr 22:11
» Nikon kündigt Firmware Updates mit H.265 Verbesserungen an
von Bildlauf - Fr 17:49
» Kann man noch MUTIG Filme produzieren? MARTIN MOSZKOWICZ
von Bildlauf - Fr 17:45
» ASUS ProArt PA32UCD - 32" 4K-OLED Referenzmonitor für Broadcast mit Dual-12G-SDI
von slashCAM - Fr 17:40
» DJI Osmo Pocket 4 kommt noch im April - interner Speicher und neue Pro-Version
von Drushba - Fr 16:07
» Flusskreuzfahrt Teil 4: Braunschweig
von Riki1979 - Fr 13:27
» Atomos Sumo Pro 19 erklärt: mobile Cloud Anbindung und NDI
von slashCAM - Fr 10:39
» Sinnvolles Zubehör für Pocket3/4?
von ruessel - Fr 9:43
» DIY: DJI Pocket 4 Controller?
von ruessel - Fr 8:29
» DaVinci Resolve 21 Photo - Der Anfang vom Ende für Adobe Lightroom?
von rob - Fr 0:18
» Nikon teasert erste Cine lens (mit AF)
von pillepalle - Do 21:41
» Kinefinity VISTA: Kompakte Cine-Cam erklärt: Sensor, Formate, Verfügbarkeit und Preis
von MarcusG - Do 21:05
» Was hast Du zuletzt gekauft?
von Funless - Do 20:07
» DJI Lite X1 und Lite 1 - Neue Einsteiger-Drohnen mit 360°-Hinderniserkennung
von slashCAM - Do 18:21
» DaVinci Resolve 21 Photo ausführlich im Screencapture Workshop erklärt
von slashCAM - Do 17:09
» Handbrake oder gibt es ne bessere Möglichkeit?
von cantsin - Do 16:27
» Cartoni Hyperroll - modulares Roll-Rig für kreative Kamerafahrten
von Darth Schneider - Do 15:18
» FILMFÖRDERUNG FÜR ALLE?
von Nigma1313 - Do 12:24
» BlackRAW Visor App - .braw-Dateien von SSD am iPhone sichten, graden und mehr
von slashCAM - Do 11:57
» Sony HXR-NX80 auf v Mount Anschliessen
von rush - Mi 22:30
» 1000€ Richtmikro für Hochzeitsfilme
von johnnycash89 - Mi 22:26
» Musikvideo mit KI und realen Aufnahmen
von Serge - Mi 20:32
» SmallRig: Gut durchdachtes neues Schulterrig und mobiles Effektlicht erklärt
von Darth Schneider - Mi 18:34
» Adobe erklärt die Details zum neuen Premiere Color Mode
von berlin123 - Mi 18:15
» Kinefinity Vista - kompakte 6K-Vollformat Cine-Cam gesichtet
von Darth Schneider - Mi 18:05
» Flusskreuzfahrt Teil 3: Minden
von Riki1979 - Mi 17:51
» Sennheiser HD 480 PRO - neuer geschlossener Referenzkopfhörer für Studio und Live
von Pianist - Mi 16:22
» Insta360 Mic Pro - Funkmikro mit farbigem E-Ink-Display und 32-Bit Audio Float
von ruessel - Mi 12:17
» Flusskreuzfahrt, Teil 2: Bremen
von Bildlauf - Mi 11:19
» Gerald Undone geht in Pension
von Rick SSon - Mi 11:17
» Panasonic LUMIX S 40mm F2 - neues, kompaktes Standardobjektiv
von Rick SSon - Mi 11:11