JuliaLL hat geschrieben: ↑Sa 14 Feb, 2026 16:36
Jetzt habe ich doch auch noch eine "Nerd-Frage" zum Thema "Bayer-Sensoren nehmen nur in 4:2:0 auf" - evtl. kann Jesus hier wieder helfen und Licht ins Dunkle bringen.
Habe ich das richtig verstanden, dass das daran liegt, dass Bayer‑Sensoren ohnehin nur die RGB‑Werte interpolieren und daher gar kein "natives" 4:2:2 (oder 4:4:4) liefern können?
Und ein kleiner Ausflug in die Praxis:
Deshalb bieten viele Kameras bei ihrer höchsten Auflösung auch "nur" 4:2:0 an, wie zum Beispiel die
Panasonic LUMIX S1RII bei 8,1K.
Und Kameras wie etwa die
Canon EOS C500 Mark II können nur deshalb bei ihrer höchsten Auflösung in 4:2:2 aufnehmen, weil der Sensor 20,8 MP besitzt und somit etwas Oversampling möglich ist?
Habe ich das so grob richtig verstanden?
Das ist falsch.
Ich habe das versucht im ersten Beitrag zu erklären.
Bayer Sensor und 4:2:0 sind zwei völlig unterschiedliche Dinge.
Bei einem Bayer Sensor hast du für JEDEN einzelnen Bildpunkt
eine volle Farbinformation.
Je nach Farbfilter entweder für Rot, oder für Grün, oder für Blau.
Die restlichen Farben und
AUCH die Helligkeit! werden interpoliert.
Das ist also etwas völlig anderes, als nur 2 Farbdifferenzinformationen für 8 Pixel zu haben bei 4:2:0.
Falls das Debayering/Demosaicing ein Problem darstellen sollte, wäre folglich schon die erste 4 (Luminanz) bei 4:2:0 falsch, weil es diesen Wert tatsächlich nirgendwo bei einem Pixel nativ gibt. (es sei denn du hast zufällig genau auf diesem einen Pixel reines Rot, Grün oder Blau.)
Zur Veranschaulichung hier der Bildverarbeitungsablauf:
- Zuerst werden die Raw Daten aus dem Sensor ausgelesen
- Dann gibt es eine Black-Level-Subtraktion & Fixed-Pattern-Noise-Korrektur
- Dann erfolgt die ISO-Verstärkung und gegebenenfalls die Sensorlinearisierung
- Dann kommt die Whitebalance (meistens vor, manchmal auch nach dem Debayering)
- Dann findet das Debayering statt und dein Ergebnis ist ein 4:4:4 RGB
Hochwertige Algorithmen (z. B. Gradient-basiert, Malvar-He-Cutler, AHD, VNG) vermeiden hierbei auch Farbsäume an Kanten.
An diesem Punkt hat man ein volles RGB Signal!
- Als nächstes kommt die Farbraumtransformation von von Camera-RGB (Sensor-spezifisch) in den Arbeitsfarbraum (z. B. Rec.709, DCI-P3, ARRI Wide Gamut, Rec.2020, etc.).
Gegebenenfalls auch noch die Anwendung einer Gammakurve (S-Log3, V-Log, C-Log, ARRILogC etc.), um den Dynamikumfang für einen kleineren 8 oder 10 Bit Codec zu komprimieren
- Dann kommen alle Bildverbesserungen, wie Objektivkorrektur, Schärfe, Kontrast, Rauschunterdrückung usw.
- Dann kommt gegebenenfalls die Skalierung auf die Zielauflösung, falls nötig
- Dann wird das 4:4:4 RGB in YCbCr umgewandelt, um die Datenreduktion durch Farbunterabtastung nutzen zu können
- Und erst dann kommt die Farbunterabtastung.
4:4:4, 4:2:2, 4:2:0
- Danach kommt die Quantisierung mit 8, 10 oder 12 Bit
- Danach das Encoding in h264, h265, h266 oder ähnliches
- Dann wird alles zusammengemuxt (Audio, Video und Mediadaten zusammen in einen Container geschrieben (mp4, mov etc.)
- Als letztes wird es auf die Speicherkarte geschrieben
Du kannst also sehr wohl ein 4:4:4 oder 4:2:2 Signal aus einem Bayerpatternsensor herausbekommen.
Völlig ohne Oversampling.
So gut wie jede Cinekamera verwendet einen Bayersensor, die einzigen, die seit 2020 davon abweichen sind die neuen High End Modelle von Blackmagic, die einen RGBW Sensor haben.
Der hat zwar eine höhere Lichtempfindlichkeit, aber eine schlechtere Farbauflösung. Dafür sind die mittlerweile am höchsten aufgelöst mit bis zu 17K.
Jeder andere hat Bayersensoren und bei den Cinekameras ist es normal, das die maximale Ausgabeauflösung auch die maximale native Sensorauflösung ist, also kein Oversampling stattfindet.
Bei Volumenmodellen im Cine Bereich findet man ausschließlich Bayer Sensoren.
- ARRI (ALEXA 35, Mini LF, 65 usw.) --> 100 % Bayer (Arri gilt als der Benchmark in Hollywood)
- RED (V-Raptor, Komodo-X, Monstro usw.) -->100 % Bayer
- Sony (Venice 2, Burano, FX9, FX6, FX3, FX30, CineAlta usw.) --> 100 % Bayer
- Canon (C300 Mark III, C500 Mark II, C70 usw.) -->100 % Bayer
- Panasonic, Fujifilm (GFX ETERNA usw.) und die meisten Hybrid-Cine-Kameras --> 100% Bayer
Eine Arri Alexa 35 hat einen 4,6k Bayer Pattern Sensor und kann maximal 4,6k 3:2 Open Gate aufzeichnen, also kein Oversampling und kann das neben Raw auch in Apple ProRes 4444 (die letzte 4 steht für den Alpha Kanal) abspeichern.
Diese Kamera ist wohl über jeden Zweifel erhaben.
Soviel zu Bayerpattern Sensoren.
Offensichtlich reicht die Qualität eines hervorragend gedebayerten Sensors für Maximale Ansprüche aus.
Die Idee, dass man bei einem Bayerpattern Sensor durch Oversampling die echte volle Farbauflösung hat ist übrigens auch falsch.
Die Annahme ist, dass man durch zum Beispiel die 4-fache Auflösung, also zum Beispiel 8K -> 4K komplett alle Farbinformationen hat,
klingt im ersten Moment logisch weil man ja für den einen Bildpunkt dann beide Grünpixel, den Rotpixel und den Blaupixel hat.
Das ist aber falsch!
Denn:
- Die Fläche des Pixels ist nun auch größer geworden (viermal so groß)
- Daraus resultiert, dass man statt der vollen Farbauflösung des Pixels nun:
- 50% Grün Information (2x Grünpixel / die Hälfte der Fläche)
- 25% Rot Information (1x Rotpixel / ein Viertel der Fläche)
- 25% Blau Information (1x Blaupixel / ein Viertel der Fläche)
hat
- Daraus resultiert auch, dass, da wir 100% Rot, 100% Grün und 100% Blau Informationen für unsere volle Luminanzinformation brauchen, wir
- 100% (Rot) + 100% (Grün) +100% (Blau) = 300%
Information brauchen aber nur - 25% (Rot) + 50% (Grün) +25% (Blau) = 100%
von den benötigen 300% haben.
Normiert auf 100% sind es nur 33,3% der benötigten Information für die volle Luminanz
Das heißt NICHT, dass ein Oversampling gar keinen Sinn, oder Vorteil hätte. Ganz im Gegenteil.
Aber durch einen Bayersensor habe ich erstens nicht nur 4:2:0 Signal und zweitens durch Oversampling ebenjenes auch kein 4:4:4 Signal. Das ist einfach falsch.
100% Farbgenauigkeit bekomme ich ausschließlich theoretisch mit
- Foveon Sensoren (Alle 3 Farbfilter liegen übereinander), hier gibt es allerdings bisher nur sehr alte Fotokameras von Sigma mit Aps-C Sensor oder kleiner. Das ist also bisher uninteressant fürs Filmen.
An einer Vollformat Kamera mit Full-Frame Foveon X3 Sensor arbeitet Sigma seit 2018 und sie wird auch 2025 und wahrscheinlich auch nicht 2026 und vielleicht auch nie herauskommen.
- Oder praktisch mit 3-Chip Kameras, bei denen das Licht durch ein Prisma aufgebrochen wird und an 3 einzelne Chips, je für eine Farbe aufgeteilt wird.
Die gibt es momentan nur noch im Broadcast Bereich mit kleineren Sensoren (2/3 Zoll im kommerziellen Bereich, Ich glaube bis 1" im experimentellen Bereich)
Vorteile sind hierbei:
- Perfekte Farbegenauigkeit (100% genaue RGB Informationen)
- Bessere Leistung beim Chroma Keying, insbesondere bei Echtzeit - Workflows
- Höhere Lichtempfindlichkeit, weil die Farbfilter fehlen (bei Bayerpattern werden so ca. 2/3 des Lichts gefiltert)
- Da es keine periodische Bayerstruktur gibt, kann man einfachere Low Pass Filter optimieren, um Moire und Alias Effekte zu vermindern und hat eine höhere Auflösung
- Außerdem ist die Farbauflösung natürlich auch viel größer: 100% auf allen 3 Farbkanälen
Ich hoffe JETZT ist es verständlich :-)
Liebe Grüße
Jesus