Keine, Du brauchst ja erst einmal das RGB Signal, um dein "YCbCr" Signal berechnen zu können.soulbrother hat geschrieben: ↑Do 12 Feb, 2026 11:44 mal was für die Forscher unter Euch:
Welcher Sensor liefert denn "YCBCR" statt irgendein RGB basiertes Signal.
oder andersrum:
Mit (In) welcher Kamera muss nicht gewandelt werden?
Ich verstehe, was du meinst, aber deine Annahme ist leider falsch.cantsin hat geschrieben: ↑Do 12 Feb, 2026 10:10Ähem, Du hast pro Sensorpixel, bei 12bit Raw-Auflösung, 2^12=4096 Luma-Werte und einen (Grundfarben-) Chroma-Wert. Bzw. Du hast Luma-Werte mit einem Farbfilter davor, genauso, als wenn Du Schwarzweissfotografie mit einem Rot-, Grün- oder Blau-Filter vor der Kamera machst.dienstag_01 hat geschrieben: ↑Do 12 Feb, 2026 10:04
Die Luma-Werte werden ja auch aus den Farbpixeln gewonnen, also "erfunden". Was ist daran jetzt "sauber".
Jesus ist doch auch nur KI:))Darth Schneider hat geschrieben: ↑Do 12 Feb, 2026 14:39 Lieber Jesus
Darf man fragen was du so arbeitest ?
Im Himmel eher weniger oder ? Da wirst du das ja kaum alles gelernt haben..:)))
Das hatte ich ja geschrieben, daher meine Analogie zu Schwarzweissfotografie mit Farbfilter vor dem Objektiv.JesusWolf hat geschrieben: ↑Do 12 Feb, 2026 13:34Ich verstehe, was du meinst, aber deine Annahme ist leider falsch.cantsin hat geschrieben: ↑Do 12 Feb, 2026 10:10
Ähem, Du hast pro Sensorpixel, bei 12bit Raw-Auflösung, 2^12=4096 Luma-Werte und einen (Grundfarben-) Chroma-Wert. Bzw. Du hast Luma-Werte mit einem Farbfilter davor, genauso, als wenn Du Schwarzweissfotografie mit einem Rot-, Grün- oder Blau-Filter vor der Kamera machst.
Du gehst davon aus, dass du 4 Pixel mit Helligkeits- und jeweils unterschiedlichen Farbinformationen hast und diese Information zu einem Pixel zusammenfasst, was genau das gleiche wäre, wie bei einer 4:2:0 Abtastung.
Das ist soweit nachvollziehbar.
ABER:
Du vergisst dabei verschiedene Dinge:
1. Nimmst du durch den Farbfilter NUR die Lumawerte für EINE Farbe auf. Die Lumawerte der anderen Farben werden durch den Farbfilter ja geblockt.
Das ist mir schon klar (und genau aus dem Grund gibt's ja auch Monochromsensorkameras von Leica und Ricoh/Pentax), nur reden wir von zwei verschiedenen Dingen:2. Deswegen werden beim Debayering AUCH die LumaWerte interpoliert.
Ja, stimmt allerdings. Wenn man das dann auf die Mischfarben runterbricht, hätte man annähernd 4:2:1...3. Bei deiner Überlegung des Zusammenfassens der 4 Pixel zu einem übersiehst du außerdem den Fakt, dass du bei einem Bayerpattern folgenden Aufbau hast, den du auch in deinen Bildern gut dargestellt hast:
Grün -- Blau
| |
Rot -- Grün
Du hast also je einen Roten, einen Blauen, aber Zwei grüne Pixel.
Anders ausgedrückt, du hast theoretisch zwar nur alle 4 Pixel die Rot und Blau-Information, aber alle 2 Pixel die Grüninformation.
Für Grün hättest du also sogar theorethisch, wenn du für alle Pixel die volle Lumainformation hättest und Du durch den Farbfilter nur zusätzlich die Chromainformation hinzufügen würdest, schon so etwas wie eine 4:2:2 Unterabtastung.
Oh ja, dunkle Zeiten... Und das ganze noch interlaced und in SD-Auflösung mit (wegen PAL/NTSC) nichtquadratischen Pixeln...
Ich bin Photoingenieur. :-PDarth Schneider hat geschrieben: ↑Do 12 Feb, 2026 14:39 Lieber Jesus
Darf man fragen was du so arbeitest ?
Im Himmel eher weniger oder ? Da wirst du das ja kaum alles gelernt haben..:)))
Nö. In meinen Fachgebieten sind die mir unterlegen.
Das mit der 60 Hz Variante kannte ich bisher nicht :-P
Gibt's schon, aber nur in "rare irregular cases" laut Wikipedia, https://en.wikipedia.org/wiki/Chroma_su ... and_ratios
Wikipedia hat eine technische Erklärung dafür, warum 4:1:1 für NTSC-DV gewählt wurde, in dem von mir oben schon verlinkten Artikel:
In the 480i "NTSC" system, if the luma is sampled at 13.5 MHz, then this means that the Cr and Cb signals will each be sampled at 3.375 MHz, which corresponds to a maximum Nyquist bandwidth of 1.6875 MHz, whereas traditional "high-end broadcast analog NTSC encoder" would have a Nyquist bandwidth of 1.5 MHz and 0.5 MHz for the I/Q channels. However, in most equipment, especially cheap TV sets and VHS/Betamax VCRs, the chroma channels have only the 0.5 MHz bandwidth for both Cr and Cb (or equivalently for I/Q). Thus the DV system actually provides a superior color bandwidth compared to the best composite analog specifications for NTSC, despite having only 1/4 of the chroma bandwidth of a "full" digital signal.
es geht um 4.2.1cantsin hat geschrieben: ↑Fr 13 Feb, 2026 17:51Wikipedia hat eine technische Erklärung dafür, warum 4:1:1 für NTSC-DV gewählt wurde, in dem von mir oben schon verlinkten Artikel:
In the 480i "NTSC" system, if the luma is sampled at 13.5 MHz, then this means that the Cr and Cb signals will each be sampled at 3.375 MHz, which corresponds to a maximum Nyquist bandwidth of 1.6875 MHz, whereas traditional "high-end broadcast analog NTSC encoder" would have a Nyquist bandwidth of 1.5 MHz and 0.5 MHz for the I/Q channels. However, in most equipment, especially cheap TV sets and VHS/Betamax VCRs, the chroma channels have only the 0.5 MHz bandwidth for both Cr and Cb (or equivalently for I/Q). Thus the DV system actually provides a superior color bandwidth compared to the best composite analog specifications for NTSC, despite having only 1/4 of the chroma bandwidth of a "full" digital signal.
Nee, sieh nochmal nach, worauf Du geantwortet hast ...
Ich versuche es mal:rkunstmann hat geschrieben: ↑Fr 13 Feb, 2026 14:51 Panasonics DVCpro Format hatte doch 4:1:1 statt 4:2:0 oder? Vielleicht kann mir hier jemand den Unterschied erklären? Hatte ich nie verstanden :)
Nein.JuliaLL hat geschrieben: ↑Sa 14 Feb, 2026 16:36 Jetzt habe ich doch auch noch eine "Nerd-Frage" zum Thema "Bayer-Sensoren nehmen nur in 4:2:0 auf" - evtl. kann Jesus hier wieder helfen und Licht ins Dunkle bringen.
Habe ich das richtig verstanden, dass das daran liegt, dass Bayer‑Sensoren ohnehin nur die RGB‑Werte interpolieren und daher gar kein "natives" 4:2:2 (oder 4:4:4) liefern können?
Und ein kleiner Ausflug in die Praxis:
Deshalb bieten viele Kameras bei ihrer höchsten Auflösung auch "nur" 4:2:0 an, wie zum Beispiel die Panasonic LUMIX S1RII bei 8,1K.
Und Kameras wie etwa die Canon EOS C500 Mark II können nur deshalb bei ihrer höchsten Auflösung in 4:2:2 aufnehmen, weil der Sensor 20,8 MP besitzt und somit etwas Oversampling möglich ist?
Habe ich das so grob richtig verstanden?


