Dieser völlige Blödsinn ist nicht tot zu bekommen!wibera hat geschrieben: ↑So 30 Jan, 2022 22:03 Was mir dazu einfällt ist, dass nicht alle Werte für jedes Pixel einzeln gespeichert werden, sondern mehrere im Quadrat zusammengefasst.
Bei meiner Canon Legria HF200 gibt MediaInfo dies aus:
Width/String: 1 920 pixels
Height/String: 1 080 pixels
DisplayAspectRatio/String: 16:9
FrameRate/String: 25.000 FPS
ColorSpace: YUV
ChromaSubsampling/String: 4:2:0
BitDepth/String: 8 bits
Der Wert steht bei: ChromaSubsampling
Infos dazu hier: https://de.wikipedia.org/wiki/Farbunterabtastung
Wenn also in 4k mit 4:2:0 gespeichert und dann auf 1k verkleinert wird, ist das Ausgangsmaterial sozusagen hochwertiger.
warum ist es Blödsinn? echtes 4:4:4 von einer Bayer Sensor Kamera bekommst du nur durchs Skalieren. 8k bräuchte man wohl dafür.
Genau das mache ich ja! Ich hab die RX100 immer in 4K, weil ich dadurch auch die Option beim Schnitt habe bis zu 50% hineinzuzoomen. Und das will ich mir nicht entgehen lassen! Insofern kann ich deine zweite Frage nicht beantworten.
Vielen Dank, Markus!Genau das mache ich ja! Ich hab die RX100 immer in 4K, weil ich dadurch auch die Option beim Schnitt habe bis zu 50% hineinzuzoomen. Und das will ich mir nicht entgehen lassen! Insofern kann ich deine zweite Frage nicht beantworten.
Markus
ein absolut eindeutiges:
Es war, ist und bleibt völliger Quatsch: Durch Skalieren ändert sich die Farbtiefe kein bisschen, weil man aus Blei kein Gold machen kann.
Die Farbunterabtastung beschreibt ja auch nicht die Farbtiefe.TomStg hat geschrieben: ↑Fr 04 Feb, 2022 12:47Es war, ist und bleibt völliger Quatsch: Durch Skalieren ändert sich die Farbtiefe kein bisschen, weil man aus Blei kein Gold machen kann.
Downscaling von UHD auf einer FHD-Timeline verbessert in der Regel den Bildeindruck, aber ganz sicher nicht die Farbtiefe.
Aber nur, wenn Du die undebayerten Sensordaten in voller Auflösung hast und dann jeweils vier monochrome RGGB-Pixel in einen farbigen RGB-Pixel herunterrechnest.
Jedes "Rechnen" bringt doch neue Pixel und somit "falsche" Farben. Dennoch kann es besser aussehen. Wenn man 4 mal soviel Information hat, kann man auch bessere Farben berechnen.cantsin hat geschrieben: ↑Fr 04 Feb, 2022 13:36 Aber nur, wenn Du die undebayerten Sensordaten in voller Auflösung hast und dann jeweils vier monochrome RGGB-Pixel in einen farbigen RGB-Pixel herunterrechnest.
Wenn die Sensordaten bereits debayert bzw. die Farben interpoliert wurden und danach noch einmal skaliert werden, erhältst Du diverse Artefakte bzw. Falschfarben, vor allem an den Objektkanten.
Nee, nicht wenn Du vier Bayer-Pixel sauber zu einem RGB-Pixel zusammenfasst:
Wenn Du die vier Bayer-Pixel von 6K auf 3K bzw. von 8K auf 4K runterrechnest, hast Du saubere, nicht-interpolierte RGB-Farbwerte mit maximaler Farbauflösung, wie bei einer 3-Chip-Kamera.
Das klingt so, als gäbe es Kameras mit Bayer-Sensor, die für die Ausgabe nicht debayern.cantsin hat geschrieben: ↑Fr 04 Feb, 2022 15:17Wenn Du die vier Bayer-Pixel von 6K auf 3K bzw. von 8K auf 4K runterrechnest, hast Du saubere, nicht-interpolierte RGB-Farbwerte mit maximaler Farbauflösung, wie bei einer 3-Chip-Kamera.
Wenn Du aber 6K-Bayer auf 6K-RGB (statt 3K RGB) bzw. 8K-Bayer auf 8K-RGB umrechnest, interpolierst Du dabei die Farben bzw. erzeugst fiktive/geratene Farben, und kaufst Dir die höhere spatiale bzw. Luma-Auflösung (6K statt 3K, 8K statt 4K) um den Preis geringerer Farb- bzw. Chroma-Auflösung (4:2:2 statt 4:4:4).
Aber, wie gesagt, das setzt immer voraus, dass Du auch die undebayerten Werte als Ausgangsdaten hast. Daneben gibt's noch so EOSHD-Foren-Voodoo, dass man durch 50% Skalieren von debayertem 8bit-4K angeblich 10bit 2K erhält, was ziemlich kompletter Quatsch ist.
Ja, alle Raw-Kameras.dienstag_01 hat geschrieben: ↑Fr 04 Feb, 2022 19:15 Das klingt so, als gäbe es Kameras mit Bayer-Sensor, die für die Ausgabe nicht debayern.
Na klar, aber *normales* Video?!cantsin hat geschrieben: ↑Fr 04 Feb, 2022 19:45Ja, alle Raw-Kameras.dienstag_01 hat geschrieben: ↑Fr 04 Feb, 2022 19:15 Das klingt so, als gäbe es Kameras mit Bayer-Sensor, die für die Ausgabe nicht debayern.
Ich hatte ja nur über Raw (und seine verschiedenen möglichen Interpretationsmethoden) geschrieben.
Bei der Gelegenheit habe ich mit meinem oben theoretisch skizzierten Workflow soeben auch mal in der Praxis ausprobiert. Das ist ziemlich faszinierend.
Ganz schön aufgesteilt, die Kanten am komisch verarbeiteten Bild.cantsin hat geschrieben: ↑Fr 04 Feb, 2022 23:20Bei der Gelegenheit habe ich mit meinem oben theoretisch skizzierten Workflow soeben auch mal in der Praxis ausprobiert. Das ist ziemlich faszinierend.
Hier der Workflow:
- Ein RAW-Foto einer Kamera mit Bayer-Sensor in Raw Therapee öffnen, Profil "Neutral" anwenden (das sämtliche Bild-Tunings ausschaltet) und dann im Raw-Tab die Debayering-Methode auf "None (Shows Sensor Pattern) umschalten. Jetzt sieht man das Bild als Bayer-Muster, vor allem, wenn man auf 1:1-Pixelzoom geht.
- Um die doppelte Gewichtung von Grün im Bayer-Filter zu kompensieren, im Color-Tab in den Channel-Mixer gehen und in "Green channel" den Grün-Regler auf 50% runterdrehen.
- Das Bild (=das undebayerte Bild im sichtbaren RGGB-Raster) als TIFF 32bit Float exportieren (um keine Werte abzuschneiden, da wir die Werte teilweise abgesenkt haben).
- Das exportierte TIFF in Gimp öffnen (um in der Open Source-Toolchain zu bleiben), in den Menüpunkt "-> Image -> Scale Image" gehen und das Bild [in beiden Dimensionen] auf 50% skalieren, dabei als Interpolation "Linear" einstellen. Laut der Gimp-Dokumentation interpoliert "Linear" 4 Pixel und tut daher hier genau das richtige. Das resultierende Bild wieder als 32bit-TIFF exportieren.
- In Raw Therapee wird das so exportierte TIFF jetzt als "HDR" angezeigt. In "Exposure compensation" die Belichtung auf 1.5 Blenden sowie Sättigung auf 33-50% erhöhen, um die vorige Absenkung des Grünkanals zu kompensieren, ggfs. noch Weißabgleich korrigieren. (Diese Arbeitschritte gehen natürlich auch in Gimp, aber bei RawTherapee finde ich das Interface präziser.)
Was man jetzt erhält, ist das faktische Äquivalent des Bilds einer Foveon-Kamera und sieht auch so aus. Es erinnert mich auch an alte 3-Strip-Technicolor- bzw. Kodachrome-Farben, die ja einen ähnlichen Farbfilterungsprozess verwendeten. Dabei umgeht man die Kamera-/Sensor-spezifischen Farbkorrekturprofile bzw. Hersteller-"Color Science" praktisch völlig, bzw. sieht die Farben so, wie die Kamera sie sieht. [Wobei es einem natürlich unbenommen bleibt, um noch weitere Bildkorrekturen vorzunehmen - Farbtiefe ist ja reichlich vorhanden.] Das Bild ist auf Pixelebene auch 100% scharf, und jede Nachschärfung erübrigt sich - eher hat man das umgekehrte Problem, dass an Kanten und feinen Details wie z.B. Haaren harte bzw. pixelige Ränder entstehen können. (Auch das ist Foveon-typisch.] Und Bayer-highlight reconstruction fällt natürlich komplett weg, und die Bilder clippen daher härter und anders [z.B. in Falschfarben; auch das wiederum wie bei Foveon].
Natürlich geht das auch mit Video-Raw - in der Praxis aber nur mit CinemaDNG [und natürlich mit dem gleichen Auflösungsverlust, z.B. von 4K auf 2K]. Ich muss, glaube ich, unbedingt mal mit meiner Sigma fp so ein Technicolor-Video drehen.
Als Beispiel hier ein Foto, das mit einer Sony A9 aufgenommen und konventionell (per AMazE-Demosaicing-Algorithmus) als 24MP-Bild prozessiert wurde:
_DSC5006-conventional.jpg
Hier dasselbe Foto mit dem o.g Prozess, als 6MP-Bild:
_DSC5006-rgb_downscale_debayering.jpg
EDIT:
Und genau wie Foveon, sind die resultierenden Bilder im RGGB-Herunterskalier-Workflow auf Pixelebene deutlich detailreicher/schärfer als konventionell debayerte Bilder, selbst wenn man sie nachträglich auf 50% skaliert:
detail_comparison.png
(links das konventionell debayerte Bild, rechts das Bild aus dem alternativen Workflow - Anklicken für 1:1-Ansicht)
Ja, wie bei Foveon. Weil da an den Farbsäumen nichts interpoliert wird, und deshalb auch die weichen Übergänge wegfallen. Nachgeschärft (im Sinne von Nachschärfungs-Algorithmen) ist da allerdings nichts.dienstag_01 hat geschrieben: ↑Sa 05 Feb, 2022 00:11 Ganz schön aufgesteilt, die Kanten am komisch verarbeiteten Bild.
Bin ich skeptisch. Und diese fetten Ränder um jedes Objekt suggerieren Auflösung/Schärfe, davon gehört aber nichts an diese Stellen.cantsin hat geschrieben: ↑Sa 05 Feb, 2022 00:44Ja, wie bei Foveon. Weil da an den Farbsäumen nichts interpoliert wird, und deshalb auch die weichen Übergänge wegfallen. Nachgeschärft (im Sinne von Nachschärfungs-Algorithmen) ist da allerdings nichts.dienstag_01 hat geschrieben: ↑Sa 05 Feb, 2022 00:11 Ganz schön aufgesteilt, die Kanten am komisch verarbeiteten Bild.
Es sind aber nicht nur Kantenaufsteilungen, sondern auch bessere Detailauflösung. Vergleich mal das Mülleimer-Symbol [oder das Atom-ähnliche Herstellerlogo mit den zwei Aussenlinien] auf dem Megaphon zwischen den beiden Bildern.