Da haben wir keinen Dissens, ich hab auch nie behauptet, dass 12bit Speicherung Unsinn sind - im Gegenteil, bei den klassischen Hybridkameras braucht man 12 oder 14bit auch für den Headroom, den das mitgespeicherte Bildrauschen erfordert. Nur wird es dann ab einer bestimmten Farb-Bittiefe ineffizient und ist es nicht so, wie iasi glaubt(e), dass man diese Bittiefe beliebig erhöhen kann und dann mehr reale Differenzierung/Abstufungen gewinnt.pillepalle hat geschrieben: ↑Mi 15 Mai, 2024 15:12 Natürlich. Du gehst aber davon aus, dass die effektiv nutzbare Dynamik des Sensors geringer ist (weil ein Teil im Rauschen untergeht) und sich dadurch auch die Farbtiefe verändern würde. Sie bleibt aber feiner Aufgelöst, nur kann man sie nicht mehr in ihrer Gesamtheit nutzen (den Rauschequatsch herausgenommen). Man verliert in jeder Farbtiefe einen Teil der Informationen im Rauschen. Also auch bei 10 Bit und auch bei 8 Bit. Das ist keine Eigenheit die man erst ab 12 Bit hat. Insofern profitiert man im Zweifel auch immer von einer höheren Farbtiefe.
In Wahrheit ist das halt genauso ineffizient, wie ein vermatschtes Webcam-Videosignal in 4K oder höher aufzuzeichnen, wenn da schon ab 720p keine zusätzlichen Details mehr gewonnen werden.
Die ganze Diskussion fing - vor sechs Seiten! - hiermit an:
Das mag beim ersten Lesen ja provokativ klingen - und iasi fing daraufhin diese ganze lange Debatte hier an -, aber hoffentlich sind wir weiter und ist das obige Statement besser verständlich ...cantsin hat geschrieben: ↑Do 09 Mai, 2024 01:17Dann musst Du mal Deine technischen Grundlagen updaten. Bei Digitalkameras begrenzt der DR die reale Farbtiefe. D.h. mit einer Kamera, die nur 10 reale Stops DR schafft, kriegst Du auch nur reale 10bit per Farbkanal. Was bedeutet, dass da für z.B. für DCP-Kinoprojektion als Zielmedium praktisch kein Spielraum für Color Grading bleibt, bzw. nur mit sichtbaren Einbußen bei der Bildqualität/Farbauflösung.