- 12bit sind *sehr* sinnvoll, selbst wenn das Ziel ein 8bit oder 6bit Master sind.
- Man braucht *keinen* 12bit Darstellungsweg um die Farbtiefe zu nutzen.
- Es muss *nicht* konvertiert werden.
Ich denke, wir sprechen über unterschiedliche Anwendungen, denn wenn (wie im vorliegenden Fall) ein Consumer lediglich eine 8-Bit Strecke hat, sieht er die ganzen Vorzüge eines 12 Bit Signals nicht mehr.
Mit der spatialen Bildauflösung hat das zunächst einmal gar nichts zu tun denn das sich zwei völlig verschiedene Dinge.
Aber bleiben wir erst einmal dabei:
Wenn wirt jetzt in einen Bildbereich des 4K Bildes vergrössern - verlieren wir keine Schärfe. Es sind genug Informationen da, um immer noch Punkt für Punkt abzubilden.
Ich vermute mal, Du meinst den Crop aus einem 4k Bild, weil jede Verkleinerung oder Vergrösserung immer mit Interpolation verbunden wäre.
Auch das bezieht sich immer auf das Zielformat und trifft zu, wenn Du ein 12 Bit Format in ein anderes 12 Bit Format überführst, nicht aber, wenn Du aus einem 12 Bit CineFormat in eine 10 oder 8 Bit Videoformat überführst.
In diesem Zusammenhang hast Du meine Ausführung vielleicht falsch verstanden. Ich hatte den Schwerpunkt nicht auf die spatiale Auflösung von 2k nach 1080 gelegt als vielmehr auf 12-Bit nach 10 bit, denn es gibt derzeit noch keine Spezifikation für ein 1080 Format in 12 Bit.
Wenn wir jetzt 1080p für 1080P drehen - ist jedes rauschen exakt ein Bildpunkt. Das kann, grade bei lowlight, sehr störend sein. Bei 4K dreh für 1080P Master hingegen, ist das Rauschen 75% gedämpft. Warum? Nun, weil eben jeder Quell-Bildpunkt nur ein Viertel des Masters ausmacht. Sprich, wir kriegen ein störungsärmeres Master, ein besseres Rauschverhalten.
Da kommen auch wieder ein paar Dinge durcheinander, weil sich das Rauschen nicht an der Grösse sondern an der Menge misst.
Mal ganz davon abgesehen, dass wir es mit 7 unterschiedlichen Rauschsorten zu tun haben, von denen nur ein Teil der Sensor generiert, ist der Störabstand immer die Differenz zwischen Full Well und der Elektronenmenge, die der Sensor ohne Photonen pro Fotozelle abgibt.
Der Störabstand ist also bei einem "Sensorpixel" ebenso gross wie bei 4k.
Was Du meinst, wäre eine optische Verkleinerung ... die wir aber in der Pixelverarbeitung nicht haben. Pixel werden immer durch Interpolation überführt. Der Störabstand ändert sich dabei nicht.
Erst durch ein Binning im Sensor lässt sich für eine so erstellte (grössere Sensorfläche) der Störabstand verringern.
Der Rauschwert verringert sich also um den Wert der Quadratwurzel aus der Anzahl der benutzten Pixels.
(Das entspräche dann Deiner optischen Verkleinerung des Endbildes, nur eben anders herum durch eine (quasi optische) Vergrösserung der Source)
Nimmt man im Ton bei 24bit auf - auch wenn das Ziel nur 16bit CD, 20bit DCI, 14bit Stream sind.
Nimmt man im Bild Zeitlupen mit 48, 96, 192 usw auf - auch wenn das Ziel 24P sind.
Nimmt man eben mit 12bit Farbtiefe auf - auch wenn das Master 8bit (bluray, TV oder DVD bspw ist).
Nun bist du wieder in einem ganz andern Feld gelandet.
Das, was Du hier anführst, sind Quantisierungseffekte ... eine der oben erwähnten Rauschquellen, ausserhalb des Sensors.
Es ist völlig unstrittig, dass für den Verarbeitungsprozess eine höhere Quantisierung von Vorteil sein kann.
Ich sage ganz absichtlich KANN, weil es durchaus nicht so sein muss.
Nehmen wir an, es handelt sich um einen 16 Bit A/D Wandler in einer Kamera. Daraus resultiert ein 2-Byte Datenwort, das im Bildprocessing bearbeitet wird. Also von 2e0-1 bis 2e16-1.
Das Datenworte ist immer in drei Kategorien aufgeteilt:
Bits, die nur Noise vom Sensor (z.B.Shot) enthalten,
Bits, die das eigentliche Nutzsignal mit einem Mittelwert enthalten
Leading Bits, die lediglich „0“ enthalten.
Was wir dann sehen, ist, dass die Zahl der Bits, die die Signalschwankungen wegen des Shot-Noise enthalten, der Zahl von Bits gleichkommt, die den nicht-schwankenden Teil des Signals bezeichnen.
Daraus folgt, dass ein 16 Bit Wandler in sich selbst noch keine Vorteile birgt. Würden wir dahingegen einen 12 Bit A/D Wandler betrachten, so würden die Quantisierungsschritte um den Faktor 2^(16- 12)=16 größer sein.
Die Auflösung würde somit um den Faktor 16 abnehmen.
Das bedeutet, dass am „less significant Bit- Ende“ des Datenwortes Auflösung verloren gehen würde.
Nur das LSB-Ende des Datenwortes enthält nur noch Shot-Noise.
Reduziert man also das Datenwort von 16 auf 12 Bit, würde Shot-Noise abnehmen, bei gleichzeitiger Beibehaltung der signifikanten, nicht schwankenden Daten.
Du siehst, man kann nicht einfach mal aus der Audiotechnik ein Beispiel nehmen und es 1:1 auf Video übertragen.
Das mit der Farbkorrektur schenke ich mir jetzt mal, aber da gäbe es auch einiges zu sagen.
Nur glaube ich, dass wir gar nicht so weit in den Ansichten auseinander liegen.
Ich habe überhaupt nichts gegen 12 Bit. Wir arbeiten selbst damit und keiner featured gute Qualitäten hier im Forum wahrscheinlich mehr, als ich.
Hier geht es darum, dass ein Hersteller einem "Otto Normalverbraucher", der vermutlich bisher mit einem Camcorder oder einem etwas besseren Henkelmann gearbeitet hat und von iMovie zu FCPx gekommen ist, über das Keywort "Cine", dem versprechen von 13 Blenden und dem Preis vorgaukelt, er könne ab morgen Cinequalität generieren.
Und die Blogs steigen darauf ein und versprechen genau diesem Verbraucher die kommende Revolution.
Und was das Zielformat angeht, so ist es nach wie vor, vermutlich bei über 90% immer noch 709 und keiner wird irgend ein Log abgeben.
Darum geht es.
Dass es diverse Anwender hier im Forum gibt, die ggf. auch mit den nötigen Zusatzinformationen das Format nutzen können, steht gar nicht ausser Frage.
Die, die es adhoc benutzen können, werden sich allerdings fragen, ob die Kameras, die sie bereits haben, nicht einen besseren Dienst machen.