WARUM MACHEN WIR NICHT ALLES IN 32 bit?
Kamera-Rechner-alles???
Ich glaube, wir müssen zwei Dinge mal wieder voneinander trennen:
Die Tiefe des Kamerasignals und die Verarbeitungstiefe im Rechner.
Dazwischen liegt ein Übertragungskanal mit einer bestimmten Bandbreite und Rechenkapazität und ein Speichermedium mit einer bestimmten Kapazität.
Selbst im RAW Format bekommt man 14Bit Kameratiefe nur so mit Ach und Krach derzeit über den Workflow und heraus kommt letztlich ein Videosignal, in dem alle Artefakte, und vor allen Dingen ein bestimmter Störabstand "eingebacken" sind und sich nachträglich auch nicht verbessern lassen.
Auch nicht durch den Übergang in andere Farbmodelle oder eine noch so tiefe Art das Signal zu berechnen.
Man kann jetzt über das Dazutun von Dither diskutieren oder eine sonstwie geartete Entrauschung aber es handelt sich meistens um Überdeckung, nicht aber um Verbesserung des Störabstands.
Etwa Anderes ist es bei Computersignale, die bis zum Endprodukt immer neu gerechnet werden und daher bei jedem Renderprozess Signale entstehen, als würde eine Kamera neu aufnehmen.
Auch sind nicht die klassischen Engpässe der Kamera vorhanden.
Es besteht also nur selten Grund, nicht in 32 Bit zu rechnen.
Daraus resultierend hat ACES die 16 Bit festgeschrieben. Es ist der Kompromiss zwischen den (besseren) Computersignalen und noch den (derzeit) besten Kamerasignalen (14 Bit).
An dieser Stelle mit 32Bit zu arbeiten bringt überhaupt nichts, weil es weder dem Störabstand dient, noch das letzte Quäntchen Computersignal sichtbar ist, aber eine ungeheuere Aufblähung des Datenformates bedeutet.
Auch in der angesprochenen Werteverteilung bedeutet das absolut keinen Nachteil, denn von 10,12,14- Bit nach 16 Bit lassen sich die Formate selbst linear -ohne Punktoperation- mappen.
Was die Verarbeitung in 32 Bit angeht, macht es nur insofern Sinn, wenn man hinterher auch ein 16Bit Signal herausstellt -wenn man denn auch den Monitor hat, der das darstellt- und den Menschen, der die Auflösung überhaupt sieht.
ACES geht davon aus, dass man die e6Bit auch nur als Archivierung nutzt, für den Fall, dass es denn mal eine bessere Darstellung gibt.
Selbst für HDR Bearbeitung sind die 16 Bit mehr als "dicke".
Und sowas wie "Superweiss" oder "Superschwarz" gibt es in Kameraverfahen auch nicht denn alle Sensorwerte, also die komplette Dynamik ist gemapped. Also SW und WS des Sensors sind eingeschlossen. Es gibt keine Werte darüber oder darunter.