Hm, was meinst du mit Quantisierungskurve?
Jeder Sensor sammelt nur Photonen ein, die er in Elektronen umwandelt. das ist ein analoger Prozess. Diese Elektronen müssen "digitalisiert werden" Dazu werden entlang einer Kurve, die einzelnen Spannungen bestimmten werten der Übertragungstabelle zugeordnet.
Das kann linear geschehen, oder eben auch nach andern Vorgaben, die der Hersteller für sein Produkt für sinnvoll hält. meistens ist es nicht linear, weil man Bildparameter optisch verbessern kann, aber einwenig den Störabstand dadurch verschlechtert.
Es wäre z.B. Blödsinn, bei einer 10 Bit Kamera die theoretischen 60db Störabstand zu nutzen. Der Hersteller wird ihn immer in einem praktikablen Rahmen ansiedeln und "den Rest" zur Bildverbeserung nutzen. Und auf diese Quantisierungskurve, also darauf, welcher analoge Sensorwert welchen Übertragungswert erhält, hast Du nur sehr begrenzt Einfluss.
das hängt vermutlich damit zusammen dass jeder Sensortyp unterschiedliche Gammakurven verlangt, und eben jene wird dann beeinflusst. oder?
Jeder Sensor hat unterschiedliche Werte für SN und FW. daraus ergibt sich die Dynamik des Sensors und selbst wenn unterschiedliche Sensoren dieselbe Ratio haben, ist das Ergebnis drastisch unterschiedlich:
Z.B. 100.000 Elektronen FW bei 10 Electr. für SN oder 10.000 Elen. bei 1 Elen SN. beides dasselbe Ration. Betrachtet man 18 % Grau, dann macht der erste Sensor das bei 18.000 Electr.und der zweite bei 1.800 E. bei 1 wäre das der Übertragungswert 137 (also 7 Blenden) und bei 2 wäre das 42, also nur rd. 5 Blenden. (Unterschied zwischen den beiden Sensoren, bei gleicher SN Ratio: 2 Blenden.
Damit meinst du nun dass man den Wertebereich nach OBEN hin voll ausnutzt, oder?
Im Prinzip ja, das hängt aber vom Farbraum ab, den Du nutzt weil 709 ihn begrenzt, RGB aber nicht. Nun kommt es also auf die Farbmaske an, ob Du überhaupt RGB machen kannst.
Bei Deinen Szeneneinstellungen muss ich Dich enttäuschen, denn das Beste ist zunächst einmal, Du benutzt eine moderne Kamera, denn mehr und mehr Hersteller gehen dazu über, eine Bildanalyse zu machen und danach die Quantisierung zu dynamisieren. Darüber hinaus greifen jede Menge Tools, um das Rauschen zu unterdrücken. Dafür bieten sie immer weniger Möglichkeiten, in die Gammkurven einzugreifen. Es kann also sein, dass Du eine Gammakurve wählst, die eigentlich rauschen müsste, die Kamera aber in das Rauschen eingreift.
Man kann daher nicht sagen, dies ist gut und jenes sollte man meiden. Jede Kamera verhält sich anders.
ist das rauschen der h264-kompression geschuldet?
Kompressoren erzeugen kein Rauschen. Sie können bestenfalls Artefakte erzeugen. ganz im Gegenteil Codecs neigen dazu, Rauschen zu verwischen, wodurch unschärfe entsteht. Aber je nach Codec kann (etwas) Grein im Bild hilfreich für einige Codierprozesse sein und andere Artefakte verhindern.
Aber das ist nun wieder ein ganz anderes Thema.
durch den 144mbit hack der gh2 umgehen bzw. mindern?
Nein. Wenn man die Funktionsweise des Codecs versteht, versteht man auch, dass man mit der Erhöhung der Datenrate nicht das erreicht, was damit versprochen wird. Es sei denn, man macht es beim MJPEG.
Aber wer eine Verbesserung sieht, auch wenn er einem Placebo aufsitzt, hat das Ziel doch bereits erreicht. Das Bild sieht für ihn besser aus und er ist zufrieden. Insofern hat der Hack doch was Gutes.