@ iasi
Du bekommst keine Farbkanäle (als Farben) aus dem Sensor. Ein Sensor kann nur shwaz/weiss !! Du bekommst also nur Luminanzwerte der einzelnen Pixels, die dann entsprechend der Farbmaske mit einer ziemlich komplizierten Gewichtung in Farbwerte interpretiert werden.
Da vorne gibt es absolut NIX zu mischen und auch nix zu sehen, bevor der Prozess des Demosaiking nicht durchlaufen ist.
Und das was Du R-G-B Werte nennst und was man leicht mit dem RGB Farbraum verwechseln könnte ist mit der Bayermaske ohnehin nicht zu machen, weil das Abtastraster ein gänzlich anderes ist.
Also, nochmal: Das Demosaiking im RAW ist lediglich eine Verlagerung aus der Kamera hinein in den Computer und das geht bei RED über eine verlustbehaftete Codierung, die ausser Nachteilen an der Stelle nichts bringt.
hardware tut schon einmal gar nichts ohne software. daher ist es eine frage der programmierung,
Stimmt und die Kamerahersteller kennen ihren Sensor und dessen physikalischen Eigenschaften meistens besser, als die Anwender, die nachher in der Software rumkurbeln und erreichen dadurch schnellere und bessere Bilder.
Und nochmal: Die Signale sind, wenn sie den Computer erreichen, bereits verlustbehaftet. Selbst wenn man einen Anwender hat, der "göttlich" debayern kann, sind seine Bilder dennoch schlechter, als würde man es mit den transparenten Signalen des Sensors machen.
wenn ich die 4 farbkanäle
Von welchen 4 Farbkanälen sprichst Du ? Du bekommst Helligkeitswerte für G, Helligkeitswerte für R und Helligkeitswerte für B und das als überlappende Werte. Wenn Du also eine Violette Farbe darstellen willst, musst Du schon einen ganzen Haufen Algorithmen aud die drei werte rechnen, damit hinterher auch Violett dabei herauskommt.
Und nochmal: es kommen keine Farben aus dem Sensor. Jeder Sensor kann nur schwarz/weiss wiedergeben.
von den 25%r, 25%g, 25%g und 25%b gehen schlicht teile beim debayering der kamera verloren.
Es geht in der Kamera weniger verloren als hinter der verlustbehafteten Codierung.
Was lässt Dich denken, ein Debayering in der Kamera würde schlechter funktionieren ?
damit sage ich, dass ich das bild in der postpro so entwickle wie ich es möchte - es ist eine frage der kontrolle.
Falsch, du kannst nur noch das kontrollieren, was das Codierverfahren übergelassen hat und du kannst nicht mehr kontrollieren, was das Codierverfahren dazu gemischt hat, zumal Wavelet ein Codec aus den 80er Jahren ist, an dem seitdem nicht mehr entwickelt worden ist.
Es ist im Grunde noch so, wie Alex Grossmann ihn gebaut hat.
Aber er kostet eben nix.
letztlich ist eben die frage, ob du dem koch zutraust, dass er die vielen suppen immer alle richtig würzt, oder ob du lieber die suppe und die gewürtze bringen lässt um selbst nach deinem geschmack die suppe abzustimmen.
Schönes Bild, nur dass die Suppe aus der Kamera schon versalzen raus kommt.
Aber solange Marketingleute auf die Kunden eindreschen und ihnen vorgaukeln, es würde gut schmecken, ist ja alles ok.
"Des Kaisers neue Kleider".
Ich will Dir ja keinen Rat geben, aber bevor ich solche Autoren, wie den, des obigen Artikel als "Schwätzer" bezeichnen würde, würde ich mich erst mal mit der Materie vertraut machen und andere Literatur, als das RED Forum zurate ziehen.
Den Rest der Erklärung und warum es im Fotobereich anders ist, schenke ich mir jetzt mal.