
Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Editorials: Sind 12 Bit ohne Rauschen nur 8 Bit?
Sicher nicht, denn die Signalverarbeitung der meisten 8 Bit-Kameras ist ja wegen deren Hardware- und Echtzeitbeschränkungen beleibe nicht so gut, dass da auf Neat Video- oder vergleichbarem Niveau entrauscht wird.Basiert ein Großteil der Vorteile, die wir bei 10 Bit-Bearbeitung sehen hauptsächlich auf dem zusätzlichen Rauschen?
ich glaube das hab ich noch nicht richtig verstanden. evtl kannst du das nochmal deutlicher machen.rudi hat geschrieben: ↑Di 23 Mai, 2017 15:22 In erster Linie denke ich dabei natürlich an Rebel-Filmer. Wer sich sich 12 -14 Bit in RAW oder Pro RES leisten kann, der bekommt damit das beste Material für die Post. Keine Frage.
Die Frage ist eine andere: Wenn ich mir z.B. eine A7s mit einem 4K-Recoder nehme und damit schwach komprimiertes Log-Material aufzeichne, dann könnte ich theoretisch eine Noise Simulation des Sensors auf das Material rechnen, bei der man nicht mehr sagen könnte was ist das RAW-Material und was ist das 8 Bit Material + Noise-Simultaion. Das suggeriert zumindest die Theorie von A1ex. (wenn man eine ideale Log-Kurve findet, die das Sensorrauschen am besten abtrennt).
Nein. Man hat in der Kamera durch eine bestimmte Transferfunktion die 14 Bit des Sensors vor der Übertragung so nach 8 Bit gewandelt, dass dadurch größtenteils nur Noise "weggeschnitten" wird. Die Wandlung 12->8Bit durch eine Log-ähnliche Kurve ist also gewissermaßen schon eine Noise-Reduction. Wenn man jetzt das charakteristische Rauschen des Sensors kennt, könnte man dieses Rauschen (mehr oder weniger ) einfach wieder draufrechnen und hätte ein Bild, das mit den Original zwar nicht übereinstimmt, aber in der Anmutung recht ähnlich ist.
Nee, da steckt doch ein Problem drin: Du musst das Log-Material ja noch in den Darstellungsfarbraum (also i.d.R. Rec709) transformieren, und dann landest Du unterhalb von 8bit. Ausserdem komprimiert ein 4K-Recorder, der z.B. ProResHQ aufnimmt, immer noch im Verhältnis 1:6.7, bei relativ ineffizienter Codectechnologie. Das ist doch niemals das optimal entrauschte und gespeicherte Signal, das A1ex in seinem Paper beschreibt.rudi hat geschrieben: ↑Di 23 Mai, 2017 15:22 Die Frage ist eine andere: Wenn ich mir z.B. eine A7s mit einem 4K-Recoder nehme und damit schwach komprimiertes Log-Material aufzeichne, dann könnte ich theoretisch eine Noise Simulation des Sensors auf das Material rechnen, bei der man nicht mehr sagen könnte was ist das RAW-Material und was ist das 8 Bit Material + Noise-Simultaion.
Peppermintpost hat geschrieben: ↑Di 23 Mai, 2017 22:47 das ist ja in vielen bereichen von technik (nicht nur bei kameras) das problem. die technik ist viel zu komplex als das es der nicht techniker noch verstehen könnte. dann werden einige wenige parameter heraus gesucht um die qualität zu reflektieren und das wird der aufgabe natürlich nie gerecht.
nimm z.b. eine gh5 und zeichne extern in prores auf, dann nimm eine alexa und zeichne in prores auf. die unterschiede werden deutlich sein und nicht unbedingt zu gunsten der gh5 obwohl die ja über 4k kann und die alexa nur ein bissel über hd und obwohl beide in 10bit und mit gleicher datenrate aufzeichen. da sind halt noch einige dinge unter der haube die den ausgang entscheiden. die werden aber in den paar daten nicht reflektiert.
umgekehrt! -- die auflösungsreduzierung lässt sich sinnvoll nutzen, um höhere quantisierungstiefen zu übrtragen, weil sich ja bspw. bei UHD->FHD skallierung viermal so viel mögliche mittelwerte bei zusammenlegung der pixel ergeben als im ausgangsmaterial. ein "gewinn" von 2bit potentieller tiefe! aber natürlich ist dieser "gewinn" nur dort wirklich relevant, wo diese zusätzliche information bereits vorher ins ausgansmaterial einkodiert wurde bzw. unter ausnutzung der spatialen auflösung untergebracht wurde -- d.h. aus der quantisierungsauflösung in die spatiale ebene gemappt wurde. genau das ist aber im zusammenhang mit dithering gewöhnlich der fall! wenn man das richtig nutzt besteht also kein qualitativer unterschied zwischen material mit 2bit höher bittiefe und footage das ganz bewusst in viermal so hoher spatialer auflösung und geringerer bittiefe übertragen wird, wenn man es entsprechend handhabt.mediavideo hat geschrieben: ↑Do 25 Mai, 2017 00:57Die Auflösungsreduzierung ist dabei auch nicht mehr als eine Reduktion der Quantisierungstiefe, ...
Ist aber nicht an dir das zu entscheiden. Und gleich die ersten Postings in dem thread diskutieren das sehr wohl.