@ MarcBallhaus
Marc, ich bin in den meisten Punkten Deiner Meinung, aber ein paar Korrekturen sind angesagt:
Digibeta zeichnet auch PAL uncompressed auf.
Falsch, DigiBeta zeichnet blockbasiertes DCT-komprimiertes Komponenten-Video-Signal mit einem 10 Bit YCbCr 4:2:2 auf (Kompression 2:1) ... das ist noch lange nicht uncompressed, sonst müsste sie nämlich (incl. vert. Blank 270 Mbit/s aufzeichnen ist aber: 126 Mbit/s). Die D5 zeichnet transparent und uncompressed auf.
(Übrigens nimmt auch die RED nicht unkomprimiert auf)
Digibeta zeichnet auch PAL uncompressed auf.
Nochmal falsch: Digi Beta zeichnet nicht PAL auf, sondern ein SD-Signal nach ITU-R BT.601.
PAL ist ein analoges Verfahren, Beta SP hat PAL aufgezeichnet.
Aber uncompressed heisst doch nicht 4:4:4, sondern im Falle von Digibeta 4:2:2.
uncompresses hat überhaupt nichts mit der Farbabtastung zu tun.
Das wird hier munter verwechselt mit "transparent" und transparent ist in der Tat nur 4:4:4, auch wenn die einschlägigen Prospekte gern 4:2:2 als "transparent" bezeichnen. Es ist falsch.
Jede Unterabtastung, also auch 4:2:2 ist die Reduktion von Daten, egal, ob das nun digital, oder analog geschieht. Bei 4:2:2 sind bereits 50% der Farbinformtionen weggelassen, also reduziert.
4:2:2 kann somit gar nicht mehr transparent sein. (Signalinhalt -keine Schnittstellentransparenz)
dass von 4k runter auf HD skaliert wurde einfach mehr an Informationen hat.
Der Detailreichtum eines Bildes richtet sich immer nach dem Auflösungsvermögen des Objektives.
Ein Bild, dessen Ursprungsobjektiv z.B. 100 lp/mm auf dem entsprechend auflösenden Sensorblock auflöst hat den identischen Detailinhalt wie ein 100 lp/mm Objektiv auf einem Sensorblock der x- mal höher auflöst !! Nur dass das Moire auf dem höher auflösenden Chip stärker ist!
Und bei der Downskalierung gehen ausserdem alle höheren Details (so sie denn vorhanden sein sollten), verloren.
Ein herabskaliertes 4k auf 2k hat weniger Detailinhalt als ein nativ in 2k (ohne Farbmosaikmaske, also 3-Chip) aufgenommenes 2k Bild.
Es sei denn, auf den 4 K Chips wird ein Windowing gemacht.
Jede Interpolation führt zur Bildverschlechterung.
Hinzu kommt das Problem, der Objektivgüten für 4k, denn Objektive im Bereich um die 250 lp/mm dürfte nicht jeder in seinem Koffer haben und erst Recht nicht bezahlen können.
Bildqualitäten richten sich ganz wesentlich nach dem Pixel-Pitch und weniger danach, wie viel Pixel auf dem Sensor sind.
Vergleicht man also Bilder miteinander, gelingt das nur, wenn man von identischen Werten im Pixel-Pich ausgeht.
Im Nachteil sind auch die 4k im Hinblick auf die erwähnte Moire-Bildung und der damit erforderlichen Filterung, ebenso wie mit den Anforderungen bezüglich Abbildungsfehlern der Optiken .... alles Probleme, die sich bei 2 k nicht in der Schärfe stellen und somit zu besseren Bildern beitragen.
Ich schenk mir hier mal die Problematik der nicht-sichtbaren Lichtanteilen bei großen Sensoren...
Also kann man nicht so einfach sagen, 2k oder 4k seien besser.
Es kommt immer darauf an ....
Das heisst umgekehrt, dass du bei 4:2:0 Farbsampling die 4fache Auflösung brauchst, um Full HD voll auszureizen, also 8k!!! Oder eben 4k bei 4:2:2 Sampling, und genau das macht die RED One.
Die Rechnung habe ich nicht verstanden und erkenne die Zusammenhänge nicht.
Die Unterabtastung kann man doch nicht in einen linearen Zusammenhang mit der Auflösung bringen ... oder habe ich da etwas falsch verstanden ?
Die Scarlet wird noch ein bisschen mehr können, damit kannst du dann Nachkadrieren oder Zoomen ohne gleich an Schärfe zu verlieren.
Beim Zoomen verlierst Du immer erhebliche Schärfe (Interpolation). Es sei denn, Dein Zielformat hat nicht mehr die original-Auflösung. (Also wenn Du aus 4k kommst und ein 2k Produkt erstellst).
Dann fällt es zwar nicht mehr so auf, aber die Schärfe ist dennoch verloren gegangen.