Frank Glencairn hat geschrieben: ↑Fr 16 Jun, 2023 16:51
cantsin hat geschrieben: ↑Fr 16 Jun, 2023 14:14
Hinzu kommt auch noch die Auflösung der Objektive. Weil z.B. kaum ein Objektiv unter der Zeiss Supreme Prime-Klasse die hier nötige optische Auflösung liefert, bringt Dir die theoretisch bessere Farbdifferenzierung nichts, wenn bereits die Bildpunkte, die das Objektiv auf den Sensor projiziert, nicht mehr sauber differenziert sind, sondern sich über mehrere Sensorpixel verschmieren.
Das stimmt zwar auf dem Papier und in der Theorie spielt aber in der Praxis keine Rolle, weil:
1. das bei jeder Auflösung so ist.
2. die Sensorpixel sowieso nicht nebeneinander liegen.
3. du das nicht sehen könntest, weil weder deine Augen noch der Delivery Codec das hergeben.
Aber umso weniger stimmt das für das "saubere Debayering" das iasi hier immer propagiert. Wenn er aus unzureichender optischer Information dann durch höhere Auflösung sauberer Debayered, dann kann das jeder gute Debayering-Algorithmus aus einem statt aus 4 Pixeln auch - denn dann sind die Grundlage fürs Debayering eh keine hinreichend aufgelösten Werte mehr, sondern nur mehr Matsch. Spätestens dann geht der Vorteil eh flöten.
Da kommt das von Panavision propagierte "8K - Smoother not Sharper" daher - aber da reden wir nicht von Auflösung. Was dann 8K tatsächlich für sich verbuchen kann ist dass es - und das ist jetzt unabhängig von der tatsächlich messbaren Auflösungen, sagen wir in lp/mm "weicher" aussehen kann. Aber eben nicht schärfer. Bei unzureichendem optischen Auflösungsvermögen interpoliert 8K halt dann leichter etwas als 4K und im Endeffekt ergibt das Zwischenwerte auf ganzen Pixeln, wo an der berühmten S/W-Kontrastkante in 4K vielleicht nur 1 Pixel Schwarz und ein Pixel Weiß rauskommt und 8K dann irgendwo die Zwischenwerte aufgreift.
Aber das ist das Gegenteil von "besserer" Auflösung.
cantsin hat geschrieben: ↑Fr 16 Jun, 2023 14:14
iasi hat geschrieben: ↑Fr 16 Jun, 2023 14:07
Beim Bayer-Sensor kommt hinzu, dass 8k dann eben auch für R und B die vollen 4k-Informationen bietet.
Bei einem 4k-Sensor müssen die Farben hingegen "geschätzt" werden.
Ja, aber wenn die Pixel kleiner sind bzw. geringere Full-Well-Kapazität haben, handelst Du Dir im Gegenzug höheres Bildrauschen (bzw.: einen schlechteren Signal-Rauschabstand) pro Pixel ein, was Deine obige Rechnung teilweise konterkariert.
Bei Blackmagics 12K-Senseln auf einem s35/APS-C-Sensor ist dieser Effekt schon extrem und im Ergebnis auch deutlich sichtbar, wenn man sich die Demo-Kameradateien von Blackmagics Website herunterlädt.
Hinzu kommt auch noch die Auflösung der Objektive. Weil z.B. kaum ein Objektiv unter der Zeiss Supreme Prime-Klasse die hier nötige optische Auflösung liefert, bringt Dir die theoretisch bessere Farbdifferenzierung nichts, wenn bereits die Bildpunkte, die das Objektiv auf den Sensor projiziert, nicht mehr sauber differenziert sind, sondern sich über mehrere Sensorpixel verschmieren.
Danke, so viel zum praktisch relevanten "besseren" Debayering mit geringerem Pixel Pitch (!) aber Hauptsache Hohe Auflösung!
Ich könnte jetzt auch noch ganz viel über Pixel Pitch (Alexa 35 vs. Raptor - da hat natürlich S35 größere Pixel!) und "Vergrößerung der Bildfehler" schreiben (wo - auf einem S35 Sensor mit S35 Optiken? Im Vergleich zu VV mit trotzdem geringerem Pixel-Pitch?), aber ich spar mir das jetzt. Mit iasi zu diskutieren dauert mir zu lange auf Dauer - vor allem wenn sowas wie "Vergrößerung" pauschal auf Sensorformate gestülpt wird und Zerstreuungskreis herangezogen wird, der trotz gängiger Definition HEUTE formatunabhängig sein muss - aber nicht auflösungsunabhängig - oder nicht auflösungs & formatunabhäging, aber darin liegt die Krux:
Weil er im Endeffekt praktisch maximal wieder nur auf den Pixel Pitch abzielt - nicht mehr auf das Format. Das hat nur mit Film funktioniert, zweifach: Als Aufnahmemedium (Format mit gleicher Film-Auflösung, aber Moment: Die war ja auch nie gleich) und schließlich als Print (Format). Bzw. kann dieser nach der Fachliteratur je nach Auflösungs-Leistung des bildgebenden Mediums nur in Abhängigkeit von dieser auf ein Format angewendet werden kann (frei übersetzt, Cine Lens Manual, p62ff) - ja das ist alles Physik, aber in der Praxis dann einfach komplexer als die schnell drüber gestülpte, zu kurz gegriffene Theorie und was gemeinhin Fotografen-Forenwissen darstellt. Drum gab's bei den DPs dafür auch Tabellen zum CoC mit mehr Abhängigkeiten vom Format, nämlich auch hinsichtlich Film-Stock, nicht nur einfach die Festlegung auf Gate-Formate. Aber wie auch immer...
Abgesehen davon ist der CoC in Größenabhängigkeit vom Format auch deswegen irrelevant, weil dieser tatsächlich matchbar ist. Bei gleichem Pixel Pitch, gleichem CoC (der auch über ausreichend Optiken in kleineren Formaten wie S35 herstellbar ist) ist es für den "Blind"-Betrachter in gleicher Betrachtungsumgebung schlicht und ergreifend nicht möglich, das Format aus dem Endbild festzustellen.
(Steve Yedlin ASC,
https://yedlin.net/NerdyFilmTechStuff/L ... tions.html)
Das alles spielt jetzt auch immer weniger Rolle, weil sich die S35 4,6K (Arri, BMD) und die 6-8K Fullframes irgendwie die Wage halten und die Ausreißer ganz wenige sind (BMD: S35 12K), aber da sieht man ja die Effekte von dem was ich geschrieben habe und auch wie Cantsin schon schrieb. Besseres Debayering überholt sich bei zu geringem Pixel Pitch.
Wenn ich wieder mal Zeit hab such ich mal in der Fachliteratur ein paar Quellen (Cine Lens Manual, Yedlin, Zeiss / Dr. Nasse) und schreib mal was über Formate, CoC und bildseitige vs. objektseitige Schärfentiefe, gern zum Diskutieren. Aber da muss mir wieder mal fad sein. Und dann mach ich das als Thread und nicht als Post der sofort wieder weg ist.
Im Endeffekt wird's so ausschauen, dass in jedem Auflösungstest die größeren Sensel der Alexa 35 trotz kleinerem Format eine höhere Auflösungsleistung