cantsin hat geschrieben: ↑Mi 21 Sep, 2022 21:18
Ich nehme schwer an, dass bei den Fotokameras da kaum mehr machbar ist, weil sich da verschiedene Zielvorgaben im Weg stehen: Die Pixelauflösungen müssen möglichst hoch sein (weil der Megapixel-Wahn offenbar immer noch zählt, oder in der Konkurrenz mit Smartphones jetzt wieder - nach dem Motto, niemand kauft eine 16MP-Systemkamera für 2000-4000 EUR, wenn's 48MP-Smartphones für 500 EUR gibt), die Sensoren passiv gekühlt in Winzgehäusen sitzen, und das ganze muss noch für Consumer/Prosumer bezahlbar sein.
Wenn man sich die aufwändigen, schweren und stromfressenden Sensor-Kühlsysteme von Arri, RED oder auch bei den Ursas (und der ersten BMMC 2.5K) ansieht, und die im Vergleich zu Fotokameras relativ niedrigen Pixelauflösungen, ist einigermaßen klar, warum diese verschiedenen design goals nicht miteinander kompatibel sind.
- Übrigens kommt die S1H im CineD-Test auf 12.7 Blenden SNR2, eine Kamera, die mittlerweile recht preiswert erstehbar ist...
Wieso unternimmt dann niemand mal den Versuch, eine ernsthafte Box-Kamera für 4-5K zu bauen, irgend einen Komodo-Klon? Wieso überlassen sie das Z-Cam und Kinefinity, ohne wirkliche Infrastruktur, etc.? Ich scheine ja nicht der einzige zu sein, der festgestellt hat, dass sich da seit ein paar Jahren bei DSLMs eigentlich nichts mehr wirklich tut (Außer dass Preise hochgehen, aber das liegt wohl am generellen Markt). So halbherzige Versuche wie die BGH1 sollen dieser Versuch sein? Oder eine R5C, die schon das C im Namen geerbt hat, weil nicht wahnsinnig viele C2-500s mehr verkauft werden dürften, dann bei der Netflix-Zertifizierung durchfällt und in Raw ganze 10.2 Blenden SNR2 macht, in XF-AVC immerhin 12, aber das für ganze 4700€ Brutto? Das ist die Antwort von Canon?
Ich weiß, das wirkt jetzt wie Rosinenpickerei: Aber die S1H erreicht das Resultat (ähnlich wie die A7IV) in einem hoch komprimierten - in diesem Fall auch H265 4:2:0 Codec - die Diskussion über die Sinnhaftigkeit von Log-Aufzeichnung mit 4:2:0 sollte eigentlich seit der ersten A7S durch sein, aber immerhin in 6K statt UHD bei der A7IV. Aber das zeigt ja auch, dass diese Hersteller Sensor-Technologieseitig "anstehen". Die einzigen Verbesserungen in diesem Bereich betreffen, wie ich oben auch geschrieben habe, stark verarbeitete Footage. Jede Raw-Aufzeichnung wird da nicht signifikant besser werden, weil das Entrauschen auf Processingebene ohnehin gut funktioniert und quasi das Maximum rausholt und dann steht man nach Post-Denoising von Raw am Ende da, wo das Resultat in H265 aus der Kamera kam - aber ok, zumindest mit mehr als 4:2:0. Das zeigt jede Kamera, die das so versucht (R5C, C70, Alles von Sony das extern über HDMI/SDI Raw-aufzeichnet - da liegen die Raw-Dynamikwerte signifikant unter jenen von verarbeiteten Codecs, mit Denoising von Raw in der Post dann wieder gleichauf, aber ohne signifikante Verbesserung.
Zum Unterschied ProRes oder gar Raw-fähigen Kameras, die dann 1-2 Blenden mehr schaffen, da geht halt mit Denoising dann am Ende noch mehr. Um das am Ende jetzt auch mal Festzumachen, das betrifft halt 10 Jahre alte Arris die heute unwesentlich mehr kosten als eine R5C, eine Red Komodo, eine Ursa Mini (selbst ohne Pro und ohne G1-G2), welche teilweise deutlich mehr als 4K schaffen und signifikant günstiger sind (Ursa Mini OG) als eine R5C z.B., oder halt dann auch deutlich besser sind als eine S1H was die Möglihckeiten in der Post angeht.
roki100 hat geschrieben: ↑Mi 21 Sep, 2022 19:25
RED macht "Highlight Recovery" (HR) Kameraintern / per default. Bei der Ursa oder allgemein BMD Kameras bzw. cinemaDNG oder BRAW, geht das nachträglich in DaVinci unter "Camera RAW"-Tab und da gewinnt man ca. +1 stops. Was RED da tut, ist in etwa so, als würde BMD den gemessenen DR Wert +1 HR dazu zählen und damit werben....
Die Ursa 4.6K, BMCC 2.5K, OG BMPCC, BMMCC bzw. die älteren BMD Kameras mit Fairchild Dual Gain Sensor
(interessiert mich nicht was die andere schlechtes darüber sagen oder denken, die haben mM. gar keine Ahnung) haben sehr gutes Dynamic Range und etwas gewisses im Bild, was keine der neuen Kameras haben, sondern, die alte Alexa hat das und das macht die älteren BMD Kameras zu etwas besonderes...und sind immer noch beliebt. Nach 10+ Jahre verkaufen sich die älteren BMD Kameras immer noch gut (nur Ursa mini 4.6k scheint sich wegen FPN Problem nicht so gut zu verkaufen, obwohl nicht alle davon betroffen sind)...
Ich wollte in keinster Weise irgendwie BMD runtermachen oder schlechter als andere Hersteller stellen. Im Gegenteil finde ich, dass sie einen vernünftigen Weg fahren, sich auf Bewegtbild zu konzentrieren mit Resultaten, die selbst neuere Kameras dynamikmäßig in den Schatten stellen, weil sie dann noch etwas wie Raw liefern und die Resultate im Raw und nicht in schon entrauschten H265 zur Verfügung stellen.
Drum ja auch meine - eigentlich ist es Verwunderung, mir könnte es ja auch egal sein - dass niemand der Foto-Hersteller auf die Idee kommt, da irgendwie konkurrieren zu wollen. Oder irgendwie versucht innovativ zu sein. Die hätten eigentlich das Wissen um internes Processing (Parallel zu Smartphoneherstellern), schlaue interne Methoden (siehe z.B. optische Korrektur auf Bildverarbeitungseben). Die strecken sich seit Jahren nach mehr K und stehen aber dann aufm Schlauch, weil dann am Ende halt auch nur ok-es H265 rauskommt und das seit 5 Jahren. Jetzt halt in 8K statt in UHD/6K, aber an der Pixelqualität ändert sich da überhaupt nichts.
Weil Du Highlight-Recovery ansprichst: Ich war derjenige, dem im CineD Test aufgefallen ist, dass sie bei der Komodo den internen, algorithmusbasierten Highlight-Recovery Stop nicht mitgezählt haben. Was in der Testmethodik ok ist, drum hab ich auf Komodousers Graeme Natress (den Menschen hinter der Color Science bei Red) gefragt, wie er die zusätzliche letzte Blende ohne vollständige RGB-Seperation erklärt - das war meines Wissens nach das erste Mal, dass der eingebaute neue algorithmusbasierte HL-Recovery-Stop diskutiert wurde, da das doch sehr anders funktioniert als bisher bei DSMC2 oder Blackmagic.
Das ist übrigens auch, was ich mit innovatigen Lösungen meine: Eine Kamera, die den letzten Stop vor Clipping algorithmusbasiert auch einer nicht RGB-Primary-Achse (weil wenn ich z.B. Wolken oder Schnee clippen muss, dann will ich alles, außer dass sie rot oder grün sind), sondern auf einer subtraktionsähnlicheren Blau-Gelb-Achse verschiebt. Völlig vertretbar meines erachtens, das bei einer standardisierten Imatest-Messung nicht zu berücksichtigen.
Aber für die Interpretation der Resultate ist es schon interessant:
Eine S1H liefert 6K mit 12.7 SNR2-Stops in verarbeitetem 4:2:0. Eine Komodo liefert trotz Global Shutter 6K mit SNR-2 12.2 in Raw, allerdings mit vollem noch vorhandenem Raw-Entrauschungspotential und einer ganzen Blende vor den Highlights, welche in die Bemessung noch gar nicht eingeflossen ist.
Canon kommt halt dann mit 10.2 Blenden Raw ums Eck, Fuji schafft trotz 14-Bit A/Ds keine 12 SNR-2-Blenden, viele andere können auch nicht mehr. Blackmagic macht das HL-Recovery-Spiel es als Post-Feature mit - ich habe sowohl Ursas besessen als auch die Komodo und kenne DSMC2 gut - mit schlechteren Resultaten als jetzt intern bei der Komodo, aber das galt auch für interne-HLR (clip nach Reinweiß) mit DSCM2 bei Red, ebenso schlechter als DSMC3-intern. Wie gesagt, man kann von internem Processing halten was man will. Sofern es nicht auffällt, weil die Resultate gut genug sind um über das Vorhandensein von solchen Features hinwegzutäuschen sind das sinnhafte Ergänzungen, mit denen sich Physik nicht biegen, aber im Rahmen ausreizen lässt - was oft mit Vorgehensweisen die eher "straightforward" sind, irgendwann nicht mehr funktioniert.
Und da stelle ich einfach fest, dass sich da bei den meisten wenig tut und recht innovative Lösungen, die in der Praxis nicht mal schwierig sein müssen - irgendwie links liegen gelassen werden. Man denke an das jetzt neue Enhanced Sensitivity Feature bei der neuen Alexa35. Sowas könnte technisch jeder Hersteller implementieren, gerade für die großen Fotohersteller mit eigenen ASICs statt FGPA Architektur sollte das ein leichtes sein:
Da geht es darum, dass bei Framerates bis 50% des Maximums ab gewissen Exposure Indizes (konkret ab 2560) für jeden aufgezeichneten Frame im Hintergrund ein zweiter recordet wird, das Denoising des Bild-Frames mittels eines jetzt vorhandenen Hilfsframes eine in-camera-temporal-NR-Komponente enthält, anstatt das nur in der Post nutzbar zu machen oder In-Camera-Spatial, was wohl niemand will. Das Feature kann man auch deaktivieren, wenn man das nicht möchte.
Aber irgendwie sind das Lösungen, die sind jetzt Pinzipbedingt nicht schwer zu erdenken und umsetzungsmäßig nicht völlig unmöglich zu implementieren, aber nutzen tut das irgendwie niemand um sich in dem Segment irgendwie freizuschwimmen. Man braucht wahrscheinlich auch neben Innavtionswillen den Mut, um mal daneben liegen zu dürfen (was man nach der Zeit, wo die Ursa 12K jetzt am Markt ist und wo deren tatsächliche Marktdurchdringung minimal ist, schon auch so etwas wie ein Fazit dazu darstellen könnte) und das geht bei den Fotoherstelllern, denen das Wasser bis zum Hals steht weil von unten herum Smartphones genau das machen, scheinbar nicht mehr.