stip hat geschrieben: ↑Mi 29 Nov, 2023 18:02
Xyla und IMATEST kann Apple noch verarschen, Latitude dann nicht mehr.
Mich würden da die Hintergründe interessieren, das ist meines Erachtens das erste Mal, dass ein Test so aus der Norm fällt. Im Prinzip ja sogar positiv für Apple (andere Kameras zeigen nicht mal eine saubere 12. Blende), aber in der Nutzbarkeit schon beschränkt.
Im Prinzip ist ja auch klar was passiert, das sieht man auch bei anderen Kameras: Internes Processing inkl. Entrauschen ist mittlerweile so gut, dass straight aus der Kamera oft etwas prozessierte Formate (z.B. XF-AVC aus der C70) besser abschneiden als jede noch so tolle 12-16 Bit externe Raw-Aufzeichnung, wo mit Post-Denoising (und extremen Verzögerungen dadurch) im Prinzip nicht mehr zu holen ist, als was die Kamera mit internem Denoising auch schon ausspuckt. (Trotz viel höhere Datenrate, Raw, etc.)
Für mich ist die CineD-Conclusio auch nicht wirklich aufschlussreich:
My conclusion so far is that IMATEST mainly measures the noise reduction, and not so much the “real” dynamic range. We will have clarity once we move to the latitude section. Spoiler alert: at the end of the day it is a cell phone with tiny sensors …
Das würde ja bedeuten, dass der Wert im Vergleich zur Alexa 35 eine ähnlich starke interne Entrauschung beduetet? Häh? Das macht doch auch keinen Sinn?
Aber in Summe ein ganz gutes Beispiel um die Grenzen und Unterschiede von synthetischen Benchmarks und Latitude-Tests aufzuzeigen. Und im Prinzip lügt ein Xyla-Chart auch nicht. Aber eben mit dem Zusatz, dass im Material im Falle des iPhones keinerlei "Flexibilität" mehr gegeben ist. Aber die 13 Blenden im Chart sind halt da. Nur müssen die halt belichtungstechnisch auch exakt ausgenutzt werden. Aber die meisten Latitute-Tests haben irgendwie was von: "Kleben wir doch beim Imatest die oberen 2-3 Blendenstufen ab und Belichten Mitteltöne nach Gefühl etwas unter und schauen, wie viel wir dann rausziehen können."
Praktisch gesehen sind die Latitude-Tests schon aufschlussreich, aber auch die kranken einfach an folgender Kleinigkeit: Indem ein Motiv genommen wird, das fast mit Ansage möglichst wenig Motivkontrast aufweist, zeigen sich die wirklichen Schwächen in den Latitute-Tests nie.
Ein Latitude-Test ohne einen realistischen Motivkontrast zeigt halt auch nicht, dass bei den 2 Blenden Überbelichtung die Hauttöne zwar noch ok ausschauen, aber alles was in den Highlights liegt dann längst clippt.
Beispiel: Wieso - sorry - sollte ich so blöd sein und ein Gesicht einfach mal 2 Blenden überzubelichten? Mangelnde Fähigkeiten ein Auge am False Color zu haben und die Blende im Zweifelsfall zu zu machen? Praktisch gesehen interessiert bei einem richtig belichteten Gesicht auch niemanden, wenn's rechts hinten unterm Wandschrank in der Ecke schwarz-clippt (das wäre ein praktisches Beispiel, wenn die richtige Belichtung dazu führt, dass Schatten absaufen). Im Gegenteil: Letztendlich passiert auf vielen Sets trotzdem eine Belichtungsabwägung hinsichtlich idealer Belichtung auf Hauttöne und im Zweifelsfall sogar ein destruktives Highlight-Clipping bevor gesagt wird ich belichte mein Hauptmotiv durch die Bank drei Blenden unter und ziehe ALLES (jede Einstellung in der Szene) in der Post hoch. Da wird dann eher noch die Post-Highlight-Recovery bemüht (und mit vielen Resultaten traue ich mich auch zu behaupten, sieht das Resultat mit richtiger Belichtung auf Haut trotz Clipping in Highlights besser aus, Clipping-Recovery vs. blendenweises Hochziehen des Hauptmotivs=Gesicht).
So praxisfremd Xylas sind, so praxisfremd ist auch eine Latitude-Test optimierte Belichtung unter realistischen Normalbedingungen. Ich wette, instinktiv clippen da die meisten mal ein Practical oder ein Fenster in der Unschärfe, statt ein Gesicht Einstellung für Einstellung 2-4 Blenden unterzubelichten um theoretisch die maximale Dynamik auszunutzen. Erst recht, wenn sie das Material irgend jemand anderem weitergeben müssen und nicht quasi die Rettung selbst in der Post vollziehen können. Oder den Kunden am Set erklären müssen, dass das alles in der Post eh wieder wird, auch wenn die Fill-Gesichtshälfte auf einmal (ach so, bei mehr als 0,5-1 Blenden Key-Fill Ratio funktioniert das dann sowieso nicht, weil auf einmal ist dann Fill 4-6 Blenden drunter) fast schwarz ist, dafür schaut das Practical mit 17 Pixeln links hinten auf einmal herrlich ungecliptpt aus.
Und in dem Moment helfen aber die 13.4 Blenden SNR2-Dynamikumfang eines iPhone 15 mehr als die 10.1-10.6 Blenden einer z.B. R5/R5C. Denn da ist in den 3 Blenden OOC auf einmal eh alles ok.