Bei den Filmscans - sogar bei IMAX - fiel mir auf, dass man zwar erst sehr spät dem Pixelpeeping frönen konnte, viel früher aber dem Filmkornpeeping. Das ist von Signalrauschen oder einem nachträglichen Grain-Overlay zu unterscheiden. Bei Bewegtbildern würde das in der Tat einen dramatischen Unterschied ausmachen.domain hat geschrieben: ↑Mi 26 Jul, 2017 11:10 Die Analysen von Steve Jedlin wurden ja an Standbildern vorgenommen. Eine zu klärende Frage nach Nyquist wäre noch, ob in vielen Fällen nicht doch eine höhere Senseldichte, als es die Auflösung des Objektives bei sagen wir mal MTF50% hergibt, bei Bewegtbildern von Vorteil sein kann.
die Qualität der einzelnen PixelsWoWu hat geschrieben: ↑Mi 26 Jul, 2017 10:38 Der Schluss aus dem Test ist, dass es deutlicher auf die Qualität der einzelnen Pixels (größe und optische Leistung des Objektivs) als auf die Anzahl der Pixels ankommt.
4K bei gleichbleibend großem Sensor (min 17 des Tests) weil die Unterteilung der Auflösung zu keiner sichtbaren Verbesserung mehr führen.
Endlich mal ein Film, über den ich mit iasi sprechen kann, und bei dem wir eventuell so etwas wie eine Übereinstimmung erzielen: Dunkirk. Freue mich sehr darauf.
Nein.WoWu hat geschrieben: ↑Mi 26 Jul, 2017 12:15 Ich denke, das Demo hat ziemlich eindrucksvoll gezeigt, wie unwichtig das Pixelpeeping eigentlich ist und dass man sich mehr Nachteile damit einfängt, als nützliche, sichtbare Vorteile.
Was die meisten als höhere Auflösung bezeichnen, ist reine Scharfzeichnung.
Ich war zuerst sehr skeptisch. Aber nachdem ich nun doch sehr gute Kritiken und Eindrücke gelesen habe, werde ich sogar ins IMAX pilgern.
Das würde doch aber seiner punkermäßigen Dagegen-Attitüde widersprechen. Allein auf weiter Flur gegen alle. Das Forendrama!Frank Glencairn hat geschrieben: ↑Mi 26 Jul, 2017 12:43 Oh Iasi
Jeder Film besteht aus "Standbildern" - den Film anzuhalten um Details zu betrachten, eignet sich halt zum vergleichen besser. Die laufenden Filme gabs doch im ersten Teil - was denn jetzt noch?
Poste doch mal, den angeblichen Bildfehler bei 2k, den es bei 6k nicht gab, statt sowas einfach nur pauschal in den Raum zu stellen, und nicht mal einen Timecode anzugeben, oder irgendwie zu beschreiben, um was es geht.
Und was sollen "nur direkte Ausgabeergebnisse" sein?
oh FrankFrank Glencairn hat geschrieben: ↑Mi 26 Jul, 2017 12:43 Oh Iasi
Jeder Film besteht aus "Standbildern" - den Film anzuhalten um Details zu betrachten, eignet sich halt zum vergleichen besser. Die laufenden Filme gabs doch im ersten Teil - was denn jetzt noch?
Poste doch mal, den angeblichen Bildfehler bei 2k, den es bei 6k nicht gab, statt sowas einfach nur pauschal in den Raum zu stellen, und nicht mal einen Timecode anzugeben, oder irgendwie zu beschreiben, um was es geht.
Und was sollen "nur direkte Ausgabeergebnisse" sein?
Noch einer, der Grundlagen des Films ignoriert. Kein Film ohne Drama.
Könntest du mir erklären, wie du das genau meinst? Banding entsteht normalerweise als Quantisierungs-Rauschen bzw. in Kombination mit faltungsbasierten, blockbildenden Codecs, wie im Video auch an der von dir genannten Stelle zu sehen.WoWu hat geschrieben: ↑Mi 26 Jul, 2017 11:41 Du hast mit zunehmender spatialer Auflöung das Problem, dass die Nutzbandbreite sehr nah an der Abtastfrequenz liegt und damit die Anforderung an die Flanken der Filterung immer höher werden.
Solche Filter können nur noch mit hohem Aufwand abgeglichen werden und man muss die Filterung auf steilflankige Bandbegrenzung in einem Digitalfilter hoher Ordnung verlagern, mit der entsprechenden Auswirkung auf das Bild. Der klassische "Videolook" entsteht.
Das Oversampling bringt also im Grunde genommen nur Kostenersparnis in der Filterung bei negativem Einfluss auf das Bild.
(Es sei denn, der Videolook ist das Ziel).
In der Folge daraus können dann auch solche Bandingprobleme entstehen, wie im Demo (etwa bei min 40 gezeigt), weil die nutzfrequens des übersampelten Signal zu dicht an der Filterfrequenz liegt.
Eine gute Frage. Das wurde im Video tatsächlich nicht thematisiert.domain hat geschrieben: ↑Mi 26 Jul, 2017 11:10 Die Analysen von Steve Jedlin wurden ja an Standbildern vorgenommen. Eine zu klärende Frage nach Nyquist wäre noch, ob in vielen Fällen nicht doch eine höhere Senseldichte, als es die Auflösung des Objektives bei sagen wir mal MTF50% hergibt, bei Bewegtbildern von Vorteil sein kann.
Wir hatten ja schon Fälle hier, wo die Auflösung des Objektives so ziemlich in die Nähe der Pixelmatrixauflösung kam und daher Moire und Aliasing zu beobachten war, wobei die hohen Ortsfrequenzen je nach Hersteller dann wieder durch OLPs zerstört werden mussten.
Bei Standbildern fallen diese Effekte ja häufig gar nicht so auf.
Du weisst aber schon dass Dunkirk zu 100% mit analoger IMAX Kamera auf Film gedreht wurde?Vor allem widersprechen die Eindrücke von Leuten, die ihn gesehen haben, wohl scheinbar den Testergebnissen von Yedlin.
Wenn Kameras mit mehr Pixeln besser aussehen (wie du sagst), dann bedeutet dies doch, dass die Qualität der Pixel nicht dadurch abgeommen at, dass die Pixel kleiner wurden.WoWu hat geschrieben: ↑Mi 26 Jul, 2017 12:41 @Iasi
Der Test ist insofern hilfreich, weil er endlich einmal auf eine Source zugreift, sofern es z. B. Algorithmen betrifft und nur auf unterschiedliche Kameras, wenn es um die unterschiedliche Performanz geht.
Was Du aber in Deinem Posting machst, ist wieder unterschiedliche Kameras auf Algorithmen zu beziehen.
Wenn Kameras mit mehr Pixels besser aussehen als Kameras mit weniger Pixels, mag das die verschiedensten Ursachen haben, liegt aber nicht an der Menge der Pixels, sofern Du ein Minimalmass für ein Upscaling nicht unterschreitest.
Was die Berechnung von Bildpunkten betrifft, findet das auf Sensorebene ohnehin noch nicht statt, weil wir dort von realer Auflösung reden.
Wie wenig aber diese Auflösung sich in der Makrobetrachtung des Bildes auswirkt, kann Du anhand der Scalingbeispiele ( etwa bei min 47) sehen.
Mehr gibt es dazu eigentlich nicht zu sagen.
schau mal bei 00:20 im Video 1Starshine Pictures hat geschrieben: ↑Mi 26 Jul, 2017 14:17Du weisst aber schon dass Dunkirk zu 100% mit analoger IMAX Kamera auf Film gedreht wurde?Vor allem widersprechen die Eindrücke von Leuten, die ihn gesehen haben, wohl scheinbar den Testergebnissen von Yedlin.
Du hast die 1:1 Darstellung als laufenden Film im ersten Clip gesehen, oder was denkst du, was das war?
Der Mann ist ein DP, der ne Präsentation nicht in Powerpoint, sondern in Nuke(!) macht. Lass das mal einsickern.iasi hat geschrieben: ↑Mi 26 Jul, 2017 14:01
Direkte Ausgabeergebnisse sind einfaches Debayern einer Raw-Aufnahme, ganz so, wie es Kameras intern auch machen. Also keine Nutzung der digitalen Möglichkeiten in der Post.
(Dabei gibt´s Resolve z.B. für lau.)
Gerade von einem Hollywood-Mann hätte ich mir mehr Praxisnähe gewünscht. Aber dazu hätte der DOP eben auch ein paar Post-Leute in sein Testboot holen müssen, die das Material Hollywood-gerecht durchgeknetet hätten.
Und nicht mal das hast du kapiert. Zunächst einmal haben die Leute keinen Vergleich, können also keine Aussage darüber treffen, wie der Film auf ner Alexa ausgesehen hätte, und zweitens widerspricht sich da gar nix, weil Yedlin ja sagt, daß bei 1:1 Betrachtung die Pixel weit unter die Wahrnehmungsschwelle fallen.
ja ja - erleuchtet doch zunächst mal die KameraherstellerParalkar hat geschrieben: ↑Mi 26 Jul, 2017 15:28 ich glaube das geht allen so, is doch immer wieder wie ein Zeuge Jehowas, der dich vom wahren Glauben überzeugen will und du sagst Ihm "Moment, wenn cih mir die Welt anschaue und die Physik, macht das alles überhaupt kein Sinn"
naja manche wollen aus Technik halt Religion machen & subjektive Eindrücke zählen mehr als Fakten.
nö hab gerade ein 8k projekt, der rechner rechnet noch 4 stunden ;-)
alles Schrott, 8K, 4K, selbst 2K. Bücher lesen.Peppermintpost hat geschrieben: ↑Mi 26 Jul, 2017 17:53nö hab gerade ein 8k projekt, der rechner rechnet noch 4 stunden ;-)
aha - hast du mal wieder was analoges in 65+ gesehen? :)Jan Reiff hat geschrieben: ↑Mi 26 Jul, 2017 18:09alles Schrott, 8K, 4K, selbst 2K. Bücher lesen.Peppermintpost hat geschrieben: ↑Mi 26 Jul, 2017 17:53
nö hab gerade ein 8k projekt, der rechner rechnet noch 4 stunden ;-)
Der war schön. Auch meine Freundin hat am Frühstückstisch gelacht ;-)
Der Text geht ja noch ein bisschen weiter:
A couple of other points I didn't make online as they are relevant here. Dragon and Helium are literally different sensor technologies and Helium's lower noise floor even with it's smaller pixel pitch alludes to what is actually going on there. You can't simply say smaller pixels are worse these days. Pixel design/sensor design is a major factor.
Also, I want to point it how common re-framing, cropping, digital zooming, and stabilization are when it comes to motion picture production these days. Having more source resolution will benefit you on that front.
As for compression, I agree that we can get there. Though I find nearly no interest in fully uncompressed data, I would love to be about to shoot 2:1 or 3:1 at 8K for instance. At the moment 5K is indeed possible with Weapon at 2:1 at speed, which is great. Though logistically, cost effectiveness, and workflow the good old fashioned rule of 5:1-8:1 REDCODE RAW Compression Ratio is pretty much the sweet spot for everything. I personally don't find myself higher than 12:1 if you are curious.
Anywho, I do think this test is great as it points out much. But Steve is saying there is a subtle difference between resolving power, points it out, and even showcases pretty clearly with his test shots.
The big question you will need to ask yourself at the end of the day is if that subtle difference is how you want to capture your motion picture content. For me, I like higher source resolution for many of the reasons I've stated above