WoWu hat geschrieben: ↑Mi 10 Jan, 2018 22:36
Behaupten kann das jeder.
Die meisten Menschen „sehen“ sowieso, was sie sehen wollen.
Moin Wolfgang,
nicht um alte Rennergebnisse rausholen zu wollen, aber wir hatten meinen Auge-DR-Test mit den halbüberlagerten ND Filtern auf der Lichtplatte/Tablet Display. Da kam dann für einige befragte ganz schnell mehr als die hier und da allgemein gehandelten 6 Blenden bei raus.
WoWu hat geschrieben: ↑Mi 10 Jan, 2018 22:36
Fest steht, dass 1 Bogenminute die Grenzauflösung des menschlichen Auges ist.
Das sind nun mal 4K, in Pixels umgerechnet.
Daher stellt sich die Sinnfrage ja auch nur.
Dabei mach es durchaus Sinn, niedriger aufgelöstes Material auf höher auflösenden Fernsehern zu betrachten denn Zwischenberechnungen führen eben zu einer Schärfe, die der Mensch gern mit Auflösung verwechselt, aber kontrastreiche Kanten eben schöner findet.
Solange also Anwender nicht mal zwischen Bildauflösung und Pixelmenge unterscheiden können, lohnt sich der Versuch der Beantwortung der Eingangsfrage nicht.
Immerhin sieht das menschliche Auge jetzt 4K ;-)!
WoWu hat geschrieben: ↑Mi 10 Jan, 2018 22:36
Samsung hat jetzt als erste Firma KI in TV Geräten vorgestellt und rechnet mit denselben Algorithmen Bilder von SD nach HD und HD nach UHD 1 und 2, wie auch diverse Videokameras das tun.
Und siehe da, Betrachter sehen keinen Unterschied mehr, bis auf etwas mehr Bildhelligkeit zwischen 4K und 8K.
Wenn solche Geräte in Serie sind, wird sich kein Objektivhersteller mehr finden sein Produkte zu verbessern und wahrscheinlich auch kein Kameraherseller.
Wer den Yedlin Film aufmerksam verfolgt hat, wird gesehen haben, dass Upscaling von 2 nach 4 K ein besseres Ergebnis gebracht hat, als downscaling von 6K nach 4K.
Wer braucht also 8K wirklich ?
NHK wahrscheinlich, weil der japanische Steuerzahler da viele Milliarden YEN versenkt hat und man nun eine Rechtfertigung sucht, die Samsung ihnen aktuell und locker unter den Füßen weggezogen hat.
Upscaling von 2K auf 4K wird nie besser sein als Downscaling von 6K nach 4K (!!!!!), zumindest nicht in Bezug auf die damit verbundene Auflösung!
Auch hier nochmal meinen "lorem ipsum Test" mit der a6500 Revue passieren lassen. Wie soll der 4K Upscaler den Text rekonstruieren der bei der Aufnahme nicht mehr aufgelöst ist?! Wie viel Rechenleistung soll das verschlingen und welche Fehler sollen dabei entstehen?!
Ich habe einige "praktisch eingesetzte" 2K Upscaler gesehen (TVs, BD Player...), dabei "keinen" (Auflösungs-/Informations-)Vorteil gegenüber der 2K Aufnahme feststellen können. Antialiasing ist "schön" an Kanten, mehr nicht.
6K (auch Bayer) nach 4K, also "echtes 4K" ist ne GANZ andere Nummer!
Nochmal zu meiner Aussage: ich behaupte
nicht dass ich bei "üblichen" Betrachtungsmaßstäben einen Gewinn an Detailauflösung zwischen 8K und 4K sehen würde. Ich behaupte der Vorteil von 8K wird woanders liegen.
Nochmal: ein "echtes" 4K Bild welches die systembedingte Grenzauflösung darstellt kann auch ohne übermäßige Nachschärfung vergleichsweise harte Kanten erzeugen. Diagonalen, besonders die welche nur einen geringen Winkel zu der Lotrechten oder Waagerechten besitzen, erzeugen Linien mit "Pixelstufen", es entsteht eine Art von Aliasing. Im Standbild fällt mir sowas kaum auf. Fängt diese "Kante" jetzt an sich im Bild zu bewegen, wandern die "Treppen"/Stufen im Bild, bei einer fast waagerechten Linie (z.B. links etwas tiefer als rechts) die sich nach oben bewegt z.B. von rechts nach links.
8K macht Sinn - einfach mal folgendes ausprobieren:
Der Effekt lässt sich ganz einfach mit einem Blatt mit Rechenkästchen und einem weiteren Blatt Papier nachstellen. Das neutrale Blatt leicht schräg über das Blatt mit den Rechenkästchen bewegen, die waagerechten Linien auf dem Blatt mit den Rechenkästchen "wanderen" an den Schnittpunkten mit dem Blatt, welches darüber bewegt wird.
Anders: "normales" Display (z.B. 24" mit 1920 Auflösung) mit möglichst weißer Darstellung, Blatt Papier langsam leicht schräg drüberschieben, an der Kante entsteht "Bewegung" wenn man nicht ganz blind ist.
Jetzt den gleichen Test mal auf nem Display mit deutlich höherer ppi Auflösung machen ("gutes" Smartphone/Tablet). Auf dem Display von meinem iPhone X (immerhin 458 ppi) sehe "ich" den Effekt nicht mehr.
Bei echten Darstellungen auf dem Bildschirm ist der Effekt viel stärker, da wir mit dem Blatt nur die Pixelmaske schneiden und wir wieder auf einem gleichfarbigen Pixel landen. Bei einer Darstellung auf dem Bildschirm muss der folgende, die Kontur darstellende Pixel aber eine andere "Farbe" haben, der Effekt/die Stufe verdoppelt sich in der Größe.
"Ich sehe" (!!) den Effekt mit 6K->4K Aufnahmen (a6500) auf meinem 4K 65" Bildschirm aus ~4m Entfernung, auch wenn ich nicht behaupten würde aus der Entfernung einen Detailzuwachs zu 8K feststellen zu können!!
Da der Effekt ungewollt, gar störend ist und nicht in der aufgenommenen Szene auftaucht macht 8K Sinn, da dadurch der Effekt verringert werden wird bzw. sogar unsichtbar werden wird!!
Ggf. reicht hier aber diesmal ein wirklich guter Upscaler der z.B. leicht schräge Linien ohne Verlust an Kontrast/Schärfe
über die Länge interpoliert/glättet. Denke das wird über große Bereiche (Linie über sehr viele Pixel) technisch aber aufwändiger als eine 8K Aufnahme.
In der Praxis sehe ich den Effekt verstärkt z.B. bei langsam bewegten Aufnahmen von geklinkerten Häusern oder vgl. Wandflächen, Berüstungen/Geländern oder z.B. verchromten Bootsreelings (starke Reflexion, starker Kontrast).
Sowas taucht jetzt nicht permanent auf und schon gar nicht wenn man mit nem Softar oder Butter auf der Linse filmt, aber häufig wenn man "echtes" 4K
nutzt.
...sind also alles ganz normale Anwendungsfälle mit normaler Consumertechnik!!