Durch eine Anfrage wurden wir auf eine Problematik aufmerksam, die bisher von vielen Anwendern total ausgeblendet wurde. Wie scharf muss ein HD-Monitor eigentlich sinnvollerweise sein?
Auf den ersten Blick klingt diese Frage etwas komisch. Denn jeder Leser würde sagen, je mehr Pixel, desto schärfer, desto besser. Uns wurde jedoch die praktische Frage gestellt, ob man denn auf einem 50 Zoll LCD-Fernseher in 3 Meter Entfernung einen Unterschied zwischen einem Full-HD-Display mit 1920 Horizontal-Pixeln und einem HD-Ready-Disply mit 1366 Horizontal-Pixeln sehen könnte. Ziemlich gute Frage...
Wie scharf ist das menschliche Auge?
Da kein Forscher der Welt konkret sagen will, wieviel dpi ein Mensch tatsächlich sehen kann, scheint die Frage eigentlich müßig. Denn neben stärkeren und schwächeren Fehlsichtigkeiten ist die Auflösung des Blickfeldes auch extrem davon abhängig, in welchem Winkel der Mensch schaut, bzw. ob das Objekt mittig oder seitlich im Blickfeld sitzt. Daher kann es logischerweise keine allgemeingültige Formel für dieses Problem geben, bzw. man müsste man diese Formel für jeden Menschen individuell berechnen.
Was allerdings geht, ist einen maximalen „Worst-Case“ für die Schärfe anzusetzen. So findet man in der Fachliteratur diverse Tests, wobei kein Forscher auf 25 cm Entfernung mehr als ca. 360 dpi zu ermitteln glaubt. (die meisten aber deutlich weniger!). Weiters scheint sich in der Empirie zu bestätigen, dass die erkannten dpi mit der Entfernung linear abnehmen. Also bei doppelter Entfernung wurden nur noch die halben dpi erkannt, bei halber Entfernung die doppelten etc.
Oder praktisch gesprochen: Der „bestsichtigste“ Mensch erkennt auf 50cm Entfernung maximal 180 dpi und auf einen Meter Distanz maximal 90 dpi. Bei zwei Meter Betrachtungsabstand sind es nur noch 45 dpi. Und (das brauchen wir später) auf 1 cm entspricht dies umgerechnet 9000 dpi.