Aktuelles Wer braucht FullHD?

Wer braucht FullHD?

Durch eine Anfrage wurden wir auf eine Problematik aufmerksam, die bisher von vielen Anwendern total ausgeblendet wurde. Wie scharf muss ein HD-Monitor eigentlich sinnvollerweise sein?

// 11:46 Mo, 13. Aug 2007von

Durch eine Anfrage wurden wir auf eine Problematik aufmerksam, die bisher von vielen Anwendern total ausgeblendet wurde. Wie scharf muss ein HD-Monitor eigentlich sinnvollerweise sein?





Auf den ersten Blick klingt diese Frage etwas komisch. Denn jeder Leser würde sagen, je mehr Pixel, desto schärfer, desto besser. Uns wurde jedoch die praktische Frage gestellt, ob man denn auf einem 50 Zoll LCD-Fernseher in 3 Meter Entfernung einen Unterschied zwischen einem Full-HD-Display mit 1920 Horizontal-Pixeln und einem HD-Ready-Disply mit 1366 Horizontal-Pixeln sehen könnte. Ziemlich gute Frage...




Wie scharf ist das menschliche Auge?

Da kein Forscher der Welt konkret sagen will, wieviel dpi ein Mensch tatsächlich sehen kann, scheint die Frage eigentlich müßig. Denn neben stärkeren und schwächeren Fehlsichtigkeiten ist die Auflösung des Blickfeldes auch extrem davon abhängig, in welchem Winkel der Mensch schaut, bzw. ob das Objekt mittig oder seitlich im Blickfeld sitzt. Daher kann es logischerweise keine allgemeingültige Formel für dieses Problem geben, bzw. man müsste man diese Formel für jeden Menschen individuell berechnen.



Was allerdings geht, ist einen maximalen „Worst-Case“ für die Schärfe anzusetzen. So findet man in der Fachliteratur diverse Tests, wobei kein Forscher auf 25 cm Entfernung mehr als ca. 360 dpi zu ermitteln glaubt. (die meisten aber deutlich weniger!). Weiters scheint sich in der Empirie zu bestätigen, dass die erkannten dpi mit der Entfernung linear abnehmen. Also bei doppelter Entfernung wurden nur noch die halben dpi erkannt, bei halber Entfernung die doppelten etc.



Oder praktisch gesprochen: Der „bestsichtigste“ Mensch erkennt auf 50cm Entfernung maximal 180 dpi und auf einen Meter Distanz maximal 90 dpi. Bei zwei Meter Betrachtungsabstand sind es nur noch 45 dpi. Und (das brauchen wir später) auf 1 cm entspricht dies umgerechnet 9000 dpi.





Realitäts-Check

Wenn wir uns einen 50 Zoll-Fernseher ansehen, so müssen wir noch von der Diagonale auf die horizontale Breite schließen, um dessen dpi zu erfahren. Wer noch Pythagoras aus der Schule kennt, hat das Problem schnell im Griff und errechnet sich eine horizontale Länge (bei einem 16:9-Schirm) von ca. 43,4 Zoll. Da dpi dot per inch oder übersetzt Pixel pro Zoll sind, stehen wir kurz vor der Lösung unseres Problems:


Bei einem FullHD-Bildschirm bringen wir 1920 Pixel auf diesen 43,4 Zoll unter. Das macht ca. 44 Pixel pro Zoll oder eben 44 dpi. Bei einer Auflösung von 1366 Pixel auf 43,4 Zoll sind es dagegen "nur" 31 dpi.



Wenn wir jetzt einen Dreisatz anwenden kommen wir schnell auf die Entfernung, ab der das menschliche Auge keine Qualitätverbesserung mehr wahrnehmen kann, auch wenn es noch mehr Pixel gibt:



Wer braucht FullHD? : f1


Wenn wir jetzt den Worst Case von oben einsetzen, bei dem wir wissen, dass kein Mensch mehr als 9000 dpi auf 1 cm sehen kann, dann kommen wir zu folgendem Ergebnis:



Wer braucht FullHD? : f2




Ab 2,90 m kann man also nicht mehr sehen, ob ein Fernseher mehr als 31 dpi hat. Oder anders gesagt: Ab 2,90m Betrachtungsabstand kann kein Mensch auf einem 50 Zoll-Display mehr als 1366 Horizontalpixel unterscheiden. Wer also grundsätzlich weiter als 2,90 m vom 50-Zoll-Display entfernt sitzt, braucht sich keine FullHD-Auflösung zu kaufen, sondern es reichen also 1366 Pixel.



In dieser Formel ist aber wie bereits erwähnt noch jede Menge Spielraum. Denn sie geht auch davon aus, dass ein optimalsichtiger Mensch auf einem FullHD-50Zoll-Display bei 2 Meter Betrachtungsabstand einzelne Pixel unterscheiden kann, wie folgende Rechnung zeigt:



Wer braucht FullHD? : f3


Uns ist kein Mensch bekannt, der so scharf sieht. Wer den Vergleich sucht und einen 24 Zoll-Computermonitor sein eigen nennt, kann den Selbstversuch wagen. Ein solcher Monitor besitzt bei 1920 Pixeln Horizontal-Auflösung ungefähr 94 dpi...



Wer braucht FullHD? : F4


Laut unserer Rechnung müsste man auf diesem Monitor bei 96 Zentimeter Betrachtungsabstand noch einzelne Pixel unterscheiden können. In persönlichen Tests tritt dieser Effekt jedoch frühestens ab 80 cm ein, meistens sogar noch deutlich später. Also Zeit für einen...






...pragmatischen Umkehrschluss

Wir können und wollen an dieser Stelle keine eigenen Studien anstellen, aber können uns einmal pragmatisch in der Praxis umsehen. Als optimalen Betrachtungsabstand zum Heimfernseher liest man seit Jahren von der doppelten Bildschirmbreite. Bei 43,4 Zoll Breite müsste unser Optimal-Seher sich also 86,8 Zoll oder 2,20 Meter vor unserem 50 Zoll-Bildschirm positionieren. Um hier keine Pixelstrukturen erkennen zu können, müsste der Fernseher ca. 40 dpi-bieten. Also ca. 1730 horizontale Pixel. FullHD reicht hier also locker aus, 1366 horizontal-Pixel dagegen nicht.



Nun könnten wir jedoch eine pragmatische These anreißen: Wir denken, dass sich Millionen von Heimcinema-Fans an diese Daumenregel halten und glücklich bei doppelter Bildschirmbreite keine einzelnen Pixel erkennen können. Nur dürften sich darunter noch jede Menge „alte“ LCDs mit 1366 Horizontal-Pixeln befinden. Gehen wir weiter davon aus, dass diese Menschen also eine repräsentative Gruppe bilden, die bei 1366 Pixeln keine Pixelstrukturen sieht, können wir die Schärfeleistung unseres optimalen Sehers „entschärfen“. Falls unser Beispielfall genau den Grenzwert darstellen würde, bei dem die meisten Menschen keine Pixelstrukturen mehr erkennen könnten, würde dies einer Sehkraft von ca. 7000dpi/cm entsprechen. Diese Zahl erscheint uns auch realistischer, als der „Worst Case“ von 9000 dpi und wird ja pragmatisch durch die schon länger existierende Daumenregel gestützt. Würden hier viele Menschen Pixelstrukturen sehen können, gäbe es wohl die Daumenregel nicht.



Und falls diese Annahme gilt, lässt sich auch sagen, dass eben bei diesen 2,20 Metern Betrachtungsabstand kein Unterschied mehr zwischen 1366 und 1920 Pixeln ausmachen lässt. Mit dieser Überlegung hätten wir uns die ganze Rechnerei sparen können.



Unsere Formel spuckt hierfür übrigens





Wer braucht FullHD? : f5


aus.





Finale

Was lernen wir daraus? Falls unsere Annahmen richtig sein sollten, brauchte kein Heimcineast einen FullHD-Fernseher, solange er mindestens die doppelte Bildschirmbreite davon entfernt sitzt. Nur wer direkt vor der Glotze klebt, wird die zusätzliche Auflösung erkennen können. Am Schnittplatz macht FullHD natürlich dennoch Sinn, weil hier der Vorschaumonitor meistens deutlich näher am Cutter steht.


Als der Weisheit letzten Schluss sollte man diese unsere Berechnungen allerdings nicht nehmen, denn in der Praxis zeigen sich noch viele andere (schlecht messbare) Effekte wie z.B die hohe Unschärfetoleranz des Auges und künstliche Nachschärfung, die deutlich größeren Einfluss auf die empfundene Schärfe haben, als die Panel-Auflösung.


Leserkommentare // Neueste
WoWu  //  02:42 am 1.10.2008
Hallo Martin. Davon bin ich auch eigentlich ausgegangen. Dein Ansatz ist schon nachvollziehbar aber lässt natürlich ein paar Fragen offen ... so z.B. warum etwas nachgebildet...weiterlesen
Martin Dienert  //  21:50 am 30.9.2008
Hallo, Was dabei raus kommt sieht man ja. ;-) Wowu das was du schreibst ist mir, mehr oder weniger fundiert, schon klar. Ich hatte das auch nur sehr vereinfacht dargestellt. Die...weiterlesen
WoWu  //  19:31 am 30.9.2008
@ Martin Dein 4:3 TV Gerät hat heute bei 60 cm Diagonale eine Bildhöhe von 36 cm und damit bei 540 Zeilen eine Zeilenhöhe von rd.0,66 mm. Das menschliche Sehvermögen löst...weiterlesen
Ähnliche Artikel //
Umfrage
  • Was hältst du von den neuen Bild/Video-KIs?





    Ergebnis ansehen
slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash