PowerMac hat geschrieben:
1. Das ist eine zu technische Anschauung. Man sagt, dass gute HD-Zooms (15-30.000 Euro) bei etwa 800- 1600 Linien liegen.
Danke für die Angabe!
Das wäre die Horizontalauflösung, was einer horitzontalen Videoauflösung von 1060 - 2130 Pixeln entspräche. Wenn horizontal mit vertikal gleichgesetzt wird, und das 16:9 Verhältnis berücksichtigt wird, kommt man auf 630.000 bis 2.5 Millionen Pixel. Die zweite Angabe scheint mir zu hoch zu sein, denn sehr gute Zommobjektive sollen in der Kleinbildfotografie (und da ist die Bildfläche ja wesentlich größer) nur auf etwa 13 Millionen Pixel kommen, sehr gute Festbrennweiten auf 20 Millionen Bildpunkte.
Berrechnung:
Chipfläche:
2:3 x 2,54 = 1,69 cm Diagonale des Chips x 0,49 = 0,83 cm Höhe des Chips und 1,47 cm Breite des Chips. Also 8,3 mm x 14,7 mm Angenommen die Berechnung ist richtig und Fläche wird komplett genutzt, dann ist der Chip 7 mal kleiner als ein Kleinbildnegativ.
Die besten Zooms für Kleinbildfotografie sollen 13 Millionen Pixel schaffen. Das wären umgelegt ca. 1,85 Millionen Pixel bei HD Kameras. Und wenn das mit dem "Pixelerweiterungsfaktor" 1,333 multipliziert wird, erhält man 2,5 Millionen Pixel. Die Angaben decken sich also.
Was ist der Pixelerweiterungsfaktor?
Mit 100 Pixeln Chipauflösung lassen sich nur etwa 75 Linien darstellen. Wird einen Linienauflösung angegeben, muss also mit 1,333 multipliziert werden um die horizontale Pixelauflösung zu errechen.
Nun stellt sich die Frage, ob es reicht, dass das Objektiv eine 25% geringere Linien Auflösung hat, oder ob es 100 Linien Auflösung haben muss, damit am Ende 75 Linien auf dem Fernseher dargestellt werden können (????).
Im ersten Fall würde die Objektivauflösung der besten Zooms für HD 1080 reichen - im zweiten Fall nicht, da wäre die Auflösung der besten Zooms um 30% zu gering. Denn dann kann die Linienauflösung (in dem Fall ist Linie = Linie nehme ich doch stark an) mit der horizontalen Pixelauflösung gleichgesetzt werden. Also aus 800 - 1600 horizontalen Linien würden maximal 800 bis 1600 horzontale Pixel rauskommen und 1920 müssten es sein. Aus 1080 vertikalen Zeilen würden dann maximal 900 werden.
Mit sehr guten Festbrennweiten läßt sich sicher die HD Auflösung realisieren. Es ist nur ein tierischer Akt beim Dreh, die Objektive zu wechslen, da im Gegensatz zu Filmkameras jedesmal neu justiert werden muss und wer sich dabei nur etwas vertut, versaut die ganze Aufnahme was am Drehort nur schwer zu kontrollieren ist.
PowerMac hat geschrieben:
2. Trigonometrie. Der Winkel (= Winkel der Diagonalen beim Verhältnis 16/9) der 2/3" langen Diagonalen (Kathete) zur Hypothenuse (Länge) verrät mit dem Cosinus die Länge und Breite des Chips. Ich hoffe das stimmt jetzt;)
Das wissen wir noch nicht so genau, aber wir kriegen das schon raus. Ich habe übrigens auch erstmal die Höhe mit Pytaguras berechnet. Ich kam auf folgendes:
Bildhöhe für 16:9 Geräte = [((Bilddiagonale zum Quadrat) geteilt durch 337) daraus die Wurzel] mal 9
Bildhöhe für 4:3 Geräte = [((Bilddiagonale zum Quadrat) geteilt durch 25)daraus die Wurzel] mal 3
Es sind aber feste Verhältnisse, wie ich dann gelesen habe.
* 16:9 Diagonale x 0,49 = Bildhöhe
* 4:3 Diagonale x 0,6 = Bildhöhe.
Geht viel einfacher;).
PowerMac hat geschrieben:
3. Wenn die physikalische Auflösung beispielsweise eines CMOS Chip bei 1440x1080 liegt, gibt der nach dem "Debayering" auch genau diese Auflösung aus. Du meinst das tatsächliche Verhältnis von Informationen zu Redundanz. Den tatsächlich zugrunde Algorithmus irgendeiner Consumer-Kamera mit CMOS-Sensor und den wirklichen Informationsgehalt nach dem Bayer-Filter, das hat noch niemand untersucht. Wohl aber die effektive Linienauflösung. Und die liegt bei Consumerkameras (300-400 Linien) ob der geringen Chipgröße natürlich weit unter der eventuell anzunehmenden Chipauflösung.
400 Linien liegt auf S-VHS bzw. HI-8 Niveau. Umgerechnet mit dem Pixelerweiterungsfaktor sind es ca. 530 horizontale Bildpunkte pro Zeile. Also insgesamt rund 310.000 Bildpunkte. 300 Linien sind ca. 400 Pixel horizonal also insgesamt rund 230.000 Pixel.
Bei dem Bayer Sensor ist es so dass theoretisch der gesamte Chip für die Luninazauflösung genutz werden kann, die für den Schärfeeindruck verantwortlich ist. Damit gingen aber nach meiner Überlegung 50% der grünen und je 75% der roten und blauen Farbinformationen verloren. Nun kann aner wahrscheinlich aufgrund von "Erfahrungswerten" von der Farbinformationen der Nachbarfarpixel auf die des zu berechnenden Bildpunkts geschlossen werden (interpolieren). Die Arri D20 nutz aber nur 45% der Pixel für die Luninazinformation. Bei einem normalen RGB Chip wären es 33%. Das wird wahrscheinlich seinen Grund haben. Mit der Linienauflösung kommt man bei der Geschichte nicht weiter, da die ja nur von der Luminanzauflösung abhängt.