Frage von nephil:Hallo
Ich versuche jetzt schon seit einiger Zeit ein paar Dinge rauszukriegen und stehe an.
Wie hängt der Blendenumfang mit der Bit Tiefe des A/D Wandlers in einer Kamera zusammen?
was ich verstanden hab ist, dass die Bit Tiefe festlegt in wie viele Teile Helligkeit einer Farbe geteilt wird. Aber das hängt ja nicht direkt vom Blendenumfang ab. Ich kann ja einen höheren Umfang haben und dafür größere Schritte bei der Unterteilung machen.... oder liege ich falsch?
Aus welchen Daten kann ich den Blendenumfang auslesen?
 was heißt Blendenumfang auf englisch?
 das würde das googeln leichter machen ;)
Danke erst mal, mehr kommt noch ;)
 Antwort von  domain:
Vielleicht hilft dir das weiter
http://www.dslr-forum.de/showthread.php?t=364384
Geht über 41 Seiten, aber hier hoffentlich nicht.
 Antwort von  carstenkurz:
Der Blendenumfang hat in der Tat erstmal nicht soviel mit der Quantisierung des Signals zu tun. In der Praxis dann allerdings schon.
Erstmal drückt der Blendenumfang ganz doof aus, welchen maximalen Unterschied zwischen Hell und Dunkel der Sensor  umsetzen kann. Das bringt einem allerdings bei einer geringeren Quantisierungstiefe relativ wenig, weil das Signal am Ausgang eben digital repräsentiert wird und man ohne 'mehr' Zwischenwerte wenig von weit auseinanderliegenden Extremwerten hat, weil bei zu geringer Quantisierungstiefe eben zuviele Werte dazwischen mit den Extremwerten 'in einen Topf' geworfen werden.
Bei realen Kameras relativiert sich das ohnehin ein bißchen, in der Regel sind Sensor und Wandler meistens einigermaßen aufeinander abgestimmt und es gibt keine allzugroßen Diskrepanzen zwischen Quantisierungstiefe und Blendenumfang. Die heute üblichen Digiknipsen liefern real ca. 6-8 Blendenstufen, das enspricht auch ungefähr dem, was das von diesen bevorzugte Standard-JPEG mit 8 Bit auf der Ausgabeseite liefern kann.
Digitale SLRs und hochwertigere Bewegtbildkameras liefern 8-12 Blendenstufen, in der Regel nur nutzbar über deren native RAW-Formate. In der Paxis wird sowas nur in der Nachbearbeitung über geeignete Transformationskurven auf die verbreiteten Ausgabeformate mit (nach wie vor) 8 Bit konvertiert (wobei Farbe dabei meistens noch weiter reduziert wird). Als 'Endbetrachter' hat man gar nicht soviele Möglichkeiten, mal mehr als echte 8 Bit aus elektronischen Medien zu sehen. Allerdings sieht man auch bei üblichen Szenen ohne spezielles Training immer weniger Unterschiede oberhalb von 6-8 Blenden Umfang.
Der Nachbearbeiter will natürlich deutlich mehr haben um mehr Spielraum für Korrekturen nutzen zu können. Ausserdem sind die niederwertigen Bits des Signals meistens schon stark verrauscht, daher kann man selbst ohne große Korrekturen nur mit einer linearen, oder zumindest adaptiven Konvertierung 'bessere' 8 Bit aus 10-12Bit Quellen schaffen als aus originären 8 Bit Quellen. Ausserdem muss die Kameraelektronik auch ein bißchen Spielraum haben, um bei unterschiedlichen Lichttemperaturen die einzelnen Farbkanäle beim Weissabgleich gegeneinander ausbalancieren zu können.
- Carsten
 Antwort von  nephil:
Aahh :) Danke, das hat mir erst mal sehr geholfen.
 Antwort von  domain:
Bei der 8-Bitcodierung enspricht reines Weiß dem Wert 256. Jede Blendenreduktion um eine Stufe halbiert nun das durch das Objektiv fallende Licht, das ergibt also zunächst mal den Binärwert 128, das entspricht einem mittleren Grau. Die Binärreihe beim Blendenschließen sieht also so aus:
256, 128, 64,32,16,8,4,2, entspricht also grob 8 Blenden oder 8 "Oktaven" bei Tönen.
Nachdem aber speziell Camcorder in der Regel erst ab dem Wert 15  brauchbare Signale aufzeichnen, fallen praktisch die letzten 3 Blendenstufen weg und es bleiben letztlich nur mehr 5 verwertbare übrig.
Die internen AD-Wandler arbeiten allerdings meist mit 12 Bit und bieten daher an sich mehr Dynamikumfang und einen größeren Spielraum, wie Carstenkurz schon sehr gut erklärt hat. Sie arbeiten praktisch im RAW-Format
 Antwort von  nephil:
danke für die antwort :) das hat jetzt auch geholfen.
Ich bin immer noch am recherchieren und es nervt wirklich, nicht zu wissen wie man blendenumfang übersetzt, oder welcher fachausdruck da sonst verwendet wird.
 Antwort von  Bernd E.:
...es nervt wirklich, nicht zu wissen wie man blendenumfang übersetzt...
Versuch"s mal mit "dynamic range": Das müsste meines Erachtens der englische Ausdruck dafür sein.
 Antwort von  domain:
Der deutsche Ausdruck dafür ist Kontrastumfang und wird auch in Blendenstufen angegeben.
 Antwort von  Axel:
@carstenkurz
@domain
Danke für die sehr klaren Ausführungen.
 
 Antwort von  carstenkurz:
'Latitude' bringt auch weiter. Da gibts ein paar ziemliche interessante Dokumente zum Blendenumfang von HighEnd Kameras, Rauschen, Lin/Log Kurven, etc. z.B. bei Provideocoalition, und ein paar Whitepapers von DALSA zur Origin.
- Carsten
 Antwort von  WoWu:
Wo bleibt eigentlich der Aufschrei der "Praktiker" ?
Im allgemeinen werde ich ja immer gescholten für theoretische Betrachtungweisen. 
Zunächst einmal bezieht sich Domains Errechnung ausschliesslich auf RGB mit 255 Codewerten. Im Consumerbereich haben wir es aber lediglich mit Y’CbCr und damit mit den Codewerten 16-235 zu tun, also nicht mit 256 sondern lediglich mit 220. Da würden wir dann schon nur noch bei 5 Blenden landen. Selbst bei RGB stimmen die 8 Blenden nicht wirklich. weil 1 und 255 für Synachronisationszwecke benutzt werden. 
Wo also 8 Bit drauf steht, ist nicht immer 8 Bit für das Video gemeint.
Bei den A/D Wandlern ist häufig die Latenz der limitierende Faktor und weniger die Breite.
In der obigen Betrachtung sind aber ganz elementare Bedingungen einfach ignoriert worden, bzw. treffen nur zu, wenn man Grauverläufe aufnimmt.
Macht man aber so selten ...
Eines der wichtigsten Themen für eine Blendendynamik ist nämlich der Kontrast. Denn wenn eine Fläche bereits nur noch eine Graustufe (MTF 10, oder 20% zeigt, dann kann die Dynamik rechnerisch nach unten hin noch so gross sein. Es wird einfach nichts mehr darin gezeigt, ergo nutzt eine Blendenstufe da überhaupt nichts.
Daher ergibt sich eine Blendendynamik überwiegend aus der MTF, also aus der Summe der Kennlinien aus Objektiv und Bildsensor. Schaut man sich z.B. einmal das hochgelobte Medium "Film" an, so wird man sehen, dass Angaben von 16-20 Blenden meist bei 40 Lp/mm angegeben sind. (Der Kodak 2239/5239 hat z.B. bei 40 lp/mm nur noch 35% MTF.)
Legt man solche Kriterien also an Video an, sieht das gar nicht mehr so schlecht aus, wenn die Sensorpixel gross genug sind. Die Sache verschlechtert sich natürlich drastisch bei abnehmender Punktgrösse.
Ausserdem ist die Blendendynamik ganz massgeblich abhängig vom  Verlauf der Kontrast-Kurve. Filmkorn kann beispielsweise nicht so gut im Schwarz zeichnen, weil Unterbelichtungen im Schlierenbereich liegen und die Videokamera etwas besser durchzeichnet.
Film hat also so gesehen, einen schlechteren Störabstand.
Damit wären wir beim Störabstand. Der definiert sich vom Zustand der 80%igen Ladung des Photosensors, bis zur Rauschgrenze. Diese Dynamik gibt dabei das logarithmische Verhältnis zwischen Spitzenspannung und Spitzenwert des Quantisierungsfehlers an. Mit jedem zusätzlichen Bit verbessert sich die Dynamik um 6 dB. Eine Quantisierung mit 8 Bit, wie sie beispielsweise in der Videotechnik Verwendung findet, entspricht also einer Dynamik von 48 dB. (Es gibt Hersteller, die hier einen Bewertungstrick anwenden, um für die Kataloge auf optisch bessere Werte zu kommen).
Eine 10 Bit Verarbeitung erreicht somit bereits einer Dynamik von 60 db.
In modernen Verfahren spielt die Blende ohnehin erst eine Rolle oberhalb von 133 Lux . Die Blendendynamik überlässt man hier der Auslesung. Dabei werden die Auslesezeiten verkürzt aber innerhalb des Frames verändert und addiert (bis zu 6 Samples). Hier wird die Blendendynamik in Abhängigkeit vom Bildinhalt durch Bildanalyse gesetzt.
@nephil
Du siehst, die Zusammenhänge sind nicht auf eine simple Formel zu bringen und in der Praxis spielen sehr viele Variable mit.
Daher gibt es auch die unterschiedlichsten Aussagen zur Blendendynamik. Realistisch sind Angaben von 5-6 Blenden bei 2/3" Kameras (-54 db Störabstand), mit Broadcast Objektiv. 
Konsumer-Camcorder würde ich aus der Summe der unterschiedlichen Gründe eher bei 4 Blenden ansiedeln.
Noch eine Anmerkung: Die Kamera ist immer nur 
ein Systemelement und das Ergebnis (Blendendynamik) nie besser als das schwächste Glied im System oder die Summe der Negativauswirkungen.
 Antwort von  domain:
Die MTF-Qualität eines Systems, also des darstellbaren 
Detailkontrastes ist natürlich eine maßgebliche Einfussgröße bei Schärfe und Bildwirkung und wurde bisher noch gar nicht erwähnt.
Allerdings stimmt es m.M.n. nicht, dass Consumercamcorder den Bereich über 235 nicht aufzeichnen. Das tun sehr wohl und ist leicht im Waveform-Monitor nachweisbar. 
Allerdings können die Werte z.B. in Liquid durch anhaken der CCIR-601-Norm in der primären Farbkorrektur auch auf 235 begrenzt werden, was prompt zu einem Renderbalken, also zu einem erneuten Hintergrundrendern führt.
Also würde ich auch bei Consumercameras eher 5 als 4 Blenden im Bereich 16-255 des darstellbaren 
Gesamtkontrastes veranschlagen.
 Antwort von  carstenkurz:
Bei VIDEO-KAMERAS, bitte, soviel Unterscheidung muss angesichts des aktuellen DSLR-Hypes schon sein. Aber auch einige Camcorder bieten schon xvYCC.  Die reduzierten 8Bit Räume sind auf dem besten Wege, zur Historie zu werden, im gleichen Umfang in dem analoges Video bei der Bearbeitung und Speicherung zur Historie wird.
- Carsten
 Antwort von  B.DeKid:
Wo bleibt eigentlich der Aufschrei der "Praktiker" ?
;-) Die haben Angst vor soviel Kompetenz !
Und beschäftigen sich demnach lieber mit Themen wie " Gummi" oder "Spike" Füsse am Stativ - bei Aufnahmen im Studio - , und warum mit "Spikes" die Schwenks nicht so richtig klappen wollen und das obwohl man doch eine "Bodenspinne" hat;-)
MfG
B.DeKid
 Antwort von  Axel:
Der Thread hat eine theoretische Verständnisfrage zum Thema. Warum sollte es also einen Aufschrei geben? Eine ungefähre Ahnung und eine verächtliche "praktische Vorstellung" von Dynamik hatte ich bereits. Die grundsätzlichen Zusammenhänge wurden hier in 
klarer Sprache dargelegt. Im Namen der Minderheit von Halbwissenden, zu der ich zähle, habe ich mich bedankt.
Wäre natürlich zu schön. Die wirklichen Zusammenhänge sind n-fach komplexer.
 Antwort von  domain:
Man soll nie wesentlich mehr beantworten, als gefragt wurde. Aber besser wäre es natürlich, wenn man im Bedarfsfall aus dem Vollen schöpfen könnte wie WoWu. Aber dazu reicht unser Halbwissen ja in vielen Fällen leider nicht aus.
Ein Glück nur, dass er nicht in allen Bereichen so beschlagen ist, wie hier demonstriert :-)
 Antwort von  WoWu:
@ domain
Siehst Du, deswegen melde ich mich, ganz im Gegensatz zu einigen Andern, auch nur zu Themen, zu denen ich Konstruktives, statt heisser Luft beitragen kann.
Wenn aber einige der gestellten Fragen in ihrer Beantwortung derart daneben liegen oder auf die Frage eigentlich gar nicht eingegangen wird, dann ist etwas  Erläuterung sicher hilfreicher, als lediglich eine Wortmeldung.
Die Frage:"
Warum fährt ein Auto" mit: "
weil es vier Räder hat" zu beantworten ist sicher nicht gänzlich falsch, geht aber zweifelsfrei am Kern der Fragestellung weit vorbai, obwohl die Antwort richtig ist.
Du siehst, gute Fragen verlangen auch eine gute Antwort.
nicht in allen Bereichen
Welche meinst Du ? :-)
 Antwort von  domain:
Stichworte: Verlaufsgraufilter und deren Position zwischen Frontlinse und Sensor, Unmöglichkeit einer Entfernungseinstellung über Unendlich hinaus, Auflagenmaßjustierung.
Aber jetzt bitte keine Diskussionen darüber, es passt nicht hierher und außerdem habe ich auch keine Lust darüber weiter zu debattieren.
 
 Antwort von  WoWu:
Dann solltest Du Dich korrekt informieren, bevor Du andern Fehler vorwirfst.
Darüber gibt es genügend Literatur. Du musst sie nur lesen, dann wären Dir solche Fehleinschätzungen erspart geblieben.
Und mit "nicht darüber diskutieren wollen" hat das wenig zu tun.
Unmöglichkeit einer Entfernungseinstellung über Unendlich hinaus
....kopfschüttel
Schlag mal nach beim Stichwort hyperfokale-Distanz und lies Dir den Inhalt mal in Ruhe durch.
 Antwort von  Axel:
Um diese Dinge anzweifeln zu können, müsste man sie nachvollziehen. Du gehst davon aus, dass der Wissensstand der meisten hier dafür nicht reicht, und zu Recht. Perlen vor die Säue.
Dann solltest Du Dich korrekt informieren, bevor Du andern Fehler vorwirfst.
Man braucht aber kein Experte zu sein, um die Mimose zu erkennen, als die du auftrittst, wenn mal einer Piep sagt. Starte doch mal eine Umfrage hier, ob die anderen SlashCamer deine Spitzfindigkeiten speziell in diesem Thread (verallgemeinern will ich nicht, du weißt schon viel) relevant finden oder nicht. Wenn nicht, nenne ich das mit meinem frivolen Plappermaul eben auch "heiße Luft", unerbetenen und letztlich nur verwirrenden Quark, wo zuvor Zusammenhänge - vielleicht etwas modellhaft - hergestellt wurden.
....kopfschüttel
Genau.
 Antwort von  WoWu:
Axel, ich weiss ja, Du magst mich nicht und verstehst inhaltlich viele Dinge nicht, die ich beitrage...  aber soll mich der Umstand jetzt beunruhigen, dass mir das egal ist ?
Ich würde übrigens an Deiner Stelle das Niveau der Slashcamer nicht unterschätzen. Sie sind nicht alle, so wie Du,  auf dem Einstiegslevel stehen geblieben.
Wenigstens habe ich Dir eine Vorlage für eine Deiner heissgeliebten verbalen Attacken verschafft ...wenn schon inhaltlich von Dir kein Beitrag kommt. Das ist doch schon was. Darüber freue ich mich.
 Antwort von  deti:
... und dabei hat der Thread sachlich korrekt und spannend angefangen.
Deti
 Antwort von  WoWu:
.. stimmt, wenn auch leider falsch ...
 Antwort von  domain:
OT:
Ach wir brauchen uns da ja nicht angifteln, vermutlich sprechen wir aneinander vorbei. Schau Wolfgang ich zeige dir hier anhand einer alten Balgenkamera aus meiner Sammlung, was ich unter einer Einstellung jenseits von Unendlich verstehe.
Im ersten Bild ist die Objektivstandarte auf einer vorgesehenen Unendlichposition eingerastet, das sind 13 cm vor der Platte, also hat das Objektiv 13 cm Brennweite. Im zweiten Bild habe ich den Balgen auf 22 cm ausgezogen, die Mattscheibe zeigt ein scharfes Bild bei ca. 50 cm Distanz zum Objekt.
Im dritten Bild ist das Objektiv auf 7,5 cm hineingeschoben. Nun gibt es überhaupt nichts Scharfes mehr, auch alles im Unendlichen ist unscharf. 
Das verstehe ich unter einer "Fokussierung" jenseits von Unendlich, die natürlich sinnlos ist, aber halt manchmal bei Kameras in kleinem Maßstab vorkommt. In diesem Fall muss das Auflagenmaß auf exakt 13 cm bei Unendlich korrigiert werden.
 Antwort von  WoWu:
Deti  !!!!!
Lesen, lesen, lesen..., nicht nur die Threadüberschrifen sondern auch die postings. .... dann kannst Du nicht leicht nachlesen, was ich in diesem Zusammenhang zu grossformatigen Kameras geschrieben habe.
Context beachten !!
Aber danke für die Bestätigung meiner Darlegung und die zusätzliche Bebilderung.
Schade dass es bei dem (angesprochenen) Thread nicht um alte Balgenkameras oder Plattenkameras ging sondern um eine moderne HD Kamera mit einem Bonsai-Chip und leider keinem Balgen-Objektiv.
Nun könnte der Threadstarter natürlich sein Objektiv der FX1000 ausbauen, ein grösseres Loch in den Kamerakopf bohren und das Objektiv dann direkt auf den Sensor aufsetzen, um Deine Theorie zu bestätigen.
 
Wake up, Deti !!
Aber schön, dass Du uns bei der Gelegenheit mal Dein aktuelles Equipment gezeigt hast.
 Antwort von  nicecam:
...Und beschäftigen sich demnach lieber mit Themen wie " Gummi" oder "Spike" Füsse am Stativ - bei Aufnahmen im Studio - , und warum mit "Spikes" die Schwenks nicht so richtig klappen wollen und das obwohl man doch eine "Bodenspinne" hat;-)...
"BruHaaahahaHohoohohoPrustHuhuhuJuchzHihihihihi………"
Herrlich, köstlich...
...Geht über 41 Seiten, aber hier hoffentlich nicht...
Ich fürchte, doch...
Und letztendlich wird man doch dazugelernt haben!
Gruß Johannes
 Antwort von  deti:
Deti  !!!!!
...
Wake up, Deti !!
deti != domain.
Deti
 
 Antwort von  Axel:
Schlag mal nach beim Stichwort hyperfokale-Distanz und lies Dir den Inhalt mal in Ruhe durch.
War zwar schon die ganze Zeit OT, aber wir finden uns in Kürze sowieso vom Moderator abgeschnitten in einer Tobeecke wieder. Ich habe über die hyperfokale Distanz nachgelesen und weiß nun, dass es einen Bereich lediglich akzeptabler Unschärfe zwischen x und ∞ meint, bei dem der Fokus am Objektiv - abhängig von der Blende - irgendwo dazwischen liegt. Es war mir aus der Praxis bekannt, auch dass ältere Objektive meistens die zusätzlichen Fokusmarkierungen haben. Freut mich irgendwie, nun zu wissen, dass es ganz offiziös "hyperfokale Distanz" heißt. Klingt gestelzt, pompös, ein Wort auf Stöckelschuhen.  Mit dem Auflagemaß, das Thema jenes Threads war, hat es nichts zu tun: Heiße Luft.
Ich habe nichts dagegen, dazuzulernen und Sachverhalte zu vertiefen. Hochgestochenen Bullshit nenne ich dagegen beim Namen. Vielleicht machen wir einen neuen Anfang.
 Antwort von  WoWu:
Axel, zugegeben, der Sprung, den Domain  (Sorry Deti, das ist mir nun schon wieder passiert.Mea Culpa), hin zu einem andern Thread gemacht hat, war nur von Domain und mir nachzuvollziehen.
Er hätte Mitlesern erklärt werden müssen. 
Nur bei Kenntnis des Contextes hätte auch der Hinweis zur hyperfokal Distanz nachvollzogen werden können.
Aber bevor der Thread nun auch Überlänge bekommt und keiner mehr sachdienliches  zum eigentlichen Thema beisteuern möchte,  bin ich auch raus. 
Der Threadstarter hat die wesentlichen Sichtpunkte und kann nun selbst feststellen, ob seine Kamera die vorgerechneten 8 Blenden macht (später dann doch 5 Blenden)  oder ob nicht eher die 4 oder 5 Blenden stimmen.
Eine Formel gibt es für die Berechnung jedenfalls nicht.
Und auch wenn Du, Axel, die Zusammenhänge von Blendendynamik und Störbstand nicht nachvollziehen kannst, so ist er dennoch ein Teil des Topics.
Daran ändern auch Deine Reklamationen nichts. 
Aber wenigstens hast Du heute mehr über hyperfokale Distanz erfahren.
das ist doch ein Anfang.
 Antwort von  Axel:
Ja, ein insgesamt sehr lehrreicher Thread. Bloß nichts nachtragen.
 Antwort von  WoWu:
Ach, wo werde ich denn .... ich freue mich schon auf die nächste Kollision.
In dem Sinne, gute Nacht.
 Antwort von  domain:
Ist schon vorprogrammiert, wäre doch gelacht, wenn wir nicht auf 41 Seiten kommen :-)
Meine  ursprünglichen Überlegungen und überschlagsmäßigen Berechnungen, danach erweitert durch kompetente Aussagen von WoWu liefen ja nach Verhandlungen letztlich auf ca. 4,5 Blendenstufen Dynamikumfang bei Consumercameras hinaus. MTF spielt dabei m.N.n. keine besondere Rolle, weil es ja nicht um die Feinheit von Strukturen geht, sondern um den globalen Kontrastumfang des gesamten Bildes.
Dabei setzten wir implizit und theoretisch eine lineare Gammakurve mit Wert 1 voraus http://de.wikipedia.org/wiki/Gammakorrektur
Die Praxis von Profikameras sieht aber nichtlineare Gammakorrekturen vor z.B durch Black-Stretch und Knee-Einstellungen, welche den erfassbaren Kontrastumfang nochmals beträchtlich erweitern können, was also noch mehr Blendenstufen entspricht. 
Kurz, diese Sache ist der vermaledeiten 8-Bit-Codierung zuzuschreiben, die die RED One z.B. gar nicht kennt, weil hier das original 12-Bit RAW-Signal, wenn auch komprimiert aufgezeichnet wird.
Alle weiteren Manipulationen liegen dann im Bereich nachgeschalteter  Software.
 Antwort von  domain:
-
 Antwort von  Axel:
Ich habe einen Eindruck von der Komplexität des Themas bekommen und entschuldige mich, die fütternden Hände gebissen zu haben. Wenn ich trotz LSP (low scientific profile) hier noch poste, dann mit der Bitte um Korrektur, wenn"s geht mit weniger Chinesisch. 
Im Consumerbereich haben wir es aber lediglich mit Y’CbCr und damit mit den Codewerten 16-235 zu tun, also nicht mit 256 sondern lediglich mit 220. Da würden wir dann schon nur noch bei 5 Blenden landen.
Jetzt frage ich mich als User, welche Bedeutung diese 5 Blenden (oder meinetwegen auch 4 aus verschiedenen, von mir nicht bezweifelten Gründen) für mein Bild haben, speziell dessen "Naturtreue". 220 digital speicherbare Helligkeitsabstufungen stehen der Fähigkeit des Auges gegenüber, maximal und im besten Falle 100 Abstufungen unterscheiden zu können (so hängengeblieben, Quelle muss ich bei Verlangen nachreichen).  Das ist wohl auch der Grund, warum HDR-Fotos auf uns immer etwas surreal wirken und warum wir unbedarfte Video-Aufnahmen als hässlich, aber "realistisch" einschätzen.
Man empfindet ein Bild aber auch als schlecht, wenn es zuviele Bereiche ohne Zeichnung hat, bei denen wir im Alltag eine Zeichnung wahrnehmen könnten. Wie aber kann es sein, dass eine "schlechtere Technik" (Auge) die Wahrnehmung von mehr Informationen ermöglicht? Antwort: Die Kohlenhalden im Sonnenschein werden mit sehr vielen kurzen Augenbewegungen wahrgenommen, während denen kleine "Blendenkorrekturen" vorgenommen werden, das entspricht also grob (nicht hauen) einer Belichtungsreihe, bevor sich der Betrachter sagt: Wolkenstrukturen, Kohlenstaub im Sonnenschatten - alles da! Er hat vor der eigentlichen Wahrnehmung mehrere Bildbereiche gescannt und mit jeweils unterschiedlicher Iris-Öffnung "aufgenommen".
Als erste Konsequenz könnte ich - ohne Belichtungsautomatik, versteht sich - entscheiden, welcher Bildbereich mir wichtiger ist. Ich kann mit den Mitteln der manuellen Belichtung eine ziemlich gute Zeichnung der Kohlen erreichen, dann habe ich einen weißen Himmel. Ich kann einen schönen Himmel aufnehmen, dann habe ich den unteren Bildbereich einfach nur schwarz. Stelle ich die Blende in die Mitte, habe ich in diesem Extrembeispiel vermutlich nirgendwo eine befriedigende Zeichnung.
Mit "nur" 100 Buntstiften mit gleichmäßigen Abstufungen von (fast) Weiß zu Schwarz könnte man ein augenrichtiges Bild der Kohlenhalden malen, man könnte es sogar mit viel, viel weniger. Das wird möglich, indem man das tatsächliche Gradationsspektrum (wer immer es eicht, der liebe Gott?) proportional verkleinert und überdies die hypothetisch lineare Nuancierung durch eine lustige Kurve ersetzt. Die Pi-mal-Daumen Übersetzung des Malers nehme ich hier als Modell. 
Mit einer Kamera kann ich dieses willkürliche Umverteilen des Kontrastspektrums nur erreichen, wenn ich bei einer dafür optimalen Blende Bildpartien vor der Optik aufhelle (Beleuchtung) oder abdunkle (Filter oder licht-absorbierende  resp. -blockierende oder schattenwerfende Objekte). In meinen 220 Stufen innerhalb der 256 müsste ich also versuchen, den Kohlen etwa 16 bis 30 zu geben und dem Himmel 200 bis 235.
Mir ist klar, dass mir diese Erwähnung der Praxis in diesem esoterischen Thread übelgenommen wird, zumal ich nicht zum ersten Mal mit dieser Geschichte komme. Formal ist diese für fotografisch Ausgebildete so banale Grundlage also OT. Ob der Threadstarter über die numerischen Fakten hinaus überhaupt an einer Nutzanwendung interessiert ist, weiß ich nicht. Vielleicht wendet er sich, in einem Lehnstuhl sitzend und an einer Pfeife schmauchend, kopfschüttelnd von diesen Betrachtungen ab und beobachtet lieber Sternbilder durch sein Teleskop.
Natürlich ist es besser, mehr Blendenstufen verwenden zu können. Wenn sie zur Verfügung stehen, was ja für die meisten hier eine akademische Betrachtung ist.
Analoge Fotografie/Film ist bekanntlich nicht auf 256 Stufen begrenzt. Jede Abstufung ist möglich. Aber mit einer normalen Kleinbildkamera und einem normal empfindlichen Film habe ich deswegen nicht unendlich viele Blendenstufen, vielleicht sind"s durchschnittlich 8. Auch analog - ohne die läppischen 8 bit - ist der Himmel weiß, wenn die Kohlen Zeichnung haben. Aufgrund der unendlich vielen Abstufungen im Randbereich dieser weißen Fläche (dem Horizont) wird das Bild aber natürlich aussehen, das Videobild dagegen nicht.
 Antwort von  carstenkurz:
Jetzt frage ich mich als User, welche Bedeutung diese 5 Blenden (oder meinetwegen auch 4 aus verschiedenen, von mir nicht bezweifelten Gründen) für mein Bild haben, speziell dessen "Naturtreue". 220 digital speicherbare Helligkeitsabstufungen stehen der Fähigkeit des Auges gegenüber, maximal und im besten Falle 100 Abstufungen unterscheiden zu können (so hängengeblieben, Quelle muss ich bei Verlangen nachreichen).  
Dazu lässt sich sehr viel sagen, aber zumindest soviel: Simultan kann das Auge nicht viele Abstufungen unterscheiden, aber im Unterschied zu einem Kamerasensor kann dein Auge frei adaptieren und beliebige Bildbereiche nach Aufmerksamkeit feiner differenzieren. Andere Quellen werden Dir zum Adaptionsbereich des Auges Zahlen von 100.000 zu 1 nennen. Natürlich kann eine Kamera mit Belichtungsautomatik diese Verhalten auch nachmachen - aber uns interessiert ja nicht 'das Auge der Kamera', sondern das Auge des Betrachters, und sobald die Kamera mittels Belichtungsautomatik adaptiert, kann der Betrachter des Kamerabildes das nicht mehr frei selber tun und muss nehmen, was die Kamera ihm anbietet - incl. voll abgesoffener Schatten und durchgebrannter Lichter.
So, und damit sind wir erstmal nur bei statischen Bildern. Sequentiell kann das Auge seine 100.000 zu eins voll ausspielen. Kamera nur mit Nachregeln. Und dann ist ja auch klar, dass wir keine 1:1 Wiedergabe wollen, sondern das Material aus der Kamera sowohl in sich als auch mit anderen Szenen angleichen und manipulieren wollen, dafür sind so wenige Abstufungen und so wenig Kontrastumfang eben viel zu knapp.
Und dann haben wir auch weitere objektiv und subjektiv störende Aspekte wie Rauschen und Clippingverhalten noch nicht berücksichtigt.
Es gibt ein paar interessante Aspekte aus diesem Bereich auch bei der Diskussion des Kontrastverhaltens bei Anzeigegeräten wie z.B. Beamern, also vom anderen Ende der Signalkette. Auch hier gibt es teilweise erstaunliche Kombinationen von relativ niedrigem In-Bild-Kontrast (z.B. 1:200) und enorm hohem sequentiellem Kontrast (1:50.000).
- Carsten
 Antwort von  domain:
Warum man den dynamischen Kontrast z.B. bei Beamern und LCD/TFT gegenüber dem statischen erhöhen wollte hatte einen einfachen Grund: bei Filmvorführungen speziell in dunklen Räumen adaptiert das Auge nach einer hellen Szene mit darauffolgender dunkler Szene sehr schnell auf das an sich gar nicht wirkliche Schwarz und empfindet es als grau. Diesen Effekt kennt jeder von uns, bei hellen Szenen gibt es scheinbar noch richtiges Schwarz, bei dunklen Szenen bemerkt man plötzlich, dass alles Dunkle grau in grau wird und die Hintergrundbeleuchtung durchleuchtet.
Das Problem wurde eigentlich recht simpel gelöst: bei dunklen Szenen schließt sich bei Beamern eine variable Blende vor der Lampe, bei LCD/TFT wird einfach die Hintergrundbeleuchtung zurückgenommen. Bei LED Hintergrundbeleuchtung ist das, glaube ich, auch schon partiell, also nur für die dunklen Bildteile möglich.
Das sind also die Tricks bei der Bildwiedergabe zur Steigerung des dynamischen Kontrastes, welche aber vermutlich in Zukunft bei laufend ansteigenden statischen Kontrastwerten immer weniger Rolle spielen werden.
Völlig andere Anforderungen aber stellt, wie Carsten schon festgestellt hat, der Aufnahmesektor, nämlich die Bewältigung enormer realer Kontrastverhältnisse. Die Möglichkeiten dazu sind immer etwas begrenzt, aber mit z.B. mit 3 unterschiedlichen Belichtungen in der High-Dynamik-Range-Fotografie oder mit Aufzeichnungsmethoden mit sehr flachem Gamma lässt sich schon einiges machen.
Gute Negativfilme haben einen Dynamikumfang von ca. 10 Blenden, und ebenso das 12 Bit RAW-Format.
Die Kunst der Wiedergabe besteht nun darin, diesen relativ großen Dynamikumfang an die beschränkten Möglichkeiten des Wiedergabemediums anzupassen. Das geschieht durch Aufsteilung der Kontrastkurven, also durch Erhöhung des Gammawertes bei der Wiedergabe, sonst wären die Bilder unerträglich flau.
Jedoch, wenn es Displays gäbe, die einen der Realität annähernd entsprechend hohen statischen Kontrast liefern könnten, dann wären keine Gammaaufsteilungen mehr nötig und die RAW Bilder könnten in ihrem gesamten Umfang gezeigt werden.
Vorläufige Schlussfolgerung: die Aufnahme selbst sollte immer einen möglichst hohen Dynamikumfang umfassen, welcher bei der Wiedergabe geräteabhängig und individuell eingestellt werden kann, bzw. muss.
 
 Antwort von  WoWu:
@ Axel
Bitte gestatte noch einen kurzen Zusatz zu den, von Dir angesprochenen 200 "Stufen" der Auflösung. (ohne erneut in die Diskussion eintreten zu wollen, quasi nur als Info für Dich zur Einordnung).
Nach dem Webersche Gesetz wird erste eine Helligkeitsänderung von 1 bis 2% überhaupt vom Menschen wahrgenommen. 
Allerdings findet die eine Wahrnehmung der Helligkeit in dunklen Bildbereichen sehr viel stärker statt als die identische Veränderung in einem hellen Bildbereich. Es gibt nun unterschiedliche Auffassungen, darüber, wieviel Quantisierung wirklich erforderlich ist, damit der Mensch die einzelnen Stufen der Quantisierung nicht mehr als Stufen, sondern "flüssig" wahrnimmt. 
Nach diesem Weberschen Gesetz wären für eine Blende (Helligkeits-Halbierung bzw. Verdopplung = 100% Änderung),  50-100 Helligkeitsstufen, um vom Betrachter nicht als Abstufung wahrgenommen zu werden. 
Bei einer Blendendynamik von rd. 10 Blenden entspricht dies etwa 1000 Schritten, also rd. 10bit (1024).
Nicht berücksichtigt hierbei sind die äußeren Gegebenheiten, wie Streulicht, denn das beeinträchtigt die Wahrnehmung ganz erheblich.
So wird der Kontrast bei einer Filmvorführung in einem Kino mit einem Streulichtanteil von nur 0,5% von 10.000:1 auf nur noch 200:1 reduziert. Das wären dann nur noch 8bit.
Und wenn wir schon dabei sind, lass uns die Farbe auch noch kurz betrachten:
Der Mensch kann ungefähr 200 Farbwerte (Abstufungen) unterscheiden.
Variiert man die Intensität innerhalb jeder Stufe und verändert somit die Helligkeit der Farbe, lassen sich pro Stufe 500 Helligkeitswerte unterscheiden. Außerdem kann die Sättigung jeder Farbabstufen variiert werden. Dies geschieht indem man einer Farbe, z.B. Licht mit einer Wellenlänge von 640 nm (Rot), kontinuierlich Weiß hinzufügt. 
Die Farbe verliert somit an Sättigung. Die Sättigung einer Farbe verhält sich somit umgekehrt proportional zum Weißanteil der Farbe: je gesättigter eine Farbe ist, desto geringer ist der Weißanteil. 
Pro Farbe erhält man ungefähr 20 Sättigkeitsabstufungen. 
Berücksichtigt man nun sowohl die 200 erkennbaren Abstufungen des sichtbaren Lichts, die 500 möglichen Helligkeitswerte und die 20 Sättigungswerte pro Stufe, erhält man 
(200 × 500 × 20 = 2 000 000) 2 Millionen verschiedene Farben.
Auch wenn sich die verschiedenen Quellen recht uneinig sind, wie die 
Menge der wahrnehmbaren Farben bestimmt werden kann und wieviele es wirklich sind, kann festgestellt werden, dass eine Darstellung mit 
24-bit (3 × 8 bit = 3 × 1 Byte = 28 × 28 × 28 = 224 = 16 777 216) also ca. 16 Millionen Farben für eine gute Darstellung ausreichend ist.
Besten Gruss.
 Antwort von  Axel:
@WoWu
Danke. Werde das mal etwas setzen lassen.
 Antwort von  carstenkurz:
Man kommt zweifellos mit deutlich weniger für die Darstellung aus, aber wie schon früher erwähnt, reden wir hier ja über Kameras, also die Aufnahme.
Ähnliches gibts auch im Audiobereich. Man kann Material so bearbeiten, dass es sich auch mit deutlich weniger als 44.1KHz/16Bit noch hochwertig anhört. Trotzdem ist das für Aufnahme und Bearbeitung das absolute Minimum.
- Carsten
 Antwort von  domain:
Eine ähnliche Kompression  macht ja auch ein Landschaftsmaler. Wenn er den Himmel anblickt erkennt er auch in der Nähe der gleißenden Sonne noch Zeichnung, blickt er dann unvermittelt in den Schatten ist er zunächst blind. Aber nach einer gewissen Zeit erkennt er auch dort noch Strukturen und kann sie auf das Bild bannen, wobei insbesondere bei Aquarellen der Kontrastumfang nochmals deutlich geringer als bei hochglänzendem Fotopapieren ist, dort max. 6 Blendenstufen.
Eine entsprechende Umsetzung in der Foto- oder Videografie gelingt aber nur, wenn schon die Aufnahme selbst einen möglichst hohen Kontrastumfang umfasst. Was aber die Auge-Hirn-Kombination in der Realität draußen zu leisten imstande ist, kann reproduzierend nur relativ schwer umgesetzt werden.