Logo Logo
/// 

Panasonic GH5 - Like709-Profil das bessere (und kostenlose) V-Log?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:


https://images.slashcam.de/texte/1565-- ... -FRONT.jpg
Die logarithmische V-Log-Aufzeichnung mit der GH5 lässt sich Panasonic noch einmal extra bezahlen, doch das Profil hat auch seine Tücken. Kostenlos fährt man aktuell vielleicht sogar mit den neuen "Like709"-Einstellungen besser...

Hier geht es zu Artikel auf den slashCAM Magazin-Seiten:
Ratgeber: Panasonic GH5 - Like709-Profil das bessere (und kostenlose) V-Log?




Antwort von kmw:

Und schon knapp 100 Euro gespart ;-)
Danke für Euren aufschlussreichen Test!

Mal schaun wann Cinema5D nachzieht.....



Antwort von mash_gh4:

ich wäre ziemlich vorsichtig was die farbabbildung von Like709 angeht.
bei den vorgängermodellen war es immer so, dass die klassischen profile deutlich problemtischere farbabweichungen geziegt haben.
V-Log verwendet nämlich mit V-Gamut auch ein deutlich gößeres farbezugssystem als rec709. das hat zwar auch nachtiele, weil sich hier auf der ebene der farbinformation ein ähnlich unguter effekt einstellt, wie man es auch von den quantisierungsproblemen in der abbildung des dynamikumfangs herkent, trotzdem sind die resultate nicht in so sehr von begleiterecheinungen der gamut-komression betroffen, die man aus footage mit den traditionellen profilen leider kaum raus bekommt.





Antwort von tidefilm:

Danke für den Artikel, gute Arbeit! Könnt Ihr mir mit den bestmöglichen Einstellungen für die manuellen Knie Settings weiterhelfen? Point und Slope?
Oder tut es auch das Auto Setting optimal?



Antwort von Uwe:

Hab mal auf die Schnelle einen kurzen Vergleich aus dem Fenster geschossen:





Antwort von rudi:

Danke für den Artikel, gute Arbeit! Könnt Ihr mir mit den bestmöglichen Einstellungen für die manuellen Knie Settings weiterhelfen? Point und Slope?
Oder tut es auch das Auto Setting optimal?

Genau da liegt der Hund begraben. Die bestmögliche Einstellung wird durch die gefilmte Szene bestimmt. Du kannst die Dynamik der Szene durch den Knee-Punkt quasi manuell "aussteuern". Nun gilt es herauszufinden, wie die Auto-Einstellung wirkt. Wird der KneeKnee im Glossar erklärt Punkt laufend verändert, oder nur einmal bei der Einstellung? Ersteres wäre blöd und für die Postproduktion der Horror. Es könnte jedoch auch sein, dass die Einstellung nur einmalig ist und ein bisschen wie ETTR gehandhabt wird, also die Lichter genau so komprimiert werden, dass die Highlights nicht clippen. Mal sehen, ob wir mal Zeit finden hier mehr zu "forschen", oder ob das Netz schneller ist. Ich persönlich denke, der Aufwand lohnt fast nicht, wenn Hyperlog-Gamma sowieso vor der Tür steht....



Antwort von editor0range:

Danke für den Artikel, gute Arbeit! Könnt Ihr mir mit den bestmöglichen Einstellungen für die manuellen Knie Settings weiterhelfen? Point und Slope?
Oder tut es auch das Auto Setting optimal?

Genau da liegt der Hund begraben. Die bestmögliche Einstellung wird durch die gefilmte Szene bestimmt. Du kannst die Dynamik der Szene durch den Knee-Punkt quasi manuell "aussteuern". Nun gilt es herauszufinden, wie die Auto-Einstellung wirkt. Wird der KneeKnee im Glossar erklärt Punkt laufend verändert, oder nur einmal bei der Einstellung? Ersteres wäre blöd und für die Postproduktion der Horror. Es könnte jedoch auch sein, dass die Einstellung nur einmalig ist und ein bisschen wie ETTR gehandhabt wird, also die Lichter genau so komprimiert werden, dass die Highlights nicht clippen. Mal sehen, ob wir mal Zeit finden hier mehr zu "forschen", oder ob das Netz schneller ist. Ich persönlich denke, der Aufwand lohnt fast nicht, wenn Hyperlog-Gamma sowieso vor der Tür steht....

Ich verstehe es noch nicht ganz: Ersetzt HLG anschließend V-Log L?
Möchte einfach das Bildprofil mit dem größten Dynamikumfang verwenden. Nachbearbeitung kann ich mit LUTs erledigen, wenn es sein muss!



Antwort von CameraRick:


Ich verstehe es noch nicht ganz: Ersetzt HLG anschließend V-Log L?
Möchte einfach das Bildprofil mit dem größten Dynamikumfang verwenden. Nachbearbeitung kann ich mit LUTs erledigen, wenn es sein muss!
Nein. HLG ist, zumindest nach Aussage von Panasonic, dafür da ein schönes HDR-Erlebnis zu bekommen, wenn Du die Kamera direkt an den Fernseher anschließt. Zur Nachbearbeitung sei es dagegen nicht so geeignet, dafür sei V-Log gedacht.

Kann die LUT-Vorschau eigentlich nur mit V-Log benutzt werden? Das ist wäre für mich schon ein kleiner Nachteil für die anderen Modi.



Antwort von rudi:


Kann die LUT-Vorschau eigentlich nur mit V-Log benutzt werden? Das ist wäre für mich schon ein kleiner Nachteil für die anderen Modi.

Nein, man kann auch eigene LUTs für die Vorschau in die GH5 laden. Dafür gibt es vier freie Slots. Keine .cube aber Varicam .vlt, die man in Resolve oder auch LutCalc erstellen bzw. konvertieren kann. Hatten wir hier beschrieben:

https://www.slashcam.de/artikel/Test/Pa ... Fazit.html

Vielleicht bringt Panasonic aber mit dem Update gleich eine HLG-LUT mit, was ja Sinn machen würde...



Antwort von CameraRick:

Das stand ja schon in eurem Artikel, aber das war nicht die Frage :)

Kann ich zB auch mit CineD oder dem Like709 LUTs zur Vorschau nutzen, oder nur, wenn ich auch Vlog aufzeichne?



Antwort von rudi:

Das stand ja schon in eurem Artikel, aber das war nicht die Frage :)

Kann ich zB auch mit CineD oder dem Like709 LUTs zur Vorschau nutzen, oder nur, wenn ich auch Vlog aufzeichne?

Aaaah. Bin schon auf dem Sprung, aber tatsächlich Henne-Ei Problem: Die LUTs kann man natürlich nur laden, wenn man in V-Log-Modus ist (wenn ich mich richtig entsinne).



Antwort von Axel:

Hab mal auf die Schnelle einen kurzen Vergleich aus dem Fenster geschossen:



Hast du auch KneeKnee im Glossar erklärt und Slope (Sony-Sprech) verstellt? Siehe Artikel:

Denn Panasonic hat der GH5 ein weiteres Profil mitgegeben, das sich "Like709" nennt. Und bei diesem Profil lässt sich in der Kamera erstmals eine Knee-Funktion nutzen. Man hat es hier also mit einem normalen 709-Profil zu tun, bei dem man manuell festsetzen kann, ab welchem Punkt die Lichter komprimiert werden sollen.
(Hervorhebung von mir)

Wenn der Kurvenknick bei 77, 5 % läge (Standard für viele custom-gebastelte Sony Farbprofile), hättest du mehr Highlight-Details. Und, da 10-bit, nicht die Gefahr von Banding oder gelegentlich durch ETTR hinter den Knick fallende Gesichter, deren Farben dann ausgedünnt würden.



Antwort von domain:

Interessant, dass jetzt wieder die uralte Kniefunktion zur Spache kommt.
Einen wirklich kantigen Knick für die Highlights hat es aber nie gegeben, sonderm mehr fließende Übergänge, wobei der Einstiegspunkt mit Knee-Point und der Grad der darauf folgenden Steigung immer mit Slope angegeben wurde.



Antwort von Uwe:


Hast du auch KneeKnee im Glossar erklärt und Slope (Sony-Sprech) verstellt? Siehe Artikel......

Nee, hab ich natürlich nicht. Bis gestern wusste ich nichts von "Knee, Slope + Point" in diesen Zusammenhang. Ich hatte es auf "Auto" gestellt. Sicherlich wird man mit genauerem Einstellen in den Lichtern noch einiges rausholen können. Aber was ich so im Netz gelesen hab, müsste man es fast für jede Szene neu einstellen. Und das wäre mir persönlich viel zu nervig. Trotzdem reizt es mich darüber mehr zu erfahren. In den nächsten Tagen + Wochen wird man dazu sicherlich mehr Infos bekommen. Im Augenblick wird die Entscheidung bei mir zwischen Cinelike D (wie bei der GH4) und V-Log L fallen...



Antwort von Axel:

Bis gestern wusste ich nichts von "Knee, Slope + Point" in diesen Zusammenhang. Ich hatte es auf "Auto" gestellt. Sicherlich wird man mit genauerem Einstellen in den Lichtern noch einiges rausholen können.

Mal ganz davon abgesehen, bin ich eigentlich der einzige, der in deinem Beispiel die like 709 - Variante besser findet (ich betrachte das 8-bit Video auf einem P3-Display, V-Log sieht um die Sonne herum stumpf und unnatürlich aus)?

Ich bin, nach anfänglichem Schützen von Lichtern und Schatten um jeden Preis mit BM-Log, mittlerweile von Pseudo-HDR geheilt und clippe und crushe nach Herzenslust, wenn es mir besser gefällt ...



Antwort von Funless:

Ich bin, nach anfänglichem Schützen von Lichtern und Schatten um jeden Preis mit BM-Log, mittlerweile von Pseudo-HDR geheilt und clippe und crushe nach Herzenslust, wenn es mir besser gefällt ...

Willkommen im Club.



Antwort von domain:

Zitat:
Ich bin, nach anfänglichem Schützen von Lichtern und Schatten um jeden Preis mit BM-Log, mittlerweile von Pseudo-HDR geheilt und clippe und crushe nach Herzenslust, wenn es mir besser gefällt ...

Endlich mal eine wertvolle Ansage. Speziell, wenn man alte SW-Filme ansieht, gefällt einem das Clippen und Absaufen und die Konzentration auf die wesentlichen Mitteltöne.
Fürchterlich, wenn man bei derzeitigen Videos hauptsächlich nur die Extrembereiche beachtet und der ganze sonstige Look in einer mehr oder weniger grauen Sauce, aber mit Details in Lichtern und Schatten versinkt, die ohne niemand interessieren.



Antwort von Uwe:


Mal ganz davon abgesehen, bin ich eigentlich der einzige, der in deinem Beispiel die like 709 - Variante besser findet ...

Nein, bist Du nicht. - Beim Sonnenuntergang nachher werd ich mal schauen, wie sich Cinelike D gegen Like709 auf "Auto" schlägt...



Antwort von Uwe:

Heute beim Morgen-Spaziergang hab ich nochmal ein paar Vergleichsaufnahmen zwischen Cinelike D, Like 709 + V.log gemacht. Es bleibt bei meinen beiden Favoriten Cinelike D + Vlog (da gibt's sicherlich auch andere Meinungen). Ich sehe keinen merklichen Vorteil von Like709 => die Lichter brennen einfach zu sehr aus. Selbst wenn man jetzt über die Knee-Settings (Slope, Point) da noch was rausholen könnte wird es höchstwahrscheinlich nicht besser als bei Cinelike D und schon gar nicht wie bei V-Log. V-Log L hat in meinen Augen sehr stark gewonnen ggü. das, was rauskam bei 8bit in der GH4. Man sollte sich halt nur Gedanken machen, wo man es einsetzt. Sonnenuntergänge sind vielleicht nicht gerade die Stärke...

Cinelike D
zum Bild https://s1.postimg.org/5cbqmmewv/cinelike_D_1.jpg

Like709
zum Bild https://s23.postimg.org/m89ji143v/like709_1.jpg

V-log L
zum Bild https://s18.postimg.org/b6e75ff89/vlog_1.jpg

Cinelike D
zum Bild https://s16.postimg.org/p0aoeanx1/cinelike_D_2.jpg

Like709
zum Bild https://s9.postimg.org/ct6mij1un/like709_2.jpg

V-log L
zum Bild https://s8.postimg.org/530e16qmd/vlog_2.jpg



Antwort von domain:

Nach meinem simplen Empfinden scheint Cinelike D die beste Darstellung zu liefern und zwar mit noch erkennbarem Sonnenhof und gut dunklen, aber noch durchgezeichneten Schatten.
Ich frage mich manchmal, was sollen eigentlich die noch flacheren Bildprofile?
Wenn man den Kontrast in den Mitteltönen augengerecht normalisieren möchte, dann kann das Gesamtprofil doch nicht mehr annähernd linear verlaufen, wobei hinzu kommt, dass den Normalsterblichen die Durchzeichnung der Lichter und Schatten ohnehin nicht sonderlich interessieren. Ist eher was für Feinspitze :-)
Auf gute Kontraste in den Mitteltönen kommt m.E. an.



Antwort von Bruno Peter:

Bin ebenfalls mit Cinelike D bei meiner FZ300 sehr zufrieden, habe aber auch nicht die Qual der Wahl...



Antwort von ksingle:

Heute beim Morgen-Spaziergang hab ich nochmal ein paar Vergleichsaufnahmen zwischen Cinelike D, Like 709 + V.log gemacht...

Hallo Uwe,

das sind doch keine unveränderten Originalframes aus deinem Video, oder? Sonst kann doch da irgend etwas nicht stimmen, denn zumindes dein V-Log L - FrameFrame im Glossar erklärt ist auf jeden Fall verändert. Sonst wäre er deutlich flacher.



Antwort von Uwe:

Die Aufnahmen mit Cinelike D + Like709 sind komplett unverändert. V-Log hat natürlich die offizielle Pana-Lut drauf und die Sättigung habe ich erhöht bis es einigermaßen passte mit den anderen beiden Aufnahmen. Im Reinzustand kann man es ja kaum vergleichen mit anderen Profilen.

In einer 11/2 Stunden Plauderei von B&H hat Griffin Hammond erwähnt, dass er seit der GH4 nur mit "Natürlich" filmt. Diesem Profil werd ich dann auch nochmal eine Chance geben und ein paar Probeaufnahmen machen.



Antwort von Axel:

Ich frage mich manchmal, was sollen eigentlich die noch flacheren Bildprofile?

CinelikeD ist ja auch ein "flacheres Bildprofil". Was 8-bit betrifft, so sind inzwischen schon etliche auf den Trichter gekommen, dass zu flache Bildprofile eher schaden als nutzen (siehe Banding bei zu wenigen Himmelsverlauf-Abstufungen). Aber die vollen rec_709-Profile (BM nennt das schlicht und passend "VIDEO") verschenken halt überwiegend Dynamik, zu denen die Sensoren eigentlich fähig sind. Wobei speziell die der GH5 nichts besonders Bemerkenswertes ist. Dieser schmale Dynamikbereich zeigt sich in Bildern, die durchaus so aussehen können, wie das auf 8-bit rec_709 hin gegradete Endresultat, aber in der Regel halt nur in den Mitten. Auf alles übrige hat man kaum noch Einfluss.

Ein weiterer Irrtum mit 8-bit sind Normalisierungs-Luts. Normalisierung zu rec_709 nämlich. Da die Luts i.d.R. nicht nur für Vorschauzwecke benutzt werden, sondern als Ausgangspunkt für weiteres Grading, ist es genau so, als hätte man von Anfang an nicht flat aufgenommen, bloß, dass man durch die Lut Werte beschnitten hat, da zwischen den Stützpunkten alles interpoliert wird. Natürlich interpoliert auch eine Software Zwischenwerte, aber flexibler und erheblich genauer. Log plus Lut in 8-bit = schlechter als "VIDEO".

Aber mittlerweile gibt es alternative Ansätze. Ein Typ namens Geoff Bassett hat S-Log 2 in den Farben modifiziert, die Sättigung dabei etwas erhöht, und das damit aufgenommene Video ist noch ein bisschen flat, lässt sich aber ohne Lut leicht graden (ähnlich Technicolor Farbprofil für Canon DSLRs), hat recht gute Dynamik und erinnert eigentlich in nichts an Video:


Ein anderer Ansatz geht ebenfalls von S-Log2 aus. Man muss das Profil so verstellen, die Sättigung tatsächlich bis fast zum Farbclipping hochziehen, dass das Resultat bereits "normal" aussieht. Darauf aufgesetzt wird eine kleine Farbkorrektur-Lut, die hauptsächlich die typischen Sony-Farben etwas dämpft. Beispiel Omeneo-Primers:


Vorteil: recht einfach bei der Aufnahme zu beurteilen (im Gegensatz zu nacktem S-Log). Nachteil: wysiwyg. Wer wirklich darauf noch ein Hardcore-Grading beginnt, sieht, wie das Bild sofort aus dem Leim geht.

Einen ähnlichen Ansatz, aber mit V-Log und eingebackener Lut via externer Aufzeichnung, verfolgt James Miller mit der GH5 (Begleittext lesen):


Von allen drei oben verlinkten Videobeispielen würde ich behaupten, dass sie besser sind als solche, die mit nicht-flachen Profilen aufgenommen wurden. Man kann allerdings auf Youtube und Vimeo stundenlang surfen, um ein gutes Log-Lut-Gradingvideo zu finden. Ganz besonders, darauf weist ja auch slashCAM im Eingangsartikel hin, V-Log L mit der angebotenen Varicam-Lut ist totaler Müll. Finde ich.



Antwort von ksingle:

@ Uwe

OK - das erklärt natürlich alles .-) Hatte mich sehr gewundert.

Allerdings gehe ich eher mit SLASHCAM, denn in den Tiefen und den Spitzlichtern ist aus meiner Sicht mehr "Speck". Habe gestern in Köln in praller Sonne einige kurze Sequenzen mit viel Kontrastumfang gedreht und mir kommt es so vor, als könne ich beim Like709 wohl etwas einfacher mit Farbe und dem Grading editieren, als beim V-LOG L. Auch wenn dieses Profil nicht so flach ist, wie das VLOG L.

Ich stelle in kürze auch mal was rein, was es verdeutlichen soll.



Antwort von ksingle:

Hier ein paar Colorierungen und Lichtanpassungen auf unterschiedliche Weise. Teilweise bekomme ich den Himmel ganz in den Griff und auch sonst lässt sich das Like709 Material ganz ordentlich bearbeiten.
Die ersten vier Sequenzen sind mit V-LOG-L und der Rest mit Like709 gefilmt.





Antwort von Axel:

Hier ein paar Colorierungen und Lichtanpassungen auf unterschiedliche Weise. Teilweise bekomme ich den Himmel ganz in den Griff und auch sonst lässt sich das Like709 Material ganz ordentlich bearbeiten.
Die ersten vier Sequenzen sind mit V-LOG-L ...

Sehr deutlicher Gelbstich bei V-Log. Woher kommt der?



Antwort von TheGadgetFilms:

Allgemein hab ich das bei Vlog auch, bzw ohne LUT Vorschau sieht alles so grün aus wie Hulk, und das im Vergleich zu Sony!



Antwort von ksingle:

@ Axel

Das ist schon so gewollt. Es sollte ein wenig wärmer wirken, weils im Garten ist. Die Stadtaufnahmen sind dagegen etwas kühler gehalten.

Ich bin immer bemüht, nicht alles bei der Aufnahme bis an die Helligkeitsgrenze auszureizen. So habe ich nachher beim Editieren Platz nach oben hin und das Material blutet nicht so schnell in den Spitzen aus.

Das gerade im Gespräch befindliche LIKE709 erweckt bei mir den Eindruck, dass es besser korrigierbar ist. Drehe ich die Tiefen hoch, reißen sie nicht so schnell auf. Und in der FarbkorrekturFarbkorrektur im Glossar erklärt bei Final Cut bemühe ich mehr die Mitteltöne, als die Spitzen, um Helligkeit zu erzeugen. So verliere ich weniger in den Spitzlichtern.



Antwort von Uwe:

...
In einer 11/2 Stunden Plauderei von B&H hat Griffin Hammond erwähnt, dass er seit der GH4 nur mit "Natürlich" filmt....

Hab"s mir heute mit ein paar Probeaufnahmen näher angeschaut. In meinen Augen hat es wirklich die schönsten Farben "out of the camera". Wer keine Lust hat auf großartiges Grading (vielleicht hier + da ein ganz kleines bisschen), dem sei "Natürlich" empfohlen. Ansonsten bleibt für mich alles beim Alten. Der Dynamikumfang beim V-Log ist im Vergleich zu den anderen Modi wirklich Klasse, aber es kostet natürlich wesentlich mehr Arbeit in der Post.

Nochmal ein kurzer Bildvergleich zwischen Cinelike D + Natürlich:

Cinelike D
zum Bild https://s13.postimg.org/pekpgl8zb/cinelike_D_boote.jpg

Natürlich
zum Bild https://s14.postimg.org/uky4h7fpd/natural_boote.jpg



Antwort von domain:

@ksingle
Wie hast du denn das Farkippen bei Like709 zusammengebracht, deutet beinahe auf sekundäre FarbkorrekturFarbkorrektur im Glossar erklärt hin. Die Legging der Frau sieht zunächst rosa bis lila aus, aber nach der Korrektur intensiv blaugrün, während das Gras davon gar nicht betroffen ist und sogar rötlicher wurde. Ebenso die cyanfarbigen Häuser in der Kölner Innenstadt, sahen vor der Korrektur realistischer aus.



Antwort von ksingle:

@ domain

Hi Domain,
mir geht es nicht um möglichst realistische Farbe bei diesen Beispielen. Wenn ich die wollte, hätte ich eines der "natürlich" wirkenden Profile bemüht. Ich wollte einfach nur mal ausprobieren, was viele andere im Cinemabereich machen, nähmlich bestimmte Stimmungen erzeugen (natürlich mit meinen super-bescheidenen Amateurkenntnissen!)

Da ich jedoch viel mit Druck- und Fotografie zu tun habe, ist mir eines sehr wichtig: Die Spitzlichter sollen nicht ausbluten, Tiefen sollen nur dann absaufen, wenn etwas wirklich Unwichtiges im Schatten ist. Und daraus möchte ich ein möglichst klares und entsprechend helles Bild entstehen lassen - Nachaufnahmen/Dämmerung natürlich ausgenommen.

Ich war übrigens heute mal wieder in der Sonne mit einem variablen ND-FilterND-Filter im Glossar erklärt unterwegs und lerne die GH5 von Tag zu Tag ein wenig besser kennen. Die Möglichkeiten sind schier endlos. Ich hatte noch nie ein darart tolles Stück Technik in Händen. Mir macht es einen Riesenspaß, damit zu "Knipsen".



Antwort von domain:

Na da bin ich ja beruhigt, dass du da ganz schön herumgetrickst hast und es keine "normalen" Farben mehr sind.
Meiner Meinung nach müsste es wie beim Analognegativfilm eigentlich genügen, dass das 10-Bit Original einfach nur flacher als das letztendlich positive Bild aufgezeichnet wird und mit einer einfachen bzw. individuellen Kontrastaufsteilung an das Wunschbild herangeführt werden kann. Dazu braucht man keine LUT etc.
Man darf nie vergessen, dass in der Duka automatisch mit einer generellen Aufsteilung vom Negativ zum Positiv(papier) auch die Farbintensität zunimmt.
Absolute Grundregel daher: immer erst den Kontrast anpassen und dann erst die Farben beurteilen.
Als ziemlich hilfreich finde ich Knieeinstellungen, weil in diesen Bereichen dem Auge eine an sich unnatürliche Kontrastabflachung gar nicht mehr auffällt, wohl aber der angenehmere und nicht abgehackte Rolloff der Lichter.



Antwort von Bruno Peter:

Die Möglichkeiten sind schier endlos.

Die Kernfrage ist aber, was bleibt für die tägliche Praxis von diesen vielen Möglichkeiten sinnvoll übrig.

Cine-D ist zunächst einmal kein finales Kameraformat, CINE-V dagegen schon.

Cine-D nehme ich her um bestimmte Farbstimmungen und Emotionen zu erzeugen unabhängig davon wie die Realität bei der Aufnahme eigentlich ausgesehen kann.
Ich kann die CINE-D zusätzlich noch in der Kamera justieren speziell für meine Erwartungen, z.B. keine ausgefressene Lichter und keine abgesoffenen Schatten, darüber hinaus kann man noch eine Reihe weiterer Eigenschaften justieren in der Kamera z.B. die Schärfe und den Grad der Entrauschung etc.

Im NLE lege ich eine von mir favorisierte LUT mit bestimmter Farbstimmung drauf. Die LUT-Tabelle tauscht nun jeden Farbwert, z.B "x" gegen "y" aus, wobei die LUT in der Regel bestimmte Rohmaterialeingeschaften dafür als vorbereitet erwartet, deshalb geben die Hersteller der LUTs schon die Einstellungen in der Kamera z.B. eben für CINE-D an. So damit habe ich dann schon das grundsätzliche Gradingziel ereicht. Es ist aber so, daß die Clips je nach Stiimung vor Ort eigentlich nicht alle identisch aussehen sondern voneinander abweichen z.B, weil die eine Szene bei Sonnenschein und die nebenan liegende Szene bei bedeckten Himmel aufgenommen worden ist. Ich muß also noch eine Feinjustierung vornehmen. Im Falle EDIUS z.B. mit der "Primären Farbkorrektur" einen Stimmungsabgleich zwischen den unterschiedlichen Clips auf der TimelineTimeline im Glossar erklärt vornehmen. Dann endlich habe ich das Wunschergebnis erreicht. Als Hobbyfilmer habe ich ja genügend Zeit dazu, ein professioneller Colorist wird aber bestimmt nicht zuviel Zeit verbrauchen dürfen um perfekte farbliche Emotionen bei dem Publikum auszulösen, es wird zu teuer.

Dem "Hobby-Strandfilmer" wird das alles zuviel. Wenn er einen CINEMA-Effekt trotzdem erzielen möchte, dann wird er meist CINE-V bevorzugen evtl. mit einigen geänderten persönlichen Kamerasettings und mit dem so aufgenommenen Videomaterial fertige Clips "on the box" für seinen Film verwenden ohne lange im NLE "rumzufummeln"..



Antwort von wolfgang:

Hab mal auf die Schnelle einen kurzen Vergleich aus dem Fenster geschossen:


Ich halte die Kritik an v log l in diesem Artikel für grundlegend falsch. Oh, nicht dass es inhaltlich falsch ist dass v log l in der Anzahl der Tonwerte beschnitten ist. Das ist so. Aber was falsch ist, das ist die Schlussfolgerung.

Man schaue sich doch nur mal in Ruhe den schnellen Vergleich von Uwe an: um die Sonne herum ist selbst in dem zu rec709 gegradeten Beispiel mehr von den Wolken etwa um die Sonne herum erkennbar. Das macht v log l indem es die Tonwerte im oberen Bereich der Übertragungsfunktion praktisch linear auf die Blendenstufen zuweist. Und damit wird eben ein größerer Dynamikumfang und mehr Details in den oberen Blenden möglich.

Es geht eben nicht nur um die absolute Zahl der Tonwerte, sondern auch darum wie die Werte genutzt werden. Hier von 9 bit zu sprechen ist eben nur ein Teil der relevanten technischen Beschreibung.



Antwort von WoWu:

Nur der Voteil ist eben bei v-log nicht vorhanden denn auch die KneeKnee im Glossar erklärt funktion verteilt die hellen bildanteile, nur eben in in einem weiteren, 10.bit und vielleicht nicht auf den einzelnen Wert exakt gleich.
Dazu kommt noch, dass Belichtungselemente, wie z. B. Hauttöne sich nicht verschieben, sodass die, in zwangsläufig bei v-log erforderlichen Korrekturen, die Gammaveränderungen mit sich bringen, in "wie 790" nicht mehr stattfinden.
Insofern sehe ich den Vorteil von V-log da auch nicht, ganz im Gegenteil.
Und von solcher Schnellschüssen auf Qualitäten zu schließen, halte ich ohnehin nicht viel, denn darin stecken soviel Unbekannte und Variable, dass das, meines Erachtens, gar nicht möglich ist.



Antwort von domain:

Ein gutes Beispiel, dass man bei starken Originalkontrasten mit Like709 auch ohne Kontrastkorrektur auskommt, ist ja im Beispielvideo https://youtu.be/cz9baVQdQYQ ab 0:37 zu sehen. Nach der Korrektur ist es nicht besser geworden, im Gegenteil, der Himmel weist jetzt direkt kitschige Farben auf.
Beim analogen SW-Fotopapier gab und gibt es Multigradepapiere, die über zwei Schichten auf unterschiedliche Belichtungsfarben (Yellow und Magenta) von sehr weich bis ultrahart reagieren konnten. Die Standardgradation wurde aus einer (LUT) Mischung von beiden Farben erzielt, aber praktisch hatte man bei fast jedem Bild die Entscheidung hinsichtlich des optimalen Gammas zu treffen und so sollte es eigentlich auch beim Videoschnitt ablaufen.
Falls man keinen Vergrößerungskopf mit einstellbarer variabler Lichtfarbe hatte, gab es auch einschiebbare Farbfilter:

zum Bild http://up.picr.de/28788661kd.jpg

Die Verwendung von LUTs ist wohl nur dann obligatorisch, wenn keine parallel verlaufende Log-Manipulation der Farbkanäle bei der Abspeicherung erfogte, sondern z.B. eine besondere Schutzfunktion des leicht clippenden (Cyan im Himmel) bzw. überforderten Blaukanals bei Kunstlicht zur Anwendung kam.



Antwort von WoWu:

Like 709 ist ja nun auch nicht wirklich Neues.
Den REC 709 Anhang gibt es schon seit 30 Jahren mit 12 Blenden.
Neu daran ist nur, dass der KneeKnee im Glossar erklärt Punkt variabel in der Kamera zu wählen ist.
Ansonsten ist mir unverständlich, dass jeder immer darum bemüht war, möglichst viel Bildinformation, also Übertragungswerte ins Bild zu bringen und nun plötzlich reichen 75% bei LOG aus und sollen sogar noch besser sein.
LOG hat eigentlich nur eine sehr begrenzte Einsatzmöglichkeit und wahrscheinlich hat Panasonic das nun auch gemerkt, dass viele User LOG als Universaltool einsetzen, was zwangsläufig zu grenzwertigen Bildern führt und nun mit Like709 darauf reagiert.



Antwort von Uwe:

Schön wäre es ja mal, wenn man eine kleine Anleitung hätte. Im Handbuch steht ja eigentlich nur, dass man die Point + Slope Werte hoch + runter (80-107 + 0-99) einstellen kann. Dies hab ich heute mal ausprobiert aber irgendwie sehe ich so gut wie keine Veränderungen bei den Zebras in den Lichtern. Wenn einer was findet bitte hier posten. Mit der Automatik-Einstellung hat Like709 jedenfalls keine Chance gegen V-Log in Bezug auf Dynamikumfang.

Like709
zum Bild https://s15.postimg.org/r1oskgksb/like709.jpg

V-Log
zum Bild https://s4.postimg.org/84tkbyfy5/vlog.jpg



Antwort von mash_gh4:

wie gesagt, der wirklich entscheidende punkt dürfte in der korrekten farbwiedergabe liegen. in der hinsicht war v-log auch bisher schon deutlich allen rec709 profilen überlegen.

wäre wirklich nett, wenn einer von euch stolzen neunen GH5 besitzern testshots mit colorcharts machen könnte, um diese einschätzung zu objektivieren.



Antwort von WoWu:

@Uwe
Den Unterschied siehst Du auch nur, wenn tatsächlich Spitzlichter im Bild sind denn LOG erweitert ja nicht den Dynamikumfang sondern setzt die Belichtung lediglich in niedrigere Werte, sodass oberhalb des, so verlagerte Weisswertes noch Platz für alles, oberhalb von Weiß (90% Reflektion) ist.
Wenn Du also keine direkten Reflektionen im Bild hast und der hellste Punkt die Reflektion von 90% nicht überschreitet, dann wird man schwer Unterschiede feststellen können.
Du musst übrigens bei V-LOG auch das Zebra entsprechend niedriger stellen.
Es geht also um die Werte des Bildinhaltes, nicht um den Dynamikumfang, denn der wird immer vom Sensor festgelegt und nicht von der Übertragungsfunltion.
Darin wird lediglich die Werteverteiling, also die Menge der Detaildarstellung (Grauwerte) pro BlendeBlende im Glossar erklärt festgelegt.



Antwort von Axel:

... dass man die Point + Slope Werte hoch + runter (80-107 + 0-99) einstellen kann. Dies hab ich heute mal ausprobiert aber irgendwie sehe ich so gut wie keine Veränderungen bei den Zebras in den Lichtern.

Das ist normal. Zebra ist letztlich gut, um im Bild angezeigt zu bekommen, welche Partien clippen, wie stark sie clippen. Bei flachen Profilen würde ich 100% Zebra nehmen und Lichtquellen immer clippen lassen. Die Sonne soll, wie du gesehen hast, einen Hof haben. Sonst machst du in der Bestrebung, jeden noch so unwichtigen Wolken-Wurmfortsatz zu bannen, beim Highlight-Recovering in der Post aus Weiß trübe gefärbtes Grau. Sie ist der hellste Stern von allen, röhrt Rammstein über die Sonne. Das darf man auch sehen. Licht darf (über)strahlen. Nur nicht übertreiben mit der Durchzeichnung des Bildes.

Mit der Automatik-Einstellung hat Like709 jedenfalls keine Chance gegen V-Log in Bezug auf Dynamikumfang.

Was für eine Automatik? Blende? Verschlusszeit? Iso? Alles bei Todesstrafe verboten bei Log und eigentlich allen flachen Profilen. Man belichtet idealerweise mit Zebra als oberem Clipping-Assistenten, dem HistogrammHistogramm im Glossar erklärt, um auf keinen Fall unterzubelichten und einzuschätzen, wo die Mitten liegen (Falschfarben wären besser dafür) und zu guter Letzt ein bisschen Augenmaß und Test-Erfahrung. Iso steht im Hellen immer auf dem Sensor-Iso (wie war das bei der GH5? 400?), weil nur dort die Dynamik am größten ist.

Wenn KneeKnee im Glossar erklärt auf Auto steht, hast du bei bewegter Kamera unerwünschte Änderungen in der Aufnahme selbst.



Antwort von Uwe:

Was für eine Automatik? ...

Na eben die "Auto-Einstellung" bei Like709.

Das ist normal. Zebra ist letztlich gut, um im Bild angezeigt zu bekommen, welche Partien clippen, wie stark sie clippen. Bei flachen Profilen würde ich 100% Zebra nehmen und Lichtquellen immer clippen lassen

Wie schon gesagt, ich hab heute alles mögliche ausprobiert. - Vielleicht kommt ja bald einer mit einer kl. Anleitung. Die Amis haben ja erst jetzt ihre GH5 bekommen. Und bei den dvxusern gibt es ein paar Spezialisten für solche Geschichten. Ich hatte gestern ein bisschen allgemein über "Knee-Settings" gegoogelt. Das meiste was es auswirft betrifft Sony-Kameras. Jedenfalls war da eine Beschreibung bei, die in etwa so war: Den Point-Wert runter auf 80 drehen, und mit slope soweit drehen bis die Zebras weg gehen. Hier aber keine Chance. Ich befürchte, dass "Like709" kein Like von mir bekommt...



Antwort von MrMeeseeks:

Wenn man sich den Test so durchliest, dann scheint der Verfasser genau zu wissen was Sache ist beim Thema Like709-Profil, wäre schön gewesen wenn man auch gleich erklärt hätte was die Funktion genau bewirkt. (vielleicht hab ich es auch nicht herauslesen können)

Bei dem anderem GH5 Test zum Thema "Funktionen" wurde auch genannt die Kamera hätte wieder einen Crop, was ich persönlich nicht reproduzieren kann.

Auch dort äußert man sich nicht wirklich zum Thema trotz späterer Fragen der User.



Antwort von WoWu:

Wenn du den Weisspunkt 90% Reflektion, also weißes Blatt Paper) auf 80% legst, ist das der Anfangspunkt der Kompression.
Wenn Du nun Zebra auf Deines hellsten Punkt legst, ist das Systemweiss.
Zwischen 80% und Systemweiss kann es also gar keinen Clip mehr geben.
Die zusätzlichen 10% sind die Reserve, die auch Cinefunktionen bieten.

Gedacht ist aber, Zebra auf den Wert zu legen, der 90% Reflektion entspricht, dann hast Du noch 10% bis Systemweiss.
Kommen also Licjter vor, die die 110 % überschreiten, werden die geklipped. Das ist aber bei log ebenso.
Schalt doch mal die ganzen Automatcfunktionen ab und belichte mal so, dass man weiß, was da passiert,



Antwort von TheGadgetFilms:

Ich hab jetzt voller Vorfreude ein eigenes Lut erstellt in der Hoffnung dass ich mir damit ein custom Bildprofil bauen kann und auf die Kamera laden wie bei Canon zb- das geht gar nicht bei Panasonic, oder?



Antwort von WoWu:

wofür ?
Für die Monitorkorrektur bei LOG ?



Antwort von TheGadgetFilms:

Nein, um selbst einen Bildstil neben denen die es schon gibt zu erstellen, damit ich meinen look auf das h264 einbrennen kann. Bildstil, nicht lut



Antwort von Angry_C:

Das ist leider nicht vorgesehen. Die LUTs dienen nur der Vorschau.



Antwort von Bruno Peter:

DIY-Bildstille kann man sich mit den kameraeigenen Werkzeugen sehr wohl selbst kreieren und abspeichern, geht ja sogar bei der FZ300.



Antwort von Axel:

Mit der Automatik-Einstellung hat Like709 jedenfalls keine Chance gegen V-Log in Bezug auf Dynamikumfang.

Like709
zum Bild https://s15.postimg.org/r1oskgksb/like709.jpg

V-Log
zum Bild https://s4.postimg.org/84tkbyfy5/vlog.jpg

Bei genauerem Hinsehen ist das nicht so klar. Log muss auch etwas anders belichtet werden als normales Video (auf jeden Fall ETTR). Und es stimmt, die Vordergrundfigur hat mehr Zeichnung in Log, aber wohl schlicht aufgrund der Belichtung. Man könnte auch feststellen, dass die Wolken in Like_709 besser durchzeichnet sind. Ein großes Problem bei Log-Aufnahmen, die jeweils Shot für Shot per BlendeBlende im Glossar erklärt versuchen, das Optimum herauszuholen, ist, dass sie in einer Sequenz sehr schwer aneinander anzugleichen sind. Der Himmel wird überall anders aussehen (alles im Grunde, aber bei Himmels wird's am augenfälligsten). Wenn man aber für eine Sequenz einmal die Belichtung einstellt, kann so viel Dynamik verschenkt werden, dass man ebensogut Video hätte machen können ...



Antwort von rudi:

Der Artikel sollte eigentlich nur mal anreißen was mit Hausmitteln möglich wäre, wenn man die 10 BitBit im Glossar erklärt wirklich ausfüllen will.
Ich habe selber grade kein Zeit für ausführliche Tests, aber wenn ich ein Motiv vor mir hätte würde ich folgendermaßen mal die ersten Schritte angehen:

Grundsätzlich wie bei Rec 709 belichten.
Kneepunkt bei 90% setzen. (erstmal aus dem Bauch raus, aber grundsätzlich natürlich motivabhängig)
Waveform-Monitor anschauen und dabei die Slope-Werte runterfahren, bis die Lichter nicht mehr clippen.

Wenn es ungefähr zu passen scheint-> ab in die Post. Und dort mal schauen, wie viel man rauf und runter bekommt, ohne dass es grottig wird.

Wenn man es richtig "richtig" machen will, müsste man natürlich am besten das Material in Resolve lineariesieren, und sich dafür eine Rec709 mit Kneepunkt bei 90 und dem richtigen Slope-Winkel basteln.

Ich denke, man könnte hier vieles ausprobieren, aber bis man hier gute Erfahrungswerte hat ist wahrscheinlich schon HLG da, das man viel leichter -out of the box- linearsieren kann. Und wenn HLG auch die 10 BitBit im Glossar erklärt füllt, dann war das ganze Like709-Gefrickel umsonst. Stichwort: Kurve gewinnt immer über Knee-Kante ;)

Übrigens kann man mit der GH5 eine LUT beim externen Recording einbrennen. Man kann einstellen, ob der HDMI-Output mit oder ohne LUT erfolgen soll. Bei der internen Aufzeichnung gehts aber nicht.



Antwort von TheGadgetFilms:

Okay Danke, ja Kameraintern wäre mir zu wenig.
Hab gestern mal n LUT gebastelt für vlog-rec. Das von Panasonic gefällt mir gar nicht, da ist man besser bedient das ohne LUT hinzubiegen in vielen Situationen



Antwort von rudi:

Mit der Automatik-Einstellung hat Like709 jedenfalls keine Chance gegen V-Log in Bezug auf Dynamikumfang.

Like709
zum Bild https://s15.postimg.org/r1oskgksb/like709.jpg

V-Log
zum Bild https://s4.postimg.org/84tkbyfy5/vlog.jpg

Wenn man aber für eine Sequenz einmal die Belichtung einstellt, kann so viel Dynamik verschenkt werden, dass man ebensogut Video hätte machen können ...
Weise Worte...
Die IMHO spannende Frage sehe ich darin, was passiert, wenn du jetzt in einem 10 Bit-Schnittprogramm oder in Resolve versuchst Like 709 (Bild1) in Richtung V-Log (Bild 2) zu korrigieren. Sind die vollen 10 BitBit im Glossar erklärt dazu in der Lage? (Abgesehen davon, dass es für diesen Fall wohl technisch besser gewesen wäre Bild1 heller zu belichten, damit man "nach unten" korrigieren kann, anstatt das Bild aus den Schatten herauszuheben).



Antwort von kmw:

Lassen wir mal die Automatik bei der KneeKnee im Glossar erklärt Funktion weg.
Welche Masterpunkte wären denn empfehlenswert?



Antwort von Angry_C:

DIY-Bildstille kann man sich mit den kameraeigenen Werkzeugen sehr wohl selbst kreieren und abspeichern, geht ja sogar bei der FZ300.

Ja, aber nur in eng gesteckten Grenzen.



Antwort von rudi:

Lassen wir mal die Automatik bei der KneeKnee im Glossar erklärt Funktion weg.
Welche Masterpunkte wären denn empfehlenswert?

Das ist extrem abhängig vom Motiv. je mehr Details in den Highlights du retten willst, desto tiefer setzt du das Knee. Und den Slope setzt du dann so, dass du an der oberen KanteKante im Glossar erklärt im Waveform-Monitor keine harten Kanten siehst (Clipping).



Antwort von kmw:

Danke! Bin grade am einlesen ...



Antwort von domain:

Was ich nicht ganz verstehe ist, warum man in Like709 die Lichter "entzerren" bzw. linearisieren sollte. Das ist ja gerade das Tolle, dass man damit dem typischen Schwärzungsverhalten von Analognegativfilmen sehr nahe kommt, nämlich die nur degressiv zunehmende Dichte nahe dem Maximum, womit ein schöner Rolloff der Lichter im Positiv automatisch gewährleistet ist.
Entschuldigt bitte das ständige Zurückkommen auf Analogverfahren, aber die sind mir halt noch immer so geläufig.
Was will man also mehr? Mit Knee- und Slopeeinstellungen (die ich bei der XF100 vorgenommen habe) kommt man dem Ziel schon sehr nahe.
Da gibt es nichts zu entzerren sondern nur die Anforderung, das Generalgamma sprich die Kontrastverhältnisse im NLE nach Wunsch anzupassen.
Eine Blackgamma-Anhebung habe ich übrigens nicht durchgeführt, weil Schwarz soll auch Schwarz ohne Rauschen bleiben.



Antwort von Uwe:

............... (Abgesehen davon, dass es für diesen Fall wohl technisch besser gewesen wäre Bild1 heller zu belichten, damit man "nach unten" korrigieren kann, anstatt das Bild aus den Schatten herauszuheben).

Das Wolkengebilde oben rechts ist doch jetzt schon komplett in den Lichtern ausgefressen. Bei einer längeren Belichtung würde dieser Anteil doch nur größer werden. - Aber wie auch immer, ich für meinen Teil sehe nach meinem jetzigen Kenntnisstand keinen Grund, diesen Modus anzuwenden. Da gibt"s halt besseres (V-Log, Cinelike D, Natürlich).

Ich denke, man könnte hier vieles ausprobieren, aber bis man hier gute Erfahrungswerte hat ist wahrscheinlich schon HLG da, das man viel leichter -out of the box- linearsieren kann. Und wenn HLG auch die 10 BitBit im Glossar erklärt füllt, dann war das ganze Like709-Gefrickel umsonst. Stichwort: Kurve gewinnt immer über Knee-Kante

HLG wird wohl ein "fertiges Ergebnis" liefern, das man sich auf einem HDR-Monitor oder HDR-TV anschauen kann. Ein Grading in der Post ist dafür wohl nicht sehr sinnvoll.
Ich muss wirklich sagen, dass ich von V-LOG L bis jetzt total positiv überrascht bin. Wenn ich noch an den Mist denke, der bei 8-bit in der GH4 rauskam ist das jetzt bei 10bit in der GH5 für mich wirklich ein Sahneteil - wenn natürlich auch nicht 100% perfekt....



Antwort von mash_gh4:

Was ich nicht ganz verstehe ist, warum man in Like709 die Lichter "entzerren" bzw. linearisieren sollte.

das hängt einfach davon ab, welche korrekturen und nachbearbeitungschritte du vornehmen willst. für ganz einfache operationen, die sich an traditionellen rec709 display referred konventionen orientieren, reicht das natürlich. für anspruchsvollere korrekturen und nachträgliche gestaltungsmöglichkeiten ist aber eine transformation in lineare arbeitsräume mittlerweile fast unerlässlich.

Das ist ja gerade das Tolle, dass man damit dem typischen Schwärzungsverhalten von Analognegativfilmen sehr nahe kommt, nämlich die nur degressiv zunehmende Dichte nahe dem Maximum, womit ein schöner Rolloff der Lichter im Positiv automatisch gewährleistet ist.

derartiges kann man ja auch in linearen arbeitsräumen wunderbar technisch nachbilden, trotzdem ist es eine mittlere katastrophe, wenn man material mit derartigen variablen einstellungen, die ins material eingebacken wurden, in derartige anspruchsvollere bearbeitunszusammenhänge sauber importieren will.



Antwort von domain:

Ich mache bis auf permanente Farb- und Kontrastkorrekturen auch keine anspruchsvollen Bearbeitungen, sondern halte es mehr mit Matthias, der von Haus aus ein schon mehr fertiges Bild bevorzugt :-)



Antwort von mash_gh4:

Ich mache bis auf permanente Farb- und Kontrastkorrekturen auch keine anspruchsvollen Bearbeitungen, sondern halte es mehr mit Matthias, der von Haus aus ein schon mehr fertiges Bild bevorzugt :-)

ist ja auch nichts dagegen einzuwenden. ich halte es bei den meisten einfachen aufgaben auch ganz ähnlich. es ist halt nur wichtig, dass man um die damit verbundenen grenzen und beschränkungen bescheid weiß...



Antwort von WoWu:

Doe eigentliche Grenze besteht im menschlichen Sehvermögen, mit rd. 6 Blenden, von 90% aller Displays gar nicht zu reden, die auch nicht mehr können.
Deswegen wirken die meisten sogenannten HDR Bilder auch so künstlich und das ist auch der Grund, warum HDR TV die Sache wieder mit Leuchstärke macht und nicht mit "eingebackenen" Blenden, die hinterher sowieso wieder als 6 Blenden heraus kommen. (spätestens im Auge, wenn die Adaption einsetzt).



Antwort von mash_gh4:

dynamik ist eben nur ein aspekt dieser ganzen geschichte, farbe aber mindestens ebenso bedeutsam!



Antwort von WoWu:

Vor Allem, wenn man an den Knickpunkten der Kurven damit nicht umgehen kann, wie das bei so manchem Log Enthusiasten der Fall ist.



Antwort von CameraRick:

Als Hobbyfilmer habe ich ja genügend Zeit dazu, ein professioneller Colorist wird aber bestimmt nicht zuviel Zeit verbrauchen dürfen um perfekte farbliche Emotionen bei dem Publikum auszulösen, es wird zu teuer.
Erfahrungsgemäß braucht der professionelle Colorist aber auch einfach nicht so viel Zeit, und arbeitet mit dem was er hat - sei das nun VLOG, CineD oder was auch immer.



Antwort von dosaris:

Vor Allem, wenn man an den Knickpunkten der Kurven damit nicht umgehen kann

logarithmische Kurve mit Knickpunkten?

diese steile Theorie solltest Du mal erklären:

je logarithmisch desto Knick-frei,



Antwort von WoWu:

Nee, "knickfrei" ist nur die Lineare.

Aber Knick ist vielleicht nicht der Ausdruck, den jeder versteht, obwohl ihn wahrscheinlich -ausser Dir- jeder verstanden hat.
Siehe Definition unten.

Gemeint ist der Übergang zwischen hohem Kontrast und geringem Kontrast und der ist so ziemlich in allen Kurven vorhanden, die wir hier besprechen und je weiter der Weisspunkt nach unten gelegt wird, desto stärker wirken sich Veränderungen auf die Farbe aus.

Aber, wie gesagt, das haben hier wohl alle, ausser Dir schon verstanden.

Ein Knick ist ein Punkt, an dem eine Kurve die Richtung stark ändert. Die Eckpunkte eines Rechtecks sind Knicke. Knicke können auch an einem Punkt vorkommen, an dem eine Kurve ihre Krümmung stark ändert. Ein gerundetes Rechteck hat z.B. Knicke an Punkten, an denen die Liniensegmente zu Bogen werden.



Antwort von MrMeeseeks:

Wo würdet ihr einem raten das Vlog Update für die GH5 zu kaufen? Direkt im Panasonic Online-Shop? Woanders ist es irgendwie nirgends erhältlich.



Antwort von Uwe:

Hier gibt's scheinbar noch 3:
https://www.computeruniverse.net/produc ... pgrade.asp



Antwort von MrMeeseeks:

Danke Uwe :)

Falls es sich noch jemand kaufen will, Versand ist aktuell kostenlos.



Antwort von ksingle:

Ich habe meines ebenfalls von Computer Universe. Lieferung innerhalb von 24 Stunden und einwandfrei funktionierend. Die Installation ist kinderleicht, wenn man nicht die völlig beknackte Beschreibungen liest .-)



Antwort von Angry_C:

Doe eigentliche Grenze besteht im menschlichen Sehvermögen, mit rd. 6 Blenden, von 90% aller Displays gar nicht zu reden, die auch nicht mehr können.
Deswegen wirken die meisten sogenannten HDR Bilder auch so künstlich und das ist auch der Grund, warum HDR TV die Sache wieder mit Leuchstärke macht und nicht mit "eingebackenen" Blenden, die hinterher sowieso wieder als 6 Blenden heraus kommen. (spätestens im Auge, wenn die Adaption einsetzt).

6 Blenden? Wie kommst du denn darauf? Da kommt noch ne 1 vor, dann passt es ungefähr.



Antwort von wolfgang:

Nur der Voteil ist eben bei v-log nicht vorhanden denn auch die KneeKnee im Glossar erklärt funktion verteilt die hellen bildanteile, nur eben in in einem weiteren, 10.bit und vielleicht nicht auf den einzelnen Wert exakt gleich.
Dazu kommt noch, dass Belichtungselemente, wie z. B. Hauttöne sich nicht verschieben, sodass die, in zwangsläufig bei v-log erforderlichen Korrekturen, die Gammaveränderungen mit sich bringen, in "wie 790" nicht mehr stattfinden.
Insofern sehe ich den Vorteil von V-log da auch nicht, ganz im Gegenteil.
Und von solcher Schnellschüssen auf Qualitäten zu schließen, halte ich ohnehin nicht viel, denn darin stecken soviel Unbekannte und Variable, dass das, meines Erachtens, gar nicht möglich ist.

Um Himmels willen, wie kann man einen knee mit einer log Funktion gleichsetzen? Das ist ja nun aber abgrundtief falsch. Und gerade bei Hauttönen sitzt man doch nicht in dem Luminanzbereich wo der knee greift.

Und ich kann auch keine Schnellschüsse erkennen, irgendwelcher Art. Und es gibt auch keinerlei Unbekannten irgendwelcher Art, die Dinge sind in white papers definiert und klar fest gelegt.

Es stellt sich mir bei soviel Falschinformation zu log eher die Frage, warum da eine derartiges Vorurteil besteht.



Antwort von wolfgang:

Doe eigentliche Grenze besteht im menschlichen Sehvermögen, mit rd. 6 Blenden, von 90% aller Displays gar nicht zu reden, die auch nicht mehr können.
Deswegen wirken die meisten sogenannten HDR Bilder auch so künstlich und das ist auch der Grund, warum HDR TV die Sache wieder mit Leuchstärke macht und nicht mit "eingebackenen" Blenden, die hinterher sowieso wieder als 6 Blenden heraus kommen. (spätestens im Auge, wenn die Adaption einsetzt).

Das menschliche Auge hat einen deutlich größeren Dynamikumfang als nur 6 Blenden. Der liegt so in der Gegend der 10-14 Blenden, wobei noch durch die Funktion der menschlichen IrisIris im Glossar erklärt ein Bereich von ca. 24 Blenden abbildbar wird.

Die berühmten 6 Blenden gibt es zwar, aber das ist der begrenzte Dynamikumfang von rec709 Displays.

Ich versehe auch hier nicht wie es immer wieder zu derartigen Falschaussagen kommen kann. Es weiß doch jeder, der mit rec709 Kameras jahrelang gefilmt hat, dass unsere Augen einen größeren Dynamikumfang haben muss als es diese Kameras hatten. Man denke nur an die Person die vor einem Fenster in einem Innenraum steht - wo man entweder die Wahl gehabt hat auf die Person zu belichtet, und dann war der Hintergrund im Freien überstrahlt. Oder wo man eben auf den Hintergrund im Freien belichten hat können, dann war die Person völlig unterbelichtet.

Und da zwischen den 6 Blenden von rec709 und den 10-14 Blenden des menschlichen Auges "nur" ca. der Faktor 2 liegt, machen HDR-Displays sehr wohl einen Sinn.

Quellenangabe: http://www.sony.de/pro/article/broadcas ... e-sessions
und dort das Webinar "Licht und Schatten: HDR leicht gemacht".



Antwort von wolfgang:

Nur der Voteil ist eben bei v-log nicht vorhanden denn auch die KneeKnee im Glossar erklärt funktion verteilt die hellen bildanteile, nur eben in in einem weiteren, 10.bit und vielleicht nicht auf den einzelnen Wert exakt gleich.
Dazu kommt noch, dass Belichtungselemente, wie z. B. Hauttöne sich nicht verschieben, sodass die, in zwangsläufig bei v-log erforderlichen Korrekturen, die Gammaveränderungen mit sich bringen, in "wie 790" nicht mehr stattfinden.
Insofern sehe ich den Vorteil von V-log da auch nicht, ganz im Gegenteil.
Und von solcher Schnellschüssen auf Qualitäten zu schließen, halte ich ohnehin nicht viel, denn darin stecken soviel Unbekannte und Variable, dass das, meines Erachtens, gar nicht möglich ist.

Um Himmels willen, wie kann man einen knee mit einer log Funktion gleichsetzen? Das ist ja nun aber abgrundtief falsch. Und gerade bei Hauttönen sitzt man doch nicht in dem Luminanzbereich wo der knee greift.

Und ich kann auch keine Schnellschüsse erkennen, irgendwelcher Art. Und es gibt auch keinerlei Unbekannten irgendwelcher Art, die Dinge sind in white papers definiert und klar fest gelegt.

Es stellt sich mir bei soviel Falschinformation zu log eher die Frage, warum da eine derartiges Vorurteil besteht.



Antwort von domain:

Ich denke, dass man die Log-Manie eher historisch betrachten sollte, nämlich einerseits, um einen sanften Roll-off der Lichter wie bei Analogfilmen nachzubilden und später auch um in 8 BitBit im Glossar erklärt einen größeren Dynamikumfang unterzubringen.
Aber sehr bald wurden gerade bei 8 Bit-Log auch die typischen Nachteile von einem User hier und zwar schon vor Jahren entdeckt und von WoWu bestätigt.
Bei 10 Bit-Recording erscheinen mir die Log-Profile nicht mehr so bedeutend zu sein, man sollte m.E. eher danach trachten, den gesamten Dynamikumfang in den 10 BitBit im Glossar erklärt (ausschöpfend) unterzubringen und das wurde ja neulich auch von Slashcam bei Like709 angedacht.
Und hier kommen die schon tot geglaubten Knee- und Blackgammaeinstellung wieder ins Spiel, wobei sich speziell die Knee-Einstellungen so justieren lassen, dass sie die typischen Hauttöne ja gar nicht betreffen, sondern darüber liegen.



Antwort von iasi:

Ist doch wunderbar:
In den Lichtern kann ich also schön weiche Verläufe durch Abflachen erhalten und dennoch die Mitten richtig belichten.
So mag ich das:
Korrekt belichtete Hauttöne in schöner linearen 10bit-Auflösung und weiches Auslaufen der Lichter.



Antwort von WoWu:


Ich denke, dass man die Log-Manie eher historisch betrachten sollte, nämlich einerseits, um einen sanften Roll-off der Lichter wie bei Analogfilmen nachzubilden und später auch um in 8 BitBit im Glossar erklärt einen größeren Dynamikumfang unterzubringen.
Aber sehr bald wurden gerade bei 8 Bit-Log auch die typischen Nachteile von einem User hier und zwar schon vor Jahren entdeckt und von WoWu bestätigt.
Bei 10 Bit-Recording erscheinen mir die Log-Profile nicht mehr so bedeutend zu sein, man sollte m.E. eher danach trachten, den gesamten Dynamikumfang in den 10 BitBit im Glossar erklärt (ausschöpfend) unterzubringen und das wurde ja neulich auch von Slashcam bei Like709 angedacht.
Und hier kommen die schon tot geglaubten Knee- und Blackgammaeinstellung wieder ins Spiel, wobei sich speziell die Knee-Einstellungen so justieren lassen, dass sie die typischen Hauttöne ja gar nicht betreffen, sondern darüber liegen.

Das ist, glaube ich, eine gute Zusammenfassung.
Vor allem muss man sich mal vor Augen führen, dass die meisten LOG Funktionen im unteren und mittleren Bereich fast die gleiche Steigung haben und erst oberhalb des Knickpunktes anders verlaufen.
Auch darf man nicht vergessen, dass das "Auslaufen" der Lichter zulasten der übrigen Bilddetails geht und solange man keine Szene hat, in der es speziell darauf ankommt, dass Sitzlichter behandelt werden, ist die Wahl von LOG sogar kontraproduktiv.
Die meisten verwechseln auch den dynamischen Bildinhalt, mit der Menge der Blenden.
Der aber entsteht gar nicht durch LOG, sondern durch die 10Bit.

Und @IASI was die Hauttöne angeht, stimmt es nur solange, wie Du keine ETTR bei Log machst denn sonst belichtest Du am falschen Ende der Kontraststeigung und wirst Dir in der Post, bei der ETTR Korrektur die schönen Hauttöne wieder versauen.
Oder bezog sich das jetzt auf LIN ... dann sorry.
Aber die Wenigsten wählen LOG leider nach den Szene Anforderungen aus sondern weil es hipp ist.

@Wolfgang
Zwischen 65 und 85% ist genau der Knickbereich, je nachdem welche Kurve Du wählst und damit liegst Du mit deinen Hauttönen genau da drin und 1 BlendeBlende im Glossar erklärt Überbelichtung macht dann 20% Kontraständerung aus.
Ich glaube, Du solltest Dir die Kurven mal genau anschauen, bevor Du hier sowas erzählst und Dir mal Klarheit über die Konsequenzen verschaffen.



Antwort von wolfgang:

Und ich glaube du solltest endlich mal verstehen (wollen) was das Wesen von log ausmacht, statt immer nur dagegen zu sein. Und wer immer nur emotionale Begriffe wie "Manie" nutzen muss der hat nicht verstanden das knees Behelfslösungen sind um den natürlichen Dynamikumfang in die lächerlichen 6 Blenden von rec709 hinein zu stopfen - aber es bleibt ein künstliches Bild.

Statt endlich diese alten Techniken durch neue zu ersetzen die eben nicht mehr auf 6 Blenden beschränkt sind. Denn das menschliche Auge kann einfach deutlich mehr Blendenstufen als nur 6.



Antwort von Roland Schulz:


Ich denke, dass man die Log-Manie eher historisch betrachten sollte...

Da ist mal nen wahres Wort gesprochen: "Manie", Hype, Modeerscheinung, Trend...
"Ich" konnte mich nie wirklich für "Kurven" begeistern, welche die "Wahrheit" so plattbügeln, dass man sie hinterher wieder "mehrdimensional verlustbehaftet" umkrempeln muss, um nicht irgendwann mit grauer Star Hypochondrie über rote Ampeln zu laufen.
Ich behaupte es bieten sich meist geeignetere Alternativen (Gammas) an, welche eine verlustärmere Verarbeitung zulassen, unabhängig der Dynamik der Quantisierung.



Antwort von Roland Schulz:


Und ich glaube du solltest endlich mal verstehen (wollen) was das Wesen von log ausmacht, statt immer nur dagegen zu sein. Und wer immer nur emotionale Begriffe wie "Manie" nutzen muss der hat nicht verstanden das knees Behelfslösungen sind um den natürlichen Dynamikumfang in die lächerlichen 6 Blenden von rec709 hinein zu stopfen - aber es bleibt ein künstliches Bild.

Statt endlich diese alten Techniken durch neue zu ersetzen die eben nicht mehr auf 6 Blenden beschränkt sind. Denn das menschliche Auge kann einfach deutlich mehr Blendenstufen als nur 6.

Es gibt aber "meistens" nicht nur Pest oder Cholera, auch Cine-/Hypergammas lassen sich bei Bedarf noch anpassen, dafür muss man keine "flüssige" Graduation durch extreme Log Gammas "zerstören"!



Antwort von DataCase:


...Man kann allerdings auf Youtube und Vimeo stundenlang surfen, um ein gutes Log-Lut-Gradingvideo zu finden. Ganz besonders, darauf weist ja auch slashCAM im Eingangsartikel hin, V-Log L mit der angebotenen Varicam-Lut ist totaler Müll. Finde ich.

Ich habe hier ein gelungenes Grading mit V-Log gefunden, wie ich finde!





Antwort von Starshine Pictures:

What? Das sieht doch desolat aus! Da haben Haut, Haare und Jacke exakt die selbe Farbe! Da sieht ja sogar das Rohmaterial besser aus. Sowas kommt davon wenn man einfach ein Teal/Orange LUT drauf ballert. Und das raschelt und rauscht und blockt in den Tiefen dass sich die Balken biegen. Furchtbar.



Antwort von iasi:



Und @IASI was die Hauttöne angeht, stimmt es nur solange, wie Du keine ETTR bei Log machst denn sonst belichtest Du am falschen Ende der Kontraststeigung und wirst Dir in der Post, bei der ETTR Korrektur die schönen Hauttöne wieder versauen.
Oder bezog sich das jetzt auf LIN ... dann sorry.
Aber die Wenigsten wählen LOG leider nach den Szene Anforderungen aus sondern weil es hipp ist.

Oh nein - nicht log.
Ich präferiere LIN.
In den Lichtern flach werden, damit sie weich auslaufen - falls nötig - sonst LIN.
Scheinbar erlaubt die GH5 hier relativ freie Einstellungen - sehr interessant.

Für LOG sehe ich gar nicht so sehr viele Situationen, in denen ich es nutzen würde.
Ich wundere mich auch immer, wenn LOG in LowLight-Situationen eingesetzt wird.



Antwort von Olaf Kringel:


What? Das sieht doch desolat aus! Da haben Haut, Haare und Jacke exakt die selbe Farbe! Da sieht ja sogar das Rohmaterial besser aus. Sowas kommt davon wenn man einfach ein Teal/Orange LUT drauf ballert. Und das raschelt und rauscht und blockt in den Tiefen dass sich die Balken biegen. Furchtbar.

...generation youtube halt,

vermutlich wird sich das auch nicht mehr wirklich ändern.

Gruß,

Olaf



Antwort von iasi:


What? Das sieht doch desolat aus! Da haben Haut, Haare und Jacke exakt die selbe Farbe! Da sieht ja sogar das Rohmaterial besser aus. Sowas kommt davon wenn man einfach ein Teal/Orange LUT drauf ballert. Und das raschelt und rauscht und blockt in den Tiefen dass sich die Balken biegen. Furchtbar.

Ist natürlich immer auch Geschmackssache ... welche Tiefen rascheln, rauschen und blocken denn in diesem Video - das ist doch wieder mal ein Beispiel für die Angst vor Schwarz.

Was ich eigentlich überhaupt nicht verstehe:
Wozu braucht man für solche Aufnahmen denn eigentlich LOG?

Und weshalb nutzt man V-Log 8bit, wenn man 10bit haben kann?



Antwort von WoWu:


Und ich glaube du solltest endlich mal verstehen (wollen) was das Wesen von log ausmacht, statt immer nur dagegen zu sein. Und wer immer nur emotionale Begriffe wie "Manie" nutzen muss der hat nicht verstanden das knees Behelfslösungen sind um den natürlichen Dynamikumfang in die lächerlichen 6 Blenden von rec709 hinein zu stopfen - aber es bleibt ein künstliches Bild.

Statt endlich diese alten Techniken durch neue zu ersetzen die eben nicht mehr auf 6 Blenden beschränkt sind. Denn das menschliche Auge kann einfach deutlich mehr Blendenstufen als nur 6.

Laber nicht .... erklär uns einfach mal das Wesen von LOG.
außerdem bin ich gar nicht dagegen ich halte es nur nicht für die allesumfassende Wunderwaffe, so wie Du das offenbar tust, nur weil die Kamera es hergibt und man außerdem noch 100ie dafür abdrücken müsste.
Dann kann das ja nur was Gutes sein.
Aber wir werden ja gleich das Wesen von LOG erfahren.
Denk auch dran, uns mal zu sagen, warum man nur 70% Bilddetails (z.B. in V-LOG oder S-LOG3 überträgt und nicht den gesamten Übertragungsrahmen nutzt.
Zieht man dann nämlich die 8 Blenden oben ab, weil meistens gar keine Spitzlichter eine Rolle spielen, dann reduziert sich der Haupt-Bildinhalt auf unter 8 BitBit im Glossar erklärt (bei 10 BitBit im Glossar erklärt Übertragungsrahmen).
Ansonsten halte ich für sehr spezielle Fälle (wie schon zuvor beschrieben) durchaus für denkbar. Aber das Allheilmittel ist es mit Abstand nicht und erzeugt meistens ziemlich graue Soße, weil es falsch eingesetzt wurde.

Und was die 6 Blenden angeht .... Schwarz reflektiert mit 1-3%
Weiß mit rd. 90-94%
Alles über diesen 94% dürfte direktes Licht sein.
Nun rechne mal, wieviel mal dazwischen sich Licht verdoppeln lässt.
Oder kannst Du auch Schwarz sehen, ohne dass Photonen reflektiert werden oder in die Sonne sehn, ohne dass das Auge adaptiert ?



Antwort von Roland Schulz:

Abschnitt 1: +1!

Abschnitt 2: komische Welt die nur- bzw. komischer Bildschirm der was "reflektiert".
Kenne (fast) nur "lichterzeugende" bzw. transmittierende "Bildschirme" ;-)!!

Glaube es ging auch drum was das Auge erfassen kann und nicht was in der Natur "reflektiert" wird.
Wenn ich "aus nem schwarzen Loch" in die Sonne gucke habe ich welchen Kontrastumfang?!?!



Antwort von Funless:

Der Ereignishorizont eines schwarzen Lochs ist in der Regel deutlich heller als unsere Sonne.



Antwort von mash_gh4:


Laber nicht .... erklär uns einfach mal das Wesen von LOG.

vielleicht so: das für jede blendenstufe bzw. jeden EV-Wert eine gleich große menge an möglichen abstuffungen bzw. werten in der übertragung zur verfügung stehen.

der unmittbare gegensatz dazu ist die lineare darstellung, wie sie gewöhnlich in der ausgabe direkt am sensor od. in der rechnischen nachbearbeitung genutzt wird, wo für dunklere werte deutlich weniger werte bzw. zwischenstufen zur verfügung stehen und dagegen helle unsinnig viel platz in der werteskala einnehmen.

traditionelle gamma gamma-kurven sind in dieser hinsicht zwar eh schon viel näher an jenen vorteilen dran, die die LOG übertragung bietet, aber sie sind eben leider doch sehr stark von historischen voraussetzungen geprägt, aber auch durch all die vielfältigen versuchen verzerrt, diese beengungen aufzuweichen, dass man das zeug kaum mehr in einfacher und einheitlicher weise in lineare darstellung rücküberführen kann, wie es für komplexere berechnungen in der bildbearbeitung sinn macht.

im übrigen geht's in diesem zusammenhang nicht nur um dynamik bzw. die eindimensionalität von helligkeitsbastufungen, sondern eben auch um farben -- also dem zusammenspiel mehrerer werte! und da machts dann schon einen sinn, wenn die entsprechenden kurven relativ einfache technisch erfassbare charakteristiken aufweisen, statt durch variable knickpunkte u.ä. eine sinnvolle nachträgliche aufbereitung nur noch weiter zu erschweren.

Denk auch dran, uns mal zu sagen, warum man nur 70% Bilddetails (z.B. in V-LOG oder S-LOG3 überträgt und nicht den gesamten Übertragungsrahmen nutzt.

normalerweise wird das damit erklärt, das verschieden übertragungsformen werte außerhalb des legal-ranges einfach nicht übermitteln können und es in diesem fall, im gegensatz zu den diversen traditionellen gamma- und knie-trickserien, ja tatsächlich bedeutsam ist, dass die werte in einer weise ankommen und für nachbearbeitung zur verfügung stehen, wie sie ursprünglich generiert wurden.

eine zweiter grund, der von vielen gerne unterschätzt wird, ist die tatsache, dass gängige video kompressionsverfahren nicht alle helligkeitswerte in gleicher weise behandeln!
das ist auch der grund, warum komprimiertes full-range videiomaterial u.u. schlechter aussehen kann als das selbe ausgangsmaterial unter verwendung klassischer legal-range übertragungs konventionen. auch wenn mehr ursprüngliche aubstufungen bzw. zwischenwerrte genutzt wurden, kommen die eben tlw. in bereichen zu liegen, wo sie während der kompression grober behandelt werden als ihre legal-range entsprechung.



Antwort von iasi:

Weshalb soll ich eigentlich alles verbiegen und anschließend wieder gerade rücken, wenn ich doch eigentlich nur in den Lichtern und den Schatten einen flacheren Verlauf möchte?

In den bildwichtigen Bereichen soll dann alles schön linear verlaufen.

Ein Hund mit schwarz-weißem Fell in der Sonne ... welches ist hier dann wohl die beste Lösung?



Antwort von Roland Schulz:

Jetzt will hier aber hoffentlich niemand behaupten dass ein blassgraues x-Log Bild näher an einer üblich gängigen, optisch ansprechenden (Ausgangs-)Darstellung ist als ein REC.709 oder Cine-/Hypergamma-Bild, oder, man dort (x-LOG) mit weniger verlustbehaftetem Rechenaufwand wieder zu "sehbarem" Material kommt?!?!
Wer dazu noch behauptet dass das bzgl. des Übertragungskanals merklich dynamikbegrenzte, wertdiskrete Signal mehr Zwischeninformationen für das "Endprodukt" liefert weiß schon vor ner Fahrt mit nem Nordschleife Ringtaxi nicht mehr wo oben und unten ist.

Detaillierte Schattenzeichnung ist ja gut und sicher auch wünschenswert, nur darf man dabei nicht die wichtigen Mitten komplett zerstückeln. Das aber passiert mit sämtlichen x-LOG Funktionen, die werden da nämlich vergleichsweise flach (weniger Steigung in der Eingangs-/Ausgangsübertragungsfunktion)!

Wie viele verschiedene, "normierte" x-LOG Reproduktions-LUTs gibt"s von verschiedenen Erstellern denn eigentlich für "normierte" S-LOG2, -3, V- und C-LOG etc. Funktionen?
Wo genau muss man da bei der Aufnahme belichten damit"s im Post nachvollziehbar, "linear" und optisch ansprechend wird?!

BTW: "weniger wichtige" Lichter erhalten bei den klassischen Cine-/Hypergammas deutlich weniger Abstufungen zugewiesen als typische LOG Kurven, erkennt man daran dass die Kurven bei steigenden Eingangsintensitäten einen höher angesiedelten, aber flacheren Verlauf (-> Ausgang Übertragungsfunktion) aufweisen als x-LOG Funktionen.



Antwort von Roland Schulz:


Weshalb soll ich eigentlich alles verbiegen und anschließend wieder gerade rücken, wenn ich doch eigentlich nur in den Lichtern und den Schatten einen flacheren Verlauf möchte?
In den bildwichtigen Bereichen soll dann alles schön linear verlaufen.

...die Frage stellst Du dir nicht allein, wobei man "verlustbehaftet" noch sehr schön an mehreren Stellen in den ersten Satz einbauen könnte.



Antwort von wp:



Ein Hund mit schwarz-weißem Fell in der Sonne ... welches ist hier dann wohl die beste Lösung?

abhängig von der Augenfarbe des Hundes



Antwort von Roland Schulz:


Wie viele verschiedene, "normierte" x-LOG Reproduktions-LUTs gibt"s von verschiedenen Erstellern denn eigentlich für "normierte" S-LOG2, -3, V- und C-LOG etc. Funktionen?
Wo genau muss man da bei der Aufnahme belichten damit"s im Post nachvollziehbar, "linear" und optisch ansprechend wird?!

Davon ab, allein wenn man sich im Netz mal zum Vergleich konstruierte x-LOGn Kurven und verschiedene Hypergammas in Diagrammen ansieht stellt man schon fest, dass Theorie und Praxis oft auseinanderdriften. S-LOG Kurven haben immer einen leicht anderen Verlauf, die Hypergammas landen jeweils als "Typ 2" mal auf bzw. deutlich über IRE100, S-LOG ebenfalls. In der Praxis ist das nicht immer so wie dargestellt. Dazu kommt dass einige Kameras die jeweiligen Übertragungsfunktionen nur bei teilweise "astronomischen" ISO Einstellungen anbieten, wodurch man sich u.U. weitere Nachteile erkauft.
Die "standardisierte" LUT muss also "meistens" erstmal zur Kamera passen (hatten wir hier kürzlich noch bzgl. Varicam und GH4/5), ist zudem ggf. noch von der ISO Einstellung abhängig - also "Aus" für den "Standard"!



Antwort von wolfgang:



Und ich glaube du solltest endlich mal verstehen (wollen) was das Wesen von log ausmacht, statt immer nur dagegen zu sein. Und wer immer nur emotionale Begriffe wie "Manie" nutzen muss der hat nicht verstanden das knees Behelfslösungen sind um den natürlichen Dynamikumfang in die lächerlichen 6 Blenden von rec709 hinein zu stopfen - aber es bleibt ein künstliches Bild.

Statt endlich diese alten Techniken durch neue zu ersetzen die eben nicht mehr auf 6 Blenden beschränkt sind. Denn das menschliche Auge kann einfach deutlich mehr Blendenstufen als nur 6.

Es gibt aber "meistens" nicht nur Pest oder Cholera, auch Cine-/Hypergammas lassen sich bei Bedarf noch anpassen, dafür muss man keine "flüssige" Graduation durch extreme Log Gammas "zerstören"!

Nachdem du gerade in einem anderen Thread großartig herzeigst, wie begrenzt deine Erfahrung mit log ist, würde ich an deiner Stelle nicht derartige intelligente Vergleiche mit Pest und Cholera ziehen.



Antwort von wolfgang:


Laber nicht .... erklär uns einfach mal das Wesen von LOG.

Na sicher nicht. Denn das brauche ich dir als Herrn Professor nicht erklären. Denn wenn du hier ständig Unwahrheiten zu diesem Thema von dir gibst, dann ist das nicht durch Sachinformation behebbar.

Oder kannst Du auch Schwarz sehen, ohne dass Photonen reflektiert werden oder in die Sonne sehn, ohne dass das Auge adaptiert ?

Ach und hast auch die Einschränkung gemacht dass das Auge gefälligst nicht zu adaptieren hat? Mal abgesehen dass keiner versteht wie das in der Praxis gehen sollte.



Antwort von wolfgang:


Jetzt will hier aber hoffentlich niemand behaupten dass ein blassgraues x-Log Bild näher an einer üblich gängigen, optisch ansprechenden (Ausgangs-)Darstellung ist als ein REC.709 oder Cine-/Hypergamma-Bild, oder, man dort (x-LOG) mit weniger verlustbehaftetem Rechenaufwand wieder zu "sehbarem" Material kommt?!?!

Du übersiehst dabei dass es nicht einmal mehr und das 30 jahre alte rec709 Bild geht. Das hat nämlich einen Dynamikumfang von netten 6 Blendenstufen. Wenn du dieses "blassgraue x-log Bild" aufzeichnest, dann zeichnest allerdings um die 14 Blendenstufen auf. Und wenn man 14 Blendenstufen in einen rec709 Container hineinstopfen will - na wie gut glaubst eigentlich das das gehen kann? Da muss man schon wissen wie man mit dem Material umgehen muss um das halbwegs zu erreichen.

Die Workflows schauen daher eigentlich ganz anders aus: man graded x-log zu einem "x-log Master". Von dem macht macht einerseits das kommende HDR-Material, bei dem man sehr wohl den vollen Dynamikbereich erhalten kann. Der in Wirklichkeit durchaus den 12-14 Blendenstufen des menschlichen Auges nach Adaption entspricht. Und davon graded man dann auch eine rec709 Version, wo man - leicht begreiflich - einen guten Teil des Dynamikumfanges wieder opfern muss. Aber wo man wenigstens teilweise die Wahl hat wo man sich im vorhandenen Dynamikumfang hinlegen will.

Das ist allerdings eine ganz andere Verwendung des Materials, die dir sicherlich in Summe noch sehr fremdartig erscheint. Und wo die Erfahrung heute noch wenig weit verbreitet ist.


Wer dazu noch behauptet dass das bzgl. des Übertragungskanals merklich dynamikbegrenzte, wertdiskrete Signal mehr Zwischeninformationen für das "Endprodukt" liefert weiß schon vor ner Fahrt mit nem Nordschleife Ringtaxi nicht mehr wo oben und unten ist.

Dazu erübrigt sich jeder Kommentar, das wirst wohl selbst einsehen?

Detaillierte Schattenzeichnung ist ja gut und sicher auch wünschenswert, nur darf man dabei nicht die wichtigen Mitten komplett zerstückeln. Das aber passiert mit sämtlichen x-LOG Funktionen, die werden da nämlich vergleichsweise flach (weniger Steigung in der Eingangs-/Ausgangsübertragungsfunktion)!

Nein, das ist absolut kein Problem wenn man mit 10bit oder mehr arbeitet. Denn ich darf dich beruhigen, von "zerstückeln" ist keine Rede. Da kommt keiner mit einem Fleischermesser und zerlegt dein schönes Material. Oder ich weiß nicht recht was du da erwartest.

Das Wesen von x-log ist viel einfacher: es weist den Blendenstufen über weite Bereich praktisch gleichmäßig Luminanzwerte zu. Nicht in den unteren Blendenbereichen, dort ist die Kurve tatsächlich zu flach (und darum nimmt man log nicht im lowlight-Bereich). Aber in den oberen Blendenbereichen hast schon mit 10bit ausreichend viele Werte - 10bit bietet ja auch das 4fache an Werten von 8bit. Und damit kannst durchaus jede Blendenstufe sinnvoll nutzen. Freilich, wer heute noch immer meint dass er log mit 8bit bearbeiten will, der wird eher Probleme bekommen.

Wie viele verschiedene, "normierte" x-LOG Reproduktions-LUTs gibt"s von verschiedenen Erstellern denn eigentlich für "normierte" S-LOG2, -3, V- und C-LOG etc. Funktionen?
Wo genau muss man da bei der Aufnahme belichten damit"s im Post nachvollziehbar, "linear" und optisch ansprechend wird?!

BTW: "weniger wichtige" Lichter erhalten bei den klassischen Cine-/Hypergammas deutlich weniger Abstufungen zugewiesen als typische LOG Kurven, erkennt man daran dass die Kurven bei steigenden Eingangsintensitäten einen höher angesiedelten, aber flacheren Verlauf (-> Ausgang Übertragungsfunktion) aufweisen als x-LOG Funktionen.

Wenn du dich tatsächlich mal in Materie vertiefen würdest, dann wären dir die Antworten auf diese Fragen absolut klar. für all die genannten Kurven sind heute White papers verfügbar, die exakt spezifizieren, wo der 18% Grauwert und der 90% Weißwert bei der Aufnahme zu sitzen hat. Das ist halt bei slog3 etwa bei 41% bzw. 61%, bei slog2 etwa bei 32% und bei 59% - und auch für v log ist das definiert: nämlich bei IRE 42 und IRE 61.

Wenn man wissen will wie man das Material tatsächlich belichten soll, dann finden sich dazu genug Anleitungen im Netz. Für slog etwa nehmen man die Anleitungen von Alister Chapman zur FS7, für v-log etwa die Anleitung von Barry Green zur DVX200. Wenn man das also wirklich wissen will, scheitert man heute absolut nicht daran genug brauchbare Infos zu finden.
http://pro-av.panasonic.net/en/dvx4k/pd ... ol6_en.pdf

http://www.xdcam-user.com/2014/12/ultim ... y-pxw-fs7/



Antwort von Roland Schulz:

Ich spar mir das jetzt hier, von wertdiskreter Signalverarbeitung scheinst Du zu weit weg zu sein wobei die Probleme bei 10-bit natürlich geringer ausfallen als bei 8-bit im a6300 Thread. Faktor 4 (2 stops) haste aber trotzdem auch schnell beim Skalieren erledigt, soviel dazu.
Jetzt noch mal zurück in die Vergangenheit - wozu hat man nochmal Übertragungsfunktionen wie REC.709 erfunden, wozu war das nochmal gut...?!?!
Warum gefällt meinen Augen x-LOG erst nach 3 Kästen Bier?!?! Weil ich dann ständig vorbeigucke?!?!

Die ganzen x-LOG Whitepapers kenne ich, frage mich nur warum jede S-LOG LUT dann irgendwie doch anders aussieht, ne a6500 in S-LOG2 auch anders rauskommt als ne a7s oder ne FS7 - tja, ob wir's jemals erfahren?!

Barry Green, na das ist ne Referenz!!! Der Kollege kann aus 8-bit 4:2:04:2:0 im Glossar erklärt UHD Material locker 10-bit 4:4:44:4:4 im Glossar erklärt FHD Footage zaubern, Panasonic hat sogar ne Veröffentlichung darüber publiziert ;-) ;-) ;-)!!
Ich hab ihm dann bei dvinfo.net erklärt dass der Schwachsinn nicht funktioniert!!
Gut, jeder macht mal Fehler...
Alister Chapman "ist Sony", da kannste auch die White Papers lesen und glauben, wobei der Freund sehr sympatisch ist!!



Antwort von Angry_C:



...Man kann allerdings auf Youtube und Vimeo stundenlang surfen, um ein gutes Log-Lut-Gradingvideo zu finden. Ganz besonders, darauf weist ja auch slashCAM im Eingangsartikel hin, V-Log L mit der angebotenen Varicam-Lut ist totaler Müll. Finde ich.

Ich habe hier ein gelungenes Grading mit V-Log gefunden, wie ich finde!



Ja, das sieht wirklich gut aus. Und das aus einer Kamera, die ja eigentlich nur V Camcorder Video-Look kann, jedenfalls liest man das immer wieder im Zusammenhang mit den Lumixen.



Antwort von cantsin:

Hersteller wie Panasonic, Sony und Canon sollten sich endlich erbarmen und ihren Kameras Teal/Orange-Bildprofile spendieren. Ich bin mir sicher, das wäre ein richtiger Verkaufshit.

In Forendiskussionen über den "Kino-Look" von Cameras geht es - wie im obigen Video - den meisten Diskutanten tatsächlich nur um Teal/Orange.

Log-Profile, 10bit, Raw, Resolve etc. sind doch viel zu steinige Wege zu diesem Ziel.



Antwort von prandi:

Warum braucht man bei diesen Aufnahmen VLog?



Antwort von dienstag_01:

VLog brauch man halt immer ;)



Antwort von Angry_C:


Warum braucht man bei diesen Aufnahmen VLog?

Das ist die Frage, da müsste sich jemand mal die Mühe machen, einmal mit und einmal Ohne Vlog aufzunehmen und anschließend versuchen, den gewünschten Look hin zu bekommen.



Antwort von DataCase:

Wie sich immer die Gemüter erhitzen... :)
Ist doch auch alles eine Geschmacksfrage!
Man sollte mal einen Grading-Contest veranstalten! :)



Antwort von Jörg:


Warum braucht man bei diesen Aufnahmen VLog?

prandi, prandi,
wir alle kennen mindestens einen, der solche Sachen ganz dringend zur Befriedigung seiner Profilierungssucht benötigt ;-)),
die anderen haben solche Sachen schon lange mit den ach so profanen 8 bitlern hinbekommen.



Antwort von iasi:



Ein Hund mit schwarz-weißem Fell in der Sonne ... welches ist hier dann wohl die beste Lösung?

abhängig von der Augenfarbe des Hundes

na wie beim Fell: schwarz und weiß



Antwort von iasi:

Ich würde mal behaupten, dass 95% der Aufnahmen auch ohne log oder knee gelingen - von den verbleibenden 5% kommt man zu 75% mit knee gut hin.

Das ist wie mit Slow Motion und Low Light: Eigentlich sind dies die selteneren Aufnahmesituationen.

Gerade hab ich einen Test des neuen Sigma 135/1.8 gelesen. Schon offen bei 1.8 bietet es super Qualität, die früher so manches Objektiv noch nicht mal abgeblendet bot. f1.8 zu f2.8 sind mehr als eine Blendenstufe - also ISO800 statt ISO1600 - daher juckt mich die "low light"-Fähigkeit nicht sonderlich.
Zumal: Aufgrund des kleinen Sensors ist der DoF dann letztlich bei f1.8 so groß wie bei f2.8 bei FF und selbem Bildausschnitt.



Antwort von Roland Schulz:


Wenn man wissen will wie man das Material tatsächlich belichten soll, dann finden sich dazu genug Anleitungen im Netz. ...für v-log etwa die Anleitung von Barry Green zur DVX200. Wenn man das also wirklich wissen will, scheitert man heute absolut nicht daran genug brauchbare Infos zu finden.
http://pro-av.panasonic.net/en/dvx4k/pd ... ol6_en.pdf

...mal wieder Belletristik voller Widersprüche, schon in den ersten drei Abschnitten. Belegt schon Kompetenz sowas zu referenzieren.
Zudem glaube ich nicht, dass Du wirklich alles gelesen bzw. verstanden hast was Barry da schreibt bzw. welche Türen er offen lässt, sonst würdest Du den "Text" nicht als eine Art "Referenzanleitung" hier anpreisen.

EDIT: "Increased Color Resolution And BitBit im Glossar erklärt Depth" (p.3) war der "erste" Knaller von Barry Green, tatsächlich immer noch online:
http://pro-av.panasonic.net/en/dvx4k/pd ... ol1_en.pdf



Antwort von domain:

Hitchkock sagte mal: "Ein guter Film sollte mit einem Erdbeben beginnen, dann wird die Spannung gesteigert."
Heute sieht das so aus: die Zuseher warten spannungsgeladen auf die ersten Bilder, z.B. ein Schwarzafrikaner auf einem Gletscherfeld im Gegenlicht ohne Sunbouncer, Action und Worte. Wenn dann in seinem Gesicht noch Durchzeichnung und auch die Flecken in der Sonne zu erkennen sind bricht allgemeiner Jubel aus und lässt für den restlichen Film noch spannende Analysen erwarten :-)



Antwort von Axel:

Hitchkock sagte mal: "Ein guter Film sollte mit einem Erdbeben beginnen, dann wird die Spannung gesteigert."

Hitchcock wurde mal die Regie für einen Film über den Untergang der Titanic angeboten. Er sagte, prima, wir schreiben die Namen der 2200 Komparsen auf den Schiffsrumpf und lassen ihn langsam sinken. Das wäre der längste Rolltitel der Filmgeschichte!



Antwort von WoWu:

@Wolfgang

"Ach und hast auch die Einschränkung gemacht dass das Auge gefälligst nicht zu adaptieren hat? Mal abgesehen dass keiner versteht wie das in der Praxis gehen sollte."

Jetzt hab ich das endlich verstanden warum der Mensch mehr als 6 Blenden sehen kann, weil Du ADAPTION noch nicht richtig verstehst.

Das ist so, als wenn Du sagst, Deine Kamera kann 24 Blenden wenn Du das ND Filter draufsteckst.
Alles klar.
Übrigens kann der Mensch dann mit Schweisserbrille ungefähr 60 Blenden.

Hast Du noch gar nicht kapiert, dass Adaption den 6 Blenden Bereich immer nur "verschiebt", das es aber in jeder Licht- Situation, also immer, 6 Blenden bleiben.



Antwort von Bruno Peter:

Schon wieder ein Gockelkampf zwischen Wolfgang(Wien) und Wolfgang(La Vega)?
Was bringt das für das Forum und unsereins dem braven Hobbyfilmer?

Info: Klick!
Diesem Beitrag kann ich noch einigermaßen folgen...
Hier steht, das menschliche Auge kann einen Dynamikumfang von 20 Blendenstufen sehen: Klick!
ja sind denn diese Leute ganz blöd?

Wolfgang aus La Vega, könntest Du mir das mit den sechs Blenden des menschlichen Sehens bitte genauso verständlicher erklärten?



Antwort von domain:

Ich denke, dass einige Missverständnisse daher rühren: die Auge/Hirnkombination kann die "Belichtungszeit" in Abhängigkeit von der Helligkeit in einer Spontanreaktion verändern (Blick von hell zu dunkel). Zu unterscheiden von der Langzeitadaption, die bis zu 30 min andauern kann. Das Auge verfügt sozusagen über eine rasante ISO-Automatik, die bei Standbildern zu beobachten ist. Bei Laufbildern sieht die Sache schon wieder anders und zwar schlechter aus.
Am unteren Ende der Wahrnehmbarkeit von Licht liegt die dadurch hervorgerufenen Verzögerung bei etwa 500 ms, am Übergang von Nacht- zum Tagsehen bei etwa 50-100 ms und am hellen Tage unterhalb von 10 ms.
LCD-Bildschirm mit 1000 NIT fett gedruckt.

10^6 NIT => 3,5 ms
10^5 -"- => 5,5 ms
10^4 -"- => 8,5 ms
10^3 => 12,5 ms
10^2 => 19 ms
10^1 => 30 ms
10^0 => 45 ms
10^-1 => 70 ms
10^-2 => 105 ms
10^-3 => 160 ms
10^-4 => 250 ms
10^-5 => 400 ms
10^-6 => 500 ms



Antwort von Bruno Peter:

Hmm, bei 25p - Aufnahmen sehen wir jedes FrameFrame im Glossar erklärt 1000/25 = 40 ms lang...



Antwort von domain:

Ja eben, aber Fotos sehen wir wohl länger als 40 ms lang an. Deswegen sagte ich ja, dass die Verhältnisse bei Laufbildern andere sind.



Antwort von Bruno Peter:

Ja, sehe ich auch so...



Antwort von dienstag_01:

Wolfgang aus La Vega, könntest Du mir das mit den sechs Blenden des menschlichen Sehens bitte genauso verständlicher erklärten?
Mal hier probieren:
https://en.wikipedia.org/wiki/Human_eye#Dynamic_range



Antwort von Roland Schulz:

Jetzt gockel ich auch noch mal zwischen die beiden Wolfgangs ;-)
Herr Dr. WoWu, ich halte xLOG zwar auch für ziemlichen Unfug, aber 6 Blenden Belichtungsumfang beim menschlichen Auge "allgemein" ebenso.
Es mag sein, da will ich gar nicht widersprechen, dass das menschliche Auge bei sehr schnellen Bildänderungen -> "kurzen Belichtungszeiten" vielleicht nur 6 Blenden differenziert, nur kriegen wir bei solch schnellen Bildänderungen ohnehin NICHTS mehr vom Inhalt mit - zumindest ich nicht wobei ich behaupte nen "schnelles Auge" zu haben und häufig >>300km/h unfallfrei auf Deutschlands Autobahnen unterwegs bin.

Diese "kurzen" Belichtungszeiten haben doch gar keine praktische Relevanz, auch das Zusammenbringen mit der FramerateFramerate im Glossar erklärt oder der Verschluszeit bei der Aufnahme wie es einige hier tun ist totaler Blödsinn!!
Wir sehen nicht 25/50 verschiedene Bilder in der Sekunde, es sind Bilder mit gewissen Änderungen, der Großteil bleibt aber gleich! "Das Auge" differenziert 6 Blenden klingt viel zu allgemein, ich gucke mir Inhalte, auch Fotos oder die Umwelt in den allermeisten Praxisfällen mehrere Sekunden an, und da schaffe "ich" ohne das genau beziffern zu wollen >>> 6 Blenden!!
6 Blenden entspricht einem Kontrastverhältnis von 1:64, da schafft jeder "nicht kaputte" Bildschirm mehr! Ich kann auf meinen Monitoren (statisch eingestellt, kein dynamischer Kontrast) locker mit einem, nicht wandernden Blick erkennen dass Schwarz nur "Dunkelgrau" und Weiß "Hellgrau" ist, und die Dinger liefern gemessen ~1:800, damit ~9,6 Blenden!



Antwort von dienstag_01:

Adaption hat ja nichts mit *wanderndem* Blick zu tun. Aber Fakt ist, dass Zeit und Raum (Auflösung, oder besser Abstand) eine Rolle spielen.



Antwort von Roland Schulz:


Adaption hat ja nichts mit *wanderndem* Blick zu tun. Aber Fakt ist, dass Zeit und Raum (Auflösung, oder besser Abstand) eine Rolle spielen.

...natürlich ist ein wandernder Blick bzw. das Resultat auch eine Art Adaption die hier mit reinspielt. Wenn ich mein Auge auf einen bestimmten Bereich richte/fokussiere passt sich auch die "Belichtung" hier an (Pupille/Iris öffnet/schließt). So könnten theoretisch viel größere Dynamikbereiche "betrachtet" werden. Das habe ich aber bewußt ausgeschlossen. Eine weitere Adaption ist sicher die über die (Betrachtungs-)Zeit.
Auflösung ist erst mal relativ, hat nicht primär mit dem Belichtungsumfang zu tun.



Antwort von Bruno Peter:


Wolfgang aus La Vega, könntest Du mir das mit den sechs Blenden des menschlichen Sehens bitte genauso verständlicher erklärten?
Mal hier probieren:
https://en.wikipedia.org/wiki/Human_eye#Dynamic_range

Danke für den Linktipp!

Dort steht was von 6,5 Blenden Dynamikumfang des menschlichen Auges, wenn wir hier nicht einander vorbeireden mit dem Wolfgang aus Südamerika...



Antwort von WoWu:

Moin Bruno.

Ich glaube, dass einige sich nur nicht über den Begriff der BlendeBlende im Glossar erklärt im Klaren sind und deshalb verschiedene Dinge miteinander vermischen, die nur sehr bedingt etwas miteinander zu tun haben.

Wenn man also mal etwas Licht ins Dunkel bringen will, muss man sich über ein paar Fakten im Klaren sein.
1) Eine BlendeBlende im Glossar erklärt ist definiert als die Verdopplung von Licht.
2) Alles, was der Mensch in der Natur sieht, ist die Reflektion von Licht, wenn man einmal Licht als Quell (z.B.Sonne) ausnimmt.
Damit ist die Frage, wieviele Blenden der Mensch (ohne Adaption) sehen kann, schnell beantwortet, und dadurch limitiert, wieviel Reflektion es im natürlichen Umfeld gibt ... nämlich die Anzahl der Verdopplungen zwischen Schwarz (1-3% und weiß 90+ %)
Da landet man dann so bei 6 Blenden.
Das ist der Umfang dessen, was das Auge an Empfindlichkeit zu bieten hat und auch Photopapier oder eine Kinoleinwamd kann nicht mehr als das.
Was wir also im Kino sehen, sind 6 Blenden.
Adaption ist weitestgehend ein chemischer Prozess im Auge, in dem eine Neusynthese von Rhodopsin in den Stäbchen stattfindet und sie damit rd. 1000 mal lichtempfindlicher macht.
Dieser Prozess kann aber halbe Tage dauern, findet also nicht im Bereich von ms statt.
Dadurch word zwar die Empfindlichkeit erhöht, aber zugleich auch der Blendeffekt, der dann auftretende höhere Lichtmengen nicht erkennbar macht.
Jeder kennt das, wenn er aus dem Dunkel ins Helle kommt.
Er kann auch im Hellen dann nicht sofort differenzieren.
Das Auge regelt also, wie eine Automatik, seine 6 Blenden hin und her.
Auch die schnelle Anpassung übersteigt das nicht. Wenn oben eine BlendeBlende im Glossar erklärt hinzu kommt, fällt unten eine weg. Und umgekehrt.
Das kann man leicht an einem hellen Tag nachvollziehen, wenn man die Hand als Sonnenblende an die Stirn setzt. Plötzlich werden dunklere Bildinhalte differenzierbar, weil oben Licht weggenommen wurde. Solche Effekte gehen dann etwas schneller, aber auch nicht im ms Bereich.

Was hier aber immer durcheinander gebracht wird, ist die Anzahl von Helligkeitsstufen innerhalb einer Blende.
Grundsätzlich können wir einen Helligkeitsunterschied (Kontrast) von rd. 1-2% wahrnehmen. Das führt dazu, dass unser Auge, aus der Natur etwa 1000 unterschiedliche Nuancen wahrnehmen kann, egal wie viele auch vorhanden sind. Wir können nicht mehr als diese 1000 Nuancen sehen.
Das sind etwa 10 Bit.
Wenn nun eine Kamera hergeht, und das, was wir in der Natur als Weiß (90%) sehen, nur auf die Position von 60% legt, nehmen wir das als grau wahr und wenn dann solche Spitzlichter, bei denen unser Auge bereits unten eine BlendeBlende im Glossar erklärt wegnehmen würde, um sie noch sehen zu können, in der Kamera als 90% ansiedelt, dann nehmen wir das in der Reproduktion als weiß wahr.
Und da liegt das Missverständnis. Das Bild zeigt uns nicht mehr das, was in der Natur gewesen ist, weil Weiß nur als Grau dargestellt wird.
Geht man jetzt her und schiebt grau wieder auf 90%, gehen spätestens alle Spitzlichter im Clip unter ... oder ... und da ist wieder das Missverständnis:
Die Auflösung geht unter und es wird Banding.

Daher auch der Ansatz von HDR, die zusätzliche Dynamik mit "echtem" zusätzlichem Licht (Hintergrundlichteffekte oder OLED) zu machen und mindestens die Bildauflösung bei dem zu haben, was das Auge kann, nämlich 10 Bit.
Damit wären dann beide Bedingungen erfüllt.
Das Auge bekommt in voller Auflösung seine 6Blenden und die Adaption sorgt für eine natürliche Reaktion bei heller werdendem Licht.
Bildinhalte werden also im TV Gerät in echte Lichtemission umgesetzt.
( Mehr Licht im Verhältnis zum "alten" TV Eindruck -aha Effekt-)

Geht man jetzt also her und spricht davon, dass ein Photo oder ein Film mehr als 6 Blenden enthält, so ist das eigentlich die falsche Bezeichnung denn für den Menschen sind es nach wie vor 6 Blenden, denn das Papier oder die Leinwand reflektieren nun mal nicht mehr als 6 Blenden, ebensowenig wie die Natur.
Man hat die zusätzlichen Blenden einfach nur hineingestopft, zulasten anderer Bilddetails und nutzt die Schwäche des Auges aus, das nicht mehr zu differenzieren. (1-2% Kontrast) oder die Angewohnheit, auf Werte die dicht an Weiß liegen, nicht mehr zu achten.
Aber das Bild hat nach wie vor 6 Blenden. Sie haben nur andere Abstufungen und grau wird als weiß verkauft.
Sowas hat es früher in der Photographie auch mal gegeben: gelbliches Fotopapier das nur noch 70% reflektiert, also 1 BlendeBlende im Glossar erklärt weniger.
Das es sinnvoll ist, die höhe Wertemenge der BlendeBlende im Glossar erklärt am Systemweiss aufzuteilen, ist völlig unbestritten, aber dazu braucht man kein LOG.
Und darum ging es in diesem Thread ja.
Aber in diesem Seitenthema wird man um die Einsicht nicht herum kommen, dass letztlich der Mensch alles in 6 Blenden und rd. 10 BitBit im Glossar erklärt sieht.



Antwort von Bruno Peter:

Hallo Wolfgang auf der anderen Halbkugel...
Ich danke Dir für den Zeitaufwand für eine einer ausführlichen Erklärung.
Ich glaube es verstanden zu haben mit den 6 Blenden, der Anpassungsverzögerung bei viel und wenig Licht sowie dem Farbspektrumumfang.
Ich finde das logisch was Du erklärt hast, vielen Dank dafür!

Bin demnächst beim Augenarzt, werde ihn ein wenig ausfragen und testen was er darüber gespeichert hat.

Grüße nach Kolumbien...
Ich war in meiner beruflichen Zeit mehrfach in Südamerika und zwar in Brasilien und Argentinien,
mir hat es dort sehr gut gefallen. Hatte einen Kollegen einer anderen Firma dabei mit dem ich öfetrs dort war.
Er nutzte immer die Zeit dort um nach Bolivien zu fliegen, weil er dort einen guten Zahnarzt hatte der
ihm mit anderen Mitteln als hier den Schmerz weggenommen hat bei seinen schwierigen Zahnwurzelbehandlungen...

An die Leutz hier:
Seid netter zueinander, der Wolfgang aus Kolumbien erklärt es Euch schon geduldig, wenn Ihr etwas nicht verstanden habt.
Nein, ich bin nicht verwandt mit ihm, es fließt auch kein Geld von ihm auf mein leeres Rentner-Bankkonto.
Ihr habt mit Wolfgang hier ein Know-how- und Wissensfundus über welchen nur wenige Foren verfügen!



Antwort von WoWu:

Hallo Bruno,
ja, Bolivien ist auch eine Alternative.
Es gibt zwar weniger eingesetzte Geräte,edition hier, dafür die besseren Ärzte, wenn man dem Rancking der WHO glauben darf.
Wenn Du mal wieder in der Nähe bist, mach doch mal 'n Stop in Bogotá.

Was das Forum betrifft ... trancilo.. seit der neuen Forumsoftware popen bei mir die Postings von einigen Teilnehmern erst gar nicht mehr auf.
Guter Service von Slashcam.



Antwort von Bruno Peter:

Gute Idee... zum Bild http://www.dvd-svcd-forum.de/forum/imag ... double.gif



Antwort von Roland Schulz:

Na ja, viel geschrieben - an der Wahrheit aber etwas vorbei. Wir sind ja nun schon ein paar Rennen gefahren hier...

Natur: Kürzlich noch im Skiurlaub erlebt, tiefer Höhleneingang oberhalb mit Schnee bedeckt, jetzt schien sogar noch die Sonne - 6 Blenden?!?!?! NEVER!!!! Ob man "alles" sieht - auch nicht, aber >> 6 stops!!

Nen Bildschirm kann man auch ohne adaptive Hintergrundbeleuchtung locker auf Kontrastumfänge von ~1:800 messen, das entspricht einem Dynamikumfang von ~9,6 Blenden!!! Das Ding ist für"s Auge dann "gleichzeitig" (!!, z.B. Schachbrett) aber weder blendend hell noch totschwarz dunkel!!

Weiter: Nen "handelsüblicher" EPSON Ultrachrome HDR Drucker bringt es auf ein Dmax von "gemessen" 2,5 (lt. EPSON 2.86). Das sind dann 8,3 bzw. 9,5 Blenden. Wenn ich in ne schwarz gedruckte Fläche (Beleuchtung ~45°, nicht blendend) dann noch nen Loch reinmache "sehe ich"s" dahinter noch dunkler! Sieht zudem auch in der Hand noch nicht aus wie Hölle oder Tod.

Nochmal, 6 Blenden entsprechen einem Kontrastverhältnis von 1:64 - das ist "nix"!!



Antwort von iasi:

Wie immer geht ihr von einem statischen System aus - dabei ist das Auge ziemlich anpassungsfähig.
Für einen natürlichen Bildeindruck muss man sich also am "Blick aus dem Fenster" und nicht an statischen Messwerten des Auges orientieren.

Es ist wie der Vergleich zwischen einem Standbild eines Filmes und einer Digitalaufnahme:
Dies unterschlägt vollkommen die welchselnde Kornstruktur des Negativs von einem zum anderen Bild.



Antwort von WoWu:

@IASI
Nein, ganz im Gegenteil, denn Adaption ist etwas dynamisches, nur eben über einen deutlich längeren Zeitraum als die Bildwechselfrequenz.

Auch in der freien Natur hast Du schwarze Gegenstände, die geringes Licht reflektieren, sonst würdest Du sie gar nicht sehen.
Ebenso hast Du (z.B.) weiße Wolken oder irgend etwas Anderes, dessen Reflektion ist nun mal nicht höher als 90% (sonst wäre es nämlich eine direkte Lichtquelle).
Dazwischen liegen eine begrenzte Anzahl an Lichtverdopplungen.

Eigentlich müssten wir ja auch am Tag die Sterne sehen können.
Die verschwinden tagsüber ja nicht.
Können wir aber nicht, weil unsere 6 Blenden gerade den Hellbereich adaptieren.

Das hat mit Darstellung oder Kontrast nichts zu tun.
Ein dynamischer Plasmabildschirm hat ein Kontrastverhältnis von 5.000.000:1 .... warum wohl betreibt man den Aufwand, HDR Verfahren zu entwickeln ?
Find'st Du das nicht komisch ?
Und ich weiß gar nicht, warum man immer "aus dem Fenstemr sehen muss".
Funktioniert das menschliche Auge da anders ?

Ich weiß, dass der subjektive Seheindruck anders ist und dass KompressionKompression im Glossar erklärt bei der Fotografie gern nicht wahrgenommen wird, aber das ist es leider.



Antwort von Roland Schulz:

Also, überzeugen tut mich das alles nicht!
Wer hat denn schon mal "live" auf ne DR Wedge geschaut?! Ich habe das gerade nochmal an meiner "unkalibrierten" 17 Fenster Wedge gemacht. Wenn LEE sich mit ihren ND Folien nicht komplett vertan hat macht das Ding ~16 Blenden - die ich alle mit einem Blick erkenne und zudem noch den schwarzen Rahmen differenzieren kann.
Geeignetes Meßequipment zur Verifikation der Wedge habe ich leider nicht da, weder ne geeignete BlendeBlende im Glossar erklärt für meinen Gossen noch traue ich meinem i1Pro2 Spektro in den Tiefen.
Aber - wenn ich meine Messungen an der a6500 z.B. mit "öffentlichen" Messungen, die an ner "High-End" DSC XYLA21/27 entstanden sind vergleiche, dann passt das Ding sehr gut!!

Anders, und jetzt wird's wirklich einfach und für viele nachprüf- und nachvollziehbar.
Wer hat ein paar Graufilter in der Ecke?!?! Ich habe gerade mal einen 10 Stop ND Filter (zum Wasserfälle knipsen ;-) ) auf's voll ausgesteuerte iPad gelegt, welches einfach nur eine weiße Fläche/Bild zeigt.
Die ~400cd vom iPad Pro 9.7 bringen meine Augen noch nicht zum "clippen", unter dem Filter sehe ich aber sogar noch den unbeleuchteten, dunkleren Rahmen vom iPad!
Weiter: jetzt habe ich noch einen 2 Stop ND daneben gelegt. Ich differenziere mit einem Blick die freie, weiße Fläche, sehe die Abschwächung vom 2 stop ND und immer noch den unbeleuchteten Rahmen unter dem 10 stop ND! Das beweist dass es MEHR als 8 Blenden sind die mein Auge auf einen Blick differenziert!!
Und nun?!?! Was sollte jetzt an dieser Betrachtungsweise nicht passen???



Antwort von mash_gh4:

Das beweist dass es MEHR als 8 Blenden sind die mein Auge auf einen Blick differenziert!!

die meisten quellen, die ich zu dem thema kenne, sprechen von 10-14 blenden, die man ohne adaption mit einem blick erfassen kann.

die zehn, waren ja auch lange zeit in der analogen schwarzweiß-fotografie der anhaltspunkt, an dem man sich (bspw. bei empfindlichkeitsangaben von filmen) orientiert hat.



Antwort von WoWu:

@RS
Was Du da siehst, ist das Ergebnis von KompressionKompression im Glossar erklärt, in der z.B. 10,12 oder mehr Blenden, durch Krümmung der Kurven und zulasten der Bilddetails, in den Rahmen der 6 sichtbaren Blenden des Menschlichen Sehvermögens geklemmt (komprimiert) wurden.
Zwischen dem untersten Schwarz und dem hellsten Weiß, das Du da bei Deinen Experimenten auf dem Monitor siehst, liegen nicht mehr als 6 Lichtverdopplungen, (meistens deutlich weniger weil die 100 Nits des Monitors noch nicht mal an die Leistungsgrenzen des Auges (innerhalb der 6 Blenden kommen), aufgeteilt in unterschiedliche Graustufen, die Du für Blenden hältst.
Es sind aber nur reduzierte Bestandteile ehemaliger Blenden.
Also das Ergebnis von Kompression.
Durch diese Reduktion weichst Du aber zwangsläufig vom natürlichen Sehvermögen ab, denn weiß ist plötzlich grau.
Genau das versucht HDR ja durch die Erzeigung neuen Lichtes im TV Gerät wieder zu kompensieren, sodass nicht nur die 6 Blenden, sondern möglichst auch noch die eine oder andere BlendeBlende im Glossar erklärt mehr entsteht, damit das Auge wieder adaptieren kann.
Hast Du Dich noch nie gewundert, warum so oft bei LOG graue Soße herauskommt ?
Das bei dieser KompressionKompression im Glossar erklärt eben auch die Differenzierungsgrenzen des Auges ins Spiel kommen (Banding) ist ein weiteres, unschönes Resultat solcher Kurvenkrümmungen.
Man darf das, was eine Kamera oder ein Film aufnehmen kann, nicht mit dem verwechseln, was ein Mensch mit dem Auge (ohne Adaption) aufnehmen kann.
Der Mensch schafft mit Adaption etwa 14-16 Blenden, aber eben nicht in einem Rutsch.

Vielleicht zum Abschluss noch eine Grafik und ein Fakt.
IMG_0721.GIF
Die Grafik zeigt, dass der Mensch weder im Photopischen, noch im Skotopischen Sehen mehr als (bummelig) 6 Blenden überstreichen kann.
Die Lichtempfindlichkeit (ohne Adaption) ist durch die Literatur durchgängig wie folgt angegeben

"Das Maximum der Hellempfindlichkeit bei Tagessehen beträgt 680 Lumen/Watt bei 555 nm Wellenlänge."

Ansonsten hätte dienstag den Link auch schon gesetzt und jeder kann solche Details auch nachlesen:
https://en.wikipedia.org/wiki/Human_eye#Dynamic_range

Na also ... das wär's dann auch für mich an dieser Stelle.



Antwort von iasi:



Und ich weiß gar nicht, warum man immer "aus dem Fenstemr sehen muss".
Funktioniert das menschliche Auge da anders ?

Wir sind in der Lage beim "Blick aus dem Fenster" uns auf den Schatten unter dem Baum und anschließend auf die weißen Wolken zu konzentrieren. Wir nehmen nie alles zur selben Zeit wahr, was wir durch das Fenster sehen können.
Wenn da Bild auf dem Schirm oder der Leinwand so natürlich wirken soll, wie ein Blick aus dem Fenster, muss es eben Zeichnung in den Wolken und in den Schatten bieten - also mehr, als das, was unser Auge "statisch" wahrnehmen kann.

Die Frage ist natürlich, ob wir diesen "natürlichen" Blick bei Filmen überhaupt wollen.
Das ist dann eine Frage der Gestaltung und Filmsprache.

Wenn jedoch das Ausgangmaterial sowohl Zeichnung in den Schatten und in den Lichtern bietet, hat man in der Post die Möglichkeit der gestalterische Freiheit, ob nun die Schatten im Schwarz oder die Lichter im Weiß untergehen sollen - oder eben nicht.

Der Zuschauer ist zudem in seiner Seherfahrung behaftet - wie ja auch HFR zeigt. Ob der Zuschauer nun HDR als Vorteil oder eher befremdlich wahrnimmt, wird sich zeigen müssen.



Antwort von mash_gh4:

ich würde mir da weitestgehend iassis meinung hinischtlich der adäquatheit der 'abbildung' anschließen, nur das die sache beim menschlichen auge fast noch ein bisserl komplizierter ist, weil ja im gegensatz zu technischen apparaturen nicht einfach nur helligkeitswerte "gemessen" und beziffert werden, sondern vielmehr kontraste und reizschwellen die wahrnehmung konstituieren... man kann es daher auch nicht ganz so einfach und in blinder analogie mit diversen technischen lösungen vergleichen -- darum wohl auch diese oft recht widersprüchlichen bzw. unbefriedigenden angaben in verschiedenen quellen.

wie aber der WoWu aus dieser skizze, die sich ausschließlich auf die spektrale empfindlichkeit des menschlichen auges in verschieden helligkeitsbereichen bezieht, irgendwas über den kontrastumfang herauszulesen vermag, ist mir natürlich ein noch größeres rätsel:

download/file.php?id=20084
Die Grafik zeigt, dass der Mensch weder im Photopischen, noch im Skotopischen Sehen mehr als (bummelig) 6 Blenden überstreichen kann.



Antwort von WoWu:

Nee, nee IASI, dieser "Blick aus dem Fenster" ist genauso eine Ausrede, wie das Praktikergetue oder dem, dass man eine Kamera selbst besitzen muss, um ein System zu verstehen.
Fs sind alles nur Totschlagargumente.
Und nun kommst Du auch noch mit selektiver Wahrnehmung daher und dass das Gehirn mit sieht.
Bestimmt beeinflusst das Gehirn die Bildinhalte, die wir sehen als optische Täuschungen aber dass Grau als Weiß interpretiert werden soll und dass aschfahle Bilder mehr mit der Wirklichkeit zu tun haben, dazu reicht meine Gehirnleistung leider nicht aus.
Einigen wir uns also darauf, dass es an mir liegt, damit kann ich leben.

Das Maximum der Helligkeitsempfindlichkeit ist ziemlich präzise definiert.
Nun muss nicht jeder daran glauben und wer 14 Blenden sein Eigen nennt, soll sich ruhig Hellseher nennen.
Sowas soll es ja hin und wieder geben.

Ich bin aber raus aus der Diskussion, denn wir drehen uns jetzt schon wieder im Kreis.
Jeder soll sich das selbst nachrechnen und kann sich informieren, was KompressionKompression im Glossar erklärt bewirkt und warum man beliebig viele Blenden auch in 6 Blenden darstellen kann.
Alles andere ist nun mehrfach gesagt.

Edit
Und das mash das nun wieder auf die feuilletonistische Schine heben will, ist auch nur ein Zeichen dafür, dass sachliche Argumente fehlen.
" es ist ja alles nicht so einfach...."
Doch, ist es.
6 Blenden bleiben 6 Blenden weil es 6 mal die Verdopplung von Licht ist.
Und das ist auch messbar.

Und wer es immer noch nicht glaubt, der sollte sich das durchlesen, was heutigen Studenten der Medizintechnik in der wissenschaftlichen Lehre beigebracht wird.
Da wird sogar nur von 8 Blenden über die gesamte Adaption ausgegangen:

" 5.3.7 Adaptation
Die Leuchtdichte der natürlichen Umwelt des Menschen variiert über etwa 8 Größenordnungen: 10^-4 cd/m2 bei Sternenlicht bis 10^4 cd/m2 bei Sonnenlicht.
Um sich diesen großen Bereich nutzen zu können mussten mehrere Adaptationsmechanismen entwickelt werden.
Dazu trägt die Pupille lediglich etwa einen Faktor 16 bei: ihr Durchmesser reduziert sich von 4 mm auf 1 mm. Der größte Beitrag zur Adaptation erfolgt in den Sinneszellen selber, aber auch die neuronale Verarbeitung trägt dazu bei.
Der genaue Mechanismus ist noch nicht geklärt, aber offenbar trägt eine Verringerung der intrazelluären Konzentration der Ca2+ Ionen dazu bei..... usw."

https://e3.physik.uni-dortmund.de/~sute ... 5_Auge.pdf

Aber ich weiß ... ist ja alles nicht so einfach.



Antwort von domain:

Zitat:
"Der größte Beitrag zur Adaptation erfolgt in den Sinneszellen selber, aber auch die neuronale Verarbeitung trägt dazu bei. Der genaue Mechanismus ist noch nicht geklärt ..."

Der Mechanismus ist unheimlich schnell, also ca. eine 1/100 sec Reaktion, wie aus obiger Tabelle zu entnehmen ist.
Und die 6,5 Blenden müssen schon rein mathematisch stimmen. Total schwarze Körper gibt es nicht. Gehen wir von min 2% Reflektion aus, dann sieht die Verdoppelungsreihe bekanntlich so aus: 2,4,8,16,32,64,128. Das wären 7 Blenden, aber 128% sind zu viel.
Mit 6,5 Blenden kommt man ziemlich genau auf 100%
Direkte Lichtquellen aber werden auch vom Auge als Überstrahlung ohne Durchzeichnung empfunden und so sollte es auch in Videos rüberkommen.
Eine ganz andere Frage ist, wie stark die Gesamtbeleuchtung im Moment der Aufnahme ist. Aber die wird dem Sensor ja durch BlendeBlende im Glossar erklärt und Belichtungszeit artgerecht zubereitet.



Antwort von Roland Schulz:


Total schwarze Körper gibt es nicht. Gehen wir von min 2% Reflektion aus, dann sieht die Verdoppelungsreihe bekanntlich so aus: 2,4,8,16,32,64,128. Das wären 7 Blenden, aber 128% sind zu viel.
Mit 6,5 Blenden kommt man ziemlich genau auf 100%

Nochmal zurück in den Skiurlaub - was ist mit dem "schwarzen Körper" im Schatten?!?! Was ist mit dem Blick in die Höhle die oben mit sonnenbestrahltem Schnee überdeckt ist?! "Nur" 6 Blenden sind das vielleicht noch nach dem Après Ski ;-)!

Direkte Lichtquellen aber werden auch vom Auge als Überstrahlung ohne Durchzeichnung empfunden und so sollte es auch in Videos rüberkommen.

Ab irgendeinem Punkt ist das sicherlich richtig, der Wahrnehmungsumfang des menschlichen Auges ist sicherlich begrenzt - nur "ich" nehme die 6 Blenden hier nicht mit, das ist deutlich mehr oder wir reden über verschiedene Dinge, lasse mich jetzt aber nicht auf die Farb-/Wellenlängendiskussion ein!
Mir "reicht" polychromatisches, "weißes" Licht für die Betrachtung des "Belichtungsumfanges" des Auges!

Das "ich" ein bisschen "anders" bin hat Wowu ja schon mehrfach "festgestellt" ;-) ;-) ;-), aber dass ich soooo viel besser gucken kann als andere glaube ich auch nicht...



Antwort von Roland Schulz:

...nochmal zurück zu gestern Abend, iPad als "homogene" Lichtquelle (alternativ ne gute Leuchtplatte wer sowas noch hat) und die Graufilter ausgepackt.

In meinem Fall liegt ein ND3 10 Stop Filter neben nem ND0.6 2 Stop Filter auf der "Leuchtplatte". Das von der Leuchtplatte ausgestrahlte Licht wird also einmal um 10 Blenden reduziert, einmal um 2 Blenden, die Differenz zwischen beiden Filtern beträgt also immerhin 8 Blenden!

Richte ich den Blick jetzt wie im Bild dargestellt auf die Leuchtplatte, erkenne ich ganz klar dass das Licht durch den 2 Stop Filter merklich heller ist als das, welches durch den 10 Stop Filter kommt.
GLEICHZEITIG und OHNE ADAPTION erkenne ich aber auch, dass das Licht welches neben den Filtern emittiert wird nochmals heller ist als das Licht durch den 2 Stop Filter.
Weiterhin erkenne ich zur gleichen Zeit, dass der unbeleuchtete Rahmen der Leuchtplatte durch den 10 Stop Filter nochmals dunkler sichtbar ist.
Ich "behaupte" zudem dass dieser Versuch noch lange nicht das Ende des erkennbar möglichen darstellt, die 8 Blenden Helligkeitsunterschied zwischen 2- und 10 Stop Filter zudem "ein Witz" für das menschliche Auge sind (nicht aber für das iPhone 6s mit dem das Foto gemacht wurde, das ist schon ziemlich am Ende mit dem gesamten Test ;-)!).
IMG_6969.JPG

Anders, wer einen ND1.8 6 stop Filter hat oder sowas durch andere Kombinationen nachstellen kann kann den 6 stop Filter doch einfach mal vor "weiße Wolken" halten und gleichzeitig ein Stück vorbeigucken.
Wenn ich mit meinen "supertollen" Augen jetzt keine Ausnahme bin, sollte jeder jetzt gleichzeitig durch den Filter und am Filter vorbei Zeichnung in den Wolken sehen. Selbst wenn man das mit nem 8- oder 10 Stop Filter macht sollte das ohne weiteres möglich sein!
Das bedeutet dass das Wahrnehmungsvermögen (Belichtungsumfang) des Auges größer ist als der Reduktionsfaktor des ND Filters, damit größer ist als 6-, 8- oder was weiß ich wieviel Blenden.

Ich kann euch nicht beweisen was ich sehe, aber vielleicht kann der ein oder andere das für sich selbst mal nachvollziehen. Da brauchts dann auch keine wissenschaftlichen Berichte mehr dazu...



Antwort von domain:

Wir gingen eigentlich von Reflektionen aus.
Und dazu zählt weder eine aktiv leuchtende Fläche noch Eis und Schnee in direkter Beleuchtung, denn hier wird Sonnenlicht hauptsächlich prismatisch abgelenkt oder in einer Totalreflektion reflektiert und das entspricht dann im Extremfall, wie bei perfekten Spiegeln, der direkten Lichtquelle selbst und eben davon war bisher nicht die Rede.



Antwort von Roland Schulz:

Wir haben diskutiert welchen Belichtungsumfang das menschliche Auge leistet!!
...und nicht wer vielleicht mit ner ollen Varta Taschenlampe ne vergilbte Graukarte anleuchtet. Von mir aus stell in der Sonne nen weißes Blatt vor nen unbeleuchteten "langen" Tunnel, jede Wette dass auch das 6 Blenden übersteigt!

EDIT: ich habe zwar meine Meinung zu deren Produkten, aber der "Spyder Cube" mit "Loch" in der Sonne platziert wäre vielleicht auch noch ne Herausforderung für die ~6 Blenden Behauptung ;-):

http://spyder.datacolor.com/de/portfoli ... pydercube/



Antwort von iasi:


Nee, nee IASI, dieser "Blick aus dem Fenster" ist genauso eine Ausrede, wie das Praktikergetue oder dem, dass man eine Kamera selbst besitzen muss, um ein System zu verstehen.
Fs sind alles nur Totschlagargumente.

Du vereinfachst immer zu sehr und betrachtest nur einen Wert in einem komplexen System.
Ich bin jedenfalls in der Lage in einer sehr kontrastreichen Situation sowohl den Glühfaden einer Birne und die Details eines sehr dunklen Gegenstandes im Schatten wahrzunehmen. Dabei stelle ich dann vielleicht sogar die "Blende" ein, aber es geht.
Wichtig ist doch aber die Frage, welchen Kontrast ich dem Zuschauer au der Leinwand/dem Bildschirm bieten will.
Zudem muss die Kamera möglich viel des realen Kontrastumfangs einfangen, will ich in der Post die Gestaltungsmöglichkeiten haben, die moderne Software uns heute nun einmal bietet. Am End kann ich mich auch für den maximalen Kontrast Weiß auf Schwarz entscheiden. Nur brauche ich eben weit mehr Helligketsabstufungen beim Ausgangsmaterial, wenn ich entscheiden will, was Weiß und was Schwarz abgebildet wird.

Totschlagargumente sind doch eher aus dem Kontext gezogenen Werte, wie z.B. deine hier angeführten 6 Blenden.



Antwort von Roland Schulz:

Ich denke die 6 Blenden haben wir hier spätestens zum Mittag, wenn ein bisschen die Sonne rauskommt und der ein oder andere seine >= 6 Blenden Graufilter rauskramt, erledigt!

Falls Jott mitliest: Wie ist aktuell Deine Einschätzung zur Dicke der sonnenbestrahlten, schneebedeckten Eisdecke, die sich unter dem Ochs, der vorm sich schliessenden Tor der tiefen, unbeleuchteten Scheune steht, gebildet hat ;-)?!?! Wie ist der Stand zwischen Turbo S und weißem Hengst?? 3:0, 4:0... ;-)?!?! Unwichtig. Wichtig finde ich dass wir alle ein bisschen Spaß bei der Sache haben, diskutieren können, der ein oder andere auch was mitnimmt, uns trotzdem gegenseitig respektieren und auch mal unterstützen wenn"s mal in die gleiche, oft auch in die tatsächlich richtige Richtung geht.

Noch mal zurück zum Topic: "ich persönlich finde" xLOG zumindest bei den mir bekannten Sony Kameras (a6300/6500, FS5, FS7, F55...) sowie z.B. einigen DJI Ergüssen ganz besonders bei 8-bit für "ungünstig", würde immer eine Alternative in einer der Sehgewohnheit näheren Gammakurve suchen um so, "für mich" schneller und verlustärmer zu arbeiten.
Da das aber ein freies Land ist und jeder DoP oder Künstler seine Meinung und Präferenzen haben und verfolgen darf, ggf. mit xLOG besser, schneller und effektiver zurecht kommt, soll jeder das machen was er für richtig hält. "Gut finden" muss der der anderer Meinung ist das aber nicht.



Antwort von Roland Schulz:

>140 Posts bei >6900 Klicks, ist doch mal wieder nen Thema ;-)!!



Antwort von mash_gh4:


Richte ich den Blick jetzt wie im Bild dargestellt auf die Leuchtplatte, erkenne ich ganz klar dass das Licht durch den 2 Stop Filter merklich heller ist als das, welches durch den 10 Stop Filter kommt.
GLEICHZEITIG und OHNE ADAPTION erkenne ich aber auch, dass das Licht welches neben den Filtern emittiert wird nochmals heller ist als das Licht durch den 2 Stop Filter.

der ganz klassische versuchsaufbau zu diesem thema ist hier zu finden:

http://dust.ess.uci.edu/ppr/ppr_Bla46.pdf
(Contrast Thresholds of the Human Eye, H. RICHARD BLACKWELL, 1946)

die dortigen wurden zwar mittlerweile in vielerlei hinsicht verfeinert und verbessert, aber im wesentlichen hat es natürlich seine gültigkeit nicht verloren.

und auch wenn mich ein WoWu dafür immer der des feuilletonistischen darstellung verdächtigen mag, wird das auch von anderen oft nicht unähnlich beschrieben:

The Dynamic Range of the Eye

The Human eye is able to function in bright sunlight and view faint starlight, a range of more than 10 million to one. But this is like saying a camera can function over a similar range by adjusting the ISO speed, aperture and exposure time.

In any one view, the eye eye can see over a 10,000 range in contrast detection, but it depends on the scene brightness, with the range decreasing with lower contrast targets. The eye is a contrast detector, not an absolute detector like the sensor in a digital camera, thus the distinction. (See Figure 2.6 in Clark, 1990; Blackwell, 1946, and references therein). The range of the human eye is greater than any film or consumer digital camera.

Here is a simple experiment you can do. Go out with a star chart on a clear night with a full moon. Wait a few minutes for your eyes to adjust. Now find the faintest stars you can detect when the you can see the full moon in your field of view. Try and limit the moon and stars to within about 45 degrees of straight up (the zenith). If you have clear skies away from city lights, you will probably be able to see magnitude 3 stars. The full moon has a stellar magnitude of -12.5. If you can see magnitude 2.5 stars, the magnitude range you are seeing is 15. Every 5 magnitudes is a factor of 100, so 15 is 100 * 100 * 100 = 1,000,000. Thus, the dynamic range in this relatively low light condition is about 1 million to one, perhaps higher!

den satz, den ich hier hervorgehoben habe, sollte man nicht ganz übersehen, sonst werden die ganzen einsichten, die seit den forschungen der herrn weber und fechner zu diesem themenkomplex gesammelt wurden, einfach ausgeklammert.



Antwort von WoWu:

@RS

Das was Du da misst, sind nur Differenzen.
Der Mensch kann 2% Abweichung differenzieren. Du könntest also verschiedene 50 ND Filter vor Dein Pad schnallen und würdest 50 Unterschiede sehen.
Das sind aber keine 50 Blenden, für die Du das hältst.

Dein Pad müsste mehr als 680 Lumen/Watt erzeugen, um für diesen Test überhaupt geeignet zu sein, denn es geht hier um die maximale Helligkeit, die ein Mensch sehen kann.
Warum glaubst Du, wird HDR plötzlich in Nit angegeben wird ?
Weil es um Leuchtdichte geht und nicht darum, ob man die maximale Leuchtdichte in kleinen Portionen oder in wenigen großen Portionen erreicht.
Das menschliche Sehvermögen ist aber nun mal so, wie es ist und Helligkeit wird so wahrgenommen, wie sie wahrgenommen wird und das ist nunmal im Verdopplungsmodus.
Die Frage ist doch ... wieviel mal man Licht verdoppeln kann, bis die maximale Helligkeit erreicht ist, die ein Mensch noch differenzieren kann ... und das ist 6(6,5) mal.
Es geht also nicht darum, wieviele komprimierte Blenden ich darin unterbringe ... das wären in dem Fall 50 solcher Pseudoblenden.
Insofern betrachtet "Weber-Fechner" ein völlig anderes Problem.



Antwort von mash_gh4:


Insofern betrachtet "Weber-Fechner" ein völlig anderes Problem.

ja, den beiden herren ist es tatsächlich nicht darum gegangen, ihre vorgefassten und höchst eigenwilligen ansichten über die begrenztheiten der welt, allen einwänden und widersprüchlichkeiten zum trotz zum dogma zu erheben, sondern sich solchen fragen mit offenen augen zu stellen. speziell dem zweiteren von den beiden verdanken wir hier ja bekanntlich einsichten, die ziemlich viel mit dem zu tun haben, warum die nutzung von LOG-darstellung im zusammenhang mit visuellen sinneseindrücken überhaupt einen sinn macht.

übrigens brauchst du nur eine zeitung aufschlagen, die im s/w-druck "BILDER" wiederzugeben vermag, von denen man tatsächlich glauben könnte, dass sie abstufungen von grauwerten od. farben zeigen, obwohl doch in wirklichkeit nur eine einzige od. 3-4 druckfarben unter verwendung ausschließlich einer relevanten intensitätsabstufung hinsichtlich der reflexion am papier zur anwendung kommen.



Antwort von WoWu:

Gelaber.

Peinlich genug, dass Du Weber-Fechner in diesen Zusammenhang gebracht hast.
Das Einzige, was die W-F Gesetzmäßigkeit sagt, ist die "Just noticeable Difference", also den minimalen Helligkeitsunterschieden zwischen zwei Lichtquellen, um sie noch separieren zu können.
Nach Weber sind dies 1-2% Differenz.
Das hat mit der hier besprochenen Thematik absolut nicht zu tun.
Aber dein Einwand zeigt ein,al mehr, dass Du die ganze Thematik gar nicht beherrscht.
Und nun versuchst Du es wieder mit Polemik.



Antwort von dienstag_01:

Und nun versuchst Du es wieder mit Polemik.
WoWu hat vollkommen recht, das geht einem wirklich auf den Senkel.
Ich finde das Thema sehr interessant, diese Art Selbstdarstellung trägt in keiner Weise zur Erhellung bei.



Antwort von dienstag_01:

Das was Du da misst, sind nur Differenzen.
Der Mensch kann 2% Abweichung differenzieren. Du könntest also verschiedene 50 ND Filter vor Dein Pad schnallen und würdest 50 Unterschiede sehen.
Das sind aber keine 50 Blenden, für die Du das hältst.
Wieso sind das keine Blenden, vor der Linse sind sie es doch.
Versteh ich nicht.



Antwort von WoWu:

Das ist ja das häufige Missverständnis zwischen Tonwerten und Blenden.

1-2 % Differenz ist nach Weber vom Auge wahrnehmbar.
Es entspricht damit eher den Werten, die bei der Übertragung eingehalten werden müssen, also den Bilddetails. ( z.B Unterschied zwischen 8 und 10 Bit)
Eine BlendeBlende im Glossar erklärt ist aber immer eine Verdopplung der Lichtintensität.
Wird aber eine BlendeBlende im Glossar erklärt so stark komprimiert, dass der Abstand der Wertemengen größer wird und 2% von Quelle 1 zu Quelle 2 überschreitet, dann wird es als Banding sichtbar.

Es hat also mit Blenden, in der hier angesprochenen Problematik, absolut nicht zu tun- oder sagen wir, sehr begrenzt, weil sich die Frage mittlerweile wohl nur noch darum dreht, dass der Mensch mehr können soll, als er eigentlich kann.



Antwort von mash_gh4:

1-2 % Differenz ist nach Weber vom Auge wahrnehmbar.
Es entspricht damit eher den Werten, die bei der Übertragung eingehalten werden müssen, also den Bilddetails. ( z.B Unterschied zwischen 8 und 10 Bit)
Eine BlendeBlende im Glossar erklärt ist aber immer eine Verdopplung der Lichtintensität.
...
Es hat also mit Blenden, in der hier angesprochenen Problematik, absolut nicht zu tun...

das ist genau der punkt, in dem der hr. fechner die erkenntnise seines vorgängers ganz entscheidend verbessert hat:

"(2) besagt, dass bei einem exponentiellen Anstieg der Reizstärke ihre Empfindung E im Sinnesorgan nur linear anwächst."

https://de.wikipedia.org/wiki/Weber-Fec ... ner-Gesetz



Antwort von Roland Schulz:


@RS

Das was Du da misst, sind nur Differenzen.
...

Hallo Wolfgang,
sorry, aber wirklich überzeugen kannst Du mich nicht. Das Licht welches die "Leuchtplatte" mit einer über die Fläche relativ konstanten Lichtstärke emmittiert wird durch die aufgelegten ND3 und ND0.6 Filter einmal um 10 Blenden und einmal um 2 Blenden abgeschwächt.
Daraus resultieren über den Filtern Lichtstärken mit einer Differenz, einem Abstand von 8 Blenden zueinander. Das Licht oberhalb des ND0.6 Filters ist ~256 mal so hell wie das über dem ND3 Filter. "Mein Auge" kann zur gleichen Zeit statisch diese beiden Lichtstärken differenzieren, geht dabei noch nicht in eine "Sättigung" oder "Clip", da die nichtreduzierte/abgedeckte Fläche der Leuchtplatte eine weitere Steigerung und die nichtemmitierende Fläche (Rahmen Leuchtplatte) ebenfalls unter dem ND3 Filter als noch dunkler erkannt werden kann.
Mein Auge schafft es damit ein "Delta" bzw. eine Lichtstärkenerhöhung oberhalb einer Spanne von mehr als 8 Blenden oder dem Faktor 256 zu differenzieren.

Beim anderen Versuch mit einem ND1.8 oder ND2.4 Filter z.B. gegen Wolken mit Zeichung sehe ich ebenfalls statisch und zeitgleich im durch den Filter abgedeckten wie nichtabgedeckten Bereich Zeichnung in den Wolken, d.h. mein Auge kann auch hier einen Belichtungsumfang von mindestens 8 Blenden überbrücken.

Was jetzt für viele zuhause mangels Verfügbarkeit nicht so einfach nachzuvollziehen sein wird ist der Test mit der DR Wedge. Ich sehe dort mit "statischem" Blick (Wedge in Entfernung) die kompletten 17 Fenster mit unterschiedlichen Helligkeitsabstufungen, wobei das zugegeben "für mich" schon nicht ganz leicht "zu überblicken" ist. Sechs "Abstufungen" stellen hier aber überhaupt kein Problem dar.

Du schreibst absolut richtig (!!) dass das Auge hier nur Unterschiede zwischen den Helligkeitsstufen wahrnimmt, eine relative Beurteilung erlaubt - keine absolute wie es eine "kalibrierte" Kamera oder ein Meßgerät könnte. Ich würde auch nicht behaupten beurteilen zu können, ob eine betrachtete Lichtstärke doppelt oder n-mal so hoch wie eine andere ist, auch nicht benachbart in statischer Betrachtung!

Es reicht aber doch die relative Beurteilungsfähigkeit in statischer Szene aus, um den "Belichtungsumfang" des Auges in Blenden zu bewerten, wenn die Abstände der Eingangsgrößen bekannt sind und durch "sichtbare" Helligkeitsunterschiede durchs Auge noch differenziert werden können.
Ich sehe "hellere" oder "dunklere" Bereiche ohne im Rahmen der Möglichkeiten "geblendet" zu werden oder nahe "schwarz" nichts mehr zu sehen.
Mir reicht auch bei einer Kamera aus, Helligkeitsunterschiede im Motiv differenziert ohne Clip oben wie unten zu reproduzieren. Ich muss nicht zwingend wissen dass ein Körper bzw. eine Quelle genau n-cd von seiner Oberfläche emmitiert.

Eine Sache könnte allerdings interessant werden: was wenn die Fenster der DR Wedge in nicht kontinuierlich steigender oder fallender Reihenfolge angeordnet sind? Kann ein Mensch dann eine Zuordnung in Abhängigkeit der Helligkeit leisten? Das würde "ich" unbesehen nicht bestätigen, schon gar nicht über 16-18 Blenden!

Ich glaube am Ende ging"s hier aber darum (eigentlich ja um xLOG vs alternative Gamma) welcher Belichtungsumfang in Blenden vom Auge erfasst werden kann, ohne "oberhalb wie unterhalb" nichts mehr differenzieren zu können. Genau beziffern möchte ich das nicht, aber durch die von mir beschriebenen "Verfahren" habe ich zumindest "mir" nachgewiesen, dass es mehr als die im Raum stehenden 6 Blenden sind.

P.S.: finde ich echt gut dass ich noch nicht in Deiner Ignorelist gelandet bin ;-). Sehe das immer sportlich hier zwischen uns, habe Respekt und bin auch WIRKLICH NEIDISCH darauf wie Du deinen aktuellen Lebensabschnitt verbringst! Glaube das ist auch mein Ziel sowas später mal zu verfolgen!
Das wir öfter mal ne abweichende Meinung haben und teilweise bis an die Schublade (in der die Messer liegen) diskutieren sehe ich am Ende nicht als Weltuntergang an - wobei das manchmal echt anstrengend mit Dir sein kann ;-)! Weiterhin viel Spaß hier, und nimm die Mannschaft nicht zu hart ran ;-)!!
Gute Grüße!!



Antwort von WoWu:


1-2 % Differenz ist nach Weber vom Auge wahrnehmbar.
Es entspricht damit eher den Werten, die bei der Übertragung eingehalten werden müssen, also den Bilddetails. ( z.B Unterschied zwischen 8 und 10 Bit)
Eine BlendeBlende im Glossar erklärt ist aber immer eine Verdopplung der Lichtintensität.
...
Es hat also mit Blenden, in der hier angesprochenen Problematik, absolut nicht zu tun...

das ist genau der punkt, in dem der hr. fechner die erkenntnise seines vorgängers ganz entscheidend verbessert hat:

"(2) besagt, dass bei einem exponentiellen Anstieg der Reizstärke ihre Empfindung E im Sinnesorgan nur linear anwächst."

https://de.wikipedia.org/wiki/Weber-Fec ... ner-Gesetz

Sag mal ... merkst Du eigentlich noch was ?

@RS
Es ist nicht meine Intention, jemanden von irgend etwas zu überzeugen.
Die Fakten liegen für jeden offen und überzeugen muss sich schon jeder selbst.
Zu dem Thema ist eigentlich alles gesagt und verlinkt.
Lesen und verstehen muss schon jeder allein.

Und ... ja, ich denke das war eine meiner besten Entscheidungen, jetzt da zu sein, wo ich bin.



Antwort von Roland Schulz:


@RS
Es ist nicht meine Intention, jemanden von irgend etwas zu überzeugen.
Die Fakten liegen für jeden offen und überzeugen muss sich schon jeder selbst.
...
Und ... ja, ich denke das war eine meiner besten Entscheidungen....

Die offenliegenden Fakten "belegen", dass mein Auto mit 7,5l/100km fahrbar... sein soll...???
vgl.: http://www.porsche.com/germany/models/9 ... sandspecs/
Vom Gegenteil überzeugen tun mich "wieder meine Augen", beim Ablesen zum einen des Bordcomputers und zum anderen dem Stand auf der Tanksäule in Zusammenhang mit dem Kilometerzähler ;-)!!

Spielt aber keine Rolle, war trotzdem eine "sehr gute" Entscheidung weil"s einfach irren Spaß macht - u.A. deshalb bleibe ich auch noch ne Weile hier - glaube nen "paar Jahre" ;-) macht mir das hier alles auch noch Spaß - woanders ist auch nicht immer alles "grün"...

In diesem Sinne, streckt die Graufilter in den Himmel!!



Antwort von WoWu:

Nein, die Fakten belegen, das Du geglaubt hast, das das Auto, so wie Du fährst und unter den von Dir vorgegebenen Bedingungen, 7,5 l verbraucht. ;-)

Genauso fällst Du jetzt auf die komprimieren pseudoblenden rein.
Wie gesagt wenn es nach Deiner Rechnung ginge, könnte der Mensch 50 Blenden sehen.

Glaub mir, die Zusammenhänge, die Du konstruierst stimmen einfach nicht. Du verwechselst Tonwerte mit Blenden.

Hast Du mal gechecked, ob sich die 7,5l nicht auf das Öl beziehen? ;-)



Antwort von Roland Schulz:

Das erste Triebwerk hat zu seinem Ableben ~7,5l Öl auf der Straße verteilt ;-)! Nein, ist zum Glück nicht bei "Überschall" passiert sondern völlig kurios nach dem Ausparken beim Umschalten in den Vorwärtsgang, Öl ist aber keins ausgetreten. Der zweite Motor/PDK ist jetzt aber artig, wobei das Vertrauen erstmal komplett danieder war und nein, ich habe nie daran geglaubt damit irgendwie in den Bereich von 7,5l zu kommen ;-). Das schafft man hier wirklich nur abschnittweise im Landstraßen Teillast-/Schubbetrieb und auch nur dann, wenn keine Ampeln oder Trecker oder Krötenwanderungen im Weg sind!

Zurück zum Thema, glaube irgendwas steht noch falsch im "Äther". Wie meine Rechnung aussehen soll dass damit theoretisch 50 Blenden für den Menschen sichtbar werden habe ich noch nicht geblickt.
Um das so wie von mir beschrieben zu praktizieren müsste auf der Leuchtplatte dann z.B. ein Filter mit 2 Stops und der andere mit 52 Stops liegen, die Differenz wären dann die 50 Blenden.
Das brauchen wir aber nicht weiter zu vertiefen da ein theoretisch existierender 50 Stop Filter SCHWARZ ist!

Im anderen beschriebenen Beispiel würde man einen 50 Blenden Filter halb vor die besonnte Wolke (oder sonstwas kontrastvolles, helles) halten - aber auch dann wäre die "halbe Wolke" natürlich schwarz!

Ich will den 6+ Stop Filter vor die Wolke halten und dann mit nem "halben Blick" durch den Filter und mit dem anderen halben Blick danebenher auf die Wolke schauen.
Die Wolke wird in dem abgedeckten Bereich dann um 6 Blenden abgedunkelt.
Wenn ich dann in beiden "Teilbildern", die ich ja simultan sehe, noch Zeichnung in der Wolke differenzieren kann, beträgt der Dynamikumfang meines Auges mindestens 6 Blenden, wieviel darüber hinaus kann man dann noch nicht sagen.
Nimmt man dann von mir aus einen 20 Stop dichten Filter wird man in dem abgedeckten Teilbild wahrscheinlich nichts mehr sehen, sondern nur schwarz oder Reflexionen (im Filter) aus dem Bereich hinter dem Betrachter bzw. der Umgebung. Ein Nachweis des halben Wolkenbildes wird hier wahrscheinlich nicht mehr möglich sein.
Also beträgt der Belichtungsumfang des Auges möglicherweise nicht mehr als 20 Stops (bewusst so "vorsichtig" ausgedrückt).

Wie sollten die von Dir angedeuteten theoretischen 50 Blenden konstruierbar sein?



Antwort von iasi:

jetzt sind wir aber ganz schön weit vom eigentlichen Thema abgeschweift



Antwort von WoWu:

Iasi
Ich gebe Dir da Recht und will das auch nicht weiter vertiefen, aber Roland sieht eben die 16 Blenden, die in einem Lichtrahmen zusammengefasst sind, der 6 Blenden nicht überschreitet, weil Weiß zb. nur bei 60% liegt und die übrige Menge an Blenden auch nur geringe Wertemengen haben.
Er sieht also eigentlich nur eine Abstufung und wenn man einmal beim menschlichen Auge bleibt, kann der Mensch jede Abstufung sehen, die zwischen 1 und 2% Helligkeitsunterschied liegt.
Er kann also bei 100% etwa 50 komprimierte Blenden.
Dass dann jede BlendeBlende im Glossar erklärt nur auf Banding besteht, steht auf einem ander Blatt und da kommt mash's Einwand ins Spiel. Fechter hat nämlich festgestellt, dass bei hohen Lichtwerten, also viel Licht, das Auge viel schneller Banding sieht als bei dunklem Licht. Die Auflösungsgenauigkeit (werteverteilung in der Übertragung) ist also bei hellen Bildanteilen viel wichtiger, als bei dunklen Bildanteilen.
Das wird gerade bei HDR zum Problem und schlägt sich als Resultat in der Bartenkurve nieder, die auf diesen Erkenntnissen aufsetzt.
Aber das hat absolut NICHTS damit zu tun, wieviele Blenden der Mensch sehen kann und das sind nun mal 6+ ohne und (meinetwegen) 8-10 mit Adaption.
Wie gesagt, das ist LICHT und keine komprimierten Übertragungswerte auf einem Monitor, dernicht mal soviel Licht absondert, dass das Auge überhaupt in die Adaption getrieben wird.
Aber, wie gesagt, vielleicht sollten wir es wirklich jetzt dabei belassen.



Antwort von Funless:

Am faszinierendsten in dieser ganzen Diskussion bzgl. unserer Wahrnehmung von Licht finde ich, dass wir hier von Photonen reden, die zwar nur (im Mittel) etwas über acht Minuten benötigen um von der Photosphäre unserer primären Lichtquelle (der Sonne) bis zu uns zu gelangen aber vom Sonnenkern bis zur Photosphäre über tausend Jahre benötigen.

Im Vergleich dazu finde ich persönlich die Frage wieviele Blenden das menschliche Auge letztendlich sehen kann recht belanglos.

Meine Meinung ...



Antwort von WoWu:

Na ja, deswegen sind auch so viele LOG Produktionen mausgrau.
Da gibt es wohl noch mehr Leute, die das nicht interessiert.
Muss ja auch nicht, wenn man das alles nur zum Spaß macht und sich über das, was hinten rauskommt, seine Freude hat.



Antwort von iasi:

Ich sag"s mal banal und einfach:
Bei meiner BMCC wird auch mit ProResProRes im Glossar erklärt ohne log der DR recht ordentlich übertragen. Mehr DR hat die GH5 auch nicht.
Mehr als einen weichen Übergang in den Lichtern vielleicht durch KneeKnee im Glossar erklärt, brauche ich nicht.

Bei 8bit ist log aus meiner Sicht eine Krücke.

Dieses ganze log und LUT führt doch auch nur dazu, dass meist nicht wirklich richtig in der Post gestaltet wird.



Antwort von domain:

Habe nochmals etwas recherchiert.
Es wird zwischen Intraszenendynamik und Interszenendynamik unterschieden. Bei der Betrachtung eines einzelnen Bildes (Intra...) und unter der Voraussetzung, dass das Auge nicht bewegt wird, also weder die IrisIris im Glossar erklärt angepasst werden kann, noch die rasante und noch nicht geklärte "ISO-Anpassung" im Millisekundenbereich greifen kann, beträgt lt. englischer Wikipedia die Dynamikfähigkeit des Auges tatsächlich nur 1:100, das sind 40 db oder 6,6 Blendenstufen. Das ist der Fall, wenn man direkt neben einer (entfernten) Lichtquelle eine dunkle Region hat in der man noch Kontrastunterschiede erkennen will.
Das ist aber schon nicht mehr der Fall, wenn man das Bild blitzschnell mit dem Auge abscannt und die vorgemerkten Puzzlestücke im Hirn wieder zusammensetzt werden, das entspricht dann schon eher der Interszenendynamik inklusive dem zeitlich verzögererten Eintreffen der Teilbilder.
Teufel auch, das war jetzt aber ein ergiebiges Thema :-)



Antwort von wolfgang:


Ich spar mir das jetzt hier, von wertdiskreter Signalverarbeitung scheinst Du zu weit weg zu sein wobei die Probleme bei 10-bit natürlich geringer ausfallen als bei 8-bit im a6300 Thread. Faktor 4 (2 stops) haste aber trotzdem auch schnell beim Skalieren erledigt, soviel dazu.
Jetzt noch mal zurück in die Vergangenheit - wozu hat man nochmal Übertragungsfunktionen wie REC.709 erfunden, wozu war das nochmal gut...?!?!
Warum gefällt meinen Augen x-LOG erst nach 3 Kästen Bier?!?! Weil ich dann ständig vorbeigucke?!?!

Die ganzen x-LOG Whitepapers kenne ich, frage mich nur warum jede S-LOG LUT dann irgendwie doch anders aussieht, ne a6500 in S-LOG2 auch anders rauskommt als ne a7s oder ne FS7 - tja, ob wir's jemals erfahren?!

Barry Green, na das ist ne Referenz!!! Der Kollege kann aus 8-bit 4:2:04:2:0 im Glossar erklärt UHD Material locker 10-bit 4:4:44:4:4 im Glossar erklärt FHD Footage zaubern, Panasonic hat sogar ne Veröffentlichung darüber publiziert ;-) ;-) ;-)!!
Ich hab ihm dann bei dvinfo.net erklärt dass der Schwachsinn nicht funktioniert!!
Gut, jeder macht mal Fehler...
Alister Chapman "ist Sony", da kannste auch die White Papers lesen und glauben, wobei der Freund sehr sympatisch ist!!

Also wer auf diesem Niveau diskutiert und uns den Blödsinn erzählt, dass nicht der Sensor sondern eine Übertragunsfunktion rauscht, dann aber mit Bierkisten argumentiert oder irgendwelche Leute niedermachen muss die gar nicht da sind, verliert jeden Anspruch darauf überhaupt ernst genommen zu werden.

Sei weiter dagegen. Ist dein gutes Recht. Aber in der Zwischenzeit können andere durchaus sinnvoll mit so Dingen wie slog arbeiten.



Antwort von wolfgang:



Wenn man wissen will wie man das Material tatsächlich belichten soll, dann finden sich dazu genug Anleitungen im Netz. ...für v-log etwa die Anleitung von Barry Green zur DVX200. Wenn man das also wirklich wissen will, scheitert man heute absolut nicht daran genug brauchbare Infos zu finden.
http://pro-av.panasonic.net/en/dvx4k/pd ... ol6_en.pdf

...mal wieder Belletristik voller Widersprüche, schon in den ersten drei Abschnitten. Belegt schon Kompetenz sowas zu referenzieren.
Zudem glaube ich nicht, dass Du wirklich alles gelesen bzw. verstanden hast was Barry da schreibt bzw. welche Türen er offen lässt, sonst würdest Du den "Text" nicht als eine Art "Referenzanleitung" hier anpreisen.

EDIT: "Increased Color Resolution And BitBit im Glossar erklärt Depth" (p.3) war der "erste" Knaller von Barry Green, tatsächlich immer noch online:
http://pro-av.panasonic.net/en/dvx4k/pd ... ol1_en.pdf

Also fassen wie mal Zusammen: ein Alister Chapman ist für dich ein Idiot. Ein Barry Green offenbar ebenso.

Seltsamerweise sind diese Namen international durchaus anerkannt. Aber natürlich nicht mehr mach einer Kritik wie der deinen.

Soviel Arroganz muss man auch erst mal aufbringen.



Antwort von wolfgang:


@Wolfgang

"Ach und hast auch die Einschränkung gemacht dass das Auge gefälligst nicht zu adaptieren hat? Mal abgesehen dass keiner versteht wie das in der Praxis gehen sollte."

Jetzt hab ich das endlich verstanden warum der Mensch mehr als 6 Blenden sehen kann, weil Du ADAPTION noch nicht richtig verstehst.

Das ist so, als wenn Du sagst, Deine Kamera kann 24 Blenden wenn Du das ND Filter draufsteckst.
Alles klar.
Übrigens kann der Mensch dann mit Schweisserbrille ungefähr 60 Blenden.

Hast Du noch gar nicht kapiert, dass Adaption den 6 Blenden Bereich immer nur "verschiebt", das es aber in jeder Licht- Situation, also immer, 6 Blenden bleiben.

Die postet man hier auch immer wieder Quellen, die
A) sogar grafisch aufbereitet dass das menschliche Auge 12-14 Stufen kann,
Und zwar
B) nach erfolgter Adaption.

Nicht nur, dass du das hartnäckig ignorierst und weiter den In der Praxis leicht widerlegbaren Unsinn von 6 Blendenstufen verbreitest. Du hältst es aber umgekehrt nicht mal für nötig mal irgendeine Quellenangabe für deine Behauptung anzugeben. Denn mich und vielleicht auch Andere würde das mal wirklich interessieren woher du die Behauptung, dass das menschliche Auge nur 6 Blendenstufen wahrnehmen kann, eigentlich hast.



Antwort von dienstag_01:


Habe nochmals etwas recherchiert.
Es wird zwischen Intraszenendynamik und Interszenendynamik unterschieden. Bei der Betrachtung eines einzelnen Bildes (Intra...) und unter der Voraussetzung, dass das Auge nicht bewegt wird, also weder die IrisIris im Glossar erklärt angepasst werden kann, noch die rasante und noch nicht geklärte "ISO-Anpassung" im Millisekundenbereich greifen kann, beträgt lt. englischer Wikipedia die Dynamikfähigkeit des Auges tatsächlich nur 1:100, das sind 40 db oder 6,6 Blendenstufen. Das ist der Fall, wenn man direkt neben einer (entfernten) Lichtquelle eine dunkle Region hat in der man noch Kontrastunterschiede erkennen will.
Das ist aber schon nicht mehr der Fall, wenn man das Bild blitzschnell mit dem Auge abscannt und die vorgemerkten Puzzlestücke im Hirn wieder zusammensetzt werden, das entspricht dann schon eher der Interszenendynamik inklusive dem zeitlich verzögererten Eintreffen der Teilbilder.
Teufel auch, das war jetzt aber ein ergiebiges Thema :-)

WoWu schreibt da etwas deutlicher, dass das Auge immer nur diese 6+ Blenden sieht, beim wandern über ein Bild verschiebt sich dieses Kontrastfenster nur (nach oben oder unten).
Zumindest verstehe ich es so.



Antwort von WoWu:

@Wolfgang
Ach, Wolfgang .. werd' doch nicht albern.
Du wirfst Andern vor, ihre Quellen nicht zu posten und selbst benutzt Du einfach nur wohlklingende Namen (Allister Chapman , Barry Green), und suggerierst damit, allerdings auch ohne Quelle, dass Deine Behauptungen stimmen.
Zei mir doch mal die Stelle auf, in der einer der Beiden behauptet, der Mensch könne, wie von Dir behauptet, 24 Blenden (wenn ich mich da recht erinnere).
Wobei immer die Frage ist, welche Menge in welcher Adaption stattfindet, denn es bringt überhaupt nicht, wenn Helladaption innerhalb eines Gesamtrahmens stattfindet und unten die Blenden rausrutschen.
Es wäre also hilfreich, wenn Du auch mal den Effekt der Adaption betrachten würdest.
Abgesehen davon, dass Dein ganzer Vorwurf offenbar darauf beruht, dass Du die Postings nicht komplett liest.
Ich habe zwei Links angegeben, ein Wickipedia und einen der Uni Dortmund, der Unterlagen aus Semestermaterial in Medizinphysik darstellt, also nicht aus irgendwelchen Blogs von Anwendern, die das, was sie sehen, einfach mal so schätzen. Das ist nämlich Praktikergehabe, hinter dem Du Dich immer gern verschanzt, aber leider ohne Substanz.
Lies also mal.
Ansonsten bist Du willkommen, wenn Du ähnlich zuverlässiges Material postest, das Deine Behauptungen stützt.
Einfach nur mit Dreck werfen, ist in einer Diskussion kein intellektuelles Argument sondern nur infantile Diskussionskultur.

@domain

Das mag in geringem Umfang zutreffen weil Adaption ja eine zeitliche Funktion ist und die ersten kleinen Memgen auch sehr schnell durch die Pupille durchgeführt werden aber hier geht es ja um Grössenornungen und nicht um eine oder zwei Stellen hinter dem Komma und wenn man den Kurven mal auf der zeitlichen Achse folgt, dauert das mehrere Stunden, bis der chemische Prozess tatsächlich signifikante Blendenmemgen umgestellt hat.
Wenn der Pupilleneffekt ausreichend wäre, würde man bei einer Nachtfahrt von entgegenkommenden Scheinwerfern nicht mehr geblendet werden und nach wie vor ausreichend im dunkel der Nacht erkennen, aber der Blendenbereich ist eben zu klein, um in so kurzer Zeit umgestellt zu werden.



Antwort von domain:

@ Dienstag
Ja natürlich, sehe ich auch so, aber erst im Ultrakurzeitspeicher des visuellen Zentrums werden die ev. Kontrastfenster zusammengesetzt bzw. verrechnet und bewusst empfunden. Überhaupt scheint der visuelle Apparat inkl. der Datenverarbeitung und der fast schlagartigen Empfindlichkeitsänderungen ohne Pupillenreaktion viel komplexer zu sein als wir glauben.



Antwort von prandi:

Ja so ist er halt da Wolfgang :)... Normalerweise kommt jetzt eine 2 Seitenlange Abhandlung die meist am eigentlichen Thema vorbeigeht...bin schon gespannt :-))



Antwort von iasi:



Wenn der Pupilleneffekt ausreichend wäre, würde man bei einer Nachtfahrt von entgegenkommenden Scheinwerfern nicht mehr geblendet werden und nach wie vor ausreichend im dunkel der Nacht erkennen, aber der Blendenbereich ist eben zu klein, um in so kurzer Zeit umgestellt zu werden.

Das ist aber ein heftiger Vergleich. Da hast du schließlich einen Kontrast, der sehr hoch ist.
Lichtquelle zu dunkler Nacht.
Wie hell ist ein Autoscheinwerfer?

Was das Auge leisten kann, lässt sich doch grob recht einfach testen: Eine schwarze Lautsprecherbox in der dunklen Ecke innen, dann schnell den Blick aus dem Fenster auf die Wolken gewandt.
Hier liegen weit mehr als 6 Blenden dazwischen.



Antwort von WoWu:

Zum Ultrakurzzeitspeicher gibt es übrigens eine witzige Darstellung, aus der man die Wirkung erkennen kann aber eben auch, wie schnell der Effekt vergeht. Nach Kroeber-Riel ist die kognitive Kontrolle nur eben zwischen 0,1 und 1 Sekunde ausgesetzt.

IASI .. das Beispiel sollte nur geeignet sein zu zeigen, dass bei einem Start der Adaption der Wertebereich sich sofort beginnt zu verändern und bereits im Nachtbereich nicht mehr gesehen werden kann.
Adaption heist also nicht ERWEITERUNG des Umfangs, wie Wolfgang uns das glauben machen will.
Der bleibt bei den 6+ Blenden.
Es ging also nur darum darzulegen, dass man im Nachtbereich ausreichend sehen konnte, bis die Adaption einsetzt.



Antwort von mash_gh4:


Ich habe zwei Links angegeben, ein Wickipedia und einen der Uni Dortmund, der Unterlagen aus Semestermaterial in Medizinphysik darstellt, also nicht aus irgendwelchen Blogs von Anwendern, die das, was sie sehen, einfach mal so schätzen.

ich hab weiter oben allerdings auch schon quellen genannt. die den von dir genannten wikipedia-angaben ganz klar und eindeutig widersprechen! -- aussagen von r. n. clark, dem ich den wissenschaftlichen anspruch in seinen diesbezüglichen ausführungen im kapitel über das menschliche auge in "Visual Astronomy of the Deep Sky" nicht so ohne weiteres absprechen würde.

ich habe auch den eindruck, dass in der seriöseren literatur vereinfachende angaben zu dieser frage generell vermieden werden. dass dürfte nicht ganz zufällig passieren, sondern vielmehr der komplexität der hier wirksamen zusammenhänge zuzuschreiben sein. es ist ja nichts ungewöhnliches, wenn man von einschlägigen experten auf eine frage die antwort erhält, dass man an dinge grundsätzlich anders herangehen muss, bzw. die frage od. generelle betrachtungsweise anders formulieren sollte, um sie tatsächlich vernünftig beantworten zu können.

und dann gibt's noch diese aussage von dir:

Er sieht also eigentlich nur eine Abstufung und wenn man einmal beim menschlichen Auge bleibt, kann der Mensch jede Abstufung sehen, die zwischen 1 und 2% Helligkeitsunterschied liegt.
Er kann also bei 100% etwa 50 komprimierte Blenden.
Dass dann jede BlendeBlende im Glossar erklärt nur auf Banding besteht, steht auf einem ander Blatt und da kommt mash's Einwand ins Spiel. Fechter hat nämlich festgestellt, dass bei hohen Lichtwerten, also viel Licht, das Auge viel schneller Banding sieht als bei dunklem Licht. Die Auflösungsgenauigkeit (werteverteilung in der Übertragung) ist also bei hellen Bildanteilen viel wichtiger, als bei dunklen Bildanteilen.

dem würde ich ganz klar widersprechen. ich glaube , dass fechner genau das gegenteil behauptet hat! -- was sich ja auch der entsprechenden formel sehr einfach entnehmen lässt bzw. mit der hier diskutierten sinnhaftigkeit der log darstellung von helligkeitsangaben in unmittelbarem zusammenhang steht.



Antwort von Roland Schulz:

Also, auch wenn ich als Dipl. Ing. mit meinem "Praktikergetue" nicht als Wissenschaftler akzeptiert werden werde ;-) nochmal ein letzter Versuch hier ein paar Mitkämpfende davon zu überzeugen, dass zumindest ich nach den "Fakten" die mir meine eigenen Augen liefern, selbst davon überzeugt bin, dass das menschliche Auge bei statischer Betrachtung ohne Adaption deutlich mehr als 6 Blenden erfassen kann.
Wer geeignete Graufilter und z.B. ein Smartphone mit hellem Display hat kann das sicherlich auch gerne mal wie gezeigt nachvollziehen.

IMG_1533.JPG

Auf dem idealerweise hellstmöglich eingestellten Display, welches einen einfachen, dreistufigen GrauverlaufGrauverlauf im Glossar erklärt zeigt, wird halbüberdeckend ein Graufilter mit mehr als 6 Blenden Reduktion aufgelegt.
Lassen sich jetzt im idealerweise abgedunkelten Raum gleichzeitig ohne Wandern mit dem Auge wie dargestellt 6 verschiedene Helligkeitsabstufungen erkennen, ist die Erfassungsdynamikumfang des Systems (Auge/Gehirn oder Kamera) größer als der Reduktionsfaktor des Filters, da in der hellsten und dunkelsten Darstellung noch "Zeichnung" ohne Clipping in beide Richtungen erkennbar ist und der Helligkeitsabstand zwischen den Tripeln der Anzahl in Blenden des Reduktionsfaktors des Filters entspricht!

Das wird "mir" niemand ausreden können, auch keine Abfassung irgendeines "Wissenschaftlers".
Wir dürfen bei all dem auch nicht vergessen das der ein oder andere "Nichtwissenschaftler" schon wertvolle Erfindungen geleistet hat, ich selbst schon Putzfrauen für sehr gute Ideen belohnt und Doktoren "auf's Pferd" geholfen habe.

BTW: o.g. Versuch kann ich bis über 12 Blenden nachvollziehen und da wäre noch Luft bis ~14 denke ich, hab aber leider keine passende Filterkombi hier zum testen. 16 Stops sehe "ich" nicht mehr, meine Partnerin dagegen "angeblich" ;-) schon noch, nur kann ich das nicht überprüfen.



Antwort von WoWu:

Roland
Das was Du uns da zeigst sind Grauwertabstufungen, also möglicherweise über viele Blenden, jetzt aber komprimierte Werte.
Davon kann der Mensch ungefähr 1000 differenzieren.



Antwort von iasi:


IASI .. das Beispiel sollte nur geeignet sein zu zeigen, dass bei einem Start der Adaption der Wertebereich sich sofort beginnt zu verändern und bereits im Nachtbereich nicht mehr gesehen werden kann.
Adaption heist also nicht ERWEITERUNG des Umfangs, wie Wolfgang uns das glauben machen will.
Der bleibt bei den 6+ Blenden.
Es ging also nur darum darzulegen, dass man im Nachtbereich ausreichend sehen konnte, bis die Adaption einsetzt.

Spielt es denn eine Rolle, wie wir in der Lage sind, auch bei hohen Kontrasten in dunkeln und auch in hellen Bereichen Details wahrzunehmen?
Deine angeführten 6 Blenden sind "Momentaufnahmen" - aber das Auge kann diese 6 Blenden eben über einen größeren Bereich "verschieben".
Was dann aber eben nicht dem natürlichen Seheindruck entspricht, ist wenn der Schnee völlig Weiß und ohne Zeichnung ist - denn das Auge ist nun einmal in der Lage zu adaptieren - selbst wenn der Blick zunächst in den dunklen Wald gerichtet war.
Für das Filmbild bedeutet dies eben, dass es z.B. in de Totalen sowohl Zeichnung im Wald, als auch im Schnee bieten muss, wenn eine Person aus dem Wald heraus in den Schnee läuft.



Antwort von Roland Schulz:


Roland
Das was Du uns da zeigst sind Grauwertabstufungen, also möglicherweise über viele Blenden, jetzt aber komprimierte Werte.
Davon kann der Mensch ungefähr 1000 differenzieren.

Hallo Wolfgang,
die Grauwertabstufungen sind nur Mittel zum Zweck, der Abstand zwischen den Grauwerten spielt nur soweit eine Rolle, dass das System (Auge/Gehirn oder Kamera) diese differenzieren kann um sicherzustellen, bei der Betrachtung nicht bereits in die komplette Weiß- oder Schwarzgrenze zu laufen. Man muss also noch Zeichnung/Unterschiede erkennen damit das erkannte Ergebnis valide ist.
Die Helligkeit der Balken wird dann durch den halbüberlappenden Filter um den Reduktionsfaktor des Filters abgesenkt, die Balken sind im überlappenden Bereich dann beim ND3 Filter um 10 Blenden/Lichtwerte dunkler als im nichtüberlappenden, freien Bereich.
Erkennt man bei der Betrachtung jetzt gleichzeitig sechs verschiedene Abstufungen, liegt der Dynamikumfang des Systems/Auges bei mindestens der Blendenanzahl, um welche der Filter Licht reduziert.



Antwort von WoWu:

Iasi,
Nee, Iasis, das ist eben nicht egal. Gerade das macht ja so manche HDR Aufnahme so künstlich, weil es eben nicht dem normalen Seheindruck wiedergibt.
Nicht umsonst hältst Du bei hellem Licht die Hand an die Stirn als Sonnenblende und erst dann erkennst Du Details, die im Dunklen liegen. Und auch nur in dem Umfang der jetzt neu adaptierten Werte, weil Du (in Deinem Bild gesprochen, den Schnee durch die Hand verdeckt hast und gar nicht mehr siehst.

Abgesehen davon sind das ja zwei losgelöste Themen, die Blenden der Nachbearbeitung und die des realen Lichtes.
Das, was das Auge reagieren lässt ist Leuchtstärke, oder wie immer Du da nennen willst.
In einem komprimierten Signal ist es aber nur das Doppelte von "irgendwas" denn Weiß eines Monitors entspricht nicht der Leuchtkraft, der Energie, die das reflektierte Weiß in der Realität erzeugt.
Daher ja auch der Ansatz bei HDR mit Licht, also Hintergrundbeleuchtung zusätzliche Lichtenergie frei zu setzen.
Sonst könnten wir ja auch jede Aufnahme über 6 Blenden HDR nennen, weil es bereits das Licht höher auflöst als der Mensch.

@Roland
Sorry, aber Du genau diesen Fehler, in Abstufungen zu denken und nicht in der Verdopplung von Lichtenergie, also eine völlig analoge Sache, die auch in Videosystemen nur in der Beziehung Objektiv/Sensor vorkommt.
Daher auch oben mein Hinweis, bei welcher Energie die Blendung des menschlichen Auges einsetzt.
Insofern sind diese beiden "Blenden", also die, die durch Licht entstehen und die, die durch KompressionKompression im Glossar erklärt entstehen, gar nicht vergleichbar.



Antwort von mash_gh4:


Also, auch wenn ich als Dipl. Ing. mit meinem "Praktikergetue" nicht als Wissenschaftler akzeptiert werden werde ;-)

ja -- ich hab auch immer wieder des gefühl, dass man auf unis eigentlich lernen sollte, informationen kritisch zu hinterfragen und in plausibler bzw. nachvollziehbarer und überprüfbarer weise zu argumentieren...

jedenfalls hab ich mir jetzt auch noch die mühe gemacht, die revision history des von WoWu herangezogenen engl. wikipedia-eintrags durchzusehen, um herauszufinden, wer für diese irreführende bzw. kaum haltbare behauptung der 6 1/2 blenden dynamic range verantwortlich ist? leider war das aber ziemlich fruchlos, weil diese angaben gleich in der ersten version des artikels niedergeschrieben wurden, und seit damals -- ganz zu recht, wie ich glaube -- den vermerk "" tragen. eigentlich sollte der betreffende abschnitt aus diesem grund ja irgendwann einmal automatisch entfernt werden, nur ist das halt offenbar bisher noch nicht passiert.



Antwort von Roland Schulz:

Eigentlich wollte ich nicht wieder viel Zeit in ein Diagramm investieren - aber weil ich so"n lieber Roland bin ;-) hab ich doch ne Runde ge-CorelDraw-ed ;-)!

Wenn wir uns nochmal den "Testaufbau" ansehen, "helles" Display mit drei verschieden hellen Balken, diese werden ~halb mit einem n-Stop ND-FilterND-Filter im Glossar erklärt abgedeckt...
IMG_1533.JPG

...dann ergibt sich daraus folgendes:
EV_exam.PNG

Das Diagramm zeigt die Helligkeit der drei Balken, links einmal durch den ND-FilterND-Filter im Glossar erklärt abgedeckt, rechts unabgedeckt.

Die abgedeckten Balken sind jeweils um n-Lichtwerte/Blenden/EVs reduziert, weil der ND-FilterND-Filter im Glossar erklärt einfallendes Licht um n-Lichtwerte reduziert.
Es wird nichts "komprimiert" oder gestaucht, alles wird im logarithmischen System um n-Blenden linear herabgesetzt.
Die Abstände der Balken innerhalb der Balkentripel zueinander bleiben im logarithmischen System gleich.

Der Dynamikumfang des erfassenden Systems (Auge/Gehirn, Kamera...) ist so groß, so lange alle insgesamt 6 Schattierungen gleichzeitig differenzierbar bleiben. Der Abstand der Balkentripel zueinander kann durch den Reduktionsfaktor des ND-Filters variiert werden.

Wächst die Helligkeit des Displays oder der Reduktionsfakor des ND-Filters jetzt so weit an, dass der jeweils mittlere der 6(!!) Balken die obere- oder untere Differenzierungsgrenze berührt, kann das System (Auge/Gehirn, Kamera) keine weitere Differenzierung im Bereich des Reduktionsfaktors des Filters mit n-Blenden mehr garantieren. Die Grenze des Dynamikbereiches des Erfassungssystems ist erreicht.

Mit einem ND-FilterND-Filter im Glossar erklärt (ggf. Kombination) mit Reduktionsfaktor größer 6 Blenden und kleiner des Dynamikbereiches des Erfassungssystems lässt sich so für jeden individuell nachweisen, dass der Erfassungsbereich des wahrscheinlich durchschnittlichen, menschlichen Auges mehr als 6 Blenden beträgt. Punkt.

EDIT: Anhang eingefügt



Antwort von WoWu:

Dann sollte man dringen auch der UNI Dortmund Bescheid geben, dass die so einen Quatsch nicht mehr lehren.
Und auch die ganzen, in diversen Publikationen auftauchenden Darstellungen der Adaption sollten dringen neu grafisch dargestellt werden, um solche Verwirrungen auszuräumen.
Und auch die Reflektion von Schwarz und weiß sollte man nochmal revidieren, dass bei 6 Verdopplungen nicht mehr 100% dabei herauskommt, sondern 25.600%
Andernfalls sollte man in Frage stellen, ob eine BlendeBlende im Glossar erklärt wirklich die Verdopplung des Lichtes bedeutet, denn nach Deiner Auffassung , Roland, stimmt das ja alles nicht mehr.
Ich geb' s jetzt auf. Das Thema scheint doch schwieriger zu sein, als es im ersten Augenblick scheint.
Ich werd' in meinen Seminaren jedenfalls weiter 6 Blenden angeben und befinde mich da wohl mit so manchem Kollegen in bester Gesellschaft.



Antwort von Roland Schulz:


...
Andernfalls sollte man in Frage stellen, ob eine BlendeBlende im Glossar erklärt wirklich die Verdopplung des Lichtes bedeutet, denn nach Deiner Auffassung , Roland, stimmt das ja alles nicht mehr.
...

Ich habe nirgends behauptet, dass eine BlendeBlende im Glossar erklärt nicht der Verdoppelung/Halbierung des Lichtes entspricht, das gilt so per Definition.
Deshalb arbeiten wir auch im logarithmischen System, deshalb habe ich meine y-Achse auch mit einer logarithmischen Einheit versehen.

Also ich stehe hinter meiner Darstellung und dem Versuch, sehe keinen Fehler. Den Versuch kann auch (fast) jeder für sich mal nachvollziehen.

Wolfgang, vielleicht hast Du dich irgendwo verrannt indem du die Helligkeit linear betrachtest. Die prozentualen Abstände nehmen dann tatsächlich bei kleiner werdenden Werten ab.
Dann dürfen wir aber auch nicht mehr über verdoppelnde/halbierende Blenden sprechen.



Antwort von WoWu:

Ach, ich dachte, da sei nicht komprimiert ?
Was ist denn ein LOG ?
Das ist KompressionKompression im Glossar erklärt in Reinkultur.
Roland, ich spreche von dr Funktion des Auges ... die ist nun mal, wie sie ist.
Wir reden hier seit 6 Seiten über die menschliche Wahrnehmung.
... Nur so als Information.



Antwort von Roland Schulz:


Ach, ich dachte, da sei nicht komprimiert ?
Was ist denn ein LOG ?

siehe EDIT vom 19:16/19:21 Post...



Antwort von Roland Schulz:

7780 Views :o)... !!!



Antwort von Roland Schulz:


...
Wir reden hier seit 6 Seiten über die menschliche Wahrnehmung.
... Nur so als Information.

...ich dachte wir reden seit 6 Seiten über xLOG vs. "vernünftiges Gamma" ;-) (!!!)...
...und um den Belichtungsumfang den das menschliche Auge wahrnehmen kann und der meiner Überzeugung nach >>6 Blenden beträgt.
Vielleicht konnte ich damit auch noch ein paar andere überzeugen...

Wolfgang, scheiss drauf, war interessant, wir haben wiedermal unsere eigene Meinung ;-) und (wir alle) haben dem Forum ~8k (!!) Views beschert - das ist doch was, nicht?!?!



Antwort von domain:

Ich halte es für nicht ausgeschlossen, dass die 6,5 Blenden einer wissenschaftlichen Revision bedürfen, insbesondere weil das Training für visuelle Wahrnehmung bei bestimmten Personen mit der Zeit doch ganz andere Dimensionen erreichen kann. So hat es bei mir in der Dunkelkammer anfangs z.B. ca. 1 Minute gedauert, bis ich halbwegs gut sehen konnte, mit der Zeit aber dann nur mehr 10 Sekunden.
Was aber auch gerne übersehen wird ist die unbewußte unwillkürliche Augapfelbewegung zur Optimierung der an sich im Winkel eingeschränkten Wahrnehmung über den gelben Fleck. Möglichweise sind exaktere Untersuchungen nur mithilfe von Atropin etc. zur Pupillen- und Augenmuskellähmung möglich. Jedes, auch noch so geringe Abfahren mit spatialer und zeitlicher Differenzierung ist nicht das, was WoWu und die Wissenschaft mit max. 40 DB meinen.



Antwort von WoWu:

Vielleicht noch am Rande interessant, in dem Link von Wolfgang, mit dem er eigentlich die 24 Blenden belegen wollte steht zwar darüber nix drin, aber sauber ausgedrückt, dass V-Log für die GH5 eigentlich 'ne Krücke ist, weil V-Log eigentlich für die VariCam gedacht ist, die drei mehr Blenden macht und dann auch der gesamte Übertragumgsbereich genutzt wird.
Man hat auf diese (eigentliche Selbstverständlichkeit) bei VLog für die GH5 aus kompatibilitätsgründen zur VariCam verzichtet.
Wer also keine VariCam + einer GH5 in der Produktion benutzt, der behält bei der GH5 nur die Nachteile, nämlich den mageren Übertragungbereich.
Ich glaube, Srone hatte das schon einmal in einem Posting erwähnt und es war plausibel, weil es sonst keinen vernünftigen Grund dafür gibt, Übertragungswerte einfach zu grounded.
Nur bei denen, die nur die HG5 und keine VariCam betreiben, frag ich mich, warum sie sich das eigentlich antun, zumal das ja auch keine kostenlose Beigabe war.
Aus Pansonic Sicht ist das ja konsequent, aber aus Consumersicht ist das ziemlicher Käse.



Antwort von klusterdegenerierung:

Was für mich schon der Killer der Cam wäre, ist die Tatsache, das sie nicht mal ein besseres Rauschverhalten hat als die GH4!!



Antwort von Roland Schulz:


Was für mich schon der Killer der Cam wäre, ist die Tatsache, das sie nicht mal ein besseres Rauschverhalten hat als die GH4!!

...na ja, dafür hat das Ding aber etwas mehr Auflösung als die GH4!
Ne, der Burner ist die Mühle nicht, wobei UHD/50p in der Klasse hoffentlich ein Zeichen setzen wird wie seinerzeit 50p bei den Panny FHD Consumerschachteln.



Antwort von Olaf Kringel:

...lowlight ist bei GH4 und GH5 gleich?

oha... sind die ganzen youtube Videos gar nur fakes?



Antwort von Roland Schulz:


Vielleicht noch am Rande interessant, in dem Link von Wolfgang, mit dem er eigentlich die 24 Blenden belegen wollte steht zwar darüber nix drin, aber sauber ausgedrückt, dass V-Log für die GH5 eigentlich 'ne Krücke ist, weil V-Log eigentlich für die VariCam gedacht ist, die drei mehr Blenden macht und dann auch der gesamte Übertragumgsbereich genutzt wird.
Man hat auf diese (eigentliche Selbstverständlichkeit) bei VLog für die GH5 aus kompatibilitätsgründen zur VariCam verzichtet.
Wer also keine VariCam + einer GH5 in der Produktion benutzt, der behält bei der GH5 nur die Nachteile, nämlich den mageren Übertragungbereich.
Ich glaube, Srone hatte das schon einmal in einem Posting erwähnt und es war plausibel, weil es sonst keinen vernünftigen Grund dafür gibt, Übertragungswerte einfach zu grounded.
Nur bei denen, die nur die HG5 und keine VariCam betreiben, frag ich mich, warum sie sich das eigentlich antun, zumal das ja auch keine kostenlose Beigabe war.
Aus Pansonic Sicht ist das ja konsequent, aber aus Consumersicht ist das ziemlicher Käse.

Die Referenzen waren löchrig wie schweizer Käse, auch das verlinke Tech Brief zu V-LOG zeugt von Inkompetenz des Autors und techmods bei DVXUser.com.
Garry Breen kann zudem auch 8-bit 4:2:04:2:0 im Glossar erklärt UHD zu 10-bit 4:2:24:2:2 im Glossar erklärt FHD machen, gut, bis "man" ihn mal dafür durch die Suppe gezogen hat ;-p.
Was mich immer wundert ist wie viele User in den verschiedensten Foren solchen "Magiern" den Rücken stärken, selbst keinen Plan haben und einfach alles glauben bloß weil nen "Name" dahinter steht. Was mich zudem erschüttert ist, dass solche Experten selbst bei Panasonic sitzen und diesen Quatsch Commedy auch noch publizieren.
http://pro-av.panasonic.net/en/dvx4k/tech.html

V-LOG L läuft, wenn man sich die Übertragungsfunktionen mal anguckt, tatsächlich recht ähnlich wie das V-LOG der Varicam. Wirklich passen tut das trotzdem nicht, das haben ja auch schon einige feststellen müssen als GH5 Material mit normalen V-LOG LUTs der Varicam begradigt werden sollte. So "Standard" ist"s dann wohl doch nicht.
Das die Ausgangsdynamik jetzt auch noch weiter auf ~9,1-Bit bei ~12 stops Eingangsdynamik beschnitten wird macht die Kamera auch nicht zum Überflieger. Durch das zusätzlich schlechtere SNR macht die Kamera am Ende wohl kaum noch einen Stich gegen das Sony APS-C Lager. Das einzige was das Ding in meinen Augen etwas pushed sind die 50/60p UHD die ja anscheinend sogar ohne Pixelbinning oder Lineskipping gelesen werden.

V-LOG bei der Kamera grundsätzlich zu verteufeln halte ich trotzdem für gewagt, zumindest ich kenne nicht die tatsächlich ausreizbaren Möglichkeiten der anderen Gammakurven. Möglicherweise sind diese selbst mit KneeKnee im Glossar erklärt, Black Level und -Gamma etc. so begrenzt, dass man hier noch weniger Dynamik als mit V-LOG L abgelichtet kriegt.
Für die mir bekannten Sonys würde ich S-LOG dagegen nicht vorziehen, da komme "ich" mit den Cinegammas "besser" zum Ziel.



Antwort von klusterdegenerierung:


...lowlight ist bei GH4 und GH5 gleich?

oha... sind die ganzen youtube Videos gar nur fakes?

Hey Olaf,
ich habe ja bewußt Raw als Referenz gewählt, damit das denoisen nicht dazwischen funkt.
Wohlmöglich hat die GH5 hierin die bessere Leistung?

Die Frage ist jedoch dann, ob es bei Video immer mit läuft oder deaktivierbar ist,
jedoch ist man dann auch nicht viel weiter.

Aber das die derart wenig besseres Rauschverhalten hat, hat mich jetzt echt überrascht!
Kann man als Knipse wieder nicht ernsthaft benutzen.



Antwort von Olaf Kringel:

Guido: ...nuja, der beste incam denoiser ist evtl. jener der A7S Serie?

Egal, im Videobereich macht die GH5 im lowlight gegenüber der Gh4 schon deutlich mehr Spaß denke ich ;)



Antwort von Roland Schulz:


...
Aber das die derart weniger besseres Rauschverhalten hat, hat mich jetzt echt überrascht!
Kann man als Knipse wieder nicht ernsthaft benutzen.

Nabend Guido,
Wenn man sich die Vergleiche bei dpreview ansieht ist die GH5 schon besser als die GH4, auch bei RAW Fotos. Man sieht da schon klare Unterschiede, besonders wenn man Richtung Ende (ISO12800) geht. Man sieht auch dass die GH5 in Details wie z.B. auf den Spielkarten noch mehr Strukturen differenziert als die GH4, für mich schon eine klare Verbesserung!
Eine a6300/a6500 zieht da allerdings nochmal nen Stück vorbei, gar nicht unbedingt nur beim Rauschen sondern ebenfalls nochmal beim Detaillierungsgrad. So hat man beim Denoisen einfach nochmal mehr Reserven. APS-C gegen 4/3 wird bei ähnlichem Technologiestand tendenziell immer gewinnen.
Nochmal ganz anders siehts aus wenn man selbst so nen alten Koffer wie die D750 dagegen stellt, für mich nach wie vor einer der besten Fotosensoren. Da gewinnt bei ähnlicher Auflösung einfach der "Hubraum" des FX Sensors - dafür verliert das Ding bei Video.



Antwort von klusterdegenerierung:

Roland, das mag wohl stimmen, aber der Unterschied ist nicht sonderlich groß.
Wenn man sich da mal die a6000 & a6300 nimmt, da ist der Unterschied aber schon ein bisschen deutlicher.

Ausserdem hatte ich ja von nicht "Ernsthaft" gesprochen und wer nutzt denn in dem Zusammen hang noch 12800? ;-)



Antwort von Roland Schulz:


Roland, das mag wohl stimmen, aber der Unterschied ist nicht sonderlich groß.
Wenn man sich da mal die a6000 & a6300 nimmt, da ist der Unterschied aber schon ein bisschen deutlicher.

Ausserdem hatte ich ja von nicht "Ernsthaft" gesprochen und wer nutzt denn in dem Zusammen hang noch 12800? ;-)

Na ja, wenn man sich den folgenden Screenshot ansieht könnte man auch behaupten, die a6000 war noch (etwas) besser als die a6300.
Der Pannyvergleich ginge für mich aber wieder für die GH5 aus, wobei die Sonys Panasonic klar bügeln.
Und ja, zumindest ISO6400 nutze ich bei der a6500 schon mal öfter noch (für Video). Sieht im "Notfall" noch nicht mal wirklich so schlecht aus!!

Aber dass die Standbildleistung einer Kamera immer der Videoleistung entspricht ist auch nicht zwingend gesetzt.



Antwort von Roland Schulz:

Wer hat sich denn mein Testverfahren zum DR des menschlichen Auges samt dazugehöriger Erklärung und Diagramm noch mal durch den Kopf gehen lassen und den Versuch ggf. mal nachvollzogen?!
(viewtopic.php?f=3&t=135488&p=897831#p897783)

Sind Fehler enthalten?! Ist ggf. Überzeugung eingetreten?!
Wer sieht wieviel DR?! Gibt's hier ggf. nen ungefähren gemeinsamen Nenner?!

Hängt sicherlich auch irgendwo von der max. Helligkeit des Displays ab, wobei dieser Faktor über längere Zeit -> "Adaption" im dunklen Raum recht klein werden sollte.



Antwort von wolfgang:

Nein, WoWu hat nie einen Quellennachweis für die 6 blenden des menschlichen Auges erbracht. Und auch ursprünglich nichts von Adaption geschrieben. Das hat erst die Sony Grafik gezeigt, die ich hier verlinkt habe. Würde man sich das Video dahinter ansehen wäre das auch klar.

Und nur weil einer Dipl.Ing ist hat er von der Biologie nicht unbedingt eine Ahnung.

Und Roland, es macht einen Unterschied ob man sich mit Bierkisten lächerlich macht und öffentlich zugängige Quellen nur arrogant belächelt wie du das machst oder dann auf diesem Niveau nicht diskutieren will. Denn an einer Lösung der Frage, warum DEIN slog Material rauscht, bist eh nie interessiert gewesen. Also wozu das dann mit dir diskutieren?



Antwort von dienstag_01:


Wer hat sich denn mein Testverfahren zum DR des menschlichen Auges samt dazugehöriger Erklärung und Diagramm noch mal durch den Kopf gehen lassen und den Versuch ggf. mal nachvollzogen?!
(viewtopic.php?f=3&t=135488&p=897831#p897783)

Sind Fehler enthalten?! Ist ggf. Überzeugung eingetreten?!
Wer sieht wieviel DR?! Gibt's hier ggf. nen ungefähren gemeinsamen Nenner?!

Hängt sicherlich auch irgendwo von der max. Helligkeit des Displays ab, wobei dieser Faktor über längere Zeit -> "Adaption" im dunklen Raum recht klein werden sollte.

Ich sag mal so: regt zum Nachdenken an ;)
Vielleicht müsste man mal schauen, wie Messungen im wissenschaftlichen Bereich aufgebaut sind.



Antwort von Roland Schulz:


...
Und Roland, es macht einen Unterschied ob man sich mit Bierkisten lächerlich macht und öffentlich zugängige Quellen nur arrogant belächelt wie du das machst oder dann auf diesem Niveau nicht diskutieren will. Denn an einer Lösung der Frage, warum DEIN slog Material rauscht, bist eh nie interessiert gewesen. Also wozu das dann mit dir diskutieren?

Also, meinen einfachen Testaufbau mit physikalisch nachvollziehbarer Beschreibung und nachvollziehbarem Ergebnis hat bisher glaube ich noch niemand "belächelt".

Das ich "Größen", Autoren von revolverblattartigen "Tech Briefs", "öffentlich" an mehreren Stellen zerlegt habe kannst Du gerne noch mal recherchieren, auch bei slashcam wurde das bereits diskutiert.

Wo ich wann in welchem Fall mit V-LOG denn nun wo hinbelichten soll, wie es im von Dir verlinkten Tech Brief beschrieben sein soll, geht aus dem "Dokument" auch nicht hervor.

Wenn auch Du aus 8-bit Material durch Downscale "echtes" 10-bit Material gewinnen kannst - dann kann ich Dir auch nicht mehr helfen (...oder einfach nochmal den Hinweis geben drüber nachzudenken bzw. die Diskussionen dazu zu suchen und zu verstehen).
Dass man nach Hinweis auf Unrichtigkeit solche Artikel weder anpasst noch entfernt finde ich zudem sehr provokant.

Warum x-LOG mehr rauscht hatte ich aber bereits erklärt (flachere Eingangsübertragungsfunktion in "relevanten Bereichen", die beim "De-loggen" wieder (stärker) gespreizt werden müssen, somit die Abstände der bei der Aufnahme entstandenen Inkremente größer werden, somit bei Übergängen größere Abrisse hervorrufen und auch beim "Kippen" von Inkrementen/LSB's eine größere "Rauschamplitude" hervorrufen...), komme mir langsam vor wie ne kaputte Schallplatte...
...und nein, dazu mache ich jetzt kein Diagramm mehr!

In einem Punkt gebe ich Dir recht: "alle Titel - keine Mittel" trifft häufig zu, "Dekoration" allein ist keine Vorraussetzung und macht einen Menschen pauschal nicht "besser". Irren ist menschlich, Irrtümer einzugestehen zeigt wahre Größe.



Antwort von mash_gh4:


Wenn auch Du aus 8-bit Material durch Downscale "echtes" 10-bit Material gewinnen kannst - dann kann ich Dir auch nicht mehr helfen (...oder einfach nochmal den Hinweis geben drüber nachzudenken bzw. die Diskussionen dazu zu suchen und zu verstehen).

ich finde es ehrlich gestanden schade, dass du deine durchaus wertvollen bemühungen im hier vorliegenden fall damit untergräbst, dich letztlich vielleicht doch nur mit diesen anderen angesprochnen "größen" messen zu wollen, statt dich mit vernünftigen argumenten und kritischem mitdenken zu begnügen. in der skalierungsfrage teile ich ja bekanntlich deine ansichten nicht, und hab dir im betreffenden thread ja auch gezeigt, dass man prinzipiell aus entsprechend gedithertem 8bit ausgangsmaterial im zuge des skalierens tatsächlich 'echte' 10bit werte generieren kann...
aber, wie gesagt, vergessen wir das besser für den augenblick und konzentrieren wir uns lieber auf die hier vorliegende fragestellung.

Wer hat sich denn mein Testverfahren zum DR des menschlichen Auges samt dazugehöriger Erklärung und Diagramm noch mal durch den Kopf gehen lassen und den Versuch ggf. mal nachvollzogen?!

ich finde deinen diesbezüglichen versuchsaufbau bzw. die grundsätzliche art der argumentation durchaus plausibel und vorbildlich.

was mich halt wirklich stutzig macht, ist eher die tatsache, dass man in den entsprechenden standardwerken über die physiologie des menschlichen auges, offenbar ganz bewusst keine zusammenfassenden angaben über einen derart einfach zu fassenden dynamic range findet. statt dessen trifft man dort regelmäßig wieder eine unzahl an belegen für einzelnen effekte und eigenheiten des menschlichen sehapparats, die einer gar zu simplen erklärung bzw. direkten vergleichen mit anderen technischen lösungen im weg stehen.

einfachere empirische zugänge, so wie du sie vorschlägst, haben aber natürlich auch eine sehr lange tradition. sehr oft wird wird hier auf die gleichzeitige beobachtung von himmelskörpern unterschiedlicher helligkeit verwiesen, für die man ja bereits seit der antike entsprechende skalen der helligkeitsangaben kennt. das war auch einer der wege, den fechner beschitten hat, um sich dem problem zu nähern. entsprechende größenangaben bzgl. der hier vorliegenden frage, die sich auf solche beobachtungsmodelle beziehen, habe ich ohnehin bereits genannt.

man darf halt in dieser ganze geschichte nicht übersehen, dass nicht nur die iris bzw. mechanische adaption für den großen helligkeitsabdeckungsbereich des sehsinns verantwortlich ist, sondern auch innerhalb aller beteiligten sinneszellen und ihrer weiterverabeitung im nervensystem unglaublich spannende helligkeits- und kontrastanpassungsvorgänge genutzt werden, die weit über das primitive verhalten eines CMOS sensors bzw. dem damit verbunden gedanklichen nachvollzug hinausreichen.



Antwort von iasi:


Vielleicht noch am Rande interessant, in dem Link von Wolfgang, mit dem er eigentlich die 24 Blenden belegen wollte steht zwar darüber nix drin, aber sauber ausgedrückt, dass V-Log für die GH5 eigentlich 'ne Krücke ist, weil V-Log eigentlich für die VariCam gedacht ist, die drei mehr Blenden macht und dann auch der gesamte Übertragumgsbereich genutzt wird.
Man hat auf diese (eigentliche Selbstverständlichkeit) bei VLog für die GH5 aus kompatibilitätsgründen zur VariCam verzichtet.
Wer also keine VariCam + einer GH5 in der Produktion benutzt, der behält bei der GH5 nur die Nachteile, nämlich den mageren Übertragungbereich.
Ich glaube, Srone hatte das schon einmal in einem Posting erwähnt und es war plausibel, weil es sonst keinen vernünftigen Grund dafür gibt, Übertragungswerte einfach zu grounded.
Nur bei denen, die nur die HG5 und keine VariCam betreiben, frag ich mich, warum sie sich das eigentlich antun, zumal das ja auch keine kostenlose Beigabe war.
Aus Pansonic Sicht ist das ja konsequent, aber aus Consumersicht ist das ziemlicher Käse.

In der Kombination VariCam+GH5 ist ja fast schon Pflicht.
Ansonsten macht"s eben die Leute glücklich, die den Cine-Look suchen. Das Glück dabei findet vor allem Panasonic ;)



Antwort von Roland Schulz:



Wenn auch Du aus 8-bit Material durch Downscale "echtes" 10-bit Material gewinnen kannst - dann kann ich Dir auch nicht mehr helfen (...oder einfach nochmal den Hinweis geben drüber nachzudenken bzw. die Diskussionen dazu zu suchen und zu verstehen).

ich finde es ehrlich gestanden schade, dass du deine durchaus wertvollen bemühungen im hier vorliegenden fall damit untergräbst, dich letztlich vielleicht doch nur mit diesen anderen angesprochnen "größen" messen zu wollen, statt dich mit vernünftigen argumenten und kritischem mitdenken zu begnügen. in der skalierungsfrage teile ich ja bekanntlich deine ansichten nicht, und hab dir im betreffenden thread ja auch gezeigt, dass man prinzipiell aus entsprechend gedithertem 8bit ausgangsmaterial im zuge des skalierens tatsächlich 'echte' 10bit werte generieren kann...
aber, wie gesagt, vergessen wir das besser für den augenblick und konzentrieren wir uns lieber auf die hier vorliegende fragestellung.

Hallo mash,
ich teile viele Deiner Ansichten und schätze dich auch in Bezug auf viele deiner Kommentare und Darstellungen, den 8-bit -> 10-bit Downscale Zusammenhang haben wir seinerzeit auch schon im 4:2:04:2:0 im Glossar erklärt -> 4:2:24:2:2 im Glossar erklärt bzw. 4:4:44:4:4 im Glossar erklärt Downscale Thread angesprochen, und dieser Zusammenhang ist und bleibt einfach falsch!!

Man kann ohne Frage "interpolierte" 10-bit Werte erhalten, das aber auch nur zwischen verschiedenwertigen, benachbarten Pixeln, was in diesem Fall u.U. den dort vorherrschenden Kontrast -> Schärfe sogar schwächen können. Dithering kann ebenfalls 10-bit Werte erzeugen.
Das hat aber niemals was mit echtem 10-bit zu tun, wie es eine 10-bit Kamera aufnehmen würde!

Wenn wir beim Thema sind, Banding welches in den meisten Fällen durch x-LOG in 8-bit 4K Aufnahmen entstehen kann wirst Du durch Downscale zu 10-bit FHD nicht beseitigen.
Barry Green behauptet in seinem "Tech Brief" gegenteiliges, behauptet dass durch den Downscale zu einer 10-bit Kamera vergleichbares Material entsteht, was insbesondere über homogene Flächen (z.B. bei "Delogging" von x-LOG) falsch ist.
Ein 8-bit Material kann nicht wissen welche der vier möglichen Zwischenabstufungen bei der Aufnahme vorgeherrscht haben.
Die ganze 8->10 bit Theorie wäre ohnehin nur für den Y-Lumakanal anseitsweise zu betrachten, mein seinerzeitiges "Killerargument" ;-) war der UV-Chromakanal, welcher im Ursprung in 4:2:04:2:0 im Glossar erklärt vorliegt und nach Faktor 2 Downscale (theoretisch wenn es der Workflow/die Anwendung es zulässt) zu 4:4:44:4:4 im Glossar erklärt wird, hier jeder nach Downscale entstehende PixelPixel im Glossar erklärt eine eigene Farbinformation zugewiesen erhält - diese UV-Chromainformation bleibt aber 8-bit!!!
Eine echte 10-bit Kamera könnte hier ebenfalls mit ~4-fach höherer QuantisierungQuantisierung im Glossar erklärt auflösen, was insbesondere vor dem Hintergrund von Wide-Gamut einen entscheidenden Unterschied macht!

Ich kann auch aus 8-bit UHD Material 10-bit UHD Material machen indem ich in einem 10-bit Workflow das 8-bit Material mit einer leichten Helligkeits-/Farbkorrektur belege.
Die entstehenden Werte würden dann so nur in 10-bit oder höher darstellbar sein. Die Auflösung zwischen den Inkrementen habe ich so aber nicht verbessert -> somit Quatsch!!

"Messen" muss und will ich mich hier mit niemandem, bin auch immer an Diskussionen interessiert und lasse mich auch gerne überzeugen - "wenn"s passt"!
Wie Du richtig gesagt hast muss man aber auch ggf. den ein- oder anderen "wissenschaftlich" ermittelten Hintergrund mal hinterfragen.

Im Fall BG wollte ich "den Wert" referenzierter Vorlagen und die Glaubwürdigkeit und Qualität deren Autors "beleuchten" - schreiben kann jeder viel, glauben tun"s leider oft genau so viele.



Antwort von klusterdegenerierung:


Wenn auch Du aus 8-bit Material durch Downscale "echtes" 10-bit Material gewinnen kannst - dann kann ich Dir auch nicht mehr helfen (...oder einfach nochmal den Hinweis geben drüber nachzudenken bzw. die Diskussionen dazu zu suchen und zu verstehen).
Dass man nach Hinweis auf Unrichtigkeit solche Artikel weder anpasst noch entfernt finde ich zudem sehr provokant.

Warum x-LOG mehr rauscht hatte ich aber bereits erklärt (flachere Eingangsübertragungsfunktion in "relevanten Bereichen", die beim "De-loggen" wieder (stärker) gespreizt werden müssen, somit die Abstände der bei der Aufnahme entstandenen Inkremente größer werden, somit bei Übergängen größere Abrisse hervorrufen und auch beim "Kippen" von Inkrementen/LSB's eine größere "Rauschamplitude" hervorrufen...), komme mir langsam vor wie ne kaputte Schallplatte...
...und nein, dazu mache ich jetzt kein Diagramm mehr!

Roland, vielleicht vergisst Du mal dieses ganze geteste und theoretisieren.
Was Wolfgang einfach nur von Dir wissen will ist, warum andere in der Lage sind Log Material zu generieren und es in der Post so zu bearbeiten,
das man einen Mehrwert und im besten Fall nicht "mehr" rauschen hat als ohne Slog oder bzw vor der post.

Dies gelingt ja vielen Filmern, wie man zb. hier sehen kann https://vimeo.com/groups/fs700
Ich weiß das man Slog sehr schnell versemmeln kann, aber ich denke ich habe hier auch schon oft genug stills gezeigt,
an denen man sehr gut erkennen kann, das es nicht immer im Rausdesaster enden muß.

Das Slog nicht jeder mag, ist ja nachvollziehbar und völlig ok, aber die Meinung die Du darüber hast,
finde ich erstens etwas lasch und zweitens zeugt sie nicht von viel Praxisnähe.

Fasst alle Proficams bieten Log an, das die Hersteller alle weniger Ahnung haben als Du und stattdessen
besser ein getweaktes Standartgamma anbieten könnten halte ich für überheblich.
Aber wer weiß, vielleicht klingelt Arri bald an Deiner Tür und fragt Dich wie sie ihr Log durch ein besseres Profil austauschen können.

Ich weiß jetzt kommst Du direkt wieder mit dem 8Bit totschläger, das ist ja auch ansich richtig, aber wenn man sich statt mit irgendwelchen Diagrammen auch mal mit Slog filmen beschäftigen würde, dann würde man seine Meinung dazu vielleicht doch etwas ändern,
frei nach den Motto, "wat der Buer nich kennt, dat will och nich" ;-)



Antwort von mash_gh4:


Man kann ohne Frage "interpolierte" 10-bit Werte erhalten, das aber auch nur zwischen verschiedenwertigen, benachbarten Pixeln, was in diesem Fall u.U. den dort vorherrschenden Kontrast -> Schärfe sogar schwächen können. Dithering kann ebenfalls 10-bit Werte erzeugen.
Das hat aber niemals was mit echtem 10-bit zu tun, wie es eine 10-bit Kamera aufnehmen würde!

ich glaube, der denkfehler, dem du hier erliegst, besteht darin, dass du -- ähnlich wie der WoWu -- das ganze an physikalische gegebenheiten und grenzen festzumachen versuchst. ich glaube aber, dass es hier viel eher nur um den flaschenhals der übertragung geht. in der kamera selbst stehen ja bekanntlich 12bit ausgangswerte zu verfügung, die in möglichst effizenter form aufbereitet und in gängigen formaten ausgeliefert werden müssen. was spricht also dagegen, sich hier technischer kunstgriffe zu bedienen, die eben tatsächlich in zuge der skalierung derartige vorteilhafte eigenschaften zeigen?

ich hab das ohnehin an hand von empirischen belegen zu untermauern versucht, die zeigen, dass in einem farbverlauf, der mit der GH4 aufgenommen und nachträglich skaliert wurde, auch in der praxis mehr neu hinzugekommen zwischenwerte zu finden sind als man das erwarten würde -- also im vergleich etwa gegenüber einem 8bit sensor bzw. AD-wandler.

dass die diesbezüglichen möglichkeiten aber auch nicht völlig überschätzt werden sollten, hat meiner ansicht nach eher damit zu tun, dass sie sich nur denkbar schlecht mit den verwendeten kompressionsmethoden vertragen. man darf schließlich video-frames, wie sie in h.264 u.ä. vorliegen, nicht einfach nur als anordungen von isolierten pixeln verstehen, sondern vielmehr als rekonstruiertes abbild, das ganz wesentlich auch von der art und weise geprägt wird, wie derartige daten durch die kompression im DCTDCT im Glossar erklärt verfahren umschrieben werden.

wenn wir beim Thema sind, Banding welches in den meisten Fällen durch x-LOG in 8-bit 4K Aufnahmen entstehen kann wirst Du durch Downscale zu 10-bit FHD nicht beseitigen.

doch! -- du erhältst damit in der tat viermal so viel banding streifen ;)

dem steht allerdings der umstand entgegen, dass einem das nicht viel hilft, da ja fast alle gängigen programme beim abschließenden rausrendern als 8bit delivery, diese zusätzliche information deutlich unbefriedigender handhaben als heutige kameras, und das ergebnis daher in der regel noch viel problematischer als in 8bit beschränktem kamera-footage wirkt. :(

Ein 8-bit Material kann nicht wissen welche der vier möglichen Zwischenabstufungen bei der Aufnahme vorgeherrscht haben.

wie gesagt -- das halte ich für den großen denkfehler!

wenn man sich der beschränkungen des ausgabeformats bzw. des übertragungskanals bewusst ist, kann man eben tatsächlich verschiedene techniken nutzen, um in höher auflösung vorliegendes material dafür sinnvoll aufzubereiten.

wenn man mit 10bit quellen in 32bit float bildbearbeitungspipelines arbeitet und korrekturen vornimmt, aber das ganze dann eben am schluss doch nur als 8bit file ausgeben und verteilen kann, macht es durchaus sinn, das ganze sauber zu dithern -- auch wenn das leider sehr viele unserer programme nicht sauber können. :(
und genau das gleiche gilt auch für kameras, wo sich die betreffenden entwickler gedanken darüber machen, wie sie den tatsächlich intern noch vorhandenen überschuss an verfügbarer auflösung bzw. informationen in einer weise verpacken können, die hinsichtlich der praktischen weiterverwertung am meisten sinn macht.

ehrlich gestanden schreibe ich das aber gar nicht so sehr, weil mir irgendetwas daran liegen würde, die entsprechenden möglichlichkeiten zu verteidigen und über den grünen klee zu loben, sondern vielmehr, weil ich es für völligen unfug halte, 10bit als das alleinig glückseligmachende anzusehen. im grunde sagt diese angabe alleine noch überhaupt nichts darüber aus, wie gut sich das material in der weiteren bearbeitung aufbereiten lässt. es gibt sicher auch kameras, die ausgesprochen unbefriedigendes 10bit material liefern.

ich persönlich hätte mich im falle der GH5 jedenfalls über vernünftige RAW ausgabemöglichkeiten bzw. nachträgliche aufbereitungsmöglichkeiten mehr gefreut, die man ja bekanntlich sogar mit weniger kamerainternem rechenaufwand und ähnlichem bandbreitenbedarf realisieren könnte.

auch die ganzen oberflächlichen LOG-polemiken kann ich nicht wirklich ernst nehmen, so lange sie einfach ausklammern, um wie viel besser es dort ganz real um die farbtreue im vergleich zu rec709 basierenden profilen bestellt ist -- was man ja wirklich sehr einfach empirisch belegen kann.



Antwort von Roland Schulz:

Guido, wenn dann bitte richtig: "wat der bur net kennt dat fret er net" ;-) ;-) ;-) !!!

Ich hatte vor einigen Monden mal geschrieben dass jeder das nutzen sollte von dem er überzeugt ist und mit dem er besser und u.U. auch schneller klarkommt und somit eventuell auch effizienter ist - das ist ganz wichtig bei der "Arbeit" - vor allem wenn man denn damit auch seinen Lebensunterhalt verdient. Dann kann auch ein x-LOG Mittel zum Zweck sein.

Jeder Künstler sollte auch eher durch seine gestalterische Arbeit und das Ergebnis überzeugen. Auch wenn technische Hintergründe oft hilfreich sind zählt am Ende das was das Material "erzählt".
Man kann mit inhaltlich-, informativ- oder emotional- hochwertigen "Werken" ohne Frage mehr transportieren als allein mit nüchtern technisch "perfektem" Material, das darf man bei der ganzen Sache auf keinen Fall aus dem Auge verlieren!

Ich stehe eher auf der Seite der Technik und der dahinter verborgenen Zusammenhänge - einfach weil"s mich interessiert. Aus technischer Sicht stehe "ich" weiterhin hinter der Aussage, das x-LOG in den meisten Fällen ne Krücke ist.
Und nochmal als Wiederholung - das muss nicht zwingend in jedem Fall und für jede Kamera gelten. Wenn Standardgammas so "zugeschnürt" sind dass man kaum einen praktikablen DR erzielen kann, kann x-LOG Mittel zum Zweck werden, auch wenn es gleichzeitig in mittleren Bereichen Nachteile bringen kann. x-LOG bringt nicht nur "mehr Rauschen" in die Mitte sondern schwächt dort prinzipbedingt auch die Graduation. Durch "Posterizing", verringerte Zwischenabstufungen verliert ein "natürliches Bild" an Tiefe, an "3D-Effekt". "Ich" bin eher ein Fan von natürlichen Bildern mit viel Tiefe, dem "Blick aus dem Fenster". Mir ist aber klar das es aktuell sehr trendy und in Mode ist, sehr viel Hype um irgendwelche "Looks" zu machen. Jeder wie er mag und wofür er ein Publikum findet!!

Für die bereits von mir genannten Kameras habe ich eher Nachteiliges bzgl. x-LOG festgestellt, das muss aber z.B. nicht für Deine FS700 gelten, die habe ich nur ein zwei Mal zum Gucken in der Hand gehabt, nicht eine Sekunde Material davon nativ unter die Lupe genommen. Da das Ding aber wie ne FS7 wohl ähnliche Cinegammas anbietet "glaube ich" auch da nicht an S-LOG.
Für die a6300/6500 ist S-LOG "für mich" dagegen ein ziemliches No-Go.



Antwort von WoWu:

@Roland
Auf dem platten Land heißt das:
"Wat de Buer nich kennt, dat frett he nich."
:-)



Antwort von klusterdegenerierung:


Für die a6300/6500 ist S-LOG "für mich" dagegen ein ziemliches No-Go.

Aber in unser beider Zusammenhang spreche ich natürlich auch gerade diese Cams an.
Kann das auch dort nicht nachvollziehen.



Antwort von Roland Schulz:

...weils mir langsam zu zeitintensiv wird hier nur noch zwei elementare Punkte:

wenn wir beim Thema sind, Banding welches in den meisten Fällen durch x-LOG in 8-bit 4K Aufnahmen entstehen kann wirst Du durch Downscale zu 10-bit FHD nicht beseitigen.

doch! -- du erhältst damit in der tat viermal so viel banding streifen ;)

NIEMALS NIE NICHT erhälst Du das durch reinen Downscale!!! Der direkte Übergang zwischen den Bandingstreifen wird über ein-zwei Pixelabstände durch Mittelwertbildung geglättet, die Flächen erhalten durch reinen Downscale KEINE Zwischenabstufungen, um das zu erzielen brauchst Du einen ziemlich aufwändigen Debandingalgorithmus!
Wenn Du zudem nur einen ganz leichten Übergang, sagen wir mal ein-/zwei (wenige) Inkremente bei der 8-bit Aufnahme in der Szene hattest (hellgraue Schrift auf nahezu gleich hellgrauem Untergrund, "Mikrokontrast" z.B. besonders bei Spiegelungen) kann Dein Algorithmus hinterher auch kaum noch (nicht mehr!) erkennen ob es sich hierbei um den Inhalt der Szene oder um technisch bedingtes Banding handelt. Was macht "Dein" Downscaler dann aus dieser eigentlich scharf abgegrenzten Schrift (vgl. DPReview Testchart)?! Auch drei zusätzliche Streifen bis zur Buchstabenmitte?! Das wäre fatal weil es den Kontrast/Schärfe der Szene negativ beeinflussen würde, den wahren Inhalt der ohnehin schon nicht sehr detaillierten 8-bit Aufnahme (Quantisierung), besonders nach x-LOG vernichten würde! Deshalb sind Debandingfilter (Sony Superbitmapping bei HDR Fernsehern) auch sehr mit Vorsicht zu genießen - wobei ich ehrlich gesagt auch gar nicht sooo ein Feind davon bin, man erkauft sich allerdings ggf. o.g. Nachteile.
lowcontrast.PNG

Ein 8-bit Material kann nicht wissen welche der vier möglichen Zwischenabstufungen bei der Aufnahme vorgeherrscht haben.

wie gesagt -- das halte ich für den großen denkfehler!

Siehe oben...

Ein 8-bit Wert, ganz besonders im Bereich von bereits sichtbarem Banding (was x-LOG bekanntlich fördert), kann nicht hergeben ob der Wert "der Fläche" durch Abrisse in der Aufnahme, begründet durch nicht ausreichende QuantisierungQuantisierung im Glossar erklärt, oder durch Ursache/Inhalt der Szene entstanden ist, das geht nicht!!!

Wenn Du jemanden beauftragst ne Tischplatte auszumessen und derjenige das Maß nur zentimetergenau aufnimmt, kannst Du aus den Angaben später auch mit keiner Mathematik der Welt millimetergenaue Angaben rekonstruieren, auch wenn du jetzt ne Nachkommastelle zur Verfügung hättest!

...und ein letztes Mal - was wird aus dem 8-bit Farbkanal im Downscale in ein 10-bit File?!?!?!

Sorry Guido, einfach überlesen, wieder sehr viel theoretische Technik hier ;-)!!
Mash, darf ich die Frage nach Deinem Alter stellen?!



Antwort von Roland Schulz:


@Roland
Auf dem platten Land heißt das:
"Wat de Buer nich kennt, dat frett he nich."
:-)

...OK!!!!!!!
...wir interpolieren mal nen Mittelwert dazu. Wer hat nen passenden Algorithmus ;-) ;-) ;-)?!?!?

EDIT: das NDR Wörterbuch schreibt "Bauer" mit Doppel-U - und nu?!?!
https://www.ndr.de/kultur/norddeutsche_ ... worte.html



Antwort von WoWu:


Nein, WoWu hat nie einen Quellennachweis für die 6 blenden des menschlichen Auges erbracht. Und auch ursprünglich nichts von Adaption geschrieben. Das hat erst die Sony Grafik gezeigt, die ich hier verlinkt habe. Würde man sich das Video dahinter ansehen wäre das auch klar.

Und nur weil einer Dipl.Ing ist hat er von der Biologie nicht unbedingt eine Ahnung.

Und Roland, es macht einen Unterschied ob man sich mit Bierkisten lächerlich macht und öffentlich zugängige Quellen nur arrogant belächelt wie du das machst oder dann auf diesem Niveau nicht diskutieren will. Denn an einer Lösung der Frage, warum DEIN slog Material rauscht, bist eh nie interessiert gewesen. Also wozu das dann mit dir diskutieren?

Ich denke, Du liest wirklich die Postings nicht, auch nicht, dass ich auf die Links nochmals hingewiesen habe.
Aber selbst wenn .... das Internet ist tonnenweise voll mit entsprechenden Artikeln. Auch Eigenrecherche würde zum Ziel führen.
Wer aber nicht mal selbst recherchiert und seine Kenntnis aus Marketingbroschüren bezieht, muss sich nicht wundern, dass er sich hinterher mit 24 Blenden unglaubwürdig macht.

Was die Adaption betrifft, ist es völlig irrelevant, denn, egal in welcher Position der Adaption, nimmt das Auge nicht mehr als die besagten Blenden auf.

Hier nochmal ein recht ausführlicher Artikel zum Thema, der auch zahlreiche Nebenthemen behandelt, die in diesem Zusammenhang ebenfalls angeklungen sind.
Das Ergebnis ist aber genau dasselbe. (Grafik 245)
Einigen wir uns also darauf, dass sie sich alle irren und wir 24 Blenden sehen können ... dann haben wir wenigstens alle unsere Ruhe.

http://www.telescope-optics.net/eye_int ... sponse.htm



Antwort von mash_gh4:


NIEMALS NIE NICHT erhälst Du das durch reinen Downscale!!! Der direkte Übergang zwischen den Bandingstreifen wird über ein-zwei Pixelabstände durch Mittelwertbildung geglättet, die Flächen erhalten durch reinen Downscale KEINE Zwischenabstufungen, um das zu erzielen brauchst Du einen ziemlich aufwändigen Debandingalgorithmus!

mit debanding hat das überhaupt nichts zu tun!

es ist einfach nur das selbe, wie wenn du ein gerastertes bild in einer zeitung (=1bit farbtiefe) her nimmst, und es mit geringerer spatialer auflösung betrachtest bzw. skalierst, dann erkennst du darin plötzlich wieder sinnvolle grauabstuffungen...

das ganze geht natürlich nicht, wenn das ausgangsmaterial dafür nicht schon im vorfeld in zweckmäßiger weise aufbereitet wurde (=bewusste nutzung von dithering!). es geht hier ja nicht um eine magische vermehrung von intensitätsabstufungen, sondern einfach nur ein entsprechendes kodieren bzw. ummappen von spatialer und intensitätsinfomation im übertragunskanal.



Antwort von Roland Schulz:

Hand auf's Herz, wer hat den Test mal gemacht?! Was sollte falsch sein an der Betrachtung?!
viewtopic.php?f=3&t=135488&start=175#p897783



Antwort von mash_gh4:


Was die Adaption betrifft, ist es völlig irrelevant, denn, egal in welcher Position der Adaption, nimmt das Auge nicht mehr als die besagten Blenden auf.

du musst aufpassen, dass du die adaption nicht auf das ganze auge beziehst!
es können durchaus auch einzelne bereiche der netzhaut anders adaptiert sein.

Hier nochmal ein recht ausführlicher Artikel zum Thema, der auch zahlreiche Nebenthemen behandelt, die in diesem Zusammenhang ebenfalls angeklungen sind.
Das Ergebnis ist aber genau dasselbe. (Grafik 245)
Einigen wir uns also darauf, dass sie sich alle irren und wir 24 Blenden sehen können ... dann haben wir wenigstens alle unsere Ruhe.
http://www.telescope-optics.net/eye_int ... sponse.htm

ich würde sagen, dass genau diese grafik eben jene öfter genannten ca. 10 1/2 blenden erklärt, die man tatsächlich gleichzeitig ohne anpassung der iris im zusammenspiel verschiedener mechanismen des sehsinns erfassen können dürfte.

auch die angaben hier sind tlw. recht informativ:

http://webvision.med.utah.edu/book/part ... of-vision/
http://webvision.med.utah.edu/book/part ... daptation/



Antwort von Funless:

Ich persönlich finde schon, dass es mit den max. 6+ Blenden des menschlichen Auges durchaus Sinn macht und dass bei der Diskussionsopposition die Tonwertwahrnehmung mit Blendenumfang vermischt wird.

Zudem wird aus meiner Sicht außer Acht gelassen, dass die Adaption im Gehirn permanent stattfindet, da das eigentliche de facto Sichtfeld des menschlichen Auges im Vergleich zu diversen Tieren doch sehr klein ist und dass das Gehirn dieses Defizit mit zusammengesetzten Erinnerungsbildern ausgleicht. Das passiert in Echtzeit, also quasi Lichtgeschwindigkeit. Die Grundlage hierfür ist, dass das menschliche Gehirn (bislang) als einziges auf unserem Planeten zur Abstraktion in der Lage ist.

Vergleichbares Prinzip bspw. beim Hubble Teleskop zu finden: Einer der berühmtesten Aufnahmen ("Säulen der Schöpfung" im Adlernebel) besteht ja auch aus zusammengesetzten Bildern, welches ein Gesamtbild ergibt. Dafür hat's natürlich Rechenpower und Zeit gebraucht, unser Gehirn macht das sofort.

zum Bild https://upload.wikimedia.org/wikipedia/ ... noised.jpg

Übersetzt für diese Diskussion bedeutet es, dass wir in unseren Schädeln den besten Bildprozessor haben wo gibt, der mit einem ziemlich mittelmäßigen Sensor exquisite Bilder realisiert.



Antwort von WoWu:

Da stimme ich im Grundsatz zu, aber Veränderungen, wie die adaption werden dennoch wahrgenommen, schon der Umstand, dass man die Hand zur Schattenbildung nutzt und das Auge hinterher in dunkleren Ausleuchtungen wieder Zeichnung sieht, deutet darauf hin, das solche Prozesse ganz bewusst sind.
Daher wirken ja eben auch Bilder, wie wir sie aus der klassischen HDR Photographie kennen, so künstlich, weil der Mensch eben keine 24 Blenden sehen kann, sondern nur die besagten 6+
und genau das passiert ja auch in HDR Verfahren, dass zusätzlich Licht erzeugt wird, das ggf. wieder solche Adaptionsprozesse triggers kann.
Sonst hätte man ja auch einfach nur die 16 Blenden in ein Bild packen können und gut ist.
Aber das ist eben nicht HDR, weil der Mensch eben nicht so funktioniert.



Antwort von mash_gh4:


...weil der Mensch eben keine 24 Blenden sehen kann, sondern nur die besagten 6+

naja -- auch zw. 6+ u. etwa 10 1/2 blenden liegt noch ein ziemlicher unterschied. :)



Antwort von Roland Schulz:



NIEMALS NIE NICHT erhälst Du das durch reinen Downscale!!! Der direkte Übergang zwischen den Bandingstreifen wird über ein-zwei Pixelabstände durch Mittelwertbildung geglättet, die Flächen erhalten durch reinen Downscale KEINE Zwischenabstufungen, um das zu erzielen brauchst Du einen ziemlich aufwändigen Debandingalgorithmus!

mit debanding hat das überhaupt nichts zu tun!

es ist einfach nur das selbe, wie wenn du ein gerastertes bild in einer zeitung (=1bit farbtiefe) her nimmst, und es mit geringerer spatialer auflösung betrachtest bzw. skalierst, dann erkennst du darin plötzlich wieder sinnvolle grauabstuffungen...

das ganze geht natürlich nicht, wenn das ausgangsmaterial dafür nicht schon im vorfeld in zweckmäßiger weise aufbereitet wurde (=bewusste nutzung von dithering!). es geht hier ja nicht um eine magische vermehrung von intensitätsabstufungen, sondern einfach nur ein entsprechendes kodieren bzw. ummappen von spatialer und intensitätsinfomation im übertragunskanal.

Aha, wir müssen bei der Aufnahme gedithert haben - in der Praxis ist das jedoch meistens Rauschen.
Trotzdem sehen wir besonders in durch x-LOG komprimierten Bereichen spätestens nach dem De-loggen Abrisse, Banding, "homogene" Flächen.
Das ist das was störend auffällt - das kriegste nicht durch nen Downscaler weg, max. durch nen Debandingfilter!! Der stellt dir aber auch die Wahrheit einer echten 10-bit Aufzeichnung nicht wieder her!
Wo kommen die drei zusätzlichen "Streifen" zwischen einem Abriss her, und vor allem wo genau beginnen und enden diese?!?!
Wo waren die in der aufgenommenen Szene bzw. gab es sie vielleicht gar nicht?! Wären die jetzt gleichmäßig prozentual zwischen den Abrissen verteilt oder tendenziell zur helleren oder dunkleren Seite?! Wer weiß das hinterher noch?
Was wird jetzt aus dem 8-bit Farbkanal nach dem Downscale zu 10-bit?!?!

Die Druckerei lass ich jetzt mal RIP...
...also Rest In Peace, nicht Raster Image Processor, wir werden hier sonst nicht fertig...



Antwort von Roland Schulz:


Zudem wird aus meiner Sicht außer Acht gelassen, dass die Adaption im Gehirn permanent stattfindet, da das eigentliche de facto Sichtfeld des menschlichen Auges im Vergleich zu diversen Tieren doch sehr klein ist und dass das Gehirn dieses Defizit mit zusammengesetzten Erinnerungsbildern ausgleicht. Das passiert in Echtzeit, also quasi Lichtgeschwindigkeit. Die Grundlage hierfür ist, dass das menschliche Gehirn (bislang) als einziges auf unserem Planeten zur Abstraktion in der Lage ist.

...wir erinnern uns also an die 3 dunkler abgebildeten Balken unter dem Filter in meinem Test bzw. abstrahieren diese?!
Oder kann die IrisIris im Glossar erklärt im abgedeckten Bereich größer aufmachen als im helleren ;-)?!

Punkt 1 "könnte" tatsächlich eintreten, weiß aber schon wie ich das ausschließen kann - der erweiterte Versuch kommt dann morgen, für heute soll's mal gut sein...



Antwort von mash_gh4:


Aha, wir müssen bei der Aufnahme gedithert haben...

nun -- was würdest du machen, wenn du wunderbares 10bit material -- o.k. von mir aus auch zwischenresultate, die du mit aufwendigen debandig-filtern restauriert hast -- zur verfügung hast, es aber nur als 8bit material auszuliefern vermagst?

dithern ist hier nicht unbedingt die dümmste lösung!

das wissen aber natürlich auch die kamerahersteller. deshalb gibt's auch bei einigermaßen guten kameras mittlerweile kaum noch probleme mit bandig im ursprünglichen 8bit material, so lange die benutzer nicht in der nachbearbeitung wild und wahllos an irgendwelchen reglern herumschrauben.

und obwohl die hersteller das nicht unbedingt an die große glocke hängen, bloß damit irgendwelche dahergelaufenen verwunderliche kunststücke im zuge des skalierens vollbringen, zeigen sich bei dieser operation einfach auch in der praxis begleiterscheinungen dieser völlig anders motivierten bildoptimierung, die zu den genannten effekten bzw. wunderlicher bitvermehrung führen.



Antwort von Roland Schulz:



Aha, wir müssen bei der Aufnahme gedithert haben...

nun -- was würdest du machen, wenn du wunderbares 10bit material -- o.k. von mir aus auch zwischenresultate, die du mit aufwendigen debandig-filtern restauriert hast -- zur verfügung hast, es aber nur als 8bit material auszuliefern vermagst?

dithern ist hier nicht unbedingt die dümmste lösung!

das wissen aber natürlich auch die kamerahersteller. deshalb gibt's auch bei einigermaßen guten kameras mittlerweile kaum noch probleme mit bandig im ursprünglichen 8bit material, so lange die benutzer nicht in der nachbearbeitung wild und wahllos an irgendwelchen reglern herumschrauben.

und obwohl die hersteller das nicht unbedingt an die große glocke hängen, bloß damit irgendwelche dahergelaufenen verwunderliche kunststücke im zuge des skalierens vollbringen, zeigen sich bei dieser operation einfach auch in der praxis begleiterscheinungen dieser völlig anders motivierten bildoptimierung, die zu den genannten effekten bzw. wunderlicher bitvermehrung führen.

...warum unterhalten wir uns nur alle über Banding?! ...und das nicht nur hier?! Einbildung?!

Die andere Antwort steht aus, min. ein Mitlesender kennt meine Hartnäckigkeit ;-): Was wird aus dem 8-bit Farbkanal beim Downscale in eine 10-bit Datei?!



Antwort von mash_gh4:

...warum unterhalten wir uns nur alle über Banding?! ...und das nicht nur hier?! Einbildung?!

ja -- ich halte das auch für kontraproduktiv!
aber wenn es kollegen unbedingt dem WoWu gleich tun müssen, kann ich mich halt in meinem aufklärerischen drang nicht immer beherrschen. ;)

Was wird aus dem 8-bit Farbkanal beim Downscale in eine 10-bit Datei?!

das hängt in erster linie davon ab, ob du den modus des ursprünglichen subsamplings beibehalten willst od. nicht.

im ersteren fall, verhält es sich damit nicht anders als mit luma, im zweitern fall gewinnt man halt an spatialer auflösung bzw. einem bessern subsample-verhältnis...

aber, das sind eher trockene technische details, die ich persönlich nicht so spannend finde. die frage, wie gut sich das ganze mit den genutzten kompressionsverfahren verträgt bzw. wie verschiedene kamerahersteller dithering tatsächlich einsetzten, finde ich dagegen viel interessanter.



Antwort von Funless:



Zudem wird aus meiner Sicht außer Acht gelassen, dass die Adaption im Gehirn permanent stattfindet, da das eigentliche de facto Sichtfeld des menschlichen Auges im Vergleich zu diversen Tieren doch sehr klein ist und dass das Gehirn dieses Defizit mit zusammengesetzten Erinnerungsbildern ausgleicht. Das passiert in Echtzeit, also quasi Lichtgeschwindigkeit. Die Grundlage hierfür ist, dass das menschliche Gehirn (bislang) als einziges auf unserem Planeten zur Abstraktion in der Lage ist.

...wir erinnern uns also an die 3 dunkler abgebildeten Balken unter dem Filter in meinem Test bzw. abstrahieren diese?!

Auch wenn das für dich unglaublich scheinen mag, aber genauso ist es.

Oder kann die IrisIris im Glossar erklärt im abgedeckten Bereich größer aufmachen als im helleren ;-)?!

Nein das kann sie natürlich nicht. Doch in den Sekundenbruchteilen in der die IrisIris im Glossar erklärt sich verkleinert um sich dem hellen Bild anzupassen, werden die Bildinformationen der dunklen Balken dennoch an das Gehirn übertragen, dort abgespeichert, dementsprechend abstrahiert und im Gesamtbild hinzugefügt.

Das "Geheimnis" ist aus meiner Sicht in der Tat im Gehirn und dessen Leistungen zu finden. Dieses kann man ja auch zudem trainieren.

Die Wahrnehmung eines Formel 1 Fahrers bspw. ist durch ständiges Training weitaus besser in höheren Geschwindigkeiten, als es bei einem Otto-Normal Autofahrer der Fall ist. Ist ja nicht so, dass diese Menschen per se besser ausgestattete Augen hätten. Alles nur eine Frage der Gehirnleistung.



Antwort von Roland Schulz:

So, habe den Dynamicrangetest für die Überprüfung des "Systems" Auge/Gehirn noch mal erweitert, da ggf. nicht auszuschliessen war, dass die drei auf der durch den ND-FilterND-Filter im Glossar erklärt abgedunkelten Seite "erscheinenden" Balken ggf. Einbildung oder Illusion sind, die vom Gehirn "erwartet" werden.

Zur Vollständigkeit und späteren Referenzierung nochmal der gesamte Versuch:

Es soll überprüft werden, ob ein optisches System (Auge/Gehirn, Kamera...) einen bestimmten Dynamikumfang erfassen kann. Die Größe des Dynamikumfangs wird durch einen ND/Grau-Filter abgebildet, welcher einfallendes Licht um n Blenden reduziert.

Auf ein idealerweise möglichst helles Display (z.B. Smartphone) wird halbüberdeckend ein ND-FilterND-Filter im Glossar erklärt mit einem Reduktionsfaktor von n Blenden gelegt, um nachzuweisen, dass der Belichtungsumfang des zu überprüfenden, optischen Systems mehr als n Blenden beträgt.
Auf dem Display werden dann die drei Testcharts aus der Anlage der Reihe nach wiedergegeben, jeweils mit zur ~Hälfte durch den ND Filter abgedecktem Display.
Versuchsaufbau.jpg

...daraus ergibt sich folgendes:
EV_exam.jpg

Das Diagramm zeigt die Helligkeit der drei Balken, links einmal durch den ND-FilterND-Filter im Glossar erklärt abgedeckt, rechts unabgedeckt.

Die abgedeckten Balken sind jeweils um n-Lichtwerte/Blenden/EVs reduziert, weil der ND-FilterND-Filter im Glossar erklärt einfallendes Licht um n Lichtwerte verringert.
Es wird nichts "komprimiert" oder gestaucht, alles wird im logarithmischen System um n Blenden linear herabgesetzt.
Die Abstände der Balken innerhalb der Balkentripel zueinander bleiben im logarithmischen System gleich.

Der Dynamikumfang des erfassenden Systems (Auge/Gehirn, Kamera...) ist so groß, so lange alle insgesamt 6 Schattierungen gleichzeitig differenzierbar bleiben. Der Abstand der Balkentripel zueinander kann durch den Reduktionsfaktor des ND-Filters variiert werden.

Wächst die Helligkeit des Displays oder der Reduktionsfakor des ND-Filters jetzt so weit an, dass der jeweils mittlere der 6(!!) Balken die obere- oder untere Differenzierungsgrenze berührt, kann das System (Auge/Gehirn, Kamera) keine weitere Differenzierung im Bereich des Reduktionsfaktors des Filters mit n Blenden mehr garantieren. Die Grenze des Dynamikbereiches des Erfassungssystems ist erreicht.

Mit einem ND-FilterND-Filter im Glossar erklärt (ggf. Kombination) mit Reduktionsfaktor größer 6 Blenden und kleiner des Dynamikbereiches des Erfassungssystems lässt sich so für jeden individuell nachweisen, dass der Erfassungsbereich des wahrscheinlich durchschnittlichen, menschlichen Auges mehr als 6 Blenden beträgt.

Durch Wechsel der drei verschiedenen Testcharts mit frei gewählter Nummerierung pro Seite kann zudem eine Abstraktion, Illusion über Vorhandensein der Balken bzw. die Erwartung durch das Gehirn ausgeschlossen werden, wenn die Zahlen beim statischen Blick erkennbar bleiben.
Das Gehirn kann nicht "abstrahieren", welche Zahlen beim nächsten Bildwechsel, ggf. vor oder zurück durch Helfer, erscheinen.

Ich für meinen Teil bleibe dabei, "mein Auge" kann mehr als 12 Blenden bei statischer Betrachtung erfassen!



Antwort von Roland Schulz:


...warum unterhalten wir uns nur alle über Banding?! ...und das nicht nur hier?! Einbildung?!

ja -- ich halte das auch für kontraproduktiv!
aber wenn es kollegen unbedingt dem WoWu gleich tun müssen, kann ich mich halt in meinem aufklärerischen drang nicht immer beherrschen. ;)

Schon mal in andere Foren geguckt?! Wowu und ich können nicht überall sein ;-)!!

Was wird aus dem 8-bit Farbkanal beim Downscale in eine 10-bit Datei?!

das hängt in erster linie davon ab, ob du den modus des ursprünglichen subsamplings beibehalten willst od. nicht.

im ersteren fall, verhält es sich damit nicht anders als mit luma, im zweitern fall gewinnt man halt an spatialer auflösung bzw. einem bessern subsample-verhältnis...

aber, das sind eher trockene technische details, die ich persönlich nicht so spannend finde. die frage, wie gut sich das ganze mit den genutzten kompressionsverfahren verträgt bzw. wie verschiedene kamerahersteller dithering tatsächlich einsetzten, finde ich dagegen viel interessanter.

Sorry aber das ist Quatsch, vielleicht noch mal über Farbunterabtastung nachdenken und verstehen. Bei 4:2:04:2:0 im Glossar erklärt haben 2x2 PixelPixel im Glossar erklärt eine gemeinsame Farbinformation, beim durch Faktor 2 entstehenden Downscale hat jeder entstehende 4:4:44:4:4 im Glossar erklärt PixelPixel im Glossar erklärt eine eigene Farbinformation! Das ist aber 100% die selbe die vor dem Downscale im 4:2:04:2:0 im Glossar erklärt vorlag!!
Und wer sagt eigentlich dass wir vom Kompressionsverfahren abhängig sind? Das gilt unverändert genauso für ein unkomprimiertes System!!



Antwort von mash_gh4:


Ich für meinen Teil bleibe dabei, "mein Auge" kann mehr als 12 Blenden bei statischer Betrachtung erfassen!

was evtl. als problem an deinem versuchsaufbau gewertet werden könnte bzw. evtl. WoWus standpunkt zu gute kommen dürfte, ist die tatsache, dass du die ganze frage der farbwahrnehmung ausklammerst.

natürlich kann man auch dann noch u.u. von dynamic range sprechen, trotzdem düfte jener bereich, in dem wir tatsächlich so sehen, wie wir das gemeinhin auffassen, enger bemessen ist, auch wenn wir darüber hinaus noch immer helligkeitsunterschiede wahrzunehmen vermögen.



Antwort von Roland Schulz:



...wir erinnern uns also an die 3 dunkler abgebildeten Balken unter dem Filter in meinem Test bzw. abstrahieren diese?!

Auch wenn das für dich unglaublich scheinen mag, aber genauso ist es.

Nö, siehe überarbeiteter Versuch viewtopic.php?f=3&t=135488&p=897918#p897923!!

Jetzt bin ich aber wirklich raus für heute...



Antwort von mash_gh4:

Bei 4:2:04:2:0 im Glossar erklärt haben 2x2 PixelPixel im Glossar erklärt eine gemeinsame Farbinformation, beim durch Faktor 2 entstehenden Downscale hat jeder entstehende 4:4:44:4:4 im Glossar erklärt PixelPixel im Glossar erklärt eine eigene Farbinformation! Das ist aber 100% die selbe die vor dem Downscale im 4:2:04:2:0 im Glossar erklärt vorlag!!

habe ich etwas anderes behauptet?

außer natürlich, dass du es natürlich nicht bei 4:4:44:4:4 im Glossar erklärt belassen musst. du kannst auch nach dem skalieren 4:2:04:2:0 im Glossar erklärt nutzen. wenn die benachbarten felder dithering in den color planes ditheriung nutzen , könnte man damit auch wieder echte 10bit gewinnen. ;)



Antwort von Roland Schulz:


Bei 4:2:04:2:0 im Glossar erklärt haben 2x2 PixelPixel im Glossar erklärt eine gemeinsame Farbinformation, beim durch Faktor 2 entstehenden Downscale hat jeder entstehende 4:4:44:4:4 im Glossar erklärt PixelPixel im Glossar erklärt eine eigene Farbinformation! Das ist aber 100% die selbe die vor dem Downscale im 4:2:04:2:0 im Glossar erklärt vorlag!!

habe ich etwas anderes behauptet?

außer natürlich, dass du es natürlich nicht bei 4:4:44:4:4 im Glossar erklärt belassen musst. du kannst auch nach dem skalieren 4:2:04:2:0 im Glossar erklärt nutzen. wenn die benachbarten felder dithering in den color planes ditheriung nutzen , könnte man damit auch wieder echte 10bit gewinnen. ;)

NEIN.



Antwort von Funless:



Auch wenn das für dich unglaublich scheinen mag, aber genauso ist es.

Nö, siehe überarbeiteter Versuch viewtopic.php?f=3&t=135488&p=897918#p897923!!

Ich wußte gar nicht, dass das Retina Display des iPhone in der horizontalen Ausrichtung in mindestens drei verschiedenen Helligkeitstufen mit jeweils einer weiteren BlendeBlende im Glossar erklärt Stärke leuchten kann. Ich krieg' das mit meinem iPhone 6 und meinem iPad Air 2 nicht hin. Was hast du denn da, ein iPhone 7? Und das kann das?

Verstehst du was ich sagen will?



Antwort von Roland Schulz:



Nö, siehe überarbeiteter Versuch viewtopic.php?f=3&t=135488&p=897918#p897923!!

Ich wußte gar nicht, dass das Retina Display des iPhone in der horizontalen Ausrichtung in mindestens drei verschiedenen Helligkeitstufen mit jeweils einer weiteren BlendeBlende im Glossar erklärt Stärke leuchten kann. Ich krieg' das mit meinem iPhone 6 und meinem iPar Air 2 nicht hin. Was hast du denn da, ein iPhone 7? Und das kann das?

Verstehst du was ich sagen will?

Die Helligkeitsabstände zwischen den Balken auf dem Display sind relativ irrelevant, sie müssen für den Versuch für den Betrachter nur differenzierbar bleiben um bei der gemeinsamen Betrachtung mit ND Filter sicherzustellen, das der jeweilige abgedeckte bzw. nichtabgedeckte Balkentripel nicht bereits im Clipping (Lichter/Tiefen) verschwindet.
Den zu überprüfenden Abstand macht der ND Filter, dachte ich hätte das ausreichend beschrieben.



Antwort von WoWu:



...weil der Mensch eben keine 24 Blenden sehen kann, sondern nur die besagten 6+

naja -- auch zw. 6+ u. etwa 10 1/2 blenden liegt noch ein ziemlicher unterschied. :)


Mann, guck doch endlich mal auf die Skalierungen an (übriges auch bei den, von Dir verlinkten Artikeln)
10 incl. jeglicher Adaption und 6+ in einem Rutsch, ohne Adaption.
Es kann doch wirklich nicht so schwer sein, Scalen abzulesen.
Bei Deinen Links sind es sogar nur 8 inc. Adaption

Aber so, oder so ist der Schwachsinn von 24 Blenden wohl ausreichend widerlegt.



Antwort von Funless:



Ich wußte gar nicht, dass das Retina Display des iPhone in der horizontalen Ausrichtung in mindestens drei verschiedenen Helligkeitstufen mit jeweils einer weiteren BlendeBlende im Glossar erklärt Stärke leuchten kann. Ich krieg' das mit meinem iPhone 6 und meinem iPar Air 2 nicht hin. Was hast du denn da, ein iPhone 7? Und das kann das?

Verstehst du was ich sagen will?

Die Helligkeitsabstände zwischen den Balken auf dem Display sind relativ irrelevant, sie müssen für den Versuch für den Betrachter nur differenzierbar bleiben um bei der gemeinsamen Betrachtung mit ND Filter sicherzustellen, das der jeweilige abgedeckte bzw. nichtabgedeckte Balkentripel nicht bereits im Clipping (Lichter/Tiefen) verschwindet.
Den zu überprüfenden Abstand macht der ND Filter, dachte ich hätte das ausreichend beschrieben.

Du hast das in der Tat ausführlich beschrieben, keine Frage .... nur (wie mash_gh4 bereits oben angemerkt hat) nimmt sowohl das Auge, als auch das Gehirn die Versuchskonstruktion als Farbabstufungen und nicht als Helligkeitsabstufungen wahr und werden daraus resultierend auch nicht als solche interpretiert. Genau das ist es was WoWu mit Tonwertwahrnehmung meint.

Die Mühe deines Versuchs in allen Ehren, wirklich ganz im Ernst, nichts liegt mir ferner als deine Intention dahinter in Frage zu stellen. Jedoch ist dein Versuchsaufbau insofern obsolet da hier de facto auf dem Display eines Smartphones oder Tablets oder sonstigem gewöhnlichen Screen keine tatsächlich unterschiedliche Leuchtkraft in verschiedenen Helligkeitsstufen gleichzeitig stattfindet.

Dieser Versuchsaufbau macht aus meiner Sicht nur dann Sinn, wenn bspw. ein Rahmen hergenommen wird in dem verschiedene Bereiche mit realen Lichtquellen in verschiedenen Helligkeitsstufen leuchten. Aber nicht in dem ich eine Grafikdatei auf einem Display darstelle.



Antwort von Roland Schulz:



Die Helligkeitsabstände zwischen den Balken auf dem Display sind relativ irrelevant, sie müssen für den Versuch für den Betrachter nur differenzierbar bleiben um bei der gemeinsamen Betrachtung mit ND Filter sicherzustellen, das der jeweilige abgedeckte bzw. nichtabgedeckte Balkentripel nicht bereits im Clipping (Lichter/Tiefen) verschwindet.
Den zu überprüfenden Abstand macht der ND Filter, dachte ich hätte das ausreichend beschrieben.

Du hast das in der Tat ausführlich beschrieben, keine Frage .... nur (wie mash_gh4 bereits oben angemerkt hat) nimmt sowohl das Auge, als auch das Gehirn die Versuchskonstruktion als Farbabstufungen und nicht als Helligkeitsabstufungen wahr und werden daraus resultierend auch nicht als solche interpretiert. Genau das ist es was WoWu mit Tonwertwahrnehmung meint.

Die Mühe deines Versuchs in allen Ehren, wirklich ganz im Ernst, nichts liegt mir ferner als deine Intention dahinter in Frage zu stellen. Jedoch ist dein Versuchsaufbau insofern obsolet da hier de facto auf dem Display eines Smartphones oder Tablets oder sonstigem gewöhnlichen Screen keine tatsächlich unterschiedliche Leuchtkraft in verschiedenen Helligkeitsstufen gleichzeitig stattfindet.

Dieser Versuchsaufbau macht aus meiner Sicht nur dann Sinn, wenn bspw. ein Rahmen hergenommen wird in dem verschiedene Bereiche mit realen Lichtquellen in verschiedenen Helligkeitsstufen leuchten. Aber nicht in dem ich eine Grafikdatei auf einem Display darstelle.

Du hast die Funktion des halb überlappenden ND Filters im Versuch noch nicht verstanden glaube ich, der ND Filter sorgt dafür das eine Quelle im Helligkeitsabstand des ND Filters zweimal gleichzeitig dargestellt wird (Bild Versuch). Der durch den ND Filter abgedeckte Bereich ist n Blenden dunkler als der Bereich, der nicht abgedeckt ist! Kannst Du die dadurch entstehenden 6 Abstufungen und Zahlen alle erkennen und lesen, entspricht der Dynamikumfang deines Auges mindestens dem Reduktionsfaktor in Blenden des ND Filters!
Mit "Illusion" ist durch die Ergänzung mit den Zahlen auch nicht mehr zu rechnen, kannst nicht wissen was nach der vorigen Darstellung beim Wechsel kommt!



Antwort von klusterdegenerierung:


Mash, darf ich die Frage nach Deinem Alter stellen?!
Würd mich auch mal interessieren ;-)



Antwort von mash_gh4:



Mash, darf ich die Frage nach Deinem Alter stellen?!
Würd mich auch mal interessieren ;-)

ja -- ist kein grosses geheimnis ;) -> bin ein echter 68er...
und noch immer keiner von den schlipsträgern ;)



Antwort von WoWu:

Dan wärst Du ja jetzt so um die 70; denn die (echten) 68er waren ja die, die dem Schah an der Deutschen Oper in Berlin die Stirn gezeigt und den Vietnamkrieg beim Namen genannt haben.
Oder waren die 68 das reale Alter oder das Geburtsjahr ?



Antwort von mash_gh4:


...denn die (echten) 68er waren ja die, die dem Schah an der Deutschen Oper in Berlin die Stirn gezeigt und den Vietnamkrieg beim Namen genannt haben.

naja -- zum glück haben sich ja ein paar davon, an denen diese anderen geschichten mehr oder weniger spurlos vorübergegangen sein dürften, offenbar doch zumindest am "make love not war" erfreut. :)



Antwort von klusterdegenerierung:


Dan wärst Du ja jetzt so um die 70; denn die (echten) 68er waren ja die, die dem Schah an der Deutschen Oper in Berlin die Stirn gezeigt und den Vietnamkrieg beim Namen genannt haben.

hahaha:-))
Ich wolts auch gerade sagen! :-)

68? wow da bin ich ja sogar ein Jahr jünger als Du.
Und was ist mit unserem lieben Roland? ;-)
WoWu ist ja gefühlt 110 das wissen wir ja alle. ;-))))



Antwort von WoWu:

Nee nee, Kluster .. 99.
Nun mach mich nicht älter, als ich bin.



Antwort von Roland Schulz:

...einundviersich - also Alter, nicht Baujahr ;-)!
mash hätte ich als fast noch frischen Uniabgänger eingeschätzt ;-) ;-) ;-)!!!

Wowu...?!?!



Antwort von mash_gh4:


WoWu ist ja gefühlt 110 das wissen wir ja alle. ;-))))

ausschlaggebend wäre das alter ja ohnehin nur bei stimmengleichheit -- was es aber zum glück hier ohnehin nie gibt! :)



Antwort von mash_gh4:


mash hätte ich als fast noch frischen Uniabgänger eingeschätzt ;-) ;-) ;-)!!!

wenn das die mädels nur auch so sehen würden! ;)



Antwort von klusterdegenerierung:


mash hätte ich als fast noch frischen Uniabgänger eingeschätzt ;-) ;-) ;-)!!!

Dito, ich so auf 36 ;-)



Antwort von mash_gh4:


Dito, ich so auf 36 ;-)

danke -- also wenigestens "full frame" wäre sich zumindest schon ausgegangen...



Antwort von Roland Schulz:



mash hätte ich als fast noch frischen Uniabgänger eingeschätzt ;-) ;-) ;-)!!!

wenn das die mädels nur auch so sehen würden! ;)

Ich geh mit dem 11er und der "Haarpracht" auch immer für älter durch :-(!!
Da kommen dann immer so Sprüche wie "lieber nen forschen Pim... als nen Porschefimmel usw..." - scheiss drauf ;-) !!



Antwort von Roland Schulz:

Wowu schätze ich mal auf 69 - vielleicht schon im dritten Jahr ;-p !!



Antwort von domain:

Roland Schulz 21.4.:

"Richte ich den Blick jetzt wie im Bild dargestellt auf die Leuchtplatte, erkenne ich ganz klar dass das Licht durch den 2 Stop Filter merklich heller ist als das, welches durch den 10 Stop Filter kommt.
GLEICHZEITIG und OHNE ADAPTION erkenne ich aber auch, dass das Licht welches neben den Filtern emittiert wird nochmals heller ist als das Licht durch den 2 Stop Filter.
Weiterhin erkenne ich zur gleichen Zeit, dass der unbeleuchtete Rahmen der Leuchtplatte durch den 10 Stop Filter nochmals dunkler sichtbar ist.
Ich "behaupte" zudem dass dieser Versuch noch lange nicht das Ende des erkennbar möglichen darstellt, die 8 Blenden Helligkeitsunterschied zwischen 2- und 10 Stop Filter zudem "ein Witz" für das menschliche Auge sind"

Ich habe versucht, deinen Test in abgeänderter Form nachzuvollziehen und zwar mit einem kleinen Leuchtpult (Din A5), das ungefiltert über einen hochwertigen Belichtungsmesser eine Belichtungszeit von 1/125 BlendeBlende im Glossar erklärt 16 bei ISO 125 ergab, also einer normalen Tageslichthelligkeit entsprechend. Dann habe ich voll abdeckend mehrere Lagen schweres Druckerpapier darübergelegt. Mit jeder Lage ergab sich eine Belichtungsverlängerung um 3 Blenden. Selbst bei 4 Lagen konnte ich in der Dunkelkammer noch ein Durchscheinen erkennen.
Aber und jetzt kommt die wesentliche Veränderung gegenüber deinen Versuchen: ich habe absichtlich das Betrachtungsfeld auf zwei ca. 5mm breite Streifen eingeschränkt, also dem vollen Licht und dem abgedeckten Bereich je 5 mm zugestanden und außerdem bei jedem Versuch einen lichtundurchlässigen schmalen Papierstreifen im rechten Winkel zur KanteKante im Glossar erklärt zwischen hell und dunkel aufgelegt. Wenn das Auge nur mehr einen engen Bereich um den schwarzen Papierstreifen von ca. einem Quadratzentimeter beobachten kann, ändert sich der beobachtbare Dynamikumfang dramatisch. Es gehen mit Feinabstimmung über dünneres Papier mit Mühe und Not gerade mal 7,5 Blenden, aber mehr nicht.
Also den Wert 6,5 könnte man meiner Meinung nach in der Literatur ohne Bedenken auf 7,5 erhöhen.
Ein interessante Phänomen konnte ich noch beobachten. Wenn der abgedunkelte Bereich nicht auf 5mm reduziert wurde erkennt man auch bei plus 12 Blenden ab so ca. 2 cm vom Rand das matte Durchschimmern des Leuchtpultes und den schwarzen Papierstreifen einwandfrei, aber das funktioniert nur mit einer Augenbewegung und die war und ist nicht Gegenstand der 6.5 Blenden in der Literatur, sondern hier geht es um direkte Nachbarschaft von kontrastreichen Objekten.



Antwort von Funless:

Aber und jetzt kommt die wesentliche Veränderung gegenüber deinen Versuchen: ich habe absichtlich das Betrachtungsfeld auf zwei ca. 5mm breite Streifen eingeschränkt, also dem vollen Licht und dem abgedeckten Bereich je 5 mm zugestanden und außerdem bei jedem Versuch einen lichtundurchlässigen schmalen Papierstreifen im rechten Winkel zur KanteKante im Glossar erklärt zwischen hell und dunkel aufgelegt.

So wie von domain beschrieben und durchgeführt, macht dieser Test aus meiner Sicht wirklich Sinn.



Antwort von Roland Schulz:

Einen wunderschönen guten Tag verehrte Damen und Herren, guten Morgen liebe Studenten!!

So, ich habe den Versuch
viewtopic.php?f=3&t=135488&start=210#p897923
heute morgen mal mit vier Kollegen und dem ND3 10 stop Filter durchgeführt.
Für jeden war die aktuelle Version des Tests plausibel nachvollziehbar und er wird auch als physikalisch richtig bewertet (wobei das auch alles "nur" E-Ings hier sind ;-) ).
Bei 10 Blenden hatte niemand ein Problem den Test nachzuvollziehen, weitere Filter hatte ich nicht dabei.

Für mich reicht das aber um nachzuweisen, dass das menschliche Auge mehr als die im Raum stehenden ~6,5 Blenden gleichzeitig, statisch ohne Adaption, Augenverschwenken oder sonstwas zumindest monochrom differenzieren kann.

Eine eventuelle Toleranz des Filters, welche ich jetzt bei B+W nicht unbedingt im relevanten Bereich erwarte, wird das Ergebnis meiner Ansicht nach nicht signifikant beeinflussen.

Bei der Findung zur Ausführung dieses Versuches hatte ich auch ähnliche Ideen wie domain, habe diese aber schnell verworfen weil es sehr schwierig ist, einen Belichtungsmesser bei der "Kalibrierung" von "Filtern" vor Fremdlicht zu schützen, Streulicht das Ergebnis ggf. beeinflusst.
Falls sich noch jemand erinnert wollte ich meine Bastel-DR-Wedge zunächst kalibrieren (ausmessen), habe das nach einigen optisch wie mechanisch fragwürdigen Versuchen aber eingestellt und verworfen. In dem Verfahren gäbe es mehrere Quellen für Toleranzen, neben Streulicht natürlich auch den Belichtungsmesser selbst.

Den aktuellen Test halte ich, zugegeben in Abhängigkeit eventueller Toleranzen des Filters, für "totsicher".
"Ich" bin vom logisch und physikalisch nachvollziehbaren Ergebnis überzeugt, da keine weiteren Abhängigkeiten als die des Filters zu erwarten sind (Displayqualität/Helligkeit etc. ist irrelevant, den zu ermittelnden Abstand erzeugt einzig und allein der Filter selbst)!

Frage ist wer das jetzt ggf. mal der "Uni Dortmund" o.ä. zur Beurteilung übergibt... Wolfgang, glaube Du bist am "nahesten" dran, nicht ;-)?!
Andernfalls packen wir das alles ein und leben hier zukünftig mit zwei verschiedenen Annahmen, wäre ja auch nicht das erste Mal und auch nicht kriegsentscheidend wie ich finde ;-)!

Hat eigentlich niemand mal den Test genau so wie unter viewtopic.php?f=3&t=135488&start=210#p897923 beschrieben nochmal exakt nachvollzogen?! Bin ich der einzige der über ND Filter => 8 stops verfügt?! Hatte mich schon geschämt keinen 4 stop Filter für weitere Variantenkombinationen da zu haben ;-), wobei der Einsatzfall zugegeben für Videoanwendungen auch praktisch unerheblich ist (mache damit in der Sonne Fotos von Wasserfällen etc.), es sei denn man nutzt ne A7s mit S-LOG und offener 1.4er Optik in der prallen Sonne ;-).

Als ND Filter sind ggf. auch die ND Filterfolien von LEE geeignet, die habe ich auch in der DR Wedge drin und soooo sehr daneben scheint das Ding nicht zu sein.
Gibt"s z.B. hier, lassen sich dann sehr einfach übereinanderklappen (Toleranz der Folien würde sich dann aber addieren): https://www.calumetphoto.de/product/Lee ... -ND/LEE210
Lt. Beschreibung "wissenschaftlich geprüft" und zuverlässig, keine Ahnung was man darauf geben darf...



Antwort von Roland Schulz:

@domain: Dein Test ist nicht aussagekräftig, weil Du im nichtabgedeckten Bereich nicht sicher sein kannst, ob sich das Auge oder das zu überprüfende System bereits in der Blendung/Clipping befindet! Du brauchst da was was nochmal etwas heller/dunkler ist um sicherzustellen, dass wirklich noch Zeichnung erkannt wird! Deshalb hatte ich in meinem allerersten Test bereits einen 2 stop Graufilter aufgelegt, um eine Abstufung zur direkten Helligkeit der Leuchtplatte zu erlangen.
Deshalb gibt"s in meinem aktuellen Versuchsaufbau auf dem Display drei verschiedene, im Idealfall von der Helligkeit möglichst dicht beeinanderliegende Helligkeitsabstufungen, welche im nichtabgedeckten- und abgedeckten Bereich alle vom Auge/System differenzierbar bleiben müssen!
Wenn man alle Abstufungen sieht ist sichergestellt, dass weder die helleren- noch die dunkleren Balken zu Clipping geführt haben, der gesamte, dargestellte Dynamikbereich sichtbar ist! Der Dynamikbereich des Auges ist dann mindestens so groß wie der Reduktionsfaktor des Filters.
Eigentlich ganz einfach...



Antwort von Roland Schulz:

@Wowu: nochmal drüber geschlafen?! Was sagt dein geschätztes, wissenschaftliches Verständnis zum Versuch?!



Antwort von domain:

Bei meinen Tests gab es keine Fremdlichteinflüsse, weil die lichtempfindliche Zelle des Präzisionsbelichtungsmessers direkt aufgelegt werden konnte.
Das Wesentliche in diesem speziellen Test ist meiner Meinung nach das sehr begrenzte Beobachtungsfeld, in dem ab 7,5 Blenden kein Unterschied mehr zwischen dem durchleuchtenden Grau und dem schwarzen Papierstreifen zu erkennen war.
Interessant aber, wie das Gehirn arbeitet.
Wie gesagt, auch bei 12 Stops plus konnte man den schmalen schwarzen Streifen im lichtreduzierten Sichtbereich noch erkennen. In dem Fall aber verlängert die Datenverarbeitung im Hirn die Linie, sodaß man sich einbildet, sie zumindest auch noch bei +9 Blenden erkennen zu können. Das ist ganz typisch für die Automatismen im Hirn, so z.B. auch wesentlich für das Gestaltsehen, wie z.B. bei den Sternbildern, wo die einzelnen Sterne durch gedachte Linien miteinander verbunden erscheinen.



Antwort von Roland Schulz:

@domain: Um die gedachten "Illusionen" bzw. eventuellen Streulichtstreifen im Auge auszuschliessen habe ich ja die Zahlen in den überarbeiteten Versuch mit eingebracht.
Bei Wechsel der Testcharts wird's so schon richtig schwer sich die Zahlen auszudenken, vor allem wenn ein Dritter die Testcharts wechselt ;-)!!!



Antwort von mash_gh4:


Für mich reicht das aber um nachzuweisen, dass das menschliche Auge mehr als die im Raum stehenden ~6,5 Blenden gleichzeitig, statisch ohne Adaption, Augenverschwenken oder sonstwas zumindest monochrom differenzieren kann.

wenn du die adaption in deinem versuch ausklammern willst, musst du vermutlich irgendeine form der modulation des lichts nutzen, die dem ganz bewusst entgegen wirkt -- so jedenfalls begegenet man dem in den meisten testreihen bei forschungen.
(siehe: http://webvision.med.utah.edu/book/part ... of-vision/)

da mich aber mehr die praktischen und gestalterischen konsequenzen solcher sachen interessieren bzw. möglichkeiten, die sich daraus ergeben, finde ich vor allem dieses wörtchen "monochrom" vor dem differnzieren spannend.

wenn es nämlich so ist, dass in etwa einem drittel des helligkeitsbereich ausschließlich noch die stäbchen auf der netzhaut, die zwar empfindlicher sind, aber keine farben zu differnzieren erlauben, den sehsinn prägen, stellt sich für mich die frage, ob wir das nicht auch auf die digitale verabeitung von sensordaten übertragen können, ohne damit den visuellen eindruck der bilder über die maßen störend zu verfremden?

es klingt ja äußert reizvoll, wenn wir gerade in jenem bereich, wo wir ohnehin immer ganz massiv mit dem rauschen der sensoren zu kämpfen haben, benachbarte pixel, deren differenzierung ja nur im zusammenhang mit der farbinterpretation notwendig ist, zusammenlegen könnten, ihre differenz bzw. rauschen selektiv unterdrücken könnten und eben diesen bereich ganz anders bearbeiten könnten als hellere bildteile...

ähnliches kenne ich sonst eigentlich nur von diskussionen über den sättigungsverlauf in hellen bildteilen (bspw: http://www.dvinfo.net/article/post/maki ... lve-9.html), dabei scheint es dort viel eher ein kosmetische frage zu sein, die bei gott nicht jene möglichkeiten eröffnet, die man mit einer selektiven behandlung der dunklen und rauschbehafteten bildteile erzielen können dürfte -- speziell, wenn man bedenkt, dass dieser bereich des s/w sehens in wahrheit relativ groß sein dürfte bzw. gleich mehrere blenden umfasst.



Antwort von Roland Schulz:

Ein Fehler könnte im Versuch tatsächlich auftreten, nämlich eine Inhomogenität der Ausleuchtung des Displays.
Diese ist aber beim mir verwendeten Display nicht "erkennbar", spielt in diesem Fall beim Nachweisversuch DRauge > 6 Blenden auch keine Rolle.
Beim Versuch mit dem 10 Stop Filter müsste die Ausleuchtung um >3 Blenden auf einer Seite variieren - denke mal das ist jedem klar dass das bei nem iPhone 6s Display o.ä. nicht der Fall ist ;-).
Zur Verifikation könnte man das Display zwischen Einzeltests drehen.

-> eher theoretischer Natur



Antwort von mash_gh4:


Ein Fehler könnte im Versuch tatsächlich auftreten, nämlich eine Inhomogenität der Ausleuchtung des Displays.

inhomogenitäten der displayausleuchtung sind im falle deines geräts eher nicht das problem bzw. typischerweise weit kleiner als die untersuchten blendenstufen:

zum Bild http://users.mur.at/ms/attachments/6s-d ... chtung.png
(https://www.notebookcheck.com/Erster-Ei ... 846.0.html)



Antwort von Roland Schulz:



Für mich reicht das aber um nachzuweisen, dass das menschliche Auge mehr als die im Raum stehenden ~6,5 Blenden gleichzeitig, statisch ohne Adaption, Augenverschwenken oder sonstwas zumindest monochrom differenzieren kann.

...da mich aber mehr die praktischen und gestalterischen konsequenzen solcher sachen interessieren bzw. möglichkeiten, die sich daraus ergeben, finde ich vor allem dieses wörtchen "monochrom" vor dem differnzieren spannend.
...

Beim nochmal drüber schlafen fiel mir halt auf dass man hier irgendwo begrenzen muss. Die Frage ist aber für welchen Bereich man das macht und ob man das überhaupt allgemein beschreiben kann. Jetzt befinden sich ja im verwendeten "Mischlicht" schon verschiedene Wellenlängen. Dass wir Bereiche um den Ultraviolett- bzw. Infrarotbereich aber "ausklammern" sollten muss klar sein.
Vor diesen Grenzbereichen ist das Auge aber auch nicht mit einem Schlag und unendlich hoher Filtersteilheit "blind". Die "Dämpfung" steigt hier allerdings an, so dass man dort u.U. einen deutlich kleineren DR aufweist als >10 Blenden, sehr wahrscheinlich aber auch kleiner als 6 Blenden.
Ich "schätze" mal die Dunkelgrenze bleibt der den anderen Wellenlängenbereichen sehr ähnlich.



Antwort von Roland Schulz:



Ein Fehler könnte im Versuch tatsächlich auftreten, nämlich eine Inhomogenität der Ausleuchtung des Displays.

inhomogenitäten der displayausleuchtung sind im falle deines geräts eher nicht das problem bzw. typischerweise weit kleiner als die untersuchten blendenstufen:

zum Bild http://users.mur.at/ms/attachments/6s-d ... chtung.png
(https://www.notebookcheck.com/Erster-Ei ... 846.0.html)

...deshalb sprach ich beim verwendeten "Qualitätsgerät" auch von rein theoretischer Natur - es könnte aber ein Fehler werden wenn jemand ein Gerät mit partiell ausgefallenem BacklightBacklight im Glossar erklärt verwendet ;-)!!

P.S.: Den Kontrast in dem Test bei NC mit nem i1Pro2 zu ermitteln halte ich für gewagt - untenrum rauscht das Spektro recht stark, da kommen ständig andere Dunkelgrenzen bei raus. Zum Ausmessen des Kontrasts ist das i1displayPro wesentlich geeigneter - das ist allerdings in den Farben und dem Weißpunkt u.U. sichtbar schlechter (wenn die Filter des Meßgerätes eine andere spektrale Wiedergabe aufweisen als die Farbfilter im Display sie erzeugen). Spotmessungen sind damit auch deutlich schwieriger.
Die gegenständliche Helligkeitsverteilung mit dem i1Pro2 festzustellen sollte aber relativ genau gelingen.



Antwort von mash_gh4:


Beim nochmal drüber schlafen fiel mir halt auf dass man hier irgendwo begrenzen muss. Die Frage ist aber für welchen Bereich man das macht und ob man das überhaupt allgemein beschreiben kann.

ich denke, dass das ziemlich einfach zu erfassen ist, wenn man sich bspw. auf jene grafik bezieht, auf die u.a. WoWu schon weiter oben verwiesen hat :

zum Bild http://www.telescope-optics.net/images/response.PNG



Antwort von Roland Schulz:

Also ich lese da auch ~10 Blenden draus ab, behaupte aber dass es auch darüber hinaus geht (min. 12...).
Was das Diagramm jetzt allerdings mit der Empfindlichkeit über den "Wellenlängenbereich" des Lichts zu tun haben soll wird mir nicht klar.



Antwort von mash_gh4:


Also ich lese da auch ~10 Blenden draus ab, behaupte aber dass es auch darüber hinaus geht (min. 12...).

sehe ich ähnlich -- wobei diese grafik ja die adaption durch verkleinerung der pupillenöffnung noch nicht einbezieht, sondern eben wirklich die gleichzeitig wahrnehmbaren helligkeitswerte. diese ganze "adaptions"-problematik ist eben reichlich mehrdeutig...

Was das Diagramm jetzt allerdings mit der Empfindlichkeit über den "Wellenlängenbereich" des Lichts zu tun haben soll wird mir nicht klar.

entscheidend ist hier vor allem der übergang zwischen stäbchen und zäpfchen als aktive rezeptoren auf der netzhaut. nur zweitere können zw. farben differnzieren, dafür sind erstere deutlich empfindlicher... (Photopisches und skotopisches Sehen)



Antwort von domain:

Wie bei allen Tests kommt immer das heraus, was man versucht zu beweisen ;-)
Erst präzise Falsifizierungsverfahren konnten in der Vergangenheit massive Irrtümer in der Wissenschaft aufdecken.
Die Falsifizierung ist das bedeutendste Element bei der experimentellen Physik.



Antwort von mash_gh4:


Wie bei allen Tests kommt immer das heraus, was man versucht zu beweisen ;-)
Erst präzise Falsifizierungsversuche konnten in der Vergangenheit massive Irrtümer in der Wissenschaft aufdecken.

da hast schon recht --- wobei es mir manchmal in unseren gefielden hier herunten schon reichen würde, wenn es zumindest möglich wäre, wenigstens manchmal irgendwie von vorgefassten meinungen und unhaltbaren dogmen herunterzusteigen und ein minimum an ein-sehen zu zeigen, wenn die last der beweise es ohnehin mehr als nahe legt.

es ist ja nicht so, dass man in allen dingen gleich alles wissen könnte, od. durch kurzes nachschlagen in lexikas zum experten für ein ganzes wissensgebiet wird, trotzdem gibt's halt mehr oder weniger fruchtbare weisen sich derartigen herausforderungen mit wissbegier und neugierde zu stellen, oder eben einfach unerschütterlich an vorgefassten meinungen festzuhalten...



Antwort von Roland Schulz:


Was das Diagramm jetzt allerdings mit der Empfindlichkeit über den "Wellenlängenbereich" des Lichts zu tun haben soll wird mir nicht klar.

entscheidend ist hier vor allem der übergang zwischen stäbchen und zäpfchen als aktive rezeptoren auf der netzhaut. nur zweitere können zw. farben differnzieren, dafür sind erstere deutlich empfindlicher...

Können die aktiven Rezeptoren denn jetzt linear von unterhalb des ultravioletten Lichts bis hinaus über Infrarotstrahlung erfassen?! Ich glaube nicht ;-). Das wollte ich mit meiner "dämlichen" Anmerkung sagen.
Wenn ich wie ich es (monochrom) begrenzt habe Wellenlängenbereiche des Spektrums oder Modulationen davon in Frage stelle muss ich schon wissen, was andere bei ihrer Ermittlung als BandbreiteBandbreite im Glossar erklärt angenommen haben. Darüber finde ich aber keine detaillierten Informationen.

Deshalb auch würde ich meinen Versuch auch weiterhin nicht in Frage stellen.

Bei Kameras ermitteln wir den DR z.B. in der Regel auch nur monochrom. In den Grenzbereichen ist auch keine Farbdarstellung mehr möglich da eine dazu erforderliche Reduktion mindestens einer Primärfarbe, welche die Farbfilter registrieren, eine Reduktion der Gesamtintensität bedeutet, umgekehrt in den Tiefen eine Erhöhung.
Die Maximalintensität wird bei vielen Kamerasystemen aber dennoch bereits (sinnvoll) limitiert. Passiert das nicht entstehen in den Lichtern nahe des Clippings Farbverschiebungen. Der blaue Himmel wird dann mit steigender Helligkeit mitunter türkis statt weiß, weil der grüne Anteil nicht begrenzt wird. Das tritt auch heute noch gar nicht so selten auf.



Antwort von mash_gh4:


Können die aktiven Rezeptoren denn jetzt linear von unterhalb des ultravioletten Lichts bis hinaus über Infrarotstrahlung erfassen?! Ich glaube nicht ;-). Das wollte ich mit meiner "dämlichen" Anmerkung sagen.
Wenn ich wie ich es (monochrom) begrenzt habe Wellenlängenbereiche des Spektrums oder Modulationen davon in Frage stelle muss ich schon wissen, was andere bei ihrer Ermittlung als BandbreiteBandbreite im Glossar erklärt angenommen haben. Darüber finde ich aber keine detaillierten Informationen.

das geht ohnehin ganz klar und verständlich aus dem oben verlinkten artikel über die die stäbchen-zapfen-zusammenarbeit hervor.



Antwort von Roland Schulz:


Wie bei allen Tests kommt immer das heraus, was man versucht zu beweisen ;-)
...

...wenn dem mal so wäre ;-)! Einen Beweis haben wir auch nicht erbracht, maximal einen Nachweis an einzelnen Personen - wobei bisher kein Ausreisser dabei war.

da hast schon recht --- wobei es mir manchmal in unseren gefielden hier herunten schon reichen würde, wenn es zumindest möglich wäre, wenigstens manchmal irgendwie von vorgefassten meinungen und unhaltbaren dogmen herunterzusteigen und ein minimum an ein-sehen zu zeigen, wenn die last der beweise es ohnehin mehr als nahe legt.

es ist ja nicht so, dass man in allen dingen gleich alles wissen könnte, od. durch kurzes nachschlagen in lexikas zum experten für ein ganzes wissensgebiet wird, trotzdem gibt's halt mehr oder weniger fruchtbare weisen sich derartigen herausforderungen mit wissbegier und neugierde zu stellen, oder eben einfach unerschütterlich an vorgefassten meinungen festzuhalten...

Also 6 von 6 "halbwegs normalen Menschen" (Porschefahrer, Rennradfahrer, U-Bahn Mitfahrer,... ein Paraglyder, eine Harfenspielerin und eine vermeindliche "Chefin"...;-) ) haben im Rahmen des Tests einen Dynamic Range ihrer Augen von mindestens 10 Blenden bestätigt.



Antwort von WoWu:

Die 10 Blenden sehe ich auch, allerdings ohne Berücksichtigung von Adaption.
Geht man also von 10 Blenden aus, dürfte es die Adaption des Auges gar nicht geben.
Es gibt sie aber nun mal und das Gute ist, jeder kann das ohne grossen Messaufwand bestätigen.
Denn in hellen Umgebungen kann man einfach keine Zeichnung in dunklen Sektionen mehr erkennen.
Berücksichtigt man sie, landet man (auch in den Darstellungen) wieder bei den besagten 6-7.
Bei 10 Blenden sind aber beide Bereiche eingeschlossen, also keine Adaption berücksichtigt.
Übrigens ist Utah da noch wesentlich konservativer und geht von noch weniger aus.
Was die Wellenlängen angeht, beziehen sich alle Angaben wohl auf 550 nm, was ja auch Sinn macht.

Übrigens ist der verlinkte Artikel bezüglich der unterschiedlichen Empfindlichkeit der Zapfen und Stäbchen nicht zuende gebracht, weil die unterschiedliche Empfindlichkeit erst durch einen chemischen Prozess stattfindet, in dem eine Neusynthese von Rhodopsin in den Stäbchen stattfindet und sie so erst 1000 mal lichtempfindlicher macht.
Dieser Prozess kann aber halbe Tage dauern.
Wenn man also die Wellenlänge ins Spiel bringt, müsste man erst einmal die zeitliche Komponente berücksichtigen und damit kommen wir immer weiter nach unten, also in die Unempfindlichkeit.



Antwort von WoWu:


@Wowu: nochmal drüber geschlafen?! Was sagt dein geschätztes, wissenschaftliches Verständnis zum Versuch?!

@Roland
Ich bin da Pragmatiker und halte mich da an die universitären Vorgaben.
Die Kollegen, die den Stoff lehren, stehen viel besser in der Materie.
Und an sich deckenden Informationen aus der Wissenschaft besteht ja kein Mangel, wie man sieht.
Jeder, der sich selbst mit wissenschaftlichen Experimenten einmal beschäftigt hat weiss, wie schnell Messfehler die Ergebnisse verfälschen, insofern schenke ich mir solche Fehlerquellen.



Antwort von Roland Schulz:

Ich bin grundsätzlich davon überzeugt dass es beim Auge Adaption gibt, primär die IrisIris im Glossar erklärt in hellen Bereichen vom Gehirn geschlossen wird (funktioniert nach dem Ableben nicht mehr - häufiger, bekannter Test von Ärzten). Hier wird mehr Spielraum für Lichter ermöglich, gleichzeitig wird aber Zeichnung in dunkleren Bereichen reduziert. Der Belichtungsumfang wird also "verschoben".

Hier ging es im gegenständlichen Kontext ja darum, den statischen Belichtungsumfang des Auges zu prüfen, bei dem keine Adaption stattfinden soll.

Im Versuch müssen wie beschrieben alle 6 Schattierungen gleichzeitig sichtbar sein, ohne dabei mit den Augen/dem Auge auf den hellen wie dunklen Bereich zu verschwenken, somit also keine Adaption hervorzurufen.

Von daher denke ich dass wir den im jeweiligen Versuch eingesetzten Reduktionsfaktor des ND Filters den mindesten Belichtungsumfang des Auges nennen dürfen bzw. für jeden der alle Schattierungen bei Reduktion >6 Blenden gleichzeitig sieht individuell nachgewiesen haben, dass der jeweilige Belichtungsumfang 6 Blenden übersteigt.

Also Du hast den Versuch durchgeführt und siehst dabei ebenfalls min. 10 Blenden??



Antwort von WoWu:

Nein, es ging darum, dass der Mensch "in einem Rutsch" lediglich einen Belichtungsumfang von 6+ Blenden hat, denn in der Photographie wird ja auch nicht die Zahl auf dem Blendenring genommen sondern der Umfang, den der Sensor mit einer Belichtung abbilden kann.

Man sollte jetzt nicht den Rahmen der Untersuchung auf seine Messergebnisse anpassen.
Außerdem standen für das menschliche Sehvermögen 24 bzw. 16 Blenden im Raum, von denen wir ja mittlerweile (so oder so) weit entfernt sind.



Antwort von Roland Schulz:



@Wowu: nochmal drüber geschlafen?! Was sagt dein geschätztes, wissenschaftliches Verständnis zum Versuch?!

@Roland
Ich bin da Pragmatiker und halte mich da an die universitären Vorgaben.
Die Kollegen, die den Stoff lehren, stehen viel besser in der Materie.
Und an sich deckenden Informationen aus der Wissenschaft besteht ja kein Mangel, wie man sieht.
Jeder, der sich selbst mit wissenschaftlichen Experimenten einmal beschäftigt hat weiss, wie schnell Messfehler die Ergebnisse verfälschen, insofern schenke ich mir solche Fehlerquellen.

@Wolfgang,
ich glaube wir haben mittlerweile festgestellt dass Du "dem Braten" noch nicht so ganz traust ;-).
Trotzdem, wenn Du den Test gemacht hast und ebenfalls ~10 Blenden gleichzeitig differenzieren kannst macht das doch zumindest "ein bisschen" nachdenklich, nicht?!

Ich bin ganz ehrlich, besonders in früheren Jahren habe ich auch oft Dinge konstruiert und durchdacht und Sachen behauptet, war in vielen Punkten sicher und am Ende hat doch irgendwas dagegen gestanden.
Deine Skepsis kann ich somit gewiss ein Stück weit verstehen, trotzdem halte "ich" für "mich" am Ergebnis des Versuches erstmal fest.

Mir ist klar dass es immer jemanden gibt der mehr auf dem Kasten hat und mich ggf. auch für mich verständlich und nachvollziehbar vom Gegenteil überzeugt. Bis dahin sei "mir" aber erlaubt das Ergebnis zumindest "für mich" als richtig anzunehmen.
Ich habe in meiner Zeit auch gelernt dass ermittelte Angaben und (Hersteller-)Spezifikationen nicht immer den Ergebnissen "im Feld" entsprechen müssen.
Irgendwann hat man auch dran geglaubt dass die Erde eine Scheibe sei...

In diesem Sinne, glaube wir sind durch hier, wenn auch mit zwei Ergebnissen ;-). Ich muss mich mal wieder intensiver um andere Sachen kümmern...!



Antwort von Roland Schulz:


Nein, es ging darum, dass der Mensch "in einem Rutsch" lediglich einen Belichtungsumfang von 6+ Blenden hat...

Richtig, das habe "ich für mich" merklich erweitert, ich sehe in einem Rutsch >10 Blenden.

Man sollte jetzt nicht den Rahmen der Untersuchung auf seine Messergebnisse anpassen.
Außerdem standen für das menschliche Sehvermögen 24 bzw. 16 Blenden im Raum, von denen wir ja mittlerweile (so oder so) weit entfernt sind.

Na ja, 16 Blenden hat zumindest meine Partnerin angeblich gesehen (wobei sie da schon was auf dem Kasten hat und auch den Versuch verstanden hat).
Bei mir tippe ich mal mangels geeignetem Filter auf 14 Blenden.

Mit ggf. längerer Adaption im Dunkeln könnte ich mir ggf. auch etwas mehr vorstellen (Helligkeit Display "wird größer").

An 24 Blenden "glaube ich" aber auch beim besten Willen nicht!
Mir ging"s darum von >>6 Blenden zu überzeugen.



Antwort von iasi:


Nein, es ging darum, dass der Mensch "in einem Rutsch" lediglich einen Belichtungsumfang von 6+ Blenden hat, denn in der Photographie wird ja auch nicht die Zahl auf dem Blendenring genommen sondern der Umfang, den der Sensor mit einer Belichtung abbilden kann.


Aber beim Film kann ich eben während der Aufnahme auch abblenden ...

Das Auge macht dies eben auch. Dadurch können eben auch weit mehr als die 6 Blenden erfasst werden.

Und beim Betrachten eines Bildes, kann das Auge eben auch abblenden, wenn es von einem dunklen Bildbereich in einen hellen wechselt. Wenn nun ein Bild eben nur 6 Blenden bieten würde, wäre z.B. im hellen Bereich keine Zeichnung mehr erkennbar - was dann dem natürlichen Seheindruck nicht entsprechen würde.



Antwort von iasi:



Nein, es ging darum, dass der Mensch "in einem Rutsch" lediglich einen Belichtungsumfang von 6+ Blenden hat...

Richtig, das habe "ich für mich" merklich erweitert, ich sehe in einem Rutsch >10 Blenden.

Das würde ich nun aber auch hinterfragen wollen. "In einem Rutsch" scheinen mir die 6 Blenden doch realistischer als deine 10. Dabei bedeutet "in einem Rutsch" für mich eben auch, ohne Adaption - also ohne Anpassung der Iris.



Antwort von WoWu:

@ Roland

Eigentlich geht es nur um die Größenordnungen und darum, einer Vergleich zu haben. Deine Ergebnisse müssten daraufhin überprüft werden, ob die adaption des Auges überhaupt angeregt wird.
Ich denke, nämlich nicht und alles Andere ist dann ein komprimiertes Format.
Aber da waren wir schon und ich steige nicht nochmal ein.

Die Größenordnungen sind klar und jeder, der mitliest kann sich, auch anhand der Links, sein eigenes Bild machen.

Jemand, der Marketingsprüchen glaubt, wird sowieso immer 16-20 Blenden glauben. Praktikerwissen nennen sie das dann.



Antwort von Roland Schulz:


...
Dabei bedeutet "in einem Rutsch" für mich eben auch, ohne Adaption - also ohne Anpassung der Iris.
...

...glaube dass sich der Versuch auf einen Rutsch/statischen Blick & ohne Adaption & ohne Anpassung der IrisIris im Glossar erklärt bezieht hatte ich "schon mal" erwähnt, nicht nur in der Beschreibung des Versuches...



Antwort von iasi:


@ Roland

Eigentlich geht es nur um die Größenordnungen und darum, einer Vergleich zu haben. Deine Ergebnisse müssten daraufhin überprüft werden, ob die adaption des Auges überhaupt angeregt wird.
Ich denke, nämlich nicht und alles Andere ist dann ein komprimiertes Format.
Aber da waren wir schon und ich steige nicht nochmal ein.

Die Größenordnungen sind klar und jeder, der mitliest kann sich, auch anhand der Links, sein eigenes Bild machen.

Jemand, der Marketingsprüchen glaubt, wird sowieso immer 16-20 Blenden glauben. Praktikerwissen nennen sie das dann.

Also streiten wir uns hier um Zahlen - 6 oder 10 oder 16 oder 20

Wer sagt denn eigentlich, dass nicht vielleicht doch alle stimmen? Eben je nach Situation.

Letztlich ist es aber filmisch betrachtet eine Gestaltungsfrage.
Beschränke ich den Kontrast auf 6 Blenden und mache Low- oder High-Key mit fehlernder Zeichnung in Schatten bzw. Lichtern.
Biete ich den "Blick aus dem Fenster", bei dem der Zuschauer alle Bereiche erkunden kann, was aber Zeichnung in Lichten und Schatten erfordert.
Gehe ich ins andere Extrem und biete einen "unnatürlichern Blick aus dem Fenster" ...

In jedem Fall ist es von Vorteil, wenn mein Ausgangmaterial möglichst viel Gestaltungsspielraum bietet - ganz gleich, wie welches das Ausgabeformat sein wird.

10bit bietet Spielraum in der Post - 8bit eigentlich kaum noch.



Antwort von Bruno Peter:

Eigentlich ist die ganze Diskussion hier überflüssssig wie ein Kropf...



Antwort von iasi:


Eigentlich ist die ganze Diskussion hier überflüssssig wie ein Kropf...

Diskussionen sind niemals überflüssig, solange sie mit Argumenten geführt werden.

Es geht doch auch gar nicht darum, wer recht hat.



Antwort von WoWu:

Das ist schon richtig, nur die Erkenntnis, was eigentlich der natürliche Seheindruck ist, sollte im Grading die Leitlinie sein.
Ist es aber offenbar häufig nicht, weil viele vom Blendenhype getrieben sind und das, was die Produktion vielleicht als Möglichkeit für eine vernünftige Postproduktion hergibt, nicht nur ausnutzen, sondern auch noch überzeichnen. Oder lebst Du sich in einer grau eingefärbten Welt mit weißen Reflektionen, die man gerade 70% erreichen, nur damit man in einer Glühbirne noch den Glimmfaden erkennt ?
Insofern kann es nicht schaden, sich mal vor Augen zu führen, was wir eigentlich sehen .... ohne Blendenhype.

Die Sache mit den 10bit ist zwar ein anderes Thema, aber die sieht der Mensch ja sowieso.



Antwort von Funless:

Das mit dem Glimmfaden in der Glühbirne ist - finde ich - ein sehr treffendes und anschauliches Beispiel.



Antwort von Roland Schulz:


Das ist schon richtig, nur die Erkenntnis, was eigentlich der natürliche Seheindruck ist, sollte im Grading die Leitlinie sein.

Das sehe ich etwas diplomatischer: ich bin zwar auch eher Freund von möglichst natürlicher Wiedergabe mit viel Tiefe und dem "dabei Gefühl", "ich" bin aber nicht der Maßstab.
Solange es ein Publikum für "krumme Reproduktionen" gibt ist in der "Kunst" doch alles erlaubt. Jeder soll versuchen womit erfolgreich wird, mir muss es nicht gefallen.
Mir gefiel das Bangle BMW Design nicht, Pleite sind die Bayerischen Meister-Werke trotzdem nicht gegangen und ich hab ne Menge Leute getroffen die es gut fanden.



Antwort von WoWu:

Das kann ja jeder gern machen, aber was ist dagegen einzuwenden, dass sie wissen, wie das Auge wirklich funktioniert und dem Blendenhype nicht folgt.
Wie wir an der Doskussion gesehen haben, herrschen dahingehend doch reichlich Defizite und die auszuräumen kann doch nicht schaden.



Antwort von iasi:


Das ist schon richtig, nur die Erkenntnis, was eigentlich der natürliche Seheindruck ist, sollte im Grading die Leitlinie sein.
Ist es aber offenbar häufig nicht, weil viele vom Blendenhype getrieben sind und das, was die Produktion vielleicht als Möglichkeit für eine vernünftige Postproduktion hergibt, nicht nur ausnutzen, sondern auch noch überzeichnen. Oder lebst Du sich in einer grau eingefärbten Welt mit weißen Reflektionen, die man gerade 70% erreichen, nur damit man in einer Glühbirne noch den Glimmfaden erkennt ?
Insofern kann es nicht schaden, sich mal vor Augen zu führen, was wir eigentlich sehen .... ohne Blendenhype.

Ja - das ist dann leider oft eine unreflektierte und ziellose Übertreibung.
Mich wundert sie auch immer wieder, diese Angst vor dem Schwarz, in vielen deutschen Produktionen.
Kino-look muss scheinbar immer flat sein.
Das spiegelt sich aber auch in der Ausleuchtung wider: Da darf ja kein Eck im Dunklen versacken. Wenn dann ein Lampenschirm im Bild ist, wird von Hamilton-Stil geschwärmt und man kommt sich sehr mutig vor.

Aber das hat man doch oft auch beim Anamor.-look oder den langen 1-Shot-Sequenzen - meist erscheinen sie mir unmotiviert.



Antwort von iasi:



Solange es ein Publikum für "krumme Reproduktionen" gibt ist in der "Kunst" doch alles erlaubt.

Nicht das Publikum ist der Maßstab, sondern die Aussage, der Inhalt, die Stimmung, die man vermitteln möchte.
Stichwort: Filmsprachliche Mittel



Antwort von WoWu:

Ich denke auch, da wird manchmal etwas zur Kunst erhoben, weil die Macher es nicht besser hinbekommen haben.
Wenn ich nur an die endlosen Produktionen denke, bei denen das Chrom hochgezogen wird, nur weil sie den eigentlich flachen Bildeindruck beseitigen wollten .... Das gibt dann diese "Schweinchenfarben" .... sollte natürlich so sein ;-)



Antwort von domain:


Ja - das ist dann leider oft eine unreflektierte und ziellose Übertreibung.
Mich wundert sie auch immer wieder, diese Angst vor dem Schwarz, in vielen deutschen Produktionen.
Kino-look muss scheinbar immer flat sein.
Das spiegelt sich aber auch in der Ausleuchtung wider: Da darf ja kein Eck im Dunklen versacken. Wenn dann ein Lampenschirm im Bild ist, wird von Hamilton-Stil geschwärmt und man kommt sich sehr mutig vor.

Die gegenwärtige Modeerscheinung verwundert mich auch immer wieder. Zwar ist die Angst vor Schwarz ungleich stärker ausgeprägt als die Angst vor Weiß. Jössas, da rauscht es aber gewaltig, wenn ich Schwarz zum breiigen Grau anhebe und Teufel auch, wenn keine Durchzeichnung im Weiß vorhanden ist.
Dabei zählen gerade diese, allerdings nicht zu umfangreich sein dürfenden Bildbereiche zu den klassischen Stilmitteln im Film.
Bei deutschen Filmen allerdings häufig: deutsche Ausleuchtung, d.h. ja kein Informationsverlust auch in den unbedeutendsten Ecken.
Manchmal glaube ich, dass Mathias bei all den Diskussionen ins Schmunzeln kommt: eure Delogs und LuLuLuts können mir gestohlen bleiben, ich versuche von vorneherein ein brauchbares Bild zu generieren und das ist, wie mir scheint, auch WoWus Einstellung.



Antwort von Roland Schulz:


...ich versuche von vorneherein ein brauchbares Bild zu generieren und das ist, wie mir scheint, auch WoWus Einstellung.

+1!!



Antwort von WoWu:

Jau.



Antwort von mash_gh4:



...ich versuche von vorneherein ein brauchbares Bild zu generieren und das ist, wie mir scheint, auch WoWus Einstellung.

+1!!

naja -- "brauchbar" wofür?

sicher gibt's genügend fälle, wo man einfach ganz bewusst von vornherein den aufwand der nachbearbeitung zu minimieren versucht -- und das verstehe ich natürlich bzw. orientiere mich natürlich in der praktischen arbeit auch sehr oft selbst daran. trotzdem sollte man nicht völlig ausklammern, dass sich das mit den anforderungen komplizierter nachbearbeitung nicht immer besonders gut vertragen muss. wenn bereits bei der aufnahme einstellungen ins material eingebrannt werden, die man nachträglich nur ausgesprochen mühsam und ungegenügend wieder rekonstruieren und herausrechnen kann, um das ganze vernünftig in komplexeren programmen nutzen zu können, ist das matzerial eben für solche anforderungen nur sehr bedingt "brauchbar".

ist halt ungefähr so, wie es noch immer fotografen gibt, die mit JPEGs aus ihrern kameras völlig glücklich und wunschlos zufrieden sind, während sich andere gar nicht mehr vorstellen können, ohne die vorzüge der nachträgliche RAW entwicklung auskommen zu können. beides hat seine berechtigung, hebt aber die vorzüg und nachteile des jeweils anderen nicht auf.



Antwort von WoWu:

Man kann es auch anders ausdrücken.
Einige können gar keine vernünftigen Bilder mehr machen, ohne die Möglichkeiten der Nachbearbeitung zu nutzen.
RAW ist für sie kein Mittel des Qualitätskriteriums sondern eine Brücke, keine Entscheidung mehr am Set treffen zu müssen.



Antwort von mash_gh4:


RAW ist für sie kein Mittel des Qualitätskriteriums sondern eine Brücke, keine Entscheidung mehr am Set treffen zu müssen.

nein -- entscheidungen muss ich immer treffen, aber ich kann den kopf z.t. von dingen frei bekommen, um die ich mich tatsächlich nicht kümmern muss, und mich auf wichtigers konzentrieren.

wenn ich bspw. RAW fotografiere, kümmere ich in der aufnahmesituation praktisch überhaupt nicht um die farbtemparatur des lichts, verbringe dann aber in aller ruhe zuhause eine ganze menge zeit damit, die bilder diesbezüglich sauber zu korrigieren. in stressigen dokumenatrischen arbeistssituationen vor ort wäre mir das oft überhaupt nicht möglich -- da könnte mich am eheseten noch auf irgendwelche zweifelhaften automatismen meiner kamera verlassen...



Antwort von iasi:


... ich versuche von vorneherein ein brauchbares Bild zu generieren und das ist, wie mir scheint, auch WoWus Einstellung.

Und was soll das heißen?

Es gibt Leute, die wollen ein fertiges Bild aus der Kamera und in der Post keine weitere Gestaltung.
Andere - auch ich - wollen ein Bild, das möglichst viel Gestaltungsspielraum für die Post lässt.

Beides sind legitime Vorgehensweisen.
Ich halte die Zweite jedoch für ökonomischer und der digitalen Kameratechnik eher entsprechend.



Antwort von iasi:


Man kann es auch anders ausdrücken.
Einige können gar keine vernünftigen Bilder mehr machen, ohne die Möglichkeiten der Nachbearbeitung zu nutzen.
RAW ist für sie kein Mittel des Qualitätskriteriums sondern eine Brücke, keine Entscheidung mehr am Set treffen zu müssen.

Es hat doch nichts mit Qualität zu tun. Man kann auch ohne RAW qualitativ gleiche Ergebnisse direkt aus der Kamera erhalten.

Es geht um die Gestaltung. Entweder ich gestalte am Set das Bild so, wie es dann auf der Leinwand zu sehen sein soll, oder ich nutze die Gestaltungsmöglichkeiten in der Post.
Das eine hat mehr mit der Arbeitsweise mit Filmnegativ zu tun, das andere nutzt eben die digitalen Möglichkeiten.

Einen Qualitätsunterschied erhält man nur, wenn schlecht gearbeitet wird - und den bekommst du eben auch bei RAW, wenn falsch belichtet und/oder bei unguter Post.



Antwort von Jott:

Man kann auch ohne RAW qualitativ gleiche Ergebnisse direkt aus der Kamera erhalten.

Schau an, ganz neue Töne. Liegt's am geplanten GH5-Kauf?



Antwort von iasi:


Man kann auch ohne RAW qualitativ gleiche Ergebnisse direkt aus der Kamera erhalten.

Schau an, ganz neue Töne. Liegt's am geplanten GH5-Kauf?

nein - zu der Erkenntnis bin ich spätestens beim Camerashootout 2012 gelangt.

Ich halte nur die Arbeitsweise nicht für effizient, denn sie blendet die Vorteile von digitaler Nachbarbeitung völlig aus.
Resolve 14 bietet nun sogar die Möglichkeit mit einem Klick die Augen aufzuhellen - mach das mal am Set.



Antwort von klusterdegenerierung:


wenn ich bspw. RAW fotografiere, kümmere ich in der aufnahmesituation praktisch überhaupt nicht um die farbtemparatur des lichts, verbringe dann aber in aller ruhe zuhause eine ganze menge zeit damit, die bilder diesbezüglich sauber zu korrigieren. in stressigen dokumenatrischen arbeistssituationen vor ort wäre mir das oft überhaupt nicht möglich -- da könnte mich am eheseten noch auf irgendwelche zweifelhaften automatismen meiner kamera verlassen...

Sorry, aber das ist dummes Zeug!
Auch ein WB versemmeltes RAW ist im ACR kaum wieder in den Griff zu kriegen, höchstens mit viel überflüssiger Arbeit.

Was sollen das auch für Jobs sein bei denen man nicht mal eben einen sauberen WB macht?
Und wer Zuhause die Zeit hat "in aller Ruhe" das Bild zu korrigieren,
welches vorher mit meistens weitaus weniger Aufwand richtig hätte realisiert werden können,
der hat mit Buchhaltung und Gewinnanalyse wohl garnix am Hut.



Antwort von iasi:



wenn ich bspw. RAW fotografiere, kümmere ich in der aufnahmesituation praktisch überhaupt nicht um die farbtemparatur des lichts, verbringe dann aber in aller ruhe zuhause eine ganze menge zeit damit, die bilder diesbezüglich sauber zu korrigieren. in stressigen dokumenatrischen arbeistssituationen vor ort wäre mir das oft überhaupt nicht möglich -- da könnte mich am eheseten noch auf irgendwelche zweifelhaften automatismen meiner kamera verlassen...

Sorry, aber das ist dummes Zeug!
Auch ein WB versemmeltes RAW ist im ACR kaum wieder in den Griff zu kriegen, höchstens mit viel überflüssiger Arbeit.

Was sollen das auch für Jobs sein bei denen man nicht mal eben einen sauberen WB macht?
Und wer Zuhause die Zeit hat "in aller Ruhe" das Bild zu korrigieren,
welches vorher mit meistens weitaus weniger Aufwand richtig hätte realisiert werden können,
der hat mit Buchhaltung und Gewinnanalyse wohl garnix am Hut.

na - bei RAW, welches von WB-Einstellungen unberührt bleibt, könntest du nur per Filter etwas korregieren.

Wenn ich Resolve nutze und einen Chart ins Bild halte, bekomme ich am Ende weit bessere Ergebnisse, als bei WB-Set bei der Aufnahme.

Wer nicht weiß, dass die Zeit am Set weit teuerer ist, als später in der Post, der
hat mit Buchhaltung und Gewinnanalyse wohl garnix am Hut. ;)



Antwort von kmw:

Beim fotografieren kannst Du den WeißabgleichWeißabgleich im Glossar erklärt nachträglich machen,
beim filmen eher nicht...



Antwort von iasi:


Beim fotografieren kannst Du den WeißabgleichWeißabgleich im Glossar erklärt nachträglich machen,
beim filmen eher nicht...

Sagt wer?



Antwort von WoWu:

Die WB der Kamera greift auch bei RAw in den ersten Verstärker im Sensor ein und gleicht die QE dort aus, wo sie am wenigsten rauscht.
In der Post geht das leider nicht mehr.
Filterkorrekturen ziehen immer das Rauschen, vor allem bei Blau (QE) mit hoch.

Die Frage ist doch auch, will man billige Bilder oder gute Bilder, wenn man am Set nicht mal die Zeit für einen Weisabgleich in seiner Kalkulation hat, ist doch irgend etwas faul.
Viele, davon wollen sich einfach nicht entscheiden .."run 'n gun".
Und wenn's hinterher bescheiden aussieht, ist es eben Kunst.



Antwort von mash_gh4:


Die WB der Kamera greift auch bei RAw in den ersten Verstärker im Sensor ein und gleicht die QE dort aus, wo sie am wenigsten rauscht.

ich weiß, dass du dir das immer so erklärst -- und technisch hätte es ja natürlich auch seine vorzüge -- trotzdem keine ich keine kamera, die das in der RAW datenübergabe auch praktisch so handhabt.

aber, ich lasse mich gerne eines besseren belehren, wenn du mir an einem konkreten beispiel zeigen kannst, dass es bei manchen kameras wirklich in der von dir gedachten weise umgesetzt wird.

In der Post geht das leider nicht mehr.
Filterkorrekturen ziehen immer das Rauschen, vor allem bei Blau (QE) mit hoch.

mit dieser einschränkung haben alle RAW-fotografen zu leben gelernt -- und ihre bilder lassen diesbezüglich in der praxis gewöhnlich auch keine wünsche gegenüber den JPEG ausgaben direkt aus kameras offen.



Antwort von WoWu:

Das thema ist hier anhand der Iso Einstellung auf Raw schon mal abgehandelt worden. Da kanntest Du auch keine Kamera, die das macht.
Die Flex hat das z.B. auch so gemacht.
Ob Deine GH4 das so macht, weiß ich nicht.



Antwort von mash_gh4:


Das thema ist hier anhand der Iso Einstellung auf Raw schon mal abgehandelt worden. Da kanntest Du auch keine Kamera, die das macht.

ich kenn sogar kameras die PLR (piecewise linear response) können -- und so weit ich weiß, wurde das erst kürzlich das erste mal bei einer realen filmproduktion eingesetzt...
dort gibt's auch das problem, dass die aufbereitung der daten deutlich schwieriger wird und mit gebräuchlichen programmen fast nicht mehr zu machen ist, obwohl natürlich die technischen vorteile auf den ersten blick faszinieren.

Ob Deine GH4 das so macht, weiß ich nicht.

im RAW fotomodus sind bei der GH4 die weißabgleichangaben ausschließlich als metadaten eingebettet, wie ja auch bei fast allen anderen kameras.



Antwort von WoWu:

Sollen wir jetzt alle staunen, was für Algorithmen Du kennst ?

Welche Weissabgleichdaten sollen in den Metadaten eingebettet sein, wenn Du am Set gar keinen gemacht hast ?



Antwort von mash_gh4:


Welche Weissabgleichdaten sollen in den Metadaten eingebettet sein, wenn Du am Set gar keinen gemacht hast ?

der den er automatisch nehmen würde bzw. in die parallel aufgezeichneten JPEGs einbrennt. ist wie gesagt eigentlich nur eine orientierung, die aber beim RAW-entwickeln manchmal ganz praktisch ist.



Antwort von WoWu:

Aha, die Empfehlung der Kameraautomatik.
Und was spricht dagegen, das dann auch gleich auszuführen ?
Vielleicht greift die Kamera ja doch auf den naheliegendsten Verstärker zu und schenkt einem dann gleich den besseren Störabstand, den man in der Post sonst nämlich vergessen kann.



Antwort von mash_gh4:


Aha, die Empfehlung der Kameraautomatik.
Und was spricht dagegen, das dann auch gleich auszuführen ?

in diesen metadaten steht in genau gleicher weise drinne, in welchem winkel ich die kamera bei aufnahme schief gehalten habe, und trotzdem bleibt mir die freiheit, dass ich im nachhineien selber bestimmen kann, ob bzw. wie weit ich das ggf. nachträglich korrigieren will od. es eben einfach bei der ursprünglichen kadrierung belass.

Vielleicht greift die Kamera ja doch auf den naheliegendsten Verstärker zu und schenkt einem dann gleich den besseren Störabstand, den man in der Post sonst nämlich vergessen kann.

wie gesagt -- technisch versteh ich ja deine diesbezüglichen verbesserungsforderungen -- aber in der praxis machen das eben alle wirklich völlig anders als du es empfiehlst.

das hat mehr mir der zusätzlichen komplexität der nachträglichen aufbereitung zu tun. deswegen habe ich ja oben auch das bsp. von PLR eigeworfen, das man mit den technischen vorgaben von DNGs bzw. programmen, die man nicht einfach an irgendwelche neunen prorietären RAW formate anpassen kann, ja auch fast nicht in den griff zu bekommen ist.

aber, wir schießen schon wieder völlig übers ziel hinaus -- obwohl eben gerade PLR im grunde eine technische stufe tiefer (also direkt am sensor) genau die selben probleme birgt, die ich an rec709 mit knees u.ä. hinsichtlich ihrer nachträglichen aufbereitbarkeit kritisieren würde.



Antwort von dienstag_01:

im RAW fotomodus sind bei der GH4 die weißabgleichangaben ausschließlich als metadaten eingebettet, wie ja auch bei fast allen anderen kameras.
Canon macht das nicht. Und ich glaube eher, auch kein anderer Hersteller. Ausser - angeblich - Blackmagic.



Antwort von klusterdegenerierung:


Wer nicht weiß, dass die Zeit am Set weit teuerer ist, als später in der Post, der
hat mit Buchhaltung und Gewinnanalyse wohl garnix am Hut. ;)

Soso!
Du willst mir also echt verklickern,
das sowohl beim Foto als auch beim Film der Aufwand mal eben eine Graukarte vor die Linse halten und die WB Taste drücken
teurer ist als in der Post im ACR blöde irgendwelche Farbwerte zu verschieben,
weil es in dem Bild/Location keinen geeigneten Referenzpunkt gibt?

Ist doch totaler Quatsch, ich kann Dir soviel Rohmaterial geben, wo man einfach keinen sauberen WB mehr hinbekommt.
Wer echt keine Zeit mehr hat um sich um so existenziellen Jobrelevante Dinge zu kümmern, tja da fällt mir nix mehr zu ein.



Antwort von Jott:

Über wirtschaftliches/zeiteffizientes Arbeiten kann man sich doch dann nur sinnvoll austauschen, wenn alle Gesprächspartner tatsächlich kommerziell tätig sind. Dass das hier nur die wenigsten sind, ist unschwer erkennbar - insofern viel unterhaltsames Geplänkel mit irgendwo im weiten, weiten Web angelesenen Argumenten und Weisheiten.



Antwort von mash_gh4:


Canon macht das nicht. Und ich glaube eher, auch kein anderer Hersteller. Ausser - angeblich - Blackmagic.

ja -- das ist ein interessanter hinweis!

offenbar ist es bei manchen canon filmkameras (C500) tatsächlich so:

"However, Canon Raw is unlike any Raw format that we’ve seen before.
...
Canon Raw is a 10-bit format with baked-in ISO and white balance. That’s right, unlike the other Raw formats, Canon is baking-in gain adjustments (ISO/white balance) before outputting the Raw data."

(http://blog.abelcine.com/2012/11/05/wha ... canon-raw/)

hab jetzt auf die schnelle keinen hinweis gefunden, dass das auch bei ihren fotokameras so gehandhabt wird -- eher nur gegenteilige, aber nicht besonders fundierte äußerungen... das dürfte hier aber ohnehin eher wenige hier intressieren...

ich halte diese lösung jedenfalls weiterhin eher für die ausnahme als die regel.

wobei es ja ohnehin nur den rauschabstand bzw. eine bessere ausnutzung der verfügbaren werte im übertragungskanal betrifft, aber die grundsätzliche korrektur bzw. abschließende festlegung des weißabgleichs ja auch in diesem fall erst später passiert, so wie es halt auch vom RAW fotografieren her gewohnt sind (wobei man halt in dem zusammenhang normalerweise auch eher 12,14 od. 16bit sensordaten nutzt, und nicht die lächerlichen 10bit der C500, wo es vermutlich wirklich gleich einmal eng wird):

"Working in RAW

If you shoot in RAW, white balance will not affect you at the time the exposure is made. White balance corrections are normally applied by the camera in post-processing of the image, before it is saved to the card as a JPEG file.

By shooting RAW, you avoid this processing as the image saved on the card is exactly as captured by the CMOS sensor. It is then up to you to adjust the white balance in your RAW file editing program."

(http://cpn.canon-europe.com/content/edu ... balance.do)



Antwort von mash_gh4:


das sowohl beim Foto als auch beim Film der Aufwand mal eben eine Graukarte vor die Linse halten und die WB Taste drücken
teurer ist als in der Post im ACR blöde irgendwelche Farbwerte zu verschieben,
weil es in dem Bild/Location keinen geeigneten Referenzpunkt gibt?

nein -- das würde ich nicht unbedingt empfehlen, aber das eine schließt ja das ander nicht aus. und wenn du eine bild sauber korrigiert hast, übernimmst du ohnehin die einstellungen auch für die anderen ähnlich gelagerten shots. ist ja wirklich nicht viel mehr arbeit als wenn du am set ständig mit den einstellknöpfen deiner kamera kämpfst. ;)



Antwort von iasi:


Die WB der Kamera greift auch bei RAw in den ersten Verstärker im Sensor ein und gleicht die QE dort aus, wo sie am wenigsten rauscht.
In der Post geht das leider nicht mehr.
Filterkorrekturen ziehen immer das Rauschen, vor allem bei Blau (QE) mit hoch.

Die Frage ist doch auch, will man billige Bilder oder gute Bilder, wenn man am Set nicht mal die Zeit für einen Weisabgleich in seiner Kalkulation hat, ist doch irgend etwas faul.
Viele, davon wollen sich einfach nicht entscheiden .."run 'n gun".
Und wenn's hinterher bescheiden aussieht, ist es eben Kunst.

Wenn"s denn stimmen würde ... WB greift eben nicht bei RAW ein - zumindest nicht bei den meisten Kameras ...
Zudem ist ein Farbchart allemal besser als ein plumper Weißabgleich. "run"n gun" ist doch eher WB-Knopf drücken und fertig.

Die Frage ist doch, will man kostbare Drehzeit mit Einstellungen verschwenden, die letztlich nur auf dem Vorschaumonitor etwas zum Anschauen bieten, was aber letztlich dem Endergebnis nicht entspricht.
Fragt sich eigentlich noch irgendjemand, wie man das in den Zeiten von Negativfilm ohne Vorschaumonitor hinbekommen hatte. Wenn überhaupt konnte man das Gefilmte auf einem Röhrenmonitor betrachten, um das Schauspiel, aber doch nicht die Bildqualität zu beurteilen.

Statt teure Drehzeit mit allerlei Aufrüstung und Einstellspielerein zu verschwenden, sollte man vielleicht etwas mehr Zeit in die Post investieren.

Du bemängelst die furchtbaren Ergebnisse - was da aber sicherlich immer brav gemacht wurd, war der WB am Set. Denk mal darüber nach.



Antwort von dienstag_01:

Wenn"s denn stimmen würde ... WB greift eben nicht bei RAW ein - zumindest nicht bei den meisten Kameras ...
Ich denke, das ist einfach nur Quatsch.



Antwort von wolfgang:


Also, meinen einfachen Testaufbau mit physikalisch nachvollziehbarer Beschreibung und nachvollziehbarem Ergebnis hat bisher glaube ich noch niemand "belächelt".
Dazu kann und will ich nichts sagen - denn ich habe mir das bisher nicht angesehen.

Das ich "Größen", Autoren von revolverblattartigen "Tech Briefs", "öffentlich" an mehreren Stellen zerlegt habe kannst Du gerne noch mal recherchieren, auch bei slashcam wurde das bereits diskutiert.
Und wer entscheidet wer hier die größere Kompetenz hat?

Der Punkt ist ganz ein Anderer: alleine das ins Lächerliche ziehen und Diffamieren von Leuten, die durchaus einen respektablen Namen haben, ist absurd. Und die Firmen wie in dem Fall Sony oder Panasonic sind nicht so dämlich und beschäftigen nur Idioten.

Wo ich wann in welchem Fall mit V-LOG denn nun wo hinbelichten soll, wie es im von Dir verlinkten Tech Brief beschrieben sein soll, geht aus dem "Dokument" auch nicht hervor.
Na dann has tdu das Papier entweder nicht verstanden oder nicht gelesen. Denn da sind recht klar die Methoden beschrieben. Alleine der Schlußsatz sagt alles:
Exposing properly for VLOG-L is the key to getting the best results; aim to expose an 18% gray card at about 42 IRE,
keep your Caucasian skin highlights to below 55 IRE, and set your Zebra 2 to 75 IRE to keep from clipping highlights.

Wenn auch Du aus 8-bit Material durch Downscale "echtes" 10-bit Material gewinnen kannst - dann kann ich Dir auch nicht mehr helfen
???? Wo findet sich das in den aktuellen Diskussionen????

Warum x-LOG mehr rauscht hatte ich aber bereits erklärt (flachere Eingangsübertragungsfunktion in "relevanten Bereichen", die beim "De-loggen" wieder (stärker) gespreizt werden müssen, somit die Abstände der bei der Aufnahme entstandenen Inkremente größer werden, somit bei Übergängen größere Abrisse hervorrufen und auch beim "Kippen" von Inkrementen/LSB's eine größere "Rauschamplitude" hervorrufen...), komme mir langsam vor wie ne kaputte Schallplatte...
...und nein, dazu mache ich jetzt kein Diagramm mehr!

Rauschen entsteht am Sensor. Und nicht in einer Übertragungsfunktion. Und der Rest ist ziemlich leeres Gerede - arbeite mit 10bit aufwärts und belichte das Material richtig, grade es richtig, und du hast all diese Probleme nicht. Denn so macen es die Anderen auch.



Antwort von WoWu:

@mash
Du must nicht glauben, dass Du mit der GH4 der einzige bis, der komplexe Nachbearbeitung aus RAW Material macht.
Wir haben seit 2004 in HD gearbeitet und seit 2006 in RAW und je nach Produktionsanforderungen auch streckenweise in LOG.
Insofern besteht kein nachholbarer Erkenntnisbedarf in Sachen komplexer Nachbearbeitung.
Und nur weil Du nicht ausreichend Kameras kennst, die von Deiner Methode abweichen heißt das noch nicht, dass es sie nicht gibt.
Es heißt nur, dass Du sie nicht kennst.

@Iasi
.....und WB Knopf nicht drücken ist nicht mal "run 'n gun".
Da arbeitet jeder ENB-ler besser, denn der schiebt den WeißabgleichWeißabgleich im Glossar erklärt wenigstens in die Nähe der Realität.
Nee, nee, ich glaube für manche Anwender ist RAW genauso eine heilige Kuh, wie für Manche LOG und sie denken, ohne komplizierte Nachbearbeitung können keine guten Produkte erstellt werden... dabei ist es oft sogar das Gegenteil, wenn man sich das Grow der Produktionen ansieht.



Antwort von dienstag_01:

Wenn ich Fotos meiner Canon in zwei unterschiedliche RAW-Konverter lade, werden unterschiedliche WB-Werte angezeigt. Allein hier sollte jedem klar sein, dass das mit Metadaten keinen Sinn macht ;)



Antwort von klusterdegenerierung:



das sowohl beim Foto als auch beim Film der Aufwand mal eben eine Graukarte vor die Linse halten und die WB Taste drücken
teurer ist als in der Post im ACR blöde irgendwelche Farbwerte zu verschieben,
weil es in dem Bild/Location keinen geeigneten Referenzpunkt gibt?

nein -- das würde ich nicht unbedingt empfehlen, aber das eine schließt ja das ander nicht aus. und wenn du eine bild sauber korrigiert hast, übernimmst du ohnehin die einstellungen auch für die anderen ähnlich gelagerten shots. ist ja wirklich nicht viel mehr arbeit als wenn du am set ständig mit den einstellknöpfen deiner kamera kämpfst. ;)

Das ist mir natürlich klar,
aber das läuft auch nur im besten Fall so und würde ebenso laufen wenn man einen gescheiten WB gemacht hätte!

Hat man das nicht gemacht und findet im RAW kein geeignetes Weiß oder Grau und die gesamten Farbwerte haben sich verschoben,
weil Deine Kameraautomatik ein Ockergelb für ein weiß gehalten hat und dementschprächend alle Farben um diesen Wert verschoben hat,
dann ist das nicht zwingend so einfach zu korrigieren.

Manche RAWs sehen danach auch echt fies aus und sind nie wirklich sauber hin zu kriegen.
Natürlich kann man in einem rein weißen Raum das Risiko eingehen, aber drauf anlegen würde ich es nicht,
erst Recht nicht wenn von aussen die Abendsonne reinbrät und ich mit meinem blauen LED oder Blitzlicht gegen schiese usw.

Ich meine mal im Ernst, ein WB frisst doch echt kein Brot, aber kann einem den Arsch retten!



Antwort von Funless:

Hmmmm .... also ich versteh' garnicht was dieses ganze g'werch um RAW oder nicht RAW soll.

Vor 38 Jahren hat's 'ne Newvicon mit'nem anständigen Objektiv vorne dran auch getan und wenn man sich das Material anschaut, gerade in den Licht/Schatten Bereichen, kann man nicht gerade über desaströs mangelndem DR meckern ... Gut es gab hier und da ein paar Nachzieheffekte, aber das hätte doch irgendwo Charme. Und jede Wette, da wurde vorher ein WB eingestellt! ;-)

https://youtu.be/loWfChomkJU



Antwort von iasi:



nein -- das würde ich nicht unbedingt empfehlen, aber das eine schließt ja das ander nicht aus. und wenn du eine bild sauber korrigiert hast, übernimmst du ohnehin die einstellungen auch für die anderen ähnlich gelagerten shots. ist ja wirklich nicht viel mehr arbeit als wenn du am set ständig mit den einstellknöpfen deiner kamera kämpfst. ;)

Das ist mir natürlich klar,
aber das läuft auch nur im besten Fall so und würde ebenso laufen wenn man einen gescheiten WB gemacht hätte!

Hat man das nicht gemacht und findet im RAW kein geeignetes Weiß oder Grau und die gesamten Farbwerte haben sich verschoben,
weil Deine Kameraautomatik ein Ockergelb für ein weiß gehalten hat und dementschprächend alle Farben um diesen Wert verschoben hat,
dann ist das nicht zwingend so einfach zu korrigieren.

Manche RAWs sehen danach auch echt fies aus und sind nie wirklich sauber hin zu kriegen.
Natürlich kann man in einem rein weißen Raum das Risiko eingehen, aber drauf anlegen würde ich es nicht,
erst Recht nicht wenn von aussen die Abendsonne reinbrät und ich mit meinem blauen LED oder Blitzlicht gegen schiese usw.

Ich meine mal im Ernst, ein WB frisst doch echt kein Brot, aber kann einem den Arsch retten!

Farbchart kurz ins Bild gehalten und fertig



Antwort von klusterdegenerierung:


Und jede Wette, da wurde vorher ein WB eingestellt! ;-)

Die WB Diskussion bezog sich auf RAW Material und dessen angezweifelten Notwendigkeit.



Antwort von WoWu:

Bisher hab ich nur den Grund "billiger" gehört.
Als wenn ein Kameramann für einen WeißabgleichWeißabgleich im Glossar erklärt 3Stunden braucht und die restliche Crew dreht Däumchen.

RAW und WB in der Post ist natürlich hipper.
"I'll fix it on the post".



Antwort von iasi:


Bisher hab ich nur den Grund "billiger" gehört.
Als wenn ein Kameramann für einen WeißabgleichWeißabgleich im Glossar erklärt 3Stunden braucht und die restliche Crew dreht Däumchen.

RAW und WB in der Post ist natürlich hipper.
"I'll fix it on the post".

Es ist bei Raw schlicht überflüssig. Was hat es da mit "fix it in Post" zu tun?
Und weshalb sollte man Zeit für Überflüssiges am Set vergeuden. Drehzeit ist eh immer knapp - und sehr sehr kostbar.

Am Ende des Drehs bist du dann vielleicht wirklich bei insgesamt 3 Stunden, die du mit unnötiger WB-Rumstellerei an der Kamera vergeudet hast.

Diese 3 Stunden Drehzeit kosten schnell mal so viel wie 3 Tage Post.

Du beklagst dich über die Qualität von Sendungen und fragst dich nicht woran es liegt.



Antwort von klusterdegenerierung:


Es ist bei Raw schlicht überflüssig. Was hat es da mit "fix it in Post" zu tun?
Und weshalb sollte man Zeit für Überflüssiges am Set vergeuden. Drehzeit ist eh immer knapp - und sehr sehr kostbar.

Quark mit Soße!



Antwort von WoWu:

Da schliesse ich mich an.... das ist wirklich totaler Quatsch.

WB kostet zuviel Geld und ist unnötig ... LOL



Antwort von klusterdegenerierung:

In der Zeit wo sich iasi noch mit dem Hauptdarsteller über die nächste Einstellung unterhält,
hätte ich schon 3 WBs gemacht!
So langsam wird es hier lächerlich!



Antwort von Funless:

Neee, der iasi unterhält sich nicht mit dem Hauptdarsteller über die nächste Einstellung (das würde ja extra Geld kosten), er lässt ihn einfach machen, wird ja eh' in der weitaus billigeren Postproduktion gestalterisch gerichtet. ;-)



Antwort von CameraRick:

Genau wie Klappen, gibt doch PluralEyes... ;)

Kleiner Gedanke nebenbei: ein Referenzgrau für den WB im Bild zu haben, ob man die Kamera nun drauf einstellt oder nicht, ist schon eine feine Sache. Man kann meinetwegen im RAW nachher den WB zwar anpassen, aber eine Referenz haben ist manchmal auch ganz nützlich. Reference is king, sollte man verinnerlichen



Antwort von iasi:


In der Zeit wo sich iasi noch mit dem Hauptdarsteller über die nächste Einstellung unterhält,
hätte ich schon 3 WBs gemacht!
So langsam wird es hier lächerlich!

In der Zeit, in der du deinen Krempel aufbaust, verkabelst und einstellst, hab ich schon 3 Einstellungen im Kasten.

Lächerlich sind doch die Ergebnisse, die man trotz des ganzen Aufwands zu sehen bekommt.
Wenn man alles aufwändig und ganz toll "professionell" machen will, dabei dann aber die Zeit aus den Augen verliert, fehlt"s am Ende eben an allem.

Aber bei deinen Drehs ist sicherlich so, dass wenn die letzte Einstellung im Kasten ist, noch bequem Zeit ist, um noch einen netten witzigen Kurzfilm zu drehen, da eh alle beisammen und bezahlt sind.



Antwort von WoWu:

Warum sachlich, wenn's auch polemisch geht ?



Antwort von iasi:


Genau wie Klappen, gibt doch PluralEyes... ;)

Kleiner Gedanke nebenbei: ein Referenzgrau für den WB im Bild zu haben, ob man die Kamera nun drauf einstellt oder nicht, ist schon eine feine Sache. Man kann meinetwegen im RAW nachher den WB zwar anpassen, aber eine Referenz haben ist manchmal auch ganz nützlich. Reference is king, sollte man verinnerlichen

Besser noch ein Farbchart - dann hast du in der Post mit Resolve ganz schnell eine angelichene Ausgangsbasis fürs Grading.



Antwort von iasi:


Warum sachlich, wenn's auch polemisch geht ?

Schreibt der Polemiker.

In anderen Wirtschaftsbereichen gehen die Leutchen durch die Produktion und verschieben Ablagetische, um jeweils einen Schritt einzusparen - denn am Ende summiert sich so etwas ...

Effizientes Arbeiten ...

Aber hier stören sich ja viele nicht mal daran, wenn ein Großtransporter mit nettem, aber überflüssigen Zeug be- und entladen wird - jeden Tag. Dann wird das Zeug noch verschraubt und verkabelt. Anschließend bestückt man all die schönen Geräte mit Akkus, die man natürlich vorher aufladen musste. ... ne - all das kostet natürlich keine Zeit und verlangt nicht nach Personal, welches natürlich auch nicht ern umsonst arbeitet.

Aber in Hollywood ist das alles ja auch kein Problem ...



Antwort von klusterdegenerierung:



In der Zeit wo sich iasi noch mit dem Hauptdarsteller über die nächste Einstellung unterhält,
hätte ich schon 3 WBs gemacht!
So langsam wird es hier lächerlich!

In der Zeit, in der du deinen Krempel aufbaust, verkabelst und einstellst, hab ich schon 3 Einstellungen im Kasten.

Lächerlich sind doch die Ergebnisse, die man trotz des ganzen Aufwands zu sehen bekommt.
Wenn man alles aufwändig und ganz toll "professionell" machen will, dabei dann aber die Zeit aus den Augen verliert, fehlt"s am Ende eben an allem.

Aber bei deinen Drehs ist sicherlich so, dass wenn die letzte Einstellung im Kasten ist, noch bequem Zeit ist, um noch einen netten witzigen Kurzfilm zu drehen, da eh alle beisammen und bezahlt sind.

Falsch,
in der Zeit in der Du noch in der Tiefgarage umher fährst,
stehe ich für 15€ im Parkverbot vor der Location und habe nur meine kleine Cam in der Hand und mach eben die Einstellung und fahre wieder
wenn Du Deinen Wagen abschließt! :-)



Antwort von CameraRick:


Lächerlich sind doch die Ergebnisse, die man trotz des ganzen Aufwands zu sehen bekommt.
Dann doch mal Butter bei die Fische, iasi. Zeig doch mal Deine brillanten Ergebnisse, die Du so machst - im Gegenzug schau ich mal was grad von uns im Abendprogramm oder Kino läuft, damit Du das als lächerlich hinstellen kannst.

Besser noch ein Farbchart - dann hast du in der Post mit Resolve ganz schnell eine angelichene Ausgangsbasis fürs Grading.

Das Problem mit den Farbcharts wurde auf Slashcam schon andernorts erörtert - die Farben sind nicht wie sie sollten, und man weiß auch nicht welche Revision der Charts Resolve erwartet. Ergo ist das, was da rauskommt, gerne mal eine Wundertüte. Neutrales grau ist natürlich einseitig, aber dafür eben unmissverständlich.
EInen Colorchecker habe ich keiner Produktion bisher im Einsatz gesehen, btw. Und kein Colorist hat je danach gefragt.



Antwort von dienstag_01:

EInen Colorchecker habe ich keiner Produktion bisher im Einsatz gesehen, btw. Und kein Colorist hat je danach gefragt.
Naja ;)
Deswegen brauchen diese Produktionen ja auch Leute wie dich, die das alles in mühevoller Kleinarbeit wieder gerade biegen müssen.
Bei internationalen Produktionen macht das iasi, ruckizucki, fürn Appel und n Ei ;)



Antwort von klusterdegenerierung:

Vielleicht liegt das ja auch daran, das wir hier von Äpfel und Birnen sprechen?
Wieso wird das ganze Thema denn so künstlich aufgeblasen?

Habt ihr alle im Ernst keine zertifizierte Graukarte die man mal eben vor die Linse halten kann
und habt ihr alle keine Cam die eine WB Taste hat auf der man mal eben drücken muß?

Oder meinetwegen in einem Menü durch das man sich mal eben schnell durchwühlt oder es vorher auf eine Progtaste legt?
Wie muß ich mir die Aufträge vorstellen?
Man bringt selber noch Geld mit zum Set?

Und wie verklickert ihr ihm dann den Mehraufwnd in der post wegen den versemmelten Farben?
Ich glaube das ist doch jetzt echt bekloppt, aber wer weiß, vielleicht brauch man ja auch keine Kenntnisse oder erlernte Grundlagen mehr?



Antwort von WoWu:

Ist doch egal, was da vor die Kamera gehalten wird, wenn hinterher sowieso beliebig mit dem ISO Regler auf der Übertragungsfunktion rumgerutscht wird.



Antwort von dienstag_01:


Ist doch egal, was da vor die Kamera gehalten wird, wenn hinterher sowieso beliebig mit dem ISO Regler auf der Übertragungsfunktion rumgerutscht wird.

Klar, ISO ist logischerweise och Wurscht, alles Postsache ;)



Antwort von CameraRick:


Deswegen brauchen diese Produktionen ja auch Leute wie dich, die das alles in mühevoller Kleinarbeit wieder gerade biegen müssen.
Bei internationalen Produktionen macht das iasi, ruckizucki, fürn Appel und n Ei ;)
Vielleicht wenn ich Colorist wäre... ;)
Bei welchen Großproduktionen siehst Du die Dinger denn im Einsatz? Außer vielleicht beim Camcheck vorweg?



Antwort von klusterdegenerierung:

Kurze Entspannungspause ;-)




Antwort von Jott:

Es wäre sicher nicht falsch, zu schätzen, dass mindestens 99% aller Projekte NICHT via raw entstehen. Selbst wenn die benutzte Kamera das könnte. Trotzdem klappt das. Es gibt also wohl tatsächlich routinierte Leute, die wissen, was sie für korrekte Bilder an einer Kamera einstellen müssen. Und das ist in ein paar Sekunden gemacht. Die raw-Religion kann schon durchgeknallt rüber kommen. Gerne die Technik nutzen, aber doch bitte nicht verpeilt missionieren und behaupten, etwas anderes ginge nicht und sei teurer. Aua.



Antwort von Roland Schulz:



Also, meinen einfachen Testaufbau mit physikalisch nachvollziehbarer Beschreibung und nachvollziehbarem Ergebnis hat bisher glaube ich noch niemand "belächelt".
Dazu kann und will ich nichts sagen - denn ich habe mir das bisher nicht angesehen.

Das ich "Größen", Autoren von revolverblattartigen "Tech Briefs", "öffentlich" an mehreren Stellen zerlegt habe kannst Du gerne noch mal recherchieren, auch bei slashcam wurde das bereits diskutiert.
Und wer entscheidet wer hier die größere Kompetenz hat?

Der Punkt ist ganz ein Anderer: alleine das ins Lächerliche ziehen und Diffamieren von Leuten, die durchaus einen respektablen Namen haben, ist absurd. Und die Firmen wie in dem Fall Sony oder Panasonic sind nicht so dämlich und beschäftigen nur Idioten.

Wo ich wann in welchem Fall mit V-LOG denn nun wo hinbelichten soll, wie es im von Dir verlinkten Tech Brief beschrieben sein soll, geht aus dem "Dokument" auch nicht hervor.
Na dann has tdu das Papier entweder nicht verstanden oder nicht gelesen. Denn da sind recht klar die Methoden beschrieben. Alleine der Schlußsatz sagt alles:
Exposing properly for VLOG-L is the key to getting the best results; aim to expose an 18% gray card at about 42 IRE,
keep your Caucasian skin highlights to below 55 IRE, and set your Zebra 2 to 75 IRE to keep from clipping highlights.

Wenn auch Du aus 8-bit Material durch Downscale "echtes" 10-bit Material gewinnen kannst - dann kann ich Dir auch nicht mehr helfen
???? Wo findet sich das in den aktuellen Diskussionen????

Warum x-LOG mehr rauscht hatte ich aber bereits erklärt (flachere Eingangsübertragungsfunktion in "relevanten Bereichen", die beim "De-loggen" wieder (stärker) gespreizt werden müssen, somit die Abstände der bei der Aufnahme entstandenen Inkremente größer werden, somit bei Übergängen größere Abrisse hervorrufen und auch beim "Kippen" von Inkrementen/LSB's eine größere "Rauschamplitude" hervorrufen...), komme mir langsam vor wie ne kaputte Schallplatte...
...und nein, dazu mache ich jetzt kein Diagramm mehr!

Rauschen entsteht am Sensor. Und nicht in einer Übertragungsfunktion. Und der Rest ist ziemlich leeres Gerede - arbeite mit 10bit aufwärts und belichte das Material richtig, grade es richtig, und du hast all diese Probleme nicht. Denn so macen es die Anderen auch.

Da Du anscheinend weder die Tech Briefs komplett gelesen noch verstanden hast, auch die Nachteile einer Dekompression eines x-LOGs nicht ableiten kannst und anscheinend noch nicht mal siehst schenke ich mir die weitere Kommunikation mit dir, der Zeitaufwand war ohnehin schon nicht unerheblich.
Hier zahlt niemand einen "Semesterbeitrag". Den überschaubaren, Auge-DR-Versuch hast Du nicht mal nachvollzogen, von daher bitte ich um Verständnis dass ich auf Deine Kommentare ab jetzt nicht mehr weiter eingehe, stellt für mich auch keine Herausforderung - kein Ziel dar.



Antwort von Roland Schulz:

Ein RAW Preprocessing mag es tatsächlich bei einigen Kameras geben, zumindest hat es sowas vor einigen Monden mal an einer Nikon D2x/s gegeben, welche den WB mittels Ergebnis aus dem Sensor aus dem Dachkant voradaptiert hat. Da haben sich seinerzeit einige RAW Converter die Knochen dran gebrochen, nur im Nikon eigenen Converter CaptureCapture im Glossar erklärt NX kamen auf Anhieb plausible Ergebnisse bei raus. Später hat Nikon die "Mehrkanal Weißabgleich" Anpassung als SDK an Dritte weitergegeben weil Nikon festgestellt hat, dass zumindest der Adobe RAW Zug nicht aufhaltbar ist, man ins Hintertreffen gerät wenn man sich dort ausschließt.
Die Idee mit dem separaten Sensor im Dachkant war allerdings schon von der Idee her ziemlicher Murks. Hat man nämlich aus einem beleuchteten Bereich in einen anders beleuchteten Bereich fotografiert, stimmte das Ergebnis systembedingt schon ÜBERHAUPT nicht! Canon hat mit der EOS 1D ähnliches konstruiert, in späteren Modellen wieder verworfen.
Ich mochte die D2x trotzdem, war damals nach der S2 meine erste professionelle dSLR. Bei späteren Kameras wurde der WB eigentlich nur noch aus den Bildsensordaten bzw. aus dem Sensor der Belichtungsmessung (bei Nikon schon sehr lange als RGBRGB im Glossar erklärt Sensor ausgelegt) gebildet.

Mag sein dass es bei einigen aktuellen RAW-(Video-)Kameras ebenfalls noch so ist, die Aufzeichnung bereits vom ein-/festgestellten WB beeinflusst wird. Das wäre dann aber kein "echtes" RAW mehr.
Davon ab gehen einige andere Faktoren mit in die RAW Aufzeichnung ein, welche ebenfalls im Post nicht komplett ausgleich-/transformierbar sind.
So gab es kürzlich eine Diskussion zur "Color Science", die nicht ausschließlich im Postprocessing zu finden ist!! Die Color Science ist u.A. bereits von den Farbfiltern vor den Senseln abhängig, bildet die Vorraussetzung für abbildbaren Farbraum, Farben selbst und deren Übergänge. Die Dimensionierung ist nicht so trivial, da zum einen die Farbfilter die Empfindlichkeit für Farben definieren, diese zum anderen aber auch durch das sich dahinter befindliche Silizium selbst beeinflusst werden.



Antwort von ludwig19te:

Ich habe hier zum lesen angefangen!
Wollt ihr nun, das nach 340 Jahren DER DURCHBRUCH KOMMT und eine KAMERA ZEICHNET INTERN in 10BIT AUF?
JA---NEIN: (WER HAT HIER FÜR NEIN GESTIMMT??-------------------------------------------------------------------------------- > auf die ERs.BK)
Ich denke es ist ein JA, wer weiterhin mit Winterreifen und Schneeketten auf die Autobahn will, der darf, der kann...und gut is.
Die anderen wissen nun folgt, zuerst mittelbeschissenen 10bit intern im Pfui-codec- der oder der, dann wird er stärker und es
wird besser. Irgendwann is das alles vergessen, 10 BIT-raw gibt es auch schon, und dann wenn 60% hier gestorben sind haben
die da oben das 12 BIT eingeführt... :) jetzt werden unzählige Tomaten und Unterhosen fliegen...

1500 Euro für ein gute 10 Bit-Kamera ( in langsam also 11,3 Monate nach Einführung) und dann kommt ne Panasonic Lx 200 die darf
zurrdt nur 10bit in full-hd intern.. mit der Linse und um 699!! in 4K.. aber nur 24/25 frames..loooser..



Antwort von klusterdegenerierung:

Kühwalda is back, oder wie unser Ösi noch mal hies! ;-)



Antwort von domain:

Ja du hast ihn enttarnt, unverkennbar kreativer Stil, aber bessere Rechtschreibung und nicht mehr so viele Anspielungen im Urogenitalbereich. Bisher auf zu entsorgende Damenhygieneprodukte und fliegende Unterhosen beschränkt ;-)



Antwort von funkytown:

Im Artikel steht: "Mit dem kostenlosen "Like709"-Profil lässt sich quasi über die variable Knee-Funktion immer die volle Dynamik des Sensors auf die vollen 10 BitBit im Glossar erklärt abbilden"

Was heißt das jetzt konkret in der Praxis? Ich will das Material mit der BM4K mischen. Brauche also ein flaches Bildprofil und eine größtmögliche Dynamik. Bildprofil "Like 709" habe ich ausgewählt. Kontrast und Schärfe sind runtergeregelt. Welche Einstellungen mache ich nun an der Knee-Funktion?



Antwort von domain:

Bei der Kneeinstellung gibt es vereinfacht ausgedrückt zwei Parameter.
Ersten ab wann der Knick beginnen soll (z.B. ab 80%) und zweitens wie flach der nachfolgende Steigungswinkel sein soll. KneeKnee im Glossar erklärt Slope beschreibt den Verlauf vom Kniepunkt bis zum White Clipping, wobei Weiß bei zu flachem Anstieg u.U.gar nicht erreicht wird und die Lichter einfach nur hellgrau bleiben.
Musst du selbst testen.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
10 Bit 60p (V-Log L) mit der Panasonic GH5 und dem Atomos Inferno (+ Speedbooster)
Neue Firmware für Panasonic GH5(s) soll bessere Autofokus-Performance bringen
Panasonic V-Log L für GH5 jetzt schon kaufen
Panasonic GH5 Firmware 2.0 ist da: 400 Mbit/s ALL-I, Hybrid Log Gamma, u.v.m.
Panasonic GH5: 10-Bit 4K V-Log L Workflow, 180 fps Zeitlupe, Focus Transiti
Hybrid Log Gamma: Erste Eindrücke zum HLG-Format in der Panasonic GH5
FiLMiC Pro jetzt auch mit Log-Profil
Welches Profil für GH5?
Panasonic GH5 - 8 Bit, 10 Bit, 4:2:2, V-Log L - alles OK?
Kostenlose Webinar Reihe von Sennheiser und Panasonic
Panasonic stellt kostenlose LUT Library für VariCam und EVA1 Cine Kameras zur Verfügung
besserer Bildstabilisator(Sony) VS bessere Lichtempfindlichkeit(Panasonic)?
Update für Panasonic Lumix S1 bringt 10 Bit V-Log, LUT und Waveform-Monitor
Kaufberatung: Panasonic GH5 und welches Objektiv
Panasonic GH5 - Neue Funktionen und aktuelles Fazit
Bessere Videofunktion: Panasonic G70 mit neuem Objektiv behalten oder Neuanschaffung?
Slow-Motion Qualität der Panasonic GH5 und GH5s
Panasonic: Firmware-Updates für S1(R), GH5(S), G9(1), G81 und GX9
Shape: Panasonic GH5-Cage und modulares Zubehör verfügbar
Firmware Updates für Panasonic GH5, GH5s und G9 am 30.Mai
welches ist das beste kostenlose schnittprogramm für meinen pc?
Panasonic GH5 - XLR-Modul und Firmware-Preise // CES 2017
Speedbooster: Vorteile und Nachteile für MFT, am Beispiel der Panasonic GH5
Zwischen GH5 und G70 - Panasonic LUMIX DMC-G81 // Photokina 2016
Speedbooster Ultra/XL und Sigma Art Zooms (18-35 u.a.) an der Panasonic GH5 - Teil 2
Speedbooster Ultra/XL und Sigma Art Zooms (18-35 u.a.) an der Panasonic GH5 - Teil 1

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
18-22. September / Münster
Filmfestival Münster
19-22. September / Bremen
Filmfest Bremen
22. September / Essen
Essener Video Rodeo | Kurzfilme aus dem Ruhrgebiet
4-5. Oktober / Espelkamp
Filmfestival SPITZiale
alle Termine und Einreichfristen


update am 21.September 2019 - 18:02
slashCAM
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*