Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Infoseite // Grundlagen: Einfach Erklärt: Sensor-Dynamik, Blendenstufen und Bits (und K



Newsmeldung von slashCAM:


Grundlagen: Grundlagen: Einfach Erklärt: Sensor-Dynamik, Blendenstufen und Bits (und Kerzen) von rudi - 23 Jun 2014 12:23:00
>Auf unserer Suche nach einfachen Erklärungen für komplexere Sachverhalte stoßen wir immer wieder auf ein paar fundamentale Grundlagen, die man als bekannt voraussetzen muss. Oder eben vorher klarstellen sollte. Darum geht es heute jetzt und hier um einen Zusammenhang zwischen Dynamik, Blendenstufen und Bits, der eigentlich ganz einfach ist...
zum ganzen Artikel

Space


Antwort von srone:

Oder der seine Sensel nicht linear digitalisiert. ???

lg

srone

Space


Antwort von arfilm:

Danke für den Artikel! Ich würde es gut finden, wenn ihr eure Quellen dazu schreiben würdet.

Space


Antwort von Ab-gedreht:

nett erklärt, macht Lust auf mehr!

Space


Antwort von MarcS:

Dieser Artikel ist das unterirdisch schlechteste, was ich jemals von einer technischen Redaktion gelesen habe, und grottig falsch!

Die Quantisierungstiefe in bit hat mit dem Dynamikumfang in Blendenstufen überhaupt nichts zu tun!

Die Behauptung, 1 Blendenstufe ließe sich mit 1 bit abtasten und z.B. 5 Blendenstufen entsprechend mit 5 bit ist absoluter Unsinn!

Jede Blendenstufe bedeutet eine komplette Verdoppelung oder Halbierung der Lichtmenge zur vorherigen Blende, also z.B. den Unterschied einer 100W zu einer 200W Lichtquelle.

Man stelle sich eine Kugel vor, die von links mit 100W und von rechts mit 200W beleuchtet wird. Dieses repräsentiert einen Belichtungsumfang von einer Blende.

Bei nur einem bit Quantisierungstiefe gäbe es nicht einen einzigen Halbton!

Betrachten wir uns eine nicht unübliche Szene bei weichem, gleichmässigen Licht mit z.B. 5 Blenden Dynamikumfang.

Dem Autor zu folge, würden hier entsprechend 5 bit Datentiefe zur Darstellung genügen.

Der Helligkeitsunterschied in dieser Szene wäre so, als würde sie teilweise mit einer 100W Birne beleuchtet werden und andere teile mit einem 1600W Brenner.

Bei 5bit stünden hierfür allerdings nur 32 Grauwerte zur Helligkeitsdarstellung zur Verfügung, dieses hätte extreme Tonwertabrisse zur Folge, man kann sich vorstellen, wie diese Aufnahme aussehen würde.

Richtig ist vielmehr:

Die Quantisierungstiefe in bit gibt lediglich an, in wie viele Grauwertstufen das Sensorsignal digital aufgezeichnet werden kann, egal wie die Dynamik des Sensors ist.

8bit sind 2 hoch 8 = 256 Graustufen x 3 Farbkanäle = 16,7 Mio Farben

Die Quantisierungstiefe muss in der Praxis so hoch sein, dass das menschliche Auge die digitalen Helligkeitsabstufungen nicht mehr wahrnimmt.

8bit sind hier ganz ordentlich und geben sogar noch etwas Luft zur Tonwertkorrektur ohne dass es gleich zu massiven Tonwertabrissen kommt.

Höhere Quantisierungen wie 10, 12, 14 oder 16bit bewirken grundsätzlich kein feineres oder besseres Bild, sie geben nur immer mehr Spielraum in der Post für nachträgliches Grading, ohne dass es zu sichtbaren Tonwertsprüngen kommen würde.


Die Dynamik hat hiermit jedoch überhaupt nichts zu tun, sie gibt lediglich an, wie gross der maximal aufnehmbare Helligkeitsunterschied in einer Szene ist:

z.B. 1bit Dynamik = doppelte Lichtmenge

z.B. 10bit Dynamik = 1024-fache Lichtmenge in der selben Szene


JEDOCH egal wie gross die Dynamik ist, ich brauche immer eine gewisse Mindestquantisierungstiefe (standard: 8bit), um das Signal später ohne sichtbare Tonwertsprünge wiederzugeben.

Also auch eine absolute low contrast Szene, die nur eine Dynamik von z.B. 3 Blenden aufweißt und mit einem (theoretischen) Sensor aufgezeichnet wird, der ebenfalls genau diese 3 Blenden Helligheitsumfang bewältigt, genügen keineswegs wie vom Autor behauptet '3 bit', sondern auch hier sind in jedem Fall für verlustfreie visuell nicht mehr sichtbare Helligheitsabstufungen z.B. 8 bit nötig.

Auch die Behauptung, 14 Blenden Dynamikumfang seien nur mit 14bit Quantisierung möglich ist deshalb so nicht richtig.

=> Dynamik in Blenden = Maximal möglicher Helligkeitsumfang einer Szene

=> Quantisierung in Bit = Feinheit der Helligkeitsabstufungen


Es gibt zwischen diesen beiden Parametern KEINEN direkten linearen Zusammenhang.

Jedoch natürlich einen 'praktischen':

=> Eine Eingangsdynamik von nur z.B. 4 Blenden benötigt keine Quantisierung von 14bit, denn eine derart weiche Szene wird man wohl kaum noch weicher machen wollen

=> umgekehrt ein Sensorsignal mit 14bit Dynamik sieht zwar im prinzip auch bei 8 bit Quantisierung perfekt aus, lässt sich wegen der 8bit jedoch genauso wenig gut nachträglich graden, wie jedes andere 8bit Signal auch, völlig unabhängig von der Dynamik.

Will ich jedoch in der Post die 14 Blenden Szene in ihren hellsten und dunkelsten Bereichen z.B. tatsächlich zu einer HDR Komposition graden, geht das ohne sichtbare Tonwertsprünge tatsächlich nur mit entsprechend hoher Quantisierungstiefe von mehr als 8bit.... je mehr, desto besser.

Allerdings den vom Autor unterstellten funktional linearen Zusammenhang zwischen Dynamik und Quantisierung gibt es nicht!

Space


Antwort von dienstag_01:

Klar, ist doch eigentlich ganz einfach ;)

Space


Antwort von WoWu:

Klar, ist doch eigentlich ganz einfach ;) Ist es auch.
Hat Rudi schon richtig erklärt und MarcS soll einfach mal das nächste Kapitel abwarten, denn was er hier tut, ist ein heilloses Durcheinanderwürfeln der verschiedensten Parameter, wie es oft gern von "Praktikern" vorgenommen wird, aber zu einem grossen Prozentsatz lediglich aus Einschätzungen und dubiosen Vergleichen besteht.

Rudi ist da schon auf dem richtigen Weg.

Space


Antwort von Jan:

Ganz richtig kann es aber nicht sein, weil nicht wenige acht Bit (die nur JPEG können) Digitalkameras wirklich 8-10 Blendenstufen beherrschen. Das kann man in vielen Testberichten nachlesen. Könnte aber nicht sein, weil ja nur maximal acht Blendenstufen möglich sind.


VG
Jan

Space


Antwort von WoWu:

Bei der Quantisierung ist er doch noch gar nicht.
Das ist doch erst das Grundverständnis, der Wahrnehmung und die Art, wie ein Sensor Elektronen erzeugt.
Das ist das, was ich meine. Wenn man im Grundverständnis schon seine "Praktikererfahrungen" einzubinden versucht, dann versteht das kein Mensch mehr.
Also, steck die Messergebnisse mal solange weg und warte Schritt für Schritt die Herleitung ab.

Space



Space


Antwort von Jogi:

Für mich verständlich erklärt, obgleich ich in den Tiefen dieses Themas nicht immer gleich durchblicke!

Space


Antwort von WoWu:

Finde ich auch, deswegen sollte man auch jetzt nicht gleich mit Log Kurven und der Störabstandsproblematik reingrätschen.
Das kommt schon von ganz allein, wenn man die Basis richtig kapiert hat.

Space


Antwort von Angry_C:

Sorry, aber dass man Bits mit Blenden verstrickt, ist nun wirklich etwas merkwürdig, da muss ich MarcS ersten Beitrag zustimmen.

Ganz richtig ist, dass man mit 4 Kerzen die Lichtmenge gegenüber 2 Kerzen verdoppelt und somit eine Blende Helligkeitsunterschied erhält. Allerdings wird die vorhandene Helligkeit immer auf die maximal möglichen Helligkeitsstufen einer Kamera verteilt. Da kommen dann die Bits ins Spiel.

Bei einer 8 Bit Kamera sind es eben 255 Stufen und bei einer 10 Bit Kamera eben 1024 Stufen.

Ich kann mit einer 8 Bit Kamera einen genau so großen Dynamikumfang darstellen wie mit einer 12 Bit Kamera. Wie der Helligkeitsverlauf dann aussieht, das ist eine anderes Sache. Es können, je nach Motiv Farbabrisse, manche nennen es Bandings, auftreten.

Dynamik bedeutet immer die Helligkeits-Unterschied zwischen dem dunkelsten und dem hellsten darstellbaren Pixel. Gut Vergleichbar mit der Musik und dem lautesten und leisesten Ton. Je größer die Differenz, desto höher die Dynamik.

Space


Antwort von WoWu:

Ja, und nichts Anderes hat Rudi oben beschrieben.
Ansonsten sag doch einfach, wo er den Fehler gemacht hat und wie die Stelle korrigiert auszusehen hat.

Space


Antwort von dienstag_01:

Ich kann mit einer 8 Bit Kamera einen genau so großen Dynamikumfang darstellen wie mit einer 12 Bit Kamera. Wie der Helligkeitsverlauf dann aussieht, das ist eine anderes Sache. Es können, je nach Motiv Farbabrisse, manche nennen es Bandings, auftreten. Da wird es niemals Banding geben. Erst wenn man daran *rumschraubt* entstehen diesae Fehler. Weil eben Werte fehlen.

Space


Antwort von WoWu:

Ich hab das auch erst zweimal lesen müssen, bis ich das verstanden habe. Er meint, dass jeder Sensor einen FullWell wert hat und eine untere Empfindlichkeit, hat aber noch gar nicht geblickt, dass es hier noch gar nicht darum geht.
Natürlich kann jeder Sensor ein beliebiges Lichtverhältnis darstellen.
Das ist hier aber unbestritten und noch nicht Thema.
Er soll doch einfach mal falsifizieren, was an Rudis bisherigem Inhalt nicht stimmt.

Space


Antwort von Angry_C:

Ich kann mit einer 8 Bit Kamera einen genau so großen Dynamikumfang darstellen wie mit einer 12 Bit Kamera. Wie der Helligkeitsverlauf dann aussieht, das ist eine anderes Sache. Es können, je nach Motiv Farbabrisse, manche nennen es Bandings, auftreten. Da wird es niemals Banding geben. Erst wenn man daran *rumschraubt* entstehen diesae Fehler. Weil eben Werte fehlen. Stimmt nicht, 256 Helligkeitsstufen sind manchmal nicht ausreichend.

Space


Antwort von dienstag_01:

Stimmt nicht, 256 Helligkeitsstufen sind manchmal nicht ausreichend. Ich wünsch dir in Zukunft mehr Glück beim Kamerakauf, zumal es sowieso keine 256 sind ;)

Space


Antwort von Angry_C:

Ich hab das auch erst zweimal lesen müssen, bis ich das verstanden habe. Er meint, dass jeder Sensor einen FullWell wert hat und eine untere Empfindlichkeit, hat aber noch gar nicht geblickt, dass es hier noch gar nicht darum geht.
Natürlich kann jeder Sensor ein beliebiges Lichtverhältnis darstellen.
Das ist hier aber unbestritten und noch nicht Thema.
Er soll doch einfach mal falsifizieren, was an Rudis bisherigem Inhalt nicht stimmt. Ganz einfach, man benötigt keinen 14 bit sensor, um einen Dynamikumfang von 14 Blenden darzustellen. Das wäre nur der Fall, wenn man ihn linear betreibt.

Space



Space


Antwort von Angry_C:

Stimmt nicht, 256 Helligkeitsstufen sind manchmal nicht ausreichend. Ich wünsch dir in Zukunft mehr Glück beim Kamerakauf, zumal es sowieso keine 256 sind ;) Danke, aber seit der GH2 ist mir Gott sei Dank keine Kamera mehr untergekommen, die jeden Himmelverlauf sichtbar abstufte.

0-255 sind keine 256 Helligkeitsstufen?

Space


Antwort von WoWu:

Das wäre nur der Fall, wenn man ihn linear betreibt. Ach sag bloss.
Hat Rudi irgend etwas von nicht-linearität geschrieben ?

Wer lesen kann, ist echt im Vorteil.

Space


Antwort von dienstag_01:

Geht denn Video von 0 bis 255 ;)

Space


Antwort von Angry_C:

Geht denn Video von 0 bis 255 ;) FullRange Video schon.

Space


Antwort von dienstag_01:

Und welche Cams geben das aus?
(Sicher die GH2 ;) )

Space


Antwort von Angry_C:

Und welche Cams geben das aus?
(Sicher die GH2 ;) ) Oh, da gibt es ne Menge. Google doch mal. Meine aktuelle Kamera lässt sich z.B. sogar so einstellen, dass sie 8bit Video von 0-255, 16-255 oder 16-235 schreibt. Luxus, oder?

Space


Antwort von dienstag_01:

Oh, da gibt es ne Menge. Google doch mal. Meine Aktuelle Kamera lässt sich z.B. sogar so einstellen, dass sie 8bit Video von 0-255, 0-235, oder 16-235 schreibt. Luxus, oder? Nee, eher Quatsch.
Aber AKtuelle Kamera finde ich gut ;)

Space


Antwort von Angry_C:

Oh, da gibt es ne Menge. Google doch mal. Meine Aktuelle Kamera lässt sich z.B. sogar so einstellen, dass sie 8bit Video von 0-255, 0-235, oder 16-235 schreibt. Luxus, oder? Nee, eher Quatsch.
Aber AKtuelle Kamera finde ich gut ;) Du musst es ja wissen.

Space


Antwort von dienstag_01:

Du musst es ja wissen. Wenn du verstanden hättest, dass Banding nicht dann entsteht, wenn mehr Werte auf weniger umgerechnet werden, sondern genau umgekehrt, weniger Werte auf mehr, dann könnte man dir das Kompliment ebenfalls machen ;)

Space



Space


Antwort von prophet:

Der Artikel heißt doch "Sensor-Dynamik", daher ist doch die Erklärung (im Rahmen der geforerten Einfachheit) vollkommen in Ordnung!

Mir wäre es zwar lieber, dass die Quantisierung des Signals gar nicht erwähnt worden wäre :) (siehe hier und von MarcS angemerkt), aber irgendwie muß man ja auch an das Thema ranführen.

Space


Antwort von WoWu:

Ich finde auch, das war ein guter erster Schritt. Nur kann ich schon, auch Jans Einwand, verstehen, dass man das jetzt Schritt für Schritt an die "gewohnte" Kameradynamik heranführen muss und auch die DNR Abhängigkeit einbringt, denn dann relativieren sich die Blendenangaben auch wieder.

Wie Ab-gedreht schon sagte nett erklärt, macht Lust auf mehr!

Space


Antwort von Funless:

Also ich fand den Artikel auch sehr informativ und leicht verständlich erklärt. Danke an Slashcam, ich hab' auch Lust auf mehr! :o)

Space


Antwort von CameraRick:

Du musst es ja wissen. Wenn du verstanden hättest, dass Banding nicht dann entsteht, wenn mehr Werte auf weniger umgerechnet werden, sondern genau umgekehrt, weniger Werte auf mehr, dann könnte man dir das Kompliment ebenfalls machen ;) Ich gebe offen zu, dass ich von dem hier (noch) nicht so viel verstehe wie ihr wohl alle.

Aber wenn kein Banding entsteht, wenn man von viel auf wenig geht, erklärt mir dann wer wieso man in Blurays oft so hässliches Banding hat?
"Die Frau in Schwarz" fällt mir da sofort ein; der Nebel war ein Horror

Space


Antwort von dienstag_01:

Aber wenn kein Banding entsteht, wenn man von viel auf wenig geht, erklärt mir dann wer wieso man in Blurays oft so hässliches Banding hat?
"Die Frau in Schwarz" fällt mir da sofort ein; der Nebel war ein Horror
Ist doch auch ein Horrorfilm, oder ;)
Aber im Ernst, das liegt natürlich grundsätzlich an der Komprimierung.

Edit: Eine andere Möglichkeit wäre auch, den Film auf einem Panel mit weniger als 8bit abzuspielen. Manche Screen schaffen nur 6 (obwohl 8bit angegeben sind).

Space


Antwort von Jott:

wieso man in Blurays oft so hässliches Banding hat?
"Die Frau in Schwarz" fällt mir da sofort ein; der Nebel war ein Horror Gesehen wie? Blu-ray-Player/Fernseher oder am Rechner?

Space


Antwort von CameraRick:

Ja, das mit dem Horror war schon ein gewolltes Wortspiel :)

Gesehen auf einem iMac; aber derartige Artefakte sind mir auch am TV (irgendso ein LG Monster) aufgefallen, nur bei "Frau in Schwarz" fiel es mir besonders stark auf.

Space


Antwort von prophet:

Aber wenn kein Banding entsteht, wenn man von viel auf wenig geht, erklärt mir dann wer wieso man in Blurays oft so hässliches Banding hat?
"Die Frau in Schwarz" fällt mir da sofort ein; der Nebel war ein Horror Mit 95% Wahrscheinlichkeit ist dieses Banding ein Komprimierungsartefakt durch eine zu geringe Bandbreite, und hat weder etwas mit der Sensordynamik noch mit der 8bit Abtastung zu tun. Die meisten stark komprimierenden Codecs haben Probleme mit flachen Farbverläufen (dein Beispiel mit Nebel ist ja aus dieser Kategorie).

Space


Antwort von WoWu:

Wo genau und wie soll im Codec das Banding entstehen ?
Und aufgrund welchen Umstands sollte es in SCHWARZ mehr sein, als in WEISS ?

Space



Space


Antwort von dienstag_01:

Und aufgrund welchen Umstands sollte es in SCHWARZ mehr sein, als in WEISS ? Vielleicht, weil der Fim Frau in SCHWARZ heisst ;)
Oder wie kommst du auf deine Frage?

Space


Antwort von WoWu:

Weil CR oben sagte, es sei ihm bei den Schwarzen Teilen vornehmlich aufgefallen.
Vielleicht hab ich das auch nur falsch verstanden ..:per falsch in Erinnerung :-(
In dem Fall ... scratch it.
Mich würde nur interessieren, an welcher Stelle - und warum ein Codec, Banding erzeugen sollte.

Space


Antwort von CameraRick:

Nicht unbedingt im Schwarzen (da sehe ich so etwas aber auch manchmal), bei "Frau in Schwarz" hauptsächlich im Nebel (eher hell als Dunkel).
Ich schau mal ob ich ein Beispiel finden kann.

Space


Antwort von WoWu:

Ah, ok, dann hab ich das falsch verstanden.
Bleibt die Frage, wie, an welcher Stelle ein Codec Banding erzeugen kann und ob es, wenn das der Codec erzeugt, auch im selben Codec bei 10 Bit passiert ...(muss ja eigentlich, wenn es der Codec ist).

Space


Antwort von Angry_C:

Aber im Ernst, das liegt natürlich grundsätzlich an der Komprimierung.
Das würde ich aber gerne als jemand, der 0 Plan hat, von einem Profi wie dir erklärt bekommen. Was hat die Komprimierung mit Banding zu tun?

Space


Antwort von dienstag_01:

Lieber Angry_C, ich BEHAUPTE, dass die im Encodingprozess integrierte (oder vorgeschaltete) Rauschreduktion dafür verantwortlich ist. Nein?

Space


Antwort von Angry_C:

Lieber Angry_C, ich BEHAUPTE, dass die im Encodingprozess integrierte (oder vorgeschaltete) Rauschreduktion dafür verantwortlich ist. Nein? Gehört der Satz so? Dann verstehe ich ihn im Zusammenhang mit "Nein?" nicht. Behauptungen sind aber sowieo immer so "ne Sache. Lassen wir das. Bleib du bei der Komprimierung und ich bei den für weiche Gradationen, wie sie oft im Himmel zu sehen sind, zu wenigen Helligkeitswerten bei der Umrechnung auf 8 bit.

Space


Antwort von prophet:

Mich würde nur interessieren, an welcher Stelle - und warum ein Codec, Banding erzeugen sollte. Ein Bild sagt mehr als tausend Worte:

zum Bild


Ich kann das Banding im 2. Bild auch ohne das Histogramm sehen.

Space


Antwort von Angry_C:

Ich nehme an, das Original war ein 16 Bit Bild. Es wurde also auf 8 Bit Jpg gebracht, was die Ursache für das Banding ist, nicht aber die Komprimierung.

Space



Space


Antwort von WoWu:

Das sind vermutlich wieder Bilder aus einem Grafikprogramm von denen das erste Bild eine andere Quantisierung hat- oder mit Werten aufgefüllt ist-, als das zweite Bild. Oder es hat eine Unterabtastung stattgefunden.
Mach das mal mit 4:4:4. ich tippe darauf, dass das obere Bild RGB ist.
Es gibt nämlich z.B. in H,264 keine Stelle, wo Wertetabellen verändert werden und Vorfilterungen gehören nicht zum Codec sondern zum Signalprocessing des Gerätes.

Der Codec kann (aus seiner Funktionsweise heraus) gar kein Banding erzeugen, das nicht schon vorher existiert.

Aber die Internetblogs fallen immer gern auf solche Bilder herein.
Schon klar.

Space


Antwort von dienstag_01:

NEBEL?! Was passiert da? Warum anfällig für Banding? Vergiss mal die Kamera (Vorfilterungen gehören nicht zum Codec sondern zum Signalprocessing des Gerätes.) und beziehe auch das Encoding aus dem NLE mit ein.

Space


Antwort von WoWu:

Für die korrekte Vorfilterung ist der Anwender verantwortlich. das macht kein NLE von allein.
ARRI hat für solche Vorfilterungen sogar zwei Firmen gegründet, deren Geschäftsmodell es ist, Vorfilter (von 16mm nach beliebigen Codecs) anzufertigen, die dafür Sorgen, dass aufgrund des Bildgrains nicht so viele Bewegungsvektoren entstehen.
Wer also Vorfilter einsetzt, kann die Wirkung der Filter bereits vor der Codierung betrachten denn der Coder verändert nichts an den Wertetabellen.

Space


Antwort von dienstag_01:

Woher Banding?
Wir bleiben mal beim Export aus dem NLE.

Space


Antwort von prophet:

Ich nehme an, das Original war ein 16 Bit Bild. Es wurde also auf 8 Bit Jpg gebracht, was die Ursache für das Banding ist, nicht aber die Komprimierung. Nein, ebenfalls 8bit. Sonst hätte ich das dazu geschrieben. Edit: die Behauptung ist sowieso falsch, weil die Abtastungsdynamik reduziert wird (16 nach 8). Von 8 nach 16 wäre es zu Banding gekommen.

@WoWu: Das ist doch Wurscht, woher das Signal kam. Fakt ist, dass es durch die DCT-Apertur und unvollständige Koeffizienten zu Banding kommt. Nur weil du es im natürlichen Bild kaum wahrnimmst (außer bei Nebel und anderen sanften Farbverläufen), heißt es nicht, dass es nicht existiert.

Ich wußte direkt, dass du gleich mit dem 4:4:4 kommst ;-) In oberen Beispiel findet der Verlauf sowieso im Luma-Channel statt, UV sind gleich (gleiche Farbe im gesamten Bild). Oh Mann... Außerdem reden wir hier von BluRay, also muß ich auch 4:2:0 einstellen (das trägt zum Banding auch minimal bei).

Alle Ungläubigen dürfen gern selbst den Test in Photoshop oder Gimp nachmachen. Es ist keine Hexerei und nichtmal "Internetblogs"-approved.

Space


Antwort von WoWu:

Das kann verschiedene Ursachen habe.
Die häufigste Ursache ist die, dass viele Leute in 10 Bit arbeiten und das, was sie da sehen für diese 10 Bit mit Dither aufgefüllt wird und ihnen daher nur vorgegaukelt wird, dass sie kein Banding haben aber sobald das teil dann wieder reduziert wird, ist das der Zeitpunkt der Wahrheit.

Wenn wir (echtes) 10 Bit verarbeiten läuft immer im Preview ein Decodierung nach 8 Bit mit, selbst wenn wir das Material in 10 Bit an die Broadcaster übergeben, weil wir keine Reklamationen haben wollen, wenn das material hinterher auf dem Bildschirm Artefakte zeigt.

Space


Antwort von dienstag_01:

Wir reden hier von 8bit, nicht 10.

Space


Antwort von WoWu:

Photoshop oder Gimp Schau Dir mal an, was Grafikprogramme genau machen und wiederhold das mal mit einem realen TV Bild in einem NLE.
Dann wirst Du solche Grafikprogrammbasierten Experimente den Blogs zukünftig überlassen.
Und was war das Ausgangsmaterial denn nun... 4:2:0 ?

@dienstag
Dem Codec ist das völlig Wurscht, ob das 8 oder 10 Bit sind, der generiert kein banding.
Aber die Vorverarbeitung, die Du im NLE machst, die generiert das, nur dass Du Dir den Fehler in die Tasche lügst, weil Du ihn nicht rechtzeitig siehst, wenn Du in 10 Bit arbeitest.

Space


Antwort von prophet:

WoWu, Du darfst gerne mit einem Gegenbeweis aus der realen Welt kontern. Ich habe nichts dagegen. Allerdings brauche ich mehr als Worte.

Ach ja, das Originalbild ist 4:4:4.

Edit: typo.

Space



Space


Antwort von dienstag_01:

Vergiss doch mal die 10bit, das ist doch ein anderes Thema. Banding gibt es doch auch bei reiner 8bit Bearbeitung. Oder etwa nicht.

Space


Antwort von WoWu:

Die ganze Digitaltechnik besteht aus Bendig, weil es keine Sinusverläufe ausserhalb der Analogtechnik gibt.
Die Frage ist immer nur, wird es vom perzentuellen Sehen des Menschen wahrgenommen oder nicht.
Der mensch braucht zwischen 50 und 100 "Stufen" um einen verlauf als "flüssig" zu empfinden. Das bedeutet im Idealfall, wir brauchen bei 10 Blenden so bummelig um die 500 Schritte.
Das hat 8 Bit gar nicht und dass wir es dennoch als flüssig sehen liegt an diversen Unschärfen in der Übertragung.
Nur bedeutet das, dass sowohl 8, also auch 10 Bit nicht viel Luft für Experimente hat und sobald wir anfangen, Werte innerhalb einer gleichmässigen Verteilung umzushiften, egal ob wir ein Signal stretchen oder Werte nur anders verteilen, laufen wir Gefahr, dass man das sieht.
Wenn ich also eine begrenzte Anzahl an Stufen in 8 Bit habe, bleibt die Anzahl ebenso gross, wenn ich sie in 10 Bit verteile, nur dass die fehlenden rd. 800 Werte mit einer Pixelstruktur ausgefüllt werden, und Du an Deinem Monitor ein "scheinbar" lückenloses Bild siehst. Beginnst Du jetzt, die Inhalte zu verschieben, macht das bei 10 Bit deutlich weniger aus, als bei 8 Bit. Du siehst es also nur, wenn es ganz extrem wird.
Geht aber Dein Signal anschliessend zurück nach 8 Bit, werden all die schönen Zwischenwerte, die Du in 10 Bit hattest, indexiert und je nachdem ob sie nun, so verarbeitet, eher am oberen oder am unteren Wert des Index landen, wird die Differenz mal grösser und mal kleiner. Wird sie grösser, siehst Du plötzlich statt einer 8 Bit Stufe, nur noch jede 2. oder 3. ... je nachdem, welcher Indexwert für diese neue Farbe zutrifft.
Du hast also das allerschönste Banding, ohne dass es Dir in 10 Bit aufgefallen ist. Insofern hat 10 Bit sehr wohl etwas mit dem 8 bit Resultet zu tun. Es könnte um ungünstigsten Fall sogar die Ursache für das Banding sein.

Space


Antwort von WoWu:

WoWu, Du darfst gerne mit einem Gegenbeweis aus der realen Welt kontern. Ich habe nichts dagegen. Allerdings brauche ich mehr als Worte. Ja, jedes codierte Bild, auf dem kein Banding zu sehen ist, das ausserhalb der 256 Werte liegt ist ein Gegenbeispiel.
Du hast ja gesagt, der Codec generiert Banding.
Ich sag ja nur, er funktioniert. Dazu musst Du nur mal das Fernsehgerät einschalten.

Space


Antwort von dienstag_01:

Hallo Wowu, deine Erklärung gehe ich absolut mit.
Ich behaupte, dass bei der Datenkompression (bspw. für die Encodierung) Werte teilweise neu verteilt werden. Erkennt man u.a. daran, dass Farbwerte vor und nach dem Encoding minimal differieren. Und Filter, die im Komprimierungsprozess greifen, verändern erst recht.

Übrigens, keiner hat hier geschrieben, das der Codec Ursache ist, sondern die Komprimierung. Als Prozess.

Space


Antwort von WoWu:

Das ist aber jetzt Haarspalterei.
P hat oben geschienen, dass der Codecs Probleme mit Verläufen hat. Die meisten stark komprimierenden Codecs haben Probleme mit flachen Farbverläufen Das ist Quatsch, sofern es hier um Banding geht und darum geht es hier ja.

Der Codec ändert an den Wertetabellen absolut nichts.
Das ist immer so die beliebte Ausrede, wenn man in der Post Mist gebaut hat.
"Der Codec ist schuld".
Nee, nee. Der Codec macht keine Vorfilterung.
Bestenfalls schlechte Implementierungen in manchen Programmen. Dann würde ich eine vernünftige Implementierung wählen.
Nur Banding entsteht dadurch nicht weil es beispielsweise für 709 (und auch andere Verfahren) eine festgeschriebene Wertetabelle gibt.
Hält man sich daran, sieht das Signal, egal ob Verlauf oder nicht vorher wie nachher aus und in der Analyse wird man die identischen Werte wiederfinden.

Solche Codecs werden ja erstens nicht von heute auf morgen geschustert sondern entstehen über Jahrzehnte und werden von (derzeit) fast 450 Entwicklungsingenieuren gemacht, die in den grossen Herstellerfirmen und in den Broadcastanstalten sitzen.
MPEG ist also keine Firma sondern eine Entwicklungsgemeinschaft.
Was glaubst Du, was los wäre, wenn der Codec Werte nicht neutral durchreichen würde.
Nee, nee den Fehler, wenn sowas passiert würde ich zunächst mal 60 cm vor dem Bildschirm suchen.

Space


Antwort von dienstag_01:

Nee, nee den Fehler, wenn sowas passiert würde ich zunächst mal 60 cm vor dem Bildschirm suchen. Klar, hatte ich vergessen ;)

Space


Antwort von WoWu:

Damit warst Du aber nicht speziell gemeint, das geht uns hier auch nicht anders. Fehler passieren nun mal ... aber um sie zu beseitigen muss man natürlich auch an der richtigen Stelle suchen.
Den Kunden interessiert es nicht, ob der Codec oder das NLE oder irgend eine Implementierung schlecht ist. Der will nur ein gutes Bild, also muss man die Ursache suchen und den Fehler beseitigen.
Dazu ist es nicht schlecht, zu verstehen, wie es eigentlich funktioniert.
Dann stochert man nämlich nicht so im Dunkeln.

Edit:
Deswegen machen wir auch im preview das 8Bit Monitoring denn wenn man die Fehler bei der Entstehung entdeckt, reichen ein paar UNDO Schritte und die Sache ist gegessen. Sind die Fehler erst einmal eingerendert, ist das grosser Mist.

Space


Antwort von dienstag_01:

Die Frage war ja hier nicht, wie du und ich arbeiten, sondern warum auf einer BluRay speziell in Bildern mit Nebel Banding entsteht. (Die Frage kommt nicht von mir)

Space


Antwort von WoWu:

Vielleicht hat er ja 'ne Raubkopie :-((
(das war jetzt nicht ernst gemeint) :-) Aber durchaus möglich.

Space



Space


Antwort von CameraRick:

Hi Jungs,

die Bluray besitze nicht ich, aber meine bessere Hälfte. Ich habe leider keinen Player im PC, aber ich werde mal versuchen am TV Fotos davon zu machen, oder so. Ja ich weiß, klingt bescheuert.
Ich hab versucht, das zu googlen; ich bin nicht der Einzige, der bei "Frau in Schwarz" Banding sieht, ist auf div. Testseiten auch vermerkt.

Ist auf Film gedreht, tippe daher mal auf einfaches 10bit Cineon in der Abtastung als Quelle, aber vom Kino zur BD kann natürlich auch einiges passieren denke ich mal

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen //


Nächster Canon Cinema EOS Sensor - 6K, 17:9 und fast 16 Blendenstufen Dynamik?
Neuer 1" CMOS-Sensor Omnivision OV50X soll 18 Blendenstufen Dynamik bieten
Kleine Fragen zu After Effects Grundlagen
ARRI Alexa 35 mit 17 Blendenstufen - Neue Dynamik-Referenz?
Canon entwickelt 4K-Bildsensor mit 148 dB Dynamik (24 Blendenstufen) - aber nicht für Filmer
Gerald Undone: Hat das iPhone 15 Pro 14 Blendenstufen Dynamik?
DJI Osmo Action 5 Pro mit 13,5 Blendenstufen Dynamik vorgestellt
Hat Canon ein Sensor-Ass im Ärmel? Global Shutter Sensor mit 120 dB Dynamik.
Nikon entwickelt 1 Zoll 4K-Sensor mit 18 -22 Blendenstufen
Canon präsentiert Mitte Dezember Sensor mit fast 16 Blendenstufen
Informationstheorie - einfach erklärt: "An Intuitive Look at the Basics of Information Theory"
Künstliche Intelligenz einfach erklärt - Perzeptron, Backpropagation und Loss
RED V-RAPTOR X(L) - Erweiterte Dynamik durch Doppelbelichtung erklärt
Dynamik und Belichtungsspielraum - Hintergründe zum slashCAM Dynamik Vergleich
Canon EOS C80 erklärt: Fullframe Stacked CMOS- Sensor, 4K 60p Oversampled ...?
Blackmagic PYXIS 12K erklärt: Sensor Readouts, Autofokus, Stromversorgung, US-Zölle
Sony Cinema Line FX6 - 4K Sensor Qualität inkl. Dynamik und Rolling Shutter




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash