Logo Logo
/// 

RAW Dummheit?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic Cinema / Production Camera 4K / URSA (Mini) uä.-Forum

Frage von -paleface-:


Hallo,
ich hatte ja bis gerade eben gedacht ich hätte RAW verstanden. Aber dem scheint wohl nicht zu sein.

Ich habe mal ein Beispiel als Downloadlink:
https://wetransfer.com/downloads/1da342 ... 831/9bf62d

2 CDNG Files gedreht mit der Ursa Mini 4.6K gedreht mit Compression 3:1 (kann man also nur in Resolve öffnen)
Ein FrameFrame im Glossar erklärt ist mit:
Shutter 180
Iris 1.7
Iso 800

Der andere Frame:
Shutter 360
Iris 1.7
Iso 800

Durch den niedrigen ShutterShutter im Glossar erklärt habe ich also einen FrameFrame im Glossar erklärt der heller Belichtet ist.

Hinten in dem Fressnapf Schild sieht man also nun eine leichte Überstrahlung in dem 360Shutter Bild.
Nun hab ich für mich gedacht....gut drehe ich die ISO vom 360 Bild einfach auf 400 klicke Highlite-Recovery an und Tadaaa....die Überstrahlung ist weg.
Ist aber nicht so. Ich bekomme die Überstrahlung nicht weg!
Egal ob ich am Exposure drehe, ISO Verändere oder die Highlites absenke.

Was bitte ist mein Denkfehler?



Antwort von cantsin:

Raw ist nur ein Datenformat, kein Zaubermittel. Ein überbelichtetes Bild, bei dem der Sensor physisch überbelichtet wurde, bleibt ein überbelichtetes Bild - und Information, die durchs Clipping verloren ging, kann man nicht wieder zurückholen.



Antwort von -paleface-:

Ist das wirklich so?

https://www.youtube.com/watch?v=x8hDck8zOPo

Leider kann man das Demomaterial nicht mehr runterladen.





Antwort von klusterdegenerierung:


Ist das wirklich so?
Logen, deswegen doch immer der hype um Raw, auch in Verbindung mit ETTR.
Ich muß mal gucken ob ich so Material habe, aber generell brauchst Du doch lediglich ein Raw Foto, das ist doch fasst das gleiche,
auch wenn es unter Umständen 2-4 BitBit im Glossar erklärt weniger sein könnten!



Antwort von Starshine Pictures:

Der Wortbegriff "Zurückholen" ist eigentlich falsch gewählt. Man kann nichts zurück holen was vorher nicht da war. Man ändert im Resolve nur die Kurve wie das Raw Material angezeigt werden soll. Standardmässig nimmt dein NLE, egal ob Resolve, Premiere oder sogar Lightroom eine von dessen Ingenieuren als gute Ausgangslage interpretierte Anzeige als Startpunkt für dein Grading her. Dabei sind meist die extremen Höhen und Tiefen geclippt da diese als nicht relevant angesehen werden. Wenn für dich allerdings das Detail im Weiss wichtig ist dann kannst du die Darstellungskurve so verändern dass es dir angezeigt wird.

Wenn allerdings der Sensor überbelichtet wurde, also das FullWell der Sensel erreicht wurde, dann hilft da auch kein Raw mehr.

Was ist nun der Vorteil am Raw? Diese Highlights werden eben beim Pressen in einen 8 BitBit im Glossar erklärt CodecCodec im Glossar erklärt aus Platzgründen weg geschnitten und sind damit unwiederbringlich verloren. Man hat beim Grading also nicht mehr die Möglichkeit in diesen Prozess selbst einzugreifen.

Grüsse, Stephan



Antwort von klusterdegenerierung:


Der Wortbegriff "Zurückholen" ist eigentlich falsch gewählt. Man kann nichts zurück holen was vorher nicht da war.

Dann hast Du den Begriff schlicht falsch verstanden, denn es geht nicht um zurückholen was "nie" da war, sondern was "nicht" da ist!
Wobei sich das nicht auf das aktuelle PreviewPreview im Glossar erklärt im Raw bezieht und nicht auf ein nicht mehr zu rettendes Frame.

Mit anderen Worten, da ein Raw physikalisch gesehen einen entsprechenden Kameradynamikumpfang beinhaltet,
kann man sich genau diese Dynamik zurückholen. Wer also 2-3 Blenden überbelichtet,
der schiebt eben einfach die Belichtung in der post zurück, das nennt man richtigerweise zurückholen.

Was Du beschreibst, entspricht einem 8Bit Foto ohne grosse Dynamik, da kann man wirklich nicht mehr groß was zurückholen, das ist weg!!



Antwort von nic:


Ist das wirklich so?

https://www.youtube.com/watch?v=x8hDck8zOPo

Leider kann man das Demomaterial nicht mehr runterladen.

Klar ist das so. Wenn ein Sensel "überläuft" (full-well), kannst du da in der Post drehen was du willst, da sind keine Informationen mehr.



Antwort von -paleface-:



Ist das wirklich so?

https://www.youtube.com/watch?v=x8hDck8zOPo

Leider kann man das Demomaterial nicht mehr runterladen.

Klar ist das so. Wenn ein Sensel überläuft (full-well), kannst du da in der Post drehen was du willst, da sind keine Informationen mehr.

Und was bitte macht der Typ dann da im Video?



Antwort von r.p.television:

Was hier "zurückgeholt" wird ist schlicht nur ausserhalb der Default-Darstellungsebene eines Rec709-8bit-Bildes.
Und so gut wie in jedem NLE oder GradingTool sieht dieses Default-Bild anders aus, weil es eben Raw ist und es darauf ankommt wie die Raw-Engine des NLE das Bild dann interpretiert.



Antwort von cantsin:


Und was bitte macht der Typ dann da im Video?

Er holt die Bildinformation in den Highlights zurück, die zwar noch vom Sensor erfasst wurde, aber vom Rec709-Bildprofil weggebügelt wurde.

Das funktioniert aber nur, wenn nicht über den Clipping-Point des Sensors belichtet wurde (also gewissermassen nur das Rec709-Bildprofil überbelichtet wurde, aber nicht der Sensor). Man kann sich das wie zwei ineinandergeschachtelte Wasserröhren an einem Fluss vorstellen, bei dem der Sensor die größere Röhre ist und die 8bit-Rec709-Bildverarbeitung die kleinere Röhre innerhalb dieser Röhre. Wenn man die kleinere Röhre entfernt und sein Badewasser direkt aus der größeren bekommt, hat man geiwssermassen das zuvor abgeschnittene Wasser zurückgeholt. Aber dann ist die Begrenzung immer noch die größere Röhre - deren Kapazität bleibt dann das harte Limit, obwohl draussen im Fluss noch mehr Wasser strömt.

In Deinem Fall wurde der Sensor überbelichtet, und dann ist nichts mehr zu machen.



Antwort von -paleface-:



Und was bitte macht der Typ dann da im Video?

Er holt die Bildinformation in den Highlights zurück, die zwar noch vom Sensor erfasst wurde, aber vom Rec709-Bildprofil weggebügelt wurde.

Danke. Das hatte ich mir schon fast gedacht.

Ich gebe zu das diese Information in keinem YT Video gesagt wurde. Alles sah immer nach Magie aus und ich hab überlegt wo mein Fehler liegt!
Hab durch meine Tests gestern viel gelernt! :-D

Konsequent immer in RAW aufnehmen erscheint mir von Woche zu Woche immer obsoleter bei der Qualität die die Kameras schon so an den Tag legen.



Antwort von Roland Schulz:



Mit anderen Worten, da ein Raw physikalisch gesehen einen entsprechenden Kameradynamikumpfang beinhaltet,
kann man sich genau diese Dynamik zurückholen. Wer also 2-3 Blenden überbelichtet,
der schiebt eben einfach die Belichtung in der post zurück, das nennt man richtigerweise zurückholen.

Das ist vielleicht etwas "gefährlich" umschrieben. Man kann 2-3 Blenden nur dann überbelichten und später spiegelbildlich zurückdrehen wenn man dabei noch keine Spitzlichter geclippt hat. Passiert das bereits bei der Aufnahme ist das einfach überbelichtet und man kriegt aus Weiß maximal noch Grau - aber ohne jegliche Abstufung in der Zeichnung.
Wie Stephan beschrieben hat, bei Full Well des Sensors ist Schluss - und das gilt sogar pro Farbkanal und nicht nur bei komplett weiß. Belichtet man ein Gesicht über ist i.d.R. Rot übersteuert, ein IRE/RGB ~100% Zebra würde aber noch nicht ansprechen. Deshlab wählt man das i.d.R. wenn man keine Waveform oder Falschfarbenanzeige hat auch etwas tiefer um Reserven zu haben. Praktisch jede RAW Fotokamera kann aber ein RGBRGB im Glossar erklärt HistogrammHistogramm im Glossar erklärt anzeigen, da sieht man sowas dann auch. Wenn ein Kanal dort geclippt ist ist die Farbe "versaut".

Jetzt gibt es aber noch was anderes zu beachten. Viele RAW Kameras zeigen bei der Aufnahme gar kein RAW Bild sondern eins was der späteren, üblichen Betrachtung nachkommt, welches dabei oft schon etwas Richtung Kontrast verändert ist um ansehnlicher zu wirken.
In dieser Vorschau oder Anwendung eines Profils kann dann ohne Weiteres ein lichter oder schattiger Bereich geclippt sein, da das Farbprofil oder die Kontrastanpassung bereits eine Veränderung vorgenommen hat. In der Vorschau mit Profil sieht das Bild dann ggf. "verloren" aus. Die RAW Informationen dahinter, welche wie Kluster richtig schreibt den ganzen Dynamikumfang des Sensors (im jeweiligen Arbeitspunkt/Gain...) abbilden, können aber noch Detailinformationen beinhalten so dass diese später durch eine manuelle Anpassung von Kontrast, "Belichtung" etc. im RAW Converter so eingesetzt werden können, dass wieder ein Bild ohne Clipping in den Lichtern und Schatten entsteht.

Man hat mit RAW i.d.R. etwas mehr Belichtungsspielraum, richtig, ein Freifahrtschein für wahllose Einstellungen ist das aber nicht.
Weitere Vorteile von RAW spiegeln sich im Quasiwegfall einer nachgeschalteten KompressionKompression im Glossar erklärt wieder. Bei vielen Details oder schnellen Bewegungen mindern die meisten modernen Komprimierungen, welche eine endliche DatenrateDatenrate im Glossar erklärt zur Verfügung stellen, die Qualität. Verlustfreie Komprimierungen sind davon ausgenommen, aber auch eher selten und weniger effizient was die Senkung der Datenrate/Speicheranforderung anbelangt.
Der Nachteil der RAW Verarbeitung ist ganz klar der deutlich höhere Speicherbedarf und die damit verbundene, größere notwendige Verarbeitungsgeschwindigkeit bedingt durch die Bandbreite.
In der Regel ist eine RAW Verarbeitung im Post auch wesentlich "träger", da die teilweise recht aufwändige Interpolation (Debayering) etc. erst während des Schnitts/der Wiedergabe in Echtzeit erfolgen muss. Die BandbreiteBandbreite im Glossar erklärt der Speichermedien ist ebenfalls ein Flaschenhals.
Wenn man die Sache allerdings richtig betrachtet liegt das einzig und allein daran, dass es kaum Systeme gibt die auf"s Debayering optimiert sind. Es gibt Lösungen mit Grafikkarten etc., wirklich flott oder vergleichbar mit üblichen Codecs wird das aber noch nicht. Richtig betrachtet findet das Debayering in seiner Form bei einer herkömmlichen Kamera ja schon in der Kamera selbst statt. Da ist der Prozeß daraufhin optimiert - und erfolgt dort ebenfalls in Echtzeit. Warum also sollte das technisch nicht genau so gut im Post gehen, zudem man in einem Rechner mehr Leistung installieren kann als in einer Kamera.
Ich denke da werden zukünftig noch Lösungen kommen und es bleibt einzig beim Problem der Speichermedien welche entsprechend groß und schnell sein müssen.



Antwort von Starshine Pictures:

@Kluster
Ich hab es genau so gemeint wie es auch r.p.television und cantsin nach mir beschrieben haben.



Antwort von dienstag_01:



Und was bitte macht der Typ dann da im Video?

Er holt die Bildinformation in den Highlights zurück, die zwar noch vom Sensor erfasst wurde, aber vom Rec709-Bildprofil weggebügelt wurde.

Das funktioniert aber nur, wenn nicht über den Clipping-Point des Sensors belichtet wurde (also gewissermassen nur das Rec709-Bildprofil überbelichtet wurde, aber nicht der Sensor). Man kann sich das wie zwei ineinandergeschachtelte Wasserröhren an einem Fluss vorstellen, bei dem der Sensor die größere Röhre ist und die 8bit-Rec709-Bildverarbeitung die kleinere Röhre innerhalb dieser Röhre. Wenn man die kleinere Röhre entfernt und sein Badewasser direkt aus der größeren bekommt, hat man geiwssermassen das zuvor abgeschnittene Wasser zurückgeholt. Aber dann ist die Begrenzung immer noch die größere Röhre - deren Kapazität bleibt dann das harte Limit, obwohl draussen im Fluss noch mehr Wasser strömt.

In Deinem Fall wurde der Sensor überbelichtet, und dann ist nichts mehr zu machen.

Prinzipiell ist dieses Bild falsch und führt genau zu den Missverständnissen, wie hier in diesem Thread. Die Röhren sind nicht unterschiedlich, sondern gleich groß. D.h., die Sensordynamik wird natürlich auch in 8 oder 10bit (annähernd) ausgenutzt, nur dass dann sehr wenig Werte auf der 709-Kurve für sehr viele Sensor-Werte zur Verfügung stehen. Da ist dann alles *hell*, nicht mehr differenzierbar. Auch nicht in der Post.



Antwort von cantsin:


Konsequent immer in RAW aufnehmen erscheint mir von Woche zu Woche immer obsoleter bei der Qualität die die Kameras schon so an den Tag legen.

Bei RAW geht es nicht um Qualität, sondern um mehr Spielraum in der Nachbearbeitung - z.B. dadurch, dass man den WeissabgleichWeissabgleich im Glossar erklärt erst in der Post festlegt. Alles das, was in herkömmlichen Videokameras durch die Wahl des Bildprofils eingestellt wird, lässt sich bei RAW nachträglich in der Post einstellen.

Die Frage ist, ob man das für ein Projekt braucht oder nicht.

(Hatte vorgestern hier ein Musikvideo gepostet, das recht intensiven Gebrauch von den Raw-Möglichkeiten der Blackmagic Cinema Camera & Resolve machte:
https://vimeo.com/241559457
Das beginnt schon beim knallenden Rot der Stühle in der ersten Einstellung - und dem knallenden Rot des Blümchenkleids als weiterem durchgehend Bildmotiv -, den aufgehellten Schatten am Ende des Kameraschwenks bei 0:25, ist aber vor allem bei den verschiedenen Farbstimmungen von Aufnahmen sichtbar, die alle im selben grauen Kellerraum gemacht wurden: 0:44, 1:24, 2:22, 3:04, und teilweise auch in den angeglichenen Farbstimmungen von Aufnahmen, die an unterschiedlichen Orten mit unterschiedlichem Licht gemacht wurden, hier aber direkt aneinandergeschnitten wurden wie z.B. bei 2:04-2:12.

Hätte man alles natürlich auch machen können, indem man in einer herkömmlichen Videokamera direkt beim Dreh Bildprofile und WeissabgleichWeissabgleich im Glossar erklärt entsprechend einstellt, eventuell noch sorgfältiger mit Licht und Farbfiltern arbeitet - aber dann halt nicht mit der Flexibilität, diese Entscheidungen erst im Schnitt zu fällen. Mit 10bit und Log hätten vermutlich die meisten Grades in diesem Video auch funktioniert. Aber da sind schon ein paar extreme Sachen drin, bei denen selbst das 12bit-Raw-Material an seine Grenze kam, z.B. bei 3:08-3:10.)



Antwort von cantsin:


Prinzipiell ist dieses Bild falsch und führt genau zu den Missverständnissen, wie hier in diesem Thread. Die Röhren sind nicht unterschiedlich, sondern gleich groß.
Nein, sorry. Weniger Information ist weniger Information, weniger Brandbreite ist weniger Bandbreite. Du kannst nicht Shannon neuerfinden.



Antwort von dienstag_01:



Prinzipiell ist dieses Bild falsch und führt genau zu den Missverständnissen, wie hier in diesem Thread. Die Röhren sind nicht unterschiedlich, sondern gleich groß.
Nein, sorry. Weniger Information ist weniger Information, weniger Brandbreite ist weniger Bandbreite. Du kannst nicht Shannon neuerfinden.

Naja, ich hab ja nur auf die Unsinnigkeit deines Bildes mit den zwei Röhren hingewiesen. Und das stimmt, auch wenn 8bit weniger Information als 12 oder 14bit Raw enthält, sorry ;)



Antwort von cantsin:



Nein, sorry. Weniger Information ist weniger Information, weniger Brandbreite ist weniger Bandbreite. Du kannst nicht Shannon neuerfinden.

Naja, ich hab ja nur auf die Unsinnigkeit deines Bildes mit den zwei Röhren hingewiesen. Und das stimmt, auch wenn 8bit weniger Information als 12 oder 14bit Raw enthält, sorry ;)

Die Röhren sollten nur ein Bild dafür sein, dass zweimal Information abgeschnitten wird: einmal wegen der physischen Abbildungsgrenzen des Sensors, danach noch einmal durch die Kamera-Signalverarbeitung, u.a. wegen begrenzter Übertragungs- und Speicherbandbreite der Hardware. Man kann's auch durch "größer-als"-Zeichen ausdrücken:

Information Motiv > Information Sensor > Information 8bit-Rec709-Videozeichnung

Wenn Du ein besseres Bild hast, gerne! :-)



Antwort von dienstag_01:



Naja, ich hab ja nur auf die Unsinnigkeit deines Bildes mit den zwei Röhren hingewiesen. Und das stimmt, auch wenn 8bit weniger Information als 12 oder 14bit Raw enthält, sorry ;)

Die Röhren sollten nur ein Bild dafür sein, dass zweimal Information abgeschnitten wird: einmal wegen der physischen Abbildungsgrenzen des Sensors, danach noch einmal durch die Kamera-Signalverarbeitung, u.a. wegen begrenzter Übertragungs- und Speicherbandbreite der Hardware. Man kann's auch durch "größer-als"-Zeichen ausdrücken:

Information Motiv > Information Sensor > Information 8bit-Rec709-Videozeichnung

Wenn Du ein besseres Bild hast, gerne! :-)

Der letzte Teil ist nicht nur besser, er stimmt. Dein *abgeschnitten* im oberen Text impliziert aber einen Cut, den es so nicht gibt. Es werden Werte zusammengefasst, *ausgedünnt* wäre hier besser. Der Sensor clippt unabhängig von 8 oder 10 oder nochmehr bit bei der selben Anzahl von Photonen, die Werte dazwischen (oben Clipping und unten Rauschen) sind die Werte, die übertragen werden (dieser Bereich ist also, wie ich oben geschrieben hatte, bei 8bit und RAW *gleich groß*). In 8bit kommt man da nur nicht mehr ran.



Antwort von klusterdegenerierung:



Er holt die Bildinformation in den Highlights zurück, die zwar noch vom Sensor erfasst wurde, aber vom Rec709-Bildprofil weggebügelt wurde.

Danke. Das hatte ich mir schon fast gedacht.

Ich gebe zu das diese Information in keinem YT Video gesagt wurde. Alles sah immer nach Magie aus und ich hab überlegt wo mein Fehler liegt!
Hab durch meine Tests gestern viel gelernt! :-D

Konsequent immer in RAW aufnehmen erscheint mir von Woche zu Woche immer obsoleter bei der Qualität die die Kameras schon so an den Tag legen.

Sorry jetzt mal, aber Du kennst doch Raw nicht erst seit Gestern und 7nic mit seiner Red erstrecht nicht!
Wie kommt ihr zu so absurden statements?
Jeder der schon mal ne DSLR in den letzten Jahre in der Hand hatte kennt doch den Spielraum eines Raws.

Das ist doch bei einer Filmsequenz nicht anders als bei einem Foto!
Was 7nic vermutlich meint ist, da wenn da wirklich nix mehr im Raw wäre, das man es dann auch nicht zurück holen kann.
Aber was wollen wir mit einer Red, wenn ich nicht mal ein um 3 Blenden überbelichtes Bild dahin korrigieren kann,
wo es hätte bei richtiger Belichtung hätte sein müssen.

Hab ich jetzt richtig verstanden, das ihr jetzt glaubt das dieses YT Video Maggie und Verschwörung ist,
oder was wollt ihr mir jetzt sagen?



Antwort von -paleface-:



Danke. Das hatte ich mir schon fast gedacht.

Ich gebe zu das diese Information in keinem YT Video gesagt wurde. Alles sah immer nach Magie aus und ich hab überlegt wo mein Fehler liegt!
Hab durch meine Tests gestern viel gelernt! :-D

Konsequent immer in RAW aufnehmen erscheint mir von Woche zu Woche immer obsoleter bei der Qualität die die Kameras schon so an den Tag legen.

Sorry jetzt mal, aber Du kennst doch Raw nicht erst seit Gestern und 7nic mit seiner Red erstrecht nicht!
Wie kommt ihr zu so absurden statements?
Jeder der schon mal ne DSLR in den letzten Jahre in der Hand hatte kennt doch den Spielraum eines Raws.

Das ist doch bei einer Filmsequenz nicht anders als bei einem Foto!
Was 7nic vermutlich meint ist, da wenn da wirklich nix mehr im Raw wäre, das man es dann auch nicht zurück holen kann.
Aber was wollen wir mit einer Red, wenn ich nicht mal ein um 3 Blenden überbelichtes Bild dahin korrigieren kann,
wo es hätte bei richtiger Belichtung hätte sein müssen.

Hab ich jetzt richtig verstanden, das ihr jetzt glaubt das dieses YT Video Maggie und Verschwörung ist,
oder was wollt ihr mir jetzt sagen?

Naja...wenn ich Fotografiert habe, hab ich nie in Log fotografiert. Und so wirkte das runterziehen der Highlites ja da schon wie Magie für mich.
Bei Film hatte ich die Theorie das quasi zum Log hin....nochmal On-top das selbe geht.
DAS war denke ich mein Denkfehler.

Mir war nicht bewusst das die ganzen YouTuber ein Rec709 Bild graden und so natürlich ein kleines Wunder geschieht.



Antwort von McReedy:

Bei digitalen Filmkameras hat ISO hat nicht wirklich Einfluss auf die Belichtung sondern nur auf den Look, d.h. ISO800 Clippt and der selben Stelle wie ISO400, es ändert sich nur der Highlight Rolloff und die GammaGamma im Glossar erklärt (je höher die ISO desto runder der Highlight Rolloff aber auch umso mehr Bildrauschen)
Wichtig sind physische Belichtungen wie ND, ShutterShutter im Glossar erklärt oder Blende. Highlight recovery kann je nach Shot mehr oder weniger helfen ;-)



Antwort von dienstag_01:


Bei digitalen Filmkameras hat ISO hat nicht wirklich Einfluss auf die Belichtung sondern nur auf den Look, d.h. ISO800 Clippt and der selben Stelle wie ISO400, es ändert sich nur der Highlight Rolloff und die GammaGamma im Glossar erklärt (je höher die ISO desto runder der Highlight Rolloff aber auch umso mehr Bildrauschen)
Wichtig sind physische Belichtungen wie ND, ShutterShutter im Glossar erklärt oder Blende. Highlight recovery kann je nach Shot mehr oder weniger helfen ;-)

Dumm nur, dass jeder, der eine digitale Filmkamera sein Eigen nennt, genau die gegenteilige Erfahrungen macht. Und für solchen Schwachsinn wird sich auch noch bedankt, manchmal ist es zum Haare raufen ;)



Antwort von cantsin:



Bei digitalen Filmkameras hat ISO hat nicht wirklich Einfluss auf die Belichtung sondern nur auf den Look, d.h. ISO800 Clippt and der selben Stelle wie ISO400, es ändert sich nur der Highlight Rolloff und die GammaGamma im Glossar erklärt (je höher die ISO desto runder der Highlight Rolloff aber auch umso mehr Bildrauschen)
Wichtig sind physische Belichtungen wie ND, ShutterShutter im Glossar erklärt oder Blende. Highlight recovery kann je nach Shot mehr oder weniger helfen ;-)

Dumm nur, dass jeder, der eine digitale Filmkamera sein Eigen nennt, genau die gegenteilige Erfahrungen macht. Und für solchen Schwachsinn wird sich auch noch bedankt, manchmal ist es zum Haare raufen ;)

Vielleicht musst Du einfach mal Deine Rhetorik ein bisschen abkühlen, denn was McReedy beschreibt, stimmt zwar nicht für alle digitalen Filmkameras, wohl aber für ISO-invarianten Kameras z.B. von RED und Blackmagic.



Antwort von dienstag_01:



Dumm nur, dass jeder, der eine digitale Filmkamera sein Eigen nennt, genau die gegenteilige Erfahrungen macht. Und für solchen Schwachsinn wird sich auch noch bedankt, manchmal ist es zum Haare raufen ;)

Vielleicht musst Du einfach mal Deine Rhetorik ein bisschen abkühlen, denn was McReedy beschreibt, stimmt zwar nicht für alle digitalen Filmkameras, wohl aber für ISO-invarianten Kameras z.B. von RED und Blackmagic.

Aha, ISO invariant verändert dann also den Look?
Ausserdem steht in diesem Statement nichts von RAW. ISO invariant gibt es nur bei RAW.



Antwort von WoWu:

Der Typ, der das Demo gemacht hat, hat lediglich in der Nachbearbeitung zu seinem Film gefaked denn wenn der Sensor im Spitzenlicht korrekt ausbleichtet ist und nicht in den Clip geht, sieht auch das 709 Bild nicht so aus, wie es hier aussieht.
709 hat ja gerade den Vorteil, dass die hellste BlendeBlende im Glossar erklärt über 50% der Werte differenziert werden kann.
Das sieht völlig anders aus, als in dem linken Fake.
Wenn ich aber den Bildkontrast künstlich anhebe und die gesamten 50% zu 100% mache, dann sieht das so aus.
Das ist eben die Gefahr bei dem allseits so beliebten ETTR denn das kann leicht eine BlendeBlende im Glossar erklärt zuviel sein, die sich dann so auswirkt.

@Cantsin
Für invariante Kameras stimmt dann aber nur noch das Eingangsstatement (bezogen auf das Nutzbild). von McReedy.
Der Rest aber nicht mehr.



Antwort von iasi:

Zurückholen geht in geringem Umfang ja durchaus. Denn wenn z.B. nur Rot clipt, bieten die anderen Kanäle vielleicht noch immer nutzbare Abstufungen. In den Lichtern spielt die Farbe dann nicht mehr die große Rolle.

Richtig belichten, ist aber dennoch der bessere Weg.



Antwort von cantsin:

McReedy wirft in seinem Statement Software und Hardware durcheinander, ACK. Also nochmal zur Klarheit: Bei Raw-Aufnahmen von ISO-invarianten Kameras ist der ISO-Wert nur ein Metadatenwert. Er wird dann in der meisten Software (wie z.B. Resolve) so interpretiert, dass abhängig von dem ISO-Wert jeweils verschiedene Gammas bzw. Roll-Offs in der Bildanzeige resultieren. Dahinter liegen aber dieselben Bilddaten.

Oder anders gesagt: Mit einer Blackmagic oder RED (aber auch AFAIK einer Nikon D800) macht es keinen Unterschied, ob man dasselbe Motiv bei f4 und ShutterShutter im Glossar erklärt 1/50 mit der Kameraeinstellung ISO 400 oder ISO 800 aufzeichnet. Faktisch gibt es nur einen nativen ISO-Wert der Kamera, bei den meisten Blackmagics z.B. ISO 800.



Antwort von nic:


McReedy wirft in seinem Statement Software und Hardware durcheinander, ACK. Also nochmal zur Klarheit: Bei Raw-Aufnahmen von ISO-invarianten Kameras ist der ISO-Wert nur ein Metadatenwert. Er wird dann in der meisten Software (wie z.B. Resolve) so interpretiert, dass abhängig von dem ISO-Wert jeweils verschiedene Gammas bzw. Roll-Offs in der Bildanzeige resultieren. Dahinter liegen aber dieselben Bilddaten.

Oder anders gesagt: Mit einer Blackmagic oder RED (aber auch AFAIK einer Nikon D800) macht es keinen Unterschied, ob man dasselbe Motiv bei f4 und ShutterShutter im Glossar erklärt 1/50 mit der Kameraeinstellung ISO 400 oder ISO 800 aufzeichnet. Faktisch gibt es nur einen nativen ISO-Wert der Kamera, bei den meisten Blackmagics z.B. ISO 800.

Nicht Bilddaten, sondern Sensordaten. Und von nativem ISO kann man dabei auch nicht wirklich reden. Du hast einen gewissen Belichtungsspielraum, der nur in den Lichtern hart begrenzt ist aber in den Tiefen vor allem durch deine eigene Schmerzgrenze, was das Bildrauschen anbelangt definiert wird. Manche behaupten natives ISO sei dasjenige, bei dem so viele Blenden darüber wie auch darunter aufgezeichnet würden, das ist aber nicht die richtige Definition. Natives ISO ist dasjenige, bei der gemessenes mittleres Grau auch im Bild mittleres Grau ergibt. Und das ist eben bei ISO-Invarianten Kameras eine Frage der Entwicklung. Nativ sind bei RAW letztlich alle und kein ISO-Einstellungen: Insofern definierst du dein ISO je nach Einstellung selbst im Rahmen der Lichtsituation deines Motivs von FPN bis Clipping und mappst am Ende die Sensordaten in dein 709 oder 2020-Bild.



Antwort von dienstag_01:

Natives ISO ist dasjenige, bei der gemessenes mittleres Grau auch im Bild mittleres Grau ergibt.
Halte ich für ein Gerücht ;)
Wenn man bedenkt, dass ISO eigentlich von der Filmempfindlichkeit kommt (und das hat das nichts mit mittlerem Grau zu tun) und sich digital ISO daran (irgendwie) anlehnt, halte ich das für sehr unwahrscheinlich. Ich vermute, dass die Kamerahersteller ihr *natives* ISO genauso frei wählen, wie überhaupt ISO, eine wirkliche Definition dafür gibt es wahrscheinlich gar nicht. *Es findet keine Verstärkung statt* leuchtet mir noch am ehesten ein, aber wer weiß. Wie *dämpft* (verringert, als Gegenteil von verstärkt) man denn die Empfindlichkeit eines Sensors?



Antwort von klusterdegenerierung:



Sorry jetzt mal, aber Du kennst doch Raw nicht erst seit Gestern und 7nic mit seiner Red erstrecht nicht!
Wie kommt ihr zu so absurden statements?
Jeder der schon mal ne DSLR in den letzten Jahre in der Hand hatte kennt doch den Spielraum eines Raws.

Das ist doch bei einer Filmsequenz nicht anders als bei einem Foto!
Was 7nic vermutlich meint ist, da wenn da wirklich nix mehr im Raw wäre, das man es dann auch nicht zurück holen kann.
Aber was wollen wir mit einer Red, wenn ich nicht mal ein um 3 Blenden überbelichtes Bild dahin korrigieren kann,
wo es hätte bei richtiger Belichtung hätte sein müssen.

Hab ich jetzt richtig verstanden, das ihr jetzt glaubt das dieses YT Video Maggie und Verschwörung ist,
oder was wollt ihr mir jetzt sagen?

Naja...wenn ich Fotografiert habe, hab ich nie in Log fotografiert. Und so wirkte das runterziehen der Highlites ja da schon wie Magie für mich.
Bei Film hatte ich die Theorie das quasi zum Log hin....nochmal On-top das selbe geht.
DAS war denke ich mein Denkfehler.

Mir war nicht bewusst das die ganzen YouTuber ein Rec709 Bild graden und so natürlich ein kleines Wunder geschieht.

Sorry, aber jetzt verstehe ich garnix mehr, denn es ging doch um Raw und nicht um Rec709, oder?
Warum sollte in dem oben gezeiten Workflow ein Rec709 Material statt eines Raws verwendet worden sein?

Und das dies wie von Geisterhand aussieht liegt vielleicht einfach daran,
das auch bei raw die wenigsten so sehr daneben belichten, das die wenigsten so eine Beobachtung überhaupt machen,
ist aber doch auf der anderen Seite überhaupt nix besonderes, wenn eine Cam 13 Blenden Dynamikumfang besitzt,
da kann man dann auch 2 Blenden überbelichten und das auch zurückführen.

Mich aber bitte nicht falsch verstehen, denn wenn ausserhalb des machbaren belichtet wird, dann kann auch kein Raw mehr helfen,
dann ist auch da finito, aber das da oben hat mich nun garnicht verwundert.



Antwort von WoWu:

Es findet immer eine Verstärkung statt und wenn es lediglich auf dem Sensor selbst der Fall ist denn beim Anheben der Valenzelektronen ins Leitungsband entsteht nicht genügend Energie, die unverstärkt genutzt werden kann.
Grundsätzlich gilt das natürlich auch für RAW, obwohl landläufig die Meinung herrscht, RAW wäre nicht verstärkt. Das ist falsch.
Auch RAW läuft durch eine Vielzahl an Korrekturen, ohne die das Bild gar nicht nutzbar wäre.
Der einzige Unterschied ist, dass dr eine Luminanzwerte dann pro PixelPixel im Glossar erklärt herausgeführt wird, ohne die beiden Komplementärwerte der Farben.
Daher ist das native ISO der Punkt auf der Verstärkungskennlinie, der den größten Störabstand, also das bestmögliche Bildsignal aufweist.

@Kluster
Du kannst aus 2 Blenden FullWell keine alten Werte mehr rückführen.
Alle Werte nehmen den Maximalwert an.



Antwort von dienstag_01:


Es findet immer eine Verstärkung statt und wenn es lediglich auf dem Sensor selbst der Fall ist denn beim Anheben der Valenzelektronen ins Leitungsband entsteht nicht genügend Energie, die unverstärkt genutzt werden kann.
Grundsätzlich gilt das natürlich auch für RAW, obwohl landläufig die Meinung herrscht, RAW wäre nicht verstärkt. Das ist falsch.
Auch RAW läuft durch eine Vielzahl an Korrekturen, ohne die das Bild gar nicht nutzbar wäre.
Der einzige Unterschied ist, dass dr eine Luminanzwerte dann pro PixelPixel im Glossar erklärt herausgeführt wird, ohne die beiden Komplementärwerte der Farben.
Daher ist das native ISO der Punkt auf der Verstärkungskennlinie, der den größten Störabstand, also das bestmögliche Bildsignal aufweist.

@Kluster
Du kannst aus 2 Blenden FullWell keine alten Werte mehr rückführen.
Alle Werte nehmen den Maximalwert an.

Ich hatte mal gelesen, dass die ISO Empfindlichkeit vom Prinzip her nichts anderes ist, als eine Uminterpretation des FullWell-Wertes. Also bei ISO 100 liegt der FullWell bei, sagen wir 40.000 Photonen. Bei ISO 200 ist der FullWell schon bei 20.000 erreicht.
Scheinbar herrscht da bei mir eine Begriffskonfusion, denn mit *Verstärkung* hat das ja nichts zu tun.



Antwort von klusterdegenerierung:

Ja kann sein, also ich meine natürlich da wo noch was ist (man aber nicht sieht) kann man es natürlich zurückholen,
da wo es weggebrochen ist, ist es auch verschwunden.
Ich habe zwar kein Gesicht gefunden, aber eine Überbelichtete Maschinenszene,
die durch starke Neonröhren Beleuchtung und mangelnder gegenbeleuchtung auf gefranzt ist.

Aber auf dem Screenshot kann man ganz gut sehen, was noch zurück zubekommen ist.
Das man dies mit Rec709 8Bit nicht hinbekommt, dürfte eigentlich klar sein.



Antwort von WoWu:

Kein Mensch weiß, wie die Bilder genau entstanden sind aber sobald der Sensor sein Fassungsvermögen (systemweiss) erreicht, wird das mit dem Maximalwerte übertragen.
da ist auch nix zurück zu holen.
Das Systemweiss wird dann nur Grau, aber keine neuen Werte entstehen aus dem einzigen Maximalwert. Er wird nur verändert.
Übrigens ist die erste BlendeBlende im Glossar erklärt bei Schwarz Iso 100 (der erste Potonenwerte).
ISO verändert FullWell nicht, weil FW nur von den eintreffenden Photonen abhängt und ein Fixwert des einzelnen Pixels ist.



Antwort von klusterdegenerierung:

Hat ja keiner bestritten, aber in dem YT Video ist eben in dem Gesicht noch nicht das Systemweiß erreicht,
deswegen wird es da auch nicht Grau, sondern ist im Bereich des Dynamikumfangs wieder zurück zu führen.

Wäre es so wie bei mir oben an der Röhre, kommt dann nix mehr und wird grau, aber die Bereiche davor,
die aber in dem Original auch nicht mehr erkennbar sind, kommen aber wieder hervor, so auch bei dem Gesicht.



Antwort von WoWu:

Nochmal ... die Bilder bestehen aus einer Kombination von Hardware und Software.
Wir reden hier über ein RAW System, das zum frühstmöglichen Zeitpunkt, also unmittelbar nach allen erforderlichen Pixelkorrekturen die Kamera als RAW Signal verlässt (1 Wert pro Pixel).
Wir reden nicht über pseudo RAW Signale, die erst ein De-Bayering durchlaufen und eigentlich schon zum Vodeosignal gewandelt sind, weil hier bereits reichlich Software angewandt wird, die verstärkte Signale an allen Ecken und Kantennereits in die Begrenzung schicken können.
Dann haben wir es nämlich nicht mehr mit FullWell, sondern einer ganz einfachen Begrenzung zu tun, die sich beliebig auswirken kann aber eben daran liegt, dass Wertebereiche zusammengefasst werden.
Da hat dann aber nichts mehr mit RAW zu tun sonden hat nur noch den Namen.
Aber das Thema ist hier nun schon tausendmal besprochen.

Aber wir wissen eben nicht, wie die YT Bilder exakt entstanden sind.
Aber PixelFW bekommst Du nicht zurückgeführt.
Wer das behauptet, weiß nicht, wovon er spricht.



Antwort von dienstag_01:

ISO verändert FullWell nicht, weil FW nur von den eintreffenden Photonen abhängt und ein Fixwert des einzelnen Pixels ist.
Ok, nicht FullWell wird verändert, sondern die Range. Bei ISO 200 sind 20.000 Photonen 255 (Weiss) - gegenüber 40.000 bei 100 ISO (Photonenanzahl ausgedacht).



Antwort von WoWu:

Ja, weil ISO den Verstärkungsfaktor raufsetzt und die nachlaufende Verstärkerkette schon beim Eintreffen der halben Photonendichte ihr Übertragungslimit erreicht.
ISO ist immer Verstärkung.



Antwort von dienstag_01:


Ja, weil ISO den Verstärkungsfaktor raufsetzt und die nachlaufende Verstärkerkette schon beim Eintreffen der halben Photonendichte ihr Übertragungslimit erreicht.
ISO ist immer Verstärkung.

Verstärkung klingt für mich immer nach Spannung und Strom und Spulen, hier (im digitalen) ist es doch einfach eine Ansage: mach bei 20.000 Schluss und setzt die auf 255.



Antwort von WoWu:

Also, erst mal hat Verstärkung in der Tat was mit Spannung und Strom zu tun, denn das ganze, hier relevante Teil am Sensor ist analog und arbeitet tatsächlich mit solchen Komponenten. Da werden Elektronenmengen verdoppelt bzw. vervielfacht.
Auch ISo 100basiert eigentlich auf nur einem Photon , das nur 1 Elektron tunnelt für die erste BlendeBlende im Glossar erklärt und damit für das erste BitBit im Glossar erklärt aber tatsächlich sind es natürlich soviel Elektronen (durch Verstärkung erzeugt), wie der Kameraprozessweg individuell braucht.
Auch erzeugt ein Photon nicht immer nur ein Elektronen Loch Paar. Es kommt immer auf die Energie des Photons an.
Aber es ist genau das, was Du nicht vermutest in diesem Bereich.... "Verstärkung mit Spannung und Strom".
Wie Du hinterher mit den digitalisierten Werten umgehst, ist ein ganz anderes Thema.

Und wenn das so einfach mit der "Ansage" wäre, würde ich sagen: Mach alles in 14 BitBit im Glossar erklärt bis zum Empfänger. :-)

Nee nee, so einfach ist das nicht getan.
So einfach machen das nur Politiker und träumen von TBit Netzen in jedem Haus.



Antwort von dienstag_01:


Also, erst mal hat Verstärkung in der Tat was mit Spannung und Strom zu tun, denn das ganze, hier relevante Teil am Sensor ist analog und arbeitet tatsächlich mit solchen Komponenten. Da werden Elektronenmengen verdoppelt bzw. vervielfacht.
Auch ISo 100basiert eigentlich auf nur einem Photon , das nur 1 Elektron tunnelt für die erste BlendeBlende im Glossar erklärt und damit für das erste BitBit im Glossar erklärt aber tatsächlich sind es natürlich soviel Elektronen (durch Verstärkung erzeugt), wie der Kameraprozessweg individuell braucht.
Auch erzeugt ein Photon nicht immer nur ein Elektronen Loch Paar. Es kommt immer auf die Energie des Photons an.
Aber es ist genau das, was Du nicht vermutest in diesem Bereich.... "Verstärkung mit Spannung und Strom".
Wie Du hinterher mit den digitalisierten Werten umgehst, ist ein ganz anderes Thema.

Ja, aber die ISO-Änderung verändert nichts im analogen Bereich des Sensors, sondern *wie mit den digitalen Werten umgegangen wird*. Das meinte ich mit Interpretation.



Antwort von WoWu:

Natürlich tut sie das und zwar kräftig.
Das, was Du dem A/D Wandler anbietest, ist eine analoge Spannung und die ist deutlich anders als das, was Pixels so absondern und die Differenz ist Verstärkung.
Wie Du die Werte hinterher verteilst, ist völlig egal.
Wenn Du das ganze digital machen könntest, bräuchtest Du ja nur ein BitBit im Glossar erklärt, das Du aus einem Photon gewinnst und dann Deine " Ansagen" machst.
z.B. "Mach doch mal 20.000 daraus".
Jeder Bitwert ist ja nur die Repräsentanz einer zuvor angelegten analogen Spannung.
Du siehst, hinter dem Begriff "Digital" verbirgt sich noch etwas mehr, als nur "Ansagen".
Soetwas anzunehmen, wird dann wieder dem Threadtitel gerecht.



Antwort von dienstag_01:


Natürlich tut sie das und zwar kräftig.
Das, was Du dem A/D Wandler anbietest, ist eine analoge Spannung und die ist deutlich anders als das, was Pixels so absondern und die Differenz ist Verstärkung.
Wie Du die Werte hinterher verteilst, ist völlig egal.
Wenn Du das ganze digital machen könntest, bräuchtest Du ja nur ein BitBit im Glossar erklärt, das Du aus einem Photon gewinnst und dann Deine " Ansagen" machst.
z.B. "Mach doch mal 20.000 daraus".
Jeder Bitwert ist ja nur die Repräsentanz einer zuvor angelegten analogen Spannung.
Du siehst, hinter dem Begriff "Digital" verbirgt sich noch etwas mehr, als nur "Ansagen".
Soetwas anzunehmen, wird dann wieder dem Threadtitel gerecht.

Naja, man braucht doch dem A/D Wandler nur zu sagen: nimm bei ISO 200 (gegenüber 100) einfach nur die halbe Spannung für den Wert 255. Ok, mach ich.



Antwort von WoWu:

Dem AD Wandler sagst du gar nix, das ist ein ziemlich straight forward Arbeitstier.
Mit dessen Auswahl werden nur Rahmenparameter beeinflusst, die sich dann wieder in Deiner Bildqualität auswirken.

Aber es bringt herzlich wenig, solche Details hier aufzumachen, solange das Basisverständnis noch Verbesserungsbedarf hat.
Eigentlich hatte ich angenommen, dass bei einer Diskussion über RAW, elementare Kenntnisse vorhanden sind.
Wie sonst sollte man zu Ergebnissen kommen.
Deswegen würde ich das hier nicht so gern weiterführen.
Es führt zu nichts.



Antwort von dienstag_01:


Dem AD Wandler sagst du gar nix, das ist ein ziemlich straight forward Arbeitstier.
Mit dessen Auswahl werden nur Rahmenparameter beeinflusst, die sich dann wieder in Deiner Bildqualität auswirken.

Aber es bringt herzlich wenig, solche Details hier aufzumachen, solange das Basisverständnis noch Verbesserungsbedarf hat.
Eigentlich hatte ich angenommen, dass bei einer Diskussion über RAW, elementare Kenntnisse vorhanden sind.
Wie sonst sollte man zu Ergebnissen kommen.
Deswegen würde ich das hier nicht so gern weiterführen.
Es führt zu nichts.

Ich hab das gefunden: http://www.clarkvision.com/articles/iso/



Antwort von WoWu:

Ja, das bestätigt doch genau das, was ich sage...
Bei verdopplung des ISO Wertes, werden die angefallenen Elektronen verdoppelt, sodass der halbe Lichtwert zur vollen Wertemengen führt.
Das nennt man Verstärkung.
Yin dem Artikel wird nicht auf das Verfahren eingegangen.
Darüber hinaus sind ein paar Sachen sowieso missverständlich.

"When you change ISO on a digital camera, two things are changed if the camera is in one of several auto modes. ISO changes only one thing in manual mode. In an auto mode, either exposure time, or f/ratio, or both are changed. "

Ich kenne z.B. keine Videokamera, in der eine Verstärkungsänderung das ShutterShutter im Glossar erklärt einstelltund überhaupt beschreibt der Artukel nur die Wirkung.
Natürlich zieht die Automatic die BlendeBlende im Glossar erklärt um einen Wert herab, wenn die Vetstärkung verdoppelt wird.
Das besagt aber weder etwas wo ISO eingreift, noch etwas darüber, wie ISO eigentlich funktioniert.
Das aus solche Blogs falsche Annahmen entstehen, wundert mich nicht.
Das Internet hilft eben nur dem, der nicht alles glaubt.



Antwort von dienstag_01:


Ja, das bestätigt doch genau das, was ich sage...
Bei verdopplung des ISO Wertes, werden die angefallenen Elektronen verdoppelt, sodass der halbe Lichtwert zur vollen Wertemengen führt.
Das nennt man Verstärkung.
Yin dem Artikel wird nicht auf das Verfahren eingegangen.
Darüber hinaus sind ein paar Sachen sowieso missverständlich.

"When you change ISO on a digital camera, two things are changed if the camera is in one of several auto modes. ISO changes only one thing in manual mode. In an auto mode, either exposure time, or f/ratio, or both are changed. "

Ich kenne z.B. keine Videokamera, in der eine Verstärkungsänderung das ShutterShutter im Glossar erklärt einstelltund überhaupt beschreibt der Artukel nur die Wirkung.
Natürlich zieht die Automatic die BlendeBlende im Glossar erklärt um einen Wert herab, wenn die Vetstärkung verdoppelt wird.
Das besagt aber weder etwas wo ISO eingreift, noch etwas darüber, wie ISO eigentlich funktioniert.
Das aus solche Blogs falsche Annahmen entstehen, wundert mich nicht.
Das Internet hilft eben nur dem, der nicht alles glaubt.

Ja, alles versteh ich auch nicht. Aber prinzipiell sagt er etwas anderes (gegenteiliges) zu dir. Es wird bei ISO-Erhöhung (bei weniger Photonen) nicht verstärkt, um auf die selbe Anzahl für Weiss 255 zu kommen, sondern die Range wird geändert. 255 ist dann mit WENIGER Photonen erreicht. Das macht für mich Sinn. Ich kenne auch keinen erhöhten Stromverbrauch durch hohe ISO.



Antwort von WoWu:

Von erhöhtem Stromverbrauch hat auch keiner gesprochen und wenn, dann in einem Bereich, der irrelevant ist.
Was die Photonen menge angeht, ist doch das nicht so schwer zu verstehen.
Bleiben wir einmal bei den Photonen.
Ein Sensor funktioniert linear. Das erste Photon füllt das erste Bit. 2 weitere das nächste, dann 4, dann 8, dann 16 usw.
So werden die Bits bis FullWell gefüllt. Dementsprechend ergibt sich, ob es sich um ein 10, 12, 14 oder 16 BitBit im Glossar erklärt sensor handelt.

Nun gehen wir mal an die Grafik ... betreibt man den Simplizissimus weiter, würde irgendwann ein ISO Wert von meinetwegen 128.000, wie er heute keine Seltenheit mehr ist, vermutlich mit einem Photon die gesamte Wertetabelle von 255 Werten füllen .... was soll denn da in den Werten, außer einer Vervielfältigung dieses einen Pohotons drin stecken ? In 255 Werten, außer der Vervielfältigung des einen Photons bzw. dessen erzeugten Elektronen.
Das nennt man Verstärkung !

Wenn Du das Licht soweit reduzierst, dass Du kaum mehr Electronen davon erzeugst, musst Du die vorhandenen Elektronen soweit vervielfältigen, dass Du die Werte füllst, ansonsten füllst Du nur einen bruchteil der Werte, siehe z.B LOG 3 Übertragungen.
Du füllst aber mit einem Elektron nicht 255 Werte, es sei denn, es ist sooft vervielfältigt, dass es 255 Werte werden, alle mit demselben Inhalt.
Soetwas sollte Dir aber Dein gesunder Menschenverstand schon sagen.

(Ich hab mal das ganze Gedöns mit Rauschanteilen usw. weggelassen, weil es nur um das Prinzip geht).

Insofern ist die Tabelle völlig irreführend, um nicht zu sagen: falsch.

Und um jetzt nochmal auf Deine "Ansage" zurück zu kommen ...

Du machst die Szene also so dunkel, wie es geht und sagst an ... Du möchtest daraus 8Bit machen ... dann könntest Du ja auch gleich sagen, Du möchtest statt der 255 lieber 4096 haben und hast dann gleich (alles durch Ansage) eine hochwertige Aufnahme.
... merkst Du, wie absurd das ist und siehst Du, wohin Dich solche Beiträge führen?



Antwort von dienstag_01:

Nun gehen wir mal an die Grafik ... betreibt man den Simplizissimus weiter, würde irgendwann ein ISO Wert von meinetwegen 128.000, wie er heute keine Seltenheit mehr ist, vermutlich mit einem Photon die gesamte Wertetabelle von 255 Werten füllen .... was soll denn da in den Werten, außer einer Vervielfältigung dieses einen Pohotons drin stecken ? In 255 Werten, außer der Vervielfältigung des einen Photons bzw. dessen erzeugten Elektronen.
Das nennt man Verstärkung !
Für mich steht eben die Frage, ob Verstärkung hier ein elektronischer (analoger) Vorgang ist oder, wie im Artikel beschrieben, auf einer Veränderung des Wertesystems (Range) basiert. Letzteres leuchtet mir ein.
Auf dein Beispiel bezogen, man hätte mit einem Photon schon Weiss 255 erreicht (wäre dann ein S/W Bild, in der Theorie, in der Realität haben ja Sensoren nicht nur 8bit, es müssen also mehr Photonen sein, daher ist auch noch Dynamik im Bild).
Und um jetzt nochmal auf Deine "Ansage" zurück zu kommen ...

Du machst die Szene also so dunkel, wie es geht und sagst an ... Du möchtest daraus 8Bit machen ... dann könntest Du ja auch gleich sagen, Du möchtest statt der 255 lieber 4096 haben und hast dann gleich (alles durch Ansage) eine hochwertige Aufnahme.
... merkst Du, wie absurd das ist und siehst Du, wohin Dich solche Beiträge führen?
Hier verstehe ich gar nichts mehr. 4096 Werte in 8bit? Unverständlich.



Antwort von klusterdegenerierung:

Ich muß das jetzt an der Stelle einfach mal los werden,
aber immer wenn WoWu dazu kommt, wird es zu einem endlosen Theoriestreit und es geht nicht mehr ums eigentliche,
sondern nur darum, wer hat Recht, wer setzt sich durch.

Mir ist der ganze Schei.... total egal,
solange ich mein Raw so bearbeten kann und ob das jetzt fullwell, Systemweiß oder bemblödrigoganurbläh heißt!
Schade um den eigentlichen Thread!



Antwort von dienstag_01:

Mir ist der ganze Schei.... total egal,
solange ich mein Raw so bearbeten kann und ob das jetzt fullwell, Systemweiß oder bemblödrigoganurbläh heißt!
Schade um den eigentlichen Thread!
Deine Ahnungslosigkeit sei dir gegönnt ;)



Antwort von klusterdegenerierung:

Ist mir klar das genau Du das schreibst!
Dabei geht es zumindest mir darum, das was verwendbar ist und nicht immer in der tiefe verstanden werden muß.
Ich bin froh das mein Auto fährt, warum ist mir nicht wichtig! ;-)



Antwort von dienstag_01:


Ist mir klar das genau Du das schreibst!
Dabei geht es zumindest mir darum, das was verwendbar ist und nicht immer in der tiefe verstanden werden muß.
Ich bin froh das mein Auto fährt, warum ist mir nicht wichtig! ;-)

Ich bin da ganz bei dir: Wissen schafft Probleme.
Du solltest nur, um mal im Bild zu bleiben, besser Autos bunt anmalen als anderen die Technik erklären wollen.
Sei nicht sauer ;)



Antwort von klusterdegenerierung:

Ich bin Dir nicht sauer, ich muß mit den Geräten Geld verdienen,
das ich da natürlich nicht blauäugig und ganz Unwissend rein gehen kann ist mir klar,
aber ich muß nicht so in die Tiefe gehen wie ihr, dafür habe ich dann auch nicht die Zeit.

Ihr könnt ja gerne auf der Basis diskutieren, aber dem Thread tut es nicht gerade gut, finde ich.



Antwort von dienstag_01:


Ich bin Dir nicht sauer, ich muß mit den Geräten Geld verdienen,
das ich da natürlich nicht blauäugig und ganz Unwissend rein gehen kann ist mir klar,
aber ich muß nicht so in die Tiefe gehen wie ihr, dafür habe ich dann auch nicht die Zeit.

Ihr könnt ja gerne auf der Basis diskutieren, aber dem Thread tut es nicht gerade gut, finde ich.

Naja, erstens hat dir WoWu schon einen ganz wesentlichen Tipp gegeben, aber du willst ja nicht verstehen, was Systemweiss ist. Und zweitens müsste man in deine Konversation mit paleface auch helfend eingreifen, da dir nicht klar zu seien scheint, welcher Unterschied zwischen Log und RAW besteht. Bzw. welcher nicht ;)



Antwort von WoWu:

@Kluster
Dein Anwenderansatz ist Dir ja unbenommen, dann wundert es mich allerdings, dass Du hier mit theoretischen Fragen überhaupt teilnimmst und Dinge behauptest, die im theoretischen Bereich ihren Ansatz haben und von Dir falsch interpretiert werden.

Der Treadstarter hat eingangs sehr wohl die Frage gestellt, ob er RAW - so, wie er es beschreibt-, richtig verstanden hat.
Das ist die Frage nach einer Erklärung von RAW.

Nun ist RAW ein technisches Verfahren in der Kamera, das sich nur mit Vorgängen in der Kamera beschreiben lässt und keine bunten Knöpfe (für sogenannte Praktiker) hat, auf die man drücken kann und auf die Du es, wie es scheint, reduzieren möchtest.
Andere wollen es offenbar verstehen.
Darin besteht wohl der Unterschied zwischen dem Threadstarter, um dessen Thread es dir Leid tut, und Dir.
Wenn Du Temen nicht mehr folgen kannst, liegt es also nicht am Thread, sondern an Dir.
Das in so einem Thread Teilnehmer noch Zwischenfragen haben liegt in der Natur der Sache und ist vermutlich Zweck eines solchen Forums.
Wenn Dich der Tread nicht mehr interessiert, oder Du sämtliche Inhalte bereits beherrscht, ist es ja gut.
Dann ist mir allerdings nicht klar, worüber Du Dich beschwerst.
Ich denke, es geht Dir nur (mal wieder) um?s meckern.
Dafür hast Du offenbar Zeit genug.



Antwort von WoWu:

@dienstag

Ich wollte eigentlich nur darauf hinaus, dass Du, egal ob Du nun 8 BitBit im Glossar erklärt, 10 oder 12Bit benutzt, alle Werte, wenn sie denn ein nutzbares Bild erzeugen sollen, füllen musst, es sei denn, Du füllst sie mit Nullen auf, wie in einigen Übertragungsverfahren.
Wenn man Werte aber "durch Ansage" mit sinnvollen Inhalten einfach vermehren könnte, dann könnte man "durch Ansage" auch einfach mal aus 8 BitBit im Glossar erklärt, 12Bit machen. Geht aber nicht.

Reden wir aber von RAW (im nicht De Bayerten Zustand) dann sind noch keine Übertragungsverfahren im Spiel, weil die Werte, wie sie auf den Pixels entstehen, sich nur aus der analogen Verstärkung und einer AD Wandlung zusammensetzen.
Bis auf die Pixelkorrekturmassnahmen tut sich da nicht viel mehr.



Antwort von dienstag_01:


@dienstag

Ich wollte eigentlich nur darauf hinaus, dass Du, egal ob Du nun 8 BitBit im Glossar erklärt, 10 oder 12Bit benutzt, alle Werte, wenn sie denn ein nutzbares Bild erzeugen sollen, füllen musst, es sei denn, Du füllst sie mit Nullen auf, wie in einigen Übertragungsverfahren.
Wenn man Werte aber "durch Ansage" mit sinnvollen Inhalten einfach vermehren könnte, dann könnte man "durch Ansage" auch einfach mal aus 8 BitBit im Glossar erklärt, 12Bit machen. Geht aber nicht.

Reden wir aber von RAW (im nicht De Bayerten Zustand) dann sind noch keine Übertragungsverfahren im Spiel, weil die Werte, wie sie auf den Pixels entstehen, sich nur aus der analogen Verstärkung und einer AD Wandlung zusammensetzen.
Bis auf die Pixelkorrekturmassnahmen tut sich da nicht viel mehr.

Ich wollte eigentlich auf ISO und nicht auf RAW hinaus.
Aber auch bei RAW muss ich dich berichtigen, und zwar mit deinen eigenen Worten: RAW ist nicht standardisiert. Bei Kameras, die nicht ISO-invariant arbeiten, hat natürlich die ISO Einstellung Auswirkungen auf das übertragene RAW. Bei ISO-invarianten nicht.



Antwort von WoWu:

Das ist kein Widerspruch.
Das RAW nicht standardisiert ist, bedeutet nur, dass jeder sein Signal so bezeichnen darf, egal ob es bereits ein De-Bayertes Videosignal oder ein klassisches RAW Signal der direkten Pixelinformationen ist.

Wo siehst Du in Bezug auf Invariaz den Widerspruch ?
Natürlich hat die Verstärkungseinstellung bei nicht-invariant arbeitenden Systemen einfluss auf das RAW Nutzsignal denn der Hauptteil der Verstärkung greift dort an, wo der Störabstand am größten ist .... und das ist im ersten Verstärkerelement.



Antwort von dienstag_01:


Das ist kein Widerspruch.
Das RAW nicht standardisiert ist, bedeutet nur, dass jeder sein Signal so bezeichnen darf, egal ob es bereits ein De-Bayertes Videosignal oder ein klassisches RAW Signal der direkten Pixelinformationen ist.

Wo siehst Du in Bezug auf Invariaz den Widerspruch ?
Natürlich hat die Verstärkungseinstellung bei nicht-invariant arbeitenden Systemen einfluss auf das RAW Nutzsignal denn der Hauptteil der Verstärkung greift dort an, wo der Störabstand am größten ist .... und das ist im ersten Verstärkerelement.

Du bist doch Meister der Schaubilder, hast du eins?



Antwort von WoWu:

kommt.. muss ich nur raussuchen.



Antwort von dienstag_01:


kommt.. muss ich nur raussuchen.

Würde mich freuen.



Antwort von WoWu:

Hier zwei Übersichten,
Einmal der klassische Sensor (unten) und die Einbettung im Prozessweg.



Antwort von dienstag_01:

Im Hinblick auf ISO sind die Bilder unterschiedlich, einmal im digitalen, das andere Mal im analogen Bereich.



Antwort von WoWu:

Das sehe ich so nicht.
In der Sensoreinheit ist der analoge Bereich gelb gekennzeichnet und die Verstärker liegen deutlich vor der AD Wandlung.
Im Prozessweges greift die Reglung genau in den Sensorbereich, der gekennzeichnet ist (gestrichelte Linie auf den Sensorblock).
Wie Du die Werte gewinnst, ob über eine Tabelle oder einen physikalischen Regler, ist ziemlich egal, was dabei entsteht ist eine Regelspannung.
Wo sie wirkt, ist hier die Frage.

Was Du im digitalen Bereich vermutlich meinst ist das Mapping der Werte, auf einer Übertragungskurve.
Nur dadurch entstehen eben keine RAW Werte, um die es hier ja geht.
Natürlich kannst einzelne Werte auch multiplizieren, nur gewinnst Du dadurch ebensowenig neue, optisch erfasste Werte.
Außerdem hebst Du dann auch alles mit an, was an Störung im Prozessweges entstanden ist.
Gerade das ist ja der Witz, Signale dort zu verstärken, wo sie die beste Qualität haben ... und das ist der erste Vetstärker im Prozessweges.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic Cinema / Production Camera 4K / URSA (Mini) uä.-Forum

Antworten zu ähnlichen Fragen:
Sony AXS-R7 Raw Recorder: 120 fps 4K Raw für F55
Warum kann man RAW-Video nicht wie RAW-Fotos bearbeiten
Osmo Raw -- Handgimbal jetzt mit X5R 4K-Raw Kamera kompatibel // NAB 2016
RAW WARS - Wachsende ProRes RAW Unterstützung, aber noch kein Durchbruch // NAB 2019
RAW Wars - ProRes RAW gegen CinemaDNG
Magic Lantern RAW in CineForm RAW konvertieren
Messevideo: Blackmagic RAW - warum besser als CDNG RAW? Inkl. Sidecarfile, unterstütze Kameras uvm. // IBC2018
Warum RAW?
Blackmagic RAW
Prores raw
RAW 4:1 in Premiere CC
Red Scarlet-X - 4.5K RAW (2.4:1)
RAW-Video in After Effect
Wo Codec Raw I420?
RAW + VFX Workflow
Hilfe! Timelapse 4 B/s in RAW
Postproduktionsworkflow Blackmagic 6K Raw
8bit vs 12bit raw
Neues zu ProREs RAW
8K Raw Video mit A7RIII
BRAW ist nicht RAW
Ursa 4.6 Raw in 4k HEVC 10 Bit?
Magic Lantern RAW - Stabilisation?
Video: FS7 RAW per Odyssey7Q
Fuji X-T3 RAW Bearbeitung Odyssee
RED Raven Rauschen RAW

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
21-24. November / Hannover
up-and-coming
22-23. November / Hamm
Hammer Kurzfilmnächte
27. November / München
Camgaroo Award 2019
30. November / Bünde
Bünder Kurzfilmfestival 2019
alle Termine und Einreichfristen