Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Infoseite // Das Risiko von Flat Picturestyles



Frage von dirkus:


Das Thema wurde in einem anderen Thread ja schonmal kurz angeschnitten. Bevor es daher dort untergeht, mache ich es hier nochmal separat mit ein paar Beispielaufnahmen auf.


Es wurde hier ja schon viel über das "Wundermittel" Flat Picturestyles berichtet, mit denen man angeblich die Dynamic des Videomaterials verbessern kann.

Zum Vergleich habe ich hier mal "Cine Style" von Technicolor genommen und mit dem Standard Picturestyle der Canon EOS 7 D verglichen. Das interessante sollte aber nicht der direkte Vergleich der beiden Styles sein, (denn die unterscheiden sich unbearbeitet rein optisch wirklich), sondern was man aus dem Bild nach einer Bearbeitung tatsächlich noch rausholen kann.


Das Ergebnis ist für mich ernüchternd. Aber seht selbst: (Kamera Canon EOS 7D. Alle Aufnahmen ohne Grading/bzw ohne Farbkorrektur)

Canon Standard (Highlight überbelichtet)

zum Bild


Cine Style Flat (Highlights überbelichtet)

zum Bild


Hier der überbelichtete Fensterausschnitt in der Vergösserung

Canon Standard

zum Bild


Cine Style

zum Bild


Wie man deutlich sehen kann hat Cine Style die Highlights ab einem bestimmten Level komplett gecrasht! Es gibt praktisch keinen "Übergangsbereich" wie beim Standard Style, wo das Ausbrennen langsam in Weiss übergeht.


Hier dann mal beide Aufnahmen abgeblendet, so dass die Highlights nicht mehr überbelichten. Anschliessend habe ich den scheinbar abgesoffenen dunklen Bereich des Standard Style wieder aufgehellt.

Standard (Highlight abgeblendet/ dunkle Bereiche angehoben)

zum Bild


Cine Style (Highlights abgeblendet)

zum Bild



Mein Fazit: Der flache Picturestyle konnte die Dynamic des Bildes in meinen Augen überhaupt nicht verbessern - im Gegenteil: Überbelichtungen führen in den Grenzbereichen der Highlights zu einem plötzlichen und unnatürlichen Kantenabriss. Alle "Verbesserungen" in den Tiefen liessen sich dagegen auch aus dem Standard Style (z.b. durch Aufellung des Bildes) erreichen.
Die Picturestyles bringen allenfalls bei ohnehin gut ausgeleuchteten Aufnahmen etwas mehr Spielraum für die Farbcorrektur.


Falls jemand da eine Erklärung für hat oder mein Fazit widerlegen möchte/kann...legt los!

Space


Antwort von srone:

für meine begriffe hättest du im oberen beispiel den cinstyle deutlich dunkler belichten müssen, dann wäre er auch nicht so ausgebrannt, raum nach unten ist auf dem bild ja da.

wie ich auch schon im anderen thread schrieb 8bit bleiben 8bit, die frage ist nur wie verteile ich sie sinnvoll, und darüber kann man (auch je nach motiv) geteilter meinung sein.

lg

srone

Space


Antwort von dirkus:

für meine begriffe hättest du im oberen beispiel den cinstyle deutlich dunkler belichten müssen, dann wäre er auch nicht so ausgebrannt, raum nach unten ist auf dem bild ja da.
Das habe ich doch auf den beiden unteren Bildern gemacht!

Die Überbelichtung habe ich bei den ersten Aufnahmen absichtlich gemacht, damit man den zerstörten Übergangsbereich sieht.
Die zunächst abgesoffenen schwarzen Bereiche des Standard konnte ich komplett rekonstruieren, wogegen sich die dunklen Bereiche des Flats nicht mehr weiter aufhellen lassen!

Also das Fazit bleibt: Kein Zugewinn an Dynamic!

Space


Antwort von Frank B.:

Hier der Link zu einem der von Dir angesprochenen Threads (es sind mehrere Threads, in denen in letzter Zeit über das Für und Wider bzw. die Risiken der flachen Bildkurven diskutiert wurde).

viewtopic.php?t=96062?highlight=

In diesem Thread ist eigentlich alles Wichtige dazu gesagt worden.

Der Sinn der flachen Gammakurven liegt u.a. darin, Überstrahlungen bzw. Absaufen in den Tiefen zu verhindern. So hättest Du in Deinem ersten Bild mit flacher Kurve die Blende etwas herunter nehmen können, so dass der Himmel noch durchzeichnet. Am Fernseher siehst Du, dass da noch Platz nach unten (Abdunklung) gewesen wäre.

Edit: Wenn Du beide Aufnahmen linear abgedunkelt hättest, hätte der Fernseher im zweiten Bild der Aufzeichnung ohne Flatkurve nicht heller sein dürfen als im ersten. Evtl. greift da eine Kameraautomatik ein.

Space


Antwort von carstenkurz:

Man kann die Bild-Dynamik mit flachen Profilen nicht verbessern, das ist ein Irrtum. Die Dynamik ergibt sich mit steilen oder flachen Picturestyles automatisch aus dem Zusammenspiel von Sensor, PictureStyle und Codec und wird bei gängigen 8/10 Bit Formaten grundsätzlich den vollen Wertebereich umfassen.

Durchzeichnung der Spitzlichter kann man nur durch knappe Belichtung retten. Darunter leidet die Durchzeichnung der Schatten, was aber wahrnehmungstechnisch bei Anwesenheit von Spitzlichtern eher toleriert wird.

Die flachen Picture Styles haben nur den Sinn, in bildrelevanten Teilen umfangreichere Farbkorrekturen ohne Clipping durchführen zu können. Das ist etwas ganz anderes als eine Vergrößerung der Bilddynamik.

Nebenbei geht es dabei auch um Trendfaktoren, so sind seit Jahren entsättigte Bilder, ggfs. in Kombination mit Tönungen, einer dieser Modetrends in Werbung und Kino, auch so etwas ist mit flachen PictureStyles einfacher.

- Carsten

Space


Antwort von srone:

für mich würde irgendwo in der mitte zwischen beiden das optimum liegen.

wobei, bei einem film das bild- und inhaltswichtigere detail den vorrang hätte.

jedoch kommt es mir auch so vor als ob die cinestyles nicht gegenkorrigiert sind.

lg

srone

Space


Antwort von dirkus:

Kernaussage meines Postings ist:

Man kann praktisch aus einem im Standard Picture Style aufgenommen Bild das gleiche herausholen, wie aus dem Flat, weil dort die Reserven lediglich unterdrückt sind. Im Gegensatz dazu kann man aus dem Flat nicht mehr herausholen.

Also ist das lediglich eine Vereinfachung bei der Nachbearbeitung.

Allerdings bleibt beim Flat das Risiko der plötzlich abgeschnittenen Highlights, die nicht mehr rekonstruierbar sind.

Space


Antwort von srone:

Allerdings bleibt beim Flat das Risiko der plötzlich abgeschnittenen Highlights, die nicht mehr rekonstruierbar sind. wenn man falsch belichtet.

lg

srone

Space


Antwort von dirkus:

Allerdings bleibt beim Flat das Risiko der plötzlich abgeschnittenen Highlights, die nicht mehr rekonstruierbar sind. wenn man falsch belichtet.

lg

srone Manchmal lassen sich Überbelichtungen aber nunmal nicht vermeiden. Und wenn man dann so ne hässlichen Kanten bekommt, dann stellt sich schon die Frage, ob sich das lohnt.

In bestimmten Situationen hat man seine Aufnahmen damit geschrottet, z.b. wenn das Bokeeh dadurch zerstört wird, weil sich an den Rändern diese hässlichen Säume bilden.

Space



Space


Antwort von Frank B.:

Wenn ein Bild korrekt belichtbar ist, d.h. die Highlights nicht auszubrennen und die Tiefen nicht abzusaufen drohen, sollte man keine flache Kurve verwenden. In manchen Situationen ist das aber kaum hinzubekommen. Manchmal ist der Dynamikumfang eines Bildes so groß, dass entweder die Lichter überstrahlen oder, wenn man abblendet, die Tiefen absaufen. Wenn man dort die Schatten etwas anhebt und das gesamte Spektrum etwas nach unten zieht, also dunkler macht, kann man u.U. die Lichter retten und ein ausgewogeneres Bild erziehlen. Die Gefahr ist eben, dass sich die 8-Bit-Helligkeitsabstufungen auf einen geringeren Helligkeitsumfang konzentrieren (WoWu hat das in mehreren Threads sehr fachkompetent dargelegt. Auch Frank Glencairn, der einige solcher Flat-Profiles z.B. für die NEX FS 100 gebaut hat. Ich bin nur Amateur und kann das nur etwas unqualifiziert weitergeben, so wie ich es verstanden habe).

Space


Antwort von Frank B.:

Manchmal lassen sich Überbelichtungen aber nunmal nicht vermeiden. Manchmal aber doch, mit einer flachen Kurve.

Space


Antwort von domain:

@ Dirkus
Diese Kernaussage ist eine vorläufige Theorie von dir.
Es gibt nur eine, allerdings entscheidende Frage bei den Flat-Picture-Styles: wird vom 14 Bit-Bereich des AD-Wandlers mehr in die z.B. 8-Bit des Aufzeichnungsformates hineinquantisiert oder nicht. Nur wenn das auch wirklich der Fall ist haben die Flat-Styles eine Berechtigung. Sinnlos wäre eine reine Beschneidung und Limitierung auf sagen wir Werte zwischen 30 und 200.
Mir selbst ist das auch noch nicht klar, werde aber in den nächsten Tagen ein gezieltes Experiment mit der XF100 dazu machen und dann berichten.

Space


Antwort von WoWu:

@dirkus
Das hast du ein heisses Thema aber sehr gelassen aufgenommen.
Da ist nämlich etwas aus der Cine-Welt in die Video-Welt übergeschwappt ohne dass die Videoleute wirklich wussten, was es bedeutet.
Nämlich dass Hersteller Kameras für die Cine-Herstellung konstruiert haben und sich dabei auf die Cine-Anwendung, sei es durch Ausbelichtung oder durch DC gestützt haben.
Die Wenigsten haben doch verstanden, was S-Log oder C-Log oder was auch immer, eigentlich bedeutet.
Dass es dafür Rahmenbedingungen gibt, die einen sinnvollen Einsatz erst ermöglichen, wurde da gern mal von den Videoamateuren vergessen (oder nicht verstanden).
CINE war Kult und alles wurde adaptiert, ob es funktioniert oder nicht, ob es Sinn machte oder auch nicht.
Schön, dass es mal jemand merkt.
Damit jetzt nicht der Sturm hier losbricht ... ja ganz geringe Vorteile kann es bringen, wenn man hinterher partiell gradet, aber wer (kann) macht das schon ?

Space


Antwort von Axel:

Vor "Superflat" wurde vor ~ zwei Jahren schonmal gewarnt.

Nun sind unsere Kameras besser geworden, weil sie irgendwie intelligent schon bei der Aufnahme alles in 8-bit pressen ("iDynamic", seht euch ja mal ältere DV-Bilder von Ende der 90er an, seitdem ist viel passiert), wohl, indem sie (quasi-Zitat WoWu) die Quantisierung dort feiner arbeiten lassen, wo sie gebraucht wird. Ein zu flacher style verhindert das offenbar.

Das flat-Konzept ist der Gegenentwurf zum aufgesteilten, hochkontrastigen Profil, bei dem alle Regler rechts auf Anschlag stehen. Wenn man allerdings bei der Aufnahme bereits alles richtig macht, indem man Clipping vermeidet und Löcher aufhellt, ist das mehr als die halbe Miete.

Space


Antwort von srone:

Manchmal lassen sich Überbelichtungen aber nunmal nicht vermeiden. Und wenn man dann so ne hässlichen Kanten bekommt, dann stellt sich schon die Frage, ob sich das lohnt.

In bestimmten Situationen hat man seine Aufnahmen damit geschrottet, z.b. wenn das Bokeeh dadurch zerstört wird, weil sich an den Rändern diese hässlichen Säume bilden. da das obere cinemastylebild überbelichtet ist, wundert mich die artefaktbildung nicht, würdest du die belichtung tiefer ansetzen, gäbe es wohl keine solchen artefakte.

das wichtigste bei jeder chipbasierten aufzeichnung ist das schützen (durch richtige belichtung) der lichter, in den tiefen ist in der regel mehr spielraum als man glaubt, und selbst wenn diese durch hochziehen rauschen, lässt sich dieses problem mit sanftem denoisen lösen. wenn jedoch die lichter überstrahlen sind sie weg, unwiederbringlich.

lg

srone

Space


Antwort von WoWu:

Die ganzen Flatkurven sind so etwas wie "Dolby" im Audiobereich.
Es gibt eine Kurve und eine Reverse Kurve. Die Reverse Kurve ist in den Zielgeräten.
Fummelt man in den Kurven von Hand rum, kommt das dabei heraus. Das ist so, als würde man versuchen, ein Dolbysignal manuell mit einem 3-Weg Entzerrer zu decodieren.

Space


Antwort von domain:

Eine dynamische Quantisierung (im Sinne einer automatischen Kontrastanpassung) kann ich mir bei Profikameras derzeit schwer vorstellen, die muss mir jemand erst mal demonstrieren. Es würde nämlich bedeuten, dass wir es mit sich andauernd verändernden Kontrastverhältnissen im Bild zu tun haben, je nachdem in welcher Dynamik das Eingangslicht auftritt.
Eigentlich unvorstellbar für das spätere Grading, wenn sich die Kontrastverhältnisse im Bild andauernd verschieben. Genauso schlimm wie ein vollautomatischer Weißabgleich.

Space


Antwort von WoWu:

Nein, Domain, die dynamische Quantisierung wäre auch nur ein Abhilfe im Videobereich, aber die ganzen Logs sind das Resultat aus den Eigenschaften der Zielgeräte. Die Reversekurven waren zuerst da und danach wurden die Logs angelegt.
Z.B. S-log für DC und Blogs für Abtastung dazwischen gibt es präzise Vorschriften, welche Kurve einzusetzen ist, um von 10 Bit S-Log nach 12 Bit C-Log zu transferieren, damit man mit Sony Kameras dieser Art nicht nur DC machen kann, sondern auch Ausbelichtung. Da gradet keiner drin rum.
Schon der Zielfarbraum und der Weisspunkt sind völlig anders.
Die Kurven sind nicht für Videogurus gemacht. dass das schiefgeht ist klar.

@Domain die dynamische Quantisierung ist auch keine Belichtungsautomatik sondern ist wie ein Weiss/Schwarzabgleich zu verstehen, der sich nach der Bildanalyse richtet. Der wandert nicht ständig rum sondern wird, wie ein Kamerabagleich benutzt und führ bei Nacht zu andern Ergebnissen, als meinetwegen am Tag.

Space



Space


Antwort von Frank B.:

Ich meine mich zu erinnern, dass bereits in den 90er Jahren einige Amateurcams schon eine Kniefunktion programmiert hatten, dass bei ihren Aufnahmen die Lichter nicht so schnell überstrahlen. Hab ich da was falsch verstanden? Nach meinem Verständnis müsste das doch ähnliche Auswirkungen aufs Bild haben wie die Flat-Profiles.

Space


Antwort von dirkus:

da das obere cinemastylebild überbelichtet ist, wundert mich die artefaktbildung nicht, würdest du die belichtung tiefer ansetzen, gäbe es wohl keine solchen artefakte.
Doch! Mit jeder Blende nach unten haben sich die Artefakte lediglich verschoben.

Hier mal der gleiche Ausschnitt 2 Blendenstufen runter.



zum Bild


Space


Antwort von srone:

dann sind 2 blenden runter eben immer noch weit überbelichtet, das von dir gewählte motiv ist weit ausserhalb des dynamikumfangs der kamera. es nützt nichts hier überlichtungsartefakte aus einem crop zu zeigen, um deine these zu untermauern, dein ganzer versuchsaufbau ist falsch gewählt.

lg

srone

Space


Antwort von Frank B.:

@dirkus
Da ist nämlich etwas aus der Cine-Welt in die Video-Welt übergeschwappt ohne dass die Videoleute wirklich wussten, was es bedeutet. Kann es sein, dass es hier um unterschiedliche Ansätze zur Erstellung solcher Profile geht? Die wenigsten User solcher Kurven im Videobereich wenden diese doch an, weil sie später auf Film belichten wollen, sondern weil sie eben in bestimmten Situationen ein Bild, wenn nicht retten, dann doch subjektiv ansehnlicher machen wollen.

Space


Antwort von dirkus:

dann sind 2 blenden runter eben immer noch weit überbelichtet, das von dir gewählte motiv ist weit ausserhalb des dynamikumfangs der kamera. es nützt nichts hier überlichtungsartefakte aus einem crop zu zeigen, um deine these zu untermauern, dein ganzer versuchsaufbau ist falsch gewählt.

lg

srone Ich habe den ganzen Versuch mit beiden Styles lo lange gemacht, bis keine Überbelichtung mehr drinwar (insgesamt über 6 Blendenstufen)

Die nächste Stufe hätte den Himmel teilweise aufgelöst, aber immer mit der gleichen (scharfen) Abrisskante.


Der Canon Standard hat dagegen immer weiche Übergänge.


Ich stelle die ganze Belichtungsreihe morgen mal ein.(erschreckend!)

Space


Antwort von srone:

im prinzip sind solche kurven vergleichbar mit dem was man in der analogen sw-fotographie gradation nannte (siehe auch gradationskurven in bildbearbeitungsprogrammen, hier einfach mal ein bischen spielen und man erfährt mehr über die cinemastyles), die richtige kombination von film (gradation 1) und papier (gradation 2) führte zum gewünschten look.

lg

srone

Space


Antwort von WoWu:

Ja und das ist genau das falsche Verständnis .... die meisten meinen, mit solchen Flachen Kurven das zu erreichen und landen dann zwar bei einem weicheren Bild, was sie dann auch hübscher finden, das aber hat kein einziges Bit mehr Inhalt und ob ein Licht ausbrennt hängt nicht von der Gammakurve ab sondern von der Füllmenge des Sensors. Denn ich belichte bei einer flachen Gammakurve nicht anders, sondern Übertrage die Werte nur anders. Es existiert aber kein einziger, zusätzlicher Wert.
Wie der Clip nachher aussieht, das mag ich mit Gamma und dem Grading in gewissem Mass bestimmen können, aber bei den Flachkurven geht es um Bildinhalt.

Nur um es nochmal klar zu machen ... die Log-Kurven haben dort, wo sie eingesetzt werden (Video-Cineme) ihre volle Berechtigung !!
Nur nicht im 8 Bit Amateurbereich wo weder die besseren Sensorwerte durchgereicht werden, noch Mechanismen bestehen, mit der Streckung der Dynamic auch zusätzliche Werte zu schaffen.

Space


Antwort von srone:

Ich habe den ganzen Versuch mit beiden Styles lo lange gemacht, bis keine Überbelichtung mehr drinwar (insgesamt über 6 Blendenstufen)

Die nächste Stufe hätte den Himmel teilweise aufgelöst, aber immer mit der gleichen (scharfen) Abrisskante.


Der Canon Standard hat dagegen immer weiche Übergänge.


Ich stelle die ganze Belichtungsreihe morgen mal ein.(erschreckend!) was mich an der sache am meisten irritiert ist die tatsache, daß sich dein technicolorstylepreset anscheinend verkehrtherum verhält, es sollte eigentlich in den lichtern weichere verläufe als der canon standard erzeugen, würdest du mal deine version und dein setting überprüfen und bitte sämtliche canon bildverbesserungsparameter auf null stellen, es gibt da nämlich einige, welche sich extrem kontaproduktiv auswirken könnten.

lg

srone

Space


Antwort von srone:

Ja und das ist genau das falsche Verständnis .... die meisten meinen, mit solchen Flachen Kurven das zu erreichen und landen dann zwar bei einem weicheren Bild, was sie dann auch hübscher finden, das aber hat kein einziges Bit mehr Inhalt und ob ein Licht ausbrennt hängt nicht von der Gammakurve ab sondern von der Füllmenge des Sensors. Denn ich belichte bei einer flachen Gammakurve nicht anders, sondern Übertrage die Werte nur anders. Es existiert aber kein einziger, zusätzlicher Wert.
Wie der Clip nachher aussieht, das mag ich mit Gamma und dem Grading in gewissem Mass bestimmen können, aber bei den Flachkurven geht es um Bildinhalt. ich habe niemals behauptet dadurch ein mehr an information zu gewinnen, jedoch kann ich, wie oben angeregt, durch eine geringere belichtung in verbindung mit der veränderten gradation (post-sensor, mir vollkommen klar), die lichter besser schützen und das weichere bild besser nachbearbeiten, eine reine look-frage, mehr nicht, deswegen auch der vergleich mit sw-gradation.

lg

srone

Space



Space


Antwort von Frank B.:

...das aber hat kein einziges Bit mehr Inhalt und ob ein Licht ausbrennt hängt nicht von der Gammakurve ab sondern von der Füllmenge des Sensors. Was ist die Füllmenge eines Sensors? Kannste das mal für mich kurz erklären? Wenn es das ist, was ich jetzt darunter verstehen würde, nämlich irgendwie sowas ähnliches wie der Spielraum bis zur Übersteuerung der Fotosensoren, dann müsste man dem doch mit einer geringeren Blende am Objektiv entgegen wirken können.

Armer Wolfgang, Du bist echt geduldig mit mir und anderen Nichtwissenden.
Aber, wer nicht fragt, bleibt dumm. Wobei, mir kommt es bald so vor, als bliebe ich dies auch, trotz dauernder Nachfragen ;)

Dass durch die Flatkurven im Bild keine zusätzliche Information erzeugt wird, habe ich schon verstanden. Allerdings hattest Du selbst geschrieben, dass man diese 8 Bit Informationsumfang im Bild unterschiedlich verteilen kann, wenn ich mich recht erinnere. Was spricht also dagegen, diese Umverteilung vorzunehmen.

Space


Antwort von srone:

Was spricht also dagegen, diese Umverteilung vorzunehmen. eigentlich nichts, aber man sollte sich im klaren darüber sein was man tut, denn was man der einen stelle im helligkeitsspektrum an auflösung gewinnt, verliert man zwangsweise an anderer stelle, wenn du ein bildbearbeitungsprogramm mit gradationskurven hast, (zb gimp), würde ich dir empfehlen dort mal mit herumzuspielen, dann verstehst du viel besser was passiert.


lg

srone

Space


Antwort von Frank B.:

Was spricht also dagegen, diese Umverteilung vorzunehmen. eigentlich nichts, aber man sollte sich im klaren darüber sein was man tut, denn was man der einen stelle im helligkeitsspektrum an auflösung gewinnt, verliert man zwangsweise an anderer stelle Das war ja bisher auch der Punkt bis zu dem ich es meinte verstanden zu haben. Siehe weiter oben, wo ich dies schrieb: Wenn ein Bild korrekt belichtbar ist, d.h. die Highlights nicht auszubrennen und die Tiefen nicht abzusaufen drohen, sollte man keine flache Kurve verwenden. In manchen Situationen ist das aber kaum hinzubekommen. Manchmal ist der Dynamikumfang eines Bildes so groß, dass entweder die Lichter überstrahlen oder, wenn man abblendet, die Tiefen absaufen. Wenn man dort die Schatten etwas anhebt und das gesamte Spektrum etwas nach unten zieht, also dunkler macht, kann man u.U. die Lichter retten und ein ausgewogeneres Bild erziehlen. Die Gefahr ist eben, dass sich die 8-Bit-Helligkeitsabstufungen auf einen geringeren Helligkeitsumfang konzentrieren Mir geht es also auch nicht um einen Informationsgewinn, sondern um den Eingriff auf die Verteilung der Informationen, dass ein subjektiv ansehnlicheres Bild entsteht.

Space


Antwort von WoWu:

@Frank

Die "Fuellmenge" korrekt gesagt "füll well" ist die maximale menge, die ein Sensor an Photonen aufnehmen kann. Danach kannst Du soviel Licht auf den Sensor geben, wie Du willst, er nimmt nicht mehr auf.

Was die Belichtung angeht, so ist die Blende natürlich das natürlich das approbate Mittel nur darfst Du nicht vergessen, dass Belichtung zwei Enden hat, das Andere Ende heisst "absaufen" in Schwarz oder schlechterer Störabstand.
Und zwischen diesen Möglichkeiten liegt die Gammakurve, weil das Ganze auch noch auf 220 Werte verteilt werden muss.
Das ist deine Spielwiese auf der Du dein Bild beeinflussen kannst.
Dazu musst Du wissen, dass der Sensor für nur eine Blende unterhalb von Weiss, bereits 50% der Werte belegt .... für die weitere Blende wieder 50% vom Rest usw. sodass für die letzte Blende nach Schwarz nur noch 1 Wert für eine volle Blende existiert.
Das ist der Ausgangspunkt für die Quantisierung und damit für Deine Bildgestaltung.

@srone
das war auch gar nicht auf Dich gemünzt. Sorry, wenn das so rüber gekommen ist.
Nur generell hantieren viele mit Log-Kurven als "Zaubermittel", ohne auch nur einen Dunst zu haben, was sie bedeuten.

Space


Antwort von deti:

Ich les' hier immer "Color Grading" ist total super wichtig. Jetzt mal ehrlich: Wer bei der Aufnahme keinen großen Mist macht, braucht so gut wie kein Color Grading. Für die Mehrzahl aller Videos ist es doch gewünscht die Realität als solche abzubilden und nur die wenigsten verwenden einen "Look", der irgendwo zwischen Unterwasser und Marsatmosphäre liegt. Ihr macht aus dem ganzen Kram so eine Wissenschaft, dass mir manchmal richtig schlecht wird. Schaut ihr euch eigentlich eure Filme mal mit etwas Abstand zum eigenen Werk nochmal an?

Deti

Space


Antwort von WoWu:

Wen sprichst Du an ?

Space


Antwort von Frank B.:

Ihr macht aus dem ganzen Kram so eine Wissenschaft, dass mir manchmal richtig schlecht wird.
Deti Mir macht es Spaß etwas zu lernen. Wenn Du das nicht willst, mach doch einfach nicht mit. Es gibt noch andere Threads.

Space


Antwort von deti:

Wen sprichst Du an ? Nicht dich, sondern die Leute, die meinen, dass man möglichst immer an allen Schrauben drehen muss, damit ein Film vorzeigbar wird. Manchmal ist das notwendig wenn man einen Look erzeugen will, aber es ist vermeidbar Aufnahmen zu verpatzen. Ich glaube dass viele eben gerne flat filmen, damit sie später hoffentlich ihre Fehler wieder ausbügeln können.

Deti

Space


Antwort von WoWu:

Ja, aber dann ist doch der Thread hier sehr positiv, weil dirkus ihn doch schon mit dem völlig berechtigten Einwand aufgemacht hat.

Ich finde, die richtige Plattform wäre P.B., der eine einfache Gammakorrektur benutzt, um Gesichtsfarben herzustellen.
Und das ganze dann auch noch Gradng nennt.
Da steckt die Laienspielschar..

Space



Space


Antwort von Frank B.:

@Frank

Die "Fuellmenge" korrekt gesagt "füll well" ist die maximale menge, die ein Sensor an Photonen aufnehmen kann. Danach kannst Du soviel Licht auf den Sensor geben, wie Du willst, er nimmt nicht mehr auf.

Was die Belichtung angeht, so ist die Blende natürlich das natürlich das approbate Mittel nur darfst Du nicht vergessen, dass Belichtung zwei Enden hat, das Andere Ende heisst "absaufen" in Schwarz oder schlechterer Störabstand.
Und zwischen diesen Möglichkeiten liegt die Gammakurve, weil das Ganze auch noch auf 220 Werte verteilt werden muss.
Das ist deine Spielwiese auf der Du dein Bild beeinflussen kannst.
Dazu musst Du wissen, dass der Sensor für nur eine Blende unterhalb von Weiss, bereits 50% der Werte belegt .... für die weitere Blende wieder 50% vom Rest usw. sodass für die letzte Blende nach Schwarz nur noch 1 Wert für eine volle Blende existiert.
Das ist der Ausgangspunkt für die Quantisierung und damit für Deine Bildgestaltung. Ich habe es jetzt so verstanden:
Es kommt also zunächst erst mal drauf an, die Füllmenge des Sensors nicht zu erreichen. Idealerweise erreiche ich mit meinen Lichtern genau den Punkt, nach dem dies einsetzt. Nun kann es am anderen Ende der Fahnenstange ein Absaufen ins Schwarz geben. Idealerweise wäre die dunkelste Stelle des Bildes an dem Punkt, nachdem das Absaufen einsetzt.
Ist dies alles erreicht, wäre es ein ideal belichtetes Bild. Alles was dem nicht entspricht, ist auch nicht durch eine Gammakurve zu retten. Andererseits brauche ich für dieses ideale Bild auch keine Gammakurve anzuwenden, da es ja sowieso ideal ist, nicht überstrahlt oder absäuft.
Hab ich das so jetzt richtig verstanden?

Edit: Muss mich mal für ne Weile aus der Diskussion ausklinken. Bin heute Abend zum Geburtstag eingeladen.
Vielen Dank erst mal an alle, die zu meiner Fortbildung beigetragen haben ;).

Space


Antwort von WoWu:

Es wäre falsch, den Sensor nicht maximal zu füllen, weil dann von unten Dein Störabstand hochkommt.
In einer dunklen Szene dämpfe ich zunächst erste einmal Spitzlichter (entweder dimmen - Vorsicht Farbthemperatur ändert sich) oder ND Folie.
Damit bekommst Du mehr Dynamik als mit flachen Kurven. Du kannst auch DSR dazu nehmen, um solche Effekte zu erzielen. dabei wird die Integrationszeit solcher Pixels verkürzt. Aber eben nur solcher Pixels.
Dann leg die Kurve einwenig flacher und senk sie hinterher soweit ab, wie das Rauschen es erfordert.
Es gibt aber keine wirklich allgemeingültige Gebrauchsanweisung, weil jedes Bild anders aussieht und auch der Zweck bedacht werden muss. Bei Codecs kommt noch hinzu, dass sie bei problematischem Material, also extrem flachem Material schlechter funktionieren und eine Gefahr darstellen, zusätzliche Artefakte einzubringen.
Auch das unterscheidet die Amatuerwelt von der Cinema Welt. Denkt nur keiner dran, weil alle glauben beim Codec kommt es auf die Datenrate an.

Space


Antwort von Axel:

Wer bei der Aufnahme keinen großen Mist macht, braucht so gut wie kein Color Grading. Wer braucht irgendwas? Braucht jemand Fernseher? Wenn ich nicht in einer WG lebte, ich hätte keinen.
Für die Mehrzahl aller Videos ist es doch gewünscht die Realität als solche abzubilden ... Die Realität als solche ...

Uh, was für ein Spruch!

Wem es darum geht, die Realität als solche abzubilden, der soll die Hand heben.

Space


Antwort von WoWu:

Ja, Axel, aber das hilft uns nun auch nicht weiter.
Im Grunde genommen hat Deti schon Recht .... wenn man sich mal anschaut, welchen Zweck Grading eigentlich hat.
Aber da wird von der Log Linie nach oben rumgekurbelt, dabei wäre Grading eigentlich nur die gewünschte Veränderung nach der Reverse Kurve.
Wird komischerweise nur bei den Cinema Leuten so gemacht.
Und das macht dann auch Sinn.

Das ist das, was ich sagte, da ist ein Begriff übergeschwappt und die meisten wissen gar nicht, was er eigentlich bedeutet ... aber ist eben hipp.

Space


Antwort von Axel:

Und sehr gut, dass du die Dinge hinterfragst. Gut auch, dass dirkus getestet hat. Ob es in allen Bereichen soviele unbewiesene und bei Interesse auch widerlegbare Mythen gibt wie hier?

Ja.

Space


Antwort von srone:

@srone
das war auch gar nicht auf Dich gemünzt. Sorry, wenn das so rüber gekommen ist.
Nur generell hantieren viele mit Log-Kurven als "Zaubermittel", ohne auch nur einen Dunst zu haben, was sie bedeuten. das ist mir durchaus auch bewusst, deswegen versuche ich ja auch mitzuhelfen diese irrtümer auszuräumen. ;-)

@deti, was ist die wirklichkeit?

darüber kann man sicher trefflich streiten und diese wahrnehmung ist wie alle wahrnehmungen höchst subjektiv, selbst die kamerahersteller sind sich da nicht einig ;-)
ich empfinde das drehen mit flatstyles, als eine gewisse erleichterung, hauptsächlich um verschiedenartiges material (dslr,henkelmann und gopro) zu matchen.

und wenn man daran denkt was diverse knee-einstellungen und blackstretch bei den grossen schulterkameras bewirken, ist so ein flatstyle nun auch nicht so weit weg.

lg

srone

Space


Antwort von deti:

@deti, was ist die wirklichkeit? Darüber kann man in philosophischer und technischer Hinsicht sicher vortrefflich streiten. Gemeint habe ich aber den Eindruck, der in etwa dem Bildeindruck des menschlichen Auges entspricht. Das schaffen eigentlich die meisten Kameras mit ihren Standardeinstellungen ganz gut. Mir ist schon klar, dass man keine unterschiedlichen Kameras ohne nachträgliche Farbanpassung zusammen verwenden soll. Die meisten Filmer verwenden aber nur eine Kamera und diese liefert ja unter normalen Bedingungen auch normale Bilder - das war mein Punkt.

Deti

Space


Antwort von Jörg:

Im Grunde genommen hat Deti schon Recht .... er hat nicht nur im Grunde recht, er hat absolut recht.
Wenn man die Irrtümer von "grading" in den letzten Monate sieht, ist das ein ewig Fluss des Amusement.
Mehr Unsinn wurde selten in den Foren verbreitet.

Space


Antwort von WoWu:

Mensch Jörg .... jetzt versuche ich schon mal diplomatisch zu sein.... nun haust Du mich schon wieder in die Pfanne.. :-)
Aber wo Du Recht hast, hast Du nun mal Recht.

Space



Space


Antwort von WoWu:

und wenn man daran denkt was diverse knee-einstellungen und blackstretch bei den grossen schulterkameras bewirken, ist so ein flatstyle nun auch nicht so weit weg. Ohaa ... das ist aber was völlig Anderes.

Knee Punkte dienen lediglich dem Abdämpfen des Clip Punktes und setzen bei 45% Grau ein und verursachen eigentlich immer Farbverfälschungen in hellen Bildpassagen. Daher sind Glanzpunkte auf Haut immer ausgebrannt und färben sich oft leicht grün.
Unterhalb 45% geschieht gar nichts. Die Dynamik bleibt weiter bei 2,5 Blenden über Grau weil sich am 100% Punkt nichts ändert.

Space


Antwort von srone:

wie ich ja schrieb, nicht so weit weg, mir schon klar das da technisch gesehen was anderes passiert, jedoch geht es dabei, ja auch darum lichter nicht allzu sehr ausbrennen zu lassen.

für untenrum gibts ja dann blackstretch ;-)

beide verfahren (und natürlich auch flatstyles) machen das bild nicht besser, im gegenteil, können jedoch in bestimmten situationen, sofern man weiss was man da tut, eine kleine hilfe sein.

lg

srone

Space


Antwort von WoWu:

Da bin ich ja auch völlig bei Dir und auch, ganz bestimmte Eigenschaften leicht zu verändern ... gar kein Thema.
Nur hier geht es ja um die Wunderwaffe "C-Log" oder wie immer es auch genannt wird, was dem Flat-Recording ja gleich kommt. Und immer wieder finden sich Adaptionen aus dem Cinema, wo es um x Blenden Dynamikerweiterung geht und wahren Wundern, die erreicht werden.
Und da ist eben Schluss mit Lustig, weil es einfach Quatsch wird.

Ausserdem vergessen viele, dass ein Filmgamma eben eine Sache ist, in einem Projektor gezeigt zu werden. Sobald der Film im TV gezeigt wird, wird die dazugehörige 709 Kurve im Abtastet draufgelegt .... das vergessen die ganzen "Cineasten" und zeigen das flache Zeug, leicht im Gamma verändert, dann auf dem 709 Monitor als Kunst.

Ich glaube, die ganzen Hobby-Grader haben ihr einziges Erfolgserlebnis darin, die grausam flauen Bilder hinterher überhaupt wieder hingebogen zu bekommen, scheiss egal, ob die Kamera das gleich so, oder sogar besser gemacht hätte.
Ich wäre auch heilfroh, wenn solche versauten Aufnahmen irgendwie wieder brauchbar würden und würde es notfalls auch als KUNST verkaufen. :-)

Aber nochmal: das bezieht sich nicht auf RAW oder S-Log oder C-Log oder was immer die Firmen da als Cine-File Log (für Cine) anbieten.
Diese Verarbeitung ist standardisiert und führt in den Zielgeräten zu den erwarteten Ergebnissen.

Space


Antwort von srone:

Ich glaube, die ganzen Hobby-Grader haben ihr einziges Erfolgserlebnis darin, die grausam flauen Bilder hinterher überhaupt wieder hingebogen zu bekommen, scheiss egal, ob die Kamera das gleich so, oder sogar besser gemacht hätte.
Ich wäre auch heilfroh, wenn solche versauten Aufnahmen irgendwie wieder brauchbar würden und würde es notfalls auch als KUNST verkaufen. :-) und da, bin ich, völlig bei dir :-))

lg

srone

Space


Antwort von dirkus:

Nicht nur Du...;-)

Danke WoWu für die wirklich guten Infos!

Ich mache in diesem Zusammenhang die Tage noch weitere Aufnahmen und werde sie hier einstellen. Unter anderem werde ich ein paar gestellte Sequenzen im Cinema Stil colorieren und dann sehen wir, welche Ergebnisse hinterher besser aussehen.

Gruß aus DO!
Dirk

Space


Antwort von B.DeKid:

......
Ich mache in diesem Zusammenhang die Tage noch weitere Aufnahmen und werde sie hier einstellen. .... Aber bitte nich so Unfall Dinger wie im Eingangspost! ;-)

Also so wirkt sich der Superflat niemals aus vs den Normal .

Da mal bitte die richtige Belichtung wählen.

MfG
B.DeKid

Space


Antwort von timelapse:

Technicolor Cinestyle wurde für eine FullFrame entwickelt (5D Mark II).

Bei einer 550D und allen anderen mit gleichem Sensor (600D, 60D, 7D, usw.) werden Teilbereiche in Unschärfe "verwaschen".

Space


Antwort von domain:

Knee Punkte dienen lediglich dem Abdämpfen des Clip Punktes und setzen bei 45% Grau ein und verursachen eigentlich immer Farbverfälschungen in hellen Bildpassagen. Daher sind Glanzpunkte auf Haut immer ausgebrannt und färben sich oft leicht grün.
Unterhalb 45% geschieht gar nichts. Die Dynamik bleibt weiter bei 2,5 Blenden über Grau weil sich am 100% Punkt nichts ändert. Also im Manual der XF100 wird das Knie anhand der folgenden beiden Grafiken erklärt.


Demnach kann der 100% Punkt mit der Knee-Einstellung sehr wohl verschoben werden und das deckt sich auch mit meiner Beobachtung, dass z.B. schon bei einer moderaten Knee-Einstellung mit Startpunkt bei 80% und einem Slope von - 7 sofort das ursprüngliche 100% Zebra verschwindet.
Und das kann nur verschwinden wenn auch die ursprünglichen 100% also 255-er Werte bei derselben Bildeinstellung verschwunden sind.
Was mir noch nicht klar ist, ob sich dadurch auch die Eingangsdynamik erhöht, das muss ich noch durch einen präzisen Test klären.
Ich tippe mal auf ja, der erfassbare Dynamikumfang wird im Rahmen der Sensor-Möglichkeiten erhöht.
Aus meiner derzeitigen Sicht sind sowohl FLAT-Styles als S-Log-Styles nichts anderes als Verbiegungen einer Default-Gammakurve, ergeben aber nur dann einen Sinn, wenn in extremen Situationen nach wie vor die Werte 15 und 235 (resp. 255) erreicht werden können.

Space


Antwort von srone:

@ timelapse

hast du dafür eine quelle?

@ domain

das glaube ich nicht, das sich die eingangsdynamic erhöhen lässt, da die knee einstellungen ja auch nur post sensor berechnet werden, auf basis des ja schon digitalisierten signals.

lg

srone

Space



Space


Antwort von domain:

Missverständnis

Space


Antwort von Axel:

Der klassische, typische Fall ist der, dass einer kommt und sagt, Mist, ich hab alles total unterbelichtet. Dann stellt sich raus, dass ein besseres Bild nach dem Grading (womit jetzt wirklich nur Gradation, Tonwertverschiebung, gemeint ist) kaum vorstellbar ist. Kommt er und sagt, ich hab alles drauf, ist höchstens ein bisschen zu hell, dann habe ich wenig Hoffnung. Eine sehr helle und kontrastreiche Szene würde ich daher bewusst etwas unterbelichten. Das ist auch nichts revolutionär Neues, denn wenn ich im Hellen nach dem Zebra gehe und mit ND und Blende wegdrehe, habe ich viele Mittenwerte, die ich als "zu dunkel" empfinde, aber eben nicht weg.

Ein ebenso klassischer Fall aus dem wahren Leben ist der Typ, der in seinem Kameradisplay gradet. Er möchte ein "knackiges" Bild, und so stellt er es auf Sicht ein (picture style oder Entsprechendes). Wunderbar, solange er ein sehr erfahrener Könner ist. Schlecht, wenn er eine Fehlbeurteilung erst zuhause bemerkt. Der Grund ist, dass man eigentlich nur Mitten graden kann. Man erstellt eigentlich nur Gammakurven. Tiefen und Höhen, die das Bild knacken lassen, sind die Endpunkte.

Daher kommt die Gesinnung des Flat. Es mag unpassende styles geben, die für 8-bit nie gedacht waren oder der intelligenten Signalverarbeitung moderner Kameras im Wege stehen, dann taugen sie nichts.

Und nochmal zu deti: Realität um ihrer selbst willen sollte in der aktuellen Berichterstattung Thema sein (OT, aber eine Binsenweisheit: Bereits in den Themen, die sie auswählt, verzerrt und lügt unsere Journaille, sie kann nicht anders, denn "die" Realität kann man nicht pachten). Hier interessiert es kein Schwein, wenn der "Himmel über Berlin" ausgefressen ist.

Aber bei einer sorgfältig editierten Dokumentation wird wohl jede Aufnahme nochmal optimiert, und in 99% aller Fälle wird es zumindest Kontrast- meistens aber auch Farbkorrekturen geben. Oder nicht?

Es kann kein Streitpunkt sein, dass übertrieben steile Profile schlecht sind oder dass flache Profile Werte verschenken können. Die wirklich interessante Frage jenseits aller gesinnungsmäßigen Irrtümer ist die, wie man die besten Kompromisse für seine Kamera und seine Arbeitsweise findet.

Dabei gehört zur Optimierung bei der Aufnahme vor irgendwelchen Überlegungen zum Grading gute Belichtung und Beleuchtung. So, wie ein völlig flaches, schattenlos ausgeleuchtetes Motiv nicht das Ziel sein kann, muss man sich der Probleme absoluten Schwarzes und geclippter Lichter schon bei der Aufnahme bewusst sein (bewusst sein heißt nicht in jedem Fall vermeiden, auf einer Konzertbühne wird ein Scheinwerfer nach oben und der unbeleuchtete Bühnenrand nach unten clippen). Eine ausgewogene Verteilung vor der Signalverarbeitung ist das Beste! Bedeutet für dirkus: (wenn möglich) Raum aufhellen, um die Blende schließen zu können, um die Baumäste besser einzufangen ...

Dafür, dass umfangreiche Farbkorrektur mehr Ausdruck (nicht Realität an sich) aus Bildern herauskitzeln kann, gibt es so viele Belege, dass ich die Kritiker des Gradings nicht mehr ernst nehme, sorry.

Space


Antwort von ruessel:

das glaube ich nicht, das sich die eingangsdynamic erhöhen lässt, da die knee einstellungen ja auch nur post sensor berechnet werden, auf basis des ja schon digitalisierten signals. Das ist richtig. Nur vom Sensor kommen mehr als die 8 Bit raus, in die Bildberechnung können also auch mehr Kontrastumfangsdaten einfließen. Bei der Canon XHA1 war es ungefähr eine halbe Blende, bei der EX1/3 knapp eine Blende die so mit einem geeigneten PP gewonnen werden konnten.
Aber das Bild muss dadurch nicht unbedingt besser werden (sonst würde der Hersteller der Kameras dies gleich fest verdrahten). Es ist ein Problem bei den PPs den höheren Kontrastumfang auch in das 8bit Signal zu intrigieren ohne das des hässliche Nebeneffekte (Banding, stumpfes Bild, Rauschen, usw.) gibt.

Space


Antwort von Frank B.:

So, bin wieder da - und gleich nach dem Lesen der Beiträge hier, wieder verwirrt. Was denn nun?
Eine ganz einfache Frage: Können Flat Profiles in 8-Bit-Codecs sinnvoll sein?

3 Antwortmöglichkeiten:
Ja
Nein
unter Umständen

Bitte Zutreffendes ankreuzen.

Ich bin hier in die Disussion eingetreten mit einem Kreuzchen bei "unter Umständen", habe dann auf Grund der bisherigen Diskussionen für mich das Kreuzchen dort wieder wegradiert und "Nein" angekreuzt. Nicht zuletzt auf Grund Wolfgangs Ausführungen. Nun klingt es wieder ganz anders. Ich wüsste nun mal gerne, was richtig ist. Oder könnte es sein, dass es zu dieser Frage Uneinigkeit gibt?

Space


Antwort von dirkus:

So, wie versprochen hier mal ein kleiner Videoclip.


Unter bestimmten Bedingungen (Bei Unschärfe oder Filmen mit ISO) zerschiesst euch der flache Style praktisch das ganze Bokee! (Bei den ersten Sequenzen auf den Fensterbereich links achten)

Wie gesagt, ich habe hier absichtlich Überbelichtet, um zu zeigen, wie hart der Flat die Highlights chrasht.


Anbei auch nochmal zwei Bilder, die das nahezu übergangslose Ausbrennen deutlich zeigen.

Flat

zum Bild


Standard

zum Bild


Space


Antwort von handiro:

@Frank B.: Es ist doch eigentlich ganz einfach, es kommt auf den Film, die Stimmung, ob mit mehreren Kameras gleichzeitig oder versetzt gedreht wird, und auf die ganzen anderen Faktoren, an.
Einfach immer alles flat zu drehen ist ja wie schon von anderen berichtet wurde nicht "die Lösung" sondern nur eine und im Fall von 8 bit H264 Codecs oder AVCHD anscheinend sehr riskant.
Nur weil das unbearbeitete RAW Material aus ner RED so aussieht, muss ja nicht heissen, dass man alle anderen Kameras so einstellt, dass sie das gleich aussehende Bild machen.
Zum Glück haben wir WoWu hier, der wirklich Ahnung von der Materie Video Codecs hat, der sagts ja auch....

Space


Antwort von carstenkurz:

Ich verstehe die Diskussion nicht. Dass flache Gradationskurven für eine weitere Bearbeitung besser sind als style ;-) ist seit der Unterscheidung zwischen Negativ-Film und Umkehrfilm anerkannter Fakt. Bei digitalen Kameras kommen noch die Aspekte begrenzter Quantisierungsräume dazu.

Es geht um Arbeitsweisen und Erwartungen. Jede übliche Kamera wird im Videomodus von Haus aus versuchen, ein Bild zu belichten und zu verarbeiten, das ohne Nachbearbeitung die Erwartungen eines Betrachters erfüllt. Hier machen die Canons z.B. im Videomodus nichts anderes als im Still-JPEG Modus, und auch hier hat sich aus den erweiterten Ansprüchen von Fotografen die Notwendigkeit von RAW-Workflows ergeben, die einen nachträglichen Eingriff in diese Bildbewertung erlauben. Der im Still-Mode nebenher noch erweiterte Dynamikumfang ist sicher ein wichtiger, aber nicht DER wichtigste Aspekt dabei, denn in den allermeisten Fällen geht es auch dabei nur um eine subjektiv bessere Steuerbarkeit der Konvertierung in einen 8Bit Quantisierungsraum.

Die signaltechnischen und ästhetischen Vorgaben der kamereigenen Bildbewertung kommen von Canon, das ist deren eigenes KnowHow, und die Parameter dieser Bewertung lassen sich in einigen, verhältnismäßig einfachen Aspekten vom Benutzer verändern. Aber auch wenn diese Bildbewertung und das 'kamera-eigene Grading' ein technischer Prozess ist, sind darin subjektive Bildbewertungskriterien enthalten. Das ist sozusagen der über Jahrzehnte gesammelte bildästhetische Geschmack der Canon Ingenieure, oder welche Firma auch immer dahinter steckt.

Mit flachen Picturestyles greift man insofern in diese Bearbeitung ein, als dass man eine sehr eindeutige und auf Endgültigkeit orientierte Festlegung durch die Original Styles etwas zähmt und dadurch später mehr Möglichkeiten hat, in den Mitteltönen Korrekturen ohne unangenehme Nebenwirkungen durchzuführen. Niemand, der diesen Zusammenhang versteht hat je behauptet, dadurch ließe sich der Dynamikumfang einer Kamera vergrößern, und natürlich hat ein solches Vorgehen auch ggfs. ungewollte Nebenwirkungen.

Dass sich diese Vorgehensweise bei VDSLRs so durchgesetzt hat, hat div. Gründe die bereits angesprochen wurden. Einer davon, sicher der bedeutendste, ist die Tatsache, dass Displays und Arbeitsweisen bei diesen Kameras gerade bei Aussenaufnahmen und Einzelkämpferdrehs eben keine präzise Kontrolle der Belichtung erlauben. Wo man früher schlicht falsch belichtete und nicht mehr zu rettende Dias gehabt hätte, wäre mit Negativmaterial und entsprechender Verarbeitungskette (Operator und Printer KnowHow) eben mehr zu retten gewesen. Das ging auch bei Negativmaterial nicht immer ohne unangenehme Nebeneffekte - Farbkippen, Rauschen, aber das Resultat wurde damals wie heute subjektiv beurteilt besser, weil es eben maßgebliche Bilddetails retten konnte und gleichzeitig Manipulierbarkeit sicherte.

Der schon früher erwähnte Modetrend 'entsättigte Farben' ist ein weiterer unterstützender Aspekt dabei. Daneben gibt es auch mehr oder weniger technische, z.B. bei der Zurücknahme der kamerinternen Schärfung, die bei den Canons sonst gerne unkontrolliert zu den üblen Aliasing-Effekten führt. Die wird man später eben wieder schwerer los und daher ist es besser, soft aufzunehmen und ggfs. gezielter nachzuschärfen.

Das alles hat Nebenwirkungen, aber die sind nicht zwangsläufig ein Grund, darauf zu verzichten.

Im Übrigen wäre auch ich vorsichtig damit, solche Werte und Arbeitsweisen pauschal auf beliebige Kameras zu übertragen. Und wie WoWu schon ausführte sind die h.264 basierten Codecs alles andere als bloße Datenreduzierer, die adaptieren in sehr viel größerem Umfang auf Bildinhalte als frühere Codecs, die überwiegend räumlich arbeiten und noch verhältnismäßig einfach vorhersehbar sind.

@dirkus: Deine Bilder zeigen doch nur EINEN Aspekt, den Du bewusst reproduzierst um ihn herauszustellen. Dass aus den gleichen Bildern auch positive Aspekte des flat styles aufgezeigt werden, interessiert dich nur einfach gerade nicht. Ausserdem tust Du so, als ob dein Grading, dass zu einer schlechteren Darstellung der Highlights führt, eine objektive Notwendigkeit wäre. Das spiegelt aber eben eigentlich nur dein Interesse an der Herausstellung dieses einen Aspektes wieder und unterdrückt die Tatsache, dass man auch ganz anders graden kann als durch eine schlichte gegenläufige Gammakorrektur.

- Carsten

Space


Antwort von dirkus:

eine sehr eindeutige und auf Endgültigkeit orientierte Festlegung durch die Original Styles etwas zähmt und dadurch später mehr Möglichkeiten hat, in den Mitteltönen Korrekturen ohne unangenehme Nebenwirkungen durchzuführen. Das ist Falsch!

Der originale Canon Picture Style hat noch soviel Spielraum, so dass man in der Nachbearbeitung problemlos einen Flat daraus machen kann. Die dunklen Bereiche des Standard kann man problemlos durch anheben von Gamma wieder hervorholen! Man hat also nichts verloren, auch wenn es im ersten Moment danach aussieht.

Aus dem Flat kann man dagegen nichts mehr rausholen. Der milchige Brei in den Tiefen lässt sich nicht weiter anheben und die Highlights sind, wie man sehen kann, sehr unschön abgeschnitten.

Der einzige Vorteil liegt eigentlich nur darin, dass man auf dem Display den vollen Dynamik Umfang des Bildes sofort sieht, während er beim originalen Style erst nach aufhellung in der Post zu sehen ist.

Space


Antwort von srone:

@ dirkus

aufgrund deines, nun überhaupt nicht wissentschaftlichen tests, welcher in sich diverse fehler beinhaltet, eine these aufzustellen, führt dazu, dass diese these nichtssagend ist.

das einzige was du uns zeigst sind artefakte im grenzbereich der überbelichtung, bei welchen ich glaube, dass sie auch durch eine falsch eingestellte kamera hervorgerufen werden.
nochmal meine frage, hast du alle canon bildverbesserungseinstellungen ausgeschaltet?
hast du schärfe und kontrast auf die von technicolor empfohlenen werte gesetzt?
bist du dir im klaren darüber, dass das ergebnis mit technicolor kein endergebnis sein kann?

lg

srone

Space



Space


Antwort von dirkus:

Ja, die Einstellungen sind so wie vorgegeben und alle Setups der Kamera genullt. Habe diesemal auch extra die 550d genommen um sicher zu sein, dass es nicht an der Kamera lag.

Aber vielleicht kann zu eurer Beruhigung das ja noch jemand bestätigen?

Space


Antwort von WoWu:

@ domain
Du verschiebst natürlich nur den Punkt in Richtung 109%.
Dadurch gewinnst Du natürlich zusätzliche Informationen.
Bleibt der 100% Punkt aber erhalten, sieht das schon ganz anders aus.
(Anhang)

@Carsten

Du springst immer zwischen Flat und zusätzlichen Informationen denn egal, ob man das RAW nennt oder Cinema.
Der zusätzliche Informationsgewinn ist immer das Ziel, das eben durch eine alleinige "Flat-verarbeitung" nicht zu erzielen ist.
Durch Veränderung der Quantisierung kann man zwar innerhalb Bildinhalte verändern, aber eben immer zu Lasten anderer Inhalte, solange man den Wertebereich nicht erweitert.
Solche Veränderungen der Arbeitsweise, wie Du es nennst, haben aber keine allgemeine Gültigkeit denn die eigentliche Veränderung der RAWArbeitsweise hat ihre Begründung ganz wo anders. Primär darin, dass in der Bearbeitungssoftware Verarbeitungsschritte unumgänglich sind, die normalerweise im Kameraprozess angesiedelt sind, eine (Bild) 12 oder 14 Bit verarbeitende Kamera aber jeden Kostenrahmen sprengen würde.
Daher gibt es den "Digital-Intermediate-Prozess", den der Normalanwender gar nicht kennt.
Insofern ist es auch nicht richtig, so allgemein zu sagen, die Flat-Bearbeitung sein allgemein anerkannter Verbesserungsprozess .... nicht jedenfalls, wenn es keine zusätzliche Informationsgewinnung gibt. ist seit der Unterscheidung zwischen Negativ-Film und Umkehrfilm anerkannter Fakt. Bei digitalen Kameras kommen noch die Aspekte begrenzter Quantisierungsräume dazu. Und hier genau geht es nämlich darum .... mehr Informationen zu verarbeiten und das genau ist es auch, worauf es im DCine ankommt. Die Flache Kurve ist lediglich eine Konsequenz daraus sie generiert aber nicht mehr Information.

Space


Antwort von WoWu:

@ dirkus

aufgrund deines, nun überhaupt nicht wissentschaftlichen tests, welcher in sich diverse fehler beinhaltet, eine these aufzustellen, führt dazu, dass diese these nichtssagend ist.

das einzige was du uns zeigst sind artefakte im grenzbereich der überbelichtung, bei welchen ich glaube, dass sie auch durch eine falsch eingestellte kamera hervorgerufen werden.
.......
lg

srone Dann müsstest Du jetzt falsifizieren und ihm sagen, wo der Fehler liegt ... einfach nur polemisieren ist auch kein Nachweis.


Ausserdem ist es auch in der Theorie so .... je flacher du die Kurve legst, umso weiter werden die Quantisierungsschritte im oberen Bereich. das Bild muss so aussehen, wie es aussieht. Da steckt auch theoretisch kein Fehler drin.

Space


Antwort von srone:

Dann müsstest Du jetzt falsifizieren und ihm sagen, wo der Fehler liegt ... einfach nur polemisieren ist auch kein Nachweis. nun gut, wie ich oben schon schrieb sind die motive (sowohl fenster als auch lampe) als solches schon nicht tauglich, da sie weit ausserhalb des verarbeitbaren kontrastumfanges der kamera liegen, (da kann auch ein cinestylepreset nichts mehr retten).

das motiv ist (zt stark) überbelichtet, führt zwangsläufig zu detailverlust.

der ganze test wurde "aus der hand" durchgeführt, dh das zittern des kameramannes führt zu bewegungsunschärfen im bild, welche das ergebnis verfälschen.

am wichtigsten ist jedoch punkt 1, das motiv hat in verbindung mit cinestyle keine beweiskraft, da solche szenarios nicht sinn und zweck der cinestyles sind, ich persönlich glaube, dass dirkus hier grundlegend etwas missversteht, bzw auf das nicht existente wunder der cinestyles hofft.

lg

srone

Space


Antwort von WoWu:

Aber jetzt laust mich doch der Affe ....

Das würde ja bedeuten, dass Flat - Recording vom Bild abhängig ist und nur unter ganz ausgewählten Bedingungen ggf. Vorteile mit sich bringt ....
Das macht doch Cine-Syle perse schon unbrauchbar

Space


Antwort von srone:

Aber jetzt laust mich doch der Affe ....

Das würde ja bedeuten, dass Flat - Recording vom Bild abhängig ist und nur unter ganz ausgewählten Bedingungen ggf. Vorteile mit sich bringt .... ja so sehe ich das, ein werkzeug unter vielen, mein bild enteht am set in meinem kopf (so habe ich das aufgrund der analogfotografie gelernt), um dieses bild zu erreichen setze ich diverse werkzeuge ein oder eben auch nicht. negative eigenschaften des cinestyles sind unter anderem die gummi hauttöne, wenn ich sauber ausleuchten kann, kann ich guten gewissens bei einem portraitshot auf cinestyle verzichten, da hier die nachteile überwiegen würden, ganz speziell bei 8bit.
Das macht doch Cine-Syle perse schon unbrauchbar sehe ich, siehe obige aussage, nicht so, wie gesagt es ist ein werkzeug unter vielen und schützt eben nicht vor fehlbelichtung oder falscher motivwahl, im obigen bsp wäre meine erste handlung am set gewesen die scheibe mit nd-folie abzukleben, damit wäre das grösste problem einfach nicht mehr vorhanden gewesen, wäre diese in einem anderen fall nicht möglich gewesen hätte man einen aufheller oder licht benutzen können oder wenn gar nichts von dem geht ein alternatives set suchen.

lg

srone

Space


Antwort von Frank B.:

Das würde ja bedeuten, dass Flat - Recording vom Bild abhängig ist und nur unter ganz ausgewählten Bedingungen ggf. Vorteile mit sich bringt .... Genau das.
Ich schrieb ja auch schon weiter oben:
Kann es sein, dass es hier um unterschiedliche Ansätze zur Erstellung solcher Profile geht? Die wenigsten User solcher Kurven im Videobereich wenden diese doch an, weil sie später auf Film belichten wollen, sondern weil sie eben in bestimmten Situationen ein Bild, wenn nicht retten, dann doch subjektiv ansehnlicher machen wollen. Das macht doch Cine-Syle perse schon unbrauchbar Nicht, wenn man ihn dort anwendet, wo er gebraucht wird. Evtl. müsste er immer neu angepasst werden, aber das können wohl nur ganz wenige. Von daher lässt es sich möglicherweise mit einer solchen Voreinstellung für die meisten leben.

Space


Antwort von WoWu:

Na ja, Frank, wobei das ja nur die Deutung dessen war, was srone geschrieben hat. Es bedeutet ja noch nicht, dass es so ist.

Ich denke, auch in andern Bereichen können sich nicht die erhofften Vorteile wirklich herausbilden, denn an der Problematik kommt man so oder so nicht vorbei.
Zumindest glaube ich, dass es stylischer ist, als wirklich hilfreich und dass die meisten zwar die Kurve übernommen haben, aber gar nicht wirklich die Hintergründe. Und nun munter in 8 Bit "flau" machen und das dann auch entsprechend "stylisch" finden.

Space


Antwort von Axel:

@WoWu
So schön es ist, dass du der einen oder anderen heiligen Kuh in den Hintern trittst, du reagierst hier zu pauschal.

Stimmte das, was du sagst, wäre es müßig oder sogar gefährlich, die eingebackenen styles der Hersteller zu verlassen. Dass das Gegenteil der Fall ist, wissen zu viele hier aus eigener Erfahrung, als dass dir dein kategorisches "unbrauchbar" jemand abkaufte.

Space



Space


Antwort von srone:

weitergehend habe ich auch das gefühl, dass man den sinn und zweck dieser presets entfremdet, in dem man aufgrund der guten lowlight-eigenschaften der vdslrs glaubt man könne ohne zusätzlichen lichtaufwand kinolook drehen, sozusagen anti-dogma für arme, auch ist eine vdslr bei unbestimmbaren daylight-lichtsituationen nicht besser wie jede andere videokamera.

kinolook setzt imo immer bestimmbares licht voraus und genau dafür + dem etwas grösseren spielraum beim matchen oder graden, sind diese presets gemacht, wenn man die situation genau einschätzen kann und weiss was man tut.

sich die presets draufzuladen und zu hoffen jetzt sieht alles nach kino aus ist wohl ein vollkommen vergeblicher versuch.

lg

srone

Space


Antwort von carstenkurz:


Der originale Canon Picture Style hat noch soviel Spielraum, so dass man in der Nachbearbeitung problemlos einen Flat daraus machen kann. Warum sollte man das tun? Und OB ein 'normaler' Picture Style viel Spielraum hat, hängt nicht vom Picture Style sondern von der konkreten Lichtsituation und den Absichten ab. Es geht nicht um mehr Dynamikumfang, sondern um Tonwertkorrekturen in subjektiv entscheidenden Bildbereichen. Und man darf eben nicht den Codec vergessen. Wir zeichnen nicht unkomprimiert auf, ändern sich die Tonwerte im Bild, dann hat das auch im Codec Auswirkungen.

Das Arbeiten mit flachen Profilen KANN keine allgemein gültige technische Verbesserung sein. Wenn es das wäre, würde Canon das gleich einbauen und eine entsprechende Korrektur in die Wiedergabefunktion der Kamera oder in die Metadaten der Dateien einbauen. So funktioniert das aber nicht. Die Kameras liefern von Haus aus alles was geht, davon kann man ruhig ausgehen.

Das ist aber im Zweifelsfall nicht dass, was der 'kreativ arbeitende Videograph' ( hier darf jeder seine persönliche Wertung reininterpretieren) will, und daher greift er dort ein, weil das am Rechner für den typischen Benutzer einfacher und kontrollierbarer möglich ist als OnSet.

- Carsten

Space


Antwort von Frank B.:

Wolfgang, wo Du das schreibst, fallen mir die Zeiten anfangs der 90er Jahre ein. Da hatten Kameras im Amateurbereich oft Bildeffekte eingebaut. U.a. den Posterize Effekt, der durch Reduzierung der Grauabstufungen und des Farbumfangs dem Bild sowas wie einen Pop-Art-Style überbügelte. Das fanden manche Leute damals in ihren Kameras ziemlich cool, zumal es ja auch kaum nonlinieare Nachbearbeitung gab und Bildmischer und Effektgeräte für viele Amateure unerschwinglich waren.
Das Bild war natürlich total zerschossen. Es war halt ein Effekt, ein Style, der damals in Mode war.

Wenn ich Dich richtig verstehe, stellst Du die Cinestyle-Kurven in Tradition zu diesem Effekt. Nicht also als Hilfsmittel zur optimaleren Belichtung, sondern als Effekt, der Banding, bzw. den Posterizeeffekt erzeugt, da in der Aufnahme mit einem Cinestyle die Helligkeitsabstufungen gestaucht und in der Postproduktion wieder auseinander gezogen werden.

Heute sind ja wieder Looks in Mode, die in diese Richtung gehen. Looks, die auf harten Kontrasten, überstrahlenden Lichtern und absaufenden Schatten und verfremdeten Farben beruhen. Im Grunde wahrscheinlich nichts anderes als der damalige Posterize Effekt, nur etwas weniger deutlich ausgeprägt und vorrangig in der Nachbearbeitung erzeugt.

Übrigens hat Powermac gerade sein überarbeitetes Musikvideo veröffentlicht, das m.E. genau diesen Look zeigt.

viewtopic.php?p=538860#538860

Space


Antwort von srone:

ich für mich sehe eher das gegenteil, mir sind in bestimmten situationen die herstellerpresets zu hart, zu kontrastreich, also drehe ich flat und korrigiere es dann selektiv und nicht vollständig zurück um den gewünschten look zu erzeugen, betone hier aber wiederholt, dass man entweder durch vorhergehende tests oder erfahrung genau wissen sollte was man da tut, weil man im zweifel mehr verliert als gewinnt, es sind halt nur 8bit ;-)

lg

srone

Space


Antwort von le.sas:

Allen ML Fans würde ich auf jeden Fall raten,für Record und LV verschiedene Picturestyles zu nehmen (LV Neutral, Rec dann ein flaches) und auf jeden Fall die Zebras anpassen.

Space


Antwort von Axel:

@Frank
Kennzeichnend für das Mißverständnis.

Was alle Consumer an ihren Videos mögen, sind kräftige Farben, Rasiermesserschärfe und starke Kontraste.

Das ist ein oft gefälliger Look, der aus dem Motiv das Äußerste herauskitzelt. Das wäre vergleichbar mit den anderen Bildeffekten (Schwarzweiß, Sepia, Romantisch, Natürlich, Pop-Art), nur, dass es sich dann evtl. "neutral" nennt.

Wenn du deinen Look bei der Nachbearbeitung finden willst - selbst finden willst - und zu diesem Zweck mehrstufige Farbkorrektur anwendest, wirst du feststellen, dass du mit diesem Footage kaum Spielräume hast. Sicher kannst du noch etwas aufhellen, auch noch einen kleinen Stich entfernen, aber darüber hinaus wachsen die Artefakte ins Unübersehbare.

Vorausgesetzt, du hast gut belichtet und keinen übertriebenen Flat benutzt und vorausgesetzt, du weißt überhaupt, was du tust, kannst du dies vermeiden.

Dass es viele Leute gibt, die alleine den Begriff "Cinestyle" cinegeil finden und darum anwenden, ohne zu bedenken, dass es mehr Arbeit und Know-How hinterher bedeutet, ist aber richtig.

Space


Antwort von Frank B.:

betone hier aber wiederholt, dass man entweder durch vorhergehende tests oder erfahrung genau wissen sollte was man da tut, weil man im zweifel mehr verliert als gewinnt, es sind halt nur 8bit ;-) Naja, spätestens nach diesem Thread wissen wir ja, was wir tun, nämlich Dynamikumfang verlieren bzw. einen eingeengten Dynamikumfang wieder strechen, was die Gefahr von Banding erhöht. Und zwar in jedem Fall. Das ist ja schon mal eine nützliche Erkenntnis.

Space


Antwort von Frank B.:

Wenn du deinen Look bei der Nachbearbeitung finden willst - selbst finden willst - und zu diesem Zweck mehrstufige Farbkorrektur anwendest, wirst du feststellen, dass du mit diesem Footage kaum Spielräume hast. Wenn ich Wolfgang richtig verstanden habe, sieht er es genau andersrum. Der Spielraum sinkt mit der Abflachung der Kurve, da weniger Dynamik und Information zur Verfügung stehen.
Vorausgesetzt, du hast gut belichtet und keinen übertriebenen Flat benutzt und vorausgesetzt, du weißt überhaupt, was du tust, kannst du dies vermeiden. Wiederum meint Wolfgang, dass eine gute Belichtung ausreicht. Ein zusätzlicher Cinestyle schadet dem Bild dann eben wieder.

Der Wolfgang ist da knallhart, er scheint kaum einen Millimeter von dieser Meinung abzurücken. ;)

Space


Antwort von srone:

zitat

Wenn ich Wolfgang richtig verstanden habe, sieht er es genau andersrum. Der Spielraum sinkt mit der Abflachung der Kurve, da weniger Dynamik und Information zur Verfügung stehen.

zitat ende

es steht nicht weniger information zur verfügung, nur ist diese anders verteilt und ich kann die information dann besser so verteilen wie ich es will und tue ich das mit bedacht bekomme ich bilder, wie ich sie mit der hersteller vorgabe niemals bekommen würde, selbst wenn die dann nur noch 7bit haben, für mich ist das sichtbare ergebnis das was zählt und nicht die reine technische seite.

lg

srone

Space



Space


Antwort von carstenkurz:

Wenn du deinen Look bei der Nachbearbeitung finden willst - selbst finden willst - und zu diesem Zweck mehrstufige Farbkorrektur anwendest, wirst du feststellen, dass du mit diesem Footage kaum Spielräume hast. Wenn ich Wolfgang richtig verstanden habe, sieht er es genau andersrum. Der Spielraum sinkt mit der Abflachung der Kurve, da weniger Dynamik und Information zur Verfügung stehen.
Beides stimmt. Der Spielraum IN den Ziellook wird größer, der Spielraum AUS dem Quellmaterial wird geringer. Die eine Sichtweise ermöglicht umfangreichere Korrekturen, die andere Sichtweise betont das Risiko zu Tonwertabrissen und ähnlichen Artefakten. Je nach persönlicher Präferenz, und je flacher der Style ist, desto größer wird dieses Risiko - aber weiterhin abhängig vom Bildmaterial. Das übliche Problem mit pauschalen oder nicht situativ angepassten Arbeitsweisen. Je flacher desto besser stimmt halt nicht, wenn diese Diskussion das noch einmal betont, mag das sinnvoll sein.

Flache PictureStyles wegen einiger damit verbundener (potentieller) Nachteile jetzt ebenso pauschal als gefährlich oder sinnlos darzustellen, ist aber genauso verkehrt.

- Carsten

Space


Antwort von Frank B.:

[Je flacher desto besser stimmt halt nicht, wenn diese Diskussion das noch einmal betont, mag das sinnvoll sein. Das Problem für mich ist, dass diese Meinung von niemandem hier vertreten wurde.
Dennoch scheint es bisher kein für alle gültiges Fazit zu geben.

Space


Antwort von Axel:

Der Wolfgang ist da knallhart, er scheint kaum einen Millimeter von dieser Meinung abzurücken. ;) Stelle fest, ob er recht hat.
Dennoch scheint es bisher kein für alle gültiges Fazit zu geben. 1. Suche dir eine Szene.

2. Nimm sie so auf, dass du sie schon im Display/Sucher/externen Monitor fertig siehst.

3. Nimm dasselbe im "G-Log" auf. Achte darauf, dass nichts clippt.

4. Verbessere beide Bilder in der Post, soweit es geht. Benutze ausschließlich 32-bit-fähige Anwendungen, dann bleibt Banding eine hypothetische Gefahr.

5. Vergleiche ...

Vielleicht stellst du fest, dass dir das in-camera-Bild besser gefällt. Dann weißt du das.

Was besagt das? Dass der flat-Workflow nicht dein Ding ist. Nicht weniger, aber aber auch nicht mehr (siehe dirkus).

Space


Antwort von srone:

was erwartest du, einen allgemeingültigen satz der alle glücklich macht,
werde mich daran versuchen.

herauskam wohl folgendes:

abhängig vom bildinhalt, kann ein flatstyle dann vorteile bringen, wenn man von dem herstellerlook gewollt und gekonnt abweichen will. :-)

lg

srone

Space


Antwort von carstenkurz:


Das Problem für mich ist, dass diese Meinung von niemandem hier vertreten wurde. Das mag sein, aber das ist die Meinung, gegen die Dirkus offenbar hier anmoderiert und somit der Auslöser für diesen Thread.
Dass sich u.a. daraufhin und ohnehin berechtigterweise niemand in diesem Thread dazu bekennt, ist ja nicht maßgeblich.

Dass pauschal in eigentlich allen Foren dazu angehalten wird, flach zu arbeiten, ist aber nunmal ein Fakt, auch wenn es dazu immer mal andere Positionen gibt.

- Carsten

Space


Antwort von Frank B.:

@Axel

Das werde ich auf jeden Fall mal so machen. Das hatte ich mir übrigens schon vor Deinem Posting vorgenommen ;)
was erwartest du, einen allgemeingültigen satz der alle glücklich macht, werde mich daran versuchen.

herauskam wohl folgendes:

abhängig vom bildinhalt, kann ein flatstyle dann vorteile bringen, wenn man von dem herstellerlook gewollt und gekonnt abweichen will. :-) Wäre das wirklich ein Fazit, das alle unterschreiben können? Vor allem Wolfgangs Unterschrift wäre mir hier wichtig.

Space


Antwort von Frank B.:

Das Problem für mich ist, dass diese Meinung von niemandem hier vertreten wurde. Das mag sein, aber das ist die Meinung, gegen die Dirkus offenbar hier anmoderiert und somit der Auslöser für diesen Thread. Dirkus moderiert m.E. nicht gegen die Aussage an, dass es besser wird, je flacher die Kurve im Flatprofile ist, sondern gegen deren Sinn im allgemeinen.

Space


Antwort von domain:

Abhängig vom Bildinhalt, kann ein Flatstyle dann Vorteile bringen, wenn man von dem Herstellerlook gewollt und gekonnt abweichen will. Das ist eine Aussage, die ich voll unterschreiben würde. Meine etwas flacheren XF100 Profile hatte ich ja in Hinblick auf die meist sofort erkennbaren Amateurvideos im TV erstellt, ihr wisst schon die mit dem eingeblendeten Rahmen und dem blinkenden Record- Lichtlein. Was fällt einem bei diesen in der Regel sofort auf: die häufig überzogenen Kontraste und ein abnormal starkes Cipping in den Lichtern.
Die Praxis mit der XF100 in der Tschechei und in Ostdeutschland im heurigen Sommer und mit genereller -1/3 Blende Belichtungskorrektur hat allerdings bei keiner einzigen Aufnahme ein flacheres Profil erfordert.
Die allgemeine Verwendung derartiger Profile halte ich für einen ziemlichen Unsinn, es muss im Bild eindeutige Spitzlichter geben, sonst wirkt es stumpf, nur großflächig sollten sie halt nicht sein.

Space


Antwort von WoWu:

Ich hab nun versucht, einmal den Thread zu verfolgen, aber so richtig klar sind mir die einzelnen Standpunkte nicht geworden.
Axel sagte, etwas vorwurfsvoll, ich würde von meinem Standpunkt nicht zurück weichen .... Axel, das wäre auch schlimm, weil das bedeuten würde, dass ich mich damit offenbar doch nicht ausreichend beschäftigt hätte. Hab ich aber. Und es wäre ebenso leicht zu sagen, "flat ist das Grösste in der Welt", wenn ich nicht vom Gegenteil überzeugt wäre.
Es ist ja möglich, dass man Flat (oder sagen wir genauer "flau") als geschmacklich angenehm ansieht, man solle das aber nicht mit der Bezeichnung CINE ausschmücken und dem Ganzen damit einen elitären Anstrich zu geben.
Das was in 8 Bit als Flat bezeichnet wird, hat mit Cine nichts, aber auch gar nichts zu tun.
Und wenn Frank ein G-Log programmiert, dann gehe ich davon aus, dass er auch die Reverse-Kurve programmiert hat und ggf. auch die Verbindungsglieder zum S- und C-Log, um aus der FS100 die beste Möglichkeit zu ziehen, ggf. auch auszubelichten.
Natürlich geht das und wäre eine bestmögliche Variante von 8Bit irgendwie nach Cine zu kommen.
Das heisst aber, dass der Weg verstanden wurde.
Wer aber jetzt hergeht und am G-Log rumkurbelt, bis er dann wider ein 709 Bild hat, denn das ist auch das Ziel von S-Log zum Projektor oder nach C-Log über den Ausbelichter zum Projektor, der hat wirklich nicht begriffen, was er da eigentlich tut.
Also G-Log ist in Verbindung mit den angeflanschten Kurven für mich ein Ersatz, um FS100 auszubelichten.
Es ist also, wie S und C Log auch, eine gerätespezifische Vorentzerren und war niemals als Grading Vorlage gedacht (das setze ich mal voraus).

Gegen den Eingriff in Kennlinien ist ansonsten nichts einzuwenden, bewirkt aber immer nur an einer Stelle etwas und schadet an einer andern Stelle, ist also Geschmacksache. Diesen Eingriff kann man auf die verschiedensten Arten machen, er wird aber in niemals eine ähnliche Wirkung erzielen, wie S und C Log (und die Derivate).
Es gibt nur einen Punkt festzuhalten .... das Ziel ist immer die menschliche Sehkurve .... Cine-Logs erreichen die feine Gradation über mehr Inhalt.
Und da können Hersteller sagen was sie wollen und über ihre Flat-Kurven ebenso und sie als noch so wirkungsvoll anpreisen .... sie machen nicht annähernd das, was die Log-Kurven machen und wofür sie da sind.

Space


Antwort von dirkus:

Nein, ich möchte nicht sagen das diese Styles generell sinnlos sind, aber der Thread kann hoffentlich ein wenig zur Entmystifizierung des Themas beitragen.

Das ich hier keine wissenschaftliche Untermauerung betreibe, ist mir klar - dafür fehlen mir die Mittel und die Erfahrung. Aber meine eigenen Erfahrungen mit den gebrachten Beispielen sollten im Zusammenhang mit den vielen Informationen, die die anderen hier beigetragen haben, ausreichen, um sich eine objektive Meinung zu bilden. Das ein Profi sowieso zunächstmal an gute Ausleuchtung und Einrichtung des Sets denken muss, sollte für jeden klar sein. Das ganze hier richtet sich aber wohl in erster Linie an die nicht Profis, die vielleicht nicht immer alles so perfekt bedacht haben...und für die ist es vielleicht wichtig, zu erfahren, ob so ein Flat ihnen tatsächlich etwas bringt, oder ob es sich nur um spiellerei handelt, die bestenfalls das eigene Ego aufpoliert bzw sogar die Gefahr des Verlustes von Qualität mit sich bringt.

Meine vorläufige Zusammenfassung von Flat- Picturestyles (Betrifft hier nur die verwendete Kamera!)

Pro:
+ Man sieht auf dem Kameradisplay sofort den gesamten Dynamikumfang des aufgezeichneten Bildes und kann dementsprechend kritische Situationen besser vermeiden bzw durch Ausleuchtung entgegenwirken.

+ Veringerung des Arbeitsaufandes beim nachträglichen Colorieren oder verändern des Looks (gilt aber nur bei korrekt belichteten Aufnahmen)

Kontra:
- Dynamikumfang vergrössert sich nicht und es gibt auch keine zusätzlichen Bildinformationen zur Verarbeitung. (Der Mythos eines Mehrwerts in Form von einer zusätzlichen Blende ist für mich jedenfalls nicht erkennbar und von WoWu ja auch nochmal bestätigt worden)

- Es drohen bei nicht gut ausgeleuchteten Situationen Tonwertabrisse, Banding und unnatürlich ausbrennende Highlights.

- Unbedacht gemachte Aufnahmen können viel schneller komplett unbrauchbar werden. (Der Standard Preset verzeiht einem schonmal den ein oder anderen Fehler bzw führt nicht gleich zum Totalverlust)

- sämtliche Ergebnisse lassen sich auch aus dem Standard Preset erzeugen.

- Erfahrung im Umgang bei der Aufzeichnung und Bearbeitung nötig (wer nicht weiss, was er tut, bekommt meisst schlechtere Ergebnisse, als mit den Standard Presets)


Das sind jedenfalls für mich die bis hier wichtigsten Erkenntnisse. Es muss aber jeder selbst entscheiden, ob er es braucht oder nicht und ob seine Aufnahmen danach "besser aussehen".

Space


Antwort von Frank B.:

Axel sagte, etwas vorwurfsvoll, ich würde von meinem Standpunkt nicht zurück weichen .... Ich glaube, Du meinst mich, nicht Axel. Ich hatte das oben mit einem Augenzwinkern versehen gesagt, um Deine Hartnäckigkeit in der Ablehnung von Flatstyles im 8-Bit Bereich zu unterstreichen.



Übrigens hat Frank Glencairn ja selbst über die Intension seiner G-Log Kurve auf meine Anfrage hin geantwortet:

viewtopic.php?p=537618#537618

Space


Antwort von WoWu:

Alles klar, Frank.

Axel: no offense. :-))

Danke für den Link, Frank aber dann hatte ich unter G-Log doch etwas anderes verstanden. Es ist so schade, dass man sich nicht einmal mehr auf so eine Begrifflichkeit einigen kann und solche Bezeichnungen immer gleich ge-hijacked werden.
Es ist eben auch schade, dass solche Kurven nie mit halbwegs fundierten Methoden gemessen und auch nicht mit den Werten hinterlegt werden.
Das ist dann nämlich der Nährboden für Phantasien.
Dann fehlt eben nur noch der Guru, der das in seiner Weihnachtspredigt absegnet und dann sehen auch alle Anwender, was sie sehen sollen.
Das ist eine völlig abgedrehte Welt.

Space


Antwort von Jörg:

falls mal Zeit ist, Wolfgang....
Carstenkurz hat hier am So 08 Jan, 2012 15:15 einen ganz bedeutenden Beitrag geschrieben, in dem er dargelegt hat, WAS in seinem Sinne "flat settings" sind.
Das ist meilenweit von der Diskussion entfernt, die hier um die Katastrophenbilder des Threadstarters ( da hat BdK ja schon drauf hingewiesen) entbrannt ist.
Wie man mit solchen Bildern ein flatsetting ad absurdum führen will, werde ich nie verstehen.

Carsten hat ganz genau definiert, WARUM man die settings seiner cam in Richtung flach trimmen sollte, und ich sehe das ganz genau so.
Vollkommen jenseits jedes "cinelook" oder "kaputtgradingshype"
Dafür haben die cams die Möglichkeiten, in die Signalwege einzugreifen, ein "Allerfertig" preset hat eh jeder auf der Karte, für die schnellen Dinge des
Lebens

Wenn mal Zeit ist Wolfgang, lies mal nach, was Carsten da geschrieben hat, und sag mal bitte was dazu.

Space


Antwort von WoWu:

Wo finde ich denn das ?

Space


Antwort von dirkus:

Wo finde ich denn das ? Er meinte den Beitrag von Carstenkurz hier auf Seite 2 von 15:15

Space


Antwort von domain:

das glaube ich nicht, das sich die eingangsdynamic erhöhen lässt, da die knee einstellungen ja auch nur post sensor berechnet werden, auf basis des ja schon digitalisierten signals. Das ist richtig. Nur vom Sensor kommen mehr als die 8 Bit raus, in die Bildberechnung können also auch mehr Kontrastumfangsdaten einfließen. Bei der Canon XHA1 war es ungefähr eine halbe Blende, bei der EX1/3 knapp eine Blende die so mit einem geeigneten PP gewonnen werden konnten.
Aber das Bild muss dadurch nicht unbedingt besser werden (sonst würde der Hersteller der Kameras dies gleich fest verdrahten). Es ist ein Problem bei den PPs den höheren Kontrastumfang auch in das 8bit Signal zu intrigieren ohne das des hässliche Nebeneffekte (Banding, stumpfes Bild, Rauschen, usw.) gibt. Aus meiner Sicht ist das eines der wichtigsten Postings hier und Ruessel hat sich weiß Gott lange genug mit der in meinen Augen etwas verfehlten Canon-Strategie der maximal möglichen persönlichen Einstellungen einer Cam beschäftigt. Kann zu ziemlichem Chaos führen und für Profis uninteressant, weil sie gar keine Zeit dafür haben. Da muss sich dann einer opfern, um mit Mühe ein oder mehrere gescheite Presets zu entwickeln, die dann einheitlich weltweit gelobt und verwendet werden.
Doch alles ein ziemlicher Witz und ein Marketing-Gag von Canon gegenüber der Konkurrenz.

Space


Antwort von WoWu:

@ Jörg

Ich habe mit das Posting noch einmal durchgelesen. Carsten führt viele Dinge auf, die ich sofort unterschreiben würde, wenn wir über RAW reden würden. Tun wir aber nicht !
Wir reden über ein gänzlich abgeschlossenes 8Bit System.
Beispiel: Der im Still-Mode nebenher noch erweiterte Dynamikumfang ist sicher ein wichtiger, aber nicht DER wichtigste Aspekt dabei, denn in den allermeisten Fällen geht es auch dabei nur um eine subjektiv bessere Steuerbarkeit der Konvertierung in einen 8Bit Quantisierungsraum. Er redet von einer steuerbaren Konvertierung in einen 8 Bit Quantisierungsraum !
Typisch für RAW, (und Cinema) wo man in einem 10/12/14 Bitraum ist.
Sind wir aber nicht wir sind bereits in einem 8 Bit Raum. Die signaltechnischen und ästhetischen Vorgaben der kamereigenen Bildbewertung kommen von Canon, das ist deren eigenes KnowHow, und die Parameter dieser Bewertung lassen sich in einigen, verhältnismäßig einfachen Aspekten vom Benutzer verändern.
Aber auch wenn diese Bildbewertung und das 'kamera-eigene Grading' ein technischer Prozess ist, sind darin subjektive Bildbewertungskriterien enthalten.
Das ist sozusagen der über Jahrzehnte gesammelte bildästhetische Geschmack der Canon Ingenieure, oder welche Firma auch immer dahinter steckt.
Auch hier wieder:
Die farbliche Gebung wird in den De Mosaik Algorithmen festgelegt, die, wenn die Sensortasten RAW ausgegeben werden, im extra Rechnersystem neu angelegt oder gewichtet werden können.
Können wir aber in einem geschlossenen 8 Bit System nicht. An die De-Mosaickalgorithmen ist kein Rankommen und damit auch keine Änderung möglich. Mit flachen Picturestyles greift man insofern in diese Bearbeitung ein Das stimmt nicht, bestenfalls in die Wertetabelle der digitalen Übertragung. Damit ändere ich aber keine einzige Farbe. Niemand, der diesen Zusammenhang versteht hat je behauptet, dadurch ließe sich der Dynamikumfang einer Kamera vergrößern, und natürlich hat ein solches Vorgehen auch ggfs. ungewollte Nebenwirkungen. Warum nennt er sie nicht ? Sie könnten ja wichtig sein in einer Gesamtbewertung. Dass sich diese Vorgehensweise bei VDSLRs so durchgesetzt hat, hat div. Gründe die bereits angesprochen wurden. Da hat sich bestenfalls bei der Fotographie etwas durchgesetzt. Im Video wäre mir das neu. Wo man früher schlicht falsch belichtete und nicht mehr zu rettende Dias gehabt hätte, wäre mit Negativmaterial und entsprechender Verarbeitungskette (Operator und Printer KnowHow) eben mehr zu retten gewesen. Wieder nur bei RAW !
Es gibt bei 8 Bit Camcordern diese Strecke nicht und man kann in einer flachen Kurve den Sensor ebenso Überbelichten.
Da vorne greift noch gar keine Kurve !
Das ging auch bei Negativmaterial nicht immer ohne unangenehme Nebeneffekte - Farbkippen, Rauschen, aber das Resultat wurde damals wie heute subjektiv beurteilt besser, weil es eben maßgebliche Bilddetails retten konnte und gleichzeitig Manipulierbarkeit sicherte. Alles aus der Abteilung RAW. (In der chemischen Fotografie gibt es ausserdem andere Tools -- ist also eigentlich irrelevant) Der schon früher erwähnte Modetrend 'entsättigte Farben' ist ein weiterer unterstützender Aspekt dabei.

Daneben gibt es auch mehr oder weniger technische, z.B. bei der Zurücknahme der kamerinternen Schärfung, die bei den Canons sonst gerne unkontrolliert zu den üblen Aliasing-Effekten führt. Die wird man später eben wieder schwerer los und daher ist es besser, soft aufzunehmen und ggfs. gezielter nachzuschärfen.
Das alles hat Nebenwirkungen, aber die sind nicht zwangsläufig ein Grund, darauf zu verzichten.
Aus dem Rest kann ich inhaltlich keinen "Nährwert" ableiten und ist eigentlich nur noch mal Schlussplädoyer.

Wie gesagt, ich bin gänzlich in Bezug auf RAW bei Ihm, aber das ist eine andere Veranstaltung und hat quasi keinen verwertbaren Bezug auf ein geschlossneres 8 Bit System. Denn darin trifft kein einziges Argument zu.

Space


Antwort von Jörg:

dank dir für die Zeit,
ich verstehe dann diesen Beitrag hier offensichtlich nicht, hinsichtlich der
gesamten Aussage.

Space


Antwort von WoWu:

Der TO hat in seine Kamera eine Flachkurve eingeladen und nicht die erhofften Ergebnisse erzielt.

Dann ging die Diskussion um flat-log Kurven, wie z.B. S-Log oder C-Log.

Diese Art von Kurven sind aber nicht nur unter ganz anderen Rahmenbedingungen anzuwenden sondern auch für eine ganz andere Zielvorgabe.

Das haben (nach meiner Auffassung) viele 8Bit-Systemanwender entweder noch nicht verstanden oder ignorieren es und sehen in einer leicht entsättigten Wiedergabe das Ziel ihrer Träume .... das hätten sie aber auch schneller haben können.
Einen realen Vorteil gibt es nur da, wo man den realen Nachteil ignoriert.

Space


Antwort von domain:

Ich empfinde die Ausführungen von Carsten im Prinzip schon richtig allerdings unter zwei Voraussetzungen:

1. Das gezielte Einsetzen von Knee und Blackstretch entspricht einer allgemeinen wenn auch nichtlinearen Verflachung des Gesamtprofils (bei den VDSLRs aber anscheinend nicht möglich)

2. Die flacheren Profile der Canon DSLRs ergeben mindestens genau das, was Ruessel gemessen hat, nämlich 1/2 Blende mehr Dynamikumfang bei der XH-A1 und eine ganze Blende bei der EX1/3.

Wenn Punkt 2 nicht zutreffen sollte, dann kann man m.E. die flacheren Profile der Canon DSLRs überhaupt vergessen.

Space


Antwort von WoWu:

Mit Empfinden hat das wenig zu tun ... die Aussagen stimmen nur für ein RAW System, denn zeig mir, wo Du in einer EX1 oder jeder beliebigen andern 8Bit Mühle in die Farbgestaltung eingreifen kannst.
Erklär mir, wo du innerhalb eines geschlossenen Bitraums die Vorteile einer Umquantifizierung nutzen kannst usw. usw.
Also, mit empfinden hat das nix zu tun .... es geht einfach nicht.
Und wenn Du irgendwo bei einem 8Bit System eine halbe Blende gewinnst, verlierst Du sie an einer andern Stelle.
Mag ja nun sein, dass einem die gewonnene Stelle wichtiger ist, aber es ist kein Gewinn.
den hast Du nur, wenn Du mehr übertragen kannst, wie eben in den C-Log Geschichten.
Geht aber hier nicht. Es sei denn, Du brichst in den Raum ober/unter halb von 709 ein.

Space


Antwort von domain:

Mit Farbgestaltung hat das m.M. nix zu tun. Es geht nur darum, dass du die Annahme eines definierten und geschlossenen 709 Farbraumes durch das NLE kameraseitig bewusst umgehen kannst, also z.B. durch die Erweiterung der Eingangsdynamik, allerdings mit dem Nachteil ungleichmäßiger Abstufungen der Grautöne.

Space


Antwort von WoWu:

Doch, Carsten hat explizit darin u.A. die Vorteile gesehen ... nun kannst Du doch nicht sagen, es stimmt, was er sagt, aber damit hat das nichts zu tun ??

Und wenn Du den 709 umgehst, kannst Du das zwar machen, aber darfst Dich mit dem Signal dann ausser auf deinem Heimfernseher nirgendwo mehr sehen lassen.
Und spätestens, wenn Du zurück willst, richtest Du noch grösseren Schaden an, weil der Farbraum von-128 bis +128 verlauft und Du den ganzen Mist dann stauchst. Deine Farben sehen dann entsprechend aus.

Das ist aber keine Rahmenbedingung, die wir hier erörtert haben.

Space


Antwort von srone:

Gegen den Eingriff in Kennlinien ist ansonsten nichts einzuwenden, bewirkt aber immer nur an einer Stelle etwas und schadet an einer andern Stelle, ist also Geschmacksache. sowie
Also, mit empfinden hat das nix zu tun .... es geht einfach nicht.
Und wenn Du irgendwo bei einem 8Bit System eine halbe Blende gewinnst, verlierst Du sie an einer andern Stelle.
Mag ja nun sein, dass einem die gewonnene Stelle wichtiger ist, aber es ist kein Gewinn. genau um diese geschmackssache geht es ;-)
Diesen Eingriff kann man auf die verschiedensten Arten machen, er wird aber in niemals eine ähnliche Wirkung erzielen, wie S und C Log (und die Derivate). soll bzw kann es auch nicht. wowu versteif dich nicht auf diesen hochtechnischen vergleich, es geht nur darum, dem eigenen subjektiven bildgeschmack ein wenig näher zu kommen, abseits jeglicher herstellervorgabe und sei selbige auch noch so technisch korrekt.
frei nach dem motto lieber subjektiv gutaussehende 7 bit als technisch korrekte 8 bit, die meinen geschmack nicht treffen.

lg

srone

Space


Antwort von WoWu:

Nein, es geht darum, dass aus der Cine-Welt nicht nur die Begriffe adaptiert worden sind, sondern auch noch die Suggestion derselben Wirkung obwohl die nachweislich bessere Wirkung nicht mal im Ansatz übertragbar ist.

Wir können uns (in einem andern Thread) darüber streiten, ob es geschmacklich besser ist, das Gamma aus dem Signal zu drehen oder die ganz Kurve zu verbiegen und ich wette, 95% der hier Mitlesenden sehen keinen Unterschied.

Es geht also nicht um Geschmack sondern um konkrete Bemängelungen des TO.

Space


Antwort von srone:

Nein, es geht darum, dass aus der Cine-Welt nicht nur die Begriffe adaptiert worden sind, sondern auch noch die Suggestion derselben Wirkung obwohl die nachweislich bessere Wirkung nicht mal im Ansatz übertragbar ist. darüber sind wir uns wohl einig.
Wir können uns (in einem andern Thread) darüber streiten, ob es geschmacklich besser ist, das Gamma aus dem Signal zu drehen oder die ganz Kurve zu verbiegen und ich wette, 95% der hier Mitlesenden sehen keinen Unterschied. gerne, aber auch hier stimme ich dir unumwunden zu.
Es geht also nicht um Geschmack sondern um konkrete Bemängelungen des TO. aber hier hake ich ein, da der to mit seiner fehlerbeschreibung sicherlich recht hat, diesen fehler jedoch aufgrund einer "fehlanwendung" eines flatprofiles erzeugt hat.

doppelfehler? ;-)

lg

srone

Space


Antwort von domain:

Die konkrete Bemängelung von Dirkus an den flachen und mit tollen suggerierenden Namen versehenen Bluff-Profilen der Canon DSLRs erscheint natürlich als überaus plausibel, falls mit ihnen keine Erhöhung der Eingangsdynamik verbunden wäre.
Ansonsten verstehe WoWu aber nicht vollends. 95% der Zuseher können sehr wohl ausgefressene Lichter einer Pana SD 909 oder einer HX9V von weichen Bildern einer an sich schon weich arbeitenden Profi-Kamera unterscheiden, spezielll wenn der Kameramann im Bedarfsfall noch Knee und Blackstrech einsetzte. Nach WoWu ist das ja alles Blödsinn, es gibt nur eine vordefinierte Gammakurve mit der alle Kameras von der Aiptek bis zur Alexa hinsichtlich der Gradation standardisiert über einen Kamm geschoren werden müssen.
Also mit Sicherheit habe ich WoWu missverstanden, weil so rigide kann es im 709-Raum wohl nicht zugehen ;-)

Space


Antwort von srone:

Die konkrete Bemängelung von Dirkus an den flachen und mit tollen suggerierenden Namen versehenen Bluff-Profilen der Canon DSLRs erscheint natürlich als überaus plausibel, falls mit ihnen keine Erhöhung der Eingangsdynamik verbunden wäre. eine bemängelung, welche auf einem "fehlerhaften" einsatz eines flatprofiles beruht?

zitat dirkus

"Aus dem Flat kann man dagegen nichts mehr rausholen. Der milchige Brei in den Tiefen lässt sich nicht weiter anheben...."

hier wurde mir klar, daß der to gar nicht auf die idee kam, daß man ein flatprofile ja auch gegenkorrigieren muss, hier wäre es um absenken und nicht um anheben gegangen.

lg

srone

Space


Antwort von domain:

Ja das stimmt schon. Dirkus versucht, seine Theorie durch ziemlich ungewöhnliche und falsche Ausgangsbedingungen und noch falschere Nachbearbeitungen in seinem Sinne zu untermauern und zu beweisen. So gehts sicher nicht.
Es ist aber lustig, dass er genauso, wie allgemein in der Wissenschaft seine Experimente so gestaltet, dass genau das herauskommt, was er von vorneherein wollte.
Was sagte Sir Carl Popper einst, verspeise zum Frühstück immer deine Theorien vom Vorabend ....

Space


Antwort von WoWu:

Stimmt Domain.
Meine Aussage war, dass 95% nicht unterscheiden zwischen einer gedrehten (abgeflachten) Gammakurve und dem Offset einer Standardkurve.
Wenn erst mal die abgeflachte Kurve auch noch zu Ausrissen führt, dann ganz sicher. Aber dann kannst Du den Fernseher gleich ganz ausschalten.

@srone
Nimm Dir doch nochmal die ersten Postings vor.
Da hat der TO bemängelt, dass C-Log zu mistigen Ergebnissen führt und die Verfechter der Cinema-eigenen-Gammkurven haben nichts anderes zu tun, als ihn als Blödmann hinzustellen, der seine Kamera nicht richtig einstellen kann und haben völlig ausseracht gelassen, dass ihre geliebten Cinema Tool in der beschrieben Umgebung auch mal was Anderes als erwartet zeigen können.
Und es ist bei dem Lampenbeispiel gar nicht zu vermeiden. Je flacher Du die Kurve legst umso mehr Lumen werden pro Quantisierungsschritt übertragen.
Damit hast Du dann diese dicken Sprünge.
Und wenn Du nun sagst ... so, wie es aussieht, gefalle es Dir aber besser, dann mag das ja so sein und ich kann Dich dann nur zu deinem guten Geschmack beglückwünschen, aber der Beitrag ist dann jenseits eines Sachbezuges.

Wir haben uns übrigens im Umfeld von Ausbelichtungen auch kreuz und quer mit den flachen Kurven beschädigt und auch geschaut, ob man statt Reverse Kurve durch Nachgrading bessere Ergebnisse erzielt.
Wir haben unterschiedliche Verfahren bemüht, immer mit dem Ziel, ggf. doch noch irgend eine Methode zu finden, auch noch das letzte Quäntchen irgendwo heraus zu quetschen .... aber immer kam irgendwo der Einwand ... schit... schau mal da .... und dann war es wieder eine Abwägung.
Und es hat bei uns auch etliche Monate gedauert, bis auch der letzte Verfechter solcher handgestrickten Methoden das Handtuch geworfen hat.
Es ist also nicht so, dass wir Dinge kategorisch ablehnen, speziell wenn eine Menge "Kohle" auf dem Spiel steht.
Und wenn wir ideale Methoden gefunden hätten, würden wir sie nicht nur selbst einsetzen, sondern auch kein Hehl daraus machen.
Kann ja immer mal sein. Iss aber nicht.
Manche Dinge sehen vermeintlich angenehmer aus, bergen aber andere Tücken.
Und im Umfeld von 8 Bit geht fast gar nichts ohne andere Einbussen. das System ist einfach zu geschlossen, um Variationen effektiv umzusetzen. Und erst recht keine objektiven Verbesserungen, weil man auch an die Sensordaten gar nicht kommt, wo sich noch eine Verbesserung verbergen würde.

Also, wie gesagt ... Geschmack gern, aber dann darf man nicht mehr so genau hinsehen, sondern muss das unbunte Bild einfach auf sich wirken lassen .... und eine gute Flasche Wein neben sich stehen haben.
Danach sehen auch 8 Bit "flau" fabelhaft aus.

Space


Antwort von dirkus:

Ich habe im nächsten VideoClip mal mit beiden Picturestyles ein Grading gemacht.

zum Bild




Ich muss zugeben, der Cine Style lässt sich bei richtiger Belichtung besser bearbeiten.

Space


Antwort von srone:

Also, wie gesagt ... Geschmack gern, aber dann darf man nicht mehr so genau hinsehen, sondern muss das unbunte Bild einfach auf sich wirken lassen .... und eine gute Flasche Wein neben sich stehen haben.
Danach sehen auch 8 Bit "flau" fabelhaft aus. ein gutes glas steht neben mir ;-)

was ich jedoch immer noch nicht ganz verstehe, du redest immer von einem flauen bild, ja das ist das aufgenommene, aber doch keinesfalls mein endprodukt, mir kommt es auf dieses selektive und in seiner intensität nicht ganz vollständige rückkorrigieren an, um das bild meinen vorstellungen anzugleichen, das ergebnis ist sicher etwas flauer als die meist überhöhten herstellersettings, aber ganz gewiss nicht flau.

lg

srone

Space


Antwort von WoWu:

@ Dirkus
Wenn Du immer gleich das Messergebnis mit ins Bild bringst, kann man die Unterschiede auch bewerten, so ist nicht deutlich, worin sie sich unterscheiden.

Aber wenn Du zufrieden bist, dann hat sich der Thread wohl erledigt.
Edit:
Nein, das stimmt, denn zu jeder Log Kurve gehört die entsprechende Reverse Kurve, die es wieder nach 709 bringt und das Offset ist das Grading.
Macht nur keiner. Da werden Log Kurven aufgelegt und dann wird vom Bodensatz an versucht zu graden und meistens in der Region "Flau" aufgehört und das als "filmisch" verkauft.
Frag doch mal hier in der Runde, ob jemals jemand mit einer Reverse Kurve gearbeitet hat ?

Space


Antwort von handiro:

und da beschweren sich hier welche über den Ton im Forum.....

Ich fands nur spannend und lehrreich!

Space


Antwort von srone:

Ich habe im nächsten VideoClip mal mit beiden Picturestyles ein Grading gemacht.
Ich muss zugeben, der Cine Style lässt sich bei richtiger Belichtung besser bearbeiten. und nur darum geht es ;-)

lg

srone

Space


Antwort von dirkus:


und nur darum geht es ;-)

lg

srone Nee, die Risiken bleiben trotzdem...wie man an den total verhunzten Aufnahmen vom Anfang, wenn man keine richtige Lichtsetzung machen kann, sehen kann.

Space


Antwort von srone:

Nein, das stimmt, denn zu jeder Log Kurve gehört die entsprechende Reverse Kurve, die es wieder nach 709 bringt und das Offset ist das Grading.
Macht nur keiner. ausser mir ;-)

lg

srone

Space


Antwort von WoWu:

und da beschweren sich hier welche über den Ton im Forum.....

Ich fands nur spannend und lehrreich! Es ist immer eine Frage, wer diskutiert und ob "Partisanen" dabei sind.
(Hier würde man Paramilitärs sagen)
Ich sag jetzt gute Nacht an die Runde.

Space


Antwort von srone:


Nee, die Risiken bleiben trotzdem...wie man an den total verhunzten Aufnahmen vom Anfang, wenn man keine richtige Lichtsetzung machen kann, sehen kann. deswegen schrieb ich ja die ganze zeit, daß die zu anfang von dir gewählte ausgangssituation nicht flatstyle- tauglich ist.

@wowu

angenehme nachtruhe.

lg

srone

Space


Antwort von dirkus:

@ Dirkus
Wenn Du immer gleich das Messergebnis mit ins Bild bringst, kann man die Unterschiede auch bewerten, so ist nicht deutlich, worin sie sich unterscheiden.

Aber wenn Du zufrieden bist, dann hat sich der Thread wohl erledigt. Naja, die Eingangs erwähnten Probleme (Clipping usw) bleiben. Ich hatte ja von vornherein gesagt, dass sich unter "idealen Bedingungen" die Arbeit damit etwas vereinfacht, weil ein paar Arbeitsschritte wegfallen können.

Unter nicht so idealen Bedingungen kann man aber auch viel kapputt machen, weil der Spielraum sehr begrenzt ist.

Man muss halt abwägen, ob man es riskieren möchte, komplett mit Flat zu arbeiten. Ein Video habe ich so bereits erfolgreich versaut;-)

Ebenfalls Gute Nacht in die Runde:-)

Space


Antwort von srone:

@ dirkus

auch dir eine angenehme nachtruhe.

lg

srone

Space


Antwort von handiro:

Könnte man zusammenfassend sagen: bei flat style in 8 bit Kameras ist Überbelichtung das Ende der Banane?

Wenn man eher unterbelichtet kann man mit flat style besser arbeiten?
Abgesehen von der Stil-und Geschmacksfrage natürlich....

Space


Antwort von srone:

Könnte man zusammenfassend sagen: bei flat style in 8 bit Kameras ist Überbelichtung das Ende der Banane? das ist es ja auch ohne flatstyle.
Wenn man eher unterbelichtet kann man mit flat style besser arbeiten? wenn du sorgsames und moderates unterbelichten als ein schützen der lichter siehst, ja.
ganz allgemein sollte man jedoch auch mit einem flatstyle so genau wie möglich belichten.

lg

srone

Space


Antwort von Axel:

Könnte man zusammenfassend sagen: bei flat style in 8 bit Kameras ist Überbelichtung das Ende der Banane?

Wenn man eher unterbelichtet kann man mit flat style besser arbeiten?
Abgesehen von der Stil-und Geschmacksfrage natürlich.... Wenn du eine Kamera aus der OVP nimmst und damit zu filmen beginnst, hast du wahrscheinlich Einstellungen, die der Hersteller für optimal hält (einer meiner Vorposter hat es gut erklärt). Sie sind in der Regel "Standard" und haben damit keinen auf Anhieb benennbaren Stil. Aber sie werden ein relativ gesättigtes, aufgesteiltes und kontrastiges Bild zeigen, weil du so etwas (zu Recht) für in gutes Bild hältst und trotzdem für "die Realität an sich".

Wie niemand bestreiten kann, verträgt auch die beste Automatik noch ein bisschen Nachhilfe. Aber das ist mit diesem Stil in der Regel kein Problem. Überbelichten darfst du aber nicht, es sei denn, es ist dir egal, wenn das Weiß des Himmels sich mit Abbruchkanten in die Konturen frisst oder eine Reihe von ähnlichen sehr "realistischen" Hinweisen auf die Grenzen der real verwendeten Technik.

Es wird oft gesagt, dass man Werte wie Schärfe, Sättigung und Kontrast usw. etwas runterregeln soll, weil man sonst sehr leicht Artefakte bekommt. Man bekommt sie teilweise schon - je nach verwendeter Kamera - ohne Grading, in Form von verpixelten Kanten, Posterisierung bei Farbgrenzen oder Banding bei Verläufen. Es ist also - hoffentlich - unstrittig, dass ein maßvoller "Standard" ratsam ist. So sollte man es auch halten, wenn man an kreativer Nachbearbeitung überhaupt nicht interessiert ist. Aber auch, wenn man kräftig graden will, reicht ein Standard-Style unter Umständen:



Thema des Threads ist nicht dies, sondern die Frage, ob über die vernünftige Verwendung der Standard-Settings hinaus die gehypten flat-styles etwas bringen. Allgemein sicherlich nicht. Aber wir reden hier über nicht allgemeine, sondern spezielle Anforderungen. Genieße hier das freundlich klingende Portugiesisch oder scratche gleich vor auf 3 Minuten, wo zu sehen ist, wozu man flat brauchen kann: Durch LDR zu HDR:



Was dirkus in seinem day-for-night Badezimmer gemacht hat, ist nicht Sinn eines Flatstyles. Wenn man versucht, eine Nachtszene mit beiden Settings in der Post auf ähnliche Kontraste zu bringen (siehe Attachment), kommt man trotzdem mit flat zu mehr Gradation (bzw. scheint es so).

Space


Antwort von domain:

Stimmt Domain.
Meine Aussage war, dass 95% nicht unterscheiden zwischen einer gedrehten (abgeflachten) Gammakurve und dem Offset einer Standardkurve. Wenn ich dich richtig verstehe, dann arbeiten div. DSLRs mit einer im Nachinein (aber schon noch in der Kamera) veränderten, aber original fixen Standardkurve.
Jetzt verstehe ich deine Bedenken erst so richtig und auch den Unterschied zu den schon primär wirksamen Einstellungen wie Knee und Blackstretch.
In dem Fall kann man die ganzen getürkten FLAT-Gamma-Kurven natürlich vergessen, da gibt es nur eines: wenn einem dieser Stil gefällt, dann normal aufnehmen und die flachere Gradation erst in der Post herbeiführen, alles andere ist ja sinnlos.

Space


Antwort von Axel:

@domain
Bei Flat geht es nicht um einen kontrastarmen Look (den man in der Post ohnehin nur durch Verschenken von Gradation erreichen könnte), es geht darum, in Bereichen Zeichnung zu gewinnen, die mit dem zu steilen Standardstyle normalerweise ausdünnen. Was kann daran noch unklar geblieben sein?

Space


Antwort von WoWu:

Zeichnung zu gewinnen Axel, ich will nicht in das Thema neu einsteigen aber Du sprichst von "gewinnen" also von mehr.
Du hast aber kein zusätzliches Bit, ausser Du kommst von 10/12 oder 14 Bit.
Wenn Du in einem geschlossenen System einen Transportwert irgendwohin legen willst, wo er Dir wichtiger erscheint, musst Du ihn irgendwo wegnehmen. (und es geht ja nicht nur um einen Wert, sondern um eine ganze Anzahl von Werten)
Es funktioniert also nicht so, wie in den originalen S-C-Log Kurven.

Space


Antwort von domain:

Schon richtig, aber das hat dann nichts in der Kamera (bzw. deren Einstellungen) verloren.
Kann genauso in einem guten Gleitkommagrading in der Post durchgeführt werden und wahrscheinlich sogar besser, weil reversibel.

Space


Antwort von WoWu:

Und dass C-Log z.B. so flach ist, hat nichts mit der Gradation zu tun, als vielmehr damit dass bei der Wiedergabe die unteren werte einfach abgesenkt werden können und damit nicht nur das Ursprüngliche Rauschen in den Keller geht, sondern auch gleichzeitig noch Rauschen, das in den übrigen Elementen ggf. noch zum Signal hinzu gekommen ist.
Hier wird also etwas mit Grading begründet, das ganz andere Ursachen oder Zwecke hat denn Kurven wie C-Log sind reine technische Übertragungsentzerrungen, abgestimmt auf den Abtastet. Arris LOC-C eben auf deren Belichter.

Space


Antwort von domain:

Könnte es im Lichte der Erkenntnis vielleicht sein, dass wir Dirkus Unrecht getan haben? Er hat eigentlich nur den Fehler der ungleichmäßigen Belichtung der Ausgangsbilder gemacht, ansonsten aber m.E zurecht auf das Risiko von Flat Picturestiles out of the box hingewiesen.

Space


Antwort von Frank B.:

Schön, wenn sich bei Euch jetzt die Dunstwolken um diese Problematik lichten. Bei mir ist ein Fazit leider noch nicht ganz angekommen.

Kann mal einer von Euch versuchen, einem einfachen Amateur, der sich explizit mit der G-Log-Kurve von Frank Glencairn in seiner Sony FS 100 beschäftigen will, zu erklären, ob diese ein gutes Werkzeug oder aber Schrott ist? Hat sie Sinn oder nicht?
Ich kann mir vorstellen, dass es hier mehrere Leute gibt, die gerne in die höheren Künste der Videofilmerei vorstoßen und sich mit diesem Thema auseinander setzen wollen. Für die wäre es sicher schön, mal in einfachen Worten ein Fazit dieses Threads zu bekommen.

Space


Antwort von Axel:

@WoWu. Ja, klar. Ist nicht mit Raw und so zu verwechseln. Aber Profis mit Film haben den Kontrastumfang begrenzt, durch Aufhellen/Abdunkeln. Ich selbst habe noch nichts mit Flat aufgenommen, aber ich kriege Zeug von anderen. In Kombi mit leichter Unterbelichtung (oft unwillkürlich) kann man damit jedenfalls mehr anfangen als mit dem Gegenteil. Was die "Philosophie" der "Logs" angeht, weißt du mehr über sowas als ich. Es gibt sicher einen dämlichen Hype, aber damit ist nicht alles abzutun.

@domain
Es geht gerade darum, dass die hier diskutierten DSLR-Codecs Tonwerte fix&fertig backen, wie ihr ja selbst sagt, und dass dies tatsächlich irreversibel ist. Hättet ihr recht, müsste man sich beim Graden auf maßvolle Farbbalance und äußerst maßvolle Kontrastanhebung bescheiden. Fließkomma würde einen vor sichtbaren Stufen bewahren, aber Zeichnung kann es nicht erzwingen. Man gradet aber schon etwas extremer, nicht wie mit Raw, aber mehr, als das default-Profil erlauben würde.

Space


Antwort von WoWu:

Das weiss ich nicht, aber Du siehst an den Lampenbildern den klassischen Effekt, unten mehr Zeichnung zu haben und oben sammeln sich die Lichtanteile zu einer grossen Stufe, weil die Zeichnung dort eben nicht mehr durch möglichst viele Werte repräsentiert wird.
Man kann es drehen, wie man will ... nur durch mehr Werte würde es einen höheren Graduierungseffekt geben.

Mein Tipp ... macht 10 Bit und dann ist das Klageniveau gleich deutlich höher und Grading wird zu einem ausgesprochenen Vergnügen.
AVCUltra soll ja dann auch 12 Bit unterstützen. Dann hat die "liebe Seele" wahrscheinlich endlich Ruhe.

Edit: Hättet ihr recht, müsste man sich beim Graden auf maßvolle Farbbalance und äußerst maßvolle Kontrastanhebung bescheiden. Axel ... und genau das ist es denn nur Hau-Ruck Grader graden von der Grundlinie ab.
Normalerweise legst Du die dazugehörige Reverse-Kurve drauf, dann sieht das Bild exakt so aus, wie die Kamera es aufgenommen hat und mit dem Grading veränderst Du dann nur noch Feinheiten. Das ist korrektes Grading, nicht der vom Bodensatz her.
Bei der RAW Bearbeitung macht man das ebenso, nur dass da die Reverse Kurve im LTU im Monitor sitzt, weil das Basismaterial zur Belichtung nicht durchentzerrt werden darf.

Space


Antwort von Axel:

Ich dachte mir, warum nicht mal Shane Hurlbut fragen, der zwar auch ein Blogger (und damit eine attention whore und damit in Verdacht, mit Hypes zu hausieren) ist, aber auch ein DSLR-Videograph, der oft genug "gezeigt" hat und nicht nur geblufft.

Er sagt, wie schon bekannt, der Vorteil der DSLRs (in allen wesentlichen Belangen ist auch die FS100 damit vergleichbar) sei, wie eine analoge Filmkamera dem DoP eine kreative Entscheidung vor Ort abzuverlangen. Es war also zu erwarten, dass er ein Grading-Skeptiker und ein Flat-Hater ist.

Sein Blog sagt über den Technicolor-Style:

- Du kannst nicht auf Sicht mit ihm die Belichtung einschätzen (Bild einstellen auf "normal", dann vor der Aufnahme switchen).

- Du kannst nicht graden ohne den Technicolor-LUT.

Mal ganz abgesehen von den fundamentalistischen Positionen pro&contra Flat sind dies zwei Punkte, die einleuchten, und von denen ich ehrlich gesagt auch nicht glaube, dass eine nennenswerte Zahl von Flat-Jüngern sie beherzigt.

Meine Einschätzung dazu: Nehmt nach dem Motto Wysiwyg auf, aber nicht mit poppigen Settings. Nehmt Schärfe, Sättigung und Kontrast zurück und beleuchtet auch nicht zu expressiv. Dann bleibt genug Spielraum, um durch Nachbearbeitung noch etwas zu betonen oder zu verbessern.

Space


Antwort von domain:

Gott sei"s gelobt, jetzt sind wir endlich alle einer Meinung, die mir allerdings auch erst klar wurde, als WoWu darlegte, dass offenbar sämtliche besprochenen Spezial-Styles nur vom herstellerseitigen Standardprofil abgeleitet werden.
Allem Anschein nach auch der Technicolor-Style mit seinen speziellen Anforderungen, die sich durch die Ausbelichtung auf Filmaterial ergeben aber für die Monitorbeurteilung wiederum spezielle LUTs benötigt.
Was anderes wäre es, wenn die Kreation der Specialstyles unmittelbar nach der 14-Bit AD-Wandlung direkt nach dem Sensor erfolgen würde.
So aber ist alles nur Chimäre, Graustufen in einem Bereich werden verfeinert zulasten von anderen.
Die Empfehlungen von Axel hier zuletzt sind m.E. die einzig wirklich guten.

Space


Antwort von meawk:

Mein Fazit: Der flache Picturestyle konnte die Dynamic des Bildes in meinen Augen überhaupt nicht verbessern - im Gegenteil: Überbelichtungen führen in den Grenzbereichen der Highlights zu einem plötzlichen und unnatürlichen Kantenabriss. Alle "Verbesserungen" in den Tiefen liessen sich dagegen auch aus dem Standard Style (z.b. durch Aufellung des Bildes) erreichen. Gehe nur kurz darauf ein, da ja inzwischen die Experten das Thema durchgekaut haben. Daher nur eine Anmerkung, sozusagen aus der Praxis gewonnen:

Die Picturestyl's braucht man eigentlich nicht - es ist eigentlich eine Art Dauer-Hype, auch wenn sie von Philip Bloom usw. angewandt werden (sein Favorit z. Z. wieder einmal "Marvels") . . .

Wer die falschen "extrem flachen" Styl's benutzt versaut sich mehr als er gut macht . . . Dynamik und Schärfe gehen evtl. für immer verloren etc.

Space


Antwort von domain:

Es ist bezeichnend für unsere Branche, dass jemand aus seiner natürlichen Sehfähigkeit heraus etwas behauptet, dass unter dem Zeichen eines Hypes zunächst niemand glauben will, weil nicht sein kann, was nicht sein darf.
So erinnere ich mich noch an die Aussagen eines jungen Filmers vor Jahren, der behauptete, dass ein Stab vor einem CMOS-Sensor hin her geschwenkt, eher wie eine nachgiebige Gummi- oder Plastilinwurst aussah, als etwas Steifes.
Zuerst hatten wir es nicht glauben können und ihn als Spinner verurteilt.
Aber er hatte recht, wie man heute weiß.

Space


Antwort von meawk:

Ist ein schönes Beispiel, aber eher nicht auf die Diskussion zu den Picturestyl's anzuwenden, das mit dem Stab und CMOS.

Am besten "scheint" m. E. zu sein, einfach einen neutralen kamerainternen Style zu verwenden, wobei man Kontrast und Schärfe zurücknehmen sollte. Wobei ich nicht verschweigen möchte, dass auch ich z. B. externe Styl's verwende:

1. Zum Fotografieren den Olympus Blue Style, eigentlich grundsätzlich, da m. E. einfach Klasse (kann mich aber irren und andere sagen, dass der Mist ist . . .)
2. Filmen mit der 550D: Canon-Neutral mit weniger Kontrast und Schärfe oder auch den MARVELS-Wunder-Style (leicht abgeändert . . .)

Alles eine Sache der pers. Wahrnehmung, die ja bekanntlich recht subjektiv ist . . .

Space


Antwort von Frank B.:

...der behauptete, dass ein Stab vor einem CMOS-Sensor hin her geschwenkt, eher wie eine nachgiebige Gummi- oder Plastilinwurst aussah Das geht auch ohne irgendeine elektronische Zwischeninstanz. Einfach einen längeren Bleistift oder einen anderen Stab in dieser Größe an einem Ende leicht zwischen zwei Finger legen und die Hand schnell jeweils ca. 5 - 10 cm auf und ab bewegen. Der Stab wirkt wie Gummi. Ist ne optische Täuschung.

Space


Antwort von Tiefflieger:

Mit den richtigen Einstellungen und einer guten Kamera ist alles kein Problem :-))
(1080p50 Standbild, aus einem fahrenden Zug mit geraden Masten)



Und schneller durch getönte Scheiben in Fullsize

Gruss Tiefflieger

Space


Antwort von Axel:

Durch den in deiner Kamera schon heimlich zu Testzwecken verbauten Global Shutter. Sehr beeindruckend.

Space


Antwort von B.DeKid:

Durch den in deiner Kamera schon heimlich zu Testzwecken verbauten Global Shutter. Sehr beeindruckend. :-))

Space


Antwort von domain:

Nunja, der vordere dicke Mast hat sich ja nicht bewegt, ist ein Steg zwischen den Scheiben. Aber an den hinteren Masten für die Fangnetze kann man den GS-Effekt sehr gut erkennen, so verbogen wie die sind ;-)

Space


Antwort von Frank Glencairn:

Ich glaub es wird Zeit, daß ich auch mal meinen Senf dazu gebe. ;-)

Zunächst etwas grundsätzliches über G-LOG:

Nehmen wir an, wir haben eine Szene mit hohem Kontrastumfang.
Z.B. Sonnendurchflutetes Zimmer. Die Sonne brennt auf"s Parkett während
Teile hinter dem Sofa im Schatten liegen.

Wenn ich jetzt ohne jegliches Profil aufnehme hab ich zwei Probleme.
Das Parkett brennt mir unschön weg, während der hintere Bereich absäuft.
Normal würde ich jetzt einen Scrim aufstellen und hinten gegen leuchten.
Sagen wir aber mal, das geht aus irgend einem Grund nicht.

Dann kann ich die Blende aufmachen, was mir Zeichnung in den Schatten verschafft (aber das Parkett vollends in einen weißen Pflatschen verwandelt) oder ich mach zu, das Parkett hat Zeichnung aber hinten ist alles tief schwarz.

D.h. bei allen der 3 Möglichkeiten hab ich die Arschkarte.

Meine Überlegung war, man müßte entweder HDR aufnehmen (was mit der FS100 nicht geht - für die 5D gibt es glaub ich mittlerweile eine Lösung dafür)) oder die Lichter absenken und gleichzeitig die Tiefen anheben, bis beides Zeichnung hat und nicht mehr clipt.

Genau das macht G-LOG.

Genau genommen senke ich die Lichter mit der Blende (oder besser ND ab) und hebe die Tiefen gerade so viel an, daß sie ein Haar über Null landen.

Deshalb brauche ich auch keine Reverse Curve, weil ich das Histogramm ja schon von oben bis unten ausfülle.

Wobei ich das mit der Kurve rückwärts - ehrlich gesagt - noch nie verstanden habe (außer mit LUT für die Vorschau Monitore am Set, wenn sich manche Kunden/Produzenten das nicht vorstellen können). Wenn ich die Kurve in der Post umdrehe, dann lande ich doch genau da, wo ich in der Kamera ohne Kurve gewesen wäre.

Darüber hinaus hat G-LOG noch ein etwas eleganteres Knee, daß einen schöneren Rolloff der Lichter ermöglicht und ist etwas entsättigt, da die FS100 zum Farbclipping neigt - vor allem bei Rot.

G-LOG ist also kein stumpfes (flaches/flaues) Profil per se, es sei denn man belichtet es falsch. Aber in meinem Blog hab ich ja ne Anleitung dazu geschrieben.

Frank

Space


Antwort von Frank B.:

Danke Frank, für die nähere Erläuterung. Mal eine Nachfrage. Was ist "Rolloff der Lichter"

Space


Antwort von WoWu:

Moin Frank G.
Ich will da nicht noch einmal neu einsteigen, in das Thema, weil ich glaube, dass eigentlich alles gesagt ist.
Aber der Sensor, wenn man ihn linear benutzt, belegt ja 100 der 200 (16-235) Übertragungswerte mit einer Blende von Weiss nach unten und – Rauschen aussen vor- die letzte Blende bei Schwarz mit nur einem Wert.
Das bedeutet, dass da, wo der Mensch ohnehin nicht so empfindlich ist (bei Weiss), wahnsinnig viele Werte "verdattelt" werden.
Nach dem Weber'schen Gesetz werden soviel Helligkeitsänderungen durch den Menschen gar nicht wahrgenommen (nur 1-2%).
Also ist man hergegangen und hat eine Kurve entwickelt, die so dicht wie möglich an der menschlichen Wahrnehmung liegt und die Werte aus weiss so verteilt, dass sie gerade noch reichen und die freigewordenen Werte nach Schwarz verschoben.
Das nennt man REC 709.
Nun ist es ziemlich egal, was Du jetzt noch verschiebst, Du bekommst keinen einzigen zusätzlichen Wert und wenn Du sagst, ich möchte mehr Zeichnung im Schwarz, dann wird die Stufigkeit in Weiss höher und umgekehrt.
Da kannst Du jetzt jede beliebige Kurve drauflegen, es wird immer so sein, solange Du nicht auf 10 oder 12 Bit umstellst (von Anfang an) und damit mehr Werte zur Verfügung hast.
Was die eigentlichen Cinema Log-Kurven betrifft, so sind sie allesamt auf die individuellen Sensoren und für ein Zielgerät (Projektor oder Belichtet) ausgelegt. das sind vom Sensor Meistens 14 Bit wobei das letzte Bit Rauschen ist, aber auch mit dem Vorsatz, die Kurve am Zielgerät Reverse zu übertragen, damit auch die Rauschwerte wieder "im Schwarz" verschwinden.
Einwenig vergleiche ich das immer mit einer Dolby Entzerrung.
Daher gehören zu solchen Kurven immer die Reverse Kurven. Entweder nur die lTUs im Monitor, wenn der Content zur Ausbelichtung geht, oder auf der Kurve, wenn der Content benutzt wird. Und das Ziel ist es gerade, den Eindruck der Kamera zunächst zu reproduzieren. Da wurde Licht gesetzt und der Kameramann hat sich bestimmt nicht gedacht, all die künstlerischen Gestaltungen einem Knöpfchendreher zu überlassen.
Farbbestimmung und Grading ist eine Veränderung, keine Neugestaltung. Und die Cinema-Kurve ist lediglich die Garantie dafür, dass zwischen Kamera und Bearbeitung nichts verloren geht. Die Kurve ist kein Ersatz für eine Lichtgestaltung und egal, ob man nun von "oben" oder "unten" kommt, die Daten sind absolut identisch, nur dass der Grader die Kurve niemals korrekt reproduzieren kann, weil er die Eigenheiten des Sensors gar nicht kennt. Er verwirft also all die Arbeit, die am Set in Bezug auf Licht und Farbe geleistet worden ist.
So, genauer kann ich es in der Kürze auch nicht erklären ... sorry Domain.

Space


Antwort von B.DeKid:

....

Meine Überlegung war, man müßte entweder HDR aufnehmen (was mit der FS100 nicht geht - für die 5D gibt es glaub ich mittlerweile eine Lösung dafür)) .... Also Du kannst durchaus nen Workflow a la HDR /DRI anstreben.

Musst dazu nur jeweils den Film / die Sequenz 3x bearbeiten (minimum)

Ob Du dies nun via Tif Sequenzen machst oder direkt im NLE/Composing Progi is Dir überlassen.

Aber bevor ich nun noch mehr zu dem Thema schreibe ... eins is ja klar ... wer Schwarze und Weisse Löcher im Material hat der hat natürlich keine "wirkliche Chance" mehr ( in "") . Genauso mit zuviel Schärfe / Farbe / Kontrast.


.............................

Zum Thema

Ich filme und fotografiere im "SuperFlat" - Ich hatte bis Dato noch keine Beschwerden ( nach der Nachbearbeitung)

Ihr macht da oft so ne Wissenschaft drauss - ob das Sinn der Creativen Arbeit ist?!

Aber lustiger / spannender / intressanter Thread

MfG
B.DeKid

Space


Antwort von domain:

So, genauer kann ich es in der Kürze auch nicht erklären ... sorry Domain. Du wirst aber immer besser im Erklären:-) So populärwissenschaftlich und verständlich ohne allzuviele Fachbegriffe hattest du es noch nie zusammengefasst. Mir ist die Sachlage seit einigen Postings schon klar, aber dem Frank offenbar noch nicht so ganz. Man kann deshalb nur eines immer wieder betonen: durch div. flachere Profile und so wie sie erzeugt und gehandelt werden, kann die Eingangsdynamik der Kamera nicht erhöht werden, Punktum.
Was anderes sind die unentwickelten RAW-Imageformate, aber die enthalten ja auch die 12 oder 14 Bit des AD-Wandlers.

Space


Antwort von Frank B.:

Mal eine Nachfrage. Was ist "Rolloff der Lichter" Wäre schön, wenn es mir einer erklären könnte.

Space


Antwort von WoWu:

Hmmm ich wills versuchen, bin aber nicht sicher, ob er das so gemeint hat.
Ein "Rolloff" beschreibt immer das Ende von etwas, hier wohl das Ende der Helligkeit, wie also ein Spitzlicht aussieht.
Er meint vermutlich, ob der hellste Wert bereits 100% erreicht hat oder nicht.
Wobei der hellste Punkt eigentlich immer 100% erreichen sollte, sonst verschenkt man nämlich Dynamic, von der man ohnehin nicht so viel hat.
Hält man den hellsten Punkt allerdings durch die Kurve im Graubereich, dann hat er nicht dieses grelle Weiss, ausgebrannt ist er aber trotzdem, weil das viel weiter vorne am Sensor geschieht.
Den RollOff macht man also besser mit der Belichtung, damit der Sensor möglichst sein FullWell erreicht aber nicht mehr.

(Ich weiss nun nicht, ob er das so gemeint hat.)

Space


Antwort von Frank B.:

Vielen Dank erst mal, Wolfgang. Hier schwirren halt immer mal Begriffe rum, die sich mir nicht gleich erschließen.

Space


Antwort von handiro:

durch div. flachere Profile und so wie sie erzeugt und gehandelt werden, kann die Eingangsdynamik der Kamera nicht erhöht werden, Punktum.
Was anderes sind die unentwickelten RAW-Imageformate, aber die enthalten ja auch die 12 oder 14 Bit des AD-Wandlers. Jo gnauso hob i des a verstanden.

Und WoWu macht das wirklich toll!

Space


Antwort von Angry_C:

Hallo,

dieses Thema ist fuer mich sehr interessant. Da sich in diesem Thread einige Leute tummeln, die anscheinend von der Materie Ahnung haben, haette ich mal eine Frage.

Unsere kleine Firma hat mit Hilfe von Aussen ein Mini Hd Kamerasystem (VimeoSuche: Modula) entwickelt, das auf 12 Bit läuft. Nun moechte ich per Lookup table verschiedene gebräuchliche Gammakurven eingeben. Dafuer habe ich 256 Werte auf der x Achse, die ich von 0 bis 4095 beschreiben kann.

Als standard ist eine lineare Lut programmiert, die jedoch als hellsten punkt einen wert von 2040 besitzt, weil bei 4095 als hellsten punkt ein noise pattern einsetzt.

Ich wuerde mir gerne eine rec 709, eine s-log und eine c-log kurve erstellen, weiss aber nicht, wie ich das machen kann. Wie gesagt habe ich 256 Werte von schwarz bis weiss und zwischen diesen punkten wird linear interpoliert.

Ich habe einen Lut editor programmiert, mit dem ich die werte per hand eintragen und in die Kamera laden kann, jedoch gibt es sehr schnell farbausreisser, wenn nicht alles genau passt. Kennt vielleicht jemand ein Simulationsprogramm, mit dem ich mir die kurven per Maus zurechtbiegen, und dann die Werte auf der Kurve ablesen kann,
oder hat jemand nen Tip, wie ich sonst eine homogäne kurve erstellen kann?

Space


Antwort von WoWu:

Das ist ja ne komische Anfrage ...
Die Frage nach einem Programm zur Kurvendefinition stellst Du am besten mal in einem Forum für Kurvendiskussion, z.B. hier:
http://forum.chip.de/programmieren/kurv ... 77196.html
Es dürfte Programme geben, die Dir die Werte auswerfen, aber da wissen die Mathematiker vermutlich eher Rat.

Oder noch besser, gleich beim Fraunhofer Institut, denn die haben doch den Berechnungs Kernel und das Frontend für die Kamera entwickelt.
Es wird denen sicher nicht schwer fallen, auch die S und C Log Bedingungen einzufügen, zumal ja auch die DCDM Containereigenschaften bereitgestellt werden müssen. Mit der Kurve ist es ja nicht getan.
Und wieso soll sie per LUT eingegeben werden ?
Soll die Kamera denn die Zuordnung nur simulieren ?
Oder meinst Du die Reverse Kurve nach 709, denn 709 selbst, kannst Du ja nicht gemeint haben (obwohl ich das so verstanden haben) denn die Kamera wird ja bereits defaultmässig mit 709 bereitgestellt.
Da gibt es also nix mehr zu programmieren.
Und sorry, aus dem Zahlenmüll oben, werd ich auch nicht so ganz schlau.
Ich kann Dir für S-Log die Eckwerte geben. S-Log ist 10 Bit (0-1023) wenn Du von 12 Bit kommst, musst Du umrechnen. Zwischen den Eckwerten wirst Du das ja wohl interpoliert bekommen :
2% Black Code 167
18% Grau Code 294
89,9% Weiss Code 636
719,2 % Weiss Code 974

Gehörst Du denn zum Entwicklerteam von Gert Kappes ?
Dann wundert mich allerdings die Frage einwenig ... oder besser einwenig mehr.
Das mit dem LUT Editor verstehe ich nicht ganz. Die Kamera verfügt doch bereits über manuelle Werte-Eingabe was muss man denn da programmieren?
Eine Frage hab ich allerdings auch noch zum Global Shutter: ... wieso Global Shutter ?
Die Kamera hat doch eine Umlaufblende, die dann zwar das Rollen mindert aber der Sensor hat keine global Shutter ... korrigier mich, wenn es nicht so ist und bring mich auf den neusten Stand :-).

Space


Antwort von TheBubble:

Ich wuerde mir gerne eine rec 709, eine s-log und eine c-log kurve erstellen, weiss aber nicht, wie ich das machen kann. Wie gesagt habe ich 256 Werte von schwarz bis weiss und zwischen diesen punkten wird linear interpoliert. Es ist nicht ganz klar, was Du machen wilst. Hast Du ein 12 bit Signal und willst dieses auf 8 bit abbilden, unter Beruecksichtigung einer Gamma-Kurve? Oder soll der umgekehrte Weg gegangen werden?

Grundsaetzlich sind die vorgegebenen Kurven nur Abbildungsvorschriften. Aus diesen kann man die Werte fuer eine LUT einfach ausrechnen.

Space


Antwort von domain:

Kennt vielleicht jemand ein Simulationsprogramm, mit dem ich mir die kurven per Maus zurechtbiegen, und dann die Werte auf der Kurve ablesen kann .. Du wirst für die S-förmigen Verläufe einen Funktionsterm 3. Grades benötigen, der sich vermutlich recht einfach über dieses Programm entwickeln lässt

http://www.kroll-software.de/products/interreg_g.asp

Space


Antwort von Angry_C:

Das ist ja ne komische Anfrage ...
Die Frage nach einem Programm zur Kurvendefinition stellst Du am besten mal in einem Forum für Kurvendiskussion, z.B. hier:
http://forum.chip.de/programmieren/kurv ... 77196.html
Es dürfte Programme geben, die Dir die Werte auswerfen, aber da wissen die Mathematiker vermutlich eher Rat.

Oder noch besser, gleich beim Fraunhofer Institut, denn die haben doch den Berechnungs Kernel und das Frontend für die Kamera entwickelt.
Es wird denen sicher nicht schwer fallen, auch die S und C Log Bedingungen einzufügen, zumal ja auch die DCDM Containereigenschaften bereitgestellt werden müssen. Mit der Kurve ist es ja nicht getan.
Und wieso soll sie per LUT eingegeben werden ?
Soll die Kamera denn die Zuordnung nur simulieren ?
Oder meinst Du die Reverse Kurve nach 709, denn 709 selbst, kannst Du ja nicht gemeint haben (obwohl ich das so verstanden haben) denn die Kamera wird ja bereits defaultmässig mit 709 bereitgestellt.
Da gibt es also nix mehr zu programmieren.
Und sorry, aus dem Zahlenmüll oben, werd ich auch nicht so ganz schlau.
Ich kann Dir für S-Log die Eckwerte geben. S-Log ist 10 Bit (0-1023) wenn Du von 12 Bit kommst, musst Du umrechnen. Zwischen den Eckwerten wirst Du das ja wohl interpoliert bekommen :
2% Black Code 167
18% Grau Code 294
89,9% Weiss Code 636
719,2 % Weiss Code 974

Gehörst Du denn zum Entwicklerteam von Gert Kappes ?
Dann wundert mich allerdings die Frage einwenig ... oder besser einwenig mehr.
Das mit dem LUT Editor verstehe ich nicht ganz. Die Kamera verfügt doch bereits über manuelle Werte-Eingabe was muss man denn da programmieren?
Eine Frage hab ich allerdings auch noch zum Global Shutter: ... wieso Global Shutter ?
Die Kamera hat doch eine Umlaufblende, die dann zwar das Rollen mindert aber der Sensor hat keine global Shutter ... korrigier mich, wenn es nicht so ist und bring mich auf den neusten Stand :-).
Hi Wowu,

Ne Menge Stoff, die du für mich bereithälst.

Ja, ich gehöre zum Entwicklerteam von Gert Kappes.
Ich weiß zwar nicht, woher du ihn/uns kennst, aber du kennst sicherlich noch die Modula MK1, die zusammen mit dem Fraunhofer entwickelt wurde. Das ist lange her und wir haben uns von dieser Zusammenarbeit verabschiedet, weil sie die elementarsten sachen nicht in ihren Kernel bekommen haben, wenigstens nicht zufriedenstellend, siehe auch Wige Cunima1+2.

Wir haben jetzt einen Kamerakopf von der Firma Basler genommen und das Cameralink Signal in einer CCU auf 3G HDSDI umgesetzt.

Der verwendete Cmosis CMV2000 2/3" Sensor ist ein global shutter cmos sensor mit einer max framerate von 340 Bildern bei voller 2K Auflösung.

Ich möchte einfach nur verschiedene 12 Bit Gammakurven direkt im Kamerakopf speichern und nicht nach dem Debayring in der CCU an der Gammakurve drehen, da der FPGA Kernel leider nur 17 "Anfasspunkte" zur verfügung stellt, die dazu noch gleichmäßig auf der x-Achse platziert sind. Dazu nur 10 Bit. Die Gammakurve möchte ich daher auf Bypass stellen.

Da habe ich mit der Lookup Table mit 256 Werten mehr möglichkeiten.

Defaultmäßig startet die Kamera mit einem linearen Gamma und abgeschalteter LUT.


Vielleicht magst du per E-Mail kontakt aufnehmen, wenn du möchtest.

christian@easylooksystem.de

Danke allen für die Tips.

Space


Antwort von WoWu:

Hallo Christian,

ich hatte tatsächlich etwas ältere Infos und habe mir mal Eure MKII angesehen.
Einwenig schade finde ich schon, dass das optische Konzept aufgegeben ist, aber das ist wohl der Zahn der Zeit.
Respekt, kann ich da nur sagen.
Da hat sich ja eine Menge getan. Was mir allerdings nicht so ganz klar ist, wie sich die MKII noch von der Baumer HXC20 unterscheidet?
Der Mount kann's ja nicht nur sei ?
Aber ich will mal nachdenken, wie man sowas machen kann, 17 "Anfasspunkte" sind eigentlich nur üblich für Vorschauzwecke (oder eben in der Industrieanwendung).
Kann das sein, dass das 17/Matrixebene sind ?
68 sind eigentlich üblich für einen 3D LUT im Nutzsignal, zwischen denen dann interpoliert würde.
Das wäre jedenfalls die normale Methode, wie ich sie kenne.
Aber ich will mal über die LUT Methode in 256 nachdenken, obwohl hier ja auch nur wenige Punkte angegeben werden.
Nur kriege ich die Verbindung nach 8 Bit auch noch nicht hin. -kopfkratzen-
Vielleicht muss ich noch etwas genauer verstehen, was exakt gemeint ist ...
... ich melde mich mal per Mail.

Space


Antwort von domain:

Klingt interessant. Das kleinste Problem dabei dürfte allerdings das Erstellen einer LUT-Wertetabelle sein. Habe mich mit dem oben erwähnten Programm jetzt mal eine Stunde beschäftigt und nur 4 Punkte explizit eingeben, Min und Max von X und Y und zwei von mir definierte Wendepunkte. Die Kurve und die übrigen Werte in der Tabelle rechts oben sind alle durch ganzzahlige Interpolation errechnet worden. Die LUT kannst du dann im .txt-Format abspeichern und z.B. auch in Excel importieren



Space


Antwort von WoWu:

Moin Domain.
So ganz klar ist mir noch nicht, warum er bei einer 12 Bit Kamera das in 8 Bit machen will, denn in 8 Bit sind solche Kurven nicht wert.
Aber, wie gesagt, vielleicht hab ich das noch nicht richtig verstanden.

Space


Antwort von domain:

Das habe ich auch noch nicht verstanden, aber man könnte für X ebenfalls 4096 als Maximum eingeben. Dann gibt es halt 4096 interpolierte Werte für Y.

Space


Antwort von Angry_C:

@Wolfgang,

der Unterschied zur Baumer besteht darin, dass Baumer nur einen Monochrom Sensor verbaut, nur C & F-Mounts besitzt (wir haben C Mount Bajonett und PL-Mount über Adapter) und der Bauma Kamerakopf ist ca. 4 mal so groß wie unser.

Das wichtigste und entscheidende ist aber, dass die Baumer nur an einen Rechner über eine Cameralink Grabberkarte angeschlossen werden kann.

Wir hatten die Idee, Cameralink in einer CCU debayern zu lassen mit der Möglichkeit, die komplette Farbschiene in 12-bit 4:4:4 in Echtzeit zu verarbeiten.

Momentan wird der 3G HD SDI Stream als 12 Bit 4:4:4 herausführt, RAW angestrebt in Q2 2012.

Framerate zur Zeit bis 2K 60p, 170 bzw. 340 Bilder in Zukunft über einen Ringspeicher über eine bestimmte Dauer aktivierbar.

In diesem Quartal wird hoffentlich noch der HDR Mode fertig, den der Cmosis nativ unterstützt. Dabei werden 2 SDI Streams mit unterschiedlicher Belichtungszeit an die beiden SDI Ausgänge geführt.

Das gibt nach meinem Wissen in dieser Größenordnung weltweit noch nicht.


Nun nochmal zu meiner Problematik bzgl. der Lookup Table. Ich glaube, Ihr habt mich nicht so ganz verstanden, bzw. ich habe mich schlecht ausgedrückt.

Ich habe eine 12 Bit LUT, keine 8 Bit.

Ich habe die Möglichkeit werte zwischen 0 und 4095 in die LUT einzugeben.
Standardmäßig geht sie in der Helligkeit vom 0-2040, verteilt auf 256 Punkten auf der X-Achse (auch 12 Bit). Zwischenwerte werden interpoliert.


Ich möchte den Maxwert 2040 jedoch nicht überschreiten und möchte neben der linearen Verteilung eben auch gängige Kurven austesten.

Ich habe nämlich das Gefühl, dass sich viele Helligkeitsinformationen zum schwarz hin stauchen und möchte das Schwarz entzerren. (Wie Angleichen unter Premiere Pro)

Das muss sehr exakt erfolgen, sonst gibt es bunte Ausreißer.


@Domain, vielen Dank, mit dem Programm werde ich mich wohl mal befassen.

Space


Antwort von WoWu:

Langsam wird es etwas klarer ... aber nur nochmal für mein Verständnis: was Du als "12 Bit 4:4:4 herausführt" beschreibst, damit ist die LVDS Matrix des Sensor gemeint ?
Oder ist da schon de-bayert worden und du hast bereits 3 Matrizen vorliegen?

Was den HDR Modus betrifft, der getrennt herausgeführt werden soll ... feine Sache, aber damit reicht G3 für 50/60p natürlich nicht mehr aus und das Bild fällt auf 25/30p zurück.

Ich denk mal weiter nach.

Space


Antwort von domain:

Verstehe. Dann musst du halt als maximalen Y-Wert 2040 wählen und für X max 255. Das ergibt bei linearen Kurven dann ein Intervall von 8 Bit pro Stufe bei Y.

Space


Antwort von Angry_C:

Mit 12 Bit 4:4:4 war das ungebayerte LVDS Signal im Kamerakopf gemeint. Wo ich diverse Farbverarbeitungsmöglichkeiten auf RGB Schiene habe. 3x3 Color Matrix, LUT etc.

Das debayerte HD SDI Signal ist zur Zeit noch 10 Bit 4:2:2.

Ja, der HDR Mode wird nur bis 30p gehen, aber besser als nichts.

Space


Antwort von TheBubble:

Ich habe die Möglichkeit werte zwischen 0 und 4095 in die LUT einzugeben.
Standardmäßig geht sie in der Helligkeit vom 0-2040, verteilt auf 256 Punkten auf der X-Achse (auch 12 Bit). Zwischenwerte werden interpoliert. Mit anderen Worten: Du hast eine LUT mit 256 Eintraegen, die aber einen Wertebereich von 0 bis 4095 abdecken soll, daher werden Zwischenwerte interpoliert. Ok, unschoen, aber ich hab's verstanden.

Wenn die LUT keine Wert >2040 enthalten soll, dann musst Du einfach nur passend skalieren. Ich verstehe jetzt nicht, wo das Problem sein soll. Einfach die (stueckweise) Funktion ausrechnen, skalieren, eintragen, fertig.

Space


Antwort von Angry_C:

Ich habe die Möglichkeit werte zwischen 0 und 4095 in die LUT einzugeben.
Standardmäßig geht sie in der Helligkeit vom 0-2040, verteilt auf 256 Punkten auf der X-Achse (auch 12 Bit). Zwischenwerte werden interpoliert. Mit anderen Worten: Du hast eine LUT mit 256 Eintraegen, die aber einen Wertebereich von 0 bis 4095 abdecken soll, daher werden Zwischenwerte interpoliert. Ok, unschoen, aber ich hab's verstanden.

Wenn die LUT keine Wert >2040 enthalten soll, dann musst Du einfach nur passend skalieren. Ich verstehe jetzt nicht, wo das Problem sein soll. Einfach die (stueckweise) Funktion ausrechnen, skalieren, eintragen, fertig. Hmm...ich bin kein Mathematiker, daher finde ich es schon schwierig, die kurven zu berechnen und aus ihnen die 256 Werte zu extrahieren.

Daher fragte ich nach einem Kurvenprogramm, das es, wie ich dank euch auch erfahren habe, kostenlos zum Herunterladen gibt. Danke.

Space


Antwort von domain:

Ist sowieso kein Problem. Ein Problem könnte nur werden, wenn er im Integermodus bei den Interpolationen arbeiten wollte. Bei nichtlinearen Kurven müssten die Y-Werte mal mit ziemlicher Sicherheit schon im Floatingpoint-Modus existieren und erst recht danach die interpolierten Werte.

Space


Antwort von TheBubble:

Hmm...ich bin kein Mathematiker, daher finde ich es schon schwierig, die kurven zu berechnen und aus ihnen die 256 Werte zu extrahieren. Das ist doch ganz einfach. Nehmen wir als Beispiel erstmal als Abbildung die Identität: f(x)=x mit 0<=x<=1; 0 entspricht Schwarz, 1 entspricht Weiß.
Nun zerlegst Du das Intervall in 255 Abschnitte. An jedem der Randpunkte aller Abschnitte (jeder dieser Randpunkte entspricht einem Eintrag in Deiner LUT) wertest Du f(x) aus.
Da f(x) nach der obigen Festlegung nur Ergebnisse in liefert, musst Du es noch skalieren, d.h. Du multiplizierst mit Deinem Höchstwert von 2040. Als letztes wandelst Du das Ergebnis in eine Integer-Zahl um und speicherst es in der LUT. Fertig.

In der Praxis nimmst Du natürlich nicht f(x)=1, sondern setzt für f(x) die jeweilige Abbildungsfunktion ein, die der gewünschten Gamma-Kurve entspricht. Diese Funktion kann auch stückweise definiert sein.

Ich würde mir noch überlegen, ob man eine Gamma-Kurven-Abbildung wirklich schon vor dem Berechnen der Farbwerte und ggf. notwendigem Resampling oder einer Interpolation vornehmen will.

Space


Antwort von Frank Glencairn:

Ich hab hier nen ganz interessanten Artikel zum Thema Fat/Extended Range gefunden

http://www.fxphd.com/blog/squeezing-the ... xa-signal/

Space


Antwort von domain:

Wenn die erwähnten Styles von Canon den Effekt eines negativen Dolby hätten, dann wäre ja alles in Ordnung. Das Auge funktioniert genau umgekehrt wie das Ohr, dort stört Rauschen in den höheren Frequenzen besonders, beim Auge viel mehr in den dunklen Bildbereichen. Also zeichnet man dort quasi differezierter und mit mehr Bit vom Gesamtbereich auf, um danach wieder absenken zu können.
Das bedeutet aber auch, dass man zwangsläufig eine gegengleiche Entzerrungsfunktion im NLE braucht und das ist ja hier nicht der Fall.
Lt. WoWu werden alle dieses Styles von einer "normalen" Gradationskurve abgeleitet (Offset) und damit sind sie relativ wertlos.
Dirkus hat das schon richtig erkannt.

Space


Antwort von WoWu:

In dem Artikel werden auch zwei Dinge miteinander vermischt.
FullWell und die Log-Kurven.

Diese beiden Dinge haben zunächst einmal nichts miteinander zu tun, denn ein Clipping wird immer geschehen, wenn FullWell erreicht ist.
Durch die Kurve beeinflusse ich ja kein eintreffendes Licht. Ebensowenig beeinflusse ich das Rauschen.

Die Kurven hingegen beeinflussen lediglich eine Quantisierung, also wie ich die bestehenden Werte auf den Übertragungsbereich verteile.

Insofern schreibt der Artikel viel über alle möglichen Dinge, geht aber am Thema vorbei.

Space


Antwort von Angry_C:


2% Black Code 167
18% Grau Code 294
89,9% Weiss Code 636
719,2 % Weiss Code 974
Um nochmal auf die Slog zu kommen. 719,2% Weiß? Tippfehler?

Space


Antwort von WoWu:

Hi,
nee, schon richtig, das sind natürlich die Blendenangaben, denn die S-Log macht ja -8 / +5,5 Blenden. Das bedeutet bei der flachen Lage und 5,5 Blenden, also bummelig 800%
Übertragen auf die Waveformskalierung sind das:
Code 167 (11,7%), Code 394 (37,7%), Code 636 (65,3%) und Code 974, (103,8%)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Antworten zu ähnlichen Fragen //


Produktion: Mehr Mut zum Risiko
Flat-Rate fürs Kino
Sky: Dritte Staffel von "Das Boot" - erste Serie weltweit in 8K und Dolby Atmos
Jagd nach Laurels und Agenten - Steffen Hacker über Festival Runs und das Release von INGENIUM
Doku von Simbabwe nach D / Premiere zu FCPX - wie machen wir das?
Wie klingt ein Sandwurm? Wie das Oscar-nominierte Sound-Design von Dune entstand
Kann man das Smartrendering von UHD bei Resolve schneller machen?
DeepFaceVideoEditing: KI ermöglicht das Ändern von Gesichtsausdrücken in Videos
Neue Einsteigerdrohne von DJI: Mini 2 SE wird das billigste Modell
Sind das 1:1-Kopien von den Original-Masterbändern?
AI - das Ende von Rendering in 3D Programmen?
Wie Superama mit Blackmagic Cloud das Editing von »La Familia – House of Reality« beschleunigte.
Zwölf neue Business Monitore von LG von 27 bis 43 Zoll
Atomos kündigt Entwicklung von ProRes RAW Support von Ninja V für neue Sony FX3 und A1 an
6K Pro von Blackmagic Design, DaVinci Resolve und die Produktion von Ninja Kidz Video




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash