Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic S1 / S1H / S5 / S1R / GH5 / GH5s / GH6 / GH7 / G9 (II)-Forum

Infoseite // Klusters VLog Test



Frage von klusterdegenerierung:


Hallo Interessierte,

ich habe dann doch mal eben meine Arbeit beiseite geschoben und einen VLog 4K/8Bit Intern Test durchgeführt.

Wichtig war mir bei diesem Test im Waveform oder RGB Parade im Normbereich zwischen 0-1024 zu bleiben bzw auf diesen Bereich zu erweitern.

Dabei habe ich mir auf die schnelle ein schlichtes Setup drausen vor der Tür aufgebaut.

Das Equipment:
GH4 mit Speedbooster XL und 35mm CineWali

Die Settings bei Unterbelichtung:
3200/sec, Blende 4, 4K, Iso 400, WB Auto

Die Settings bei Überbelichtung:
50/sec, Blende 4, 4K, Iso 400, WB Auto

Verwendet wurde das VLog L Profil und das unveränderte Standart Profil.
Alle 4 Clips habe ich ins neuste Davinci importiert und und so bearbeitet das es zu allen Seiten nicht aus dem Normbereich kommt.
Dies war mir wichtig, da ich dies auch für meine Arbeit brauche und sonst auch kaum ein aussage kräftiges Ergebnis zu erzielen ist.
Sicherlich kennt WoWu hier professionellere Test, aber ich wollte es auch für jedemann nachvollziehbar halten.

Mein Verständnis zu VLog ist, das wir damit eine Möglichkeit bekommen, in der Post etwas mehr aus unserem Material zu bekommen als es uns mit dem Standart Profil möglich ist.
Ich habe hier bewußt auf den Vergleich von Cinelike oder costum Profilen verzichtet. Sicherlich wird der Unterschied zwischen VLog und Costum Profilen nicht groß sein, ich denke darum geht es hier auch nicht.

AUf den Einsatz von Luts für die Nachbearbeitung, habe ich bewußt verzichtet, da dies immer das Endergebnis unkontrolierbar beeinflußt, selbst das von Pana angebotene V709 Lut führt zu clipping. Ich denke das diese Lut eher dafür gedacht ist, das VLog während des Drehs zu einem Standart Rec709 zu visualisieren.

Bishierher kann ich jetzt erstmal 4 Screenshots aus Davinci zeigen, die schon eindeutig das Potenzial des VLogs belegen. Ist wesentlich komplexer zu bearbeiten und läßt sich easy zu allen Seiten ohne Verlust spreitzen.
Man darf hier aber keine Wunder erwarten, denn auch Pana gibt hier lediglich einen Zugewinn von 2 Blenden und einen professionellen Workflow vor. Dies ist aber auch Spür und Sichtbar so.

Wie schon im anderen Thread erwähnt, rauscht das Material extrem, dies ist aber nur bei starker bis mäßiger Unterbelichtung der Fall.
Das Profil scheint sich nicht auf Korrekturen für starke Unterbelichtungen zu beziehen.
Bei Über und Normal Belichtungen gibt es überhaupt keine Probleme.

Wie gesagt, das Setup ist nicht sonderlich professionell, aber besser als nix :-)
Ich werde den Test noch fortführen, hier die ersten 4 Screenshots

Wer einen 10Bit Recorder besitzt, kann hier sicherlich noch etwas mehr erwarten1
Dies werde ich auch noch testen, bis jetzt kann ich aber sagen, dass das VLog genau das macht was es verspricht und wofür es gut sein soll!

Space


Antwort von Axel:

Sind Iso 400 die native Empfindlichkeit des GH4-Sensors? Denn nur dort ist die Dynamik optimal. Dynamik muss nicht unbedingt auf den ersten Blick erkennbar sein, es kann vor allem beim Graden für 8-bit darum gehen, mehr rauschfreie/rauscharme Bereiche in Höhen und Tiefen zu haben.

Space


Antwort von klusterdegenerierung:

Sind Iso 400 die native Empfindlichkeit des GH4-Sensors? Denn nur dort ist die Dynamik optimal. Dynamik muss nicht unbedingt auf den ersten Blick erkennbar sein, es kann vor allem beim Graden für 8-bit darum gehen, mehr rauschfreie/rauscharme Bereiche in Höhen und Tiefen zu haben. Das könnte man natürlich vermuten, wenn Pana das VLog bei 400Iso startet.
Mir ist es aber nicht bekannt das dem so ist.
Ich vermute, das weiß WoWu aber besser, das sie damit den Weißbereich verschieben und damit schon in einen anderen Dynamikbereich kommen, vielleicht sind es deswegen dann auch nur noch 7,25Bit statt 8Bit?

Space


Antwort von cantsin:

AUf den Einsatz von Luts für die Nachbearbeitung, habe ich bewußt verzichtet, da dies immer das Endergebnis unkontrolierbar beeinflußt, selbst das von Pana angebotene V709 Lut führt zu clipping. Da liegt ein Denkfehler. Die LUT übersetzt das Material in den korrekten Zielfarbraum (also von V-Log nach Rec709), ist aber keine Klatsche, die Dir pauschal Deine Farbkorrektur besorgt.

Die IMHO korrekte Arbeitsweise ist die:
- Rec709/"Standard"-Material in Resolve importieren;
- V-Log-Material importieren;
- beide Clips auf eine Timeline;
- im Farbkorrektur-Modul zwei Nodes für den V-Log-Clip anlegen;
- V-Log-zu-Rec709-LUT auf die zweite Node;
- auf der ersten Node Lift/Gamma/Gain (und, bei Farbstichen, Offset) so korrigieren, dass die Scopes stimmen/Clipping beseitigt wird;
- mit "Grab Still" einen Framegrab des Rec709/"Standard"-Clips speichern;
- in den V-Log-Clip gehen, "Show Reference Wipe" aktivieren und Farben und Gamma ggfs. an die des Rec709-Clips anpassen; wieder "Grab Still" klicken.
- Links die beiden Framegrabs als TIFF, PNG oder JPEG exportieren und hier hochladen - statt der ungenauen und daher problematischen Screenshots von Resolve.

Und dann beurteilen, ob das V-Log-Material nach Farbraum-Übersetzung und Farbkorrektur mehr Bildinformation bzw. Dynamik abbildet als das Rec709-Material.

Space


Antwort von klusterdegenerierung:

Da liegt ein Denkfehler. Die LUT übersetzt das Material in den korrekten Zielfarbraum (also von V-Log nach Rec709), ist aber keine Klatsche, die Dir pauschal Deine Farbkorrektur besorgt. Das weiß ich auch, aber ich habe ja von "Luts" gesprochen, nicht von der V709 Lut!!
Viele benutzen halt irgendeine Lut um es toll aussehen zu lassen, aber darum geht es ja nicht.

Die V709 Lut habe ich ja extra nicht verwendet, um mich nicht wieder zu limitieren, denn diese Lut beschneidet wieder den Höhenbereich, da sie durch zu starkes Kontrast anheben diesen cutet.

Ich habe extra auf diese Lut verzichtet, da ich sehen wollte was aus der VLut raus zu holen ist.
Und der Weg ist für viele anders und kein muß, ich wieß ja auch daraufhin das es vielleicht bessere arten gibt.

Deswegen ist das Ergebnis aber nicht falsch!
Ausserdem werde ich das Gefühl nicht los, das hier welche gibt, diees unbeding kaputt reden wollen, vielleicht weil sie die Cam nicht haben, oder aus Langeweile wer weiß, aber da Du es ja so gut kannst, kannst Du Dir ja mal die Mühe machen oder?

Space


Antwort von cantsin:


Die V709 Lut habe ich ja extra nicht verwendet, um mich nicht wieder zu limitieren, denn diese Lut beschneidet wieder den Höhenbereich, da sie durch zu starkes Kontrast anheben diesen cutet. Nein, nochmals - das korrigierst Du mit Gain-Absenkung in der Node davor. In Resolve kann Dir eine LUT keine Information wegschneiden, die Du nicht in der Node davor wieder zurückholen kannst.

Genau das ist der Unterschied zwischen (a) der Arbeit mit Log- oder Raw-Material und (b) bei der Aufnahme eingebackenem Rec709.
Ausserdem werde ich das Gefühl nicht los, das hier welche gibt, diees unbeding kaputt reden wollen, vielleicht weil sie die Cam nicht haben, oder aus Langeweile wer weiß, aber da Du es ja so gut kannst, kannst Du Dir ja mal die Mühe machen oder? Das lass ich mal unkommentiert.

Space


Antwort von cantsin:

kannst Du Dir ja mal die Mühe machen oder? Kleines Postscript: Wenn Du die Testclips (entweder als Kameradateien oder als zwei 16bit-TIFF-Framegrabs) hochlädst, mache ich gerne einen eigenen Versuch.

Space


Antwort von klusterdegenerierung:

kannst Du Dir ja mal die Mühe machen oder? Kleines Postscript: Wenn Du die Testclips (entweder als Kameradateien oder als zwei 16bit-TIFF-Framegrabs) hochlädst, mache ich gerne einen eigenen Versuch. Ich lade sie Dir hoch!
Sorry, hab leider nur ISDN Upload :-)

Space


Antwort von klusterdegenerierung:

Hier sind die 4 Files so aus der Cam.
http://www.filedropper.com/vlogtest

Da bin ich mal gespannt, was Du uns zeigen kannst :-)

Space



Space


Antwort von cantsin:

Hier mal ein schneller Versuch, Deine Aufnahmen (a) zu normalisieren und (b) die jeweils unterbelichteten sowie die jeweils überbelichteten Aufnahmen einander (grob) anzugleichen.

Bei V-Log brennen die Spitzlichter später aus, und die Schatten rauschen ordentlich. Sieht aber so aus, als ob bei Vlog die Rauschunterdrückung der Kamera abgeschaltet wird, was eigentlich positiv ist.

Anmerkung: Alle Farbkorrekturen sind so ausgeführt, dass sowohl in den Schatten, als auch in den Spitzlichtern absolut nichts abgeschnitten wurde. (Bei einer normalen Korrektur würde man den Himmel richtig und nicht nach Grau clippen lassen - aber da waren noch Werte in einem Farbkanal übrig, die ich nicht abschneiden wollte.)

Space


Antwort von klusterdegenerierung:

Hier mal ein schneller Versuch, Deine Aufnahmen (a) zu normalisieren und (b) die jeweils unterbelichteten sowie die jeweils überbelichteten Aufnahmen einander (grob) anzugleichen.

Bei V-Log brennen die Spitzlichter später aus, und die Schatten rauschen ordentlich. Sieht aber so aus, als ob bei Vlog die Rauschunterdrückung der Kamera abgeschaltet wird, was eigentlich positiv ist.

Anmerkung: Alle Farbkorrekturen sind so ausgeführt, dass sowohl in den Schatten, als auch in den Spitzlichtern absolut nichts abgeschnitten wurde. (Bei einer normalen Korrektur würde man den Himmel richtig und nicht nach Grau clippen lassen - aber da waren noch Werte in einem Farbkanal übrig, die ich nicht abschneiden wollte.) Sorry cantsin, ist auch echt nicht persönlich gemeint, aber ich komme mir extrem verarscht vor!
Du schreibst genau das was ich geschrieben habe, nur mit anderen Worten!
Deine Ergebnisse sehen etwas anders aus, weil ich mich mit den korrigierten nicht an den Standartprofil look orientiert habe und Du noch etwas mehr in Richtung Helligkeit und Komtrast gegangen bist.

Ansonsten beschreibst Du genauso wie ich das Du die Aufnahmen einander anpasst und zu beiden Seiten keine ausreisser haben möchtest.

Ich habe nur nicht so sehr an den Reglern gedreht, weil ich den maximalen Umfang visualisieren wollte, statt den look des Standartprofils als optimales anzusehen und dies vielleicht mit Vlog so hin zu bekommen das es wie Std. aussieht aber nicht ausfrisst.

Mir geht es um die Bandbreite und die Möglichkeiten, die ich damit habe.
Aber unterm Strich hast Du nur einen look erzeugt, statt die Bandbreite zu nutzen, denn bei Dir fressen gewisse Stellen aus, die auch im Standartprofil schon ausgefressen waren aber im VLog nicht. Das sagt mir das auch Du nicht wirklich was mit diesem Mehrwert an zu fangen weißt.

Auch geht es nicht darum, alle Files genau mit gleichen Werten zu graden, das geht alleine schon nicht, da die VLog Varianten eh unterschiedliche Helligkeiten haben.

Auch das dieser Thread fast nur von uns beiden kommentiert wird, zeigt mir, das die Mehrheit sich garnicht wirklich für Resultate interessiert, sondern sich nur die Zeit vertreiben möchte!

Space


Antwort von klusterdegenerierung:

Hier unsere beiden Screenshots, bei denen sieht das einige Bereiche durch Deine Korrekturen eliminiert sind.

Space


Antwort von Frank B.:

Auch das dieser Thread fast nur von uns beiden kommentiert wird, zeigt mir, das die Mehrheit sich garnicht wirklich für Resultate interessiert, sondern sich nur die Zeit vertreiben möchte!
Ach, ich lese hier schon interessiert mit. Habe inzwischen auch mal ein wenig mit V-Log rumprobiert und ich muss sagen, dass ich es als ein interessantes Feature empfinde. Ich werde es natürlich nicht überall und wahrscheinlich auch nicht sehr oft einsetzen, aber ich kann mir vorstellen, dass es mir bei meinem Beispielvon dem Kirchenfenster, das ich weiter oben auf S. 3 brachte, sehr helfen könnte. Leider habe ich im Moment nicht die Möglichkeit es dirket auszuprobieren. Aber wird vielleicht bald.

Ich finde aus meiner Sicht die Diskussion hier etwas müßig aber macht ruhig weiter. ;)

Wenn jetzt vermehrt GH4 zum Verkauf angeboten werden, wie es hier in einem Beitrag steht, muss das nicht unbedingt mit dem zusätzlichen V-Log oder mit der minderen Qualität der Kamera zu tun haben. Auch nicht mit der Pannesonic (kleines Worspiel :)). Das kann auch mit dem Neuerscheinen der GH4R oder anderer Kameras aus einer höherpreisigen Liga zu tun haben, die evtl. dem einen oder anderen mehr bringen. Jedem das Werzeug, das ihm hilft, seine Vorstellungen umzusetzen. Die Kamera ist für mich toll und V-Log ein Zusatzfeature, das in manchen Situationen bestimmt weiter hilft. Eine 4K- Sony PXW X 70 kostet eben auch mal schnell einen Tausender mehr. Das kann halt nicht jeder machen. Irgendwann hol ich mir noch einen Assassin oder Shogun und dann denke ich, dass mich die GH4 noch ne Weile begleiten wird. Vielleicht bis die GH5 in erschwingliche Bereiche kommt. ;)

Space


Antwort von Adam:

Wenns Euch was hilft:

Ich sitze hier an einem ganz normalen alten Laptop.
Auf diesem Bildschirm schauen von den vier Bildern von catsin die standart-Versionen immer besser aus als die Vlog.
Und bei dem unteren Vergleich wirkt das Bild mit den roten Markierungen wesentlich besser.

Space


Antwort von Frank B.:

Und bei dem unteren Vergleich wirkt das Bild mit den roten Markierungen wesentlich besser. Das sehe ich anders.

Space


Antwort von klusterdegenerierung:

Wenns Euch was hilft:

Ich sitze hier an einem ganz normalen alten Laptop.
Auf diesem Bildschirm schauen von den vier Bildern von catsin die standart-Versionen immer besser aus als die Vlog.
Und bei dem unteren Vergleich wirkt das Bild mit den roten Markierungen wesentlich besser. Du hast den Pudelskern getroffen!
Du stehst jetzt für alle anderen, denn Dir geht es auch um "sieht besser aus"
Es geht aber nicht um sieht besser aus, sondern, wo bleibt mir mehr Zeichnung über!

Danach kannst Du Dir es ja bis zum bitteren Ende so schööön graden, bis der Arzt kommt!
WIe schön das die einen von Birnen und die anderen von Äpfeln sprechen!

Space


Antwort von cantsin:

Kluster, Du hast recht, in Deinen Grades ist mehr Zeichnung drin.

Space


Antwort von klusterdegenerierung:

Da im anderen VLog Thread nur Blödsinn über VLog geschrieben wird und man garkein echtes Interesse an objektiven Tests hat, würde ich gerne den Thread löschen, aber das geht wohl nicht.

Ich hätte mir meine Mühe um den Test sparen sollen, wenn ich sehe das dort richtige Profis erst in VLog drehen, dann die eh nicht so dolle Pana V709 Lut drüber legen und dann erst mit der Colorcorrection beginnen, statt zu begreifen das die Lut schon die Korrektur ist.

Das mit der V709 Lut korrigierte Bild besitzt keine Reserven mehr, im Gegenteil, die Höhen sind ausgefressen und der Hautton ist dahin.

Das Pana diese Lut nur als Anhaltspunkt zur Verfügung stellt, damit man einen Eindruck bekommt wie es gegradet aussehen KANN, scheint sich noch nicht rumgesprochen zu haben.

Selbst die richtigen Profis hier ignorieren das reine VLog Material und sprechen immer nur von Luts in der Post, die das reine Vlog Material wieder vereissen.

Ich habe Gestern noch Aufnahmen mit dem Shogun bei 800Iso und Zimmerbeleuchtung gemacht und bin absolut von der cleanen Leistung überzeugt, das Material sieht spitze aus und rauscht kein Stück, selbst wenn ich auf 1600Iso gehe, habe ich ein Top Bild.

Wenn es mit der Image App nicht mehr geht werde ich mir das Profil auf jeden Fall kaufen, denn auch in Verbindung mit dem Shogung habe ich fast schon einen Spielraum, wie ich es bei der Pocket habe.

Danke falls sich doch jemand über diesen Thread gefreut hat! :-)

Space



Space


Antwort von mash_gh4:

Da im anderen VLog Thread nur Blödsinn über VLog geschrieben wird und man garkein echtes Interesse an objektiven Tests hat, würde ich gerne den Thread löschen, aber das geht wohl nicht.

ich finde das schon fein, dass du dich gleich ans praktische testen gemacht hast!

bei mir geht's ein bisserl zögerlicher voran, weil ich gestern nacht erst die freie GH4-fernsteuerungssoftware modifizieren musste, um dem freischalt-hack auch ohne iphone/android image app freizuschalten... im übrigen braucht's halt auch ein bisserl ruhe, gedult, und nachdenken über die resultate von anderen, um wirklich lösungen für die offenen fragen zu finden...
Ich hätte mir meine Mühe um den Test sparen sollen, wenn ich sehe das dort richtige Profis erst in VLog drehen, dann die eh nicht so dolle Pana V709 Lut drüber legen und dann erst mit der Colorcorrection beginnen, statt zu begreifen das die Lut schon die Korrektur ist. hmm -- ganz so schlimm sehe ich das nicht.

prinzipell gibt's zwar dieses problem mit dem abschneiden von werten bei vielen LUTs, aber gerade diese 1D-profilkorrekturen, die die komprimierte bilddynamik wieder in den größeren wertebereich der linearen bearbeitung übersetzen, erlauben fast immer lichtwerte jenseits von 100% bzw. fließkomma-output > 1. es würde mich also sehr wundern, wenn du hier nur auf grund der verwendung von LUTs etwas abschneiden würdest.

und natürlich ist es noch idealer, wenn man nicht gleich in einem schritt die ganze transformation von LOG nach REC709 durchführt, sondern während des einlesens die daten von der log kodierung in den linaren arbeitsbereich des bearbeitungsprogramms bringt (im ACES workfflow, dient dazu die entsprechnende IDT), dort dann unter ausschopfung aller abstufungen und präzision die weitere bearbeitung vornimmt, und erst beim abschließenden export wieder eine verengung auf REC709 erfolgt. aber, das ist natürlich noch komplizierter -- kann man also nicht gut von heute auf morgen von allen erwarten.

deswegen finde ich es im prinzip schon o.k., wenn wenigstens die vorgesehenen LUTs verwendet werden. mehr probleme hab ich damit, wenn anleihen bei irgendwelchen ähnlichen profilen genommen werden od. von grund auf mit der hand korrigiert wird, ohne die ganz spezifischen unterschiede zw. log und klass. gamma-profilen zu berücksichtigen... allerdings ist ja wirklich nicht gesagt, dass nicht auch die umwandlungs-LUTs von panasonic fehler haben könnten. manche alternativen dazu -- ganz konkret: AA709 von Art Adams -- könnten tatsächlich verbesserungen bringen, da sie mit dem verlauf der farbsättigung und damit verbundenem problemen geringfügig anders umgehen...

also, wie gesagt, ich finde es toll, was du hier ausprobierst.

wobei mir ein besseres korrigieren von fehlbelichtungen innerhalb der vergrößerten dynamik-abbildungsreserven genauso realistisch und bedeutsam erscheint wie das vollständige ausnutzen der hinzugekommenen werte in besonders schwierigen kontrastreichen aufnahmesituationen.

Space


Antwort von klusterdegenerierung:

Danke für Deinen Zuspruch! :-)

Space


Antwort von chrishilton:

Ich sag auch mal Danke für die Arbeit, die Du dir gemacht hast.
Musste mich auch erstmal in das Thema einarbeiten, obgleich ich die A7S nutze mit Slog2.
Anfänger denkt: Klasse, jetzt mach ich Kino, dreh in Slog leg ne LUT drüber und fertig. Falsch gedacht Leute. Ich habe es so verstanden, dass diese VLog und Slog Profile die Bildinformationsdichte erhöhen können, keinenfalls ein Colorgrading Tool sind. Was auch Unsinn wäre denn das Color Grading ist von Film zu Film dynamisch unterschiedlich.
Also nochmals Danke.
LG Chris (der Pornofilmer)

Space


Antwort von wolfgang:

Da im anderen VLog Thread nur Blödsinn über VLog geschrieben wird und man garkein echtes Interesse an objektiven Tests hat, würde ich gerne den Thread löschen, aber das geht wohl nicht. Auch ich glaube du siehst das zu extrem. Und ich finde gar nicht dass der Thread gelöscht werden sollte - warum auch?
Ich hätte mir meine Mühe um den Test sparen sollen, wenn ich sehe das dort richtige Profis erst in VLog drehen, dann die eh nicht so dolle Pana V709 Lut drüber legen und dann erst mit der Colorcorrection beginnen, statt zu begreifen das die Lut schon die Korrektur ist.

Das mit der V709 Lut korrigierte Bild besitzt keine Reserven mehr, im Gegenteil, die Höhen sind ausgefressen und der Hautton ist dahin. Also ich weiß nicht wer hier mit Profis gemeint ist, ist mir eigentlich auch eher egal. Aber was mich wundert ist dass hier kaum einer über den tatsächlichen Vorteil von v-logv spricht - nämlich dass man recht schöne Signale in den Tieftönen hat. Und das Material natürlich so entwickeln kann, dass man dann in Summe mehr von den Hoch-, Mittel- und Tieftönen im Material hat. Verglichen mit

Ich sehe hier dass man beide Wege gehen kann: man kann LUTs drauflegen - aber sowohl mit dem Pansonic LUT wie auch den Convergent Design Looks für Panasonic wirkt das Material noch immer farblich sehr entsättigt. Daher wird man es wohl nach dem LUT noch farblich korrigieren und hinstellen müssen.

Und natürlich kann man auch mit anderen Mitteln des jeweiligen Werkzeugs das Material entwickeln - und auch hier sehe ich mit Vegas dass dies etwa mit levels recht gut geht. Aber auch hier braucht es dann noch Anpassunden der Farben.

Ich glaube somit dass beide Wege gangbar sind. Man muss eher bei der Aufnahme darauf achten, dass man das v-logv Material nicht zu stark clippen läßt. Also die 80% Marke schön einstellt. Und dann passen auch die genannten LUTS in etwa.

Ich habe Gestern noch Aufnahmen mit dem Shogun bei 800Iso und Zimmerbeleuchtung gemacht und bin absolut von der cleanen Leistung überzeugt, das Material sieht spitze aus und rauscht kein Stück, selbst wenn ich auf 1600Iso gehe, habe ich ein Top Bild. Also ich habe sowohl mit dem Shogun Aufnahmen gemacht - wie auch GH4 intern. Bei iso 1600 finde ich schon dass das intern aufgezeichnete Material recht stark rauscht. Nimmt man das aber auch iso 400 zurück ist das Problem beherrschbar.

Das Shogun Material muss ich erst auswerten.

Space


Antwort von klusterdegenerierung:

Also ich habe sowohl mit dem Shogun Aufnahmen gemacht - wie auch GH4 intern. Bei iso 1600 finde ich schon dass das intern aufgezeichnete Material recht stark rauscht. Nimmt man das aber auch iso 400 zurück ist das Problem beherrschbar. Hallo Wolfgang,
irgendwie werde ich das Gefühl nicht los, das ich zu Blöd dazu bin, das besagte Rauschen ins Bild zu bekommen!
Habe Dir mal ein 1600Iso Screenshot in FHD angehangen, den ich Abends mit einer Neonröhre gedreht habe.

Ich sehe da kein Rauschen, zumindest nicht das viel zitierte.
Vielleicht liegt es ja an meiner Belichtungsart, denn ich mache es so, das ich die Blende so aufmache das es clipt und ich voll ins Zebra komme, dann gehe ich nur ein ganz bisschen zurück, so das das Zebra gerade ansetzen möchte.
Da sehe ich dann schon nicht mehr viel, (weil Motiv sehr Hell) anschliesend brauche ich lediglich Gain, Gamma, Lift ein bisschen gegendrehen, selbst Sättigung braucht man fast schon garnicht bis gerade mal 60 statt 50 (Davinci).

Dann sieht das Bild top aus.
Hier ein Screenshot aus einer Shogunaufnahme in HQ 10Bit 4K und anchliesend korrigiert in 8Bit FHD ausgegeben.

Bin damit mehr als zufrieden. :-)

Space


Antwort von Klose:

Hier ein Test von der Bmpcc und der Gh4 vlog L



Space


Antwort von klusterdegenerierung:

Ich wundere mich immer wie dunkel die Jungs das VLog Material haben!
Bei mir sieht man schon fast das Motiv nicht mehr, so hell ist das!

Vielleicht ist dass das Geheimnis des nichtrauschens bei mir.
Leider habe ich die Shogunaufnahmen schon gelöscht, sonst könnte ich mal ein screenshot posten. Was ich bieslang aber gesehen habe, sieht alles aus wie korrekt belichtet bis zu dunkel.

Ich fürchte schon fast, das die die mit VLog filmen Angst haben sie hätten anschliesend nix zu sehen, weil es eh schon so flach ist und gehen deshalb eher ein bisschen zu dunkel!

Wie gesagt, ich sehe teilweise fast das Motiv schon nicht mehr.
Aber ich habe auch beschlossen alles was mit Lut korrigiert ist, zu ignorieren ;-)

Space


Antwort von srone:

Aber ich habe auch beschlossen alles was mit Lut korrigiert ist, zu ignorieren ;-) wie soll"s auch funktionieren, jeder belichtet wie er will und das lut soll"s richten?

na dann, viel spass.

lg

srone

Space


Antwort von Frank B.:

Ich wundere mich immer wie dunkel die Jungs das VLog Material haben!
Bei mir sieht man schon fast das Motiv nicht mehr, so hell ist das! Das ist nach einigen Versuchen auch meine mit Erstaunen festgestellte Wahrnehmung, V-Log L leicht überzubelichten. Das fällt ein bisschen schwer, weil das flache Bild eher zu einer leichten Unterbelichtung anregt.

Space



Space


Antwort von klusterdegenerierung:

Eben! Das von Klose verlinkte Testvideo, ist ja im originalem schon kaum von einem korrigierten zu unterscheiden, so dunkel ist es.

Wenn man sich hier oben noch mal genau die interne 8 Bit Aufnahme ansieht, die ich anfänglich als Überbelichtung angegeben habe, dann sieht man schon sehr deutlich, welchen Unterschied ich da drin habe.

Das was ich da als Überbelichtung angegeben habe, ist nach neustens Test sogar noch etwas zu dunkel!
Momentan gehe ich eher noch heller!

Space


Antwort von wolfgang:

Ja wie ist denn dein Zebra eingestellt? Und nutzt du das der GH4? Oder das im Shogun? Und wenn im Shogun nutzt du das mit oder ohne Vorschau Lut?

Ich muss sagen ich habe das Rauschen primär bei der internen 8bit Aufnahme gesehen, mir Shogun Material ist das viel besser. Habe erst mit iso1600 gearbeitet, bei iso 400 ist es bei 8bit intern besser. Beim Shogun geht auch iso1600 eher.

Es scheint auch vielleicht zwei diskutierte Probleme zu geben - einmal Rauschen und dann Farbartefakte die primär bei 8bit auftreten dürften (aber nicht nur). Vielleicht wird das auch bei stärkerer Belichtung besser.
http://www.dvxuser.com/V6/showthread.ph ... OG-L/page6

Die Farbartefakte scheinen ein Problem von Premiere zu sein, bei resolve tritt das nicht auf (dort nachlesbar).

Mit dem Shogun hat man Vorteile. Ich nutze den waveform monitor, da kann man sehr exakt auf 80% gehen und clipping vermeiden. Das Zebra in der GH4 mit 80% geht auch. Im Shogun nutzt man entweder das 80% Zebra ohne Vorschau-Lut, oder das 100% Zebra mit Vorschau-Lut. Der waveform monitor des Shoguns mit Vorschau-Lut ist analog auch mit 100% nutzbar.

Space


Antwort von klusterdegenerierung:

Ich bin in GH4 bei 90-95% Zebra, Shogun hatte ich gar nicht an, ist mir jetzt erst aufgefallen.

Lut als Preview verwende ich nicht, da ich dann immer das Gefühl habe nicht richtig Belichten zu können.

Und so gut der Shogun auch ist, die finale Belichtungsüberprüfung nehme ich doch immer wieder an der Pana selber vor.
Sie hat sich bisher als Ausschlaggebender erwiesen, auch passt, obowhl ich den Shogun kalibriere, die Farbe nicht so richtig.

Wie ist das bei Dir, passt es da?

Space


Antwort von Frank B.:

Ja wie ist denn dein Zebra eingestellt? Und nutzt du das der GH4? Falls ich auch mit drauf antworten darf, ich nutze zur Belichtung das Histogramm. Die GH4 zeigt eine korrekte Belichtung an, indem das Histogramm von Gelb auf Weiß wechselt. Meist belichte ich aber ein Stück darunter. Beim V-Log siehts aber schöner aus, wenn man etwas drüber belichtet. Mit dem Zebra das muss ich erstmal ausprobieren.
Ich möchte nochmal drauf hinweisen, dass V-Log für mich nur in ganz wenigen Lichtsituationen Sinn macht. Ich habe nicht vor, es dauerhauft anzuwenden. Bei den meisten Lichtsituationen ist es nicht nötig. Ich würde es aber anwenden, wenn der Dynamikumfang ansonsten nicht ausreicht. Also helle Partien überstrahlen UND gleichzeitig dunkle absaufen (mein Beispiel mit den Kirchenfenstern).

Space


Antwort von klusterdegenerierung:

Ich weiß garnicht ob das unbedingt das einzige Ziel der VLog ist, denn irgendwie läßt es sich anders bearbeiten, aber vielleicht ist das auch nur son Gefühl, weil das ganze bewegt sich, da muß man schon ehrlich sein, auf einem nicht soo hohen Niveau, als das es einen jetzt voll aus den Socken haut und Raw ersetzt.

Aber eine Aufwertung stellt es meines erachtens schon dar.
Ich fände es schön wenn es noch mal so einen aufwendigen Shootout wie damals von Zacuto geben würde, in dem auch die GH mit SPeedbooster und VLog mit in der Rige der ganz großen dabei wäre, wie damals auch die GH3.

Da würde sicherlich noch mal der letzte Rest herraus gekitzelt! :-)

Space


Antwort von wolfgang:

Ich bin in GH4 bei 90-95% Zebra, Shogun hatte ich gar nicht an, ist mir jetzt erst aufgefallen. Wie machst du das? Unter v-log v hört der Lumarange bei IRE79 auf - 90-95% erreichst du damit gar nicht, weil vorher geclippt wird??

Ich habe das GH4-Zebra auf 80% eingestellt - da erkennt man unter v-log wo man das clipping erreicht.
Lut als Preview verwende ich nicht, da ich dann immer das Gefühl habe nicht richtig Belichten zu können. Doch, lut preview gehen mit dem Shogun recht gut weil es ein Bild liefert wie es in etwa später aussehen wird.
Und so gut der Shogun auch ist, die finale Belichtungsüberprüfung nehme ich doch immer wieder an der Pana selber vor. Wie gesagt, das geht vom Bild her eigentlich gar nicht, weil das Bild zu flach bleibt und Pana der GH4 keinen Vorschaulut verpaßt hat. Das Histogramm schaltet unter v-logv automatisch auf den eingeschränkten Bereich ein, damit kann man arbeiten - wie auch Frank meint. Oder aber wenn man eben das GH4 Zebra auf 80% stellt.

Space


Antwort von wolfgang:

Ich weiß garnicht ob das unbedingt das einzige Ziel der VLog ist, denn irgendwie läßt es sich anders bearbeiten, aber vielleicht ist das auch nur son Gefühl, weil das ganze bewegt sich, da muß man schon ehrlich sein, auf einem nicht soo hohen Niveau, als das es einen jetzt voll aus den Socken haut und Raw ersetzt. Also ich habe heute begonnen ein paar Tests mit Hauttönen zu machen. Das Ergebnis schaut sowohl für die interne 8bit Aufnahme wie auch die Shogun 10bit Aufnahme gar nicht schlecht aus, die Hauttöne kommen recht gleichmäßig rüber. Und ich verwende dazu Vegas und Bulltet Looks mit dem Panasonic GH4 V35 LUT.

Space


Antwort von wolfgang:

Der Unterschied zu den Hauttönen in Porträtaufnahmen zwischen CinemaD und v-logv ist geradezu dramatisch. Unter CinemaD kommen die Hauttöne mit viel mehr überbelichteten Stellen, die Haut erscheint in CinemaD grausam wenn man daneben v-log v Aufnahmen hat und auf die einfach einen LUT legt.

DAS macht einen signifikanten Unterschied.

Space


Antwort von GrinGEO:

ich persönlich bin extrem schockiert über das massive rauschen vom v-log underexposed zum standard underexposed.

Und ich sehe kaum einen Unterschied in der Dynamik...

Kannst Du die Bilder bitte auch mal mit Cine V und Cine D vergleichen? Das wäre super interessant....

hast Du VLog gekauft oder die 2.3 gratis version genommen? Könnte ggf. das Rauschen daran liegen?

Ich konnte mich noch nicht dazu bewegen, das Update zu fahren...

btw. mir fällt gerade auf, dass Deine Aufnahmen bei bewölktem Himmel entstanden. Vermutlich ist das nicht das richtige Umfeld für VLog Einsatz.

Kannst Du die Tests nochmals wiederholen bei starkem Sonneneinfall, weil ich glaube dass sagt dann deutlich mehr aus.

Bei VLog würde ich auch gar nichts underexposen, sondern immer auf ETTR fahren oder +1 Blende Überbelichten....

Space



Space


Antwort von mash_gh4:

Und ich sehe kaum einen Unterschied in der Dynamik... hier ein paar grobe tests zur abgebildeten dynamik an hand eines graukeils und jeweils +/-4 lichtwerten unter-/überbelichtung:

1. gh4 std profil -- ISO200, f16, 1/15-1/250-1/4000, full range, alle anderen einstellungen auf 0.:

zum Bild


2. v-log profile -- ISO400, f16, 1/25-1/400-1/6400:

zum Bild


3. mit darktable defaulteinstellungen entwickelte raw bilder -- ISO200, f16, 1/13-1/200-1/3200:

zum Bild


4, cine-d -- ISO200, f16, 1/8-1/125-1/2000)
achtung: hier wurde als mittleres ausgangsbild nicht die korrekte aufnahme herangezogen, weil ich sonst keine passenden aufnahmen für +4 gehabt hätte. das ganze ist also im sinne von ETTR versetzt.
im übrigen waren leider auf meiner kamera bei der aufnahme nicht die defaultwerte gesetzt, sondern: highlight/shadow: 0,0 contrast: -1 sharpness: -5 noise reduction: -1 saturation: -1

zum Bild


wie gesagt: das ganze kann höchstens als anhaltspunkt und grobe annäherung betrachtet werden.

und bitte unbedingt nicht einfach ohne überprüfung und nachrechnen übernehmen. ich bin leider fürchterlicher schlampig, und bring fast immer irgendwo mindestens einen gravierenden fehler unter. ;)

Space


Antwort von domain:

Da hast du dir ja ganz schön Mühe gegeben.
Zunächst mal umfassen alle Waveformen 24 Stufen mit allerdings unterschiedlicher Steigung.
Die von Std und Cine-D betragen beide ca. 30 Grad, wobei das Std-Profil im Lichterbereich sogar flacher also günstiger verläuft. Bei Überbelichtung zeigt es demgemäß noch 11 Abstufungen, Cine-D nur 7.
Die gesamte Dynamik also von Über- bis zur Unterbelichtung läuft bei Std von 0-100 bei Cine-D von 0-97, also kein wesentlicher Unterschied, bei V-Log allerdings nur von 12-75 (kein Kommentar).
Meiner Meinung nach ist daher das Standardprofil, so wie es hier gezeigt wird, das empfehlenswerteste.

Space


Antwort von mash_gh4:

Da hast du dir ja ganz schön Mühe gegeben. sicher -- aber deswegen kann es natürlich trotzdem völlig unbrauchbarer blödsinn sein ;)

wirklich zufrieden bin ich damit jedenfalls nicht. das ganze ist ausgesprochen verwirrend und enthält viel zu viele variablen und unschärfen, um ernsthafte resultate ableiten zu können. so etwas gehört einfach mit einem dsc xyla ausgemessen, dann bekommt man resulate, die man auf einen blick erkennt und denen man eher trauen kann (siehe hier).
es war also "nicht mehr als ein sehr improvisierter versuch in diese richtung...
Zunächst mal umfassen alle Waveformen 24 Stufen mit allerdings unterschiedlicher Steigung. ja grauverläöufe bzw. graustufenkeile gibt's tatsächlich in unterschiedlichen intensitätsabstufungen bzw. verläufen.

ich hab hier den untersten teil eines IT8.7 testcharts genommen. hier verlaufen die stufen weitestegehend gleichförmig. vorgesehen sind in der norm für derartige testcharts folgene L* werte für die betreffenden felder:


zum Bild


die ausgemessenen tatsächlichen werte, die man mit den testkarten gewöhnlich mitgeliefert bekommt, weichen aber aber immer ein wenig davon ab. im konkreten fall:
SAMPLE_ID XYZ_X XYZ_Y XYZ_Z LAB_L LAB_A LAB_B LAB_C LAB_H GS0 75.85 80.86 84.92 92.07 -2.04 2.23 3.02 132.48 GS1 65.36 69.19 75.39 86.60 -0.92 -0.04 0.92 182.47 GS2 57.46 60.85 66.44 82.30 -0.91 -0.16 0.94 189.47 GS3 50.51 53.26 58.80 78.03 -0.30 -0.75 0.82 247.50 GS4 44.41 46.87 51.59 74.10 -0.39 -0.57 0.69 235.81 GS5 38.91 40.94 45.22 70.13 -0.01 -0.72 0.73 270.07 GS6 33.84 35.60 39.09 66.21 0.01 -0.40 0.41 272.69 GS7 29.44 31.06 34.11 62.56 -0.30 -0.39 0.52 230.02 GS8 24.93 26.38 28.65 58.39 -0.58 0.10 0.60 171.76 GS9 21.04 22.19 24.24 54.22 -0.21 -0.14 0.34 219.31 GS10 17.66 18.65 20.20 50.28 -0.34 0.20 0.44 149.95 GS11 14.67 15.54 17.08 46.36 -0.56 -0.34 0.67 210.69 GS12 11.93 12.56 13.87 42.09 -0.04 -0.48 0.53 266.40 GS13 9.70 10.27 11.16 38.32 -0.43 0.04 0.50 180.44 GS14 7.67 8.05 8.83 34.09 0.14 -0.19 0.31 237.72 GS15 6.01 6.36 6.96 30.30 -0.39 -0.16 0.47 190.27 GS16 4.58 4.83 5.26 26.23 -0.07 -0.05 0.30 204.66 GS17 3.44 3.63 4.02 22.42 -0.22 -0.37 0.46 236.21 GS18 2.52 2.66 2.94 18.62 -0.14 -0.35 0.43 259.79 GS19 1.73 1.84 2.06 14.62 -0.45 -0.50 0.84 216.06 GS20 1.18 1.27 1.37 11.04 -0.77 0.05 0.79 176.75 GS21 0.92 1.00 1.11 9.01 -1.21 -0.18 1.23 188.87 GS22 0.74 0.81 0.90 7.28 -0.91 -0.28 0.95 197.11 GS23 0.43 0.51 0.70 4.60 -2.28 -2.14 3.13 223.19 das sei hier nur gesagt, weil die entsprechenden screenshots natürlich bei weitem nicht an jene aussagekraft heranreichen, die sich ergibt, wenn man die entprechenden testaufnahmen durch die analyse-software (bspw. argylls 'scanin') schickt, wo die felder automatisch erkannt und die betreffende farbwerte und statistische abweichung ausgegeben werden, was einen exakteren vergleich mit korrekten referenzdaten ermöglicht.

so gesehen sind die bilder, wie ich oben gepostet habe, eher ein abfallprodukt am rande komplizierter kamerakalibrierungsbemühungen.

ein kollege in anderen foren hat mit hilfe der aus dieser belichtungsserie gewonnen daten bereits die belichtungskompensationskurven für das std profil der gh4 im ACES workflow nachgebildet (vgl: ). wenn wir gleichartiges auch noch für die farbkorrekturen schaffen könnten, wären damit möglicherweise die vorzüge einer entsprechender verarbeitung auch ohne die unübersehbaren nachteile der jetzigen v-log implementierung denklbar!

völlig sinnlos sind solche sinnlich erfassbaren groben zwischenschritte bzw. testausgaben trotzdem nicht. man erkennt darin oft viel besser, auf welche details man sich weiter konzentrieren muss bzw. welche ursprünglichen groben vorstellungen sich als völlig falsche annahme erweisen...
Die von Std und Cine-D betragen beide ca. 30 Grad, wobei das Std-Profil im Lichterbereich sogar flacher also günstiger verläuft. Bei Überbelichtung zeigt es demgemäß noch 11 Abstufungen, Cine-D nur 7. achtung: du musst immer alle drei teile in verbindung sehen, weil leider die belichtung des mittleren ausgangsbilds nicht immer ideal gewählt wurde und sich deshalb der ausgangspunkt für das abzählen der sufen im +4LV bereich verschiebt. :(

das ist in wahheit natürlich eine völlig inakzeptable schwäche dieser konkreten screen-shots, die den tatsächlichen vergleich ungemein erschwert. ich hab's nur deshalb so gemacht, weil ich beim erstellen der belichtungsserien, ehrlich gestanden, übersehen habe, dass ich derart weit variierende werte benötigen würde. deshalb hätten mir vergleichsaufnahmen gefehlt, wenn ich fürs mittlere bild immer die treffendere belichtung gewählt hätte -- sorry!

trotzdem -- du hast völlig recht -- std schlägt sich in besser als man das erwarten würde!
die unterschiede fallen verhältnismäßig gering aus.

man darf das allerdings nicht ausschließlich nur an der abbildbaren dynamik bzw. dem erfassten kontrastumfang festmachen, sondern muss auch beachten, dass die jeweiligen übertragungskuven für die jeweiligen belichtungsbereiche -- die anzahl der werte innerhalb dieser graukeilschritte an der jeweiligen position im belichtungsbereich -- doch deutlich unterschiedlich ausfallen. das wird in den oben bereits verlinkten artikel besser sichtbar.
Die gesamte Dynamik also von Über- bis zur Unterbelichtung läuft bei Std von 0-100 bei Cine-D von 0-97, also kein wesentlicher Unterschied, bei V-Log allerdings nur von 12-75 (kein Kommentar). ich würde in dem zusammenhang halt eher von genutzen helligkeitswerten sprechen.

nach einem maß für die 'dynamik'-abildung würde ich eher in der horizontalen ausdehnung suchen. und zwar so, dass man jeweils den oberen und unteren graphen von jenem punkt an hinzuzieht, wo im mittleren bereich die werte an den rändern enden, bis sie sich im clipping oder nach unten hin im rauschen verlieren. so ergeben sich dann drei horizontale bereiche, die zusammengenommen den dynamikumfang im jeweiligen aufnahmeprofil widerspiegeln -- aber halt leider wirklich völlig unbrauchbar grob. :(
Meiner Meinung nach ist daher das Standardprofil, so wie es hier gezeigt wird, das empfehlenswerteste. ja, so schlecht ist es nicht!
allerdings beeindrucken mich auch cine-d in derartigen messreihen immer wieder.

das problem mit beiden profilen zeigt sich aber sofort, wenn man sie im ACES workflow mit den ergebnissen vergleicht, die man mit v-log und wirklich passenden umrechnungs- bzw. korrekturmechanismen beim einlesen vergleicht. da sieht man dann augenblicklich, dass v-log zwar in puncto bildqualität ein völlig untaugliches mittel darstellt, aber die korrektur der farben und umkehrung log-kodierten lichtwerte perfekt funktioniert. wenn man das selbe mit dem std profil versucht und eine std-rec709 IDT versucht, schaut das resultat leider deutlich unbefriedigender aus. mit cine-d ist das noch viel schlimmer -- leider auch schon bei der prakischen nutzung ganz konventioneller nachbearbeitungswerkzeuge. würde es dieses problem nicht geben, und sich std und cine-d in gleicher weise in derartige workflows fügen bzw. vom hersteller mit IDTs/LUTs unterstützt werden, bräuchte man über v-log in der jetzigen form wirklich kein wort zu verlieren. aber, so weit sind wir bekanntlich nicht. aus meiner sicht geht's also weiterhin darum, wie man aus den real vorfindlichen kompromissen ein maximum herausholen kann?

und sorry nocheinmal -- dass das ganze derart fragwürdig bis praktisch unbrauchbar ausgefallen ist... wahrscheinlich sollte man darüber besser den mund halten und es vor der öffentlichkeit verstecken ;)

eine kleinigkeit kann ich übrigens noch nachreichen: eine bessere abbildung der raw-fähigkeiten des sensors zum vergleich. hier mit direktem import der linearen werte aus dem darktable in den ACES workflow:


zum Bild


Space


Antwort von mash_gh4:

nachdem ich jetzt ein kleines programm geschrieben hab, um meine kamera vom laptop aus fernzusteuern und derartige testserien ohne große mühen und menschliche irrtümer automatisch aufnehmen, hab ich jetzt alle verfügbaren bildprofile in ISO400 bei belichtungen von 1/16000 bis 1/2 nocheinmal ausgemessen. ich hab dabei ausschließlich jene rohen rohen daten herangezogen, die sie sich nach dekomprimierung der UHD H.264 files im ffmpeg im Y kanal in einem ca 50x100 pixel großen bildauschnitt zeigen. das ganze ist in erster line als grundlage für jene IDT entwicklungen gedacht, um die sich jbalazer bemüht.

hier eine entsprechende aktuelle grafik:
(die x-achse zeigt angaben in belichtungsstufen)


zum Bild


und weil wolfgang in einem anderen thread die frage des rauschverhaltens thematisiert hat, zusätzlich auch noch eine grafik der standardabweichung für die betreffenden messfelder -- wobei ich ein bisserl vorsichtig wäre, wie weit man diese angebe alleine tatsächlich als anhaltspunkt für die rauschverhalten ansehen sollte? (nur Y-plane etc.)


zum Bild


wer das ganze an hand der rohdaten im detail näher untersuchen will, kann die liste der messergebnisse auch direkt downloaden.

spannend finde ich persönlich bspw., wie abrupt die cine-d kurve noch oben hin endet, im gegesatz zu anderen profilen...

Space


Antwort von Rick SSon:

Man kann doch auch die LUT nutzen und bspw. in Resolve dann die "Deckkraft" verringern und sich dann seine Details trotzdem zurueck holen. Ne Lut kann ein schoener Anfangspunkt sein, ich nutze das zwar fast nie, aber verteufeln wuerde ich es auch nicht direkt.

Soweit ich das bisher gesehen habe rauscht uebrigens jede dslr kamera bei log in den dunklen Bereichen, weshalb bspw bei der Sony a7x empfohlen wird ca 2 Blenden drueber zu belichten und dann in der Post den Gain zurueck zu ziehen.

Space


Antwort von wolfgang:

Hmm, danke für die interessanten Kurven. Das zeigt im ersten Fall doch recht klar dass v-log l als viel flachere Gammakurve eben sehr linear in einem gewissem Bereich linear und viel mehr Werte den Blendenstufen zuweist. DAS ist ja der Vorteil der log Kurven.

Bei der zweiten Kurve - wenn ich das richtig verstehe ist bei v-log l eben im tiefem Blendenbereich (x-Achse) also bei wenig Licht das Rauschen relativ stark? Würde bedeuten dass halt vlog l eher mit ausreichendem Licht gut funktioniert.

Space


Antwort von mash_gh4:

Hmm, danke für die interessanten Kurven. Das zeigt im ersten Fall doch recht klar dass v-log l als viel flachere Gammakurve eben sehr linear in einem gewissem Bereich linear und viel mehr Werte den Blendenstufen zuweist. DAS ist ja der Vorteil der log Kurven. ja -- der verlauf ist wirklich hübsch! :)
natürlich würde man sich etwas derartiges wünschen, wenn da nicht die unübersehbaren probleme mit dieser ganz konkreten implementierung wären...
Bei der zweiten Kurve - wenn ich das richtig verstehe ist bei v-log l eben im tiefem Blendenbereich (x-Achse) also bei wenig Licht das Rauschen relativ stark? Würde bedeuten dass halt vlog l eher mit ausreichendem Licht gut funktioniert. da unten scheint das v-log signal ganz besonders stark verstärkt zu werden -- so jedenfalls erkläre ich mir das.

wenn du die kurve aber tatsächlich ernst nehmen willst, musst du auch noch mitbedenken, dass das v-log signal fast um den faktor 2 multipliziert werden muss, wenn man es dem full swing werteumfang der anderen profile seriös gegenüberstellen will. und hier ist nur die helligkeitsinformation berücksichtigt. in den farbkanälen kommen vermutlich noch größere störungen hinzu! :(

leider -- das ganze ist wirklich eine katastrophe! :(

für 8-bit beschränkte internen aufzeichnende benutzer ist es ohnehin unübersehbar, letztlich aber wohl auch für shogun-besitzer, die ja mit den anderen aufzeichnungsmodi auch dort eine deutlich bessere qualität erzielen können dürften -- den tatsächlichen 10bit vorteil also nicht unbedingt nur zum ausbügeln dieser probleme verschwenden sollten....

Space


Antwort von wolfgang:

Also der Faktor 2 ist es zwar nicht - das clippt ja bei IRE79 und nicht IRE50. Aber der Punkt stört gerade mit 10bit weniger. Schwieriger ist das bei 8bit beobachtete Auftreten von Farbartefakten, welches man bei 10bit kaum hat. In Summe bleibt vlog l wohl wirklich eher für die Shogun Nutzer übrig. Was schade ist wie ich meine.

Space


Antwort von WoWu:

Moin Wolfgang
Das zeigt im ersten Fall doch recht klar dass v-log l als viel flachere Gammakurve eben sehr linear in einem gewissem Bereich linear und viel mehr Werte den Blendenstufen zuweist. Wie kommst Du da drauf ?
Die Hälfte, bis 1/3 der Menge wird nur zugewiesen

Space



Space


Antwort von domain:

Verstehe auch nicht ganz, wie Wolfgang das gemeint hat. Denn wie aus der Grafik von mash_gh4 hervorgeht, wird bei vlog eine ev. sogar größere Eingangsdynamik in den Bereich zwischen 32 und 192 gequetscht, also zwischen IRE 12,5 und 75, das ergibt eine Differenz von 62,5 während alle anderen Profile 100 erreichen. Im Durchschnitt wird also nur auf 62,5% des möglichen Bitbereiches aufgezeichnet.


zum Bild


Space


Antwort von klusterdegenerierung:

Tja so ist das eben, bei einer lienearen Kurve, hat eben auch seine Nachteile.

Space


Antwort von domain:

Eine lineare Kurve ist auch zwischen 0 und 100 denkbar. Daran sieht man, dass der Verlauf speziell dieser Vlog-Kurve offenbar nur aus Marketinggründen und um dem gegenwärtigen Hype zu entsprechen eingeführt wurde.

Space


Antwort von wolfgang:

Na dann zeig uns mal die log Kurve die bei 0 anfängt.

Space


Antwort von domain:

Die gibt es natürlich nicht, weil das Rauschen knapp über Null besonders deutlich aufgezeichnet werden soll, was auch deswegen sehr schön kommt, weil ja mit relativ hohen ISO gearbeitet wird ;-)

Space


Antwort von wolfgang:

Die iso Zahl ist bei vlogl einstellbar - und empfehlenswert scheinen die geringen Werte zu sein. 400 etwa. Störender ist eher die Limitation nach oben hin. Aber alleine die völlig andere Kurvenform (siehe Messwerte oben) zeigt, dass dieses vlogl völlig andere Arbeitsweisen erlaubt, die die anderen Profile nicht können. Damit ist das auch absolut kein Marketingprofil.

Space


Antwort von WoWu:

Hallo Wolfgang völlig andere Arbeitsweisen erlaubt Erlaubt ist natürlich sehr vorsichtig ausgedrückt.
Ich würde sagen -erzwingt-
Was ich überhaupt nicht verstehe, ist, warm der Dynamkumfang künstlich eingeengt wird.
Das ist bei keiner andern LOG Funktion so.

Space


Antwort von wolfgang:

Ich vermute der GH4 Sensor hat nicht mehr Dynamikumfang im Form von Blenden als vlog l kann, vlog ist ja in Wahrheit für die Varicam entwickelt worden. Pana spricht von 12 Blenden, in der Praxis sinds wohl eher um die 10. Aber auch die anderen Gammakurven können nicht mehr.

Maximal hätte man den einzelnen Blendenstufen mehr Tonwerte zuweisen können um statt bei IRE79 eben erst entsprechend höher zu clippen. Hätte halt besonders bei 8bit geholfen, aber das hätte halt eine Art vlog2 gebraucht - für die GH4 aber wohl auch für die DVX200. Das wollte man halt offenbar nicht, zum Leidwesen vieler. Defacto mach das dann vlogl eher für die Nutzer von 10bit Rekordern interessant. Leider.

Space


Antwort von WoWu:

Am Dynamikumfang ändern die 10 Bit ja auch nichts und wenn man die verrauschten und dazu noch sehr als gering aufgelösten Blenden mal abzieht, liegt die Kamera bei bummelig 8 Blenden.
Wenn man den Rauschanteil und den Nullverlauf mitzählt, kommt man natürlich auf 12 Blenden. Da hätte ich an Marketingstelle einfach die Metro nach links nach um ein paar Blenden erweitert, dann kommen sie auf 20 Blenden ;-)
der das ist ja wirklich Beschiss.
Und dass die andern nicht mehr können, seh ich nicht. Die Alexa kommt mit einem ähnlich flachen Verlauf -auch unter Weglassung der Rauschanteile- auf 12 Blenden.
Mal ganz abgesehen davon, das Arri da Exposure latitude angibt statt Blenden.
Dann kann man das Rauschen natürlich mitzählen, aber Panasonic gibt ja Blenden an und die Orientieren sich ja am SNR.

Space



Space


Antwort von Stephan82:

Hi,

wäre es möglich, dass jemand mal seine GH4 mit Rekorder auf ein Stativ stellt und einen Clip in 1080p/8Bit (interne Aufzeichnung) und dann einen in 1080p/10Bit (externe Aufzeichnung) filmt und beide Clips hier zum Download anbietet?

Hätte gerne mal den direkten Vergleich einer einzigen Szene in 8Bit und 10Bit für Grading-Tests.

Wäre echt nice. Danke im voraus ;)

Space


Antwort von wolfgang:

Nur was kostet die Alexa und was eine GH4? Das ist halt in Wirklichkeit ein Vergleich der aus Sicht der Preise nicht mehr stimmig ist. Wenn, dann ist vielleicht eher der Vergleich mit den Sony oder Canon Kameras sinnvoller - die auch slog und clog können. Und dann wird halt noch relevant sein ob mit oder ohne externe Rekorder verglichen wird.

Clips sind ja im Netz teilweise verfügbar. Ich bin derzeit unterwegs und kann im Moment da nicht helfen.

Space


Antwort von WoWu:

Das ist schon richtig, nur wo sollen die 12 Blenden bei der GH4 herkommen ?
7 oder 8 Blenden heute rauschfrei zu machen, ist selbst für Handys kein Proböem mehr und unter dem Strich kommt bei der Gammakorrektur in der Post nichts anderes heraus, als aus den steileren Profilen nur dass bei v log mehr Banding entsteht, weil man 30% der Übertragungswerte in die Tonne getreten hat.
wäre ja nicht schlimm, wenn man für das Profil nicht extra noch 100 EUR verlangen würde.
Aber sei's drum.

Space


Antwort von wolfgang:

Sehe ich nach meinen Tests eben nicht so. Die Hauttöne kommen mit den steileren Gammakurven eben nicht so raus wie mit vlogl, Banding wird immer ein 8bit Problem bleiben, und bei 10bit stehen genug Tonwerte zur Verfügung.

Space


Antwort von domain:

Du beschreibst immer deine subjektiven Eindrücke und Erkenntnisse, zeigst aber nie vergleichende eigene Bilder, die deine Aussagen untermauern würden.
Worten kann man nie vertrauen, Bildern schon eher.
Wenn schon deine Frau nicht ihr Gesicht hier veröffentlicht haben möchte, dann schmiere ihr doch mal die Schultern schön glänzend mit Öl ein und mach Bilder davon. Dann werden wir die wunderschönen von dir beschriebenen Hauttöne den Rücken hinunter und den sanften Roll-Off im Glanzlicht des Fettes auch selbst beurteilen können.

Ingre, die Badende

zum Bild http://img5.fotos-hochladen.net/uploads/diebadendeisn4utrad5.jpg

Space


Antwort von klusterdegenerierung:

Du beschreibst immer deine subjektiven Eindrücke und Erkenntnisse, zeigst aber nie vergleichende eigene Bilder, die deine Aussagen untermauern würden. Aber im Gegensatz zu WoWu besitzt Wolfgang wenigstens eine Kamera! ;-)))

Space


Antwort von WoWu:

Damit weiß er dann auch, wo der Auslöser zu suchen ist.
Andere wissen nur das.
Damit hat er jedem von uns beiden etwas voraus.

Space


Antwort von wolfgang:

Du beschreibst immer deine subjektiven Eindrücke und Erkenntnisse, zeigst aber nie vergleichende eigene Bilder, die deine Aussagen untermauern würden.
Worten kann man nie vertrauen, Bildern schon eher.
Wenn schon deine Frau nicht ihr Gesicht hier veröffentlicht haben möchte, dann schmiere ihr doch mal die Schultern schön glänzend mit Öl ein und mach Bilder davon. Tja dann frag doch deine bessere Hälfte ob sie dir für einen fotographischen Akt zur Verfügung steht - und wenn du es mir nicht glaubst und es dir wichtig ist kannst dir ja die Kamera wo ausborgen und mit ihr testen!

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Panasonic S1 / S1H / S5 / S1R / GH5 / GH5s / GH6 / GH7 / G9 (II)-Forum

Antworten zu ähnlichen Fragen //


S1 4k50 Fragen an S1 User mit VLOG Upgrade
VLOG-L und max. 80 IRE Verständigungsprobleme
Neutrale Luts für Vlog
DER ultimative Hitze Test!
The "Ultimate Full Frame Lens Test"
Wünsche für Komodo Test
DJI RS 2 und DJI RSC 2: Die neuen DJI Einhand-Gimbal im Vergleich und Praxis-Test
HARDCORE - GEAR - Test DJI RS2 mit A7s iii, Raveneye bei -25 Grad in einem Eispalast
Bemerkenswerter Reallife Test eines Käufers der Skydio 2 Drohne
Dynamikumfang-Test für Drohnen?
iPhone 13 ProRes Greenscreen Test
Im Test: Sirui 50mm Fullframe | Anamorphische Schweiz Cinematic
MacBook Pro 16? M1 Max im Performance-Test mit ARRI, Sony, Canon, Panasonic, Blackmagic ? Teil 1
MacBook Pro 16? M1 Max im 5K-12K Performance-Test mit Sony, Canon, Blackmagic, Panasonic ? Teil 2
Sony A7 IV Sensor-Test - heimlicher S35-Spezialist?
Canon EOS R3 Sensor Test - 6K Large Format RAW für 6K!
Vergleich: MacBook Pro M1 Pro vs M1 Max im Performance-Test mit Resolve, Premiere und FCP
Das neue Apple Studio Display im Test: Gut, aber nicht gut genug?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash