Frage von klusterdegenerierung:Sollte das nicht mal ein update für die GH4 kommen?
Hat jemand mal was dazu gehört?
Antwort von domain:
Die gesamten Log-Profile ergeben doch nur einen Sinn bei so extremer Eingangsdynamik, dass sie nicht mehr gespreizt werden müssen, um einen quasi normalen Kontrast zu ergeben.
Und wie oft ist das der Fall?
Andernfalls müssen die flauen und so geliebten Bilder ziemlich aufgesteilt werden, was ja keineswegs im Sinne des Erfinders sein kann, oder habe ich da was missverstanden?
Antwort von klusterdegenerierung:
Kann ich nicht sagen, da ich mich damit nicht auseinander gesetzt hatte.
Aber ich kann mich halt noch dran erinnern, das es ziemlich gehyped wurde und man sich viel davon versprach.
Antwort von -paleface-:
Ob es was bringt, werden wir erst sehen wenn es da ist.
Wo wir aber wieder bei klusters Eingangsfrage wären.
Ich tippe aber mal darauf das die sich das für die GH5 aufsparen werden.
Antwort von klusterdegenerierung:
Das Gefühl beschlich sich mir irgendwie ab da, als es plötzlich doch nicht kam.
GH5 mit 8K und V-log ist ja auch nicht übel ;-)
Antwort von Uwe:
Antwort von klusterdegenerierung:
Interessant.
Und das man für die GH4 gut ARRi Luts (in der post) verwenden kann, ist mir auch schon aufgefallen! Natürlich läßt keiner die prahlerei mit der Isotauglichkeit der A7s aus, aber die Tage habe ich bei Shane einen Optikentest gesehen, bei dem die verwendeten 800Iso aussahen wie bei anderen 100, schon erstaunlich!
Antwort von Spork:
Für die GH4 soll wohl im Oktober erscheinen kündigte Panasonic Neuseeland an:
http://www.43rumors.com/confirmed-panas ... add-v-log/
Antwort von Stephan82:
Irgendwo habe ich auch mal gelesen, dass die GH4 an sich auch RAW im Video-Modus kann. Das wird aber wohl nie umgesetzt, denke ich. Komisch auch, dass es für die GH4 noch keinen Hack gibt. Hätte sich doch bei der Cam echt gelohnt.
zurück zum Thema:
Das Bild ist doch mit V-Log so flach, dass ich es in der Post wieder stark verbiegen muss, um ein ansehnliches Bild zu bekommen. Ich nehme mal an, dass die interne 8Bit-Aufzeichnung dafür unzureichend ist, oder? Ich denke an Banding und extreme Tonwertabrisse.
Antwort von wolfgang:
Darum ja auch die Diskussion im GH4-Shogun thread: mit v-log macht diese Kombination halt erst recht Sinn, weil ich damit über die 8bit hinaus komme.
Übrigens ist das Posting von Panasonic Neuseeland bereits wieder verschwunden. Was einem neuerlich zur Frage bringt ob v-log wirklich für die GH4 kommen wird. :(
Antwort von WoWu:
Die Frage stellt sich: denn wenn mein Ziel 8bit sind und mein Arbeitcontent 10 Bit, erübrigen sich solche Log Übertragungen fast schon wieder, weil ich ohnehin genügend Werte im mittleren Graubereich habe, aus denen ich meine 8 Bit bedienen kann.
Antwort von wolfgang:
Nur hatte er hier banding angesprochen.
Ich nehme mal an, dass die interne 8Bit-Aufzeichnung dafür unzureichend ist, oder? Ich denke an Banding und extreme Tonwertabrisse.
Und das ist halt eigentlich bevorzugt ein 8bit Phänomen.
Anders formuliert: es kann schon sein dass man mit 8bit genug Werte in vielen Bereichen hat, je nach Bildmotiv. Aber mit 8bit ists doch viel wahrscheinlicher an die Grenzen zu kommen.
Antwort von Spork:
Übrigens ist das Posting von Panasonic Neuseeland bereits wieder verschwunden. Was einem neuerlich zur Frage bringt ob v-log wirklich für die GH4 kommen wird. :(
Da hat sich vermutlich einer verplappert der von offizieller seite nichts sagen durfte. Eine GH5 kann ich mir vor 2016 nicht vorstellen. Es ist schon komisch dass die das vlog dann so früh offiziell gemacht haben, auch beta firmwares an nutzer rausgeschickt haben die das in dieversen youtube channels auch noch promoten um es dann versuchen totzuschweigen? Dieses eine ursprüngliche video vom letzen jahr hätte man ja noch als fake dementieren können. Das ist als wenn man seinem kind verspricht nach disneyland zu fahren und fährt stattdessen in ein Büroklammermuseum. Käme es erst als Killerfeature mit der GH5 hätte das bestimmt einen shitstorm zur folge :D
Entweder haben die größeretechnische probleme als gedacht gehabt (wobei der tester oben im video ja schon sagte, es fühle sich fertig an) oder es gab zoff mit den camcorderjungs, ob ein fotoapparat wirklich damit ausgestattet werden soll und das lumix department hat mit der veröffentlichung seine kompetenzen überschritten und dann war intern alarm bei panasonic.
Naja, im Oktober ist man dann ja hoffentlich schlauer.
Antwort von Stephan82:
Übrigens ist das Posting von Panasonic Neuseeland bereits wieder verschwunden. Was einem neuerlich zur Frage bringt ob v-log wirklich für die GH4 kommen wird. :(
Erst Beta-Firmware an ausgewählte Leute versenden, die damit Videos machen und diese bei Youtube präsentieren, danach per Twitter V-Log ankündigen und so den Verkauf der GH4 nochmal anheizen, um dann am Ende doch nicht zu liefern? Also wenn es nicht kommt, dann wäre es eine Frechheit.
Antwort von wolfgang:
Verärgert wären da wohl viele, das sehe ich auch so. Und natürlich wurden diese Tests wohl publik gemacht, um mehr Leute zum Kauf der GH4 zu bewegen, und um andere bei der Stange zu halten.
Nur: das ist mehr ein Aspekt der das Vertrauen der Anwender zum Hersteller berührt. Denn es besteht ja kein Rechtsanspruch der Anwender auf ein Firmware-Update, welches ein neues feature wie v-log bringt. Wenn eine Firma also sagt dass sie das nun doch nicht macht, dann ist das leider auch so. Der Kunde könnte dann nur seine Konsequenzen ziehen, beim zukünftigen Kaufverhalten.
Antwort von Angry_C:
Übrigens ist das Posting von Panasonic Neuseeland bereits wieder verschwunden. Was einem neuerlich zur Frage bringt ob v-log wirklich für die GH4 kommen wird. :(
Erst Beta-Firmware an ausgewählte Leute versenden, die damit Videos machen und diese bei Youtube präsentieren, danach per Twitter V-Log ankündigen und so den Verkauf der GH4 nochmal anheizen, um dann am Ende doch nicht zu liefern? Also wenn es nicht kommt, dann wäre es eine Frechheit.
Es wird schon einen Grund haben, dass Panasonic V-Log nicht bringt. Es hieß ja mal, dass das Update kostenplichtig sein wird. Das Geld würde sich Panasonic nicht nehmen lassen.
Wenn man sich anschaut, wieviel Schmutz sowie Fehlfarben man sich bei Cine-D und der leichten Anhebung der Schatten einhandelt, vermute ich, dass es einfach technische Gründe sind.
Antwort von wolfgang:
Es wird schon einen Grund haben, dass Panasonic V-Log nicht bringt.
Aha, wurde schon irgendwo von offizieller Seite gesagt dass dies nicht kommen wird?
Antwort von Skeptiker:
Aha, wurde schon irgendwo von offizieller Seite gesagt dass dies nicht kommen wird?
Bei der Panasonic DVX200 ist es jedenfalls dabei (siehe neuer Nachbar-Thread https://www.slashcam.de/news/single/Mehr ... 12254.html)!
Antwort von Angry_C:
Es wird schon einen Grund haben, dass Panasonic V-Log nicht bringt.
Aha, wurde schon irgendwo von offizieller Seite gesagt dass dies nicht kommen wird?
Hmmm, das habe ich nicht behauptet. Hab ja nicht geschrieben "bringen WIRD" sondern "bringt". Das ist ein kleiner aber feiner Unterschied zeitlicher Natur;-)
Antwort von wolfgang:
Nein, so wie du es formuliert hattest war die Aussage die, dass v-log für die GH4 nicht kommen werde. Denn die umgangssprachliche Formulierung in der Gegenwart ist ident damit dass es nicht kommen wird.
Bisher zumindest kenne ich keine offizielle Aussage von Panasonic dazu, dass v-log in der GH4 nicht kommen wird. Was aber auch nichts bedeuten muss. Denn umgekehrt gibts halt nur die (bewußt) gestreuten Berichte dass das in der GH4 getestet wird. Bewußt deshalb, da die Betatester unter NDA stehen und von sich aus das nie sagen oder publizieren dürften. Und am Ende des Tages sagt auch das noch nichts aus - man wird ja sehen ob dieses Update kommt oder ob es nicht kommt.
Antwort von Gooerkfish:
Ist es aber auch so, mein geschätzter Wolfgang, das die den
GH-1 GH-2 GH-3 nun GH-4 ( bald GH-5 / GH-50+) Kunden
oder User, absichtlich immer unter dieses selbe hipste und
kluge Goldfischglas stellen ( umgedreht, entleert und geputzt)
um zu sehen wie viele Sauerstoff-atome noch reichen um die
jährliche Schaukel wieder anzu-zündeln? Damit das Geldbörserl
( das habe ich im ör. Tv in einer Werbung gesehn, Ess-butget??)
sein selbiges Därmchen wiederbefüllt um rechtzeitig, qaurtalsbedingt, mit
einsetzen der Herbst-winterdepression, den Kompensationsrefelx zu
erlösen, der nun reicher an 1300 Geld-einheiten, gewillt in die online
Dezember-stores rennt? Die dan mutig bis März 2016 warten und sich mit
dem nächsten Superlichtheilsbringer um weiter 2komma4 F-stopps runter-
schwitzen, bis es dann doch..
ttata plär plärr trööööööt forumdudidumdanddadarei
GH-5
Antwort von Gooerkfish:
ich bin an der GH-5 interessiert und auch dieser rote Panahenkel
( schon recht fett$$$) lockt mich und neckt mich... :)
Antwort von ucob:
Hallo,
ich verfolge seit einiger Zeit die Diskussion um V-Log einer Kamera.
Leider erklärt mir niemand, was eine Kamera mit V-Log leistet. Gegoogelt finde ich unter V-Log Kurzbezeichnung für Video-Blogger oder eine Versandsoftware. Eine Kameraeigenschaft wird leider nirgends beschrieben.
Kann mich mal einer aufklären?
Gruß
ucob
Antwort von wolfgang:
Goldfischerl, das war noch der verständlichste Teil deines Postings:
ttata plär plärr trööööööt forumdudidumdanddadarei
Macht aber nix, gell? ;)
Antwort von klusterdegenerierung:
Das ist doch der Ösi mit nem neuen Namen :-))
Antwort von WoWu:
Hallo,
ich verfolge seit einiger Zeit die Diskussion um V-Log einer Kamera.
Leider erklärt mir niemand, was eine Kamera mit V-Log leistet. Gegoogelt finde ich unter V-Log Kurzbezeichnung für Video-Blogger oder eine Versandsoftware. Eine Kameraeigenschaft wird leider nirgends beschrieben.
Kann mich mal einer aufklären?
Gruß
ucob
Das wissen Viele, die laut danach rufen, selbst nicht.
V-LOG ist eine Übertragungsfunktion, in der die Schwarz, Grau und Weissanteile anders verteilt werden.
Das führt dazu, dass das Bild dunkellastig aus der Kamera kommt und in der Postproduktion bearbeitet werden muss, um ein halbwegs ansehbares Bild zu werden.
Über die Wirkung solcher Übertragungsfunktionen kann man, speziell bei 8Bit durchaus geteilter Meinung sein, aber es ist eben "cool", danach zu rufen.
Antwort von cantsin:
@WoWu, es ist allerdings schon so, dass die GH4 (im Gegensatz zur Konkurrenz von Sonys A7- und RX-Kameraserien) extern 10bit ausgibt.
Da bringt VLOG schon etwas. Zumal (a) die Standard-Bildprofile der Kamera farbtechnisch zu wünschen übrig lassen und nicht die volle Dynamik des Sensors abbilden und (b) die künstliche Nachschärfung in diesen Standard-Modi nicht völlig rausgedreht werden kann, während VLOG ohne Nachschärfung aufgezeichnet wird.
Hier gibt's GH4-VLOG-Beispielmaterial, 10bit ProRes UHD unbearbeitet aus dem Atomos Shogun-Recorder. Das sieht deutlich besser aus als das, was man bisher von der GH4 kennt:
https://www.dropbox.com/s/xtwhwbpe75k3k ... b.mov?dl=0
Anbei ein Grading-Beispiel dieses Materials. Hier sehe ich die GH4 bildqualitativ in derselben Liga wie bisher in dieser Kamera-Preisklasse nur Blackmagic.
(Mir persönlich wäre eine GH4 mit externem Recorder übers wacklige HDMI zuviel Geraffel, das die Run-and-Gun-Qualitäten der Kamera zunichte macht. Wenn's aber mal eine GH5 mit brauchbarer interner 10bit-Aufzeichnung in VLOG gäbe... Wobei mir "4K" völlig egal wäre.)
Antwort von motiongroup:
wenn der Scheitelpunkt erreicht ist wo sich das Interesse der Kaufabsicht zwischen gh4 und gh5 die Waage hält und das Interesse für den Kauf der in Richtung Warten auf die GH5 umschwenkt werden sie es eventuell noch nachschieben..;)
vermutlich wird es aber ähnlich der GH3 vs Peaking ablaufen..
Antwort von WoWu:
@cantsin
Und bedeutet das nun, dass Du das aus 10 Bit ohne V-Log nicht hinbekommen hättest ?
Wenn ja, warum ?
10 Bit hat in den Grauwerten mehr Positionen als 8 Bit mit LOG.
Wo soll da das Problem sein ?
Und gerade im Graubereich hast Du das "Mehr" an Dynamik wieder zusammengefärcht zur Hälfte (Siehe Peaks).
Die ursprünglich vorteilhafte Dynamik ist also gar nicht mehr existent.
Antwort von cantsin:
Und bedeutet das nun, dass Du das aus 10 Bit ohne V-Log nicht hinbekommen hättest ?
Farblich eventuell (wobei ich mir nicht sicher wäre, dass bei einem der konventionellen GH4-Bildprofile bereits ein paar Spitzlichter geclippt hätten), aber ich hätte dann immer noch künstliche Schärfe der Kamera drin gehabt. - Mir ist schon klar, dass Nachschärfung und V-Log-Kurve zwei verschiedene technische Hüte sind; da man bei Panasonic aber die Nachschärfung nur per V-Log-Profil loswird, läuft's pragmatisch darauf hinaus, dass man erst mit V-Log Bilder ohne Amateurvideocharakteristik bekommt.
10 Bit hat in den Grauwerten mehr Positionen als 8 Bit mit LOG.
Jetzt kann ich mal ausnahmsweise Deiner Logik nicht folgen. Das von mir gepostete Beispiel war 10 Bit mit LOG.
Antwort von WoWu:
Ich hab auch gar nichts gegen Log Kurven, nur frage ich mich, wo die Euphorie herkommt.
Wenn die GH4 Schwachpunkte hat, die man nur durch solche Features wegbekommt, spricht das nicht unbedingt für die Kamera denn Nachschärfungen sollten auch ohne Übertragungsfunktion abschaltbar sein.
Jetzt kann ich mal ausnahmsweise Deiner Logik nicht folgen. Das von mir gepostete Beispiel war 10 Bit mit LOG.
Das war mir klar, nur dass beim Übergang zu 8 Bit die ganzen schönen Vorteile (höhere Dichte im unteren und mittleren Grau) wieder wegkomprimiert werden.
Hättest Du also mit der linearen Dichte der 10 Bit Werte gearbeitet, wäre die native Dichte der Werte hoch genug, um bei Kompression zu 8 Bit alle verfügbaren Werte (ohne Punktoperationen) zu füllen.
Die Güte solcher Punktoperationen sind immer von der Softwaregüte abhängig.
Wenn man sie umgehen kann, ist das also kein Nachteil.
Wie gesagt, ich habe absolut nichts gegen logarithmische Übertragungen, kann aber eben diese frenetische Euphorie nicht verstehen und wenn es wirklich so ist, dass man nur dadurch die Nachschärfung umgehen kann, dann ist das, finde ich, eine Konstruktionsschwäche.
Antwort von cantsin:
Wie gesagt, ich habe absolut nichts gegen logarithmische Übertragungen, kann aber eben diese frenetische Euphorie nicht verstehen und wenn es wirklich so ist, dass man nur dadurch die Nachschärfung umgehen kann, dann ist das, finde ich, eine Konstruktionsschwäche.
Ja, natürlich. Der Preis, den man für eine Amateurkamera <1500 Euro bezahlt. Man könnte z.B. auch gleich zu einer Canon C100 oder C300 greifen, die all diese Konstruktionsschwächen nicht hat, aber dann landet man eben in einer anderen Preisliga.
Die V-Log-Euphorie geht deshalb nicht so sehr um die logarithmische Übertragung an sich, sondern ihre Tauglichkeit als Umgehungswerkzeug für diverse Schwächen/Begrenzungen der internen Signalverarbeitung der GH4.
EDIT: Ist übrigens auch nicht anders, wenn man mit der GH4 oder andere MFT-Systemkameras von Panasonic fotografiert. Da schaltet man die JPEG-Aufzeichnung am besten gleich ganz ab und fotografiert nur noch RAW. Während Olympus mit denselben Sensoren, aber dank besserer Signalverarbeitung, schon seit Jahr und Tag hervorragende Farben und JPEG-Qualität direkt aus der Kamera hinkriegt.
Antwort von wolfgang:
Wolfgang, in viellerlei Hinsicht ist die GH4 zusammen mit dem Shogun der Einstieg in die 10bit Welt für die kleine Brieftasche. Man darf wirklich nicht übersehen was eine GH4 oder auch diese Gerätekombination kostet - verglichen mit den Kamerasystemen die im Fernsehbereich eingesetzt werden.
Von der Seite her wird man wohl mit Abstrichen leben (müssen) - und freut sich über zusätzliche Features wie v-log.
Gerne nehme ich auch Spenden entgegen um mir bessere Systeme anzuschaffen.... komisch, da kommen keine! :)
Antwort von WoWu:
@cantsin
Ob das der Grund auch bei den andern "Rufern" ist ?
Ich weiss nicht, kann aber Deine Gründe durchaus nachvollziehen aber ich denke, wir sind uns da einig, dass der überwiegenden Mehrheit der Begriff "Filmlook" im Vordergrund steht.
Aber ich hatte das doch so verstanden, dass die GH4 noch gar kein V-LOG macht und der erst im externen Recorder aufgesetzt wird ¿
Kann man denn kein lineares 10 Bit damit aufzeichnen ?
Ansonsten gefällt mir übrigens Deine Abstimmung im Bild ausgesprochen gut.
@Wolfgang
Gar keine Frage ... ich versuche eben nur zu verstehen, worin denn nun eigentlich der Mehrwert liegt, bei all der Ungehaltenheit, die so an den tag gelegt wird.
Hört sich ja fast so an, als ob die Welt stehen bliebe, wenn im Oktober kein V-LOG kommt.
Antwort von Spaceman:
Super, ich glaub langsam schnallt Ihrs. Haben meine Gebete also doch was gebracht.
In diesem Sinne:
Kein Log kein Filmlook, Amen.
Schöne Grüße vom Jupiter.
P.S. Kleiner Tip noch an WoWu: wie willste denn im Rekorder eine Log-Kurve erzeugen wenn über HDMI ne Panasonic Rec709 Kurve ausgegeben wird???
-> Denkfehler
Antwort von Spaceman:
Mist, Hollywood hat schon wieder angerufen. Wenn ich nochmal soviel verrate wie im letzten Thread ziehen die mir die Löffel lang :-(
Also Pssst ;-)
Antwort von Spaceman:
Nur eine Tip noch an Cantsin, dann muss ich schluss machen:
Das V-Log Bild ist ein schönes Beispiel für falsches Grading: sieht aus wie Foto bzw. Video, hat mit Film nichts zu tun. Da könnte man gleich in Rec709 drehen...
Grüße, auf dem Weg Richtung Saturn,...
Antwort von wolfgang:
Na dann grade es mal richtig und stells hier rein. Der Link zum Original ist ja angegeben.
Antwort von cantsin:
Aber ich hatte das doch so verstanden, dass die GH4 noch gar kein V-LOG macht und der erst im externen Recorder aufgesetzt wird ¿
Nein, V-Log ist schon ein internes Bildprofil, das man - wenn man unbedingt will - auch für die interne 8 Bit-Aufzeichnung verwenden kann. Nur gibt es V-Log für die GH4 z.Zt. noch nicht offiziell, sondern es geistert nur in einer Vorab-Firmware für handverlesene Blogger-Betatester herum. Die stehen alle unter NDA, durften aber schon mit der GH4 aufgezeichnetes V-Log-Videomaterial im Netz posten.
Kann man denn kein lineares 10 Bit damit aufzeichnen ?
Kann man, aber dann eben mit der nicht abschaltbaren Nachschärfung (und vermutlich auch nicht ganz abschaltbaren Rauschunterdrückung sowie Gain-Verstärkung) und eben nur mit den eingebauten Farbprofilen, die gerade bei Hauttönen nicht so überzeugen und für die es keine hersteller-definierten LUTs gibt. Mit anderen Worten ist, was die GH4 "linear" aufzeichnet (wie bei vielen Amateurkameras) nicht wirklich linear, sondern durch Hersteller-Preset-Looks verzerrt, was man dann in Resolve und ähnlichen Programmen wieder zurechtbiegen muss/kann.
Ansonsten gefällt mir übrigens Deine Abstimmung im Bild ausgesprochen gut.
Danke, das war aber quick & dirty in Resolve erledigt - einfach nur Lift/Gamma/Gain normalisiert und einen Grünstich per Offset-Regler rausgedreht. Schon erheblich einfacher als z.B. die händische Korrektur von Blackmagic-Log nach Rec709.
Antwort von wolfgang:
wir sind uns da einig, dass der überwiegenden Mehrheit der Begriff "Filmlook" im Vordergrund steht.
Ich glaube das sollte jeder so sehen wie er mag. Bei mir steht Filmlook überhaupt nicht im Vordergrund - und schon gar nicht wenn daraus manch einen "heiligen Tempel" machen wollen.
Ich für meinen Teil will eher mal schauen was man damit machen kann.
Aber ich hatte das doch so verstanden, dass die GH4 noch gar kein V-LOG macht und der erst im externen Recorder aufgesetzt wird. Kann man denn kein lineares 10 Bit damit aufzeichnen ?
Das ist ein Eindruck der wohl aus dem anderen Thread, wo es eigentlich um das Zusammenspiel der GH4 mit dem Shogun ging (oder laut Titel gehen hätte sollen), entstanden ist.
Es ist so, dass Atomos und Panasonic durchaus in dieser Gerätekombination zusammen arbeiten. So wurde ja etwa der Aufnahmestart am Shogun von der GH4 aus implementiert - was in der Praxis eine sehr große Erleichterung ist. Und die haben offenbar auch die Entwicklungspfade abgestimmt - siehe andere features wie die anamorphe Aufnahme die beide Geräte unterstützen oder even auch v-log.
Faktum ist, dass der Shogun bereits 3D-Luts erlernt hat. Heißt - im Shogun sind s-log wie auch c-log wie auch v-log bereits seit dem letzten Firmware-Update verfügbar. Wenn also eine Kamera das unterstützt kann man den Shogun so konfigurieren dass er wahlweise
a) den passenden Lut nur für die Vorschau nutzt, und das z.B. s-log Material aufzeichnet
oder
b) man den Lut für die Vorschau nutzt, UND den Lut gleich auf das Material anwendet und das rec709 Material aufzeichnet.
Wir warten halt im Fall der GH4 noch auf v-log, um das nutzen zu können.
Und wie auch die anderen Produkte wird wohl die GH4 v-log - soferne es kommt - auch nur für die GH4 interne 8bit 420 Aufzeichnung nutzen können. Wie halt bei den anderen Geräten.
Hört sich ja fast so an, als ob die Welt stehen bliebe, wenn im Oktober kein V-LOG kommt.
Na sicher bleibt die Welt nicht stehen. Das halte ich für einen falschen Eindruck. Die lästige Sache ist eher dass Panasonic Betatests wohl sehr bewußt durchsickern hat lassen - und jeder der weiß wie NDAs normalerweise formuliert sind weiß dass jemand, der so einen Test macht, ohne Freigabe sicherich sowas nicht "unabsichtlich" durchsickern läßt.
Also ja, Panasonic wollte die Welt sehr wohl wissen lassen dass v-log für die GH4 möglich ist. Jetzt wollen wir das als Anwender natürlich auch haben - eh klar.
Sollten sich Panasonic dafür entscheiden, das gar nicht zu publizieren, wären sehr viele in der "GH4-Gemeinde" nach solchen "Durchsickeraktionen" vermutlich eher sauer. Das dürfte man sich eher schwer leisten können, vermute ich. Aber da wird auch im Netz klar gesagt dass es ja nicht nur "Panasonic" gibt, sondern verschiedene Lager - die Profischiene und die Consumer-Schiene. Und wie man hört soll die Profischiene nicht zu begeistert davon sein, ein Consumergerät mit 10bit 422 und features wie v-log auszurüsten. Das macht die Sache eher schwierig, vermute ich - und unklar was jetzt passieren wird.
Es wird auch noch die Variante diskutiert, ob v-log für die GH4 etwas kosten könnte. Oder ob das vielleicht erst nach der DVX200 kommen wird um die DVX200 Verkäufe nicht zu reduzieren. Das Netz ist voll von solchen Diskussionen, was da wirklich passiert werden wir eh sehen.
Für mich persönlich - also die Welt geht ohne v-log nicht unter. Aber ich hätte das gerne, keine Frage. Sollte es nicht kommen wäre ich auch auf Panasonic eher sauer - und meine letzten Geräte waren weitgehend von Panasonic. Das würde meine Bereitschaft, die DVX200 zu kaufen, sicherlich stark reduzieren. Einfach weil ich mir sage, dass Panasonic da offenbar was entwickelt hat was die Bildqualität verbessern würde - und mir das vorenthält. Das ist aber eher ein emotionaler Punkt der bei mir was zur Beziehung zur Marke aussagen würde. Aber vielleicht ist das nächste Gerät eh besser die Ursa mini?
Antwort von WoWu:
@cantsin
Sei nachsichtig mit mir, aber da muss ich doch nochmal eine Verständnisfrage stellen.
Wenn doch der Recorder erst vLog macht, und man an der gh4 nur ein, mit allen Effekten belegtes Signal herausbekommt, wieso sollten die dann durch die Übertragungsfunktion eliminiert werden.
Ist denn das geröstete Bild aus einer gh4' die bereits v-log hatte oder ist der, auf dem Bild im Recorder entstanden. Der Workflow ist mir noch nicht ganz klar. -sorry, wenn ich nochmal nachfrage.
@wolfgang
aber v in 8 Bit macht ja nun herzlich wenig Sinn.
Nur kann ich eben nicht verstehen, warum man von der Kamera keine sauberen 10bit Lin aufnehmen kann sondern nur. Mit Prozessing drauf.
was ich auch nicht verstehe, ist, dass der Recorder offenbar dann ja nur ein Mapping macht.
Eine Log Kurve bedient sich aber aus den Sensorsignalen und nicht aus einem bereits bestehenden Mapping..
Das ist ja gerade d Trick bei LOG, dass aus der Vielzahl der Werte die entsprechende Auswahl getroffen wird und so keine Spreizung entsteht.
Nimmt man das aber aus einem Mappin, bleibt gar keine andere Wahl, als zu spreizen. Dann ist das nur ein LOOK.
Antwort von WoWu:
Super, ich glaub langsam schnallt Ihrs. Haben meine Gebete also doch was gebracht.
In diesem Sinne:
Kein Log kein Filmlook, Amen.
Schöne Grüße vom Jupiter.
P.S. Kleiner Tip noch an WoWu: wie willste denn im Rekorder eine Log-Kurve erzeugen wenn über HDMI ne Panasonic Rec709 Kurve ausgegeben wird???
-> Denkfehler
Ich glaube, Du weißt mal wieder nicht, was Rec709 eigentlich bedeutet.
Wickie ist Dein Freund. da kannst Du Dir den Graph von 709 mal ansehen.
Antwort von Spaceman:
Mensch Ihr machts einem aber auch schwierig. Ihr redet so wirr durcheinander falsches Zeug, dass ich mich nochmal einschalten muss.
Bei WoWu hab ich wenigstens das Gefühl dass er schnell lernt, zumindest seinen Denkfehler hat er begriffen und verstanden dass Log im Rekorder nichts bringt wenn vorher ne Panasonic Kontrastkurve aus der GH4 rauskommt. Gut so, jetzt auf dem richtigen Weg bleiben und nicht gleich wieder anderen Unsinn verzapfen.
Ansonsten werden hier wilde Begriffe verwechselt. Linear wird hier im falschen Zusammenhang verwendet. Das nimmt nen Sensor als Rohdaten auf und hat nix mit den GH4 Videogammas zu tun.
Grading Workflow ist so:
Amateur: RAW -> Umwandeln nach Log ->Grading nach Videogamma
Profi: RAW ->Grading nach Videogamma
Antwort von cantsin:
@cantsin
Wenn doch der Recorder erst vLog macht, und man an der gh4 nur ein, mit allen Effekten belegtes Signal herausbekommt, wieso sollten die dann durch die Übertragungsfunktion eliminiert werden.
Nee, die Kamera macht v-log. Da hat sich der andere Wolfgang missverständlich ausgedrückt. Die Kamera kann (wohlgemerkt nur mit der noch nicht öffentlichen, nur Bloggern von Panasonics Gnaden zugeteilten Firmware) sowohl intern (in 8bit-AVC) in V-Log aufzeichnen als auch extern an HDMI (10bit unkomprimiert) ein V-Log-Signal ausgeben. V-Log stellt man dann an der Kamera einfach als Bildprofil ein. In beiden Fällen ist das Bild dann noch nicht mit Nachschärfung/Entrauschung/Gain "geröstet" wie die bisherigen Rec709-Bildprofile.
Hinzu kommt, dass die Atomos Shogun-Firmware ihrerseits V-Log in dem Sinne versteht, dass sie einen dazu passenden Rec709-LUT enthält und je nach Einstellung aufs Display des Recorders, aufs aufgezeichnete Videosignal oder auf beide zugleich anwenden kann.
Antwort von Spaceman:
P.S.:
Auf keinen Fall sollte Log mit Lift Gamma Gain gegraded werden.
Grober Anfängerschnitzer. Macht aber das halbe Netz falsch inkl. Tutorial Apostel. Das Problem kommt aus der Fernsehfritzen / Videowelt die jetzt die gleichen Knöppe in Ihrer Software drehen wie zu DV Zeiten...
Antwort von wolfgang:
Wenn doch der Recorder erst vLog macht, und man an der gh4 nur ein, mit allen Effekten belegtes Signal herausbekommt, wieso sollten die dann durch die Übertragungsfunktion eliminiert werden.
Ist denn das geröstete Bild aus einer gh4' die bereits v-log hatte oder ist der, auf dem Bild im Recorder entstanden. Der Workflow ist mir noch nicht ganz klar. -sorry, wenn ich nochmal nachfrage.
Also der Rekorder zeichnet nur das auf, was ihm die GH4 liefert. Er ist definitv in der Lage den lut für die Vorschau anzuwenden, und/oder auch die Aufzeichnung. Aber mehr macht der nicht.
Solange die GH4 noch kein v-log hat ist das macht man mit dieser Funktionalität des Shoguns nichts - und zeichnet daher derzeit nur in rec709 auf.
aber v in 8 Bit macht ja nun herzlich wenig Sinn.
Nur kann ich eben nicht verstehen, warum man von der Kamera keine sauberen 10bit Lin aufnehmen kann sondern nur. Mit Prozessing drauf.
Ich habe die Argumentation, dass bei 8bit in Wirklichkeit viel zu wenig Werte vorhanden sind damit log Sinn macht, verstanden und denke mir, dass du da absolut recht haben wirst. Das wird wohl wirklich grenzwärtig sein sprich zu wenige Werte bieten.
Der Umstand dass Sony bis zum Umfallen s-log und s-log2 in seinen Geräten anbietet (A7s, RX10 II usw) ist insofern hier interessant, als diese Geräte ALLE nur mit 8bit arbeiten. Selbst am HDMI-Ausgang der A7s liegt nur 8bit 422 an - und nicht mehr. Es wird daher spannend sein was das wirklich mit derartigen Geräten bringt. Über kurz oder lang werden wir auch Testmaterial haben, von diesen Sony Kameras, intern mit 8bit aufgezeichnet. Wird auch spannend sein das zu testen.
Ich würde mal gerne sowas an meinen Shogun hängen - auch wenn die Ausgabe nur 8bit 422 ist - um zu sehen was man damit bekommt. Ist ja nur ein "aufgeblasenes" 10bit Signal, ich weiß - aber trotzdem interessant.
Aber gerade darum ist ja die GH4 mit einer echten 10bit Ausgabe hier ein highlight, verglichen mit den anderen Geräten - auch wenn der micro-HDMI-Ausgang eine irre Fummelei ist und keinem gefällt (passende Kabelklemmen helfen hier halbwegs).
was ich auch nicht verstehe, ist, dass der Recorder offenbar dann ja nur ein Mapping macht.
Eine Log Kurve bedient sich aber aus den Sensorsignalen und nicht aus einem bereits bestehenden Mapping..
Ich vermute wir meinen hier das Gleiche was ich oben beschrieben habe.
Antwort von wolfgang:
Nee, die Kamera macht v-log. Da hat sich der andere Wolfgang missverständlich ausgedrückt.
Wo? Ich habe nie gesagt dass der Shogun alleine v-log generiert.
Hinzu kommt, dass die Atomos Shogun-Firmware ihrerseits V-Log in dem Sinne versteht, dass sie einen dazu passenden Rec709-LUT enthält und je nach Einstellung aufs Display des Recorders, aufs aufgezeichnete Videosignal oder auf beide zugleich anwenden kann.
Genau - aber das hatte ich öfters eh lang und breit beschrieben.
Antwort von Spaceman:
Lieber Wolfi, ich will Dir ja nicht den Spass verderben aber es bringt gar nichts einen Shogun an eine 8Bit Ausgabe zu hängen oder ein nicht Log Signal. Wie gesagt die Cam Hersteller sind nicht blöd haben das schon so eingeschränkt dass an einer Sub 5000 EUR Kamera garantiert kein Kinobild rauskommen kann.
Wenn ich Du wäre würde ich den Shogun möglichst schnell verkaufen bevor andere Besitzer auch auf den Trichter kommen....
Liebe Grüße
Spaci
Antwort von klusterdegenerierung:
Lieber Wolfi, ich will Dir ja nicht den Spass verderben aber es bringt gar nichts einen Shogun an eine 8Bit Ausgabe zu hängen oder ein nicht Log Signal. Wie gesagt die Cam Hersteller sind nicht blöd haben das schon so eingeschränkt dass an einer Sub 5000 EUR Kamera garantiert kein Kinobild rauskommen kann.
Wenn ich Du wäre würde ich den Shogun möglichst schnell verkaufen bevor andere Besitzer auch auf den Trichter kommen....
Liebe Grüße
Spaci
Keine Ahnung ob ich das jetzt richtig interpretiere, aber es hört sich so an als wenn Du meintes die GH4 gibt kein 10Bit aus?
Antwort von Spaceman:
10Bit bringt gar nichts wenn die nicht in Log kommen.
Die 10 Bit die aus der GH4 kommen haben die schönen Videolook Kurven von Panasonic drauf... :-(
Antwort von wolfgang:
Keine Ahnung ob ich das jetzt richtig interpretiere, aber es hört sich so an als wenn Du meintes die GH4 gibt kein 10Bit aus?
Lass ihn - er spielt mal offenbar wieder den Forentroll. ;)
Antwort von klusterdegenerierung:
Lass ihn - er spielt mal offenbar wieder den Forentroll. ;)
Ja, irgendwie fühle ich mich als hätte ich mich ein paar Minuten im Kreis gedreht!
Antwort von Spaceman:
Spannend ist wenn der Forentroll mehr Ahnung hat als das gesamte Forum ;-)
Antwort von wolfgang:
Spannend ist wenn der Forentroll mehr Ahnung hat als das gesamte Forum ;-)
Na dann erleuchte uns halt mit deinem Wissen! Falls du das schaffst...
Antwort von WoWu:
Aber nun wird langsam ein Schuh daraus.
Ich hatte das auch so verstanden, dass der Recorder V-log macht.
Er macht aber nur ein 1:1 Mapping in 10 Bit und richtet es nur mit einer LTU für die interne Anzeige her.
Das macht Sinn, entzaubert aber den Recorder entsprechend.
Das bedeutet aber, das die gh4 an der hdmi monitorschnittstelle, die sie ja nunmal ist, kein monitorsignal mehr anlegt und die Verabredung zwischen Pana und Atomos Sich darauf beschränkt, das Signaling der hdmi zu ignorieren.
Nun ist alles klar.
Merci.
Sorry, das das etwas länger gedauert hat, aber ich bin wirklich immer von einer v-log Fähigkeit des Recorders ausgegangen.
Das heisst also auch, dass es ohne die Kamera mit V, auch extern kein V-log gibt.
Alles klar.
Ich finde V"LOG ja sowieso nicht so spannend, weil der lineare Teil fast 80% ausmacht, wenn man de Kurve Glauben schenken will, dass sie V"Log repräsentiert.
Antwort von klusterdegenerierung:
Ja ist aber doch eh pupe, entweder die Cam gibt das log am HDMI mit aus, dann geht es auch in den Shogun, oder es kommt nicht mit raus, so wie jetzt.
Ist doch so wie alle es haben wollten, mit log oder mit ohne log! Mit den Luts hats ja eh nix zu tun, die sind ja eh nur preview.
Antwort von WoWu:
Was ich nicht gebacken kriege, ist warum solche Beispielaufnahmen immer so unterirdisch schlecht belichtet sein müssen.
Hat jetzt nichts mit V-Log zu tun, aber das spricht natürlich Bände und gibt leider den völlig falschen Eindruck einer LOG Kurve wieder.
Denn bei LOG gibt es sowohl Schwarz, als auch weiss. Aber LOG benutzer müssen eine höllische Angst davor haben, richtig zu belichten, mit dem Erfolg, dass sie sich ihren erhofften Dynamikgewinn, den es sowieso nicht gibt, noch unter den linearen Wert marginalisieren.
Antwort von cantsin:
Nee, die Kamera macht v-log. Da hat sich der andere Wolfgang missverständlich ausgedrückt.
Wo? Ich habe nie gesagt dass der Shogun alleine v-log generiert.
Deine Aussage "Und wie auch die anderen Produkte wird wohl die GH4 v-log - soferne es kommt - auch nur für die GH4 interne 8bit 420 Aufzeichnung nutzen können" war etwas missverständlich.
Antwort von mash_gh4:
Da bringt VLOG schon etwas. Zumal (a) die Standard-Bildprofile der Kamera farbtechnisch zu wünschen übrig lassen und nicht die volle Dynamik des Sensors abbilden und (b) die künstliche Nachschärfung in diesen Standard-Modi nicht völlig rausgedreht werden kann, während VLOG ohne Nachschärfung aufgezeichnet wird.
@cantsin -- sorry, dass ich mich erst jetzt einmische, wo schon wieder derart viel wasser den bach hinunter gelaufen ist, trotzdem:
ich fürchte, dass dein hoffung betreffend (b) vermutlich nicht aufgehen wird! :(
aus den betreffenden screenshots der beta-tester lässt sich zwar erschließen, dass einige einstellungen bei verwendung des v-log profils disabled sind, aber natürlich wird weiterhin jede menge internes prozessing (debayering, rauschunterdrückung, etc.) vorgenommen, auf das man überhaupt keine einfluss hat, darunter mit größter wahrscheinlichkeit auch diese 'nachschärfung'. aus diesem grund wäre mir persönlich der zugriff auf komprimierte RAW daten weiterhin lieber...
Antwort von srone:
Was ich nicht gebacken kriege, ist warum solche Beispielaufnahmen immer so unterirdisch schlecht belichtet sein müssen.
Hat jetzt nichts mit V-Log zu tun, aber das spricht natürlich Bände und gibt leider den völlig falschen Eindruck einer LOG Kurve wieder.
Denn bei LOG gibt es sowohl Schwarz, als auch weiss. Aber LOG benutzer müssen eine höllische Angst davor haben, richtig zu belichten, mit dem Erfolg, dass sie sich ihren erhofften Dynamikgewinn, den es sowieso nicht gibt, noch unter den linearen Wert marginalisieren.
"ich hab doch raw/log und das alles in 16/14/12/10 ja sogar in 8 bit, warum sollte ich belichten können?" (ironie off) ;-)
lg
srone
Antwort von wolfgang:
Deine Aussage "Und wie auch die anderen Produkte wird wohl die GH4 v-log - soferne es kommt - auch nur für die GH4 interne 8bit 420 Aufzeichnung nutzen können" war etwas missverständlich.
Ok, danke. Allerdings sprach ich in dem Zitat ja tatsächlich nur von der GH4 internen Aufzeichnung die ja in 8bit 420 erfolgt, und der Shogun wurde in keiner Weise erwähnt.
Aber egal, ist halt offenbar so rüber gekommen.
Was ich nicht gebacken kriege, ist warum solche Beispielaufnahmen immer so unterirdisch schlecht belichtet sein müssen.
Das stimmt. Ich habe mir diese Datei - die ja als Shogun-Original vorliegt - zurück in den Shogun gespielt. Und auch dort sieht man, dass der Weißpunkt nur bei zirka 80% liegt. Und das selbst nach dem der Preview-Lut des Shoguns drauf liegt. Der Luminanzbereich wird bei dieser Aufnahme also eher schlampig ausgenutzt, und das hätte nicht sein müssen da man hier wirklich Spielraum verschenkt hat.
Ist übrigens bei der 2. Aufnahme, die dort publiziert worden ist, nicht anders.
Antwort von mash_gh4:
Was ich nicht gebacken kriege, ist warum solche Beispielaufnahmen immer so unterirdisch schlecht belichtet sein müssen.
Das stimmt. Ich habe mir diese Datei - die ja als Shogun-Original vorliegt - zurück in den Shogun gespielt. Und auch dort sieht man, dass der Weißpunkt nur bei zirka 80% liegt. Und das selbst nach dem der Preview-Lut des Shoguns drauf liegt. Der Luminanzbereich wird bei dieser Aufnahme also eher schlampig ausgenutzt, und das hätte nicht sein müssen da man hier wirklich Spielraum verschenkt hat.
Ist übrigens bei der 2. Aufnahme, die dort publiziert worden ist, nicht anders.
wäre natürlich interessant, wie das histogramm in der kamera ausgesehen hat?
ob diese anzeige auch bereits mit dem log-profil und der veränderten dynamik klarkommt?
Antwort von WoWu:
Warum soll sie damit nicht klarkommen, zumal Du gar keine andere Dynamik hast.
Das Histogramm stellt nur für jeden Übertragungspunkt den Wert da.
Veränderte Dynamik heisst in diesem Fall nicht mehr Übertragungspunkte sondern lediglich eine andere Gewichtung.
An der Belichtung ändern weder Dynamik noch die Übertragungsfunktion etwas.
Ganz im Gegenteil. Wenn die Belichtung nicht stimmt, hast Du eine deutlich geringere Dynamik und erst bei korrekter Belichtung den maximal möglichen Dynamikwert, sowohl bezogen auf Dynamikumfang, als auch auf Dynamiktiefe, also die Menge unterschiedlicher Werte.
Antwort von mash_gh4:
Warum soll sie damit nicht klarkommen, zumal Du gar keine andere Dynamik hast.
auf dem punkt reitest du wohl ganz besonders gerne herum ;)
Das Histogramm stellt nur für jeden Übertragungspunkt den Wert da.
Veränderte Dynamik heisst in diesem Fall nicht mehr Übertragungspunkte sondern lediglich eine andere Gewichtung.
ich seh das problem eher darin, dass nicht wirklich klar ist, welche punkt in der verarbeitungskette für die messung herangezogen wird.
genausowenig, wie eine unaufbereitete darstellung der log daten am sucher/bildschirm immer besonders hilfreich wirkt, muss auch das histogramm nicht unbedingt die verteilung der werte im log output widerspiegeln.... das ist nur eine (durchaus plausible) möglichkeit...
An der Belichtung ändern weder Dynamik noch die Übertragungsfunktion etwas.
Ganz im Gegenteil. Wenn die Belichtung nicht stimmt, hast Du eine deutlich geringere Dynamik und erst bei korrekter Belichtung den maximal möglichen Dynamikwert, sowohl bezogen auf Dynamikumfang, als auch auf Dynamiktiefe, also die Menge unterschiedlicher Werte.
das ist mir nicht ganz neu! :)
und in diesem zusammenhang ist es halt auch nicht ganz unwesentlich, wenn die orientierungspunkte für die 18 und 100% "Input reflection" sowie das zu erwartende clipping in der 'belichtungsmessung' plötzlich ganz wo anders zu liegen kommen. ;)
im übrigen finde ich die belichtung des beispielsvideos gar nicht so schrecklich weit daneben, wenn ich es mit den angaben von panasonic vergleiche.
Antwort von wolfgang:
Warum soll sie damit nicht klarkommen, zumal Du gar keine andere Dynamik hast.
Vielleicht weil zum Zeitpunkt der Aufnahme alles noch im Betazustand war - und vielleicht weil weder der Waveform Monitor am Shogun noch das (ohnedies viel zu kleine) Histogram an der GH4 in diesen Einstellungen schon richtig funktioniert haben?
Auch wenn wir das nicht genau wissen.
Natürlich läßt sich dieses Testmaterial entwickeln, es nutzt halt den Dynamikumfang noch nicht optimal aus. Aber man kann damit schon mal spielen.
Antwort von WoWu:
Natürlich läßt sich dieses Testmaterial entwickeln, es nutzt halt den Dynamikumfang noch nicht optimal aus. Aber man kann damit schon mal spielen.
Ja sicher kann man das, nu wem nutzt es, wenn man die Pfeiffe bei der Aufnahme fast 50% der Übertragungswerte in die Tonne drückt und man das für einen Kamerafehler halten muss.
Meiner Meinung nach sollten speziell Testaufnahmen die gesamte Möglichkeit des Gerätes widerspiegeln. Zum "spielen" kann ich auch Bilder selbst falsch belichten. Die sagen dann ebenso wenig aus.
auf dem punkt reitest du wohl ganz besonders gerne herum ;)
Ja klar, weil der "Hirnriss", man hätte eine grössere Dynamik, auch immer wiederholt wird.
ch seh das problem eher darin, dass nicht wirklich klar ist, welche punkt in der verarbeitungskette für die messung herangezogen wird.
Alle, denn das Histogramm repräsentiert das sichtbare Bild.
genausowenig, wie eine unaufbereitete darstellung der log daten am sucher/bildschirm immer besonders hilfreich wirkt, muss auch das histogramm nicht unbedingt die verteilung der werte im log output widerspiegeln.... das ist nur eine (durchaus plausible) möglichkeit...
Dann kann man sich ja jede Anzeige, egal ob Waveform, Histogramm ofer Vectorscope auch schenken.
Messgeräte sind keine Glaubenssache. Die einzige Frage ist, die, wie präzis sie sind, aber Anzeigefehler von 50% -wie hier- fallen da sicher in den Bereich des Unwahrscheinlichen.
wenn die orientierungspunkte für die 18 und 100% "Input reflection" sowie das zu erwartende clipping in der 'belichtungsmessung' plötzlich ganz wo anders zu liegen kommen. ;)
Weisspunkte und Pegelreferenzen kommen "bezogen auf die Übertragungsfunktion- immer an derselben Stelle vor.
Erst bei einem Wechsel der Übertragungsfunktion bzw. der benutzten Bandbreite nehmen sie andere Werte ein.
Als Anwender weiss ich, welche Übertragungsunktion und welche Bandbreite ich benutze und weiss daher auch, wo ich meine Referenwerte erwarten kann.
Ich kann das Problem darin nicht erkennen. Natürlich muss man die Inhalte (auch) eines Histomgrammes im Context sehen, auch z.B. die Anzeige einer 8Bit Interpretation eines 10 Bit Signals.
Man darf also ggf. sein Unvermögen, eine Messanzeige nicht richtig interpretieren zu können, nicht mit einem Systemfehler verwechseln.
Antwort von mash_gh4:
Messgeräte sind keine Glaubenssache. Die einzige Frage ist, die, wie präzis sie sind, aber Anzeigefehler von 50% -wie hier- fallen da sicher in den Bereich des Unwahrscheinlichen.
wenn die orientierungspunkte für die 18 und 100% "Input reflection" sowie das zu erwartende clipping in der 'belichtungsmessung' plötzlich ganz wo anders zu liegen kommen. ;)
Weisspunkte und Pegelreferenzen kommen "bezogen auf die Übertragungsfunktion- immer an derselben Stelle vor.
Erst bei einem Wechsel der Übertragungsfunktion bzw. der benutzten Bandbreite nehmen sie andere Werte ein.
Als Anwender weiss ich, welche Übertragungsunktion und welche Bandbreite ich benutze und weiss daher auch, wo ich meine Referenwerte erwarten kann.
würdest du mir zustimmen, wenn ich behaupte, dass man vernünftigerweise davon sprechen kann, ein bild 'richtig' zu belichten, wenn eine abgebildete graukarte mit 18% reflexion, auch tatsächlich in dem wertebereich abgebildet wird, der dafür vorgesehen ist?
es ist ja bei gott nicht die einzige möglichkeit, dieses 'richtig' zu rechtfertigen. immerhin könnte man bei einer aufnahme mit derart geringem kontrastumfang die werte/belichtung natürlich auch verschieben, um bspw. das rauschen zu minimieren, etc.
trotzdem: bei testbildern u.ä. halte ich eine entsprechende ganz einfache orientierung an den vorgegebene orientierungswerten für ausgesprochen sinnvoll.
panasonic hat festgelegt, dass v-log bei folgende lichtwerten entsprechende resultate zeigen soll:
0% input reflection = 7.3% IRE = 128 (10bit)
18% input reflection = 42% IRE = 433 (10bit)
90% input reflection = 61% IRE = 602 (10bit)
(siehe: http://pro-av.panasonic.net/en/varicam/ ... -Gamut.pdf )
wenn du also keine zusätzlichen besonders hellen lichtquellen im bild hast, wird das obere drittel regelmäßig ungenutzt bleiben. deswegen kann man allerdings noch lange nicht davon sprechen, dass derartige aufnahmen nicht 'richtig' belichtet worden wären.
dass die nutzung eines solchen zugangs nicht immer besonders sinnvoll sein muss und entsprechende anzeigen die messung bzw. korrekte belichtung nicht unbedingt vereinfachen, habe ich ohnehin bereits anklingen lassen.
aber das ist halt der preis erweiterter "dynamik" :)
und ich nutz das wort hier weiter ganz bewusst so schlampig bzw. im tradierten sinne, weil auch hier sicher gilt:
τὸ ὂν λέγεται πολλαχῶς, ...
Antwort von WoWu:
würdest du mir zustimmen, wenn ich behaupte, dass man vernünftigerweise davon sprechen kann, ein bild 'richtig' zu belichten, wenn eine abgebildete graukarte mit 18% reflexion, auch tatsächlich in dem wertebereich abgebildet wird, der dafür vorgesehen ist?
Durchaus.
Würdest Du mir ebenso zustimmen, dass dann 100% Weiss auf dem Wert abgebildet wird, der in der Übertragungsfunktion dafür vorgesehen ist ?
Dabei ist es abgängig von der Funktion, wo 90% liegen, aber nicht, wo 100% liegen, denn die liegen immer auf dem obersten Wert (-1 bei FullRange bzw -84 bei 10Bit REC 709).
Dazwischen liegt die Wertemenge, die die Dynamik des Bildes ausmachen.
Man kann sich jetzt natürlich trefflich streiten, ob die Wand im geposteten Bild Weiss ist oder eher bei 50% liegt.
Mit der Übertragungsfunktion hat das aber wenig zu tun denn läge sie bei 50%, bedürfte das Bild keiner Entzerrung mehr.
Was die Panasonic Werte angehen, so wundert es mich, dass Du nicht über 0% input reflection = 7.3% IRE = 128 (10bit) gestolpert bist und sie interpreriert hat, sondern sie einfach mal so als gottgegeben wiederholt hast.
Ich meine daher das hier gilt:
ότι πρέπει να είναι αυτό
(wenn ich Dein Zitat richtig gedeutet habe).
Antwort von wolfgang:
Mal praktisch gedacht: mit dem vlog zu rec709 Vorschau lut sollte es bei Verwendung von Geräten wie dem Shogun gelingen, das obere Drittel der Werte auch zu nutzen. Denn es macht für mich wenig Sinn, unter diesen Bedingungen den Weisspunkt nur auf 80% zu legen - da verschwendet man eigentlich nur den Wertebereich. Und graden muss man das Material ohnedies.
Also so gesehen ist das kein Thema.
Antwort von GrinGEO:
10Bit bringt gar nichts wenn die nicht in Log kommen.
Die 10 Bit die aus der GH4 kommen haben die schönen Videolook Kurven von Panasonic drauf... :-(
dass die Panasonic kein RAW über HDMI schiebt wissen wir doch alle.... und auch dass das 10bit Bild aktuell noch durch die Panasonic Kurven vergrüzt wird. Dennoch kann Dir Wolfgang eindeutig beweisen, dass das 10bit 422 Bild auf seinem Shogun um Welten besser ist als das 420 inter in 8 bit auf der GH4.
und welche Kamera schiebt denn überhaupt RAW via HDMI? Im ernst....
es geht ja darum dass das V-Log ein richtiges Log-Profil ist und somit mehr aus der Kamera rausholt als bisher CinelikeD und dass das Rauschen damit reduziert wird.
V-Log + 10bit + 422 aus der GH4 zum Shogun mit ProRes sollte doch ordentlich was hergeben.... oder bist Du als Profi da anderer Meinung?
Antwort von mash_gh4:
Würdest Du mir ebenso zustimmen, dass dann 100% Weiss auf dem Wert abgebildet wird, der in der Übertragungsfunktion dafür vorgesehen ist ?
Dabei ist es abgängig von der Funktion, wo 90% liegen, aber nicht, wo 100% liegen, denn die liegen immer auf dem obersten Wert (-1 bei FullRange bzw -84 bei 10Bit REC 709).
Dazwischen liegt die Wertemenge, die die Dynamik des Bildes ausmachen.
Man kann sich jetzt natürlich trefflich streiten, ob die Wand im geposteten Bild Weiss ist oder eher bei 50% liegt.
ich würde der hellen wand, dem hellsten teil des bilds, gefühlsmäßig gerne 90% refexion zugestehen, so wie ich es auch von meinen graukeilen und testcharts gewohnt bin, die ungefähr bei 92% reflexion enden...
den passenden wert dafür kann man der tabelle oben ohnehin entnehmen.
aber auch in den werten des konkreten beispielbilds passt's meines erachtens einigermaßen.
ich halte es allerdings für nicht korrekt, dass am obersten wert immer 100% reflexion zu liegen kommen sollten! bei bei rec709 in 10bit auflösung würde ich 100% reference white tatsächlich knapp drunter bei 935/940 suchen, aber in diversen log abbildung können die spitzen ein vielfaches davon repräsentieren! HDR statt SDR halt...
ps: übrigens hast du erst unlängst selbst eine grafik gepostet, in der letzteres ziemlich nachvollziehbar am bsp. von sony übertragungsfunktionen zu sehen war: https://www.slashcam.de/forum/viewtopic.php?p=800811#800811
Antwort von WoWu:
Du siehst, man kann über Weiss munter diskutieren und wird zu keinem gemeinsamen Ergebnis kommen.
Was die Kurven angeht, wird man zwischen relativen und effektiven Pegeln in der Darstellung unterscheiden müssen.
Ein Sensor kann keine 109 % generieren, weil 100% FullWell darstellen.
Es sei denn, man reletiviert die Sache und gibt als 100% Weisspunkt einen relativ niedrigen Wert an, der dann aber auch nicht FullWell des Sensors entspricht.
Cineon hat beispielsweise einen äusserst niedrigen Weisspunkt, um die Reste bis zum FullWell als RollOff zu nutzen, ist aber auch primär für 12 Bit vorgesehen.
Das bedeutet aber eine entsprechend eingeschränkte Dynamik.
Der Clipwert der Vario35 (für die das Papier gilt"denn das ist ja nicht für die GH4 gemacht) liegt beispielsweise bei 911, was wiederum Weiss des Sensors entspricht.
Insofern muss man zwischen 90% und Weiss schon deutlich unterscheiden.
Damit geht V-Log (bei der Vari 35) mit einer Dynamik von 1024-(128+113) also mit 783 Werten aus.
Das sind rd. 10 1/2 Blenden und damit weniger als REC709 in 10Bit linear gehabt hätte (876).
Die Dynamik ist also geringer. Was aber der Wirkung des V-Log keinen Abbruch tut, denn es geht bei der LOG Übertragung einzig um eine andere Wertegewichtung und nicht um mehr Dynamik.
Man muss die Kurven also nicht nur anschauen und ein paar Werte herausnehmen sondern auch den Contaxt verstehen.
Mit andern Worten ... wenn die 90% Reflektion auf einem abgesenkten Wert liegen und ich sie in der Post erst auf die lineare Darstellung mappen muss, verliere ich weitere Dynamikwerte in meinem Produkt, habe aber den Vorteil eines weicheren Rolloffs.
Kommt nun noch eine Blende unterbelichtung dazu, verliere ich ein weiteres Bit und sind in der Summe nur noch knapp oberhalb von 8 Bit.
Um das zu kaschieren, heben sie die Verstärkung an und landen auch im Störabstand unter "ferner liefen".
Bottom line: Wer mit solchen Kurven umgeht, sollte super arbeiten können und von vorn herein sich auf den gesamten Workflow einstellen, wie srone oben schon erwähnt hat.
Ich glaube das 90% der LOG Jünger gar nicht wissen, auf was sie sich da einlassen und deswegen kommt auch so oft die "Graue Sosse" dabei raus, die dann gern als Filmlook verkauft wird.
Antwort von iasi:
@WoWu
gut und überzeugend argumentiert
Antwort von mash_gh4:
Du siehst, man kann über Weiss munter diskutieren und wird zu keinem gemeinsamen Ergebnis kommen.
ja -- man kann aus verschiedenen richtungen darauf zugehen.
ich argumentiere hier zwar ganz gewiss auch ziemlich technisch, trotzdem bin ich dem tatsächlichen visuellen arbeiten vermutlich zu sehr sehr verbunden, um techn. details gänzlich den vorrang über jede sinnliche annäherung an das problem einzuräumen.
so gesehen geht es mir, wenn ich von dynamik spreche, weniger um die anzahl der bits, die dafür zu verfügung stehen, sondern tatsächlich um lichtwerte und befriedigend abbildbare kontraste.
Was die Kurven angeht, wird man zwischen relativen und effektiven Pegeln in der Darstellung unterscheiden müssen.
Ein Sensor kann keine 109 % generieren, weil 100% FullWell darstellen.
Es sei denn, man reletiviert die Sache und gibt als 100% Weisspunkt einen relativ niedrigen Wert an, der dann aber auch nicht FullWell des Sensors entspricht.
ich denke, dass ich in meinen ausführungen hier ziemlich durchgängig immer nur von prozent an reflektiertem licht gesprochen habe bzw. entsprechende werte zitiert habe.
fullwell interessiert in diesem zusammenhang nicht wirklich --- das ganze ist weitestgehend unabhängig vom betreffenden sensor zu sehen, nur das es halt generell immer schwieriger wird, die 12-14 blendenstufen sensibilität heutiger aufnahmehardware vernünfig in eine flexible nachbearbeitung hinüber zu retten.
Der Clipwert der Vario35 (für die das Papier gilt"denn das ist ja nicht für die GH4 gemacht) liegt beispielsweise bei 911, was wiederum Weiss des Sensors entspricht.
Insofern muss man zwischen 90% und Weiss schon deutlich unterscheiden.
Damit geht V-Log (bei der Vari 35) mit einer Dynamik von 1024-(128+113) also mit 783 Werten aus.
Das sind rd. 10 1/2 Blenden und damit weniger als REC709 in 10Bit linear gehabt hätte (876).
wie kommst du auf die 10 1/2 Blenden?
in wahrheit ist es nämlich noch schlimmen, weil man ja möglichst alle blendenstufen, die der sensor aufzulösen mag, im wertebereich abbilden will.
panasonic spricht bspw. bei der dvx200, die ja bekanntlich auch die lite variante dieser v-log kurve anbieten soll, von 12 blendenstufen.
Die Dynamik ist also geringer. Was aber der Wirkung des V-Log keinen Abbruch tut, denn es geht bei der LOG Übertragung einzig um eine andere Wertegewichtung und nicht um mehr Dynamik.
ja -- es geht vorrangig um eine andere werteverteilung -- vereinfacht gesprochen so, dass jedem lichtwert bzw. jeder blendenstufe gleich viel werte in der resultierenden skala zugewiesen werden können.
und(!)
auf diese weise ist es plötzlich möglich auch mehr solche werte (=blendenstufen) aufzuzeichnen, da das im gegensatz zu einer linearen darstellung nicht sofort eine verdoppelung der resultierenden skalenwerte mit sich bringt.
Kommt nun noch eine Blende unterbelichtung dazu, verliere ich ein weiteres Bit und sind in der Summe nur noch knapp oberhalb von 8 Bit.
genau das stimmt auf grund des eben gesagten hier nicht mehr in dieser weise!
im gegenteil, genau für solche korrekturen können in der log skalen effizienter polster geschaffen werden als das in der linearen abbildung der fall ist. um den preis natürlich, dass der störabstand bzw. die verfügbaren werteabstufungen innerhalb der einzelnen zonen über den gesamten bereich letztlich enger werden -- nur eben möglichst gleichmäßig verteilt. vor allem die informationen in den lichtern können erst auf diese weise mit vertretbarem overhead ausreichende berücksichtigt/aufgezeichnet werden...
Antwort von WoWu:
auf diese weise ist es plötzlich möglich auch mehr solche werte (=blendenstufen) aufzuzeichnen, da sie im gegesatz zu einer linearen darstellung nicht sofort eine verdoppelung des werteumfangs mit sich bringen.
Nein, das ist eben schlichtweg falsch.
Du definierst einfach die Blende um.
Dein Sensor bestimmt die Anzahl der Blenden und damit den Dynamikumfang, völlig egal, wie Du hinterher die Werte verpackst.
Damit liegt die Anzahl der Blenden fest.
An der Stelle bist Du (und bleibst Du) linear.
Wenn Du nun sagst, ich zähle nicht mehr die Verdopplung der Lichtphotonen als Blende sondern die Anzahl der aufgezeichneten Werte ... und als Maßstab der Blende betrachte ich eine Anzahl x von Werten, dann definierst Du die Blende um und damit auch die Response des menschlichen Sehvermögens.
So kann man sich natürlich seine Blenden bauen, indem man einfach sagt, die halbe Lichtmenge (vor der Kamera) wird jetzt wertemässig zu einer Blende und ich teile einfach die gesamte Wertemenge der Übertragung durch die Menge der, "Pseudoblende" in meinem System zur Verfügung gestellten Werte und koppel das einfach von der Lichtblende ab.
Du machst da irgendwelche Marketingblenden raus.
Blenden definieren sich durch Helligkeit und die wiederum durch Photonen, die den Sensor treffen und die letzte Blende vor Weiss hat nun mal die höchste Anzahl Photonen.
In der Übertragung wird der Wertebereich zwar komprimiert, sodass aus dem dunklen Bereich ein höher aufgelöstes Übertragungsfeld entsteht, aber daraus resultiert weder ein einzig zusätzliches Photon, das den Sensor trifft, noch ein einziger zusätzlicher Übertragungswert in der Dynamik.
Die Belichtung von Schwarz nach FullWell sowie das Mapping, egal mit welcher Funktion, aber in vollem Umfang des Übertragungskanals ist die einzige Möglichkeit die maximal zur Verfügung stehende Dynamik zu nutzen.
fullwell intresiert in diesem zusammenhang nicht wirklich
Und ob. Dein Sensor bestimmt nutzbare Lichtmenge, die Dein System verarbeiten kann.
dahinter ist es völlig egal, mit welche Funktion das geschieht, die Werte werden nur anders verteilt, es werden aber nicht mehr sondern bestenfalls weniger.
wie kommst du auf die 10 1/2 Blenden?
Das ist die Breite des genutzten Übertragungskanals 1024-(128+113) also mit 783 Werten.
panasonic spricht bspw. bei der dvx200, die ja bekanntlich auch auf der lite variante dieser v-log kurve basieren soll, von 12 blendenstufen.
Der Sensor mag das ja bei 12 Bit auflösen.
Relevant ist aber der Übertragungskanal und da sind wir bei 10 Bit- Head und Footroom und einer vorgegebenen Übertragungsfunktion, die über wesentliche Strecken auch noch linear verläuft.
Ich kann natürlich sagen, ich nehme aus jedem Bereich gerade mal soviele Werte, dass das menschliche Auge noch kein Banding wahrnimmt und nenne das dann Blende.
Aber dann sind wir wieder bei der Blende, die mit Licht nichts mehr zu tun hat, der Marketingblende.
Dann bin ich aber in dem Bereich, das Produkt in der Post nicht mehr verarbeiten zu können, weil jede Kontrastverschiebung sofort zum Zusammenlegen von Werten führt und Banding damit sichtbar wird, weil das Auge nicht mehr die erforderliche Auflösung sieht.
Du siehst, da wird reichlich von Marketing mitgemischt.
Maßstab, wohl auch für Dich- ebenso wie für mich-, weil Du sagst, Du seist "visuell" orientiert, dürfte der analoge Teil sein, also das Licht, wie es vom Menschen wahrgenommen wird, also die optische Blende, also die Verdopplung des Lichtes.
Dass ein graulastiges Bild in Dir den Eindruck einer höheren Dynamik auslöst, ist ja ganz unbenommen. Dafür verteilt man ja solche Werte auch.
Entspricht nur eben nicht der Wirklichkeit. Es ist nicht mehr Dynamik.
Wenn Du durch ein Fernglas schaust, bist Du ja auch nicht an einem andern Standort.
Die Physik bleibt erhalten.
Antwort von mash_gh4:
auf diese weise ist es plötzlich möglich auch mehr solche werte (=blendenstufen) aufzuzeichnen, da sie im gegesatz zu einer linearen darstellung nicht sofort eine verdoppelung des werteumfangs mit sich bringen.
Nein, das ist eben schlichtweg falsch.
Du definierst einfach die Blende um.
Dein Sensor bestimmt die Anzahl der Blenden und damit den Dynamikumfang, völlig egal, wie Du hinterher die Werte verpackst.
Damit liegt die Anzahl der Blenden fest.
An der Stelle bist Du (und bleibst Du) linear.
bis hier her sind wir uns ohnehin weitestgehend einig.
nur behaupte ich, dass man mit einer fiktiven kamera, die zwar einen sensor besitzt, der 16 blendenstufen aufzulösen mag, aber nur über ein 4-bit breites videoaufzeichnungsformat verfügt, besser eine log codierte übertragung verwendet, wenn die einzelnen unterscheidbaren werte ungefähr so differenziert gestreut sein sollen wie auf einem gebräuchlichen graukeil, statt in einer 'gestauchte' zählung der photonen (=linear) nur wesentlich weniger tatsächlich relevante unterscheidungen abbilden zu können.
wie kommst du auf die 10 1/2 Blenden?
Das ist die Breite des genutzten Übertragungskanals 1024-(128+113) also mit 783 Werten.
da sieht man dann halt, dass es doch konsequenzen hat, wie man an die sache herangeht. ich bleib hier lieber bei der oben beschriebenen 4-bit kamera, die sich an jenen grauwerten/unterscheidungen orientiert, die ich wirklich aufzeichnen will. :)
panasonic spricht bspw. bei der dvx200, die ja bekanntlich auch auf der lite variante dieser v-log kurve basieren soll, von 12 blendenstufen.
Der Sensor mag das ja bei 12 Bit auflösen.
Relevant ist aber der Übertragungskanal und da sind wir bei 10 Bit- Head und Footroom und einer vorgegebenen Übertragungsfunktion, die über wesentliche Strecken auch noch linear verläuft.
Ich kann natürlich sagen, ich nehme aus jedem Bereich gerade mal soviele Werte, dass das menschliche Auge noch kein Banding wahrnimmt und nenne das dann Blende.
Aber dann sind wir wieder bei der Blende, die mit Licht nichts mehr zu tun hat, der Marketingblende.
dass wir trotz aller argumentationskünste hier vermutlich keine lösung finden werden, wie man mit hilfe von 8bit werten eine noch präzisere darstellung der ursprünglichen 12bit sensordaten aufzeichnen könnte, fürchte ich leider auch. aber selbst, wenn die einzelnen blendenstufen jeweis nur mehr mit einem einzigen unterscheidbaren wert aufgelöst wären, weil man sie in der oben angedeuteten weise aus platzspargründen zusammenlegen muss -- von banding brauchen wir da gar nicht mehr zu reden! --, kann das durchaus sinn machen, um den tatsächlichen sinneseindruck angemessener wiederzugeben bzw. in die weiterverarbeitung zu retten....
Antwort von WoWu:
Wenigstens sind wir mal soweit, dass keine höhere Dynamik mehr entstehen kann. das ist ja schon ein Fortschritt.
Wir sind also jetzt bei Sinneseindrücken und dabei, gefährdeten Inhalten, über den Verfahrensweg zu retten.
Na, das ist doch schon was und kommt der Unterabtastung oder der Datenkompression fast gleich, in denen man auch versucht Dinge zu übertragen, die sich derZuschauer hinterher nur vorstellen kann.
Nein, Spass beiseite ... die Übertragung ist ein Teil und das Reproduzieren, der zweite Teil denn schaut man sich nach einer Rekonstruktion die Werte erneut an, dürfte spätestens hier die Ernüchterung in Bezug auf die verbliebene Dynamik einsetzen, denn ich gehe doch davon aus, dass das LOG Bild von den Sinneseindrücken her auch nicht wirklich Deinem Geschmack entspricht.
Und da kommt aus einer, schon komprimierten Dynamik die nächste "Kneifzange" in Form von Punktopertationen auf jedem Pixel und damit die nächste Dynamikkompression.
Unterm Strich kann man dann froh sein, wenn die gesamte Dynamik im Hinblick auf die Dynamiktiefe, noch der linearen Übertragung entspricht.
Vielleicht mit etwas mehr grau ... und in andern Tonwerten, aber auf gar keinen Fall mehr mit einer identischen, oder gar besseren Dynamik.
Ich bin ja völlig bei Dir, dass ein anderer Sichteindruck entsteht und selbst ein Verfechter einer sauberen LOG Aufzeichnung, nur sind die Fallstricke auf dem Weg zu einem guten Bild bedeutend höher und die Chance ebenso, damit ziemlich auf der Nase zu landen und nichts besseres zu produzieren, als Graue Sosse und-oder chromadominante Bilder ohne entsprechende Luminanzanteile und das dann einfach Filmlook nennt.
Die meisten wissen doch gar nicht, womit sie da umgehen und hören nur immer: mehr Dynamik und merken gar nicht, dass sie eigentlich mit etwas Pech, auch deutlich weniger kriegen können.
Von den andern Artefakten, die das als Konsequenz haben kann, noch ganz zu schweigen.
Edit:
Wir gehen bei den genannten Werten bis jetzt immer von der Varicam35 aus, also einer Kamera, der die gh4, bei aller Sympathie, nicht das Wasser reichen kann.
Das sollte man in diesem Zusammenhang vielleicht auch nicht vergessen.
Antwort von iasi:
gute Diskussion - schönes klassisches Pro und Contra
Mal eine Frage an Wolfgang:
Wenn man nun die Begrenzungen einer Kamera wie z.B. der GH4 oder A7s hat, ist dann nicht ein angepasstes log eine Möglichkeit, von der Dynamik des Sensors möglichst viel für den Bildeindruck "Relevantes" herüber zu retten?
Und eine Frage an mash_gh4:
Ist log nicht doch vor allem eine Krücke, mit der versucht wird, bei all den Beschränkungen doch noch ein Quentchen mehr von dem, was der Sensor bietet, in der Post zur Verfügung zu stellen, wobei dann auch wieder erhebliche Kompromisse eingegangen werden?
Ich frage mich zudem, ob log bei einer 8bit-Aufzeichnung wirklich etwas bringt und sinnvoll ist. Wenn am Ende 8bit herauskommen sollen, dann habe ich eigentlich keinen Spielraum und tue vielleicht besser daran, wenn ich versuche mit dem, was aus der Kamera kommt, dem Endergebnis schon möglicht nah zu kommen.
Antwort von klusterdegenerierung:
Übrigens hatte ich lustigerweise kurz bevor der Thread startete, eine Mail an Pana Deutschland geschickt und gefragt was wohl mit VLog ist, wann es denn wohl kommen würde etc.
Als Antwort bekam ich eine eher etwas pampig und knappe Antwort mit dem ungefähren Inhalt, das Pana nie gesagt hätte das so ein update käme und Pana Deutschland überhaupt nichts dazu sagen könnte!
Hups! Wohl ins Wespennest gestochen was? :-)))
Antwort von domain:
Vor einiger Zeit gab hier mal ein Posting eines C-Log Users mit Beispielbildern, ich glaube eine Lampe vor einer weißen Wand. Er glaubte zu erkennen, dass er jetzt zwar eine feinere Abstufung in den Lichtern mit besserem Rolloff hätte, darunter aber die Mitteltöne mit einer gröberen Abstufung gelitten hätten.
WoWu bestärkte ihn in seiner Erkenntnis: gut beobachtet, was du in einem bestimmten Bereich gewinnst, verlierst du in einem anderen, so waren meiner Erinnerung nach damals seine Worte.
Antwort von klusterdegenerierung:
Stimmt! Und ich hatte gesagt, wenn es so weiter geht mit den flachen Profilen und dem Dynamikhype, bekommen wir am Ende nur noch einen mittleren Grauton als Bild! ;-)
Antwort von GrinGEO:
Übrigens hatte ich lustigerweise kurz bevor der Thread startete, eine Mail an Pana Deutschland geschickt und gefragt was wohl mit VLog ist, wann es denn wohl kommen würde etc.
Als Antwort bekam ich eine eher etwas pampig und knappe Antwort mit dem ungefähren Inhalt, das Pana nie gesagt hätte das so ein update käme und Pana Deutschland überhaupt nichts dazu sagen könnte!
Hups! Wohl ins Wespennest gestochen was? :-)))
Nein nein, die Panasonic DE Mitarbeiter sind absolute Nieten und haben von gar nichts eine Ahnung... war genauso gleich pampig die Antwort die ich erhielt als es darum ging HDMI an der LX100 freuzugeben....
Antwort von domain:
Das Problem ist, dass meiner Meinung nach die Krücke LOG meistens viel zu drastisch angewandt wird. Im Prinzip reichen m.E. ja auch die leicht korrigierenden Knee- und Blackgamma-Einstellungen, die seinerzeit je nach Bedarf von wirklichen Kameramännern angewählt wurden.
Und genau dieses Manko bedauert ja auch WoWu: es gibt keine wirklichen Kammeramänner mehr ...
Antwort von WoWu:
Na ja, so drastisch hab ich das nicht gesagt, ich habe das auf 10% beschränkt und damit natürlich auch provozieren wollen, aber die Diskussion ist doch jetzt genau da angekommen, wo man sie verorten sollte denn LOG wird jetzt etwas differenzierter betrachtet und schon eher als "Tool" gesehen, das man kennen muss, bevor man es einsetzt.
Und damit ist doch alles erreicht. Es hat ja durchaus seine Berechtigung da, wo man die hohe Weissauflösung nicht (oder nicht so stark) braucht und lieber etwas mehr Grau hätte.
Aber es birgt eben auch Gefahren, weil kräftig umgemapped werden muss und jedes mal im Prozessing Werte zusammengelegt werden und sich so die ursprüngliche Dynamik, die nicht grösser ist als in einer lin. Aufzeichnung, weiter einengt.
Am Ende des Tages sagt einem das Histogramm welche Dynamik dabei herausgekommen ist. Ist der Bildeindruck trotzdem gut und die Dynamikkompressionen nicht so gross, dass man Banding sieht, dann ist das ja auch alles ok. Dann taugt das Tool -für diese Aufnahmebedingungen".
Wenn man nun die Begrenzungen einer Kamera wie z.B. der GH4 oder A7s hat, ist dann nicht ein angepasstes log eine Möglichkeit, von der Dynamik des Sensors möglichst viel für den Bildeindruck "Relevantes" herüber zu retten?
Das wäre sogar die perfekte Lösung. Mir erschliesst sich sowieso nicht, warum Hacker von Kameras nicht schon lange genau an dem Punkt angesetzt haben und einen frei programmierbaren Mappintable anbieten.
Da wär eine nützliche Sache, denn dann würde man im RAW Bereich sich so etwas ähnliches wie eine (mehrere) LUT erstellen können, die man an seinen Kamerasituationen anpassen könnte.
Ist log nicht doch vor allem eine Krücke, mit der versucht wird, bei all den Beschränkungen doch noch ein Quentchen mehr von dem, was der Sensor bietet, in der Post zur Verfügung zu stellen, wobei dann auch wieder erhebliche Kompromisse eingegangen werden?
Die Frage galt zwar nicht mir, aber ich hoffe mash_gh4 ist nicht sauer, wenn ich darauf kurz antworte.
Es ist nicht das Quentchen mehr sondern das Quentchen weniger, das uns der Übertragungskanal wegnimmt, weil billige Karten, schlechte Interfaces usw. die Sache des "Mehr" nicht zulassen. Daher sollte sich jede überlegen, ob nicht ein besserer Übertragungskanal seinen Ansprüchen nicht mehr entgegen kommt.
Beispielsweise hat man bei 10Bit im Graubereich deutlich mehr Werte. Die Frage stellt sich dann.. brauche ich zu diesen mehr Werten noch mehr ?
Meistens ist das nämlich nicht der Fall und wenn, dann sollte man wenigstens mal nachdenken, ob man mit RAW klar kommt. Da gibt es diese ganzen Probleme nämlich gar nicht.
Was die 8Bit betrifft, schlägt hier das menschliche Auflösungsvrmögen zu.
8 Bit ist schon so eine Gradwanderung an der Grenze dessen, was der Mensch noch als Abstufungsfrei wahrnimmt. Eigentlich ist es schon für die unteren Werte zu klein, aber der Mensch nimmt solche Effekte mit unterschiedlichen Einschränkungen war.
8Bit zieht also alle Register, um solche Wahrnehmungslücken zu nutzen.
Beginnt man aber jetzt, in Signal grossartig um-zu-mappen, ist man schnell in der Wahrnehmbarkeit. 8Bit ist für LOG ein ziemliches Minenfeld.
Antwort von mash_gh4:
ich glaube, dass die ganze diskussion hier mehr sinn machen würde, wenn man auch die derzeit gebräuchlichen übertragungskuven/profile der GH4 mit der selben gründlichkeit hinterfragen würde. dann würde sich vermutlich schnell zeigen, dass auch dort in vielen bereichen für ganze blendenstufen nicht mehr werte zur verfügung stehen und auch jetzt schon deutlich mehr kontrastumfang hineingepresst wird als ursprünglich in rec709 vorgesehen war. ein vorgehen, das viel eher auf kompatibilitätsüberlegungen fußt als auf einer wirklich optimalen ausnutzung des verfügbaren datenraums. von einer effizienteren übertragungskurve profitiert man aber gerade dann, wenn es mit dem platz eng wird! so gesehen ist die ganze panik, dass derartiges mit 8bit überaupt keinen sinn machen würde, einfach absurd. selbstverständlich darf man sich nur trotzdem keine wunder davon erwarten!
wobei es mir wirklich nicht um bunte farbspielereien geht, sondern nur um eine aufzeichnungstechnik, die es erlaubt, gewählte dynamikkompression wieder sauber in das lineare arbeitsmodell der nachbearbeitungsprogramme zurück zu übertragen, statt dazu ständig irgendwelche improvisierten kunststücke vollbringen, undefinierte knickstellen auszubügeln und gegen historisch bedingte kompromisse und einengungen anzukämpfen.
Antwort von iasi:
nun bietet doch gerade die GH4 10bit am HDMI-out - wäre es nicht die bessere Lösung, dies zu nutzen, statt mit den internen 8bit zu kämpfen?
Antwort von mash_gh4:
wie schon mehrfach gesagt: raw wäre mir lieber!
ich hätte aber natürlich auch nichts gegen 10bit interner aufzeichnung. ;)
nur externen rekorder leg ich mir vermutlich auch weiterhin keinen zu. da wird's schon eher eine andere kamera.
Antwort von iasi:
wie schon mehrfach gesagt: raw wäre mir lieber!
ich hätte aber natürlich auch nichts gegen 10bit interner aufzeichnung. ;)
nur externen rekorder leg ich mir vermutlich auch weiterhin keinen zu. da wird's schon eher eine andere kamera.
Die Rekorde/Monitor-Lösungen sind doch nett - wenn eh ein Monitor dran kommt, kann der doch auch gleich in 10bit aufzeichnen.
Antwort von WoWu:
so gesehen ist die ganze panik, dass derartiges mit 8bit überaupt keinen sinn machen würde
Das kannst Du mit einem ganz einfachen Test sehen.
Nimm ein Motiv in 8Bit 709 und dann in LOG (identisch) auf, dann arbeite das LOG so nach, das ein identisches Bildergebnis entsteht und dann schau Dir die beiden Histogramme an.
Zieh die ganzen Lücken darin von der Dynamik ab und Du hast Dein Ergebnis. Die Dynamik des LOG ist damit unter 8Bit.
Natürlich kann man auch 7 Bit (oder weniger) Bilder gebrauchen ... gar keine Frage.
Antwort von motiongroup:
Nacharbeiten.... Ich habe das zum Test mit Sonys SLog2 versucht...
Vom Phillip Bloom gibt's so ein Demomaterial der neuen Sonys im Netz und das Problem ist, dass bei der Kontrolle der SLog2-709 die Anwendungen unterschiedlicher Ergebnisse ausgeben (Sony Vegas, resolve , fcpx.) in allen drei Programmen zeigen die Messinstrumente unterschiedliche Ergebnisse..
Ziemlich ernüchternd das ganze..
Antwort von WoWu:
Das ist auch nicht der Test sondern ein Motiv in 709 aus der Kamera vs. LOG aus der Kamera + Nachbearbeitung auf ein und demselben Messgerät.
Sonst vergleichst du ja zusätzlich noch alles mögliche.
Du willst aber den Ergebnisunterschied im Produkt sehen.
(Und auch alles in 8 Bit)
Antwort von motiongroup:
?????
Ich glaub du missverstehst mich... Ich kann doch keinen Test machen wenn ich nicht sicher bin ob das Material richtig interpretiert wird..
Der Clip wird in drei Applikationen unterschiedlich interpretiert..
Antwort von WoWu:
Das hab ich schon verstanden, deshalb hab ich ja gesagt, das geht nur mit einer Kamera, die sowohl 709 als auch LOG macht.
Du willst ja nicht unterschiedliche NLEs vergleichen sondern das Produktergebnis.
Antwort von wolfgang:
Nimm ein Motiv in 8Bit 709 und dann in LOG (identisch) auf, dann arbeite das LOG so nach, das ein identisches Bildergebnis entsteht und dann schau Dir die beiden Histogramme an.
Zieh die ganzen Lücken darin von der Dynamik ab und Du hast Dein Ergebnis. Die Dynamik des LOG ist damit unter 8Bit.
Ich hatte diese Idee auch gestern, würde das aber mit 8 und mit 10bit machen wollen. Damit man hier einen gewissen Vergleich bekommt und eine bessere Einschätzung bekommt, was man idealerweise wann anwendet. Denn es sind und bleiben Werkzeuge.
Antwort von mash_gh4:
ich denke, man kann in dem fall einfach gh4 raw daten nehmen; sie im darktable mit rec709 und log kurve entwicklen und die resultierenden bilder im ffmpeg zu clips in 8 und 10bit auflösung verwandeln... dann hat man einigermaßen vergleichbare ausgangsbedingungen.
seltsamerweise kenn ich nur programme, bei denen man in der histogramm-darstellung die y-achse zw. log. und lin. umschalten kann, aber keines, wo man das auch auf der x-achse machen könnte, wie es hier zu demonstrationszwecken ganz nützlich wäre :)
Antwort von WoWu:
@wolfgang
Das bringt nicht mit 10 Bit, weil du ein zweites Mapping drin hast.
Das kann man anschließend nochmal zum Vergleich machen, um zu sehen, was das zweite Mapping zusätzlich auffüllt, aber zum Vergleich Link/log verfälscht das das Ergebnis.
Man muss Äpfel und Äpfel vergleichen, ein man ein aussagefähiges Ergebnis haben will.
@ mash
Man kann auch kein Raw Signal nehmen, weil gar nicht bekannt ist, was der Algorithmus macht.
Lightroom z.B. setzt z.b. Bei 14 Bit alle Werte oberhalb von 9552 auf den Maximalwerte und kappt damit 1'5 blenden und stellt auch Schwarz nicht korrekt da.
Soll heißen: man bekommt mit allen zusätzlichen Algorithmen nicht verwertbare Ergebnisse.
So einen Test macht man mit einer Kamera, die beides kann oder man lässt es.
Antwort von cantsin:
So einen Test macht man mit einer Kamera, die beides kann oder man lässt es.
Die Blackmagic Pocket würde sich anbieten. Deren 10bit-Log-Aufzeichnungen könnte man ja in einen 8bit-Codec transcodieren, auf dieses 8bit-Material Blackmagics Log-nach-Rec709 LUT anwenden und dann mit Rec709-Material aus der Kamera vergleichen.
Antwort von wolfgang:
Nein ich meinte 8bit log mit 8bit rec709 und dann 10bit log mit 10bit rec709 vergleichen. Also in Summe 4 Aufnahmen.
Antwort von motiongroup:
Das hab ich schon verstanden, deshalb hab ich ja gesagt, das geht nur mit einer Kamera, die sowohl 709 als auch LOG macht.
Du willst ja nicht unterschiedliche NLEs vergleichen sondern das Produktergebnis.
Das weis ich schon nur bringt es Nichts wenn du nicht weist ob deine App das Material richtig interpretiert.. Versuche es einfach , oben ist das Originalfile..
Drei Suiten, drei unterschiedliche Interpretationen..
Bei der bmpcc Prores Cinema/Video passt das ...
Antwort von WoWu:
So einen Test macht man mit einer Kamera, die beides kann oder man lässt es.
Die Blackmagic Pocket würde sich anbieten. Deren 10bit-Log-Aufzeichnungen könnte man ja in einen 8bit-Codec transcodieren, auf dieses 8bit-Material Blackmagics Log-nach-Rec709 LUT anwenden und dann mit Rec709-Material aus der Kamera vergleichen.
Du verfälscht Dir mit jedem unnötigen Schritt das Ergebnis.
Entweder man hat beide Formate in 8Bit vorliegen, oder nicht.
Auch der 10Bit Test ist Fehlerbehaftet, weil die meisten Histogramme einen 8Bit Messweg implementiert haben und da eine zusätzliche Wandlung stattfindet.
@Wolfgang
Den 10Bit Test kannst Du daher knicken es sei denn, der Messweg ist in 10 Bit ausgelegt ... und das kenne ich bisher nur von R&S, die bis 16 Bit messen, sich das aber eben auch bezahlen lassen.
Antwort von mash_gh4:
So einen Test macht man mit einer Kamera, die beides kann oder man lässt es.
nachdem vermutlich keiner von uns zum auserlesenen kreis der v-log beta-tester gehört, müssten wir es fast lassen -- wobei ich galube, dass man mit hilfe von OpenColorIO die entsprechenden operationen schon ziemlich sauber an hand der spezifikationen nachbilden kann...
aber ich schlag dir eine andere betrachtungsweise vor:
schau dir diese beiden bilder aus einem ganz realen test an
(http://www.dashwood3d.com/blog/the-odys ... ony-fs700/ )
rec709 8-bit:
zum Bild
slog-2 8-bit
zum Bild
daran kann man ziemlich genau ablesen, wie viel unterschiedliche werte tatsächlich innerhalb einer blendenstufe zur verfügung stehen. je nach motiv kann sich das ausgesprochen vorteilhaft erweisen, oder eben auch als fatal.
in den zwei-drei stufen in der mitte ist rec709 natürlich unschlagbar -- aber wehe, es geht darüber hinaus! :( dort dreht sich dann das problem schlichtweg um!
und ob jetzt 8 oder 10-bit auflösung zur anwendung kommen, ändert nicht besonders viel, außer dass im letzteren fall immer genau 4 mal so viel werte nutzbar sind, weil ja der einfachheit halber (leider) immer genau die selben übertragungsfunktionen zur anwendung kommen.
Antwort von WoWu:
Es geht hier gar nicht mehr um die Nutzbarkeit, sondern um den Mappingfehler bei der Nachbearbeitung.
Übrigens muss es auch kein v-log sein. Das gibt es ja ohnehin noch nicht, außer vielleicht in der Vatikan, die keiner von uns hat.
Aber das kann eben auch jede andere log Funktion sein.
Es muss nur eben eine Funktion sein und kein Look, der auf die ursprünglich lineare Funktion aufsetzt.
Es kann also jede Kamera sein, die auf 8bit ein LOG setzt aber auch in 709 umschaltbar ist.
Und ich würde auch keine fremden Fototage nehmen, weil kein Mensch weiß, wie der generiert wurde und was, wo damit geschehen ist.
So einen Test macht man entweder richtig, oder gar nicht.
Alles Andere führt zu ausweglosen Spekulationen und Diskussionen, die kein Ergebnis bringen.
Antwort von WoWu:
@ mash_gh4
Ich will in die Diskussion um die Brauchbarkeit gar nicht neu einsteigen, aber im obigen Test liegen schon ein paar ganz offensichtliche Fehler vor.
1) geht es nicht um die Abstufungen, denn die werden vom Chart gemacht sondern um den Verlauf der Werte, also um einen stufenlosen Verlauf.
2) interessieren all sie Werte, die in der Senkrechten aufgrund des falschen Charts far nicht angezeigt werden und
3) Liegt bereits bei der 709 darstellung der erste Belichtungsfehler vor, denn die Oberste Blende ist bereits gestaucht, denn sie müsste in der Darstellung die meisten Werte aufzeigen -tut sie aber nicht-.
Das ist kein Fehler der Übertragungsfunktion sondern dessen, der den Test durchführt.
4) Interessieren die Übertragungswerte, und nicht die Amplitude.
Ich will also wissen, was da in diesem unscharfen Überschwingern los ist.
Er hat also das falsche Messmittel für den Zweck der Übertragungsfunktion gewählt.
5) seit wann liegen die Werte von 709 bei 1024 ?
Was soll denn das sein ? Er scheint das Signal gespreizt zu haben.
Was soll denn das ?
Und in der Summe steckt da auch keine prinzipielle Überraschung drin. Die erwarteten Menge an Werten, nur anders über den Bereich verteilt übertragen werden, ist ja nun bekannt. Und das Waveform sagt auch nichts anderes aus.
Das, was man vielleicht ablesen könnte, ist eine gewisse Verarbeitungsqualität bzw. Verarbeitungsmängel, der beiden unterschiedlichen Kameras bzw Verfahren in Bezug auf das Flankenverhalten der Signale.
Den Test kannst Du heute Abend in der Pfeiffe rauchen. ;-)
Antwort von mash_gh4:
...im obigen Test liegen schon zwei ganz offensichtliche Fehler vor.
1) geht es nicht um die Abstufungen, denn die werden vom Chart gemacht sondern um den Verlauf der Werte, also um einen stufenlosen Verlauf.
geh -- kanst dir wirklich nicht vorstellen, wie es dazwischen aussieht?
es ist gar nicht so leicht, fließende grauverläufe mit einfachen mitteln zu schaffen, die sich über einen derart goßen wertebereich erstrecken. der trick mit den überlappenden ND-filtern ist hier ziemlich gebräuchlich...
2) interessieren all die Werte, die in der Senkrechten aufgrund des falschen Charts gar nicht angezeigt werden und
ich füchte fast, diejenigen, die die entsprechende information nicht aus einer solchen darstellung herauszulesen bzw. zu abstrahieren vermögen, werden es auf anderem wege auch nicht wirklich kapieren. für manche dinge muss man einfach gelegentlich die eigenen grauen zellen kurz in bewegung setzen...
3) Liegt bereits bei der 709 darstellung der erste Belichtungsfehler vor, denn die Oberste Blende ist bereits gestaucht, denn sie müsste in der Darstellung die meisten Werte aufzeigen -tut sie aber nicht-.
Das ist kein Fehler der Übertragungsfunktion sondern dessen, der den Test durchführt.
bei welchem objektiven lichtwert der test beginnt, ist in dem falle völlig gleichgültig.
wäre das objektiv zwei blenden weiter offen, wäre es einfach nur um zwei teststreifen nach links versetzt, aber ansonsten völlig gleichförmig...
aber mehr zu diesem 'gestauchten' bereich weiter unten -- damit es spannender bleibt! ;)
4) Interessieren die Übertragungswerte, und nicht die Amplitude.
Ich will also wissen, was da in diesem unscharfen Überschwingern los ist.
das sind die schräg geschnittenen kanten der folien ;)
(auf diesem weg kann man sogar noch ganz nebenbei auch noch indirekt etwas über das handwerkliche geschick des urhebers erschließen, wenn dich das tatsächlich interesiert! :))
Er hat also das falsche Messmittel für den Zweck der Übertragungsfunktion gewählt.
nein -- dass sehe ich nicht so!
unter anderem deshalb, weil es ganz klar jenen verbreiteten denkfehler widerlegt, denn du unter pkt.4 bereits so wunderbar zum besten gegeben hast:
ja -- laut den theoretischen märchenbüchern erwartet man sich, in einer 'linearen' übertragung in der hellsten blendenstufe am meisten werte vorzufinden -- doppelt so viel wie in der stufe unmittelbar darunter...
in modifizierten übertragungen ist das aber in der praxis ganz und gar nicht der fall -- ganz im gegenteil, die davon betroffenen lichter werden unglaublich stiefmüttlerlich behandelt und extrem zusammengestaucht! das ist bei fast allen kameras der letzten generation zu beobachten. ihre sensoren detektieren zwar ausgesprochen große kontrastumfänge, aber die entsprechenden information ist kaum mehr vernünftig in den klassischen abbildungsformaten unterzubringen.
man sieht das auch, wenn man die entsprechenden, immer extremeren, profile vergleicht, die beim raw-entwickeln zu diesem zweck benutzt werden.
Und in der Summe steckt da auch keine prinzipielle Überraschung drin. Dass dieselbe Menge an Werten, nur anders über den Bereich verteilt übertragen werden, ist ja nun bekannt. Und das Waveform sagt auch nichts anderes aus.
doch:
ich würde sagen, der vergleich belegt, dass der unterschied zwischen typischen log-profilen und stark gamma-modifizierten pseudo-rec709-kurven so schrecklich groß nicht ist, dass man sich davor fürchten müsste...
und dass man nicht so pauschal behaupten sollte, dass log derart verschwenderisch mit werten wüsten würde, dass man es mit 8bit auflösung gleich von vornherein lassen kann. wie gesagt -- außerhalb der zentralen 2-3 blendenstufen ist es vielmehr rec709, dem die feinen abstufungen fehlen.
wenn man allerdings unbedingt jemanden beweisen will, wie überlegen sich die tradierten aufzeichnungsformate gegenüber all dem neumodischem behaupten, braucht man nur hauttöne im richtigen belichtungsbereich platzieren und die entsprechende vielfalt der zwischentöne genussvoll ausbreiten... es ist ja nicht so, dass es diese unterschiedlichen stärken und schwächen einzelner mittel und zugänge nicht geben würde.
Den Test kannst Du heute Abend in der Pfeiffe rauchen. ;-)
wie gesagt -- es schadet ja nicht, wenn man manche vorurteile ein wenig in frage stellt...
Antwort von motiongroup:
sorry, das bit dem Bloomschen video konnte nichts werden SLOG2+Gamut2 to Re 709....inder Überschrift steht eh wurde nur anders verkauft.
Antwort von wolfgang:
Den 10Bit Test kannst Du daher knicken es sei denn, der Messweg ist in 10 Bit ausgelegt ... und das kenne ich bisher nur von R&S, die bis 16 Bit messen, sich das aber eben auch bezahlen lassen.
Tja dann messen wir halt nicht in den NLEs. Macht ja nichts. Man kann ja auch einfach mit den Dingen arbeiten.
Funktioniert übrigens in Vegas mit Magic Bullet Looks 2.53 ganz gut, die Nutzung diverser Luts - egal ob mit s-log oder v-log. Und ja, es finden sich da verschiedene Kurven im Netz.
Antwort von domain:
Zitat
„Nimm ein Motiv in 8Bit 709 und dann in LOG (identisch) auf, dann arbeite das LOG so nach, das ein identisches Bildergebnis entsteht und dann schau Dir die beiden Histogramme an.
Zieh die ganzen Lücken darin von der Dynamik ab und Du hast Dein Ergebnis.“
Bei jeder Veränderung des Gamma in Richtung steil entstehen Lücken im Histgramm, sozusagen täglich Brot in praktisch allen Bildbearbeitungsprogrammen. Na und? So schnell fällt eine Kontrastaufsteilung nicht auf.
Hier mal ein extrem konstruiertes Beispiel.
Originalbild mit entspechendem Histogramm
Originalbild extrem verflacht
Dann flaches Bild durch massive Aufsteilung „wiederhergestellt“. Ok, schön ist es mit seinen Tonwertabrissen nicht mehr, aber erkennen kann man doch noch was. Das Histogramm zeigt auch keinen Zahnausfall mehr, das sind schon eher Tiefseegräben ;-)
Bei 8-Bit S-Log-Korrekturen bewegen wir uns diesbezüglich aber in einem ganz anderen und viel harmloseren Bereich
Antwort von GrinGEO:
?????
Ich glaub du missverstehst mich... Ich kann doch keinen Test machen wenn ich nicht sicher bin ob das Material richtig interpretiert wird..
Der Clip wird in drei Applikationen unterschiedlich interpretiert..
Ich habe gestern auch zum ersten mal S-Log2 XAVC Material in Vegas gezogen und mich auch gefragt, wie ich das bearbeiten soll...
8 bit Projekt mit Studio RGB
32 bit Projekt mit Studio RGB
32 bit Projekt mit Vollem Spektrum
Nur im 32bit Vollspektrum Modus kann ich eine ACES Tabelle in Vegas nutzen (ich vermute das ist eien art LUT) und bei Clip eigenschaften dann Slog2 von der F55 auswählen. Das Resultat ist aber ziemlich greuenhaft und ich habe massives Rauschen in den dunklen Bereichen.
Daher habe ich weiterhin 8 bit Studio genommen und dann mittels Filmconvert eine A7S LUT drübergezogen und ein deutlich homogeneres Resultat erhalten.
Dennoch ist mir der richtige Arbeitsablauf mit LOG Material noch nicht geläufig... hat da jemand einen Tipp?
Antwort von motiongroup:
nun ja, der Democlip ist SLog2 SGamut2 und mit der Slog2 Lut passt das nicht.
Mit einer Slog2SGamut Lut kommt es schon eher hin.
Mit dem Canon C-Log Material der XC10 passt das bei mir zu 100%, ebenso mit dem BMPCC Material..
Antwort von WoWu:
@domain
Die Frage war auch nicht, ob etwas auffällt sondern ob sich die Dynamik reduziert. Und das ist der Fall und damit widerlegt, es gäbe in solchen Bildern eine höhere Dynamik.
Wenn es darum ginge, ob weniger oder mehr Dynamik auffällt, wäre das wieder eine andere Diskussion und wir wären wieder bei der Ästhetik gelandet.
Hier geht es aber um faktische Feststellungen.
@mash_gh4
es schadet ja nicht, wenn man manche vorurteile ein wenig in frage stellt...
Das ist wohl wahr, deswegen bis Du bei solchen Blogs auch besser aufgehoben als in der Diskussion technischer Fakten, denn darin Vorurteile nur wenig, bis keinen Platz.
Antwort von mash_gh4:
Die Frage war auch nicht, ob etwas auffällt sondern ob sich die Dynamik reduziert. Und das ist der Fall und damit widerlegt, es gäbe in solchen Bildern eine höhere Dynamik.
wie hier schon einmal angesprochen, kann der begriff 'dynamik' oder 'dynamikumfang' eine ganze menge -- od. noch wörtlicher/autologischer: alles "mögliche" -- bedeuten.
wenn das wort allerdings jemand so verwendet, dass damit das verhältnis zwischen dem größten und dem kleinsten vorkommenden/abgebildeten wert, also bspw. der lichtkontrast im abzubildenden motiv, angesprochen wird, ist das für die meisten rezipienten problemlos nachvollziehbar. es sei dir unbenommen, wenn du es ausschließlich in einer völlig anderen, spezielleren weise, verwenden willst. aber wirklich hilfreich ist das nicht.
Antwort von WoWu:
Dynamik-Umfang definiert sich als Wert zwischen FW und SNR
Bilddynamik definiert sich über die Menge unterschiedlicher Grauwerte innerhalb eines Übertragungskanals.
Aber Du hast es mit Fakten ja nicht so, sondern mehr so mit den "undefinierbaren" Begriffen.
Da kommen wir nicht zusammen.
Antwort von mash_gh4:
Bilddynamik definiert sich über die Menge unterschiedlicher Grauwerte innerhalb eines Übertragungskanals.
nur zum verständnis:
das graue/flaue extrem abgeflachte mittlere beispielbild von domain und das letzte dort -- nicht aber die darauf abgebildeten motive! -- zeigen als also deiner sprechweise nach die selbe 'dynamik'?
Antwort von WoWu:
Ja, weil 1 Bit, ein Bit ist, egal, wo es im Übertragungsrahmen liegt, also zu welcher Zeit es übertragen wird.
Dafür ist die Übertragungsfunktion da.
Domain hat also die Übetagungsfunktion geändert.
Was glaubst Du denn, warum wir hier über lineare und logarithmische Übertragung reden.
Wenn Du domains Bits zusammenschiebst, liegen Sie auf der Ordinate alle in der Mitte, wo im Übertragungsrahmen Grau synchronisiert liegt.
Schiebst Du sie auseinander, hast Du ein schwarz weisses Bild, ohne jede Grauabstufung.
Selbst Du wirst dann wohl nicht mehr von einem 10 oder 8 Bit Bild sprechen.
Bei Farbe kommen jeweils drei unterschiedliche Funktionen zusammen, deren Lumawerte nicht identisch sind.
Vielleicht schaust Du Dir bei Gelegenheit mal an, wie Video funktioniert.
Antwort von domain:
Mir ist jetzt einiges klarer geworden, am grundsätzlichen Dynamikumfang (SNR zu FW) ändert die Einteilung der Werte in definierte Klassen ja nichts mehr, das sehe ich ein. Aber welche Auswirkungen hat es denn theoretisch und praktisch auf den ästhetischen Bildeindruck beim Normalisieren über einen LUT-Enwickler? Und wie werden denn die Lücken im Histogramm behandelt?
Mein Entwickler war immer C41 bei Negativen.
Und die waren immer schön flach und selbst 1300% Eingangsdynamik schlugen an den dichtesten Stellen nur mit 99% Ausgangsdynamik zu Buche. Bei einem digitalen Sensor wären diese Stellen schon 10 mal vorher überstrahlt gewesen. Also von dort her kommt, wie erwähnt, ja die Idee überhaupt, also vom Simulieren von Negativfilmen.
Antwort von WoWu:
Das ist ja auch bei Video so ähnlich.
Nur dass man eben zwischen einer LUT und einer Reverse Funktion unterscheiden muss.
Die Reverse Funktion fasst sämtliche Werte an und approximiert die Kurve entlang der Veränderungsparameter.
Der LUT verschiebt lediglich einzelne Werte und interpoliert nur zwischen diesen beiden Werten, verändert aber ansonsten die Übertragungsfunktion nicht.
Ein Bild verdeutlicht besser, was bei einer Punktoperation geschieht und welche Auswirkung es auf das Histogramm und damit auf die Menge der Werte (Bilddynamik) hat. "Bild"
Zu jedem Eintrag (Balken) im Histogramm gehörtan der Stelle i die Menge all jener Bildelemente, die genau den Pixelwert i aufweisen.
Wird infolge einer Operation eine bestimmte Histogrammlinie verschoben, dann verändern sich natürlich auch alle Elemente der zugehö̈rigen Pixelmenge, bzw. umgekehrt.
Was passiert daher, wenn aufgrund einer Operation zwei bisher getrennte Histogrammlinien zusammenfallen?
Die beiden zugehö̈rigen Pixelmengen vereinigen sich und der gemeinsame Eintrag im Histogramm ist die Summe der beiden bisher getrennten Einträge.
Die Elemente in der vereinigten Menge sind ab diesem Punkt nicht mehr voneinander unterscheidbar oder trennbar, was uns zeigt, dass mit diesem Vorgang ein (möglicherweise unbeabsichtigter) Verlust von Dynamik und Bildinformation verbunden ist. Das das nicht immer sofort auffällt, zeigt Dein Beispiel.
Hier ging es in erster Linie ja auch drum, mit dem Humbug aufzuräumen, solche Kurven würden für mehr Dynamik sorgen ... Im Gegenteil. Die Dynamik nimmt ab, sofern die Aufnahmekurve sich vom Zielprodukt unterscheidet.
Daher ist es sinnvoll, mit einer Zielkurve bereits aufzunehmen, die mit wenig Korrekturen auskommt oder einen Workflow zu verwenden, der nicht ganze Tonwerte eliminiert. Es sei denn, die geringere Dynamik wird in Kauf genommen.
Bei 10 Bit nach 8Bit stehen oft genügend Werte zur Verfügung, um 8Bit lückenlos zu bedienen.
Bei 8 Bit nach 8Bit wird man in 99% der Fälle nicht mehr bei 8 Bit landen und die LIN Aufnahme hat vom Bilddynamischen Aspekt her, die Nase vorn.
(nicht immer vom geschmacklichen Aspekt) Aber dann würde ich lieber eine Kurve nehmen, die nu wenig logarithmiert (oder ein doppeltes Knee) und behalte die ursprüngliche Dynamik.
Es kommt eben auch hinzu, dass mit jeder Lücke der Abstand zum nächsten Tonwert grösser wird und damit die Bandingneigung.
Antwort von mash_gh4:
Ja, weil 1 Bit, ein Bit ist, egal, wo es im Übertragungsrahmen liegt, also zu welcher Zeit es übertragen wird.
Dafür ist die Übertragungsfunktion da.
Domain hat also die Übetagungsfunktion geändert.
Was glaubst Du denn, warum wir hier über lineare und logarithmische Übertragung reden.
ich würde glauben, dass man fragen der quantisierung nicht ganz so leichtfertig mit dynamik gleichsetzten od. verwechseln sollte.
das sollte doch eigentlich schon dadurch einleuchtend erscheinen, dass man dynamik (im sinne von motivkontrast und abgebildetem kontrast) auch in einer gänzlich anlogen welt vorfindet, wo bits und bytes noch überhaupt keine rolle spielen.
aber vielleicht kannst mir einfach einen weiterführenden beleg nennen, wo jemand in ganz ähnlicher weise wie du behauptet: "Bilddynamik definiert sich über die Menge unterschiedlicher Grauwerte innerhalb eines Übertragungskanals."?
Antwort von srone:
Ja, weil 1 Bit, ein Bit ist, egal, wo es im Übertragungsrahmen liegt, also zu welcher Zeit es übertragen wird.
Dafür ist die Übertragungsfunktion da.
Domain hat also die Übetagungsfunktion geändert.
Was glaubst Du denn, warum wir hier über lineare und logarithmische Übertragung reden.
ich würde glauben, dass man fragen der quantisierung nicht ganz so leichtfertig mit dynamik gleichsetzten od. verwechseln sollte.
das sollte doch eigentlich schon dadurch einleuchtend erscheinen, dass man dynamik (im sinne von motivkontrast und abgebildetem kontrast) auch in einer gänzlich anlogen welt vorfindet, wo bits und bytes noch überhaupt keine rolle spielen.
aber vielleicht kannst mir einfach einen weiterführenden beleg nennen, wo jemand in ganz ähnlicher weise wie du behauptet: "Bilddynamik definiert sich über die Menge unterschiedlicher Grauwerte innerhalb eines Übertragungskanals."?
selbst in der analogen welt gibt es definierte grenzen für schwarz und weiss, sprich normierung des videosignals und bestimmte spannungsänderungen bezeichnen dann auch blenden, auch hier könnte man eine log-funktion einbringen, jedoch würde auch hier keine dynamiksteigerung stattfinden, da selbst eine röhre als bildgebendes mittel die grenzen knapp über dem noisefloor bis hin zur sättigung hat.
weitergehend könnte man die quasi unendlichen werte zwischen den grenzen zur argumentation heran ziehen, jedoch scheitert dies an der toleranz der beteiligten elektronischen bauteile im analogen signalweg (widerstände/kondensatoren/spulen etc.)
lg
srone
Antwort von mash_gh4:
...bestimmte spannungsänderungen bezeichnen dann auch blenden, auch hier könnte man eine log-funktion einbringen, jedoch würde auch hier keine dynamiksteigerung stattfinden, da selbst eine röhre als bildgebendes mittel die grenzen knapp über dem noisefloor bis hin zur sättigung hat.
ja -- das kann ich schon so akzeptieren.
ich halte es trotzdem für vernünftig, wenn man die entsprechende abgebildete dynamik ganz klar auf lichtwerte od. blendenstufen bezieht. so ganz selbstverständlich ist es einfach nicht, sie auf bit-werte und eine linearer idealisierung umzulegen, auch wenn wir uns daran in vereinfachter darstellung gewöhnt haben...
es ist mir zwar ohnehin klar, dass auch ich mich in diesen dingen ständig ausgesprochen schlampig ausdrücke und oft an der grenze der widersprüchlichkeit entlang schramme, trotzdem erscheint es mir wichtig, dass solche auseinandersetzungen sich nicht immer wieder in apodiktischen exzessen verlieren. in diesem sinne finde ich die ausgesprochen anregenden bsp. und demonstrationen von domain weiterhin recht nützlich und aussagekräftig. aber vielleicht liegt das nur daran, dass ich auch zu jener aussterbenden gattung gehöre, die C41 nicht für ein kohlenstoff-isotop halten, mit dessen hilfe man höchstens das alter virtueller bekanntschaften bestimmen könnte. ;)
Antwort von WoWu:
Es liegt vermutlich daran, dass Du versuchst, digitale Wege analog zu erklären, weil Dir der Verarbeitungsworkflow nur von der Handhabung her bekannt ist, nicht aber vom Prozessweg.
Solche Defizite löst Du auch in solchen Blogs, die -wie hier vorgeführt. nicht auf.
Und das hat auch mit apodiktischen Exzessen nichts zu tun, weil Digitaltechnik eine ganz triviale Sache ist. Man muss sich nur damit beschäftigen und nicht in "kitteltreue" alles zu glauben, was irgendwelche Gurus in irgendwelchen Blogs schreiben.
Du solltest solche Prozesswege vielleicht selbst eimal nachrecherchierten.
Antwort von mash_gh4:
@mash_gh4
Ich glaube, Du schnapps in irgendwelchen Blogs, irgendwelche Begriffe auf, die Du hier mühsam versuchst, in Einklang zu bringen.
Das mag Dir in einer Diskussion mit inhaltlichem Halbwissen auch gelingen.
Hier bist Du dann aber am falschen Platz gelandet.
Ich habe auch nicht vor, Dein Defizit mit Literaturhinweisen auszugleichen.
Es gibt tonnenweise Literatur, vor der Dissertation, bis hin zu klassischen Arbeitsbereichberichten, die die Lücke ausfüllen.
Bei der Gelegenheit würde ich dann auch gleich mal nachschlagen, was Quantisierung eigentlich ist. Dann wirst Du feststellen, dass sie im Zusammenhang mit der hier besprochenen Problematik nur wenig Berührungspunkte hat.
Ich hatte oben schon erwähnt, dass Du in den Blogs, die Du bisher offenbar als Informationsbasis genutzt hast, sicher derzeit noch gut aufgehoben bist.
Vielleicht noch ein Tipp für Deine Internetrecherche:
Wenn sich ein Blog bei einem Schlagwort öffnet, empfehle ich gleich, das nächste Suchergebnis.
.edu kommt immer sehr gut, weil es meist zu universitären Einrichtungen gehört.
_________________
Gute Grüße, Wolfgang
E-Book: www.provideome.de
dann lass ma's halt einfach einmal so stehen! :)
kein problem!
 |
Antwort von WoWu:
Ich hab das nochmal überarbeitet, weil Dein letztes Posting noch nicht vorlag.
Ach ... und übrigens, solche Ableitungen kann man schon aus der Logik herleiten:
Worin besteht denn z.B. der Unterschied zwischen 8 und 10 Bit ?
Und wir sind uns doch (hoffentlich) einig, dass 10 Bit einer grösseren Bilddynamik entspricht als 8 Bit.
Die Antwort ... der Unterschied besteht in der Menge unterschiedlicher Grauwerte im Übertragungskanal.
So und jetzt zieh mal von 8 Bit ein paar Werte ab ... meinst Du nicht, dass man dann auch weniger Dynamik hätte ? Und das 7 Bit geringer dynamisiert ist als 8 Bit ?
Wenn nicht, warum machen wir nicht alles in 2 Bit ?
Du siehst, auch logisches Denkvermögen hilft manchmal bei so einfachen Themen.
Vielleicht auch noch ein Wort zu Deinem gerosteten Barkenbild.
Schau Dir mal die beiden Histogramme (1x Barkenbild und 1x Verlauf) an.
Dann wirst Du sehen, dass die Barken überhaupt nichts über die Dynamik aussagen, der Verlauf aber sehr genau erkennen lässt, wo an welcher Stelle der Dynamik Probleme auftreten.
Das hatte ich damit gemeint, als ich das falsche Chart für Dynamik reklamiert habe.
Antwort von srone:
...bestimmte spannungsänderungen bezeichnen dann auch blenden, auch hier könnte man eine log-funktion einbringen, jedoch würde auch hier keine dynamiksteigerung stattfinden, da selbst eine röhre als bildgebendes mittel die grenzen knapp über dem noisefloor bis hin zur sättigung hat.
ja -- das kann ich schon so akzeptieren.
ich halte es trotzdem für vernünftig, wenn man die entsprechende abgebildete dynamik ganz klar auf lichtwerte od. blendenstufen bezieht. so ganz sselbstverständlich ist es einfach nicht auf bitwerte und eine linearer idealisierung umzulegen, an die wir uns in vereinfachter darstellung gewöhnt haben...
es ist mir zwar ohnehin klar, dass auch ich mich in diesen dingen ständig ausgesprochen schlampig ausdrücke und oft an der grenze der widersprüchlichkeit entlang schramme, trotzdem erscheint es mir wichtig, dass solche auseinandersetzungen sich nicht immer wieder in apodiktischen exzessen verlieren. in diesem sinne finde ich die ausgesprochen anregenden bsp. und demonstrationen von domain weiterhin recht nützlich und aussagekräftig. aber vielleicht liegt das nur daran, dass ich auch zu jener aussterbenden gattung gehöre, die C41 nicht für ein kohlenstoff-isotop halten, mit dessen hilfe man höchstens das alter virtueller bekanntschaften bestimmen könnte. ;)
die bsp von domain sind populistisch betrachtet sehr anschaulich, treffen jedoch nicht den kern der digitalen sensorsache, ich kann film-material bestimmte physikalische eigenschaften zuordnen, was die sache greifbar macht, bei digitalen sensoren gilt dies nicht im selben sinne, dort findet im signalprozessing ein mapping statt, sei es eben zu rec 709 oder eben zu log irgendwas, um die physikalischen eigenschaften von film zu emulieren, die digitalen sensoreigenschaften sind per se eher linear, denn logarithmisch, was aber im prinzip eher "super video" aussieht, das will keiner, also jetzt neu log, ein neues mapping, jedoch der sensor bleibt derselbe, was also soll da gewonnen sein?
Antwort von mash_gh4:
die bsp von domain sind populistisch betrachtet sehr anschaulich, treffen jedoch nicht den kern der digitalen sensorsache,...
ich finde, dass er den kern der sache mit seiner demonstrativen tonspreizerei ziemlich gut getroffen hat.
wenn man jetzt noch hinzunimmt, dass die entsprecheden unterschiede bzw. notwendigen operationen in der praxis deutlich kleiner als im aufgezeigten bsp. ausfallen dürften -- bei intensiveren korrekturen an rec709 material nicht unbedingt geringer als bei log footage --, macht es schon sinn, sich auf diesem weg an die tatsächliche relevanz bzw. ein verständnis für den techn. hintergrund heranzutasten.
ich kann film-material bestimmte physikalische eigenschaften zuordnen, was die sache greifbar macht, bei digitalen sensoren gilt dies nicht im selben sinne, dort findet im signalprozessing ein mapping statt, sei es eben zu rec 709 oder eben zu log irgendwas, um die physikalischen eigenschaften von film zu emulieren, die digitalen sensoreigenschaften sind per se eher linear, denn logarithmisch, was aber im prinzip eher "super video" aussieht, das will keiner, also jetzt neu log, ein neues mapping, jedoch der sensor bleibt derselbe, was also soll da gewonnen sein?
ich würde gar nicht so sehr darauf abzielen, chemischen film nachzuäffen bzw. diese analogie hervorzuheben. den vorteil der log-codierung sehe ich eher darin, einen möglichst großen kontrastumfang (ich weiß kein bessers wort dafür als 'bilddynamik') in effizienter codierung (=gleichmäßiger werteverteilung über alle blendenstufen) an nachbearbeitungsprogramme weiterzureichen. so aufregend groß sind die unterschiede zwischen den heute in der praxis vorfindlichen rec709 kompromissen, die natürlich ähnliches versuchen, und derartigen log-profilen ohnehin nicht mehr. mir erscheint es daher eher als eine sinnvolle bereinigung diverser altlasten und workarounds, die sich letztlich dann doch in mehrerlei hinsicht vorteilhaft auswirken dürfte.
Antwort von mash_gh4:
Vielleicht auch noch ein Wort zu Deinem gerosteten Barkenbild.
Schau Dir mal die beiden Histogramme (1x Barkenbild und 1x Verlauf) an.
Dann wirst Du sehen, dass die Barken überhaupt nichts über die Dynamik aussagen, der Verlauf aber sehr genau erkennen lässt, wo an welcher Stelle der Dynamik Probleme auftreten.
Das hatte ich damit gemeint, als ich das falsche Chart für Dynamik reklamiert habe.
ich denke, dass die meisten kollegen aus einer derartigen versuchsanordung herauszulesen vermögen, wie viele blendenstufen der entsprechende sensor od. zumindest die kamera -- weil uns ja im zuge der internen verarbeitung natürlich auch einige unterschlagen werden könnten --, abzubilden vermag. mit anderen worten den kontrastumfang od. eben das, was ich als 'bilddynamik' (in begrifflicher abgrenzung zum kontrast bzw. der dynamik des motivs) ansprechen würde.
die meisten wären auch in der lage, abzuschätzen, wie viele ganzzahlige zwischenwerte sich in den vertikalen bereichen zwischen einzelnen stufen in der waveform-darstellung bzw. den spitzen in deinem histogramm den betreffenden blendenstufen jeweils zuordnen lassen. *) das kann ziemlich informativ sein, wenn man es in seinen konsequenzen richtig zu deuten versteht...
*) nachträgliche anmerkung:
natürlich könnte es auch den fall geben, dass uns ein schrecklich böser kamerahersteller wirklich übers ohr hauen will, und uns diese zwischenwerte zwischen den einzelnen blendendenstufen völlig unterschlägt bzw. rundet! dass könnte natürlich nur ein test gemäß deinen vorstellungen widerlegen. trotzdem bin ich recht zuversichtlich und vermute, dass in der praxis gewöhnlich alle zur verfügung stehenden ganzzahligen werte ausgeschöpft werden. selbst wenn man alle nutzt, wird's ja tlw. trotzdem eng. und in genau dem punkt stellt sich halt die frage, ob rec709 oder log den praktischen anforderungen eher gerecht wird?
Antwort von WoWu:
@domain
sei doch mal so gut und lad mal das Originalfile hoch.
Mich würde mal interessieren, wie die Luminananteile des Chromas aussehen.
Bereinigt man nämlich die graue Fläche gedanklich aus dem Histogramm, bleibt noch ein ziemliches Delta zwischen den Histogrammen.
Mich würde mal interessieren, woher das kommt.
Frage ist, ob das wirklich nur 10 Grün, 10 Rot und 10 Blaue Töne sind.
Schwer zu sagen.
Antwort von WoWu:
Eins ist wirklich schade, dass Du immer nur spekulierst, statt mit Fakten zu kommen.
ich denke, dass die meisten kollegen aus einer derartigen versuchsanordung herauszulesen vermögen, wie viele blendenstufen der entsprechende sensor od. zumindest die kamera -- ......., abzubilden vermag.
"Du denkst, dass die Kollegen....". Also die Lücken im Diagramm mit der Anzahl und Beschaffenheit der nicht dargestellten Werte erkennen, oder sollten wir besser sagen erraten können.
Sei mir nicht bös' aber das können nur Hellseher.
Das kann ja mal jeder selbst für sich entscheiden, ob er die fehlenden Werte schätzen kann und die Lücken und Spitzen festmachen kann.
Was ich nicht verstehe, ist, dass Du sagst, man braucht LOG, um mehr Dynamik zu erzielen und im selben Aathemzug sagst du, dass die 10 Farben in Domains Muster reichen.
Hab ich irgendwas falsch verstanden ?
Zu Deiner Anmerkung:
Es geht gar nicht um "böse Hersteller".
Es geht darum, dass mit LOG keine größere Dynamik erreicht wird und dass das Postprozessing diese Werte noch verringert.
Du musst das also gar nicht auf die lächerliche Schiene ziehen.
Deine eingangs gemachten Statements sind schlicht und ergreifend falsch und es hat auch während der langen Diskussion keinen Punkt gegeben, mit dem Du Deine Behauptung bekräftigt hättest.
Ganz im Gegenteil. Solche Einlassungen, wiie zum Unterschied der beiden Domain Postings, deuten eigentlich darauf , dass Du auch optisch, also subjektiv, keine wirklichen Unterschiede auzmachen kannst und dass Du eigentlich auch mehr auf einen bestimmten "Look" aus bist, als auf Dynamik.
Ist ja nicht schlimm. Aber dann reichen auch 6 Bit.
Da sparst du viel Geld am Monitor und der Kamera.
Antwort von mash_gh4:
....und dass Du eigentlich auch mehr auf einen bestimmten "Look" aus bist...
das ist wirklich beleidigend! -- ...wenigstens das hast du offenbar richtig verstanden!
Antwort von domain:
@ WoWu
Gibt leider keine Originalbilder mehr. Solche Testbilder kommen bei mir immer in den Ordner D:\Schrott und den leere ich zwischendurch immer wieder mal.
Antwort von WoWu:
@domain
Sehr schade, aber nicht zu ändern.
@mash gh4
Was ist denn daran beleidigend.
Das wird häufig verwechselt, wenn man nicht so genau unterscheiden kann, wie "Looks" entstehen und welche Wirkung Übertragungsfunktionen haben.
Ist ja nichts ehrenrühriges, dass man den Unterschied nicht kennt.
Zumal die Ergebnisse manchmal ähnliche Anmutungen haben.
Antwort von Uwe:
zum Bild http://s17.postimg.org/vzpe7nv6n/attachment.jpg
Antwort von Spork:
Da scheinen die Neuseeländer ja tatsächlich recht gehabt zu haben. Muss daran liegen, dass die soviele Stunden in der Zukunft leben. Hoffen wir mal, dass das "L" am Ende nicht die große Enttäuschung bringt.
Antwort von srone:
ohne polemisch sein zu wollen, aber v-log entwickelt eine ähnliche (internet-)dynamik wie dazumals(gh2), etliche "treibholz"-hacks ;-)
lg
srone
Antwort von Skeptiker:
... etliche "treibholz"-hacks ;-)
IKEA-like:
"Log(g)st Du schon. oder holzt Du noch?"
oder
"Halb loggte sie (die GH4), halb sank er hin"
(Original: "Halb zog sie ihn, halb sank er hin" - Goethe, 'Der Fischer' (und die Wassernixe))
oder
"und ewig loggt die GH4"
(Original: Und ewig lockt das Weib - Brigitte Bardot in https://de.wikipedia.org/wiki/Und_immer_lockt_das_Weib)
Antwort von Spork:
IKEA-like:
"Log(g)st Du schon. oder holzt Du noch?"
https://youtu.be/XjzBpJ1XYwc
Antwort von WoWu:
Nur keiner weiss wirklich, warum.
Colour correction works best on linear data, and the lin to log conversion is generally destructive, and the processing power is negligibly different for processing log or lin data, given they'd both be bumped to floating point anyway for colour correction.
Log is basically perceptual based compression, giving more data to the shadows than the highlights. Log is not "that" different from video gamma (which people often mistakingly call "linear" which it is not), only that it's more extreme.
Graeme_Nattress
Panasonic hat eben eine funktionierende marketing Abteilung, auf die genügend hereinfallen.
Antwort von Uwe:
Seltsames Gerücht:
http://www.43rumors.com/ft5-strange-rum ... onic-gh4r/
Antwort von klusterdegenerierung:
Muß nich gleich heißen das es was kostet, vielmehr das man die Modelle auseinander halten kann, denn nicht jeder wird seine GH4 updaten wollen, erst recht nicht wenn es was kostet.
Das haben sie doch bei der AC160 auch so gemacht, dann kamen ein paar neue features per update dazu und Bums hatte die nächte Produktionscharge einen neuen Namen AC160A oder so ähnlich!
Ausserdem wird es genauso ernüchternd sein wie der hype darum groß ist!
Wenn man so aus einem alten Gaul ein Rennpferd machen könnte, würde es ja jeder tun!
Und wer braucht denn noch eine Blende zusätzlich? Soll er doch mal das Licht anmachen, geht doch auch! :-)
Antwort von klusterdegenerierung:
http://www.4kshooters.net/2015/08/31/wi ... n-tuesday/
Antwort von Stephan82:
V-Log wird voraussichtlich 99$ kosten und kommt in einer Box, die man bestellen und liefern lassen muss. Es wird kein Download geben ;)
Antwort von klusterdegenerierung:
kommt in einer Box
Sone art Kontainer auf nem riesen Tanker?
Antwort von Spork:
Eher etwas, dass aussieht wie die YAGHE Einheit, und bei den Gerüchten haben die bei den $99 die Null am ende vergessen ;)
Antwort von wolfgang:
V-Log wird voraussichtlich 99$ kosten und kommt in einer Box, die man bestellen und liefern lassen muss. Es wird kein Download geben ;)
Gibt es einen Link zu diesem Hinweis?
Antwort von Spork:
http://www.43rumors.com/ft3-panasonic-t ... og-update/
alles nur gerüchte und keine echten infos
Antwort von DeeZiD:
http://shop.panasonic.com/cameras-and-c ... V5pIsqUL_g
Preis: 99$
Verfügbarkeit: Ab Mitte September, anscheinend nur für USA...
Antwort von wolfgang:
Na das wird wohl demnächste für Europa auch verfügbar sein.
Antwort von mash_gh4:
Na das wird wohl demnächste für Europa auch verfügbar sein.
wenn's aus russland mit ein paar zusätzlichen features (bspw. ohne 30min aufnahelimit) frei zu bekommen wäre, wie in den guten alten tagen der lumix-filmerei, würde ich das vermutlich noch mehr begrüßen!
aber so wie es ausschaut, ist das zeug sein geld ohnehin in keiner weise wert! :(
leider!
Antwort von wolfgang:
aber so wie es ausschaut, ist das zeug sein geld ohnehin in keiner weise wert! :(
leider!
Dazu dürften die Meinungen sehr sehr unterschiedlich ausfallen.
Antwort von domain:
Schon vor einigen Jahren hat hier ein einfacher Amateur, ich glaube mit Canon 8-Bit C-Log festgestellt, dass er zwar in der Dynamik und in der Abstufung der Lichter etwas hinzugewinnt, ihm das aber ebendieses in den Mitteltönen durch verstärktes Banding abgeht. Hat das auch durch eindeutige Bilder unter Beweis gestellt.
WoWu hat ihn dann in seiner Beobachtung bestärkt und nie mehr die leise Kritik an 8-Bit Log-Formaten unterlassen, sondern immer die lineare Aufzeichnung in seinen Argumenten hervorgehoben und auch bemerkt, dass sich das Problem mit der 10-Bit-Aufzeichnung ohnehin erledigen würde.
Also what shells?
Geht ihr den Werbefritzen auf den Leim oder glaubt ihr eher einfachen Beobachtern bzw. Fachleuten. Vergesst einfach 8-Bit-Log. Das macht nur Sinn, wenn die Eingangskontraste so stark sind, dass sie auch bei flacher Log-Aufzeichnungen noch den Bereich zwischen 15 und 235 ausfüllen.
So nebenbei sieht man, dass die X70 auch ohne Log-Kurve einen beachtlichen Dynamikbereich umfassen kann.
Also ist Sony schon wieder mal vorne auch ohne Log.
Antwort von klusterdegenerierung:
So nebenbei sieht man, dass die X70 auch ohne Log-Kurve einen beachtlichen Dynamikbereich umfassen kann.
Also ist Sony schon wieder mal vorne auch ohne Log.
Ist Augenwischerei, ist doch genauso 8Bit und auch son verbogenes Log, nur das Sony das von Anfang an drin hatte und es nicht als ein Amateur Log verkaufen mußte, so wie Pana es jetzt machen muß um es an den Mann zu bringen und den nutzen nach zu weißen.
Hätte Pana die von Anfang an drin gehabt und erwähnt, das man mit dem VLog Profil 12DR satt normal 10DR bekommt, würde Pana genauso gehyped wie Sony!
Sony kennt sich halt mehr mit Marketing aus!
Antwort von domain:
Da hast du nicht ganz unrecht, aber so verhunzt, wie manche flache Aufzeichnungen aussehen, macht es die X70 nicht.
Da wurde offenbar ein akzeptabler Kompromiss gefunden.
Antwort von mash_gh4:
Dazu dürften die Meinungen sehr sehr unterschiedlich ausfallen.
sicher!
eine weile werden wieder alle freudentrunken herumtaumeln und sich darin übertreffen, noch schneller ihr geld dafür los werden, aber dann wird die aufregung genauso sicher wieder der üblichen ernüchterung weichen...
panasonic hätte sicher besser daran getan, entwicklungsarbeit in eine der kamera besser angemessene log-funktion zu stecken, statt sinnlose kryptografische exzesse zu demonstrieren.
so wie sich das zeug momentan darstellt, werden von den raren übertragungswerten so viele verschwendet, dass man ohne große übertreibung von einer 7-bit kamera bzw. im falle des shoguns 9-bit aufzeichnung sprechen kann. das ist in meinen augen einfach idiotisch od. zumindest denkbar kontraproduktiv. und ohne zusätzliche anpassung der messung ist das ganze meiner einschätzung nach auch kaum gezielt anwendbar.
darüber hinaus glaube ich, dass mit diesem schritt eine wichtige symbolische grenze überschritten wurde, die für viele treue benutzer nicht ganz unbedeutend war:
bisher hat man lumix-kameras in der engeren fan-gemeinde eher mit erweiternden hacks aus russland in verbindung gebracht, die manch ärgerliche einschränkung (bspw. 30min. aufnahmebegrenzung) einfach aus der welt geschaffen haben. nun werden wir das erste mal damit konfontiert, dass sich die verhältnisse nach einigen jahren damit verbundener popularität und erfolgs gewissermaßen umgekehrt haben und nichts von diesen alten hacks und hoffnungen auf befreienden modifikatioen übrig geblieben ist. business as usual also auch bei panasonic.
Antwort von wolfgang:
Hmm, ohne log Funktion werden die Werte halt teils in wenigen Blendenbereichen konzentriert, über die log-Funktion werden sie wenigstens linear über die Blenden verteilt. So habe ich zumindest die vergangenen Diskussionen verstanden.
Klar wäre UHD mit 10bit intern schön - nur bitte wer bietet das heute um diesen Preis an? Darum macht die Sache primär mit dem Shogun Sinn.
Wobei man nicht vergessen sollte dass die diversen Sony Geräte auch mit s-log und 8bit arbeiten. So gesehen zieht hier Panasonic nur nach.
Aber die Diskussion wird geteilt bleiben, egal was jetzt dazu gesagt wird.
Antwort von klusterdegenerierung:
Bei Canon C100-300 ist jeder geil auf C-Log, weil es so toll aussieht etc.
Keiner Beschwert sich da über mangelde Qualität bei 8Bit, nicht mal bei den max 50Mbit, die die GH4 locker schafft, geschweige denn 10Bit extern!
Aber man muß immer einen Hersteller haben, der es vermeintlich Falsch macht, sonst macht das ganze doch keinen Spaß!!
Antwort von mash_gh4:
Hmm, ohne log Funktion werden die Werte halt teils in wenigen Blendenbereichen konzentriert, über die log-Funktion werden sie wenigstens linear über die Blenden verteilt. So habe ich zumindest die vergangenen Diskussionen verstanden.
ja -- so würde ich das auch sehen, nur dass es halt wirklich verdammt wenige werte sind, denen da im konkreten fall sehr viel last aufgebürdet wird -- weit mehr (=das doppelte) als nötig wäre.
Klar wäre UHD mit 10bit intern schön - nur bitte wer bietet das heute um diesen Preis an? Darum macht die Sache primär mit dem Shogun Sinn.
mit internen 10bit h.264 hätten wir in wahrheit vermutlich gar keine so große freude, weil sich das in der nachbearbeitung mit den meisten programmen zum gegenwärtigen zeitpunkt als fast genauso problematisch erweisen würde wie h.265
aber auch am shogun bedeutet die verwendung von v-log in der vorliegenden form eine veringerung der tatsächlich genutzen werte. das ist ganz und gar nicht optimal, auch wenn es vielleicht durch andere vorteile in der nachbearbeitung aufgewogen werden mag. es müsste einfach nicht so ineffizient gelöst sein.
Wobei man nicht vergessen sollte dass die diversen Sony Geräte auch mit s-log und 8bit arbeiten. So gesehen zieht hier Panasonic nur nach.
wobei die 3 verschiedenen s-log varianten jeweils auf bestimmte sensor generationen abgestimmt waren bzw. für unterschiedliche kontrastverhältnisse sinn mmachen. v-log l dagegen, passt so gar nicht zum abgebildeten dynamikumfang der GH4 und der praktischen enge bzw. den optimierungsnöten der internen auzfzeichnung.
Antwort von Angry_C:
Ist Augenwischerei, ist doch genauso 8Bit und auch son verbogenes Log, nur das Sony das von Anfang an drin hatte und es nicht als ein Amateur Log verkaufen mußte, so wie Pana es jetzt machen muß um es an den Mann zu bringen und den nutzen nach zu weißen.
!
Augenwischerei, die anscheinend verhindert, Beiträge richtig zu lesen. Er schrieb X70.
Da gib's erstens kein log und zweitens zeichnet sie in 10bit auf;-)
Antwort von klusterdegenerierung:
Ist Augenwischerei, ist doch genauso 8Bit und auch son verbogenes Log, nur das Sony das von Anfang an drin hatte und es nicht als ein Amateur Log verkaufen mußte, so wie Pana es jetzt machen muß um es an den Mann zu bringen und den nutzen nach zu weißen.
!
Augenwischerei, die anscheinend verhindert, Beiträge richtig zu lesen. Er schrieb X70.
Da gib's erstens kein log und zweitens zeichnet sie in 10bit auf;-)
Schön, ich sprach aber nicht nur von der X70!
Nicht das Du gleich keine Luft mehr bekommst!
Antwort von domain:
Also wenn das kein Fortschritt im preiswerten Semiprofisektor ohne ausladenden Shoguntempel-Aufbau ist:
X70: 1920*1080 XAVC mit 10 Bit 422 50p.
Welche bezahlbare Kamera schafft denn 4K 10 Bit mit 422 50p?
Unbegreiflich, von welchem Schnickschnack sich manche blenden lassen.
Antwort von srone:
nochmals, log-kurven sind eine übertragungsfunktion, wie ein streufilter vor einer lampe, ob ich selbige benötige, haben will oder aus ersichtlichen gründen weglasse, ist eine der vielen entscheidungen, die ich als kameramann tag für tag treffen muss, es bringt mir dann etwas, wenn ich, in hinblick auf den den gewollten finalen look, darin vorteile erkennen kann, falls nicht, bin ich mit rec709 in jedem falle besser bedient.
diese unsinnige annahme man könnte mit log + anschliessender reverse kurve etwas gewinnen, ist per se kokolores, das ist, wie wenn ich meine lampen mit +1/2 magenta bestücken würde, um es in der post wieder gegen zu korrigieren, wozu?
wenn ich allerdings, um bei obigem beispiel zu bleiben, einen +1/4 magenta-look anstrebe, könnte obiges vorgehen einen sinn machen, nur sollte ich mir das im vorfeld genau überlegen.
lg
srone
Antwort von Angry_C:
Ist Augenwischerei, ist doch genauso 8Bit und auch son verbogenes Log, nur das Sony das von Anfang an drin hatte und es nicht als ein Amateur Log verkaufen mußte, so wie Pana es jetzt machen muß um es an den Mann zu bringen und den nutzen nach zu weißen.
!
Augenwischerei, die anscheinend verhindert, Beiträge richtig zu lesen. Er schrieb X70.
Da gib's erstens kein log und zweitens zeichnet sie in 10bit auf;-)
Schön, ich sprach aber nicht nur von der X70!
Nicht das Du gleich keine Luft mehr bekommst!
Wenn du direkt nach Domains Post mit der X70 mit so einer Pauschalen antwortest, kann man schwer davon ausgehen, dass du eigentlich andere Kameras meinst. Aber gut, dass das nun klar ist:-)
Antwort von wolfgang:
nochmals, log-kurven sind eine übertragungsfunktion, wie ein streufilter vor einer lampe, ob ich selbige benötige, haben will oder aus ersichtlichen gründen weglasse, ist eine der vielen entscheidungen, die ich als kameramann tag für tag treffen muss, es bringt mir dann etwas, wenn ich, in hinblick auf den den gewollten finalen look, darin vorteile erkennen kann, falls nicht, bin ich mit rec709 in jedem falle besser bedient.
diese unsinnige annahme man könnte mit log + anschliessender reverse kurve etwas gewinnen, ist per se kokolores, das ist, wie wenn ich meine lampen mit +1/2 magenta bestücken würde, um es in der post wieder gegen zu korrigieren, wozu?
So wie du das schreibst klingt das für mich durchaus logisch. Ich mache eine Operation die ich in der Postpro dann eh wieder rückgängig mache.
Fällt also unter groben Unfug - wozu macht man das?
Nur erkläre mir eines: wenn die Übertragungsfunktion die Werte der Signale gleichmäßiger auf die einzelnen Blenden verteilt, bedeutet das nicht dass ich dann sehr wohl eine andere Signalqualität aufzeichne? Die ich dann in der Postpro entwickeln kann wie ich es eben will - und nicht unbedingt so dass ich den LUT mechanisch draufknalle sondern eben sehr wohl mit Lumaverteilung usw. arbeite wie ich es àls Anwender für sinnvoll halte? Und da auf besseres Material zugreife als wenn ich gleich nach rec709 aufgenommen hätte?
DAS macht dann nämlich für mich sehr wohl Sinn.
Aber in einem Punkt gebe ich den Kritikern der diversen x-logs auf jeden Fall recht: selten ein Thema gesehen, wo es so viel Verwirrung und Halbwissen gibt. Und da nehme ich mich selbst explizit nicht aus.
Antwort von srone:
nochmals, log-kurven sind eine übertragungsfunktion, wie ein streufilter vor einer lampe, ob ich selbige benötige, haben will oder aus ersichtlichen gründen weglasse, ist eine der vielen entscheidungen, die ich als kameramann tag für tag treffen muss, es bringt mir dann etwas, wenn ich, in hinblick auf den den gewollten finalen look, darin vorteile erkennen kann, falls nicht, bin ich mit rec709 in jedem falle besser bedient.
Nur erkläre mir eines: wenn die Übertragungsfunktion die Werte der Signale gleichmäßiger auf die einzelnen Blenden verteilt, bedeutet das nicht dass ich dann sehr wohl eine andere Signalqualität aufzeichne? Die ich dann in der Postpro entwickeln kann wie ich es eben will - und nicht unbedingt so dass ich den LUT mechanisch draufknalle sondern eben sehr wohl mit Lumaverteilung usw. arbeite wie ich es àls Anwender für sinnvoll halte? Und da auf besseres Material zugreife als wenn ich gleich nach rec709 aufgenommen hätte?
DAS macht dann nämlich für mich sehr wohl Sinn.
die beiden unterstrichenen zitate meinen inhaltlich dasselbe, jedoch scheint es so, dass die wenigsten diesen nutzen ziehen können und sich somit mehr bildqualität kaputtmachen, denn gewinnen.
lg
srone
Antwort von wolfgang:
Nur warum sollten sie sich unbedingt mehr kaputt machen? Vielleicht ist das ja sogar bei vielen so - aber dann lernt man mit einem derartigem Worklflow mal wie man sein Material wirklich entwickelt. Oder hat die Chance dazu.
Antwort von srone:
wenn deine (gamma-)zielvorstellung zwischen v-log und rec709 liegt und die szene entsprechend kontrastreich ist, macht diese vorgehensweise sinn.
in allen anderen fällen ist der gradingweg einfach zu lang, bzw zu invasiv und entspricht einem umweg, welcher die signalgüte verschlechtert.
lg
srone
Antwort von wolfgang:
Das ist kein Umweg wenn die erzielbare Bildqualität doch markant besser wird. Und gerade bei den Hauttönen scheint es doch beträchtliche Unterschiede zu geben, die man erreichen kann. Und ob bei 10bit 422 tatsächlich eine Verschlechterung des Materials erfolgen muss, dass wäre erst noch zu zeigen.
Freilich, ob jemand diesen Aufwand auf sich nehmen will muss er eh selbst entscheiden. Warum machen manche Leute eine raw workflow...
Antwort von srone:
Das ist kein Umweg wenn die erzielbare Bildqualität doch markant besser wird.
es ist dann ein umweg, wenn mein ergebnis, wie mit einer reverse lut aussehen soll.
Und gerade bei den Hauttönen scheint es doch beträchtliche Unterschiede zu geben, die man erreichen kann.
du meinst, obiges schlecht belichtetes beispiel mit dem mädchen?
Und ob bei 10bit 422 tatsächlich eine Verschlechterung des Materials erfolgen muss, dass wäre erst noch zu zeigen.
wenn ich es als 10bit 422 ausgeben möchte, wird (unter oben genannten gesichtspunkten, graden ala reverse lut) eine verschlechterung stattfinden, bei einer 8bit 420 ausgabe, brauchen wir nicht drüber reden, vergleichen dann allerdings auch äpfel und birnen. ;-)
lg
srone
Antwort von mash_gh4:
[du meinst, obiges schlecht belichtetes beispiel mit dem mädchen?
hat eigentlich jemand von euch das gefühl, dass es sich bei den cine-d beispielen in diesem video tatsächlich um völlig unmodifiziertes material handelt?
Antwort von andieymi:
Abgesehen von der Diskussion hier ist das für einige evtl. interessant. Falls jemand V-LOG ausprobieren möchte, es dürfte in Firmware 2.3 einen Bug geben - wird VLOG ausgefählt und dann als Profil gespeichert, hat man es.
Vielleicht nicht ganz die feine Art, aber zumindest zum Ausprobieren wird es reichen. Ich habe diese nicht selbst ausprobiert (keien GH4 zur Hand), aber es wird auf FB ('The Frugal Filmmaker' Gruppe) und EOSHD-Forum bestätigt.
http://www.eoshd.com/comments/topic/941 ... ee/?page=1