Frage von g3m1n1:Hi,
Hier das Video:
https://youtu.be/Gez5N_w0xIo
Ich wollte sehen, in wiefern sich das Material der BMPCC mit der
RX10 II mischen lässt... meiner Meinung nach klappt das sehr gut.
RX10 II : S-Log2, XAVCs 100Mbit 4K
BMPCC : Speedbooster bmpcc zu EF, Sigma 18-35, Prores HQ
Antwort von motiongroup:
morgen g3m1n1, mischen, klar warum auch nicht.. darf ich dich mal fragen ob du das Material der Sony im 4k Mode vorliegen hattest? Ich möchte mich auch gleich dafür entschuldigen aber das Material ist schlecht im Vergleich zum Bmpcc Material. Ich habe mir das Beispiel zwei mal angesehen weil ich das fast nicht glauben konnte.. noch dazu verwendest du auf der BMPCC einen Speed Booster.
Danke für die Gegenüberstellung.
Antwort von Heinrich123:
Finde auch dass das Bild der BM wesentlich besser ist.
Habe auch mit der RX10 geliebäugelt.
Danke für die Gegenüberstellung.
Wäre ein Fehlkauf gewesen.
Antwort von g3m1n1:
Ja, das RX10 II Material ist in 4K.
Die BMPCC wirkt durch das Objektiv etwas anders. Außerdem scheint
das Bild der BMPCC immer etwas wärmer zu sein. Wenn man das 100%ig
angleichen will, muss man die Farben der RX10 II oder der BMPCC massiv
ändern. z.B. ist es so, dass ein Weißabgleich von 5000K bei der BMPCC
ähnlich einem von 5600K bei der Sony aussieht.
ansonsten ist mir aufgefallen, dass bei Tageslicht die BMPCC teilweise
mehr rauscht, in Lowlight jedoch weniger. In RAW ist dann garkein Rauschen
mehr übrig. Man muss dazu sagen, die maximale Blende bei der Sony ist
2,8 und bei dem Sigma mit Speedbooster 1.0. Gerade bei den Aufnahmen
mit dem Traktor sieht man das.
Bei der Sony habe ich den internen ND Filter verwendet, bei der BMPCC
habe ich die Blende aufgemacht und mit einem variablen ND nachjustiert.
Vielleicht erklärt das auch etwas den Unterschied.
Mich würde aber dennoch interessieren, an welchen Sequenzen Ihr das
genau ausmacht.
Antwort von Axel:
RX10 II : S-Log2, XAVCs 100Mbit 4K
BMPCC : Speedbooster bmpcc zu EF, Sigma 18-35, Prores HQ
Auflösung ist erstens nicht alles. Und zweitens besagen die Etiketten "HD" und "4k" nichts über die Auflösung. Regelmäßig ignorierte Tatsache. Das Zusammenspiel vieler Faktoren erlaubt vergleichende Aussagen über die Qualität. Dieser Satz ist für viele Videokonsumenten zu schwer greifbar, daher wird er in Bausch und Bogen verworfen.
Ich möchte mich auch gleich dafür entschuldigen aber das Material ist schlecht im Vergleich zum Bmpcc Material. Ich habe mir das Beispiel zwei mal angesehen weil ich das fast nicht glauben konnte..
Zu den relativierenden Faktoren gehören aber auch, dass die BMPCC hauptsächlich auf einem Stativ stand, die RX10 aber mit der Hand geführt wurde. Und dass die Youtube-Komprimierung eine Menge vermatscht. Ich bin mir nicht sicher, aber mit einem besseren Uploadfile (womit und wie erstellt?) wäre der Abstand u.U. geringer gewesen.
... noch dazu verwendest du auf der BMPCC einen Speed Booster.
Die (im Video zu sehende) Kombi SB + Sigma ist ein gutes Beispiel für die komplexen Faktoren, die zu einer dramatisch unterschiedlichen subjektiven Beurteilung führen können. Die Kombi löst zu scharf für den Sensor auf, sie erzeugt relativ viel Moire, vor allem in Raw. Nun ist Moire ein Symptom für schlechtere Auflösung. Aufgrund des Debayerings hat die Pocket per se nur HD minus 20% (bitte korrigieren), davon muss man dann nochmals was abziehen. Das Bild ist jedoch eben sehr scharf, und Schärfe wird gern mit Auflösung verwechselt. Auflösung kann man am besten anhand von feinen, gleichmäßigen Strukturen wie etwa Stoffen erkennen, im Direktvergleich. Ich schätze, hier wäre die RX10 (auf Stativ) der klare Gewinner.
Bloß ist Auflösung ein für die spontane Qualitätsbeurteilung sehr nachrangiger Faktor. Es ist ein Negativfaktor, d.h. man spürt zu
geringe Auflösung an fehlenden bildwichtigen Details.
Finde auch dass das Bild der BM wesentlich besser ist.
Habe auch mit der RX10 geliebäugelt.
Danke für die Gegenüberstellung.
Wäre ein Fehlkauf gewesen.
Ironischerweise haben die 8-bit Consumer-Mirrorless oder DSLRs erheblich mehr Stellschrauben als die BM Kameras, die man idealerweise immer mit der nativen Iso, einem groben (der Farbempfindlichkeit von analogem Film vergleichbaren) Kelvin-Wert und (notgedrungen meistens) einer nur ungefähren Belichtung verwendet. Die Dynamik sollte bei der Sony bei 12,6 Blenden liegen, aber wie wird diese Dynamik auf 256 Helligkeitsstufen verteilt? Am schlechtesten fährt man hier grundsätzlich mit einer automatischen Dynamikeinstellung, am besten mit einem zum Motiv passenden Profil. Der Unterschied kann der zwischen Himmel und Hölle sein. Darum ist es sehr angebracht, sich ausgiebig damit zu befassen.
Antwort von Jörg:
welche Klimmzüge muss man machen, um das Material einer RX10 so zu vergurken???
Antwort von TaoTao:
Kannst du nicht einmal Motive völlig identisch aufnehmen und dann mal die Anmerkungen RX10/BMPCC weglassen. Würde mich interessieren wie viele der Dummquatscher hier den Unterschied erkennen. <3
Antwort von Starshine Pictures:
Und bitte mal ohne Grading und sonstige Anpassungen oder Verbesserungen. Halt das Rohmaterial wie es aus der jeweiligen Kamera kommt.
Antwort von Jörg:
Axel schreibt
Darum ist es sehr angebracht, sich ausgiebig damit zu befassen.
in diesem Forum???
Werde wach Axel, die Zeiten sind vorbei, dass man hoffen konnte, hier BELASTBARE Fakten und Beispiele zu finden.
jedenfalls muss man sehr danach suchen.
Seit dieseer unleidigen Häufung von "gradingsüchtigen" Junkies hier, verkaufen die solch Mist als Ergebnis ihrer "Tests".
Und dann nehmen Nutzer das auch noch als Grundlage ihrer Kaufentscheidung.
Ein Anfängerelaborat mit Videoplattformkomprimierung....
Platter geht kaum noch
Antwort von Axel:
Und bitte mal ohne Grading und sonstige Anpassungen oder Verbesserungen. Halt das Rohmaterial wie es aus der jeweiligen Kamera kommt.
Äpfel mit Birnen. Auch wenn es nervt, man kann nur unter Angabe sämtlicher Parameter vergleichen. Bei der Pocket müsste man die BM-Lut (den offiziellen Standard) verwenden, ohne Grading, das stimmt. Und bei der Sony bräuchte man alle Voreinstellungen, die getroffen wurden. Und selbst dann, wie gesagt, machen Youtubes Kompressionsartefakte (vielleicht aber in vergleichbarem Ausmaß) eine Beurteilung schwierig.
Antwort von motiongroup:
Kannst du nicht einmal Motive völlig identisch aufnehmen und dann mal die Anmerkungen RX10/BMPCC weglassen. Würde mich interessieren wie viele der Dummquatscher hier den Unterschied erkennen. <3
Zu viel Ferkelstarter geschluckt oder ist das Tageszeitabhängig beleidigend sein zu müssen?
Antwort von g3m1n1:
Die letzten Aufnahmen wurden alle mit Stativ (RX10II) gedreht.
Ich weiß ehrlich gesagt nicht, was an dem Material schlechter sein soll.
Man spürt den Unterschied etwas zwischen 1" Sensor und S35 Eindruck.
Aber riesig finde ich das nicht. Ganz und gar nicht.
Und wieso soll das Material vermatscht sein?
Antwort von Gooerkfish:
2 Geräte von 2 von einander unabhängigen Herstellern...
ist das deutsche Hobby echt nur noch der Vergleich?
bis Lebensende vergleichen, gieren kaufen, rumoren-tumoren
vergleichen, altes verkaufen, wieder nur vergleichen....
hält man so den Status Quo einiger Hersteller künstlich am
Leben?
-beide am Stativ
-beide bis zum Anschlag augereizt und verstanden
- Und dann womöglich langes geicht weil der 1001 Menüs und
verschachtelte alles mit Handtuchhalter und Wellnes-startbutton
und was man so benötigt um den user davon abzulenken, wie
die Sony-ingineure mit wenigen Bauanschnitten die plötzlich zum
Feger machen. Was sie nicht dürfen.. ( kackt uns net ins Fs7-gehege)
Was passiert wenn die RX10 einen sagen wir super-ahvxxx-10 bit
Codec hätte..klar was ich mein?
Also einfach nur etwas fester und fetter und tiefer- was pasiert dann
mit dem Bild? Wie lange wird dem Kunden noch das Kastrat zugehalten
Das ganze Ding steht-- dieser eine Claim.. und des witzige, diese Show
rennt im Fullsensa Arrr Seven es duuuu Thread ebenfalls dahin.
i find es herrlich wie man den Leuten die $$$ abknöpft und die machen des
dann jedes Jahr von neuem. Also hätten die je nach Gerät in 2 Jahren
ein Sony Fs-7 gehabt... oder auch.
was würde eine RX 10 mit Pro Res liefern? ( oh der böse böse nicht hausinterne Codec) egal.. aber lustig. als würden man sich ewig um
die Wasserversorgung eines Klosett rumbalgen--weil man die Wasserleitung nicht geliefert hat..
HOBBY??
Antwort von TaoTao:
Kannst du nicht einmal Motive völlig identisch aufnehmen und dann mal die Anmerkungen RX10/BMPCC weglassen. Würde mich interessieren wie viele der Dummquatscher hier den Unterschied erkennen. <3
Zu viel Ferkelstarter geschluckt oder ist das Tageszeitabhängig beleidigend sein zu müssen?
Musste Ferkelstarter erst einmal googeln. Kennst dich also damit aus und nennst einen Bauernhof dein Zuhause. Das Videog von 3m1n1 wirkt auch etwas ländlich, vielleicht könnt ihr euch ja mal treffen und die Sache ordentlich beim melken ausdiskutieren <3
Antwort von motiongroup:
Musste Ferkelstarter erst einmal googelnwas zu erwarten war.....
http://www.spiegel.de/spiegel/print/d-90848729.html
Antwort von GrinGEO:
Hi,
Hier das Video: https://youtu.be/Gez5N_w0xIo
Ich wollte sehen, in wiefern sich das Material der BMPCC mit der
RX10 II mischen lässt... meiner Meinung nach klappt das sehr gut.
RX10 II : S-Log2, XAVCs 100Mbit 4K
BMPCC : Speedbooster bmpcc zu EF, Sigma 18-35, Prores HQ
gemini, das RX10 material sieht deshalb scheiße aus, weil Du es nicht konformt hast.... Du hast sichtlich ghosts drinnen. vermutlich wolltest Du 24p schneiden und hast aber 23,97 von der rx10 reingekommen, dadurch kriegst Du ghosts (also intraframes) rein.
kannst Du das fixen und dann nochmals hochladen?
Antwort von GrinGEO:
wäre es möglich dass Du beide Kams parallel auf einer Schiene auf 1 Stativ montierst und damit dann gleiche Aufnahmen drehst? Dann wäre es super gut vergleichbar.
Danke Dir für Dein Einsatz.
Antwort von Frank Glencairn:
Solche Unterschiede via YT vergleichen - seriousley?
Stell es halt wenigstens auf die Dropbox, dann umgeht man wenigstens die zusätzliche YT Kompression. Idealerweise original DNGs - das ist deutlich aussagekräftiger als zutodekomprimierte clips.
Antwort von Starshine Pictures:
Naja Mädels ... Nun kommt mal wieder runter. Dann wären ja sämtliche Kameravergleiche im Netz totaler Käse. Freilich frisst Youtube das letzte Quäntchen Qualität auf. Aber ich glaube der TO hat keinen Hollywood Anspruch. Ihm fällt einfach auf dass auch andere Kameras ohne geilem RAW und Prores Geschrei ähnlich wirkende Bilder zu entlocken sind wie einer BM Pocket (wenn man kein hochtalentierter Grader ist der das Potential tatsächlich ausnutzt). Wenn die finale Distribution via Youtube oder anderen Netzplayern erfolgen soll ist eine solche Gegenüberstellung unter "Realbedingungen" durchaus legitim. Ob das ganze 11 Minuten lang sein muss steht auf einem anderen Blatt geschrieben. Und ja, das mit den Geisterbildern bei Bewegung in dem RX10 Material ist mir auch aufgefallen. Ich konnte es jedoch nicht zuordnen. Solche technischen Unebenheiten in der Verarbeitung des Materials sind natürlich ärgerlich, aber da ist jeder Nutzer dankbar für einen freundlichen Hinweis inklusive Lösungsvorschlag. Die Herren Erbsenzähler sind hiermit gern aufgefordert doch eigene stichhaltigere Tests und Vergleiche zur Diskussion zu stellen.
Grüsse, Stephan von Starshine Pictures
Antwort von g3m1n1:
2 Geräte von 2 von einander unabhängigen Herstellern...
ist das deutsche Hobby echt nur noch der Vergleich?
bis Lebensende vergleichen, gieren kaufen, rumoren-tumoren
vergleichen, altes verkaufen, wieder nur vergleichen....
hält man so den Status Quo einiger Hersteller künstlich am
Leben?
-beide am Stativ
-beide bis zum Anschlag augereizt und verstanden
- Und dann womöglich langes geicht weil der 1001 Menüs und
verschachtelte alles mit Handtuchhalter und Wellnes-startbutton
und was man so benötigt um den user davon abzulenken, wie
die Sony-ingineure mit wenigen Bauanschnitten die plötzlich zum
Feger machen. Was sie nicht dürfen.. ( kackt uns net ins Fs7-gehege)
Was passiert wenn die RX10 einen sagen wir super-ahvxxx-10 bit
Codec hätte..klar was ich mein?
Also einfach nur etwas fester und fetter und tiefer- was pasiert dann
mit dem Bild? Wie lange wird dem Kunden noch das Kastrat zugehalten
Das ganze Ding steht-- dieser eine Claim.. und des witzige, diese Show
rennt im Fullsensa Arrr Seven es duuuu Thread ebenfalls dahin.
i find es herrlich wie man den Leuten die $$$ abknöpft und die machen des
dann jedes Jahr von neuem. Also hätten die je nach Gerät in 2 Jahren
ein Sony Fs-7 gehabt... oder auch.
was würde eine RX 10 mit Pro Res liefern? ( oh der böse böse nicht hausinterne Codec) egal.. aber lustig. als würden man sich ewig um
die Wasserversorgung eines Klosett rumbalgen--weil man die Wasserleitung nicht geliefert hat..
HOBBY??
Bitte?
Antwort von g3m1n1:
Die Sony ist auf 24p gestellt, ich vermute aber auch dass es 23,xx sind.
Seltsamerweise tritt das Ghosting nicht bei allen Sony Clips auf, wenn
ich nicht irre. Das BM Material ist jedoch 24p. Also kann ich entweder
das Sony vorher umcodieren oder die Timeline in Vegas auf 23,xx stellen...
wobei das dann den 24p der BM wieder nicht passt, korrekt?
Das mit beiden Kameras nebeneinander mach ich noch. Aber dann wird
es mit Sicherheit auch wieder Meckerei geben ;)
Antwort von GrinGEO:
Gemini
Ja das ist ja die kakke bei der Sony, dass sie kein echtes 24p macht. Hatte ich ja in meinem Test auch erwähnt.
in vegas lass die timleine auf 24p und deaktiviere bei den sony clips bitte das resampling. Alle clips markeiren, rechte maustaste, switches, disable resample
Dann rechnet vegas nicht die ghosts raus.
geh auf options, drücke die shift taste und dann auf preferences
unter INTERNAL settings suche nach
unquantized
beide settings von FALSE auf TRUE umbennen
jetzt siehst Du in der timeline die frame fehler der sony. genau all die clips mit roten balken müssen auf disable resampling.
dann hast Du auf die schnelle eine lösung
Antwort von Axel:
Die Sony ist auf 24p gestellt, ich vermute aber auch dass es 23,xx sind.
Seltsamerweise tritt das Ghosting nicht bei allen Sony Clips auf, wenn
ich nicht irre. Das BM Material ist jedoch 24p. Also kann ich entweder
das Sony vorher umcodieren oder die Timeline in Vegas auf 23,xx stellen...
wobei das dann den 24p der BM wieder nicht passt, korrekt?
Die BMPCC schießt auch 23,98. Mit 24p ist nur im Kino 24p gemeint, überall sonst wird die um 0,1 % schnellere Abfolge schlampigerweise als 24p bezeichnet.
Was tun, wenn nun bereits Clips aus zwei Kameras mit einmal 24 und einmal 23,98 fps vorliegen?
In Premiere im Projektfenster: Footage interpretieren >Ändern >Framerate
Das ist dort so seit dem Aufbruch der Menschheit.
In FCP X in der Timeline: >Retiming >Automatische Geschwindigkeit
Letzteres eine der peinlichen Übersetzungssünden der deutschen Version, denn im Original heißt das Conform Framerate, nämlich auf die der Timeline-Voreinstellung. Der Ton wird in beiden Programmen ebenfalls entsprechend angepasst.
(EDIT: Falsch. Früher hieß es im Original, ebenso missverständlich, Conform Speed. Heute heißt es dort idiotischerweise Automatic Speed).
Ob und wo es in Vegas etwas Entsprechendes gibt, weiß ich aber nicht. Afaik gibt es aber kostenlose Software, die nichts anderes tut als die Framerate zu konvertieren (hoffentlich ist dann konformen gemeint). Das muss man dann tun, bevor man die Clips ins Programm importiert.
Antwort von GrinGEO:
ein umkonvertieren verursacht doch schlechtere qualität, oder nicht?
das beste ist er konformt es korrekt in vegas oder stellt das projekt um auf 23,97
Antwort von Axel:
ein umkonvertieren verursacht doch schlechtere qualität, oder nicht?
das beste ist er konformt es korrekt in vegas oder stellt das projekt um auf 23,97
"Conform" heißt bloß, die vorhandenen Vollbilder in einem anderen Rhythmus abzuspielen. Die Framerate ist eine "Interpretation" der Geschwindigkeit, mit der die einzelnen Bilder daumenkinoartig weggeblättert werden. Es wird kein einziges Bild weggelassen oder verdoppelt.
"Conform" verändert die Dauer des Clips, in unserem Fall um +/- ~0,1 %.
"Convert" heißt,
> dann und wann ein Bild auszulassen (> Video ruckelt)
> dann und wann ein Bild zu überblenden (> Ghosting)
> alle Bilder mit neu interpolierten Zwischenbildern neu zu berechnen (laaange Renderzeit)
"Convert" bedeutet, der Clip behält Echtzeit. Obwohl, nicht ganz: Da es ja um Vollbilder geht, kommt immer der ein oder andere "Bruch" dabei heraus.
Schmeißt du 24p in eine 23,98 Timeline, wird per default die erste der oben beschriebenen "Convert"-Methoden angewendet, die Überblendung oder Optical Flow (a.k.a. Pixel Motion) sind dann optional zuschaltbar.
Antwort von GrinGEO:
in vegas wird automatisch das intelligente resampling aktiviert - aka Pixel Flow.... also konvertiert
daher muss er es auf seine timeline conformen, oder die timeline ändern....
Antwort von g3m1n1:
Gemini
Ja das ist ja die kakke bei der Sony, dass sie kein echtes 24p macht. Hatte ich ja in meinem Test auch erwähnt.
in vegas lass die timleine auf 24p und deaktiviere bei den sony clips bitte das resampling. Alle clips markeiren, rechte maustaste, switches, disable resample
Dann rechnet vegas nicht die ghosts raus.
geh auf options, drücke die shift taste und dann auf preferences
unter INTERNAL settings suche nach
unquantized
beide settings von FALSE auf TRUE umbennen
jetzt siehst Du in der timeline die frame fehler der sony. genau all die clips mit roten balken müssen auf disable resampling.
dann hast Du auf die schnelle eine lösung
Schon erledigt. Ein 3. Testclip ist auf dem Weg!
Diesmal ohne Beschriftungen... für die, die gerne raten
Antwort von GrinGEO:
perfekt macht doch sinn dass sich einige vegasforum nutzer noch hier tummeln.... ;-)
Antwort von g3m1n1:
So... hier der 3. Test. Ausgangsbasis die Selbe wie zuvor.
Unterschied: Diesmal keine Beschriftung. Ohne die Beschriftung ist es
meiner Meinung nach nochmal deutlich schwerer, die Kameras auseinanderzuhalten.
Link: https://youtu.be/-UKlFcLt5ic
Antwort von GrinGEO:
puhhh das nenne ich mal toll gematch und gedraded. ich kann nicht mehr sagen welche was ist.... toll gemacht
Antwort von Axel:
Ich rate mal die ersten 16 anhand der Auflösung:
4. und 6. Take unklar
Pocket 1., 5., 8., 9., 11., 13., 14., 15.
Sony 2., 3., 7., 10., 12., 16.
Der Kupfertrog is zuerst Sony, dann Pocket, die Armbanduhr umgekehrte Reihenfolge.
Generell ist in den tiefen Schatten so viel Blockartefakt-Gewitter, dass man nix mehr sieht. Guter Tip von WoWu, den ich vor Jahren bekam: entsprechende Clips mit sehr feinem Grain überziehen, das zwingt den Encoder von Youtube, diese Stellen zu codieren.
Wahrscheinlich lieg ich oft daneben. Bin gespannt.
Antwort von maiurb:
Sorry, aber es scheint wirklich so zu sein, dass S-Log2 die 4K Aufnahmen dermaßen versaut, dass die Auflösung nicht mal mehr an FHD herankommt.
Meine alte RX10 hat da bedeutend bessere Aufnahmen in FHD geliefert.
Antwort von g3m1n1:
Nope... die Aufnahmen waren restlos alle aus der RX10 II ;)
Antwort von Jörg:
maiurb schreibt
Sorry, aber es scheint wirklich so zu sein, dass S-Log2 die 4K Aufnahmen dermaßen versaut, dass die Auflösung nicht mal mehr an FHD herankommt.
Meine alte RX10 hat da bedeutend bessere Aufnahmen in FHD geliefert.
ich habs nicht mehr zu glauben gewagt... es gibt Sehende im Forum...
mal sehen, wann die Nutzung von Slog dann tatsächlich praxistauglich angewendet wird.
Falls WoWu mitliest, oder erfahrene Nutzer ;-))
welchen Kontrollmonitor nutzt du, (würdest du nutzen) zur Bearbeitung von Slog Material?
Muss ja nicht unbedingt ein Sony BVM-L231 sein...??
gegebenfalls welch display LUT?
Antwort von GrinGEO:
Nope... die Aufnahmen waren restlos alle aus der RX10 II ;)
LOL zu geil Gemini. btw. das wegen grain können wir sony vegas nutzer vergessen, außer wir nutzen Marcos weg zu x264
alle anderen encoder bügeln ejden grain hinüber
Antwort von GrinGEO:
Sorry, aber es scheint wirklich so zu sein, dass S-Log2 die 4K Aufnahmen dermaßen versaut, dass die Auflösung nicht mal mehr an FHD herankommt.
Meine alte RX10 hat da bedeutend bessere Aufnahmen in FHD geliefert.
ich glaube Du übertreibst.... das geblocke kommt sicher nicht von der RX10, eher vom YouTube reencoding oder schlechtes encoding aus vegas raus.
ich habe auch die camera und dieses block-geflimmer im rythmus, das sich auch über helle bereiche zieht, ist mir bisher noch nie aufgefallen.
aber ich gebe Dir recht... s-log2 ist nicht der richtige weg für diese kameras. weil der ganze aufnahmebereiche in gerade mal 60% von 8 bit mit 16-235 reingestopft wird...
Antwort von Axel:
Nope... die Aufnahmen waren restlos alle aus der RX10 II ;)
Das ist bescheuert. Auf EOSHD hat mal einer die Leute aufgefordert, herauszufinden, welche Aufnahmen mit einer Pocket und welche mit einer GH3 (glaube ich mich zu erinnern) gemacht wurden. Es waren, wie er hinterher behauptete, alles GH3-Aufnahmen, nur unterschiedlich gegradet. Das unterminiert den Glauben an Kameravergleiche im Netz, wahrscheinlich zu Recht. Nicht zuletzt stellt es deine eigene Glaubwürdigkeit in Frage. Zeitverschwendung.
Antwort von motiongroup:
stimmt vollkommen Alex.. In der Summe ist es so, beliebt ist was gefällt und die pixelpeeper sind schon ein ganz spezielle Spezies ;)... ****** wie der gute Taotao in seiner schlichten Art beschrieben hat...
Antwort von WoWu:
maiurb schreibt
Falls WoWu mitliest, oder erfahrene Nutzer ;-))
welchen Kontrollmonitor nutzt du, (würdest du nutzen) zur Bearbeitung von Slog Material?
Muss ja nicht unbedingt ein Sony BVM-L231 sein...??
gegebenfalls welch display LUT?
Es gibt bei uns keine LOG Übertragung-Kontrolle, weil wir IMMER mit der dazugehörigen Reverse-Funktion (zu linear) und mit der Gradingfunktion des NLEs in einem Arbeitsgang arbeiten. Am "Gradient- Ausgang" wird das Signal über die 709 (2.2) Entzerrung an die Monitoreigenschaften (Sicht-)angepasst und der Monitor hat seine eigene KorrekturLUT, die aber nur die Abweichungen der standardisierten 2.2 Entzerrung noch korrigiert.
Wir sehen also, egal ob wir RAW, LOG, ACES oder sonst was machen, immer 10Bit 709, weil wir fast ausschliesslich für TV arbeiten.
Arbeiten wir im Filmbereich (mit oder ohne Ausbelichtung) sind die Entzerrungen dementsprechend.
Wir sehen aber immer das Bild, das auch zukünftig der Zuschauer (hoffentlich) sieht.
Bei TV Arbeiten sehen wir (zusätzlich) im Preview noch ein nach TV (analogPAL) moduliertes Signal. Das ist aber nur dem geschuldet, dass sehr viele TV Abnehmer noch SD analog arbeiten.
Unterm Strich : Monitore, die man kennt und mit denen man gewohnt ist zu arbeiten aber dazwischen IMMER die "amtliche" Wandlung und keine Gradingversuche aus (nicht dafür vorgesehene) Übertragungsfunktionen.
Wir graden also immer von "oben nach unten" und nicht von "unten nach oben".
Es gibt daher keinen "Monitor für LOG" bei uns, weil uns die Funktion eigentlich nur interessiert, wenn die Entscheidung fällt, mit welcher Dynamik im Bild wir arbeiten wollen und das ist ziemlich am Anfang der Produktion.
Danach sehen wir von der Übertragungsfunktion bestenfalls nochmal was auf irgend einem unwichtigem Preview Monitor, der keinen wirklich interessiert.
Antwort von srone:
Falls WoWu mitliest, oder erfahrene Nutzer ;-))
welchen Kontrollmonitor nutzt du, (würdest du nutzen) zur Bearbeitung von Slog Material?
Muss ja nicht unbedingt ein Sony BVM-L231 sein...??
gegebenfalls welch display LUT?
egal welchen, wenn rec 709 siehe wowu incl seines workflows, für mich eher egal, da rein zur quadrierung genutzt, verlasse mich da eher auf eigene tests und erfahrungswerte in verbindung mit zb histogramm/waveform, ein analoger belichtungsmesser kann hier auch extrem helfen (zb pentax iv), zum simplen abscannen des dynamic ranges, all das fliesst dann in die "gefühlte und gewollte" belichtung ein, wie sagte bob ross (wenn du ihn nicht kennst google it) immer so schön "you have to make a decision" :-)
lg
srone
Antwort von g3m1n1:
Falls WoWu mitliest, oder erfahrene Nutzer ;-))
welchen Kontrollmonitor nutzt du, (würdest du nutzen) zur Bearbeitung von Slog Material?
Muss ja nicht unbedingt ein Sony BVM-L231 sein...??
gegebenfalls welch display LUT?
egal welchen, wenn rec 709 siehe wowu incl seines workflows, für mich eher egal, da rein zur quadrierung genutzt, verlasse mich da eher auf eigene tests und erfahrungswerte in verbindung mit zb histogramm/waveform, ein analoger belichtungsmesser kann hier auch extrem helfen (zb pentax iv), zum simplen abscannen des dynamic ranges, all das fliesst dann in die "gefühlte und gewollte" belichtung ein, wie sagte bob ross (wenn du ihn nicht kennst google it) immer so schön "you have to make a decision" :-)
lg
srone
...just a little tip here... and here .... and we got a beautiful tree...
Antwort von srone:
Falls WoWu mitliest, oder erfahrene Nutzer ;-))
welchen Kontrollmonitor nutzt du, (würdest du nutzen) zur Bearbeitung von Slog Material?
Muss ja nicht unbedingt ein Sony BVM-L231 sein...??
gegebenfalls welch display LUT?
egal welchen, wenn rec 709 siehe wowu incl seines workflows, für mich eher egal, da rein zur quadrierung genutzt, verlasse mich da eher auf eigene tests und erfahrungswerte in verbindung mit zb histogramm/waveform, ein analoger belichtungsmesser kann hier auch extrem helfen (zb pentax iv), zum simplen abscannen des dynamic ranges, all das fliesst dann in die "gefühlte und gewollte" belichtung ein, wie sagte bob ross (wenn du ihn nicht kennst google it) immer so schön "you have to make a decision" :-)
lg
srone
...just a little tip here... and here .... and we got a beautiful tree...
it"s wonderful out of nothing ;-), lol
edit: und nichtsdestotrotz, lehrt einen der typ eine entscheidung zu treffen, sei es die quadrierung oder die belichtung, imho das was einen guten kameramann auszeichnet.
lg
srone
Antwort von domain:
Es gibt bei uns keine LOG Übertragung-Kontrolle, weil wir IMMER mit der dazugehörigen Reverse-Funktion (zu linear) und mit der Gradingfunktion des NLEs in einem Arbeitsgang arbeiten.
Das ist im Grunde aber ohnehin der normale Workflow für alle Bildbearbeitungsprogramme und NLE. Ohne korrigierende LUTs bzw. Funktionen kommen moderne Bildschirme aus historischen Gründen ja gar nicht mehr aus. Eine physikalisch bedingte Eigenart von CRT-Bildschirmen war ja, dass sie keinen linearen Luminanzverlauf in Abhängigkeit von der Input-voltage darstellen konnten. 50% der Eingangsspannung ergaben erst 18% Helligkeit, also viel zu dunkel. Aus dem Grund zeichnete man z.B. mit einem Gamma von 0,45 auf und erst damit waren korrekt dargestellte Grauverläufe möglich. Eine intern mögliche Korrektur bei diesen Massen von CRT-Bildschirmen und -Fernsehern auf dem Markt wollte man sich offensichtlich ersparen.
Wie mir scheint, wird aber dieses "Aufzeichnungsgamma" auch heute noch verwendet, ansonsten würde man ja gar keine inverse LUT für die Linearisierung benötigen.
Wie man sieht, hat die Originalgammakurve in folgender Grafik eine gewisse Ähnlichkeit mit den jetzt so beliebten Log-Kurven, nur dass diese im Bereich der Lichter tiefer und noch flacher verlaufen.
In meinem alten Photoshop gibt es übrigens die Möglichkeit div. sgn. Proofs zu wählen oder selbst zu gestalten. Ob das die Vorläufer von LUTs waren? Jedenfalls sieht man deutliche Unterschiede z.B. zwischen Macintosh-RGB und Windows-RGB und zwar hauptsächlich im unterschiedlichen Gamma.
zum Bild http://fs1.directupload.net/images/150819/weksixxb.jpg
Antwort von GrinGEO:
maiurb schreibt
Falls WoWu mitliest, oder erfahrene Nutzer ;-))
welchen Kontrollmonitor nutzt du, (würdest du nutzen) zur Bearbeitung von Slog Material?
Muss ja nicht unbedingt ein Sony BVM-L231 sein...??
gegebenfalls welch display LUT?
Es gibt bei uns keine LOG Übertragung-Kontrolle, weil wir IMMER mit der dazugehörigen Reverse-Funktion (zu linear) und mit der Gradingfunktion des NLEs in einem Arbeitsgang arbeiten. Am "Gradient- Ausgang" wird das Signal über die 709 (2.2) Entzerrung an die Monitoreigenschaften (Sicht-)angepasst und der Monitor hat seine eigene KorrekturLUT, die aber nur die Abweichungen der standardisierten 2.2 Entzerrung noch korrigiert.
Wir sehen also, egal ob wir RAW, LOG, ACES oder sonst was machen, immer 10Bit 709, weil wir fast ausschliesslich für TV arbeiten.
Arbeiten wir im Filmbereich (mit oder ohne Ausbelichtung) sind die Entzerrungen dementsprechend.
Wir sehen aber immer das Bild, das auch zukünftig der Zuschauer (hoffentlich) sieht.
Bei TV Arbeiten sehen wir (zusätzlich) im Preview noch ein nach TV (analogPAL) moduliertes Signal. Das ist aber nur dem geschuldet, dass sehr viele TV Abnehmer noch SD analog arbeiten.
Unterm Strich : Monitore, die man kennt und mit denen man gewohnt ist zu arbeiten aber dazwischen IMMER die "amtliche" Wandlung und keine Gradingversuche aus (nicht dafür vorgesehene) Übertragungsfunktionen.
Wir graden also immer von "oben nach unten" und nicht von "unten nach oben".
Es gibt daher keinen "Monitor für LOG" bei uns, weil uns die Funktion eigentlich nur interessiert, wenn die Entscheidung fällt, mit welcher Dynamik im Bild wir arbeiten wollen und das ist ziemlich am Anfang der Produktion.
Danach sehen wir von der Übertragungsfunktion bestenfalls nochmal was auf irgend einem unwichtigem Preview Monitor, der keinen wirklich interessiert.
es fängt ja schon dmait an, dass kaum ein PC/Mac Nutzer überhaupt ein 10 bit Grading Monitor hat der mittels 10bit Signal angesteuert wird....
Antwort von WoWu:
Dann setzt Du eben. Eben eine LUT ein, die die Transformation nach 8 Bit mapped. Aber die LUT sitzt eben nur im Monitorweg.
Man darf nur das Monitorgamma nicht mit der LOG Entzerrung der Übertragungsfunktion verwechseln.
Und wann Du die 10/8 Bit Wandlung vornimmst, bleibt Dir doch überlassen aber wer hindert Dich dran, in 10 Bit zu arbeiten, auch wenn Du nur einen 8it Monitor hat?
Vorteil ist der, das Du dann bei einem 8bit Rendering keine wesentlichen Dynamikverluste mehr hast, anders auswendig Du das 8bit Material bearbeitest.