Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Infoseite // Erfahrungsberichte: Atomos Shogun mit Panasonic GH4



Newsmeldung von slashCAM:


Erfahrungsberichte: Erfahrungsberichte: Atomos Shogun mit Panasonic GH4 von rudi - 2 Mar 2015 13:40:00
>Wir wollen unsere Erfahrungen mit dem Atomos Shogun und diversen Kameras in einzelnen Kurzartikeln zusammenfassen. Den Anfang macht nun einmal die Panasonic GH4.
zum ganzen Artikel

Space


Antwort von kmw:

Das Fazit im letzten Absatz kapiere ich nicht ganz...

Soll das heissen:
10 Bit bringt hier nicht viel,
Dafür wird die Kamera größer, (ist das nicht bei jedem Shogun Einsatz, egal welche Kamera?)
und der Shogun hält nicht so lange durch wie die GH4?

Space


Antwort von LumpiX:

Was mich brennend interessieren würde, kann man auch 50p oder 60p
in 1080p und 10Bit über die GH4 ausgeben und per Shogun recorden? :-)

Space


Antwort von CameraRick:

Vielleicht nicht ganz on topic, aber ich finde leider nicht viel im Netz dazu...

Kann ich bei einer GH4 über HDMi die 96fps (HD) in 10bit abgreifen? Oder kann ich wirklich nur bis zu 60fps?

Space


Antwort von rudi:

Das Fazit im letzten Absatz kapiere ich nicht ganz...

Soll das heissen:
10 Bit bringt hier nicht viel,
Dafür wird die Kamera größer, (ist das nicht bei jedem Shogun Einsatz, egal welche Kamera?)
und der Shogun hält nicht so lange durch wie die GH4? Ja, das soll es heißen. Die GH4 gewinnt in unseren Augen nicht sonderlich viel durch den Shogun, weil sie eben schon intern 4K 8 Bit kann. Dafür verzichtet man auf die guten Stealth-Eigenschaften der Kamera (Akkulaufzeit, Größe). Das gilt natürlich mit Einschränkung auch für eine Samsung NX1, aber bei einer Sony A7s gewinnt man immerhin 4K dazu. Es soll sogar Leute geben, die eine URSA mit dem Shogun benutzen wollen (wegen der günstigen Medien-Preise). Für die zählt das Stealth-Argument dann wohl kaum.

Space


Antwort von klusterdegenerierung:

nur bis zu 60fps?

Space


Antwort von kmw:

Danke Rudi :-)

Space


Antwort von rudi:

nur bis zu 60fps? Also, wir haben es gerade versucht: Die variable Frameraten bis 96 fps lassen sich ja nur im MP4 100mbps Zustand bei 24 HZ Systemfrequenz auswählen. An den Shogun gehen dabei immer nur 1080p24 raus.

Wie wir es sehen, kann man die 96fps also gar nicht über HDMI übertragen, weder in 8 Bit noch in 10 Bit. Ich kann morgen nochmal näher schauen ob ich noch was übersehen habe, muss aber für heute hier Schluss machen...

Space


Antwort von rudi:

Und noch ein netter Leserhinweis:

--> cut here
hatte vor ein paar Tagen das selbe Setup zum Testen - die HDMI Trigger Funktion geht - man muss jedoch zuerst Timecode via HDMI erlauben, erst dann ist der Trigger via HDMI möglich.
Hab selber lange danach gesucht - funktioniert aber nur den C & M-Video Modus.

Hab da selber lang herum gesucht bis ich drauf kam, dass das ganze im normalen M-Modus nicht geht ... ;)

-->

Ich werde der Artikel morgen um solche Hinweise noch erweitern

Space



Space


Antwort von wolfgang:

Also der Artikel glänzt mit zahllosen Fehlern. Das hier etwa
Das Aufnahme-Auslösen mit der GH4 funktioniert nicht, weil Panasonic hierfür (noch?) keine entsprechenden HDMI-Steuerungs-Signale ins HDMI-Signal einbettet. Bei einzig externer 10 BitBit im Glossar erklärt Aufnahme musste die Aufnahme immer am Shogun gestartet werden. Und bei gleichzeitig interner und externer 8 BitBit im Glossar erklärt Aufnahme sprang der Shogun nicht synchron an, sondern musste ebenfalls separat gestartet werden. stimmt absolut nicht. Seit dem letzten Firmware-Update funktioniert das Triggern des Aufnahmestarts am Shogun von von der GH4 bei mir aus tadellos.

Und das hier
Spannend fänden wir die Option, intern noch ein 8 Bit-Backup mitlaufen zu lassen, jedoch erlaubt Panasonic bei der GH4 keine interne 4K-Aufzeichnung, wenn extern 4K in 10 BitBit im Glossar erklärt ausgegeben werden. Dies gelingt nur, wenn auch die externe Ausgabe mit 8 BitBit im Glossar erklärt erfolgt. ist im ersten Teil richtig - bei 10bit Ausgabe wird GH4 intern nichts aufgenommen. Der zweite Teil zumindest bei meinem Gerät ist leider falsch - denn obwohl theoretisch die GH4 interne Aufnahme bei 8bit funktioniert, ist es so dass sich aktuell die GH4 aufhängt wenn man die Einstellung der HDMI-Ausgabe mit 8bit macht und dann aufnehmen will. Man kann die GH4 leider nur noch komplett abschalten, die Aufnahme läuft und läßt sich gar nicht mehr stoppen. Zumindest bei meinen Geräten - und da ist die gleiche Firmware drauf die ihr verwendet habt.

Es ist für mich überraschend, dass man eine 10bit Aufzeichnung damit abwertet, dass man argumentiert dass man ja intern eh mit 8bit in UHD-Auflösung aufzeichnen kann. Dass dies bei einer A7s mit dem Argument besser ist, dass die ja intern kein UHD kann, finde ich schon interessant?? Das wäre doch wohl eher ein Mangel der A7s - bei allen Vorzügen wie dem größeren Sensor und s-log- der hier zu kritisieren wäre - meiner Meinung nach.

Es gibt Leute wie mich, die genau aus der neu dazu gekommenen Fähigkeit 10bit-Ausgabe aus der GH4 und 10bit-Aufzeichnungsfähigkeit des Shoguns diese Kombination gewählt haben.

Die ausgezeichneten Fähigkeiten des Shoguns als Monitors werden kaum erwähnt - DAS ist aber ein Hauptgewinn, wenn man das sehr kleine GH4 Display mit dem Shogun-Display vergleicht. Bei mir bedeuet das endlich, dass man Unschärfen viel viel zuverlässiger entdeckt.

Was hingegen bei der Gerätekombination kritisiert gehört ist die mechanisch sehr anfällige Schnittstelle über micro-HDMI, die "Plastik-Qualität des Shoguns". Klar ist kurze Batterielaufdauer des Shoguns ein Thema welches erwähnt werden muss - die größeren Akkus von Atomos sind zumindest bei mir bisher nicht aufgetaucht. Dass die XLR-Schnittstelle des Shoguns bei dieser Kombination nicht sonderlich schlagend wird ist klar - trotzdem sollte mal angemerkt werden dass der XLR-Eingang des Shoguns sehr sehr geinge Pegelstärken zeigt, was auch nicht sonderlich toll ist.

Space


Antwort von CameraRick:

nur bis zu 60fps? Also, wir haben es gerade versucht: Die variable Frameraten bis 96 fps lassen sich ja nur im MP4 100mbps Zustand bei 24 HZ Systemfrequenz auswählen. An den Shogun gehen dabei immer nur 1080p24 raus.

Wie wir es sehen, kann man die 96fps also gar nicht über HDMI übertragen, weder in 8 Bit noch in 10 Bit. Ich kann morgen nochmal näher schauen ob ich noch was übersehen habe, muss aber für heute hier Schluss machen... Vielen Dank für die Infos ihr beiden.
Mittlerweile macht sogar mein Telefon 120fps, aber will man die in hoher Qualität siehts im unteren Preisbereich leider immer noch mau aus. Eine F5 scheint da die erste brauchbare Cam zu sein, die für ein Quatsch-Projekt zu mieten ist mir allerdings auch etwas zu teuer - tja ja, solls halt nicht sein.

Space


Antwort von Bj-Earn:

Mich würde interessieren, ob man mit dem Shogun die Aufnahmedauerbegrenzung von 30 Minuten umgehen kann, oder ob die GH4 dann irgendwie abschaltet.

Space


Antwort von klusterdegenerierung:

nur bis zu 60fps? Also, wir haben es gerade versucht: Die variable Frameraten bis 96 fps lassen sich ja nur im MP4 100mbps Zustand bei 24 HZ Systemfrequenz auswählen. An den Shogun gehen dabei immer nur 1080p24 raus. Dummes Zeug, geht mit jedem Container und jeder Hz Variante!

Space


Antwort von VideoUndFotoFan:

Ja, die 30 Minuten-Grenze ist damit weg !
(wurde hier im Forum bereits an anderer Stelle bestätigt).

Space


Antwort von klusterdegenerierung:

nur bis zu 60fps? Also, wir haben es gerade versucht: Die variable Frameraten bis 96 fps lassen sich ja nur im MP4 100mbps Zustand bei 24 HZ Systemfrequenz auswählen. An den Shogun gehen dabei immer nur 1080p24 raus.

Wie wir es sehen, kann man die 96fps also gar nicht über HDMI übertragen, weder in 8 Bit noch in 10 Bit. Ich kann morgen nochmal näher schauen ob ich noch was übersehen habe, muss aber für heute hier Schluss machen... Man kann jeden Container wählen, ich benutze immer mov und mit welcher Hz Variante ist auch egal. Vielleicht steht eure Cam im falschen Modus, manches geht ja nur auf M mit Cam Symbol oder "C"s.

Da stimmt was bei euch nicht!

Dass das Signal nicht an den Shogun geht ist aber hinlänglich bekannt, der Shogun kann mit der GH4 nur max 60fps, wobei es egal ist ob in 8bit oder 10bit.

Space


Antwort von wolfgang:

Mich würde interessieren, ob man mit dem Shogun die Aufnahmedauerbegrenzung von 30 Minuten umgehen kann, oder ob die GH4 dann irgendwie abschaltet. Natürlich kann man mit dem Shogun diese Aufnahmegrenze umgehen. Die GH4 verhält sich ja so, dass sie bei der 10bit Aufzeichnung gar nicht aufnimmt - sondern einfach nur läuft. Und der Shogun nimmt einfach munter weiter auf.

Habe ich eigenhändig ausgetestet.

Space


Antwort von klusterdegenerierung:

Habe ich eigenhändig ausgetestet. Und bald mit Raid ;-)

Space


Antwort von cantsin:

Vermutlich wird sich 10bit-Auflösung bei der GH4 erst lohnen, wenn das angeblich bald kommende Log-Profil nachgereicht wird und dadurch (hoffentlich) mehr Dynamik aus dem Material herausgeholt werden kann.

Space



Space


Antwort von rudi:

Hallo Alle nochmal,

erst einmal Danke für die aufmerksamen Kommentare. War mein Fehler, den
Artikel raus zugeben und dann erst einmal für 18 Stunden abzutauchen, aber ich habe auch noch ein anderes (Familien-)Leben neben slashCAM.

Tatsächlich funktioniert die Recoder-Auslösung wie oben beschrieben, wenn man TimeCode im HDMI Strom zulässt. Ich hatte mich auch an sowas dunkel erinnert, aber nachdem es nicht funktionieren wollte, hatte ich auf dieser Atomos Seite gelesen, dass es nicht geht und dann dachte ich, dass ich mich wohl geirrt haben muss. Danke an Ben D., der gleich erklärt hat, wie mans hinbekommt.

MP4 war etwas schnell zwischen Tür und Angel formuliert. Die variablen Frameraten lassen sich bei uns auch in MOV einstellen, aber nicht über 100 Mbit, was so nicht rüber kam. Aber auch nochmal zum Thema, mehr als 1080p60 bekommen wir nicht aus der Kamera raus. Variable Frameraten gehen IMHO nicht über HDMI.

@wolfgang:

Ich habe es jetzt gerade nochmal explizit ausprobiert. Bei uns ist parallele 8 Bit Aufzeichnung in UHD problemlos möglich. Unsere GH4 hängt sich da nicht auf. Die von dir genannten Kritikpunkte haben wir ja im allgemeinen Test schon angesprochen:

https://www.slashcam.de/artikel/Test/Ato ... ensor.html

In diesem Artikel soll es nur um das Zusammenspiel der Kombination GH4 Shogun gehen. Und den werde ich jetzt schnell noch korrigieren...

Danke nochmal an Alle!

Space


Antwort von wolfgang:

Ich habe es jetzt gerade nochmal explizit ausprobiert. Bei uns ist parallele 8 Bit Aufzeichnung in UHD problemlos möglich. Unsere GH4 hängt sich da nicht auf. Interessant. Dann ist die Frage was den Unterschied ausmacht. Vielleicht das verwendete hdmi-Kabel - sonst fällt mir auf die Schnelle nichts ein.

Space


Antwort von Peter Friesen:

Hallo,
ich hatte mir den Shogun bereits im Januar bei Videodata in Hamburg für 2 Tage ausgeliehen.
Obwohl im Januar die GH4 noch kein Trigger-update hatte, hat mir das Gerät sehr zugesagt, wie gesagt mit meiner GH4
An meiner PXW Z100 ist der Shogun perfekt gelaufen, allerdings wie bekannt "nur" in 25p, da die Camera aber in 50p intern aufzeichnen kann , habe ich kein Sinn in der Verwendung an der Z100 gesehen.

Wenn es irgendwann ein upgrade auf 50p geben sollte , bin ich sofort dabei.

Gruß peter

Space


Antwort von -paleface-:

Wie füttert ihr eigentlich den Shougun mit Strom?
Möchte mir gerne den Lanparte Spannungswandler kaufen und ihn dort über V-Mount Akkus speisen.

Nun hab ich gehört das man den Shogun nicht so einfach mit dem Spannungswandler verbinden kann ohne zu löten.
Weil das beiliegende Kabel nicht in den Shogun passen soll.

Habt ihr da eine Idee?

Möglichkeit wäre wohl noch D-Tab Kabel.
In einer Beschreibung habe ich nun aber gelesen das dies ein "unstabilisierter Stromausgang" wäre.
Was bedeutet das?

Space


Antwort von klusterdegenerierung:

Lasse lieber die Finger von den Wandlern, fliegen einem doch alle Nase lang um die Ohren, also die Atomos Geräte.

Ich habe mir diese beiden gekauft und bin super zufrieden damit, halten ewig.
Ich hole mir noch mal 2, dann brauche ich nicht mal mehr das Netzteil mitnehmen! :-)

http://www.amazon.de/gp/product/B00G589 ... ge_o03_s00

Space


Antwort von -paleface-:

Lasse lieber die Finger von den Wandlern, fliegen einem doch alle Nase lang um die Ohren, also die Atomos Geräte.

Ich habe mir diese beiden gekauft und bin super zufrieden damit, halten ewig.
Ich hole mir noch mal 2, dann brauche ich nicht mal mehr das Netzteil mitnehmen! :-)

http://www.amazon.de/gp/product/B00G589 ... ge_o03_s00 Was bedeutet "fliegen einen um die Ohren"?
Meinst du die Wandler explodieren oder das Gewicht ist zu hoch und alles rutscht herum?

Wie lange hält den so ein Akku?

Space


Antwort von klusterdegenerierung:

Habe natürlich etwas übertrieben, aber habe jetzt schon öfter gehört ( hier & in anderen Foren) das schon mal der ein pder andere Atomos Recorder auf Grund von Spannungswandler mit VMount Akku abgeraucht ist.

Wenn man auch mal in betracht zieht was die ganze Kombi im Gegensatz zu ein paar starken Akkus kostet, nehme ich lieber die NPs, die kann ich auch mal in meine LEDs packen etc. ;-)

Space


Antwort von -paleface-:

Hmmm....
das muss ich mal ergoogeln.
aber gemerell fand ich die idee ganz sexy gh4 und shogun ans v-mount und dann denn tag keime Sorgen mehr wegen der Stromversorgung.

Frage ist nur ob es da wirklich an der Technik lag oder an den Usern.

Space


Antwort von klusterdegenerierung:

Da hast Du wohl Recht!
Aber die großen Akkus sind echt nicht übel, hatte einen jetzt ne Stunde an laufen und er hatte seinen Status nicht mal verändert.

Beim 1600er geht er schon nach 5min auf hälfte und nach 10 ist er platt.
ausserdem bekommen wir ja jetzt alle einen neuen 5200er von Herrn Shogun zu geschickt :-) dann hab ich bal genug und bei der GH4 muß man sich ja schon wirklich mühe geben, das man sie leer bekommt! ;-)

Aber wenn Du natürlich eine Show ohne Steckdose drehen willst, ist ein VMountakku bestimmt nicht übel.

Ich drehe fast nur Szenisch und kann das Ding auch ab und zu zwischen den takes mal abschalten.

Space



Space


Antwort von -paleface-:

Ich werde es einfach mal testen.
Das Kabel Problem hab ich allerdings dann doch noch.

Hab auch noch das Original akku + 1. Ersatz.
Denke aber das so eine V-Mount Lösung auch recht Zulunftssicher ist.
Ich hab jetzt schon akkus für Licht, Cam, Shogun, Camcorder, Ton usw.
Dann doch lieber eine große Lösung die für alles was taugt.

Space


Antwort von -paleface-:

Ich werde es einfach mal testen.
Das Kabel Problem hab ich allerdings dann doch noch.

Hab auch noch das Original akku + 1. Ersatz.
Denke aber das so eine V-Mount Lösung auch recht Zulunftssicher ist.
Ich hab jetzt schon akkus für Licht, Cam, Shogun, Camcorder, Ton usw.
Dann doch lieber eine große Lösung die für alles was taugt.

Space


Antwort von klusterdegenerierung:

Oder so.
Was kostet Dich denn eine einsatzfertige V-Mount Lösung?

Space


Antwort von -paleface-:

320€ inkl. Mwst.
Klar. Kannst du 10 akkus von kaufen.

Space


Antwort von klusterdegenerierung:

Ich denke die Problematik an der Preisgeschichte ist auch, das Du min 2 Akkus brauchst, denn selbst der beste Akku ist irgendwann einmal leer.

Sowas lohnt sich bestimmt wirklich nur, wie Du schon sagt, wenn man noch andere Geräte dafür hat.

Ich stelle mir gerade den V-Mountakku an meiner kleinen LED Leute vor, die hält damit wahrscheinlich länger als dies Ding was da auf dem Kometen gelandet ist! Lol ;-)

Space


Antwort von -paleface-:

Ich stelle mir gerade den V-Mountakku an meiner kleinen LED Leute vor, die hält damit wahrscheinlich länger als dies Ding was da auf dem Kometen gelandet ist! Lol ;-) Der Allspark der Transformers? ;-)

Space


Antwort von klusterdegenerierung:

Hier, gerade frisch eimgetroffen, eine Rolle leckere Atomos Gummibärchen,
dieses komische schwarze Kästchen hab ich in den Müll geworfen, keine Ahnung was das war. :-);-)

Space


Antwort von -paleface-:

Aber das war nicht der Akku der als Ersatz für den schlechten nachgesendet wurde, oder?

Space


Antwort von klusterdegenerierung:

Doch, hattest Du was anderes erwartet?

Space



Space


Antwort von -paleface-:

Was musstest du machen das du den bekommst?

Space


Antwort von klusterdegenerierung:

Den Shogun online auf atomos registrieren.
Leider ist Atomos aber ein bisschen Wortkarg und hat sich bei seinen Kunden nicht mal per mail gemeldet.

Somit wußte ich nicht wirklich ob ich denn wohl einen bekomme oder sie mich vergessen oder übersehen oder man kann ja auch in der zwischenzeit seine Adresse geändert haben.

Da sind die Jungs etwas stumpf.
Hast Du denn den gelben oder den schwarzen Koffer, denn der gelbe hat ja angeblich schon den neuen drin, aber wenn ich einen gelben Koffer bekommen hätte, hätte ich ihn postwendend zurück gehen lassen!

Bin doch nicht von der Sesamstrasse ;-)
Oder auch prima, sagt ein Dieb zum anderen, lass uns doch mal ein paar sets abfahren, die gelben Koffer sieht man schon von weitem, die sind teuer! Lol

Space


Antwort von srone:

Bin doch nicht von der Sesamstrasse ;-) da hätte es eh nur einen karton gegeben,

wobei der "klaufaktor" bei einem gelben geringer wäre. ;-)

lg

srone

edit: man sieht dann auch den dieb länger rennen.

Space


Antwort von -paleface-:

Habe den schwarzen.

Registriert hab ich mich damals auch.
Na mal sehen...vielleicht kommt ja noch was.

Den Spannungswandeler + V-Mount Akku hab ich nun auch bestellt.
Suche nun noch nach passendem Kabel.
Dafür muss ich aber morgen erstmal alles zusammen bauen und schauen wie lang das überhaupt sein müsste.

Space


Antwort von klusterdegenerierung:

Sag mal hast Du, wie im Atomos Forum schon diskutiert, auch das Gefühl das der Moni einen leichten hell Olivgrün Stich hat?

Hab ihn schon mehrmals kalibriert und es ändert sich aber nix.
Darf ich mal fragen mit welcher Cam Du ihn fütterst?

Space


Antwort von -paleface-:

Hmm...
ne ist mir noch nicht aufgefallen.
Habe ihn aber, obwohl ich auch den Spyder mitbestellt habe, damit noch nicht kalibriert.

Habe den Shogun mit der Gh4 Kombo.

Space


Antwort von klusterdegenerierung:

Sag mal, kannst Du für mich mal was ausprobieren?

Wenn ja, stelle die Cam mal bitte auf C2, auf mov Container in 1080 auf variable 96fps, nun den Sogun dranhängen und aufnahme an der Cam starten.

Hast Du dann auch statt eines Bildes eine Bitte Warten Eieruhr auf der Cam, die Du nicht abstellen kannst?
Da geht nur noch HDMI Kabel ziehen und die Aufnahme bricht dann ab.

Dies finde ich leider nicht so schön! Hast Du das auch?
Ist nur die Frage ob es der Shogun ist oder die Cam?

Space


Antwort von -paleface-:

Kann ich erst morgen testen. Cam ist in der Firma.

Aber 96fps beim Shogun aus der Gh4 gehen nicht. Das weiß ich auch so.
Aber darum gehts dir wahrscheinlich nicht

Space


Antwort von klusterdegenerierung:

Ne darum gehts nicht.
Traurig ist aber wenn eine Slomoaufnahme nicht mal auf einem externem Moni gezeigt werden kann, wobei ja nicht mal das preview in slomo ist.

Leider habe ich es mit noch keinem anderen Moni als dem Shogun testen können, da die alle mit dem GH4 Signal nicht klar kommen.
Und einen großen TFT nehme ich natürlich nicht mit in den Wald oder so ;-)

Klasse das Du das mal testen kannst, dann weiß ich wenigstens ob ich eine mail an Pana oder Atomos schicken kann!
Vielleicht besser an beide :-)

Space



Space


Antwort von felix24:

In dem Zusammenhang würde mich speziell interessieren, wie die Videoqualität bei 10 Bit Ausgabe und 1080p ist?

Da für mich ein Shogun etwas zu teuer ist, aber ein externer Recorder für 1080p schon drin wäre, wüsste ich gerne, ob ausser der besseren Farbauflösung auch die Bildqualität von einer externen Aufzeichnung profitiert. Die ist ja bei interener Aufzeichnung im 1080p nicht so doll bei der GH4 ...

Das hängt wahrscheinlich mehr vom Aufnahmechip ab und der internen Wanddlung. Aber es könnte ja sein, dass es etwas bringt, extern in 1080p aufzuzeichnen. Hat da jemand Erfahrung?

Space


Antwort von -paleface-:

Heute ist auch mein Austausch Akku + Candy gekommen :-)
Und ich muss den alten nicht zurück senden. Das finde ich schonmal gut!

Und ja den Fehler habe ich auch.
Was mich ja wundert. Weil der Shogun ja bei anderen Cams bis 120fps aufnehmen kann.

Space


Antwort von Flauschohr:

Ich habe das leider noch nicht verstanden. Was ist denn nun die maximale fps-Ausgabe über HDMI an der GH4, die ich am Shogun in 10bit 422 ProResHQ aufnehmen kann? 60fps?

Danke

Space


Antwort von wolfgang:

Hängt von der Auflösung ab.

Bei HD gehen bis zu 50p/60p.

Bei UHD sind 23,976 fps, 24,000 fps, 25 fps und 30 fps möglich. Mehr geht über die HDMI 1.4a Schnittstelle nicht drüber.

Space


Antwort von Kranich:

Bei diesem Review wird gesagt, das der Shogun in verbindung mit der GH4 nichts bringt.




Ist das wirklich so? sieht man keinen Unterschied?
also ich meine, klar, beim grading ein wenig, aber sollte man sich wirklich dieses ding sparen?

Ich liebe meine GH4 und würde gerne alles rausholen was geht.

VG

Space


Antwort von klusterdegenerierung:

Das Problem ist wohl eher das Dave Dugdale unter zu viel Langeweile leidet und das er gerne mal von vornherein negativ an eine Sache rangeht!

Auch hier ist wieder ganz klar das er sich nicht zur Zielgruppe zählt und ihm damit auch irgendwie verschlossen bleibt, was man mit diesem Gerät so anfangen kann!

Die Frage muß aber trotzdem gerechterweise gestellt werden, was Du machen möchtest und was Du so erwartest, vom Shogun?

Ich habe ihn mir nicht nur wegen des Recorders gekauft, ich wollte endlich mal einen guten Fieldmonitor und hatte keine Lust 2,5T€ für einen TVLogic aus zugeben.
Dass das IPS Panel mit nativer FHD Auflösung im Shogun ziemlich geil ist, auch wenn er nicht entspiegelt ist, dürfte sich schon rum gesprochen haben!
Da der shogun wieder mal ein mächtiges feature update bekommen hat, wäre es müßig alles noch mal auf zulisten.

Klar ist die Quali unterm Strich besser und das Dave Dugdale das mit seinen 6Bit Twisted Nematic TFTs nicht so sieht, im wahrsten Sinne, wundert mich nicht.
Willst Du allerdings Deine Videos out of the Cam bei YT hochladen, brauchst Du das Dingen ganz sicher nicht.

Ich arbeite mitlerweile viel lieber mit dem ProRes Material als mit dem AVC aus der GH4. Ist ein bisschen so wie 2 Äpfel die völlig gleich aussehen, wobei der eine von innen ganz trocken ist und der andere richtig saftig! So fühlt es sich zumindest auf der Timeline an.

Dann mußt Du noch mal gucken was er sonst noch so kann und ob Dir das wichtig ist!

Space


Antwort von wolfgang:

Es sind die üblichen Vorteile, die 10bit 422 versus 8bit 420 bringen können. Mehr Reserve in der Nachbearbeitung, damit weniger Rauschen, deutlich weniger Banding etwa. Die Frage ist weniger ob das so ist, sondern eher ob das für dich relevant ist!

Space


Antwort von CameraRick:

Hier ist ein Originaler Vergleich zweier GH4 Aufnahmen, einmal Shogun einmal intern: http://i.imgur.com/cDosMXr.jpg
Je nach Szenario ist der Unterschied natürlich auch gern mal größer oder geringer. Aber er ist da.
Dass jetzt eine 10bit 422 Aufnahme weniger rauscht würde ich jetzt aber als Gerücht abtun, das Noise sieht mit sicherheit anders aus und ist weniger matschig in der hochwertigeren Kompression, weniger wirds aber wohl eher nicht

Space


Antwort von wolfgang:

Dass jetzt eine 10bit 422 Aufnahme weniger rauscht würde ich jetzt aber als Gerücht abtun, das Noise sieht mit sicherheit anders aus und ist weniger matschig in der hochwertigeren Kompression, weniger wirds aber wohl eher nicht Na bei den diversen Nachberarbeitungsschritten ist das Entstehen von noise eines der Hauptprobleme - und davon habe ich gesprochen. Was soll daran ein Gerücht sein?

Space



Space


Antwort von WoWu:

Die Nachbearbeitungsschritte sind aber, wenn sie zum selben Produktergebnis führen sollen, bei 8/10 Bit identisch.
Bei 10 bit sogar höher, solange das 10bit Produkt nicht das Endprodukt sein sollte, weil die zusätzliche Wandlung anfällt.
Ich kann die geringere Rauschanfälligkeit nicht nachvollziehen (auch nicht als Ergebnis aus 10 Jahren Arbeit im 10 Bit Segment).

Space


Antwort von CameraRick:

Dass jetzt eine 10bit 422 Aufnahme weniger rauscht würde ich jetzt aber als Gerücht abtun, das Noise sieht mit sicherheit anders aus und ist weniger matschig in der hochwertigeren Kompression, weniger wirds aber wohl eher nicht Na bei den diversen Nachberarbeitungsschritten ist das Entstehen von noise eines der Hauptprobleme - und davon habe ich gesprochen. Was soll daran ein Gerücht sein? Der einzige Schritt wie Noise rein kommt der mir einfällt ist Noise hinein zu rechnen. Wie soll denn das Noise entstehen?
Kann nicht ganz nachvollziehen was du da meinst. Oder meinst jetzt Artefakte die mehr hervortreten oder wie?

Space


Antwort von WoWu:

Das war vielleicht auch nur etwas ungeschickt ausgedrückt.
Wo er natürlich Recht hat, ist, dass das Quantisierungsrauschen bei der Aufnahme geringer ist.
Bei 10 Bit entspricht der maximale 1Volt Wert 1023.
Ein 8 Bit Coder kann 254 (256-2) und ein 10 Bit Coder 1022 (1024-2) Werte unterscheiden.
Ein angenommener Wert von 0,489844 Volt sieht als so in beiden Systemen aus:
Aufgeteilt in 8 Bit wäre der beste Wert 125,4 mV pro Wert.
Aber ein 8Bit Coder muss den nächsten Wert an 125 wählen.
Daraus ergibt sich eine Differenz von -0,1563 mV
Mit 10 Bit Präzision in einem Wertesystem von 0-1023 wäre der Codewert 503,753 optimal, wird aber auf 503 gerundet.
Dadurch entsteht lediglich noch eine Fehlerspannung von 73,6 µV.
Daraus folgt, dass der Quantisierungsfehler (Noise) eines 8 Bit Signal rd. 21 mal größer ist als aus einem 10 Bit Signal.
Also grundsätzlich hat die 10 Bit Aufnahme schon Vorteile, nur eben nicht unbedingt in Bezug auf Noise in der Nachbearbeitung.

Space


Antwort von wolfgang:

Wir reden hier über Shogun Material - also Material welches zumindest als ProRes 10bit 422 vorliegt. Gut zu wissen dass schon das Ausgangsmaterial weniger rauscht. Aber ich beziehe mir vor allem auf die Nachbearbeitung. Und wie sagt so schön das Color Correction Handbook?
To put things into perspective, 4:4:4 Chroma-sampled media store 100 percent of the chroma information and thus has an impressive amount of latitude for exposure corrections. This allows the colorist to lighten dark shots agressively before artefacts such as excessive noise become a problem.
...
The next step down is the 4:2:2 chroma-sampled media .... (that) has a fair amount of latitude within which a colorist can adjust contrast by a decent amount before noise becomes a problem. ProRes 4:2:2 and most other DNxHD formats are both 4:2:2 chroma -subsampled formats, which are considered suitable for broadcast.
....
The majority of consumer-leve and DSLR cameras that record to H.264-based video formats encode 4:2:0 chroma sampled media. ... While in many cased 4:2:0-supsampled source media is considered suitable for professional work, the discarded color information makes it difficult to make significant adjustments to contrast without introducing noise.
Color Correction Handbook, 2nd Edition. Alexi Van Hrukman, Peachpit Press 2014, Seite 8

Jetzt wird es schon so sein dass 422 hier die relevantere Eigenschaft ist als 10bit - aber das bekommt man ja mit dem Shogun alles in einem package. Und das ist für mich der relevante Punkte, warum ich mir überhaupt die Aufzeichnung mit GH4 im Zusammenspiel mit dem Shogun antue.

Space


Antwort von CameraRick:

Ok, ziemlich viele Buchstaben... aber wo genau entsteht jetzt Noise im 8bit Material, die mit 10bit nicht kommen?
Welche Nachbarbeitungsschritte sind das, ich würde es gerne nachstellen.

Space


Antwort von Axel:

Wenn 8-bit das Gradingziel ist, kann ich mit 10-bit Ausgangsmaterial eine viel steilere Kurve anwenden. Die nicht flachen 8-bit Profile machen das von Haus aus, vor der Verteilung des (quasi) Raw-Signals auf die 256 Helligkeitsstufen. Deswegen ist dort das Rauschen nicht sichtbar, die Quantisierung ersäuft es. Ein flaches Profil in 8-bit hat im Nachhinein den Nachteil, dass ich sehr viele unbrauchbare Signale fest gespeichert habe, die ich nur auf Kosten der feinen Nuancen entfernen kann. Ich schmeiße Werte weg, dabei ist das originäre Ziel eines flachen Profils, mehr Werte zu bewahren. Paradox.

Space


Antwort von wolfgang:

Ok, ziemlich viele Buchstaben... aber wo genau entsteht jetzt Noise im 8bit Material, die mit 10bit nicht kommen?
Welche Nachbarbeitungsschritte sind das, ich würde es gerne nachstellen. Na dann stelle nach - Quellenangabe hast ja bekommen.

Space


Antwort von WoWu:

Aber nun kommt mit dem Sub-Sampling (444 vs. 420) wieder ein ganz neues Thema ins Spiel, das am Rauschen zunächst mal vorbei geht und ein ganz anderes Fass ist.
Ich bin ja bei Wolfgang, wenn es um die Vorteile von 10 Bit geht, nur hat das mit der Nachbearbeitung in Bezug auf den Störabstand erst etwas zu tun, wenn solche Rauschartefakte dazu kommen, die den originären (von der Kamera erzeugten) Rauschpegel überschreiten denn Rauschen verhält sich nicht additiv.
Insofen gibt es kaum solche Quellen. Eine wäre die Zunahme im Multigenerationsverhalten, aber selbst da sind wir im mittleren 10er Bereich bei heutigen Codecs.
Wenn 8-bit das Gradingziel ist, kann ich mit 10-bit Ausgangsmaterial eine viel steilere Kurve anwenden. Die nicht flachen 8-bit Profile machen das von Haus aus, vor der Verteilung des (quasi) Raw-Signals auf die 256 Helligkeitsstufen. Das ist nicht ganz so, denn betrachtet man mal den hier relevanten "dark current, ist es lediglich so, dass der in 8Bit in weniger Werten übertragen wird, und damit "ziemlich rough" 1-5 Blenden im Rauschpegel liegen. Ist die letzte (in diesem Fall) 5. Blende nur sehr gering verrauscht, während sie in 10 Bit nochmals unterteilt und man würde eine geringfügige Verbesserung in der Post daraus "erwirtschaften".
Das ist aber wiederum kein Vor-oder Nachteil, der in der Post entsteht, sondern gehört zu den Vorteilen eines 10Bit Aufnahmeverfahrens. Die Ursache liegt also nicht in der Post, ebeno wie das Quantisierungsrauschen ... auch das entsteht in der Kamera und nicht in der Post.
Übrigens muss man die Kurven differenziert sehen, denn beim Übergang von 10 nach 8 Bit findet genau das Re-Mapping statt, das uns u.U. die Dynamik begrenzt. Hat man also nicht das Histogramm im Auge, und richtet es so ein, dass wirklich ein lückenloses Mapping geschieht, kann es sein, dass man in 10 Bit weniger Dynamik (nach dem Re-Mapping nach 8 Bit) in seinem Bild hat, als mit einer linearen Aufnahme, direkt in 8 Bit.
aber wo genau entsteht jetzt Noise im 8bit Material, die mit 10bit nicht kommen? Wie schon erwähnt: in der Quantisierung ist die Differenz durchaus signifikant.
Allerdings, muss man dazu sagen, ist das Thema nicht "linear" und 12 Bit ist noch um Vieles besser ... es kann sein, dass in einer internen 14 oder 20 Bit Verarbeitung Rauschartefakte hinzu kommen, die in einer angepassteren internen Verarbeitung nicht vorgekommen wären. (Die Panasonic "Black Dots" waren dafür ein gutes Beispiel).
Mehr Bits sind also nicht immer Garant für bessere Bilder.

Space


Antwort von CameraRick:

Ok, ziemlich viele Buchstaben... aber wo genau entsteht jetzt Noise im 8bit Material, die mit 10bit nicht kommen?
Welche Nachbarbeitungsschritte sind das, ich würde es gerne nachstellen. Na dann stelle nach - Quellenangabe hast ja bekommen. Was in diesem Buch zu stehen scheint ist eine Behauptung, die Deinem Zitat zufolge mit 8/10bit auch gar nichts zu tun hat.

Kameraden mir ist durchaus bewusst wieso wir lieber in 10 oder 12bit arbeiten, als mit Ausgangsmaterial in 8bit; damit arbeiten wir hier zum Glück schon lange nicht mehr.
Aber das irgendwo Rauschen im Bild entsteht, wenn man 8 statt 10bit gedreht hat, das ist mir noch nicht unter gekommen. Das halte ich für ein Gerücht für das WoWu zwar eine Erläuterung hat (die ich auch schlucke), aber in der Praxis einfach keine Relevanz hat.

Wolfgang Du sagst doch selbst: "Na bei den diversen Nachberarbeitungsschritten ist das Entstehen von noise eines der Hauptprobleme"
Sind das jetzt nur Sachen aus diesem Buch oder gibts da auch mal einen Nachbearbeitungsschritt, den man nachvollziehen kann?

Space



Space


Antwort von WoWu:

Dann hast Du was falsch verstanden.
Ich habe keine Erklärung dafür, warum Rauschen in der Post entstehen sollte, solange man nicht in der 50. Generation arbeitet.
Ich geh da mit Dir conform.

Space


Antwort von -paleface-:

Mein Fazit zum Shogun.

Für 95% der Dinge die man so filmt brauch man ihn nicht.
Die anderen 5% sind dann die Highclass Projekte wo man auch wirklich mit Plan an einem Dreh geht, sprich ein Kinospot oder Werbung.

Was ich immer noch allen Raten kann die mit einem Windows System und Adobe schneiden.
NIE mit Prores aufnehmen. Adobe kappt euch die Helligkeitsstufen ab.
Stichwort 0-255 wird automatisch zu 16-235.
Wer mit Davinci usw. arbeitet ist Safe.

Ich nehme jetzt nur noch mit dem Avid Codec auf. Das interpretiert Adobe auch korrekt.

Space


Antwort von WoWu:

Nicht nur Adobe kappt das ab. ProRes ist ein 709 Codec, egal ob 8 oder 10 Bit.
Nur die Full Range machen auch nur Sinn, wenn die Wiedergabekette dazwischen das zulässt und die Headder auch so versteht und sie nicht als xvyCC interpretiert.
Das gibt dann nämlich richtig Ärger. denn das "video Full Range " Flag ist für xvyCC vorgesehen und wird von Tv Geräten auch so verstanden.

Space


Antwort von -paleface-:

Ich glaube dir das gerne.
Nur habe ich bis heute nicht verstanden warum dann in Davinci das Full range korrekt angezeigt wird?

Space


Antwort von WoWu:

Ja, ja, das ist die alte Diskussion, wer was wie anzeigt jedenfalls gibt es im Videoumfeld nur diese beiden Flag-Settings und eine für HD und eine für SD.
Wie schief dann die Farben (bei Falschanwendung) verarbeitet werden, ist dann die Wundertüte.
Die Meisten "messen" das ja nur daran, ob Weiss geklippt wird, oder nicht ... dass aber der ganze Kurvenverlauf und damit die Farbwerte nicht stimmen, interessiert Consumer natürlich wenig, Hauptsache schön bunt und ein paar Farbwerte mehr.
Dass die nicht "conformen" Werte dann irgendwo auf dem Wiedergabeweg trotzdem gekappt werden, ist wahrscheinlich dann auch egal weil an dem Signal ohnehin schon bis zum Abwinken gebogen worden ist. ;-).

Space


Antwort von klusterdegenerierung:

NIE mit Prores aufnehmen. Adobe kappt euch die Helligkeitsstufen ab.
Stichwort 0-255 wird automatisch zu 16-235. Kann man einstellen.
Habe damit noch nie Probleme gehabt und mein Premiere kommt mit dem ProRes Material super klar!

Space


Antwort von -paleface-:

Wo kann man das einstellen?

In Premiere? Wo denn das?

Space


Antwort von CameraRick:

Dann hast Du was falsch verstanden.
Ich habe keine Erklärung dafür, warum Rauschen in der Post entstehen sollte, solange man nicht in der 50. Generation arbeitet.
Ich geh da mit Dir conform. Ich meinte die Geschichte wo Du sagtest es sei ungeschickt ausgedrückt, so passte es besser in den Satz rein :)
Ich verstehe ja wenn man sagt dass sich das Noise anders verhält oder stärker zur Geltung kommt oder was auch immer, aber entstehen tut da nichts. Wo soll es denn her kommen, wenn es nicht schon da ist? Bei der 420/422/444 Debatte würde ich das auch eher Artefakte/Codec-Matsch als Noise nennen.
Kann man einstellen.
Habe damit noch nie Probleme gehabt und mein Premiere kommt mit dem ProRes Material super klar!
Ich kann paleface Aussage auch stützen, aber ich würde nicht von Adobe sprechen sondern von Windows und Mac. Als wir damals in paleface Thread zum Thema Material bekommen haben wurde mir unter selben Settings auf dem Mac alle Werte angezeigt, und auf dem PC wurden sie geclipped. Gleiche Software, gleiche Settings. Gab keinen Weg das zu umgehen.
Habs aber nur in AE getestet.

Space


Antwort von klusterdegenerierung:

Wo kann man das einstellen?

In Premiere? Wo denn das? Hups, habe gerade mal geguckt! Da hab ich mich wohl mit Davinci vertan! ;-)

Space



Space


Antwort von -paleface-:

Aso. Dachte jetzt schon du hast den Gral gefunden ;-)

Unter Davnci ist bei mir auch alles in Ordnung.

Aber um wirklich unter Windows und mit Adobe Produkten alles korrekt zu haben nehme ich nur noch den Avid Codec.

Wie der sich allerdings bei Mac Usern verhält weiß ich nicht.

Space


Antwort von CameraRick:

Kommt ein wenig drauf an, wenn Du den in MOV speicherst ist das auch kein Thema.

Ich sehe das Problem nur aktuell noch mit dem DNxHR wenn man mal über HD hinaus muss, denn der verursacht beim Rendern extreme Gamma-Probleme in div. Settings

Space


Antwort von wolfgang:

Was in diesem Buch zu stehen scheint ist eine Behauptung, die Deinem Zitat zufolge mit 8/10bit auch gar nichts zu tun hat. Aber das irgendwo Rauschen im Bild entsteht, wenn man 8 statt 10bit gedreht hat, das ist mir noch nicht unter gekommen. Das halte ich für ein Gerücht für das WoWu zwar eine Erläuterung hat (die ich auch schlucke), aber in der Praxis einfach keine Relevanz hat. Na du machst doch mit deinem Material sicherlich Lumaanpassungen und wohl auch Farbkorrekturen - oder unterziehst das einem entsprechendem Grading. Und da sagst ernsthaft dass zwischen 8bit 420 und 10bit 422 kein Unterschied ist? Also ich sehe hier schon dass ich mit 10bit 422 höhere Bearbeitungsreserven habe als bei 8bit 420. Es geht doch nicht darum ob in einem Schritt (der Aufnahme) weniger Rauschen vorhanden ist (auch wenn es schön zu wissen ist dass es dort mit 10bit auch besser ist). Sondern es geht darum wie rauschfrei das Material nach der Bearbeitung bleibt. Und genau das beschreiben diese Buchzitate sehr wohl, und genau das ist mit dem Material in der Praxis durchus auf jedem Schnittplatz erkennbar.

Space


Antwort von -paleface-:

Kommt ein wenig drauf an, wenn Du den in MOV speicherst ist das auch kein Thema.

Ich sehe das Problem nur aktuell noch mit dem DNxHR wenn man mal über HD hinaus muss, denn der verursacht beim Rendern extreme Gamma-Probleme in div. Settings Die ProRes Fils sind bei mir alle als .mov gewesen.

Die gamma Probleme bei DNxHR muss ich mal testen, wie kommen die denn Zustande?

Space


Antwort von CameraRick:

Wolfgang da legst Du mir ziemlich frech andere Worte in den Mund.
Das habe ich nicht gesagt, nicht behauptet, und bin auch ganz ganz anderer Meinung.

Du sagst, bei 8bit Aufnahmen entstünde mehr Rauschen in diversen Bearbeitungsschritten.
Ich habe u.a. einen Screenshot gepostet der den Unterschied zwischen internem und Shogun Material der GH4 zeigt, nach eine verhältnismäßig starken Korrektur (auf Luma Basis). Und da kannst Du hervorragend sehen, wieso 8bit 420 Mist ist. Aber Rauschen entsteht da keines.

Welcher Bearbeitungsschritt lässt denn bei Dir Rauschen entstehen? Banding, Matsche, all das kann ich nachvollziehen, aber Rauschen, wo entsteht das?

Space


Antwort von CameraRick:

Kommt ein wenig drauf an, wenn Du den in MOV speicherst ist das auch kein Thema.

Ich sehe das Problem nur aktuell noch mit dem DNxHR wenn man mal über HD hinaus muss, denn der verursacht beim Rendern extreme Gamma-Probleme in div. Settings Die ProRes Fils sind bei mir alle als .mov gewesen.

Die gamma Probleme bei DNxHR muss ich mal testen, wie kommen die denn Zustande? Da bezog ich mich nun auf Avid-Codecs, nicht Prores, bzgl MOV :) Prores ist schon im MOV ganz gut aufgehoben :)

Ich hab nur mal die DNxHR Codecs installiert (DV Chris hatte die mal verlinkt meine ich, als die noch nicht "offiziell" auf der Avid Website waren, aber die hatten sich dann auch nicht mehr verändert), und dann einfach mal Material 1:1 ausgespielt. Wenn dann bei allen nicht-444-Varianten auf einmal das Bild ganz anders ausschaut ists schon auffällig. Da sagen dann wieder viele das sei ja logisch weil YUV und RGB und blabla, aber ein 420 h264 schafft es ja auch im Gamma einem DPX Master zu entsprechen, bzw nicht so weit abzuweichen dass ich es ohne direkten Vergleich sofort sehen kann

Space


Antwort von wolfgang:

Mein Fazit zum Shogun.

Für 95% der Dinge die man so filmt brauch man ihn nicht.
Die anderen 5% sind dann die Highclass Projekte wo man auch wirklich mit Plan an einem Dreh geht, sprich ein Kinospot oder Werbung. Ich glaube auch nicht dass man den Shogun für jeden kleinen Urlaubsfilm braucht - sicherlich nicht. Aber es hängt halt vom Anspruch ab. Denn wenn es nich der Anspruch ist, warum willst die von dir genannten "Highclass Projekte" dann nicht auch mit der hier genannten GH4 (oder anderen Kameras) in 8bit 420 drehen? Ginge ja grundsätzlich auch.

Was ich immer noch allen Raten kann die mit einem Windows System und Adobe schneiden.
NIE mit Prores aufnehmen. Adobe kappt euch die Helligkeitsstufen ab.
Stichwort 0-255 wird automatisch zu 16-235. Also gerade in der Gerätekombination Shogun GH4 kann man die GH4 auch auf 16..235 stellen. Und der Waveform Monitor des Shoguns zeigt dann auch korrekt an, dass nur 16..235 aufgenommen wird.

Probleme mit seinen NLEs kann man trotzdem bekommen. Ich weiß zu wenig wie es bei Premiere ist - aber bei Vegas kommt es mit ProRes zu einer Lumaspreizung, unter Edius wir das ProRes Material wieder korrekt interpretiert nicht aber unbedingt das GH4 Material.

Der DNxHR codec hat mich nicht sonderlich begeistert, da er noch weniger performater ist als ProRes etwa auf meiner alten Maschine.

Für die Verarbeitung unter Vegas mache ich es daher heute so, dass ich die GH4 auf 16..235 einstelle; dann mit TMPGenc zum Cineform codec wandle; und dann das Cineform Material in Vegas schneide. Die Limitation auf 16..235 hat primär den Grund, weil mir sonst TMPGenc das Material clipt, wie Tests zeigen.

Das Herumgejammere über Superweiß ist uralt, und kommt bei ProRes immer wieder hervor. Allerdings nehmen abe auch alle Consumer-Camcorder so lang ich sie kenne sehr wohl in Superweiß auf. Das ist halt auch ein Faktum.

Die Meisten "messen" das ja nur daran, ob Weiss geklippt wird, oder nicht ... dass aber der ganze Kurvenverlauf und damit die Farbwerte nicht stimmen, interessiert Consumer natürlich wenig, Hauptsache schön bunt und ein paar Farbwerte mehr. Na ganz so ist das nicht. Man kann ja auch prüfen, ob bei Testbalken sich die Farben verändern, und sich nicht nur auf den Lumarange stürzen.

Aber grundsätzlich ist es auch für mich eine Schwachstelle, wie mieserabel ProRes in der Windowswelt dann auf den verschiedenen NLEs weiter verarbeitet wird. An der Stelle reizt es mich immer mehr, zu XAVC zu wechseln - das zwar unverschämterweise auch das Superweiß mit 10bit 422 aufzeichnet, aber wenigstens in der Verarbeitung unter Windows nicht die Probleme von ProRes macht

Space


Antwort von -paleface-:

Naja.
Wenn ich schon einen Shogun anschliesse um das bestmöglichste Material aus meiner Cam zu bekommen.
Warum sollte ich dann auf 16-235 gehen?

Space


Antwort von srone:

es spielt keine rolle, ob du den dynamikrange des sensors auf 0-255 oder 16-235 verteilst und schon gar nicht in 10bit.

lg

srone

Space



Space


Antwort von -paleface-:

Warum nicht?

Ernst gemeinte Frage

Space


Antwort von srone:

ob du nun 0 oder 16 als schwarz definierst und/oder 235 bzw 255 als hellstes weiss, der nutzbare bereich des sensors wird intern dann darauf gemapped, dh die sensordynamik wird einfach anders verteilt, egal was du nun einstellst (0-255/16-255/16-235), es kommt nichts hinzu und es fällt nichts weg.

dein ziel ist ja idr 16-235 (rec709), warum dann nicht gleich so aufzeichnen (vermeidet rundungsfehler)?

ich hoffe das einigermassen verständlich erklärt zu haben. :-)

lg

srone

Space


Antwort von -paleface-:

Aber wenn ich doch 16 als schwarz definiere...dann rutscht doch ALLES darüber auch einen ticken weiter nach unten.
Und umgekehrt. Ich verliere doch in den mittel Werten IRGENDWO Informationen.
Ich sage ja nicht das die gigantisch groß sind, aber sie sind da.
Und wenn wir mal davon ausgehen das man den Shogun nur nutzt um das bestmögliche Bikd herraus zu kitzeln, dann verseteh ich nicht warum man auf die Werte keine Rücksicht nimmt.

Oer habe ich da noch einen Denkfehler?

Space


Antwort von srone:

da 16-235 sowieso dein ziel ist, würdest du die werte früher oder später sowieso verlieren.

und da wir ja von 10bit reden ist dieser verlust im vorfeld marginal, hat aber den entscheidenden vorteil ein normgerechtes signal zu sein, welches dann eben nicht von irgendeinem nle "fehlbehandelt" wird, durch zb kappung des bereichs 235-255, dieser verlust wäre dann weit dramatischer.

lg

srone

Space


Antwort von dienstag_01:

Naja, ich weiss jetzt nicht, inwieweit das praxisrelevant ist, aber wenn man davon ausgeht, das die Übertragung der Sensorwerte in der Kamera nicht linear läuft, gewinnt man noch rund 30 Werte-Tripel (sagt man das so? R, G, B), die auf der Kurve verteilt werden können.
Genaueres weiss sicher Wowu.
Wie immer ;)

Space


Antwort von wolfgang:

Naja.
Wenn ich schon einen Shogun anschliesse um das bestmöglichste Material aus meiner Cam zu bekommen.
Warum sollte ich dann auf 16-235 gehen? Mußt du ja nicht unbedingt.

Es hängt von der gewünschten Verarbeitung ab, wie deine NLE damit umgeht, und wo (in welcher Darstellungskette) du es präsentieren willst. Soll das etwa eine PC-Präsentation über Portale sein, muss es nicht unbedingt 16..235 sein. Ist es für eine Sendeanstalt werden die das gar nicht anders als 16..235 nehmen.

Space


Antwort von srone:

...gewinnt man noch rund 30 Werte-Tripel (sagt man das so? R, G, B), die auf der Kurve verteilt werden können. und beim rausrendern in ein normgerechtes videofile sind sie dann wieder weg.

;-)

lg

srone

Space


Antwort von dienstag_01:

und beim rausrendern in ein normgerechtes videofile sind sie dann wieder weg. Logisch, aber das ist dann NACH der Bearbeitung. Und da können die Werte möglicherweise geholfen haben. Oder stellst du den Sinn eines 10bit-Workflows mit Ausgabe in 8bit prinzipiell in Zweifel? Ist ja auch nichts anderes als NOCH ein paar Werte mehr ;)

Space


Antwort von srone:

das stelle ich nicht in frage - 10bit/8bit.

aber wie ich oben schon geschrieben habe, besteht die gefahr der fehlverarbeitung seitens des nle und diese evt kappung ist dann weit unschöner.

lg

srone

Space


Antwort von -paleface-:

und beim rausrendern in ein normgerechtes videofile sind sie dann wieder weg. Logisch, aber das ist dann NACH der Bearbeitung. Und da können die Werte möglicherweise geholfen haben. Oder stellst du den Sinn eines 10bit-Workflows mit Ausgabe in 8bit prinzipiell in Zweifel? Ist ja auch nichts anderes als NOCH ein paar Werte mehr ;) Exakt. Die Leute nehmen ja auch in RAW auf und nicht in einem YT Codec.
Einfach weil sie Spiel haben möchten.

Daher ist die Antwort wie sie oft wohl "kommt immer drauf an was man mit dem Material machen möchte".

Space


Antwort von dienstag_01:

Naja, mit den 30 Werten wird es noch kein RAW ;)
Und ob sie wirklich was nützen, ich denke, dass hängt von mehreren Faktoren ab. Dokumentiert ist da aber bei Panasonic nichts, ist also eher was für Leute, die gerne glauben wollen, dass es besser ist ;)

Space


Antwort von srone:

kommt halt darauf an was in dem panasonic signal drinsteckt, ein 16-235 aufgespreizt auf 0-255 würde nicht einen hauch mehr an information bieten. ;-)

lg

srone

Space


Antwort von -paleface-:

Were ich mal testen.

Space


Antwort von WoWu:

Erstmal sind es keine 30 Werte, weil Chroma bei 240 endet und zum andern ist es auch die Frage des Aufbaus denn RGB wird von 0-255 aufgebaut, 709 YCbCr aber von 128 nach 16 und nach 235/240, das heisst, dass Mittelgrau (und sämtliche anderen Farbwerte) bei RGB eine andere Lage haben.
Dazu kommt noch, dass der Head-und Footroom ja einen Sinn haben, primär um periodische Störungen im Bild zu unterbinden, die bei Buffer Overflow entstehen können.
Übrigens hat das nichts mit "alter" Technik zu tun.
Diese "gesperrten" Datenräume finden sich selbst in den UHD1 und 2 Specs REC2020 wieder und auch über alle Dynamikbereiche hinweg. Es ist also nichts 8Bit-Spezifisches.
Dazu kommt, dass die dazugehörigen Header bei 255 xvYCC Einstellungen bei Video auslösen, oder gar nicht gelesen werden (oder falsch interpretiert, was hier oft genug behandelt wurde).

Wem es also egal ist, wie seine Bildqualität hinterher aussieht und wer bei der Übertragung nach 709 hinterher lieber eine Datenkompression vorzieht und damit unter 8 Bit landet, der soll die "Wundertüte 255" für sein Video ruhig aufmachen.

Space


Antwort von wolfgang:

Um das Faktum, dass die "Wundertüte" bei den Consumer- und Prosumerkameras seit geraumer Zeit offen ist, kommt man trotzdem nicht herum. Diese Geräte zeichnen halt seit Anbeginn auch in Superweiß auf. Übrigens auch die UHD-Geräte.

Das ist Fakt.

Space


Antwort von WoWu:

Deswegen haben solche Kameras auch so schlechte Bilder und entsprechen nicht den Standards, was dann immer wieder zu solchen Klippproblemen führt.
Du wirst keine einzige professionelle Kamera finden, die das tut.
Nur dieser Teilen, bei denen es sowieso nur darauf ankommt, dass die Bilder bunt sind.
Interessant ist nur, dass eben auch viele Anwender mit ihrem Wissen darum, sich auf Consumerbiveau bewegen.
Und was Superweiss betrifft .. auch so ein Schwachsinn. Full well entspricht bei 709 235 und 255 bei RGB. Aber man erhält von der Kamera keinen einzigen höheren Weisswert.
Der Header übernimmt als das "Mangement"
"Superweiss" entsteht nur durch einen zuvor falsch eingestellten Header.
Das Problem sitzt also vor dem Monitor.

Space


Antwort von wolfgang:

Hatten wir diese Diskussion hier nicht schon oft?

Demnach stellen ja offenbar Firmen wie JVC, Sony oder Panasonic Geräte her, die nicht den "Standards" entsprechen. Das ist eigentlich schwer zu glauben dass die alle die Standards ignorieren sollen - noch dazu als es sogar auch im Senderumfeld Leute gibt die sehr wohl immer die Meinung vertreten haben dass Superweiß sehr wohl zulässig sei.

Und schlechte Bilder? Was bedeutet das bitte? Also bei meiner GH4 sehe ich keine dramatische Verschlechterung, wenn ich von 16..235 auf 16..255 umstelle.

Wenigstens kann jeder mit einer GH4 oder auch NX1 den Bereich auch 16..235 umstellen wenn er will. Ich für meinen Teil habe dies gemacht weil ich im Verarbeitungsweg Cliping nachgewiesen habe - was ich aber eher auf die Lumaspreizung von ProRes zurückführe. Das ist aber ein spezieller Fall mit einer sehr speziellen Verarbeitungsroute.

Space


Antwort von WoWu:

Demnach stellen ja offenbar Firmen wie JVC, Sony oder Panasonic Geräte her, die nicht den "Standards" entsprechen. Man muss nur mal den Standard nachlesen, dann hat man die Antwort.
Wenigstens kann jeder mit einer GH4 oder auch NX1 den Bereich auch 16..235 umstellen wenn er will. Das sind primär Fotoapparate, deren Bilder (weil Stills) Adobe RGB benutzen und damit als Option anbieten müssen.
Die Hersteller gehen vermutlich von der Sachkundigkeit der Anewnder aus, die wissen sollten, welche Einstellung für welche Applikation in Frege kommt.
was ich aber eher auf die Lumaspreizung von ProRes zurückführe ProRes spreizt keine Luminanz !!!!
Die Luminanz wird in deinem Workflow gespreizt, weil die Header Einstellung entweder nicht gelesen oder falsch gesetzt wird.
Das Header Flag in ProRes beschreibt korrekt den nachlzufenden Content.

Und das, was die Amateure immer als "Superweiss" beschreiben ist nichts anderes als FullWell an zwei unterschiedlichen Übertragungspositionen, die mal richtig und mal falsch ausgelesen werden.
Der Sensor macht nur ein Weiss und positioniert diesen Wert entlang der Kameraeinstellung entweder auf 235 oder auf 255.
Die Kamera kann ja nicht mit der Fehlbedienung der Benutzer rechnen.

Space


Antwort von wolfgang:

Demnach stellen ja offenbar Firmen wie JVC, Sony oder Panasonic Geräte her, die nicht den "Standards" entsprechen. Man muss nur mal den Standard nachlesen, dann hat man die Antwort. Da gibts nur unterschiedliche Zugänge dazu. Wenn ich eine Waschmaschine kaufe führe ich auch nicht die elektrische und mechanische Auslegung der Waschmaschine durch. Sondern ich will die Waschmaschine einfach nutzen. Hier ist es nicht anders - namhafte Firmen bieten Geräte die im Bereich 235..255 aufzeichnen. Also will ich das einfach nutzen.

Mir bringt in Wirklichkeit eine Diskussion über Normen wenig, die so offensichtlich von diesen Firmen eben offenbar anders gesehen wird. Und selbst wenn ich persönlich zum Schluß kommen würde, dass diese Firmen das falsch anwenden - tja und was ändert sich dann daran dass die das tun? In anderen Worten: was bringt uns das als Anwender?
Wenigstens kann jeder mit einer GH4 oder auch NX1 den Bereich auch 16..235 umstellen wenn er will. Das sind primär Fotoapparate, deren Bilder (weil Stills) Adobe RGB benutzen und damit als Option anbieten müssen. Ich würde nicht unterschreiben dass sie das "müssen" - denn die Mehrheit der am Markt befindlichen Geräte hat diese Umstellmöglichkeit nämlich nicht. Soweit ich das überblicke haben das die anderen Geräte nämlich nicht - wir reden hier eher von zwei Ausnahmen.

Und da wir im Consumer-Bereich sind gilt das hier wohl kaum:
Die Hersteller gehen vermutlich von der Sachkundigkeit der Anewnder aus, die wissen sollten, welche Einstellung für welche Applikation in Frege kommt. Denn der typische Konsument weiß überhaupt nicht, was wir hier mit 0..255 oder 16..235 überhaupt meinen. Ebenso wenig wie du vermutlich weißt, für welchen pH-Bereich deine Waschmaschine ausgelegt ist, ohne dass es zu Lochkorrosion im Bereich der Trommel in dem benutzten Temperaturintervallen kommt.

Nein, der Consumer muss sich in einer hochtechnisierten Welt darauf verlassen können, dass Geräte die er kauft einfach von ihm mit seinem Wissen genutzt werden können. Und das ist in Wirklichkeit auch der Fall.

Ich glaube gerne dass dies für den Broadcast-Bereich gänzlich anders ist. Aber da reden wir von einem business to business Bereich. Die Consumer- oder Prosumer Geräte sind da halt anders.
ProRes spreizt keine Luminanz !!!!
Die Luminanz wird in deinem Workflow gespreizt, weil die Header Einstellung entweder nicht gelesen oder falsch gesetzt wird.
Das Header Flag in ProRes beschreibt korrekt den nachlzufenden Content. Also in der von mir genutzen NLE - nämlich Sony Vegas - wird ProRes sehr wohl mit gespreizter Luminanz dargestellt. Und du weißt schon dass dies so gemeint war.

Und ob der Header in ProRes das korrekt beschreibt oder nicht weiß ich nicht - ich weiß nur dass dies in einer Reihe von Windows-Applikationen so zu sein scheint dass ProRes falsch interpretiert wird. Ein anderes Beispiel ist TMPGenc welches das offenbar falsch macht.

Das ist halt leider so - mir würde es besser gefallen wenn dem nicht so wäre.

Und das, was die Amateure immer als "Superweiss" beschreiben ist nichts anderes als FullWell an zwei unterschiedlichen Übertragungspositionen, die mal richtig und mal falsch ausgelesen werden.
Der Sensor macht nur ein Weiss und positioniert diesen Wert entlang der Kameraeinstellung entweder auf 235 oder auf 255.
Die Kamera kann ja nicht mit der Fehlbedienung der Benutzer rechnen. Willst eine Nomenklaturdiskussion mit mir führen? Mir ist es eigentlich egal ob du das als "FullWell" bezeichnest oder ich das als "Superweiss", wenn noch dazu der gleiche Sachverhalte gemeint ist.

Und nein, es liegt keine Fehlbedienung des Benutzers vor wenn meine Panasonic Z10000 halt leider sehr wohl im Superweißbereich aufzeichnet. Denn ich habe da absolut keine Einstellmöglichkeit um das zu regeln. Die Liste läßt sich fortsetzen - auch meine Panasonic 750, auch nicht meine JVC TD1, auch nicht meine Sony TD10, auch nicht meine Sony FX1 hat überhaupt eine Einstellmöglichkeit für den Bereich Lumarange auf 16..235. Wie bitte soll dann eine Fehlbedienung des Nutzers vorliegen wenn der Hersteller keine Einstellmöglichkeit daür vorgesehen hat?

Also sorry, all diese Geräte zeichnen halt auch über 235 Signale auf, du wirst das nicht ändern, ich werde das nicht ändern. Viel mehr kann ich dazu nicht sagen außer dass es so ist. Egal ob man das jetzt bedauert oder begrüßen mag.

Space


Antwort von WoWu:

In anderen Worten: was bringt uns das als Anwender? Das hast Du natürlich Recht ... das bringt "Otto Normalverbraucher" gar nichts.
Verbindliche Standards sind nur da wichtig, wo Content auch bei andern Verbrauchern und Zuschauern -egal, über welchen Verteilweg- so aussehen soll, wie vom Produzenten aufgenommen.
Nur dazu haben sich die Kameraherateller, Broadcaster und Gerätehersteller in dem Standard committed.
Nur wer das möchte, wird sich mit der Standardisierung auseinander setzen müssen.
Bei Omas Geburtstagsvideo ist es ziemlich egal, ob das Gamma stimmt oder in China ein Sack Reis umfällt. Da geb' ich Dir absolut Recht .
Komischerweise kommen immer nur von solchen Amateuren die Fragen, warum hier was geklippt wird und dort eine Farbe anders aussieht.
Komisch eigentlich, findest Du nicht ? Das sollte doch gerade denen egal sein.
Denn der typische Konsument weiß überhaupt nicht, was wir hier mit 0..255 oder 16..235 überhaupt meinen. Man kann das auch umgekehrt sehen ... die, die den Unterschied und die Konsequenzen nicht sehen, dürften eher zu den Amateuren (Consumern) gehören.
der Consumer muss sich in einer hochtechnisierten Welt darauf verlassen können, dass Geräte die er kauft einfach von ihm mit seinem Wissen genutzt werden können. Werden sie ja auch und stellen prompt die falschen Wertebereiche ein oder halten Überschwinger für Nutzsignale und erklären Dinge, die sie nicht erklären können mit "Superweiss".
Die meisten kriegen doch einen geklippten Bereich gar nicht mit.

Aber da reden wir von einem business to business Bereich. Die Consumer- oder Prosumer Geräte sind da halt anders. Jau, stimmt. Und das Anwenderklientel auch.

Also in der von mir genutzen NLE - nämlich Sony Vegas - wird ProRes sehr wohl mit gespreizter Luminanz dargestellt. Jau, das kann ja sein, dann wird der Header nicht richtig interpretert oder Du hast ein falsches Setting.
ProRes setzt alles entlang der Norm.
Wenn's am Codec läge, wäre der schon lange bei den Broadcasten rausgeflogen.
Schau mal im Bereich der 30cm
Willst eine Nomenklaturdiskussion mit mir führen? Nein, will ich gar nicht, nur wenn es bei Dir irgend etwas "Weisser als Weiss" gibt, das sich irgendwie oberhalb des FullWell eines Sensors bewegt (und auch noch übertragen wird) , dann solltest Du die Erkenntnis zum Nobelpreis einreichen.

Space


Antwort von dienstag_01:

@Wowu
Wie kommt es dann, dass Werte oberhalb von 235 aus der Kamera im NLE landen? Wenn FullWell 235 entsprechen würde, dürfte es doch eigentlich überhaupt keine Werte darüber geben? Oder ist FullWell ein definierter Punkt mit Toleranz nach oben?

Space


Antwort von WoWu:

Das ist ja eine Frage der Übertragungsfunktion (mapping)
709 schreibt vor, das letzte Bit auf des Sensors auf 235 zu mappen und das Flag auf den Wert 6 zu setzen (das entspricht full_range_off)
Gleichfalls auch die Werteverteilung symmetrisch zu erfolgen hat.
Damit ist der hellste Wert der Kamera bei 235 und durch das Flag erfährt der Monitor, sowohl dass die hellste Amplitude der LEDs im TV Gerät bei 235 einzustellen ist als auch die Lage aller andern Werte und vollzieht so die Übertragungskurve korrekt nach.

Das Übertragungsframe ist 1 Byte (technisch gesehen sogar 2 Byte, aber das ist ein anderes Thema).
Im Bereich oberhalb von 235 sind überwiegend Transienten, die nicht Bildinhalt sind, die man in billigen Kameras aber nicht preiswert abschneiden kann, weil mehrstufige Filter ziemlich teuer sind.) Daher hat man sich u.a.auch für einen solchen Headroom entschieden.)

Space


Antwort von dienstag_01:

Das heisst also genau: der hellste Wert ist 235 und Werte oberhalb sind erst bei der *Berechnung* (mapping) in der Kamera entstanden? Sind also *mathematisch*?

Space


Antwort von wolfgang:

Wie kommt es dann, dass Werte oberhalb von 235 aus der Kamera im NLE landen? Wenn FullWell 235 entsprechen würde, dürfte es doch eigentlich überhaupt keine Werte darüber geben? Oder ist FullWell ein definierter Punkt mit Toleranz nach oben? Aus der Praxis kann ich nur sagen, dass wir bei diversen Bildmaterial sehr wohl anhand von Vergleichsaufnahmen gesehen haben, dass - entsprechende Motive vorausgesetze - Material mit 16..255 mehr Bilddetails gezeigt hat als nur Material mit 16..235. Sicherlich, dargestellt auf PC-Monitoren die ja bis 255 reichen.

Mag sein dass dieses Material auf den diversen Fernsehern bei 235 geclippt wird - darum gabs immer Testbilder wie das bekannte "Hello World", welche bewußt so konstruiert waren um Darstellungsketten dahingehend zu erproben ob über 235 was angezeit wird. Aber von den Kameras her war da definitiv Bildinformation enthalten die man verliert, wenn man das Material einfach clippt und abschneidet.

Und die wenigsten Geräte haben in dem Bereich die Werkzeuge wie Waveform-Monitor oder brauchbare Histogramme, um bereits bei der Aufnahme prüfen zu können ob und wenn ja wo ein Clipping auftreten kann. Da ist der Shogun wieder genial, weil der hat einen sehr brauchbaren waveform Monitor dabei, aber die noch viel genialere Darstellung der Lumabereiche in Farben - und erlaubt so auch die Beurteilung des Bildes in der Fläche im Hinblick auf Clipping. Das ist mit ein Grund warum ich den Shogun in Kombination mit Kameras wie der GH4 durchaus schätzen gelernt habe - man hat eben einen guten Feldmonitor mit dabei und kann das Material brauchbar einstellen. Auch ein nicht zu unterschätzender Vorteil.

Space


Antwort von WoWu:

@dienstag_01

Nee, das nicht.
Du musst Dir das so vorstellen, dass der Sensor von Schwarz, (unterstes Bit, um es mal bildlich auszudrücken), bis Weiss bei einem 12 Bit sensor 4096 unterschiedliche Werte generiert.
Nennen wir den dunkelsten Wert ruhig 1 und den hellsten Wert (Full well) 4096.

Nun hat er aber nur 220 Werte für REC 709, die er bedienen muss.
Er legt fasst also alle 4096 Werte so zusammen, dass 18 Werte einen einzigen Zielwert ergeben.
Nun hat er nur noch 220 Werte. Unten hat er aus 18 schwarz/Grauen Werten einen Wert gemacht, den er als Wert 16 in den Übertragungscontainer packt und oben hat er die 18 hellsten Werte zusammengefasst zu einem Wert, den er als 235 in das Übertragungsbyte legt.
Gleichzeitig sagt er dem Empfänger, " 16 ist absolutes Schwarz, mach also deine LEDs aus und 235 ist absolutes Weiss, also fang an zu leuchten".

Die Werte sind also alle "echt" und kommen alle aus der Kamera.

Space


Antwort von dienstag_01:

Naja, nach dieser Erklärung dürften aber überhaupt keine Werte oberhalb von 235 entstehen (ich bleib jetzt der Einfachheit halber mal nur am oberen Rand). Es gäbe ein sauber bei 235 endendes Signal und keiner käme auf dumme Gedanken. Weiter oben hast du von Filter gesprochen.

Space


Antwort von WoWu:

Das ist den Monitoren piep schnuppe egal, denn die können ihren Amplituden so stellen, wie sie wollen. Die mögen sich in der effektiven Helligkeitsleistung unterscheiden, aber nicht darin, dass sie "nur 235" können denn an der Stelle ist das Signal schon lange wieder analog, also eine Spannung und kein Wert mehr.

@dienstag_01
Doch, wenn Du Dir mal ansiehst, wie ein bandbegrenztes Signal entsteht, dann siehst Du, dass dabei jede menge Überschwinger entstehen, ein der bekanntesten Sorten ist das "Ringing".
Solche Überschwinger zu beseitigen geht nur mit sehr aufwändigen Filtern.
Teure Kameras haben die. Deswegen sind die Signale in dem bereich auch ziemlich sauber.
Im Gegensatz zu billigen Kameras, wo genau dieser Addressbereich meistens dicht damit ist.

Space


Antwort von dienstag_01:

Den Zusammenhang hab ich jetzt nicht verstanden.

Space


Antwort von WoWu:

Ja, sorry, das Erste bezog sich noch auf Wolfgangs Monitor-Interpretation.
Die Postings haben sich da überschnitten.

Space


Antwort von dienstag_01:

Ach, so n bissel Ahnung zu haben ist vielleicht och nich ganz schlecht ;)

Space


Antwort von wolfgang:

Das ist den Monitoren piep schnuppe egal, denn die können ihren Amplituden so stellen, wie sie wollen. Die mögen sich in der effektiven Helligkeitsleistung unterscheiden, aber nicht darin, dass sie "nur 235" können denn an der Stelle ist das Signal schon lange wieder analog, also eine Spannung und kein Wert mehr. Allerdings müssen diese Unterschiede ja wo her kommen.

Space


Antwort von dienstag_01:

Aus der Praxis kann ich nur sagen, dass wir bei diversen Bildmaterial sehr wohl anhand von Vergleichsaufnahmen gesehen haben, dass - entsprechende Motive vorausgesetze - Material mit 16..255 mehr Bilddetails gezeigt hat als nur Material mit 16..235. Sicherlich, dargestellt auf PC-Monitoren die ja bis 255 reichen. Genau, deswegen haben sie dir ja auch eine Stelle am CERN angeboten.
Persönlich finde ich aber, du solltest eher das Marketing von Panasonic leiten, die haben das nämlich schlicht vergessen zu erwähnen ;)

Space


Antwort von wolfgang:

Aha.

Rückfall in schweres Trollverhalten, Herr Freitag. Und seit wann nutzt den die hier diskutierten Geräte, etwa GH4 oder den Shogun?

Faktum ist jenseits aller unqualifizierter Trollkommentare, dass man mit der Kombination aus GH4 und Shogun bestens aufgestellt ist, gerade für die Steuerung und Justierung der hier angesprochenen Parameter:
- man kann die GH4 je nach Userwunsch so oder so einstellen - sei es 0..255 oder 16..235 oder 16..255.
- man kann mit dem Waveform Monitor des Shoguns bestens kontrollieren, wie die Luminanzverteilung in der Aufnahme aussieht
- man kann mit der RGB Parade bestens kontrollieren wie tatsächlich (und nicht theoretisch) die Farbverteilung aussieht
- und über die Umsetzung der Helligkeitsverteilungen in Farbskalen kann man die Luminanzverteilung sogar in der Fläche prüfen und justieren.

Aber das war etwa einen Freitag ja alles bekannt.

Space


Antwort von WoWu:

Das ist den Monitoren piep schnuppe egal, denn die können ihren Amplituden so stellen, wie sie wollen. Die mögen sich in der effektiven Helligkeitsleistung unterscheiden, aber nicht darin, dass sie "nur 235" können denn an der Stelle ist das Signal schon lange wieder analog, also eine Spannung und kein Wert mehr. Allerdings müssen diese Unterschiede ja wo her kommen. Ein (z.B.) 8 Bit Monitor wird immer alle 8 Bits darstellen, egal ob man ihn für Grafik, oder TV benutzt. nur ob er das Full Scale Flag lesen kann, das ist eine andere Frage.
Aber genau dieses Bit steuert, bei welchem Wert die LEDs die maximale Amplitude in der Ansteuerung haben sollen., also ihre maximale Helligkeit.
Funktioniert das nicht, liegt es entweder daran, dass das Flag nicht oder falsch gesetzt ist oder dass es nicht gelesen wird. Billigmonitore (oder ältere) können das übrigens manchmal wirklich nicht.

Space


Antwort von dienstag_01:

Ich glaube, was das Verständnis extrem erschwert, ist die Tatsache, dass die meisten Leute hier Material kennen, was Weisswerte oberhalb von 235 hat und die im NLE sozusagen zurückgeholt werden können. (Aktuell sitze ich gerade an Material einer Canon XA H1, schon ein paar Jahre alt, da ist das so). Zurückgeholt heisst, ich kann bspw. Luma 250 auf 235 setzen, da ist das immer noch schön weiss - wenn die Aufnahme korrekt bei 235 geendet hätte, hätte ich jetzt mein hellstes Weiss auf ca. 220, eher Grau.
Also denkt man, wau, ich gewinne Werte. Das die aber durch eine fehlerhaft oder sagen wir ungenaue Übertragung in der Kamera und nach meiner Erfahrung auch durch fehlerhafte Interpretation durch das NLE - da sind mir schon Unterschiede aufgefallen - erst entstanden sind und korrigiert werden MÜSSEN, um überhaupt ein korrektes Bild zu haben, ist nicht wirklich klar.

Und jetzt kommen Hersteller und nutzen diesen Raum und User wie Wolfgang sehen gleich viel mehr ;)

Space


Antwort von WoWu:

Das ist absolut richtig. Ein Signal muss zunächst einmal interpretiert werden.
Beispielsweise legt Canon sein LOG mit einem Offset ab. Da liegen dann Werte im nicht zugelassenen Bereich (ist ja nicht 709 sondern LOG)
Nur heisst das nicht, dass man da sowas wie Superweiss rausbekommt, denn wenn man das Offset beseitigt, liegt man wieder im Wertebereich 16/235.
Man muss sich also schon genau ansehen, was man bekommt und vor allen Dingen, ob das NLE da schon was beim Import macht.
Ich glaube Wolfgang ja gern, dass er aus ProRes ein gespreiztes Signal bekommt, nur sollte man feststellen, wer das Signal zerrt und wie es geschieht.
Fehler sind bekanntlich dazu da, abgestellt zu werden, nur muss man sie erst mal erkennen und die Ursache finden.

Space


Antwort von Spaceman:

Um es nochmal zusammenfassen:

Ein Shogun an eine Kamera anzuschließen die kein Log ausgibt ist absoluter Nonsens!

Also um zum Threadtitel zurückzukommen:
Alle die einen Shogun an der GH4 benutzen und auf Marketingblabla reingefallen sind dürfen sich fragen warum eigentlich. Was will ich mit Rec709 Material in Bit 422? Um es dann im Anschluss wieder auf 420 zu codieren ?(hoffentlich nicht zum Graden, das bringt bei von Panasonic drübergelegten Rec709 Kontrastkurven nämlich gar nichts.)

Space


Antwort von WoWu:

Na ja, die 10 Bit bringen natürlich schon Vorteil für den, der sie nutzen kann.

Space


Antwort von Spaceman:

Neh nicht wirklich. Log und 10bit das macht Sinn. Dann wäre der Hollywoodlook geritzt. Das wissen aber auch die Hersteller, deshalb wir da schön drumrumgeeiert. Man will ja noch seine teuren Proficams verkaufen...

Sony bietet Log Ausgabe aber dafür kein 10bit (A7r A7s usw.)

Panasonic bietet 10bit aber dafür kein Log (Gh4)

Canon bietet Log Ausgabe aber dafür kein 10bit

...usw


Schlau sind die schon.

Space


Antwort von Spaceman:

Am besten finde ich wie Panasonic bei der Gh4 die Log Ausgabe nicht rausrückt. Die wissen schon warum...

Mir Tun halt nur die Enduser leid die ich mit ner Gh4 rumlaufen sehe inkl. Shogun und wenn man Sie dann fragt warum der Shogun wissen sie das irgendwie auch nicht (hinter vorgehaltener Hand)

Die meisten Lügen sich dann in die Tasche so mit wie Vorteilhaft das große Display und Waveform seien und die tollen Speichermedien...

Und hinten raus kommt dann auch nur nen billiger Videolook den man vielleicht noch im Ersten beim Tatort nutzen könnte.

Hollywood Look komplette Felanzeige...😩

Space


Antwort von dienstag_01:

Ja, der Hollywood Look, der über fordert auch den einen oder anderen ;)

Space


Antwort von Starshine Pictures:

@Spaceman
Dass Canon kein 10bit kann stimmt so nicht ganz. Meine C100 mkII gibt 10bit 4:2:2 über HDMI aus. Und bietet C-Log. Deshalb habe ich mir den Video Assist von Blackmagic vorbestellt. Falls ich mal solch eine Ausgangsqualität brauche.



Grüsse, Stephan von Starshine Pictures

Space


Antwort von CameraRick:

@Spaceman
Dass Canon kein 10bit kann stimmt so nicht ganz. Meine C100 mkII gibt 10bit 4:2:2 über HDMI aus. Und bietet C-Log. Ja das stimmt nur leider nicht, die C100 macht nur 8bit am HDMI, sorry.

Space


Antwort von klusterdegenerierung:

ups ;-)

Space


Antwort von Starshine Pictures:

Ok. Hast Recht. :( Nuja. Dann nutz ich den VA eben zum Angeben und einen auf Pimp machen. Bäm! :D

Space


Antwort von klusterdegenerierung:

Bei C100 fällt mir immer dies ein!



Space


Antwort von CameraRick:

Ok. Hast Recht. :( Nuja. Dann nutz ich den VA eben zum Angeben und einen auf Pimp machen. Bäm! :D Die 422 bleiben, und weniger Kompressionsartefakte dazu. C-Log fährt ohnehin keine richtig steile Kurve, vielleicht fällt es auch gar nicht so auf ;)

Space


Antwort von wolfgang:

Ein (z.B.) 8 Bit Monitor wird immer alle 8 Bits darstellen, egal ob man ihn für Grafik, oder TV benutzt. nur ob er das Full Scale Flag lesen kann, das ist eine andere Frage. Das ist leider eine pure Raterei, denn der Anwender kann nichts mit Full Scale Flag anfangen und es auch nicht beeinflussen.

Was man auch ohne großaratige Austrüstung machen kann ist seine spezifischen Geräte mit Testbildern wie "Hello World" austesten - dann sieht er gleich ob Superweiß und/oder Superschwarz abgebildet werden. WENN ihm das wichtig ist.
Um es nochmal zusammenfassen:

Ein Shogun an eine Kamera anzuschließen die kein Log ausgibt ist absoluter Nonsens! Und was soll die Begründung zu dieser Behauptung sein? Klare wäre v-log noch besser. Aber der einzige Vorteil von log ist wohl der größere Dynamikumfang - der Rest ist unverändert. Mit allen Vor- und Nachteilen die eine GH4 und ein Shogun mit 10bit ProRes 422 eben so mit sich bringen.

Spätestens die Panasonic DVX200 wird das ja dabei haben - auch wenn es eine Sauerei ist, da bin ich bei dir, dass Pansonic das offenbar fertig in der Schublade für die GH4 hat und es bisher nicht heraus rückt. Was zumindest meine Sympathie gegenüber Panasonic nicht steigert und wieder die Idee in mir persönlich keimen läßt, auch aus diesem Grund die DVX200 nicht zu kaufen.

Was will ich mit Rec709 Material in Bit 422? Schon das bessere Farbsampling bringt Vorteile in der Postpro, siehe Keying usw. Und eine 10bit Aufzeichnung - in der hier diskutierten Gerätekombination GH4 und Shogun sehr wohl möglich - hat auch Vorteile.

Die Alternative ist ja nur UHD/4K 8bit 420 etwa der GH4 alleine wenn man in 4K bleibt, bei der A7s ist die Alterntive überhaupt nur HD mit 8bit 420. Gefällt das besser?
Um es dann im Anschluss wieder auf 420 zu codieren ? Warum produziert irgendwer mit hochwertigen Kameras und sogar raw, wenn dann im Anschluss erst wieder zu 420 8bit encodiert wird? Ist ja eigentlich völlig sinnlos das zu machen, wenn ich deinem Gedankengang folge. :)

Die Reise bei den UHD-Panelen geht längst laut Spec zu 10bit 422 und den erweiterten Farbräumen. rec 2020. Wir schon noch eine Weile dauern bis das alles kommt, und ob man heute noch auf 8bit 420 setzen will muss eh jeder für sich selbst entscheiden.

Space


Antwort von Spaceman:

Lieber Wolfgang, Du hast das Thema Colorgrading vermutlich noch nicht verstanden. 😌 Nur mit RAW oder Log als Ausgangsbasis kannst Du einen Filmlook in der Postproduktion erzeugen. Zum Schluss kann das schon auf 8bit 420 codiert werden wie bei jeder Bluray, kein Problem.

Wenn Du Rec709 Video schon aufzeichnest, mit wilden Panasonic Kontrastkurven die im Detail keiner kennt, geht das eben nicht.
Das hat aber 99% der SLR Filmer bis heute nicht verstanden. Die erzeugen ein Videobild mit geringer Tiefenschärfe und denken das wäre Film 😀
Taugt vielleicht fürs Fernsehen...

Und wenn dann noch Luts auf das Videobild draufgelegt werden wirds ganz schlimm.... 😁

Space


Antwort von wolfgang:

Lieber Wolfgang, Du hast das Thema Colorgrading vermutlich noch nicht verstanden. 😌 Nur mit RAW oder Log als Ausgangsbasis kannst Du einen Filmlook in der Postproduktion erzeugen. Zum Schluss kann das schon auf 8bit 420 codiert werden wie bei jeder Bluray, kein Problem. Lieber Spaceman,

du sollst nicht Dinge behaupten die so ganz sicherlich nicht stimmen und dann anderen unterstellen sie hätten etwas nicht verstanden.

Colorgrading ist definitiv nicht nur auf raw beschränkt, wieso auch sollte das so sein? Dass du bei raw den größtmöglichen Einfluss nehmen kannst ist zwar richtig, aber selbstverständlich kannst du auch mit ProRes oder DNxHD/HR ein Grading machen.

Und auch dass man urspüngliches rwa zu 8bt 420 encodieren kann ist mir so gänzlich neu. Hallo?

Space


Antwort von Axel:

Die Alternative ist ja nur UHD/4K 8bit 420 etwa der GH4 alleine wenn man in 4K bleibt, bei der A7s ist die Alterntive überhaupt nur HD mit 8bit 420. Gefällt das besser? Besser? Von mir als ultra-voreingenommenem Nicht-10-bit-422-Skeptiker kommt folgende Beobachtung: XAVC 8-bit 420 ist, wen wundert's?, bereits erheblich besser, auch in der Auflösung, als bloßes AVCHD derselben Kamera. Der Unterschied ist nicht hypothetisch, sondern direkt sichtbar. Soweit keine Überraschung. SLog2 bietet Reserven in Höhen und Tiefen, die man für 8-bit-Kappes nicht erwartet.

Es folgt der Direktvergleich mit per Shogun gecapturtem ProRes422 4k (dieser Codec schreibt zwar 10-bit, 8-bit bleiben es trotzdem). Vorausgesetzt, du hast (wie wir) keine UHD-Monitore, dann ist es völlig unmöglich, - erneut: wen wundert's? - in HD einen Unterschied zu sehen. Das geht nur mit Reinzoomen.

Wer also einen Shogun gekauft hat, um besseres HD zu generieren, und meint, dies auch zu sehen, leidet m.E. an Autosuggestion.

Gut, wird man sagen, aber das 422 wird doch wohl die "gradability" verbessern?

Das mag zwar sein, aber hier wird es wirklich hypothetisch. Gefühlt ändert sich (in Resolve) gar nix.

Unter'm Strich wohl deswegen, vor allem, weil XAVC ein wirklich guter Codec ist.

Das betrifft, leicht OT, die A7s. Wie steht es mit der GH4 und dem Shogun?
Die Reise bei den UHD-Panelen geht längst laut Spec zu 10bit 422 und den erweiterten Farbräumen. rec 2020. Wir schon noch eine Weile dauern bis das alles kommt, und ob man heute noch auf 8bit 420 setzen will muss eh jeder für sich selbst entscheiden. Wie gesagt, ich bin der Erste, der dem zustimmt, hypothetisch. Denn vorerst ist das noch sehr hypothetisch. Den Shogun für die GH4 zu kaufen, ohne nennenswerte Vorteile beim Grading, ohne Auflösungsgewinn und praktisch völlig blind für die höhere Farbtiefe und Farbauflösung, kommt mir als Verschwendung vor.

Das könnte sich schlagartig ändern, sobald ein Log-Profil zur Verfügung stünde. Ich frage mich sowieso, wo die ganzen GH2-Hacker bleiben, um die Firmware von diesen Beschränkungen zu befreien.

Space


Antwort von CameraRick:

wolfgang lass das gut sein. Das führt für Dich nur zum Frust, das ist ein bekannter Troll hier. Das merkst ja schon daran wie er schreibt :)

Space


Antwort von Jott:

Und auch dass man urspüngliches rwa zu 8bt 420 encodieren kann ist mir so gänzlich neu. Hallo? Und woher kommen all die nett anzusehenden perfekten Blu-rays (bekanntlich 8Bit/4:2:0) mit Spielfilmen darauf, die in einem Raw-Format gedreht wurden? Du hast schon irgendwo einen Gedankendreher.

Space


Antwort von wolfgang:

wolfgang lass das gut sein. Das führt für Dich nur zum Frust, das ist ein bekannter Troll hier. Das merkst ja schon daran wie er schreibt :) Danke für den Hinweis.

Und auch dass man urspüngliches rwa zu 8bt 420 encodieren kann ist mir so gänzlich neu. Hallo? Und woher kommen all die nett anzusehenden perfekten Blu-rays (bekanntlich 8Bit/4:2:0) mit Spielfilmen darauf, die in einem Raw-Format gedreht wurden? Du hast schon irgendwo einen Gedankendreher. Na das war halt ein wenig zynisch gemeint, ich gebs ja zu Jott.

So nach dem Motto: echt, man kann irgeneinen Film für Blu-ray encodieren? Scheiße wieso sagt mir das keiner???? Muss mir echt entgangen sein in all den Jahren.... :):):)

Space


Antwort von wolfgang:

Besser? Von mir als ultra-voreingenommenem Nicht-10-bit-422-Skeptiker kommt folgende Beobachtung: XAVC 8-bit 420 ist, wen wundert's?, bereits erheblich besser, auch in der Auflösung, als bloßes AVCHD derselben Kamera. Der Unterschied ist nicht hypothetisch, sondern direkt sichtbar. Axel meinst du XAVC-S oder X-AVC? Ich vermute XAVCS, denn X-AVC liegt durchaus auch in 10bit 422 vor und ist eher ein Profiformat, statt XAVCS oder XAVCL. Wobei ich dir recht gebe dass auch XAVC-S mit den üblichen 50 oder 60 Mbps mehr Reserven hat als AVCHD mit seinen maximal 28 Mbps und damit besser aussehen KANN. Je nach Bildmotiv.

Und auch die Diskussion ob man 8bit oder 10bit braucht ist eine inzwischen uralte. Du kannst ja auch mit 8bit 420 fantastisches Material haben. Nur machs nach Möglichkeit so dass die Notwendigkeiten zur Nachkorrektur möglichst gering bleiben. Nicht umsonst sagen viele dass dies idealerweise gar nicht korrigiert werden sollte - aber auch das sehen manche so und manche so. Manche korrigieren ja auch jpegs, andere halt nur TIFFs.

Soweit keine Überraschung. SLog2 bietet Reserven in Höhen und Tiefen, die man für 8-bit-Kappes nicht erwartet. Das hört man immer wieder, da fehlt mir die praktische Erfahrung damit. Hier würde mich mal ein echter Vergleich interessieren. Denn einerseits wird gerne gesagt dass 8bit für SLog (oder auch v-log oder auch c-log) eigentlich zu wenig sein soll. Und andererseits scheint es doch was zu bringen. Die Frage ist halt wieviel es wirklich bringt.

Es folgt der Direktvergleich mit per Shogun gecapturtem ProRes422 4k (dieser Codec schreibt zwar 10-bit, 8-bit bleiben es trotzdem). Bei der von dir genannten A7s ist das sicher so, dass die 10bit nur mit Nullen aufgefüllt werden. Nicht aber bei der GH4, die liefert echtes 10bit - und das wird auch vom Shogun über hdmi so aufgezeichnet. Ich vermute dass dies inzwischen unbestritten ist - auch wenn wir gerade zu diesem Punkt auch irgenwann unsere langen Diskussionen gehabt haben.

Vorausgesetzt, du hast (wie wir) keine UHD-Monitore, dann ist es völlig unmöglich, - erneut: wen wundert's? - in HD einen Unterschied zu sehen. Das geht nur mit Reinzoomen. Ja und Nein. Ja deshalb weil die Auflösung nur HD sein kann - von einem HD-Monitor. Nein deshalb, weil in Wirklichkeit viele HD-Kameras ja vielleicht nur 70 oder 80% der Systemgrenze erreichen. Während das auf HD runter skalierte UHD-Bild sehr wohl echtes HD sein kann (hochwertig umgrechnet versteht sich).

Wer also einen Shogun gekauft hat, um besseres HD zu generieren, und meint, dies auch zu sehen, leidet m.E. an Autosuggestion.

Gut, wird man sagen, aber das 422 wird doch wohl die "gradability" verbessern?

Das mag zwar sein, aber hier wird es wirklich hypothetisch. Gefühlt ändert sich (in Resolve) gar nix. ich persönlich meine auch dass man keinen Shogun braucht, um besseres HD zu generieren. Das geht mit einer GH4 alleine nämlich auch schon aufgrund des Auflösungsvorteils. Der Umstand, dass man beim runterrechnen zu HD von UHD 420 sogar 444 bekommt, wurde immer wieder angepriesen, auch von namhaften Kenner der Branche wie dem ehemaligen CTO von Cineform. Aber das ist ein eigenes Thema, den wer einen Shogun nutzen will wird wohl vermutlich eher an einer guten Nachbearbeitungsmöglichkeit in UHD selbst Interesse haben. Auch wenn heute die Lieferformate wohl (noch) unverändert HD mit 8bit 420 sind.

Wobei ich zumindest in der Praxis sehe dass man sehr wohl den Vorteil hat, bei hochwertiger Umrechnung so Dinge wie Banding doch deutlich geringer zu bekommen als wenn man gleich mit HD 8bit 420 gearbeitet hätte. Einmal im Material drinnen bekommst das nicht mehr weg. Hochwertig rausgechnet (32bit floating point modus) war es selbst mit dem Zielformat 8bit 420 in geringerem Umfang vorhanden.
Unter'm Strich wohl deswegen, vor allem, weil XAVC ein wirklich guter Codec ist. XAVC oder XAVC-S?

Das betrifft, leicht OT, die A7s. Wie steht es mit der GH4 und dem Shogun? Siehe oben - ich meine die Kombination macht schon Sinn, mir kommt der Spielraum gerade bei Helligkeits- und Farbkorrekturen doch größer vor, und das geht durchaus fließend in ein gewisses Grading über. Was ich interessant fände wäre wie gesagt die Frage, wie sich Slog der A7s hier im neutralen Vergleich "schlägt". Jetzt, wo die GH4 eben noch kein v-log hat.

Wie gesagt, ich bin der Erste, der dem zustimmt, hypothetisch. Denn vorerst ist das noch sehr hypothetisch. Den Shogun für die GH4 zu kaufen, ohne nennenswerte Vorteile beim Grading, ohne Auflösungsgewinn und praktisch völlig blind für die höhere Farbtiefe und Farbauflösung, kommt mir als Verschwendung vor. Also das sehe ich so halt bei der GH4 und dem Shogun nicht. Du arbeitest bei dieser Kombination mit einem eher hochwertigen Codec, es würde mindestens XAVC mit 10bit 422 (und nicht XAVCS mit 8bit 420) brauchen um hier eine Gleichwertigkeit her zu stellen. Ich sehe in der Praxis sehr wohl Vorteile bei auch Grading - wenn du dem Material einen kräftigen Look in eine andere Richtung geben willst.

Space


Antwort von Spaceman:

Lieber Wolfgang, bitte erst richtig lesen, dann schreiben. Ich zitiere mich " ... RAW oder Log... " . Also keiner redet nur von RAW. Log liegt ja bekanntlich in Deinen proklamierten ProRes Formaten vor.

Quintessenz: Wichtig für den Filmlook ist RAW oder mindestens Log in 10Bit. Gibt letzteres die Kamera nicht aus ist der Shogun Schwachsinn.

(Wer fängt schon an das Keying eines billigen Rec709 Videobildes zu verbessern und dazu einen teuren externen Rekorder zu kaufen. Vielleicht für die Nachrichten im Fernsehen 😊. Das ist wie wenn man beim Autotuning mit den Felgen anfängt aber das wichtigste den Motor vergisst.)

Space


Antwort von wolfgang:

Sehe ich unverändert nicht so, denn du hattest das ja als Antwort zu v-log gemeint. Und ich meine dass es eben nicht entweder raw oder v-log (oder c-log oder s-log) für ein Grading braucht.

Es ist völlig klar dass auch rec 709 logarithmisch encodiert ist. Und klar kann man das auch graden. Wenn das gemeint war bin ich bei dir.

Dass man die typischen Profile von Panasonic (ich nehme an du meinst Cinemalike dynamisch oder Cinemalike Video) nicht graden kann stimmt auch nicht. Das sind doch nur andere Gamme-Kurven, derein einziger Sinn es ist einen etwas höheren Dynamikumfang zu gewährleisten. Ja, mir wäre hier auch v-log lieber, aber noch hält das Panasonic zurück (und ich hoffe das bleibt so nicht ewig).

Einen etwaige 10bit Vorteil - na bei heftigen Farbkorrekturen wie auch bei Grading sehe ich das schon auch, da hast am Schnittplatz einfach mehr Reserven. Aber dann darf man halt leider nicht die A7s mit nur 8bit Ausgabe nehmen, sondern dann ist es halt eher die GH4 mit 10bit.

Space


Antwort von Axel:

Unter'm Strich wohl deswegen, vor allem, weil XAVC ein wirklich guter Codec ist. XAVC oder XAVC-S? S. Sorry, ich bin noch nicht ganz drin in der Materie. Mein Kumpel versucht z.Zt., mich von der Kamera plus Shogun zu überzeugen, die er selbst erst seit ein paar Tagen hat.

Das betrifft, leicht OT, die A7s. Wie steht es mit der GH4 und dem Shogun? Siehe oben - ich meine die Kombination macht schon Sinn, mir kommt der Spielraum gerade bei Helligkeits- und Farbkorrekturen doch größer vor, und das geht durchaus fließend in ein gewisses Grading über. Was ich interessant fände wäre wie gesagt die Frage, wie sich Slog der A7s hier im neutralen Vergleich "schlägt". Jetzt, wo die GH4 eben noch kein v-log hat. Ich vergleiche mit ProRes-Log meiner Pocket, bekanntlich echtes 10-bit 422. In der Praxis zählt für mich nur, was ich für 8-bit herausholen kann, weil ich auch nur 8-bit sehe. Hier gab es den Härtefall einer mit schwarzem Molton abgehängten Decke im Schneideraum meines Kumpels, die in XAVC-S mit SLog2, Blende 13 und Auto-Iso und bei lachhaftem Schwachlicht (Ambientlight der Monitore) aufgenommen wurde. Mit Lut ("ntrl" von Casey Wilson) war die Decke ein schwarzes Loch, sah komplett geclippt aus. Mir fiel echt die Kinnlade runter, als ich in Resolve die Tiefen mit Lift heraufholte. Bei mit Sicherheit fünfstelliger Iso konnte man die Molton-typischen Miniflusen erkennen! Keine wabernden Pixelwolken (Banding) wie bei meiner alten GH2, keine Rauschorgie wie bei meiner Pocket.

Was die Farben betrifft, so muss ich wirklich einen Direktvergleich machen. Ich bilde mir ein, dass die Hautfarben recht flächig und eindimensional sind (während der Farbbereich durch die o.e. Lut schon recht gut getroffen ist). Ist das jetzt meine Autosuggestion, mein Stockholm-Syndrom? Ich evaluiere noch. Es würde Sinn machen. 8-bit hat einfach zu wenig Reserven, um sowohl einen großen Dynamikbereich zu erfassen und feine Nuancen in einem begrenzten Tonwertbereich. Sowas will ich nicht mehr.
Wie gesagt, ich bin der Erste, der dem zustimmt, hypothetisch. Denn vorerst ist das noch sehr hypothetisch. Den Shogun für die GH4 zu kaufen, ohne nennenswerte Vorteile beim Grading, ohne Auflösungsgewinn und praktisch völlig blind für die höhere Farbtiefe und Farbauflösung, kommt mir als Verschwendung vor. Also das sehe ich so halt bei der GH4 und dem Shogun nicht. Du arbeitest bei dieser Kombination mit einem eher hochwertigen Codec, es würde mindestens XAVC mit 10bit 422 (und nicht XAVCS mit 8bit 420) brauchen um hier eine Gleichwertigkeit her zu stellen. Ich sehe in der Praxis sehr wohl Vorteile bei auch Grading - wenn du dem Material einen kräftigen Look in eine andere Richtung geben willst. Ganz bestimmt. Mit nicht-flachen Profilen allerdings bleibt dir die Richtung, nicht aber das Extrem. Im oben erwähnten Extrembeispiel bliebe die Decke schwarz, eine Pfütze aus Nichts. Das ist eine willkürliche Beschränkung durch Panasonic und sehr schade. Es erlaubt dir nicht, aus deiner GH4-Shogun-Combo herauszuholen, was eigentlich drin ist.

Space


Antwort von Jott:

Soweit keine Überraschung. SLog2 bietet Reserven in Höhen und Tiefen, die man für 8-bit-Kappes nicht erwartet. Das hört man immer wieder, da fehlt mir die praktische Erfahrung damit. Hier würde mich mal ein echter Vergleich interessieren. Denn einerseits wird gerne gesagt dass 8bit für SLog (oder auch v-log oder auch c-log) eigentlich zu wenig sein soll. Und andererseits scheint es doch was zu bringen. Die Frage ist halt wieviel es wirklich bringt. Probier's aus: hier hat jemand ungegradetes S-Log 2-Material (8Bit) zum Testen hochgeladen:



Space


Antwort von wolfgang:

S. Sorry, ich bin noch nicht ganz drin in der Materie. Mein Kumpel versucht z.Zt., mich von der Kamera plus Shogun zu überzeugen, die er selbst erst seit ein paar Tagen hat. Hmm, die beste Überzeugungsmöglichkeit ist wohl mit dem Material selbst zu spielen. Wobei - machst du das auf einem Mac oder einem PC? Und mit welchem Programm?

Denn es bringt dir auch nichts wenn du ProRes etwa in Vegas bearbeiten willst, und dann darüber stolperst dass ProRes dann erst nur als 8bit decodiert wird. Sprich: die Workflow nach der Aufnahme muss auch in 10bit möglich sein.

Und dann müßte es wirklich 10bit sein - und das kann nur XAVC und eben nicht XAVC-S.

Ich vergleiche mit ProRes-Log meiner Pocket, bekanntlich echtes 10-bit 422. In der Praxis zählt für mich nur, was ich für 8-bit herausholen kann, weil ich auch nur 8-bit sehe. Das ist auch zutiefst verständlich. Allerdings gibt es hier noch die Möglichkeit, dass du im Workflow höherwertig bleibst, und dann erst beim finalen Schritt zu 8bit 420 ausgibst. Und DAS kann sehr wohl Vorteile haben.

Ich hatte kürzlich einen Fall wo ich mich dafür entschieden habe, einen kurzen Film zur Gänze den Look eine Sonnenaufganges zu verpassen. Die Aufnahmen machte ich aber zur Gänze bei Tageslicht, also war eine kräftige Verschiebung ins Rötliche hinein erforderlich. Das hat mit dem 10bit 422 Material des Shoguns über meinen Umweg zu Cineform 10bit 422 in Vegas auch gut funktioniert. Die Schwierigkeit lag aber bei dem finalen Rausrechnen (in dem Fall für youtube) auf 8bit 420 - dabei ist banding bis zum Umfallen aufgetreten, als ich es in TMPGenc zu HD umskalieren und ausgeben wollte. Erst das Rausrechnen innerhalb von Vegas selbst mit 32bit floating point modus zu 8bit 422 hat ein zufriedenstellendes Ergebnis gebracht - das banding konnte ich so weitgehend vermeiden. Vielleicht auch nur über Dithering aber das war zumindest weg. Etwa im roten Himmel erkennbar, bei zirka 1:28



Bei mit Sicherheit fünfstelliger Iso konnte man die Molton-typischen Miniflusen erkennen! Keine wabernden Pixelwolken (Banding) wie bei meiner alten GH2, keine Rauschorgie wie bei meiner Pocket. Die A7s ist doch bekannt für die extrem gute Lichtempfindlichkeit - also so gesehen ist es eigentlich kein Wunder wenn hier die Struktur noch erkenbar war. Da hat die A7s definitiv unglaubliche Stärken, aber ist das wirklich durch slog erreicht oder nicht eher durch den Sensor?

Was die Farben betrifft, so muss ich wirklich einen Direktvergleich machen. Ich bilde mir ein, dass die Hautfarben recht flächig und eindimensional sind (während der Farbbereich durch die o.e. Lut schon recht gut getroffen ist). Ist das jetzt meine Autosuggestion, mein Stockholm-Syndrom? Ich evaluiere noch. Es würde Sinn machen. 8-bit hat einfach zu wenig Reserven, um sowohl einen großen Dynamikbereich zu erfassen und feine Nuancen in einem begrenzten Tonwertbereich. Sowas will ich nicht mehr. Vielleicht hat 8bit hier wirklich zu wenig Reserven um feine Abstufungen der Hauttöne zu bekommen, das kann ich mir gut vorstellen. Das würde dann dafür sprechen dass man mit s-log den Dynamikumfang grundsätzlich erweitert - aber dann eben an den 8bit der A7s ansteht. Und umgekehrt hast bei der GH4 zwar die 10bit aber eben nur Gammakurven wie die genannten Cinelike Kurven. Naja.

Ganz bestimmt. Mit nicht-flachen Profilen allerdings bleibt dir die Richtung, nicht aber das Extrem. Im oben erwähnten Extrembeispiel bliebe die Decke schwarz, eine Pfütze aus Nichts. Das ist eine willkürliche Beschränkung durch Panasonic und sehr schade. Es erlaubt dir nicht, aus deiner GH4-Shogun-Combo herauszuholen, was eigentlich drin ist. Naja, GH4 Nutzer haben zumindest die Cinelike Kurven die auch flachere Gammakurven sind als sonst üblich. Aber definitiv ist es nicht v-log, das ist auch klar.

Und da der Shogun mit dem letzten Firmware-Update auch v-log nativ implementiert bekommen hat, wäre es natürlich für GH4 Nutzer eine echte Bereicherung wenn Panasonic endlich v-log auch für die GH4 zur Verfügung stellen würde. Im Zusammenspiel mit dem Shogun hat man dann 2 Möglichkeiten: entweder wendet man nur in der Vorschau v-log an und zeichent das Material unverändert auf (sprich: dann macht man das in der Postpro wenn die NLE das kann); oder aber man gibt aus der Kamera v-log aus und wendet v-log sofort im Shogun auf Vorschau und das Material an hat dann ProRes nach der Anwendung von v-log für die Schnittsoftware.

In jedem Fall wäre das für den Dynamikumfang kein Fehler, v-log zu haben. Schauen wir mal ob das noch kommt - oder ob man hier zurecht auf Panasonic wütend sein darf/soll/kann.

Space


Antwort von wolfgang:

Hier gibts offenbar ein Muster einer Probe von v-log Material:

https://www.dropbox.com/s/xtwhwbpe75k3k ... b.mov?dl=0

https://www.dropbox.com/s/50w59a7058vvm ... b.mov?dl=0

Quelle: http://www.personal-view.com/talks/disc ... it-hdmi/p5

Anmerkung: falls jemand damit in Vegas spielen will: wählt man den 32bit floating point (full range) und ACES RRT (sRGB) aus, und weist dem Clip unter Media/Properties dann "Arri Alexa Log C" zu, dann ist das Ergebnis gar nicht mal unbrauchbar. Sieht auf meinem farblich ungeeichtem Laptop recht ähnlich zu dem aus, was der Shogun anzeigt, der ja mit der Firmware 6.4 jetzt auch v-log korrekt kann. Zumindest eine gute Näherung.

Hoffentlich kommt die Sache mal bald - ist ja fad dass hier Panasonic sich offenbar nicht entscheiden kann endlich weiter zu machen. Sollen sie doch ein paar Euro für das Update verlangen, wenn das den unbedingt sein muss.

Space


Antwort von CameraRick:

Habs mal in den Nuke geworfen - kann der Vegas auch Cineon? Das sieht auf den ersten Blick schon korrekter aus, als ARRIs LogC. Die Kurve der Alexa ist deutlich steiler, ich vermute dass Vlog näher an Slog oder Clog liegt (die sind ähnlich steil wie Cineon, aber Cineon passt mir meist universeller)

Space


Antwort von Axel:

Hmm, die beste Überzeugungsmöglichkeit ist wohl mit dem Material selbst zu spielen. Wobei - machst du das auf einem Mac oder einem PC? Und mit welchem Programm? Resolve, wie gesagt. Und das Betriebssystem spielt da keine Rolle, solange man keine echte 10-bit-Ausgabe hat, und selbst die hätte man wohl in OSX über Decklink (nehme ich an).
Und dann müßte es wirklich 10bit sein - und das kann nur XAVC und eben nicht XAVC-S. Der Witz ist ja gerade, dass es nur 8-bit-Material war.
Die Schwierigkeit lag aber bei dem finalen Rausrechnen (in dem Fall für youtube) auf 8bit 420 - dabei ist banding bis zum Umfallen aufgetreten, als ich es in TMPGenc zu HD umskalieren und ausgeben wollte. Erst das Rausrechnen innerhalb von Vegas selbst mit 32bit floating point modus zu 8bit 422 hat ein zufriedenstellendes Ergebnis gebracht - das banding konnte ich so weitgehend vermeiden. Vielleicht auch nur über Dithering aber das war zumindest weg. Etwa im roten Himmel erkennbar, bei zirka 1:28

Hm, Banding sieht man zwar keins, aber Rauschen, wobei unklar ist, ob es im Uploadvideo ist oder nur durch die Youtube-Kompression erzeugt wurde. Du solltest sowas auf jeden Fall zumindest in 1080 hochladen.

Und Grading habe ich immer schon gemacht, bis der (DV-)Codec auseinanderbrach und darüber hinaus, billiger Effekthascher, der ich bin. Bloß eine andere Farbtemperatur zu simulieren stresst dabei noch keinen mir bekannten Codec, solange 32-bit berechnet wird.
Die A7s ist doch bekannt für die extrem gute Lichtempfindlichkeit - also so gesehen ist es eigentlich kein Wunder wenn hier die Struktur noch erkenbar war. Da hat die A7s definitiv unglaubliche Stärken, aber ist das wirklich durch slog erreicht oder nicht eher durch den Sensor? Von allem etwas. Sensor, Profil, Codec, Farbtiefe, Auflösung. Die Auflösung (ausdrücklich nicht Schärfe!) hat einen oft geleugneten, aber sichtbaren Einfluss. Bekanntlich kann das menschliche Auge Farben schlechter auflösen als Grauwerte. Ein Bild mit angemessen vielen Kontrastdetails kommt besser rüber als eines mit noch so sauberen Farben, das aber grenzwertig aufgelöst ist. Die Struktur des Molton in 8-bit kann gar nichts anderes sein als gute Detailauflösung, die irgendwie glaubhaft koloriert ist (obschon kaum, da es sich, wie gesagt, um schwarzen Stoff handelte).
Vielleicht hat 8bit hier wirklich zu wenig Reserven um feine Abstufungen der Hauttöne zu bekommen, das kann ich mir gut vorstellen. Das würde dann dafür sprechen dass man mit s-log den Dynamikumfang grundsätzlich erweitert - aber dann eben an den 8bit der A7s ansteht. Und umgekehrt hast bei der GH4 zwar die 10bit aber eben nur Gammakurven wie die genannten Cinelike Kurven. Naja. Die Wirklichkeit ist komplexer als die Kombination einiger vielversprechender "specs" es nahelegen, die letzten Endes wenig besagen. Sieh dir die vielen Raw-Videos oder 10-bit Grading-Tests mal an. Haut es einen aus dem Sessel? Also mich nicht. Weil die stolzen Besitzer dem Alleinstellungsmerkmal ihrer manchmal teuren Hardware zu Unrecht vertrauen, obwohl sie eigentlich gar nicht graden können. Der vielgehasste Northrup hat sowohl Video- als auch Audio"vorteile" des Shogun mit verglichen und kommt zu einem ernüchternden Schluss:


Ähnliches gilt für die A7s plus Shogun. Es gibt tonnenweise Vergleiche im Netz, und hier ist einer vom vielgeliebten Dugdale:


Er sagt, die Auflösung des Shogun mit 4k sei deutlich besser als die des internen HD XAVC-S. Und zwar, wenn man stark einzoomt. Ansonsten gibt's keine Vorteile.

Alles klar. Also für die Möglichkeit, stark einzuzoomen, habe ich alles in allem 2300 Ocken gelöhnt (mehr als anderthalb GH4s) und aus einer 300g-Kamera ein Rig-Ungetüm gemacht, das über die denkbar schlechteste Kabelverbindung verfügt und riesige Datenmengen produziert ....

Space


Antwort von wolfgang:

Habs mal in den Nuke geworfen - kann der Vegas auch Cineon? Das sieht auf den ersten Blick schon korrekter aus, als ARRIs LogC. Die Kurve der Alexa ist deutlich steiler, ich vermute dass Vlog näher an Slog oder Clog liegt (die sind ähnlich steil wie Cineon, aber Cineon passt mir meist universeller) Soweit ich weiß kann Vegas kein Cineon. Die ARRIs LogC wurde übrigens auch hier verwendet:

http://eriknaso.com/2015/07/08/gh4-vlog ... -for-clip/

Space


Antwort von klusterdegenerierung:

Er sagt, die Auflösung des Shogun mit 4k sei deutlich besser als die des internen HD XAVC-S. Und zwar, wenn man stark einzoomt. Ansonsten gibt's keine Vorteile. Na super, wenn die Flachpfeife das so sagt, dann wirds ja wohl stimmen!
Der kann ja bei seinen eigenen Test nicht mal erkennen das die GH4 die beste AF verfolgung leistet und sagt dann aber das die Samsung das am besten kann.

Beim Highiso test murkst er sich da auch son keks zusammen.

Kommt mir genauso albern vor wie diese angeblichen Profis die behaupten das alle Cams einen 800er nativen Iso haben und sagen dann aber hinterher, das die Cam nicht zu gebrauchen ist, weil sie beim vermeintlich nativem Iso wie Sau rauschen.

Guck mir sowas einfach nur noch unter dem Motto Kabarett an! ;-)

Space


Antwort von wolfgang:

Also ich konnte mir da nur einige wenige Minuten ansehen, dann war das Video offenbar hier nicht mehr verfügbar? Keine Ahnung wieso. Sehe nur noch ein großes Fragezeichen im Beitrag mit der Verlinkung.

Aber ich frage mich wie er eigentlich die side-by-side Aufnahmen gemacht hat - denn mit einer GH4 und einem Shogun geht das in 10bit 422 ja gar nicht. Und auch das würde ich mich über youtube nicht näher beurteilen trauen.

Die Frage ist halt: was wäre das Ergebnis wenn er das mit einer FS7 und wirklich mit XAVC gemachte hätte?

Space


Antwort von WoWu:

Es ist wirklich nur Blog-Geschwafel und der gute Tony verwechselt mal wieder Kontrastkanten mit Bilddetails.
Es ist ermüdend.

Space


Antwort von klusterdegenerierung:

Die Frage ist halt: was wäre das Ergebnis wenn er das mit einer FS7 und wirklich mit XAVC gemachte hätte? Das scheint jetzt so in Mode zu sein, das man Äpfel mit Birnen vergleicht, das ganze ordentlich umrührt und hinterher wird alles nur noch auf die Cam bezogen!

Egal ob man die ganze Zeit in 10Bit aufgenommen hat und die Cam nur 8Bit ausgibt, hauptsache man hat klicks, ist doch viel wichtiger!

Space


Antwort von WoWu:

@ klusterdegenerierung
Ich geb' Dir Recht, aber zu jedem Klick gehört auch eine Pfeiffe, die den Scheiss glaubt, statt sich mal ins Thema reinzuschaffen.

Space


Antwort von klusterdegenerierung:

@ klusterdegenerierung
Ich geb' Dir Recht, aber zu jedem Klick gehört auch eine Pfeiffe, die den Scheiss glaubt, satt sich mal ins Thema reinzuschaffen. +1

Space


Antwort von wolfgang:

Das scheint jetzt so in Mode zu sein, das man Äpfel mit Birnen vergleicht, das ganze ordentlich umrührt und hinterher wird alles nur noch auf die Cam bezogen!

Egal ob man die ganze Zeit in 10Bit aufgenommen hat und die Cam nur 8Bit ausgibt, hauptsache man hat klicks, ist doch viel wichtiger! Weiß nicht so genau was du jetz meinst. Aber wenn das tatsächlich synchron mit der GH4 UND dem Shogun aufgehommen worden ist, dann wissen wir ja dass er die GH4 maximal auf 8bit Ausgabe konfigurieren hat können.

Und dann ist der Unterschied zwischen der internen und der externen Aufzeichnung nur dass die interne in 8bit 420 und die externe in 8bit 422 ist. Super mistiger Vergleich.

Meinst du das?

Space


Antwort von Axel:

Weiß nicht so genau was du jetz meinst. Aber wenn das tatsächlich synchron mit der GH4 UND dem Shogun aufgehommen worden ist, dann wissen wir ja dass er die GH4 maximal auf 8bit Ausgabe konfigurieren hat können.

Und dann ist der Unterschied zwischen der internen und der externen Aufzeichnung nur dass die interne in 8bit 420 und die externe in 8bit 422 ist. Super mistiger Vergleich. Sie hatten schon zwei GH4s und haben auch mal die "Rollen" gewechselt, falls eine ein Montagsmodell gewesen sein sollte.

Was die Blogger betrifft, so habt ihr bestimmt zum Teil Recht. Aber alle sagen Ähnliches. Müsste es nicht unter den -zig Clips zum Thema wenigstens einen geben (der nicht von Atomos selbst stammt), der uns zeigt, dass der Shogun wirklich was bringt?
Die Frage ist halt: was wäre das Ergebnis wenn er das mit einer FS7 und wirklich mit XAVC gemachte hätte? Leih dir doch die Kamera mal aus und schieß dich durch die Profile. Die kann nebenbei gesagt sogar intern ProResLog (wenn auch nur in 1080).

Die FS7 ist meiner Meinung nach so ein "specs-Blender". Was sie nicht hindert, ein Verkaufsschlager zu sein.
Ich geb' Dir Recht, aber zu jedem Klick gehört auch eine Pfeiffe, die den Scheiss glaubt, statt sich mal ins Thema reinzuschaffen. Oh, danke für die Blumen!

Space


Antwort von WoWu:

Axel, das war nun gerade nicht auf Dich gemünzt. Du bist einer der wenigen, die solche Themen noch differenziert und vor allem aus den eigenen Anforderungen heraus sieht.
Ich versteh diese Äpfel & Bohnen Vergleicherei nur nicht und stimme klusterdegenerierung da zu.
Diese Vergleich haben keinen praktischen Nutzen, weil sich Geräte und Software schon beim nächsten ISO Wert wieder völlig anders verhalten können.
Dazu kommen eben noch eklatante Interpretationsschwächen und Leute, die aus 4:2:0 durch Unterabtastung 4:4:4 machen können, nur weil es mal jemand in irgend einem Blog gesagt hat.
Dabei sind auch solche Tests ziemlich egal. Jeder hat seine ganz eigenen Anforderungen an Bilder und Workflow.
Wer mit 10 Bit bessere Erfahrung gemacht hat, nimmt sowieso 10 Bit, egal ob das nun 2kEUR mehr kostet oder nicht und wer mit 8 Bit auskommt... ist doch völlig ok. Und wer mal mit Log Kurven schlechte Erfahrung macht, kann ja immer noch in Zukunft lin. aufzeichnen.
Nur solche Dinge (in womöglich auch noch einem Test) erfassen zu wollen, ist einfach nur Schwachsinn.
Es wundert mich eben nur, wieviele auf das Gesülze noch reinfallen.
Sowas gehört als Diskussionsstoff in die Kaufhausecke.

Space


Antwort von wolfgang:

Sie hatten schon zwei GH4s und haben auch mal die "Rollen" gewechselt, falls eine ein Montagsmodell gewesen sein sollte. Wird das wo gesagt? Zumindest ich konnte mir das Video nicht ganz ansehen.
Ich versteh diese Äpfel & Bohnen Vergleicherei ohnehin nicht und stimme klusterdegenerierung da zu.
Diese Vergleich haben keinen praktischen Nutzen, weil sich Geräte und Software schon beim nächsten ISO Wert wieder völlig anders verhalten können. Der hätte in seinem Test ohnedies auch mit diesem deutlich teureren Geräte ebenso keinen Unterschied gefunden. Das ist das was ich vermute.
Dazu kommen eben noch eklatante Interpretationsschwächen und Leute, die aus 4:2:0 durch Unterabtastung 4:4:4 machen können, nur weil es mal jemand in irgend einem Blog gesagt hat. Na danke für die Blumen. Ich persönlich habe oft genug gesagt dass ich es für Schwachsinn halte, wenn aus 420 jemand 444 zu machen meint - mit der Begründung dass dies eine Interpolation/Mischrechnung ist aber nicht etwas was aus einer optischen Abbildung heraus entsteht. Aber es ist immerhin der CTO von Cineform der sich für diese Sache hergibt. Darum halte ich ja was von 422 einer Shogun-Aufzeichnung und wenig davon dass hier gemittelt wird.

Space


Antwort von WoWu:

Der CTO von Cineform hat früher mechanische Teile gebaut.
Ausserdem muss man unterscheiden zwischen der mathematischen Rechnung, die z.B. bei einer Computergrafik zur Anwendung kommt und bei der nach jeder Neuberechnung neue Signale berechnet werden und einer Unterabtastung eines Videosignals, in der aus den gerenderten Ergebnissen weitere Unterabtastungen entstehen und sich Fehler vergrössern.

Es ist nur eben kontraproduktiv, so falsches Zeug in solchen Diskussionen zu wiederholen.

Es gibt doch eigentlich gar keinen Zweifel, dass jedes der Systeme in der Anwendung seine eigenen Vorteile hat und ich wette, dass auch jede der beiden Kameras in ihrem "Feld" punkten wird.
Und auch die Kombination ist doch kein muss.
Ich bin sicher, in nicht allzu langer Zeit, wird es auch keine Kamera mehr geben, die nicht 10Bit aufnimmt.
Wer also früh zuschlagen will, wird es eben bezahlen müssen.
Wir mussten damals noch fast 5000 $ nur für die Zusatzkarte in jeder Kamera löhnen, nur um AVC machen zu können.
Das hat sich bis heute mehr als gerechnet, weil wir heute noch 10Bit AVC Material aus den Zeiten benutzen können und bestimmt schon ein Vielfaches damit verdient haben.
Preise sind also relativ und immer das wert, was man daraus macht.
Insofern -wie schon gesagt- verstehe ich die ganze Diskussion nicht.
Und herauszukriegen, ob nun Cam A oder Cam B besser ist, hängt einzig an den individuellen Anforderungen.
Und solche Blogs dienen wirklich nur den Klicks .. und Leuten, die den Scheiss glauben.

Space


Antwort von klusterdegenerierung:

Fängt es denn nicht schon damit an, das jemand mehrere Cams gleichzeitig "testet" und mit einander "vergleicht"?

Wenn man eine Cam wirklich unvoreingenommen und neutral bewerten möchte und sie zudem vielleicht noch gegen andere in Vergleich ziehen möchte, sollte man denn dann nicht zumindest, jede Cam für sich auf Herz und Nieren testen, und dies unter professionellen Bedingungen, die auch in der Branche eine gewisse Relevanz haben?

Wenn man das gemacht hat, was schon einen erheblichen Aufwand darstellt, der nicht viel mit einem halbherzigen hobbieisten Test zu tun, dann hat man Werte die man "vielleicht" einander gegenüber stellen kann, wobei dies schon schwer genung ist, weil es sich nicht nur um unterschiedliche Preisklassen, sondern vielmehr auch noch um unterschiedliche Konzepte handelt, wie Vollformat gegenüber APS-C etc.

Aber bei diesen üblichen, wie WoWu schon richtig gesagt hat, Blogertestern geht es doch in erste Linie gar nicht um einen objektiven und konsistenten Test, es geht doch um posing und schlichtweg um Wichtigtuerei!

Bei manchen könnte man meinen, das sie nicht mal einen eigenen Testchart geschweige denn technische & optische Messwerkzeuge besitzen, die man sicherlich für einen wirklich ernsthaften Test benötigt.

Space


Antwort von WoWu:

Selbst mit solchen Messwerkzeugen gehen Tester -z.B. in Fernsehanstalten- sehr vorsichtig um, denn das, was in optischen messungen (Barken oder sw/Kreise bzw. Siemenssterne) für viele Jahre Standard waren, sind kaum mehr zu gebrauchen, es sei denn, man schaltet die ganzen Nachrechenalgorithmen in den Kameras ab.
Für jede moderne Kamera ist das Nachrechnen solcher symmetrischen Verläufe ein "Lachsack" bis in höchste Frequenzen und führt zu traumhaften -wenn auch falschen- Ergebnissen..
Denn leider sind die Verläufe im wahren Leben nicht mehr so symmetrisch und der ganze Test eine einzige "in die Tasche" Lügerei.
Das ist nur ein Beispiel. Dasselbe trifft für Dynamikverhalten zu und auch, dass Codecs mit standardisiertem Content getestet werden, um überhaupt auch nur den Ansatz einer Vergleichbarkeit zu erhalten.

Man könnte das noch einwenig fortsetzen, aber solche Tests ... oder Vergleiche sind mehr als albern und die Blogs, die sowas machen, mindestens ebenso.

Space


Antwort von wolfgang:

Also für die Möglichkeit, stark einzuzoomen, habe ich alles in allem 2300 Ocken gelöhnt (mehr als anderthalb GH4s) und aus einer 300g-Kamera ein Rig-Ungetüm gemacht, das über die denkbar schlechteste Kabelverbindung verfügt und riesige Datenmengen produziert .... Was mich in der Praxis am meisten an dem Shogun stört sind die hier angeführten Punkte: es wird ein Rig-Ungetüm, die Kabelverbindung ist eine Gemeinheit, und man bekommt einen codec der unter Windows mit den von mir verwendeten Applikationen gar nicht leicht zu verarbeiten ist - zusätzlich zu den riesigen Datenmengen für Vegas noch eine Transkodierung braucht, unter Edius gehts wenigstens noch ohne dem.

Offenbar ist das heute wirklich der Preis für 10bit in dieser Preisklasse. Von der Prophezeiung, dass in wenigen Jahren nur noch 10bit Geräte verkauft werden würden, sind wir heute unverändert weit weg wie vor einigen Jahren, als ich das zum ersten Mal gelesen hatte. Denn zumindest im Preisbereich der unter 2000 Euro werden munterst weiter die 8bit Geräte publiziert, und XAVC (auch mit S) ist natürlich kein schlechter Codec.

Ob die FS7 ein Spec Blender ist weiß ich nicht. Einige sind mit der Kamera durchaus sehr zufrieden, mal ausleihen ist vielleicht wirklich nee Idee. Und XAVC Intra halte ich für mich für besser als ProRes.

Space


Antwort von CameraRick:

Habs mal in den Nuke geworfen - kann der Vegas auch Cineon? Das sieht auf den ersten Blick schon korrekter aus, als ARRIs LogC. Die Kurve der Alexa ist deutlich steiler, ich vermute dass Vlog näher an Slog oder Clog liegt (die sind ähnlich steil wie Cineon, aber Cineon passt mir meist universeller) Soweit ich weiß kann Vegas kein Cineon. Die ARRIs LogC wurde übrigens auch hier verwendet:

http://eriknaso.com/2015/07/08/gh4-vlog ... -for-clip/ LogC von ARRI ist eine der steilsten LOG-Kurven die man so nutzen kann, und ist idR super ungeeignet für Material das nicht aus einer Alexa/Amira kommt.
Ist natürlich die Frage ob man eine passende Kurve nutzen will (um es zB korrekt zu linearisieren) oder einfach nur mag das alles schön bunt ist, dann kann man natürlich machen was man will und "heilig ist was dem Heiland gefällt" :)

Space


Antwort von wolfgang:

LogC von ARRI ist eine der steilsten LOG-Kurven die man so nutzen kann, und ist idR super ungeeignet für Material das nicht aus einer Alexa/Amira kommt.
Ist natürlich die Frage ob man eine passende Kurve nutzen will (um es zB korrekt zu linearisieren) oder einfach nur mag das alles schön bunt ist, dann kann man natürlich machen was man will und "heilig ist was dem Heiland gefällt" :) Es geht nicht darum dass nur alles schön bunt ist, oder man dem Heiland gefällt. Merkwürdige Formulierungen übrigens. :)

Es ist schon eher die Frage mit welcher log-Kurve dieses Material halbwegs korrekt dargestellt wird. Der in Wirklichkeit ungenügende Ansatz dieser zitierten Stellen und auch von war mal bestehende Kurven (bei mir in Vegas) anzuwenden und im optischen Vergleich zu schauen, welche am ehesten passen könnte.

Referenz bei mir war dabei einfach die Abbildung des Shoguns, der ja einerseits ein geeichtes Display hat und andererseits v-log korrekt implementiert hat. Der Ansatz des "optischen Vergleichs" ist natürlich ein simpler, nicht mathematischer, nicht wissenschaftlicher, dafür aber praxisorientiertem technischen Ansatz.

Was nutzt du den als Referenzmaterial? Oder hast du korrekt v-log implementiert und kannst die Arri Kurven dazu vergleichen? Ich würde liebend gerne ein implmentiertes v-log nutzen, leider ist das in Vegas derzeit nicht vorhanden - und in Edius 8 wird das wohl vermutlich irgenwann kommen dauert aber noch.

Edit: wer sich damit mathematisch präziser befassen will, findet hier die entsprechenden Unterlagen:

http://pro-av.panasonic.net/en/varicam/hs/dl.html

Space


Antwort von CameraRick:

"Heilig ist was dem Heiland gefällt" meint in dem Fall nur "gut ist, was gefällt". Als ob man selbst der Heiland ist, der Heiland seiner Farben quasi.
Und ja, ist etwas merkwürdig wenn man drüber nachdenkt, ich glaub das ist aus einem Song von Joint Venture.
Es ist schon eher die Frage mit welcher log-Kurve dieses Material halbwegs korrekt dargestellt wird. Korrekt dargestellt für was ist wohl die Frage hier. Wenn Du das flaue Material anschaust ist das zwar nicht schön, aber zeigt Die ganz einfach und korrekt das LOG-Bild. Willst eine korrekte REC709 Vorschau, oder wo bist Du hinterher?

Ich habs erst mal nur in den Nuke eingeladen und verschiedene Linearisierungen ausprobiert, und Cineon kommt für meine Augen am nächsten an das rein, wie linearisiertes LOG idR aussieht. Der Nuke hat aber noch kein V-LOG drin daher kann ich es schlecht sagen, Kurven anzeigen kann ich mir dafür nicht.
Ist aber am Ende des Tages nicht weniger akkurat an einer korrekten Darstellung als der Sichtvergleich von zwei verschiedenen Monitoren (auf was ist denn der Shogun geeicht? Und auf welches Umgebungslicht etc?)

Ich hab mir von Panasonic mal die offizielle V-LOG zu REC709 LUT geladen, die verhält sich auch anders als Cineon ist aber deutlich näher daran als an ARRIs LogC. Am nächsten dran kommt für mich übrigens Slog1, jetzt wo ichs mit der LUT vergleiche.
Macht für mich auch deutlich mehr Sinn, so steil wie AlexaV3LogC im Vergleich verläuft; Slog und Cineon sind sich schon ähnlicher (Mit Helligkeitsunterschied)

Space


Antwort von wolfgang:

Meine Meinung dazu: die Darstellung soll dem Original zunächst möglichst oder angemessen nahe sein. Bevor ich das nach meinen Wünschen grade. Bis auf Weiteres orientiere ich mich daher an der Shogun Abbildung (das Material wurde damit geschossen, v-log ist dort implementiert, das Display ist geeicht). Zumindest in Vegas ist slog weiter von dieser Referenz weg als die Arri log Kurve. Aber es sind ja erst erste Testfiles, und sollte die GH4 v-log endlich erlernen kann man über Referenzen viel besser und messend nachdenken.

Die Panasonic Kurve v-log zu 709 habe ich ebenfalls gefunden und runter geladen, die lade ich mir noch zum Vergleich in den Shogun.

Erkennbar ist in jedem Fall an diesen Beispielen, dass die Kombi aus GH4 und Shogun hier nochmals aufgewertet werden wird. Die Abbildungen der Haut in dem Porträt sind schon sehr gut, damit gewinnt die Kamera durchaus dazu.

Space


Antwort von CameraRick:

Das Original ist das LOG Bild, nicht irgendeine bunte Darstellung im Shogun.
Der Shogun hat eine LUT implementiert, was macht die, wissen wir das? Ist das eine einfach REC709 LUT oder doch etwas anderes (vielleicht sogar die gleiche Panasonic LUT)? Nur weil der V-Log drin hat heißt das noch lange nicht, dass es die "Korrekte" Interpretation ist; schau mal in den ARRI Online LUT Creator, dann weißt vielleicht was ich meine. "Korrekt" gibt es hier eigentlich nicht, nur verschiedene Preview-LUTs.
Und worauf ist denn der Shogun nun geeicht? Oder gibts seit neustem eine Universelle Farb-Eichung? Und wie ist der Monitor kalibriert, mit dem Du es vergleichst? Da sind ja sehr viele Stolpersteine. Da wir keine Linearisierungskurve haben sondern lediglich eine nach REC709 ists schwer nun ein "korrektes" Bild zu kriegen, aber ARRIs LogC ist da leider ganz sicher der falsche Weg

Damit die LUT für mich funktionierte musste ich den Header umschreiben, weiß nicht ob der Shogun auch so mit klar kommt, nur als Tipp falls es nicht klappt :)

Space


Antwort von WoWu:

@ Wolfgang

V-Log entspricht nicht 709 sondern liegt ausserhalb des Standards.

Aber sag mir doch mal, was Du Dir von v-Log versprichst ?
Ausser, dass Panasonic den, im amerikanischen markt üblichen OffSet von 7.5 IRE darin berücksichtigt, ist der einzige Unterschied zu linearer Aufzeichnung der, dass man die unteren 3-4 Blenden schon fast nicht mehr nutzen kann, weil sie bei 10 Bit nur noch mit rd. 16 Werten pro Blende auflösen.
Berücksichtigt man, dass der Clipwert der VariCam, für die das V-Log eigentlich gedacht ist, bei 911 seinen Clipwert hat (und da wird die GH4 bestimmt nicht besser sein), werden daraus rd. 11 Blenden in einem quasi linearen Verlauf, mit einer durchschnittlichen Auflösung von 70 Werten pro Blende, mit dem Du arbeitest.
Nur zum Vergleich: die Cineon Kurve nutzt 96 Werte/Blende.

Du hast also insgesamt 783 Werte in 10 Bit, von denen Du rd. 710 aktiv nutzt.
Zum Vergleich: in REC709 -10Bit hast Du 876 Werte -LIN-(64-940)

Ich kann da den "sagenumwobenen" Gewinn gegenüber Lin noch nicht erkennen.
Wo also ist der Vorteil, ausser dass man das IRE Offset hat, was uns hier wenig nutzt.

Space


Antwort von dienstag_01:

Ist doch Wurscht, wolln doch alle haben ;)

Space


Antwort von WoWu:

Ja, aber das ist das, was ich gemeint habe.
Da hat irgendjemand mal was von V-LOG gehört, womit Panasonic wahrscheinlich das Prozessing in ihren VariCams optimiert und jeder Fotoapparatbesitzer meint, damit nun das Wunder der Technik zu bekommen, statt sich mal anzuschauen, was da wirklich passiert.

Na, vielleicht erfahren wir es ja noch.
Die Kurve liegt vor und die Werte ebenso.
Mal sehn, wo da der "Kick" sein soll.

Space


Antwort von Spaceman:

Kein Log kein Filmlook.
So einfach ist die Formel! *





* Das ist der Grund warum es jeder haben will :-)

Space


Antwort von WoWu:

Dann erklär doch mal, was Du bei V-LOG für einen "Film-Look" siehst.
Das ist vermutlich genauso wie 4K ... Hauptsache, es steht drauf.

Space


Antwort von wolfgang:

V-Log entspricht nicht 709 sondern liegt ausserhalb des Standards. Liegen s-log, s-log2 und c-log innerhalb des Standards? Ist es nicht so dass diese Kurven die Signalüberführung nach rec 709 erledigen sollen - und erledigen sie das nicht?
Aber sag mir doch mal, was Du Dir von v-Log versprichst ? Das was sich wohl alle von c-log oder s-log oder v-log versprechen: nämlich einen größeren Dynamikbereich und Schutz vor dem Ausbrennen im hellen Bildmaterial. Und eine verbesserte Darstellung in den sensitiven Bildbereichen etwa zur Darstellung von Hauttönen.

Ausser, dass Panasonic den, im amerikanischen markt üblichen OffSet von 7.5 IRE darin berücksichtigt, ist der einzige Unterschied zu linearer Aufzeichnung der, dass man die unteren 3-4 Blenden schon fast nicht mehr nutzen kann, weil sie bei 10 Bit nur noch mit rd. 16 Werten pro Blende auflösen.
Berücksichtigt man, dass der Clipwert der VariCam, für die das V-Log eigentlich gedacht ist, bei 911 seinen Clipwert hat (und da wird die GH4 bestimmt nicht besser sein), werden daraus rd. 11 Blenden in einem quasi linearen Verlauf, mit einer durchschnittlichen Auflösung von 70 Werten pro Blende, mit dem Du arbeitest. Grundsätzlich danke für die Analyse dieser Kurve. Das wird schon so sein wie du sagst - dass etwa im unteren Bereich der Kurve nur noch wenige Werte pro Blende zur Verfügung stehen. Geht man davon aus, dass die sich aber etwas bei diesen Kurven gedacht haben (sollten), dann wird das aber in Wirklichkeit das üblichen Bild sein. Auch die Arri-Kurven sehen grundsätzlich nicht anders aus - aus Sicht der Kurvenform.

Und dass die unteren Bereiche eher wenige Werte auflösen können ist vielleicht beabsichtigt - denn im Schwarzbereich braucht man das vermutlich nicht einmal. In anderen Bereichen, wo für den Betrachter die interessante Bildinformation sitzt, ist eine durchschnittliche Auflösung pro Blende von 70 Werten bei 10bit noch nicht mal schlecht (was wäre der Vergleichswert bei 8bit? 20 Werte pro Blende?). Also so gesehen erscheint es mir schon grundsätzlich vernünftig, dass die Kurve nicht völlig linear ist. Ob es das ist, sei dahin gestellt.

Nur zum Vergleich: die Cineon Kurve nutzt 96 Werte/Blende.

Du hast also insgesamt 783 Werte in 10 Bit, von denen Du rd. 710 aktiv nutzt.
Zum Vergleich: in REC709 -10Bit hast Du 876 Werte -LIN-(64-940)

Ich kann da den "sagenumwobenen" Gewinn gegenüber Lin noch nicht erkennen.
Wo also ist der Vorteil, ausser dass man das IRE Offset hat, was uns hier wenig nutzt. Wenn die Cineon Kurve um soviel besser ist - warum baut dann Pansonic so eine Kurve?

Aber wenn die unfähig sein sollten - gut auch eine Mögichkeit. Stellt sich dann nur die Frage nach der praktischen Alternative: In welcher Kamera der Preisklasse der GH4 bekommen wir den die Cineon Kurve?

Ich weiß nicht wer von einem "sagenumwobenen Gewinn" gesprochen hat. Die allgemeine Erwartungshaltung ist halt eine gewisse Bildverbesserung, aber was man auch immer wieder hört ist dass so eine Kurve kein magisches Portal ins gelobte Land ist. Eine GH4 wird dadurch sicherlich keine Red oder Arri.

Sollte das Feature überhaupt kommen wird es daher spannend sein zu sehen was es in der Praxis bringt. Aber ob sich hier die Pansonic-Consumerschiene gegenüber der Panasonic-Broadcastschiene durchsetzt bleibt abzuwarten, wie man so fallweise hört. Problem sehe ich darin aber keines: den entweder sind diese Kurven eh alle eher unnötig, dann ist es egal ob es kommt. Und wenn sie doch was bringen sollten freuen sich die Anwender darüber.

Andererseits stellt sich schon die Frage, wie das im Verhältnis zu den anderen Kurven in ähnlich erschwinglichen Geräten aussieht. Sony hat gerade seine neuen s-log2 Geräte auf den Markt geworfen, und viele freuen sich darüber und fahren auf s-log2 ab. Und die arbeiten noch dazu alle mit 8bit? Was ist dann die Logik dahinter? Pure Vermarktung?

Space


Antwort von srone:

für mich ist das eine bildästhetische frage, mir persönlich ist lineares rec 709 einfach zu hart in seiner bildanmutung, diese härte rauszugraden ist nahezu unmöglich. ein log signal gibt mir allerdings, eingeschränkt auch in 8bit, die möglichkeit mich meiner gewünschten bildästhetik anzunähern.

das erfordert allerdings ein gewisses gradingverständnis, hier einfach eine lut draufzulegen welche dann rec 709 macht, ist gelinde gesagt ein witz, dann kann ich nämlich gleich so aufzeichnen, zu gewinnen gibt es da gar nichts.

lg

srone

Space


Antwort von WoWu:

Liegen s-log, s-log2 und c-log innerhalb des Standards? Ist es nicht so dass diese Kurven die Signalüberführung nach rec 709 erledigen sollen - und erledigen sie das nicht? Nein, durchaus nicht denn wir haben es mit zwei grundverschiedenen Dingen zu tun.
Ein Standard soll ja Bilder kompatibel machen und eine einheitliche Bildqualität sicherstellen bzw. auf die Performanz der Kamera reduzieren.
Die LOG Kurven machen ja eher das Gegenteil und sind alles Andere als kompatibel. Das was sich wohl alle von c-log oder s-log oder v-log versprechen: nämlich einen größeren Dynamikbereich und Schutz vor dem Ausbrennen im hellen Bildmaterial. Diesen Schutz macht nicht die Kurve sondern eine korrekte Belichtung, denn die Kurve überträgt nur das, was der Sensor an Belichtung bekommen hat.
Die Kurve ist eine reine Übertragungsfunktion, die den kamerawerten angepast ist. Es findet also neben einem Mapping auch eine Optimierung der Kamerawerte statt. dass die sich aber etwas bei diesen Kurven gedacht haben (sollten) Das genau glaube ich, hat hier stattgefunden ... eine Werteoptimierung und ein Offset.
Wenn die Cineon Kurve um soviel besser ist - warum baut dann Pansonic so eine Kurve? Ich hab die Cineon mal dazugestellt. Die hat eine völlig andere Aufgabe und Funktion.
Man darf nicht jede LOG Kurve über einen Kamm scheren. Das sind absolut unterschiedliche Dinge und jeder sollte die Funktion benutzen, die er in seinen Workflow am besten gebrauchen kann, um vorbestimmte Ziele zu erreichen.

Leider geht das wirklich manchmal nach dem Motto:
Kein Log kein Filmlook. Da kann man mal sehn, wie schwachsinnig das ist.

Und was V-Log angeht, habe ich den linearen Teil mal markiert. Man sieht, dass da von 709 über den grössten Teil nichts abweicht.
Ich denke mal, die meisten sehen nur das Offset, das uns hier in Europa nichts bringt und die Abweichung sehen die Meisten gar nicht.
Die Auflösung ist bei 10 Bit ohnehin ok.

Also. V-LOG kannst Du getrost als "Besonderheit" vergessen denn es ist im Vergleich zu andern LOG Kurven etwas ganz anderes und verfolgt vermutlich auch ganz andere Ziele und kein Um-mapping in den mittleren Bereich.

Space


Antwort von WoWu:

für mich ist das eine bildästhetische frage, mir persönlich ist lineares rec 709 einfach zu hart in seiner bildanmutung, diese härte rauszugraden ist nahezu unmöglich. ein log signal gibt mir allerdings, eingeschränkt auch in 8bit, die möglichkeit mich meiner gewünschten bildästhetik anzunähern.

das erfordert allerdings ein gewisses gradingverständnis, hier einfach eine lut draufzulegen welche dann rec 709 macht, ist gelinde gesagt ein witz, dann kann ich nämlich gleich so aufzeichnen, zu gewinnen gibt es da gar nichts.

lg

srone Moin sron

Ich bin auch weit entfernt davon, zu sagen, LOG sei überflüssig.
Nur sollte jeder, der damit umgeht besser wissen, was er da tut, denn die Werte, die nichtmehr übertragen werden, sind unwiederbringlich verloren und das Resultat sieht man dann in den Ergebnissen, wo Luma mit Chroma im sogenannten "Grading" verwechselt wird und Bilder entstehen, aus denen man die Verzweiflung des "Graders" ablesen kann, bzw. seine Hilflosigkeit.

Und YT und VIM sind voll davon.

Und das Verständnis mit der LUT ist falsch denn die LUT zieht es erst in den sichtkorrekten Bereich, aber die mehrfachen Werte im Graubereich sind ja noch da und können auch aus der korrigierten Sicht stärker gewichtet werden.
In einer LIN Aufzeichnung fehlen diese Werte einfach völlig und man hat da nicht zum graden.
Also LUT ist schon als Ausgangspunkt für ein Grading ok.

Space


Antwort von srone:

ich denke eines der grössten probleme ist die tatsache, dass die wenigsten den gesamten workflow in all seinen konsequenzen überschauen und somit nicht in der lage sind, im vorfeld zielgerichtete entscheidungen zu treffen.

lg

srone

Space


Antwort von srone:

Und das Verständnis mit der LUT ist falsch denn die LUT zieht es erst in den sichtkorrekten Bereich, aber die mehrfachen Werte im Graubereich sind ja noch da und können auch aus der korrigierten Sicht stärker gewichtet werden.
In einer LIN Aufzeichnung fehlen diese Werte einfach völlig und man hat da nicht zum graden.
Also LUT ist schon als Ausgangspunkt für ein Grading ok. ist dann halt eine doppelverbiegung. :-)

lg

srone

Space


Antwort von WoWu:

Nee,nee, wenn das ein Arbeitsschritt ist und kein Render,dazwischen liegt, dann nicht.

Ich geb' Dir mit dem Überblick Recht.
Nur sollte man sowas dann eben nicht benutzen, wenn man nicht weiss, wie's funktioniert.
Wie gesagt. Hauptsache, es steht drauf. Das ist dann einfach cool.

Space


Antwort von wolfgang:

Also. V-LOG kannst Du getrost als "Besonderheit" vergessen denn es ist im Vergleich zu andern LOG Kurven etwas ganz anderes und verfolgt vermutlich auch ganz andere Ziele und kein Um-mapping in den mittleren Bereich. Ich bin da Anwender, aber nach dem was ich mir gerade zu s-log und s-log 2 in den Sony white papers angesehen habe schauen mir diese Kurven nicht dramatisch anders aus als die publizierten v-log Kurven.

Wunder wird man sich nicht erwarten dürfen, da bin ich bei dir. Aber da Canon und Sony in dem Preisbereich der GH4 auch ihre Kurven implementiert haben, ist es spannend ob da zur GH4 noch was kommt oder ob eben nichts mehr kommt. Die Kamera ist ja inzwischen "uralt" und eine Cashcow für Pansonic, deren Leben man vielleicht doch noch verlängern könnte wenn man v-log freigibt. Denn in vielen internationalen Foren sind die User ganz wild auf diese Sache, etwa hier:

http://www.dvxuser.com/V6/showthread.ph ... log/page53

Mag aber alles nichts an technischen Fakten ändern, das ist klar. Daher ganz pragmatisch: wir werden ja sehen ob da von Panasonic überhaupt was kommt, und was da kommt. Und dann wir sich zeigen was man damit machen kann.

Space


Antwort von WoWu:

Na, ich weiss nicht, aber es findet sich auf keiner der Kurven ein gradliniger Verlauf und es ist ja auch die Besonderheit solcher Übertragungsfunktionen, den Wertebereich in etwa Drei-drittel zu mappen, um den Mittleren Bereich gegenüber dem Hellbereich stärker zu gewichten.

V-LOG macht, speziell im hellen Bereich absolute Linearität. Woher sollen also die Werte für den Graubereich kommen ?

Aber lass sie euphorisch sein. Solange Euphorie da ist, wird der Platz für neue Erkenntnisse freigehalten.
Man lernt ja nie aus.
Meine Prognose ist, dass Du, wenn Du das Offset korrigiert hast, kaum einen Unterschied zu 709 sehen wirst.

Warten wir also mal ab, ob Panasonic das überhaupt für die GH4 rausbringt.

Space


Antwort von wolfgang:

In der letzten Grafik ist aber offenbar v-log nicht enthalten.

Wobei etwa bei der DVX200 die Rede von v-log v ist. Was die Möglichkeit offen läßt, dass dies etwas anders ist als v-log. Glaub ich aber nicht.

Bei der DVX200 hört man von Testern die ersten Aussagen, dass v-log sehr wohl was bringen würde. Na man wirds sehen, zumindest bei dem Gerät.

Und vielleicht spielt Panasonic das ja so, dass sie das erst nach der DVX200 rausbringen - um Käufer von der eher jetzt schon eher umstrittenen Kamera nicht abzuhalten - die Enttäuschung, dass nicht mal bei HD 422 in 8bit oder gar 10bit möglich war, scheint viele abzuschrecken. Die fragen sich wozu sie investieren sollen, bis auf den Formfaktor des Gehäuses können sie ja technisch eigentlich gleich bei der GH4 bleiben.

Space


Antwort von Spaceman:

Wie man an der Diskussion unschwer erkennen kann hat keiner wirklich den Elementaren Sinn von Log als Basis für den Filmlook verstanden.

Wer anfängt über Log Material eine inverse Lut zu legen kann gleich in Rec709 filmen. Bei denen ist Hopfen und Malz verloren und ich wünsche viel Spass beim Videolook ;-)

Leider kann ich nicht mehr vom Geheimnis Filmlook preisgeben weil mir sonst halb Hollywood aufs Dach steigt. Der einzige Unterschied zwischen Hollywood und Ottonormalverbraucher ist ja heutzutage nur noch das Color Grading. Workflow und Technik haben ja mittlerweile beide Seiten schon das gleiche ...

Space


Antwort von CameraRick:

Wie der Spaceman das schon schreibt, das hat was herrliches. Immer dieses Wort wiederholt, "Filmlook", das hat was manisches. Find ich prima.

Space


Antwort von domain:

Der Sinn von Log-Aufzeichnungen lag ursprünglich ja in der Simulation von Negativfilmen. Die hatten die Besonderheit, dass die Dichtekurve mit zunehmender Sättigung in den Lichtern immer flacher verlief, aber dennoch auswertbar war, also gut für sanften Rolloff.
Kann man zwar nicht direkt mit der spezifischen Optimierung hinsichtlich DR von Sensoren vergleichen, aber die Idee an sich ist schon ok.
Nur scheint es derzeit eine zu große Menge an unterschiedlichen Log-Aufzeichnungen und auch an Missverständnissen zu geben, die sogar darauf hinauslaufen einen bestimmten Look schon über die primären Korrektur-LUTs zu erreichen, die eigentlich nur die Kamerahersteller für den speziellen Sensor liefern können, wobei diese LUTs, so wie ich das verstehe, zunächst nur einer korrekten Betrachtungs- und Beurteilungsmöglichkeit dienen, die eigentlichen Möglichkeiten der Log-Aufzeichnung für eine Nachbearbeitung aber dennoch erhalten bleiben.

Space


Antwort von domain:

Dahinter steckt halt der Wunsch, auch mal großes Kino im Kinolook machen zu wollen. Zum Glück ist das nicht so einfach. Deutsche können das mit div. Ausnahmen halt einfach nicht und das hat mit Technicolor so gut wie gar nichts zu tun.
Schon Klaus Kinski hatte Probleme mit Werner Herzog und das lag nur am biederen Werner ;-)



Space


Antwort von wolfgang:

Nur den geheiligten Filmlook anbeten zu sollen oder gar müssen, finde ich fast schon süss. Mir ist das recht egal. Verschiedene Filme verschiedene Looks. Abgesehen davon hat keiner gesagt dass es nur um den inversen LUT geht. Ist ja nur ein Schritt. Ansonst ist es schön bei 45% zu sein. ;)

Space


Antwort von WoWu:

Moin Wolfgang
Mir ging es bei den Kurven auch nicht um einen Darstellungsvergleich und daher ist die gleichzeitige Darstellung des V-Log auch nicht nötig.
Bei Kurven geht es ja um die Funktion und, egal, wie die Kurve dargestellt ist, kann man von jeder Kurve deren Funktion ablesen, -also in diesem Fall, wieviele Übertragungswerte in Bezug auf die Lichtmengen angewandt werden-.
Und da sieht man sehr schnell, dass deutliche Unterschiede vorliegen.
Dazu muss man die Kurven nicht 1:1 aufeinander legen, um das festzustellen.

@domain
Den Logarithmus hat man keineswegs erschaffen, Filmkurven nachzubauen sondern um die Schwächen der Videokameras zu kompensieren, die sich aus der Art und Funktion der Sensoren ergab, nämlich den schlechten Störabstand in dunklen Bereichen. Dadurch, dass 50% der Übertragung für nur eine Blende draufging.
Aus Gründen zu geringer Rechnerleistung hat man nur eben mit dem "Knie" angefangen. Aber zu Zeiten, als die Filmemacher noch mit Dunkelsack gearbeitet haben gab es das schon.
Das hatte noch keiner im Sinn, Filmkurven nachzuvollziehen, weil sich kein Filmemacher vorstellen könnte (wollte) eines Tages mit solchem Teufelszeug zu arbeiten, von dem sie noch dazu Null Ahnung hatten. (ob sich das nun wirklich gebessert hat, weiß ich nicht. Jedenfalls kommen mir da oft gelinde Zweifel).

Space


Antwort von domain:

@ WoWu
Naja Arri beschreibt ihre Log-Files ja so:

Zitat:
„The overall shape of the Log C curve is similar to the exposure curves of film negatives“

Also so ganz daneben liege ich wohl nicht, auch wenn du hinsichtlich der erweiterten Funktionen in der Folge recht hast.
Aber nichts anderes habe ich ja weiter oben auch geschrieben.

Space


Antwort von Spaceman:

Gut so Domain, der heilige Gral ist nicht mehr weit weg!

Es erwähnen also 2 unbedeutende Firmen aus der Filmbranche, Technicolor und Arri, die zwei Worte "Log" und "filmisch" im gleichen Wort/ Satz.
Ob da wohl ein Zusammenhang besteht??? ;-)

Bin mal gespannt wann sich die ersten aus der Diskussion klammheimlich ausklinken wenns klick gemacht hat.

Ich fürchte schon um meine 6stelligen Filmlook Berater Einkünfte :-(


Wolfgang: noch ganz kalt, völlig falsche Richtung

WoWu: irgenwie warst Du mal dran, driftest jetzt aber wieder drumherum und eher weg in Richtung Videolook, also auch eher kühl bis kalt

CameraRick: sehr kalt da Du Dir eher selbst im Weg stehst

Space


Antwort von WoWu:

@ WoWu
Naja Arri beschreibt ihre Log-Files ja so:

Zitat:
„The overall shape of the Log C curve is similar to the exposure curves of film negatives“

Also so ganz daneben liege ich wohl nicht, auch wenn du hinsichtlich der erweiterten Funktionen in der Folge recht hast.
Aber nichts anderes habe ich ja weiter oben auch geschrieben. Schon richtig, das hat sich dahin entwickelt. Nur war es nicht der Grund, warum man das Knee, als Ausgangspunkt der Übertragungsfunktion eingeführt hat.
Denn, wie gesagt, die Funktion war lange vor den Filmemachern da.
Und wenn Anwender, wie Spaceman vom Filmlook sprechen, dann verwechseln Sie ohnehin LOG mit LOOK. Denn das Log hat seine primäre Auswirkung in der Dynamik und nicht im Grading.
Aber solche Feinheien sind natürlich nichts für Filmemacher. Deswegen kommt auch oft so ein Murcks dabei raus.

Space


Antwort von Spaceman:

@WoWu: na mit der Aussage "Denn das Log hat seine primäre Auswirkung in der Dynamik und nicht im Grading" schiesst Du Dich jetzt aber meilenweit vom heiligen Gral Filmlook weg. Ganz kalt. Schade, hab schon gedacht Dein um den Brei rumtanzen führt mal zu was.

Puh, hab ich Glück gehabt weil mein Berater Budget wieder gesichert ist ;-)

Space


Antwort von WoWu:

Nein, ich differenziere nur sehr genau und werfe nicht alles in einen Topf, wie Du.
Aber Du sagst ja selbst, Du hast von Grading keine Ahnung.
Es wundert mich also nicht wirklich, dass Du das nicht nachvollziehen kannst.

@domain

Dass der Kurvenverlauf nicht die primäre Ursache ist, sieht man daran, dass man selbst aus einem 12/14 Bit linearem Material die identischen (und bessere) Ergebnisse erzielen kann. Es hat also nichts mit LIN/LOG zu tun sondern nur mit Dynamikverteilung innerhalb einer limitierten Übertragung.
Es kommt nur darauf an, in welchem Bereich man bei welcher Dynamik welche Wertemengen hat.
Es hat also primär gar nichts mit dem LOOK zu tun ... erst da, wo technische Limits so gross werden, dass man zu solchen Verdeckungen greifen muss.

Space


Antwort von wolfgang:

Moin Wolfgang
Mir ging es bei den Kurven auch nicht um einen Darstellungsvergleich und daher ist die gleichzeitige Darstellung des V-Log auch nicht nötig.
Bei Kurven geht es ja um die Funktion und, egal, wie die Kurve dargestellt ist, kann man von jeder Kurve deren Funktion ablesen, -also in diesem Fall, wieviele Übertragungswerte in Bezug auf die Lichtmengen angewandt werden-.
Und da sieht man sehr schnell, dass deutliche Unterschiede vorliegen.
Dazu muss man die Kurven nicht 1:1 aufeinander legen, um das festzustellen. Das ist für mich auch absolut ok - ich bin halt nur gespannt, ob die GH4 Gemeinde enttäuscht sein wird wenn v-log für die GH4 doch kommen sollte. Oder ob das nicht der Falls sein wird.

Und natürlich was man selbst von dieser Funktion haben wird - denn ich erwarte mir hier schon von der recht flachen Kurve die üblicherweise versprochene Erweiterung des Dynamikumfanges.

Der Rest - 1000 Rosen. Die Vermischung von Look und Filmlook ist mir eher egal, die hier gerade läuft. Um das gehts hier überhaupt nicht.

Space


Antwort von CameraRick:


Der Rest - 1000 Rosen. Die Vermischung von Look und Filmlook ist mir eher egal, die hier gerade läuft. Um das gehts hier überhaupt nicht. Ich bin ja selbst nicht besser aber ich sage es nochmal: es ist ein ziemlich aggressiver bekannter Troll. So versessen auf ein Wort dass ihm gar nicht auffällt, dass manch einer es entweder nicht braucht, oder darunter mehr als ein Wort und 'geheime Infos' versteht. Wie meine Sandkastenbekanntschaft von damals.

Ich hoffe The Foundry baut bald die Kurve ein, wäre mal spannend. Da fällt mir ein ich wollte noch mal bei BMD nachfragen...

Space


Antwort von mash_gh4:

Da fällt mir ein ich wollte noch mal bei BMD nachfragen... in resolve 12 ist panasonic v-log unterstützung drinnen! ;)

allerdings nur die richtige 10bit v-log version, wie sie in der varicam u.ä. zur anwendung kommt.

es hat zwar von panasonic immer wieder geheißen, dass diese geheimnisvolle 'lite'-variante auf exakt der selben formel basieren soll und nur die letzten beiden lw-stufen nicht genutzt werden, trotzdem ist bisher bspw. reichlich unklar, wie das ganze auf 8-bit gemappt wird, etc? es bleibt also ein ziemliches fragezeichen, wie weit GH4 output tatsächlich unterstützt wird.

Space


Antwort von klusterdegenerierung:

Das wird sowie so nicht mehr kommen, höchsten ein dreiviertel Jahr nach der GH5 die standartmässig V-Log hat!

Space


Antwort von mash_gh4:

Das wird sowie so nicht mehr kommen, höchsten ein dreiviertel Jahr nach der GH5 die standartmässig V-Log hat! ich seh das leider ganz ähnlich! :(

im übrigen finde ich es ohnehin ziemlich ärgerlich, dass sich alle leute ständig an derartige vage hoffnungen klammern und darüber ganz vergessen, dass man eigentlich viel großzügigere verbesserungswünsche einfordern sollte. ich würde also weiterhin den zugriff auf raw-daten für mindestens gleich wichtig halten. ;)

Space


Antwort von klusterdegenerierung:

Paah Raw, dagegen ist Log ja ein Pfurz :-)

Space


Antwort von wolfgang:

Wir werden ja sehen ob v-log in der GH4 noch kommt.

Zugriff auf raw Daten bei der GH4, die intern nur in 8bit 420 aufzeichnet und wo auch die DNX200 nicht den kleinsten Schritt in diese Richtung setzen? Also ich habe den Eindruck davon ist Panasonic weit weit entfernt.

Und auch der Shogun ist maximal die Umsetzung von raw der FS-Serie, zu ProRes jetzt mit Firmware 6.4 implementiert, bei 6.5 kommt noch die Aufnahme zu CDNG. Mehr hat auch Atomos dazu nicht gesagt.

Space


Antwort von WoWu:

im übrigen finde ich es ohnehin ziemlich ärgerlich, dass sich alle leute ständig an derartige vage hoffnungen klammern und darüber ganz vergessen, dass man eigentlich viel großzügigere verbesserungswünsche einfordern sollte. ich würde also weiterhin den zugriff auf raw-daten für mindestens gleich wichtig halten. ;) Weil (leider) mittlerweile -wie der Troll- solche Übertragungskurven mit dem "geheimnisvollen Hollywood Look" verwechseln und immer mehr Fotoapparate in deren Händen landen.
Die Zeit der richtigen Kameraleute ist offenbar vorbei.

Space


Antwort von klusterdegenerierung:

Wir werden ja sehen ob v-log in der GH4 noch kommt.

Zugriff auf raw Daten bei der GH4, die intern nur in 8bit 420 aufzeichnet und wo auch die DNX200 nicht den kleinsten Schritt in diese Richtung setzen? Also ich habe den Eindruck davon ist Panasonic weit weit entfernt.

Und auch der Shogun ist maximal die Umsetzung von raw der FS-Serie, zu ProRes jetzt mit Firmware 6.4 implementiert, bei 6.5 kommt noch die Aufnahme zu CDNG. Mehr hat auch Atomos dazu nicht gesagt. Nene, das müßte wenn so eine Magic Lantern Geschichte sein, die nicht nur 8Bit abgraben.

Space


Antwort von klusterdegenerierung:

WoWu, mal ne Frage am Rande, bist Du eigentlich hier der mit den meisten Beiträgen von allen?

Space


Antwort von WoWu:

Nee, ganz sicher nicht.
Aber die Menge der Beiträge ist auch nicht wirklich relevant.
Ich denke, es ist eher die Frage der Inhalte.
Und da gibt es eine Menge guter Leute hier, die mehr, als nur andere Blockbeiträge verlinken oder zu sagen "probier's doch aus".
Ob so ein Posting nun zählt oder in China 'n Sack Reis umfällt.
Zahlen sind also "Schall & Rauch".

Space


Antwort von motiongroup:

Ich finde die Diskussion schon sehr interessant ungeachtet aller verbalen Ausbrüche..

Was geschieht unabhängig ob es nun c-log, v-log, s-log sei mit dem Material wenn bspw davinci oder wie in meinem Fall fcpx die jeweilige LUT angewendet wird? Bei der bmcc oder bmpcc wird mit dieser in Richtung rec709 angepasst.. Wie sieht das nun bei c-log, v-log, s-log aus.?
geht die gewonnene Information nicht wieder verloren?

Noch ne Frage dazu, v-log bei der gh4, alle warten darauf und ich frage mich ob Cinelike-D wenn an den Werten geschraubt quasi mit dem Modewort Flat umschrieben nicht ähnliches erreicht wird.? Im Netz gibt's eh einiges dazu und irgendwie kann ich mich des Eindrucks nicht erwehren, dass das Warten auf V-log eher unnötig ist..

Space


Antwort von wolfgang:

Das sind zwei interessante Fragen, ich weiß nicht recht ob ich darauf eine umfassende Antwort habe.
Was geschieht unabhängig ob es nun c-log, v-log, s-log sei mit dem Material wenn bspw davinci oder wie in meinem Fall fcpx die jeweilige LUT angewendet wird? Bei der bmcc oder bmpcc wird mit dieser in Richtung rec709 angepasst.. Wie sieht das nun bei c-log, v-log, s-log aus.?
geht die gewonnene Information nicht wieder verloren? Die im Shogun implementierten Luts sind offenbar in Richtung rec709 wirkend - also in die umgekehrte Richtung gehend. Tatsächlich gibt es dazu sogar 2 Einstellvarianten:
- man konfiguriert den Shogun so dass man diese Wirkung NUR in der Vorschau hat. Das erlaubt dir die Kontrolle - denn mittels so Dingen wie Waveform Monitor kann man hier prüfen ob die Einstellungen ok sind. Aufgezeichnet wird dann aber die flache Kurve ohne LUT - was einem in der späteren Postpro mehr Möglichkeiten gibt (denn wer sagt den dass ich dort genau diesen Lut anwenden muss?)
- die andere Einstellmöglichkeit - der Shogun zeigt das in der Vorschau her UND wendet es den Lut in Richtung 709 auf die Aufzeichnung an. Heißt - ich kann kontrollieren ob die Kamera trotz log-Einstellung richtig eingestellt ist, und aufgzeichnet wird dann gleich das zurück gerechnete rec709 Material.

Mir fehlt noch die Erfahrung damit, einfach weil die GH4 das ja noch nicht kann. Die zweite Variante erscheint mir (aus eher theoretischer Betrachtung) eher sinnlos - da könnte ich ja gleich direkt in rec709 aufzeichnen. Die erste Variante ist vielleicht viel sinnvoller.

DAS gilt jetzt alles im Zusammenspiel mit dem Shogun. Ohne Shogun stehst vermutlich schlechter da, wenn keine Kontrollmöglichkeit in der GH4 vorgesehen werden wird?

Grundsätzlich wird man das Material ja in Richtung rec709 "entwickeln" müssen, das ist schon klar. Hoffentlich mit dem versprochenen größeren Dynamikumfang - an dem man aber auch nach dieser Diskussion schon zweifeln kann.

Noch ne Frage dazu, v-log bei der gh4, alle warten darauf und ich frage mich ob Cinelike-D wenn an den Werten geschraubt quasi mit dem Modewort Flat umschrieben nicht ähnliches erreicht wird.? Im Netz gibt's eh einiges dazu und irgendwie kann ich mich des Eindrucks nicht erwehren, dass das Warten auf V-log eher unnötig ist.. Man kann bei der GH4 neben Cinelike-D auch ohne v-log ein sehr flaches Profil erstellen, das geht durchaus. Wählt man highlicht -5 und shadow +5 dann verflacht man die Gamma-Kurve beträchtlich. Nimmt man noch den Kontrast maximal zurück bekommt man ein Bild welches fast schon ähnlich flach ist wie die hier publizierten v-log Aufnahmen (aber noch nicht ganz in die Richtung geht).

Nachteil ist wohl, dass dieses Bild dann keiner normierten Kurve mehr entspricht. Wenn man aber davon ausgeht dass man das Material ohnedies entwickeltn will, könnte man das noch hinnehmen. Ob das mit der internen 8bit 420 Aufnahme empfehlenswert ist, wo viele der Meinung sind dass man bei 8bit das Material nach Möglichkeit so aus der Kamera bekommen sollte wie man es später haben will, steht auf einem anderen Blatt.

Space


Antwort von motiongroup:

Das ist so wie es auch in der Bmpcc und der bmcc verfügbar ist..Rec cinestyle flat und am Monitor Rec709 zur Kontrolle.

Und genau da stellt sich die Frage ob egal was nun von welcher Cam verwendet wird (c-log, v-log, s-log) der Zugewinn an Information bei Verwendung dieser Luts nicht wieder verloren geht wie es Herr Wunderlich und ich hoffe ich habe das richtig interpretiert, geschrieben hat..

Im Falle der bmpcc und bmcc gehen bei uns die Meinungen auseinander. wir hier schielen für den Dokubereich auf die Xc10 und ich kann im Moment noch keine Ja/Nein ist unnötig Aussage treffen da sich das Material noch nicht Nativ verarbeiten lässt und die Umwandlung in Proress nicht als 100% vergleichen lässt..

Space


Antwort von CameraRick:

Da fällt mir ein ich wollte noch mal bei BMD nachfragen... in resolve 12 ist panasonic v-log unterstützung drinnen! ;) Na gut, viel mehr als eine LUT müssen sie da auch nicht aufnehmen um zu "unterstützen", nicht oder...? ;) Ist ja kein Hexenwerk.

Tatsächlich gehts mir aber gar nicht um DaVinci - die einzige Unterstützung die ich im DaVinci da brauche ist das es das Dateiformat lesen kann; ansonsten reicht mir die zum Download bereit gestellte REC709 LUT für Proxys. Gegradet wird da schon eher mit den normalen Tools, aber das ist nicht meine Baustelle :)

Mir gings darum das BMD sich anscheinend weigert, ihr "LOG Rezept" öffentlich zu machen. Das nervt. Ich habe zwar BMDFilm->Lin und Lin-BMDFilm LUTs im DaVinci, aber die helfen mir nicht sehr viel. Ich hätte gern native linearisierungs Kurven innerhalb der Software, nur ist BMD da nicht sonderlich hilfreich.
Ich hab mal aus der besagten Log to Lin LUT eine Kurve gebastelt die ich importieren kann, aber das ist nicht unbedingt akkurat.

Space


Antwort von wolfgang:

Das ist so wie es auch in der Bmpcc und der bmcc verfügbar ist..Rec cinestyle flat und am Monitor Rec709 zur Kontrolle. Ohne so einer Kontrolle ist man halt im Blindflug, und wenn für die GH4 noch v-log kommt dann müßte halt auch eine GH4 interne Kontrollmöglichkeit in rec 709 vorgesehen sein. Und wohl auch bei der DVX200.
Und genau da stellt sich die Frage ob egal was nun von welcher Cam verwendet wird (c-log, v-log, s-log) der Zugewinn an Information bei Verwendung dieser Luts nicht wieder verloren geht wie es Herr Wunderlich und ich hoffe ich habe das richtig interpretiert, geschrieben hat.. Eine mathematische Transformation, wo ich sinngemäß erst 1 wegrechne und dann wieder 1 dazu rechne, muss in Summe wieder das ursprüngliche Ergebnis liefern. Mal von irgendwelchen Rundungs- und Rechenungenauigkeiten abgesehen.

Das ist aber eigentlich trivial und liegt auf der Hand.

Der einzige Sinn der sich mir erschließt ist, dass in Wirklichkeit die Aufzeichnung mit einer in Summe flacheren Kurve erfolgt, in der mehr Informationen enthalten sind als wenn ich das gleich in rec709 mache. Dass man zur Kontrolle bei der Aufnahme eine lut drüber wirft die das zurück nach rec709 transformiert ist die eine Sache. Aber das ist dann doch nicht das was man am Schnittplatz machen muss - sondern dort wird man halt mit den üblichen Methoden Helligkeit und Kontrast einjustieren und das Material entsprechend optimieren.

Wäre das nicht so, dann würde man ja wirklich was falsch machen. Streng genommen gilt das auch für eine raw Aufzeichnung - denn am Ende des Tages wird man die immer für rec709 herrichten müssen. Da könnte man ja auch argumentieren dass man sich das alles sparen kann und gleich in rec709 filmt. Warum macht das dort keiner?

Im Falle der bmpcc und bmcc gehen bei uns die Meinungen auseinander. wir hier schielen für den Dokubereich auf die Xc10 und ich kann im Moment noch keine Ja/Nein ist unnötig Aussage treffen da sich das Material noch nicht Nativ verarbeiten lässt und die Umwandlung in Proress nicht als 100% vergleichen lässt.. Warum eigentlich läßt sich das nicht vergleichen? Häng an die xc10 einen Shogun an, der hat c-log ja implementiert - und liefert ProRes. Sollte eigentlich auch oder gerade für die mac-Welt gehen, besser als für die windoff Welt.

Space


Antwort von klusterdegenerierung:

Nee, ganz sicher nicht.
Aber die Menge der Beiträge ist auch nicht wirklich relevant.
Ich denke, es ist eher die Frage der Inhalte.
Und da gibt es eine Menge guter Leute hier, die mehr, als nur andere Blockbeiträge verlinken oder zu sagen "probier's doch aus".
Ob so ein Posting nun zählt oder in China 'n Sack Reis umfällt.
Zahlen sind also "Schall & Rauch". Relevanz hat mich dabei auch nicht interessiert, war nur reines Interesse!:-)
Weißt Du denn wer es sein könnte?

Space


Antwort von wolfgang:

Laut dieser Mitteilung hier kommt v-log für die GH4 im Oktober. Naja.

https://twitter.com/PanasonicNZ/status/ ... 4268369920

Space


Antwort von motiongroup:

Das ist die Frage ob sie das dann können wird die GH4

In Verbindung mit dem shogun glaube ich das gerne nur verwendet den nicht jeder..

Zur Xc10, erstens verwenden wir keinen shogun und privat brauche ich ihn nicht da mir so ich es überhaupt brauchen würde die Wandlung in meiner nie durchgeführt wird... Die bmcc, bmpcc meiner Kollegen zeichnen ohnehin im passenden Format auf..

Das Demomaterial in c-log mxf avc/300mbit ist im Moment noch bei der Zertifizierung durch Apple und ich werde die Geschichte abwarten wie sich das Ganze danach verhällt.. das gewandelte Material mit brorsoft Konverter ist nicht als Maßstab herzunehmen, egal ob als Prores oder AVC Material.

Divergent EditReady kann sie nicht verarbeiten

http://www.acrok.com/mxf-converter/ Hab ich noch nicht getestet und dürfte einer diese AsienClones like Brorsoft sein..

Space


Antwort von mash_gh4:

Eine mathematische Transformation, wo ich sinngemäß erst 1 wegrechne und dann wieder 1 dazu rechne, muss in Summe wieder das ursprüngliche Ergebnis liefern. Mal von irgendwelchen Rundungs- und Rechenungenauigkeiten abgesehen. diese rundungsfehler sind aber hier genau der springende punkt!

wenn ich denn sinn von log-aufzeichnung richtig verstehe, geht es dabei hauptsächlich um das bemühen, für jeden grauwert bzw. entsprechende abstufung in den farbkanälen möglichst gleich viel zwischenabstufungen bzw. darstellungsgenauigkeit anzubieten. bei den traditionellen verteilung der auzeichnungswerte ist das leider bekanntlich nicht der fall. deshalb kann es dort tlw. sehr eng werden -- d.h. tlw. nur wenige od. auch wieder unnötig viele werte für einzelne zonen zur verfügung stehen.

das kann sich bei der nachbearbeitung oft auch in relativ unerwarteter weise zeigen, wenn es gar nicht so sehr nur um einen offensichtlich ungünstigen grauwert am rande der skalen geht, sondern vielmehr nur ein einzelner farbkanal überstrapaziert wird und dadurch plötzlich entsprechend grobe stufen erkennbar werden.
Man kann bei der GH4 neben Cinelike-D auch ohne v-log ein sehr flaches Profil erstellen, das geht durchaus.
...
Nachteil ist wohl, dass dieses Bild dann keiner normierten Kurve mehr entspricht. Wenn man aber davon ausgeht dass man das Material ohnedies entwickelt will, könnte man das noch hinnehmen. ich glaube "flach" und "gleichmäßige/günstige verteilung der werte" sollte man nicht unbedingt miteinander verwechseln, auch wenn sie beide auf den allerersten blick am rec709 monitor ähnlich flau wirken!

aber ich geb dir recht, dass normierte/kalibrierte moment sollte nicht unterschätzt werden. vernünftiges grading beginnt normalerweise erst dort, wo eine entsprechende 'korrektur' der objektiven aufzeichnungsfehler bereits vorgenommen wurde. wenn man hier einigermaßen geklärter ausgangsbedingungen zur verfügung hat, vereinfacht sich die komplexität des ganzen ungemein. manche ganz elementaren dinge -- bswp. eine nachträgliche farbtemperaturanpassung -- lassen sich ohne solche geklärten/kalibrierten rahmenbedinungen in wahrheit fast nicht sauber durchführen.

Space


Antwort von srone:

Relevanz hat mich dabei auch nicht interessiert, war nur reines Interesse!:-)
Weißt Du denn wer es sein könnte? klick doch oben einfach mal auf mitgliederliste und lass es dir anzeigen ;-)

lg

srone

Space


Antwort von klusterdegenerierung:

Ooh sorry, wußte nicht das es das gibt! :-)
Guck WoWu ist auf dem 3. Platz, aber von Markus habe ich hier noch nie was gesehen! ;-)

Space


Antwort von domain:

Auf so hohe Beitragszahlen kommt man nur, wenn man es als Mission empfindet gegen Unwissenheit oder Unsicherheit anzukämpfen, unendlich lange verbale Scharmützel inkl. gegenseitiger Grenzbeleidigungen miteingerechnet.
Da hat es bisher hauptsächlich zwei Themenbereiche gegeben: 235 vs. 255 und die diversen flachen inkl. der LOG-Kurven.
Sehr ergiebige Themen und endend mit Nestroy und für unsere deutschen Freunde mal nicht mit Hans Moser:



Space


Antwort von klusterdegenerierung:

Guck WoWu ist auf dem 3. Platz Auf so hohe Beitragszahlen kommt man nur, wenn man es als Mission empfindet gegen Unwissenheit oder Unsicherheit anzukämpfen, unendlich lange verbale Scharmützel inkl. gegenseitiger Grenzbeleidigungen miteingerechnet.
Hahahahaha :-)))))

Du bist auf Platz 6 von 1135!!!!

Space


Antwort von motiongroup:

@mash_GH4

so sehe ich das auch, nur worin liegt dann der Sinn ..?

log aufzeichnen LUT drüber und ich bin annähernd dort wo ich ohne Log aufgezeichnet habe....?

Zum Thema cinelikeD und anderen Modus der GH3/4 gibt's doch angepasste LUT Profile ..

Space


Antwort von domain:

@ kluster..
Bei mir und in meinem Alter ist es nur geistige Gymnastik, also eine selbstverordnete Antiverkalkungstherapie. Nicht nur WoWu hat das schon seit längerem erkannt.
Noch immer bietet Slashcam einen gewissen Unterhaltungswert, aber den gibt es auch in dem mich in letzter Zeit interessierenden Husqvarna-Auto-Rasenmäherforum.

Space


Antwort von klusterdegenerierung:

Husqvarna-Auto-Rasenmäherforum. Spitze! Da meld ich mich gleich auch an, wat soll ich auch noch im Touran Forum, da ist eh nix los! :-))

Space


Antwort von mash_gh4:

log aufzeichnen LUT drüber und ich bin annähernd dort wo ich ohne Log aufgezeichnet habe....? ja -- simple look up 'tables' mit stark eingeschränkter auflösung gleich am beginn der verarbeitungskette sind alles andere als ideal...

aber eine vernünftige farbverarbeitung/transformation, bspw. auf basis von OpenColorIO, erhält dir angesprochnen zwischenschritte, aber z.b. auch über die zielwerte hinausreichende information, im zuge der höher aufgelösten internen weiterverarbeitung...

Space


Antwort von domain:

Bin ich begriffstutzig, oder was?
Alle von Rec. 709 abweichenden Aufzeichnungen müssen doch einen Sinn haben und der kann keinesfalls in einem finalen Um- oder Remapping oder einer Linearisierung vor dem eigentlichen Grading liegen.
Wenn, dann haben diese Aufzeichnungsverfahren doch nur einen Sinn, wenn man zwar in 709 betrachten und beurteilen kann, aber im Hintergrund immer noch die deutlich erweiterten Möglichkeiten zum „Grading“ zur Verfügung stehen

Space


Antwort von motiongroup:

Sorry war zu spät dran

http://www.groundcontrolcolor.com/free-gh4-lut.html

Genau das meinte ich, nur woher soll ich das wissen resp. wie kann man das ändern..? Wie erkennt man wann was wo einsetzt wird in der Hierarchie von fcpx bspw..

Wäre interessant zu testen was sich für Unterschiede ergeben..

Wenn es denn funktioniert Domain..

Space


Antwort von mash_gh4:

Spitze! Da meld ich mich gleich auch an, wat soll ich auch noch im Touran Forum, da ist eh nix los! :-)) ich hätte eher vermutet, im Tourette-forum wirds dir zu langweilig :)

Space


Antwort von klusterdegenerierung:

Spitze! Da meld ich mich gleich auch an, wat soll ich auch noch im Touran Forum, da ist eh nix los! :-)) ich hätte eher vermutet, im Tourette-forum wirds dir zu langweilig :) :-)
Da war ich erst gar nicht, nachdem es mir schon im Epileptiker Blog zu schnarchig wurde! :-)

Space


Antwort von klusterdegenerierung:

Ich glaube übrigens, das ich mir den Shogun ohne den FHD Moni, selbst bei günstigeren Preis, nicht gekauft hätte!

Für mich ist dieser fast genauso wichtig wie die 4:2:2, die 10Bit sehe ich ohne Quadro und entsprechendem Moni sowieso nicht.

Space


Antwort von motiongroup:

https://m.youtube.com/watch?v=ssLeDy6l828

@mash_gh4

Genau so wie du es beschreibst ist es ..
Bleibt nur die Frage wie sich das in fcpx manipulieren lässt

Space


Antwort von Axel:

Relevanz hat mich dabei auch nicht interessiert, war nur reines Interesse!:-)
Weißt Du denn wer es sein könnte? klick doch oben einfach mal auf mitgliederliste und lass es dir anzeigen ;-)

lg

srone Auweia, ist mir echt peinlich. Diese digitale Spur würde ich gerne löschen. Amnesty, wo seid ihr!
https://m.youtube.com/watch?v=ssLeDy6l828

@mash_gh4

Genau so wie du es beschreibst ist es ..
Bleibt nur die Frage wie sich das in fcpx manipulieren lässt Man kann eine LUT nur als Vorschau-Verschönerung verwenden. Dann eine "offizielle" (meist ein bisschen enttäuschend) oder eine möglichst gute raussuchen (oder in Resolve selbst machen mit ein bisschen Eigenarbeit, Match Color, den Scopes und diversen Hauttönen) und sie in FCP X per LUT-Plugin (Lut Utility - auch in Color Finale - oder den m.W. z.Zt. kostenlosen Lut Loader) laden und auf einen Adjustmentlayer legen. Den Layer kann man komplett wieder löschen, bevor man in Resolve importiert. Das sollte man tun, denn erstens ist dieser Layer in Resolve ein "Title" und zweitens möchte man ja in einem Hochleistungsprogramm wie Resolve gern unvoreingenommen sein.

Space


Antwort von motiongroup:

Sorry Axel aber du hast mir gerade den Frontallappen abgesprengt ...;)

Wir sind uns doch einig, dass Ziel muss es sein akkurat zu Arbeiten und nicht inakkurat..

Schau dir mal das das zum Thema LUT und Nuke an...


ist>soll>wird zu und nicht ....vermutlich ist> durchgewurstet>wird eventuell zu

Da gilt gleich beliebt ist was gefällt und wir drehen an den Schrauben bis es passt.

Genug davon und die Maschinen gestartet. Das gehört angetestet :)

Space


Antwort von klusterdegenerierung:

Mir auch, da könnte man ja meinen, das Axel meint er könne LUTs nur als preview benutzen aber nicht für die finale Produktion!!! :-=

Space


Antwort von WoWu:

Der Sinn der LOG Kurve ist doch lediglich eine andere Werteverteilung zu finden und nicht mit einem Wert bei Schwarz und 128 Werten bei Weiss arbeiten zu müssen.
Die LOG Kurve führt nicht zu eine nennenswerten Verbesserung des Störabstands.
So eine LOG Kurve macht bei 8Bit nur Sinn, wenn man ausreichend belichtet und die verringerte Wertemenge bei Weiss auch nutzt und die Werteverteilung für das Endbild halbwegs passt.
Die meisten haben aber nur noch Grau als Spitzenwert und sind damit schon nur noch bei 6 Bit gelandet.

Die LOG Kurve drittelt etwa die Werteverteilung.
Also etwa 1/3 im Sw Bereich, das ist mehr als vorher, 1/3 im Graubereich, das ist etwa gleich und 1/3 im Weissbereich, das ist deutlich weniger als vorher.
Es bleiben aber 220 bzw. 255 Werte.

Wer jetzt aber bei 8 Bit anfängt, grossartig am Kontrast zu drehen, verringert sich seine Dynamik denn Kontrastveränderung führt zu Punktberechnungen und das wiederum zur Zusammenlegung von Werten.
Das kann man im Histogramm an den Lücken und Spitzen sehen.

Das wiederum sind fehlende Werte, die man von seiner Dynamik auch getrost abziehen kann denn man hat zwar nichts am Dynamikumfang geändert, der geht von Noise bis FW, aber die Bilddynamik definiert sich als Menge unterschiedlicher Abstufungen (Grauwerte) im Bild.

Sobald also Lücken und Spitzen auftreten hat man keine 8 Bit mehr.
Daher machen solche LOG Kurven in 8Bit nur sehr begrenzt Sinn und auch nur, wenn die Übertragungsfunkion genau passt und wenig Korrektur bedarf.
Auch das 8Bit LUT führt zu Lücken und nicht zu 8Bit.

Das kann ja jeder mal ausprobieren. Sobald er Lücken oder Spitzen im Histogramm sieht, war's das mit 8 Bit.

Sinn machen solche Kurven, wenn ich für ein 8Bit Randering aus 10/12 oder Mehr Bitt die Werte fassen kann, denn damit gelingt mir ein lückenloses 8Bit (Histogramm), weil ich die passenden Werte nur aus einer grösseren Menge auswähle.
Wer in 8Bit ein LOG einsetzt, sollte schon sehr genau wissen, was ihn erwartet und besser gleich so ein LOG wählen, das auch passt und den Rest mit der Belichtung machen.
Er hat (bis auch geringe Effekte) keine bessere Dynamik, nur einen verschobenen Wertebereich der entweder passt die Verteilung oder beim Grading werden 7 (oder weniger) Bit daraus.

Das Bild hat nach wie vor 8 Bit Umfang (bei 709 weniger) aber nur 7 Bit Dynamik. Daher auch häufig das muntere Banding nach der Bearbeitung.

Space


Antwort von CameraRick:

Wir sind uns doch einig, dass Ziel muss es sein akkurat zu Arbeiten und nicht inakkurat..

Schau dir mal das das zum Thema LUT und Nuke an...
Im Nuke ist es aber eine ganz andere Sache.

Der Nuke muss die Daten richtig interpretieren, weil er sie ja linearisiert. Der Sinn dahinter ist, dass alle Mathematik auch korrekt funktionieren kann. Da man nur linear arbeiten kann, musst Du erst alles Material auf einen gemeinsamen Nenner bringen; in diesem Fall, alle in den linearen Raum bringen. Nur dann kann alle Mathematik richtig funktionieren.

Du schaust Dir im Nuke die Daten aber auch nicht Linear an, sondern durch eine LUT; bei default ist das entweder REC709 oder sRGB, bin ich mir gerade nicht sicher. Das stellt man oben im Viewer ein. Natürlich kann man sich Cineon Material auch durch die Cineon LUT anzeigen lassen, dann sieht es genau so aus wie wenn Du es in PS oder AE öffnest, aber die Mathematik ist halt korrekt.
Oft schaut man sich die Sachen aber durch eine REC709 LUT o.ä. an, damit es etwas "knack" hat.

Nur musst Du hier unterscheiden, dass es nicht automatisch akkurate Farben sind. Du benutzt ja keine Cineon zu REC709 LUT, sondern Cineon zu linear und linear zu REC709; es sind auch eher generische LUTs.

Um näher am Thema zu sein: schaust Du Dir Alexa Material durch ARRIs REC709 LUT(s) an, wird es anders (meist schnieker) aussehen als durch Nukes interne LUTs. ARRI bietet nun aber auch nicht nur eine linearisierungs-LUT, sondern auch tatsächlich deutlich mehr für verschiedene Settings die akkurat funktionieren. Bei VLOG würde das gleich laufen (wenn Nuke eine VLOG linearisierungs-Kurve hätte); akkurat ist die Mathematik, nicht unbedingt die Darstellung. Das ist im Nuke aber auch nicht soooo schlimm, weil Du das Material ja sowieso so ausgibst, wie es rein kam. Forbkorrekturen im großen Stil macht man da eigentlich nicht (eher nur einzelne Elemente)

Was der Nuke Dir bietet ist eben eine Preview-LUT, was anderes ist das nicht. Das Gleiche, was Axel da auch beschreibt. Im DaVinci kann man die noch etwas eleganter einbauen, als etwa im FCPX oder Premiere; bleibt halt was es ist: eine Lookup Table.

Space


Antwort von wolfgang:

wenn ich denn sinn von log-aufzeichnung richtig verstehe, geht es dabei hauptsächlich um das bemühen, für jeden grauwert bzw. entsprechende abstufung in den farbkanälen möglichst gleich viel zwischenabstufungen bzw. darstellungsgenauigkeit anzubieten. Zumindest wird so immer wieder der Sinn der modifizierten Gamma-Kurven beschrieben - zusammen mit dem Wunsch nach einem größeren Dynamikumfang.

@mash_GH4

so sehe ich das auch, nur worin liegt dann der Sinn ..?

log aufzeichnen LUT drüber und ich bin annähernd dort wo ich ohne Log aufgezeichnet habe....? Ja so formuliert macht es keinen Sinn und hebt sich auf - nur MUSST du das ja nicht so machen dass sie in der Postpro wieder verloren gehen.

ja -- simple look up 'tables' mit stark eingeschränkter auflösung gleich am beginn der verarbeitungskette sind alles andere als ideal...

aber eine vernünftige farbverarbeitung/transformation, bspw. auf basis von OpenColorIO, erhält dir angesprochnen zwischenschritte, aber z.b. auch über die zielwerte hinausreichende information, im zuge der höher aufgelösten internen weiterverarbeitung... Sind wir da nicht wieder am Punkt dass es eben doch einer 10 oder 12 bit Auflösung bedarf? Einfach damit man ausreichend viele Zwischenwert in jedem Bereich zur Verfügung hat.

Schau dir mal das das zum Thema LUT und Nuke an...


ist>soll>wird zu und nicht ....vermutlich ist> durchgewurstet>wird eventuell zu Das ist nur nicht auf Nuke alleine bezogen - sondern ist die grundlegende Theorie der Gamma-kurven seit es CRT Panele gibt. Und der Umstand dass das menschliche Auge Helligkeitsunterschiede eben nicht linear wahrnimmt.

Space


Antwort von motiongroup:

Super Antwort Rick und schon sind wir dort was schon vorher beschrieben wurde.

Mash_gh4 hat es genau auf den Punkt gebracht.

Space


Antwort von motiongroup:

Mir ging es nicht um um die Theorie der gammakurve sondern um die Reihenfolge beim anwenden Wolfgang. Das sich die Geschichte quasi selbst aufhebt war schon vorher klar und wurde von HR. Wunderlich schon beschrieben.

Space


Antwort von Axel:

log aufzeichnen LUT drüber und ich bin annähernd dort wo ich ohne Log aufgezeichnet habe....? Ja so formuliert macht es keinen Sinn und hebt sich auf - nur MUSST du das ja nicht so machen dass sie in der Postpro wieder verloren gehen. Was geht verloren?

Farben, Nuancen?

Wenn das gemeint ist, dann trifft das in wirklich sichtbarem und beklagenswertem Ausmaß bei 8-bit Ausgangsmaterial nur unter einer Voraussetzung zu. Wenn es nämlich darum geht, dass

Zeichnung in Höhen und Tiefen nicht verloren geht.

Die HDR-Falle.

8-bit heute ist in einer Hinsicht anders als 8-bit noch vor sechs, sieben Jahren. Die Sensoren sind besser und die Profile sind besser. Wegen eklatant abgesoffener Tiefen und weißer Löcher sieht heute kein Consumervideo mehr nach Video aus. Das ist alles schon HDR as good as it gets. Sogar mein Telefon macht, verglichen etwa mit dem Video meiner alten VX2000, HDR.

Das Schreien nach einem ultraflachen Profil für 10-bit (GH4 plus Shogun z.B.) kann nur das bedeuten. Bitte, bitte mehr HDR.

Es wäre besser, sich mal zu überlegen, welchen Sinn das haben soll. HDR in 8-bit ist eben auch immer eigentlich LDR, weil ich zu viele Helligkeitswerte (und auch Farbwerte) nivellieren muss.

Ich lande also, wenn ich Geschmack habe, mit Shogun, LUTs und aufwändigem Grading tatsächlich wieder da, wo der unbedarfte Ohne-Alles-Filmer mit Standardprofil schon lange ist.
ja -- simple look up 'tables' mit stark eingeschränkter auflösung gleich am beginn der verarbeitungskette sind alles andere als ideal... Sind wir da nicht wieder am Punkt dass es eben doch einer 10 oder 12 bit Auflösung bedarf? Einfach damit man ausreichend viele Zwischenwert in jedem Bereich zur Verfügung hat. Abgesehen davon, dass es salvatorisch besser ist, wenn man mehr Originalwerte zur Verfügung hat, verschiebt man diese auch in 10-bit ja insgesamt dreimal:
1. Durch die LUT
2. Durch das Grading
3. Durch das Eindampfen zu 8-bit

Und bei vernünftig belichteten 8-bit-Videos ohne allzu flaches Profil lässt sich in der Post, zumal in Resolve, noch eine Menge machen. Ich wette, praktisch genau so viel wie mit 10-bit-zu-8-bit. Die ach-so-tollen Gradingclips im Netz aus 10-bit Footage legen diesen Schluss nahe.

Space


Antwort von motiongroup:

Trifft es genau und sagt aus das du su du keinen Eingriff auf die Instanzenposition der luts hast sinnlosen Aufwand treibst!

Space


Antwort von CameraRick:

Super Antwort Rick und schon sind wir dort was schon vorher beschrieben wurde.

Mash_gh4 hat es genau auf den Punkt gebracht. Da stehe ich auf dem Schlauch. Du bringst den Nuke als Beispiel der halt grundlegend anders funktioniert und jetzt gibt's Sarkasmus weil ich zum Ergebnis komme dass es sich so verhält wie andere bereits gepostete haben, was du jetzt auh wieder sagst... huh?
Der Nuke hat mit der Verarbeitung leider wenig zu tun, weil es beliebig bleibt.

Space


Antwort von WoWu:

Was geht verloren?

Farben, Nuancen?
Da drin ist ein Denkfehler:
Wenn ich aus einem LOG ein 709 mache, hab ich noch nicht gegraded.
Wenn ich also einen LUT benutze, ist das nur zur Sichtung.
Setze ich eine entsprechende Reversefnktion im Gradng ein, habe ich aus 8Bit Ausgangsmaterial nach wie vor meine 30/30/30 Werteverteilung und nicht meine 10/30/50, wie bei einer lin Aufzeichnung.
Ich grade mich also von meiner "amtlichen" 709 soweit zurück, dass die Mittelwerte in meine Mischung domineren, die ich in einer originären 709 Aufnahme zum Grading gar nicht gehabt hätte.
Daraus folgt, dass mein Kurvenverlauf nicht linear ist, muss er ja auch nicht.
Ich habe also meine Grauwerte stärker gewichtet.
Man darf nur nicht zunächst linear rendern und dann anfangen zu graden.
Wohl gemerkt. Es geht um die Nutzung der zusätzlich verfügbaren Werte bei Mittelgrau, zulasten der geringer gewordenen Werte bei Weiss.
Es liegt also am Workflow, der angewandt wird.
Ich verändere mir nur das Delta zwischen den Werten.

Das ist auch kein Dynamkzuwachs, ganz im Gegenteil.
Mit etwas Pech, verschiebt man sich das Gamma und die Dynamik wird geringer.-Oben beschrieben-.

Space


Antwort von motiongroup:

Super Antwort Rick und schon sind wir dort was schon vorher beschrieben wurde.

Mash_gh4 hat es genau auf den Punkt gebracht. Da stehe ich auf dem Schlauch. Du bringst den Nuke als Beispiel der halt grundlegend anders funktioniert und jetzt gibt's Sarkasmus weil ich zum Ergebnis komme dass es sich so verhält wie andere bereits gepostete haben, was du jetzt auh wieder sagst... huh?
Der Nuke hat mit der Verarbeitung leider wenig zu tun, weil es beliebig bleibt. Sorry ich habe nuke nicht explizit gemeint sondern das Ergebnis und das nichts anderes geschieht, es sich quasi aufhebt wenn du auf nem log flat oder cinelike D die inverse lut drauf legst und danach nochmals mit Farbkorrektur nacharbeiten möchtest, im davinci Video wird es eh genau beschrieben. Fakt ist, lässt sich die lut Instanz in der Hierarchie nicht manipulieren ist wie wowu sagt die Anwendung eher unnötig und sogar kontraproduktiv

Kann jeder selbst testen, der Zugewinn verschwindet..

Space


Antwort von wolfgang:

Ich kann die Diskussion hier noch nicht nachvollziehen. Egal wie ich filme, ob das
- gleich in rec709
- über logs zu c-log, v-log, s-log usw ist
- oder selbst wenn das über raw ist

dann habe ich über Werkzeuge wie den Shogun (oder auch andere Monitore) bereits beim Filmen in der Vorschau die Möglichkeit, mit LUTs zu kontrollieren wo ich landen werde.

Ob ich den LUT dann a) gleich mit aufzeichne oder b) eben nicht mit aufzeichne sondern nur für die Vorschau nutze. Das ist doch dem Anwender überlassen. Zumindest ist es beim Shogun so, wo ich beide Möglichkeiten habe. Sinnvoll erscheint mir halt primär ersteres - aber wenns schnell gehen soll kann ich mir auch vorstellen mal die zweite Variante zu wählen.


Dass ich die Vorschau brauche sagt auch Wolfgang hier:
Wenn ich aus einem LOG ein 709 mache, hab ich noch nicht gegraded.
Wenn ich also einen LUT benutze, ist das nur zur Sichtung. Ob ich das dann aber nur zur Sichtung nutze weiß ich noch nicht. Bei der Aufnahme zur Kontrolle brauche ich diese Vorschau wohl sicher! Bei raw ja offenbar brauche ich das auch am Schnittplatz zur ersten Sichtung.

Aber damit sind wir am Schnittplatz: und dort stehen mir doch wieder verschiedene Möglchkeiten offen
c) vielleicht mache ich die eigentlichen Korrekturen in Luma, Kontrast Farbe hier ganz ohne LUTs.
d) aber vielleicht nutze ich ja LUTs auch in einer Filterkette, als Vorstufe bevor ich Luma, Kontrast und Farbkorrektur/Grading mache?

"Filterketten" sind in NLEs ja schon seit langer Zeit üblich - und bei c) fallen halt die Korrekturen stärker aus als wohl bei d)

Denn das Ziel sollte eh sein, dass man dies aus einer einzigen Applikation heraus macht - finde ich. Den Schritt über mehrere Applikationen halte ich mittelfristig für entsetzlich aufwendig.

Und wenn das in einem Schritt passiert ist es auch nicht so, dass hier zigfach hin- und her gerechnet wird. Da wird dann eine Filterkette einmal gerechnet und das Material einmal gerendert und gut ist es.

Space


Antwort von WoWu:

Genau das ist der Weg denn dann korrigiert die Gradingeinstellung nur die Reversefunktion zu 709 und man greift auf alle Werte in der Übertragung zu.
Streng genommen will man ja eigentlich schon ein lineares Signal, nur eben mit andern Gewichtungen.
Und das ist der Fall, wenn man nicht erst 709 in Stein meißelt, sondern es durch die veränderten Werte in der log Übertragung korrigiert.
Dann hat man weniger weisswerte und mehr grauwerte aber Weiß entspricht noch dem Spitzenwert und sw ebenso, nur dass dazwischen die Werte anders verteilt sind.

Space


Antwort von CameraRick:

Sorry ich habe nuke nicht explizit gemeint sondern das Ergebnis und das nichts anderes geschieht, Achso, hatte ich so verstanden da Du direkt auf dieses Video gelinkt hattest.

Das Problem im Nuke ist eben ein wenig, dass er hier komplett raus fällt, da es mit der Nutzung von LUTs wie es im Grading/Editing passiert recht wenig zu tun hat (also, von der Motivation her).

Gebe Dir recht, wenn Du die Position einer LUT nicht bestimmen kannst ist das ziemlicher Käse. Durch eine LUT durchzuschauen ist natürlich, je nach Anwendung, total sinnvoll; aber eben nur, wenn sie am Ende der Kette steht

Space


Antwort von WoWu:

Ich finde den ACES Workflow wirklich sinnvoll, weil erstens die Hersteller in die Pflicht genommen werden, ihre exotischen LOGs wieder in den linearen Raum zu transportieren und die Anwender, LUTs an den richtigen Stellen zu verwenden und Umrechnungen für den Nutzkontent, ohne dass man sich sein Original zer-rendert.
Eigentlich ein narrensicherer Workflow auf ausreichend gutem Niveau.

Space


Antwort von motiongroup:

Danke Rick, ich wollte mir schon fast das Leben nehmen;)

Space


Antwort von srone:

Ich finde den ACES Workflow wirklich sinnvoll, weil erstens die Hersteller in die Pflicht genommen werden, ihre exotischen LOGs wieder in den linearen Raum zu transportieren und die Anwender, LUTs an den richtigen Stellen zu verwenden und Umrechnungen für den Nutzkontent, ohne dass man sich sein Original zer-rendert.
Eigentlich ein narrensicherer Workflow auf ausreichend gutem Niveau. wenn er dann verstanden wird ;-)

per se sollte man meinen, dass ein guter kameramann licht setzen und belichten kann, wohl der beste weg ein maximum an visuellem "dynamic range" zu erzeugen, dann bleibt idr genug raum für "look"-technische korrekturen, wichtig bleibt imho der ansatz von vorneherein zu wissen was man will, denn das beeinflusst alles.

sich auf 10bit/log/raw zu "beschränken" und zu hoffen, dass die post alles möglich macht ist ein technischer irrglaube, den wir wohl nicht mehr in gänze ausräumen werden.

der gesamte workflow zählt, das ist unser job.

lg

srone

Space


Antwort von Spaceman:

Hallo Zusammen,

um den Holzweg zu verlassen auf dem Ihr Euch alle befindet schlage ich vor einfach mal einen Grauverlauf (greyscale) in eine Gradingsuite (Quantel, Assimilate, Baselight, Speedgrade, Davinci, o.ä.) zu laden um zu schauen was Log und Co eigentlich macht.

Dann seht Ihr den Unterschied zwischen dem Verlauf einer inversen Lut (Sony log2Rec709, BMC log2Rec709, ... und einer nicht inversen Lut (Arri log2Rec709)

Viel Spass, Euer Spaceman

Space


Antwort von srone:

Hallo Zusammen,

um den Holzweg zu verlassen auf dem Ihr Euch alle befindet schlage ich vor einfach mal einen Grauverlauf (greyscale) in eine Gradingsuite (Quantel, Assimilate, Baselight, Speedgrade, Davinci, o.ä.) zu laden um zu schauen was Log und Co eigentlich macht.

Dann seht Ihr den Unterschied zwischen dem Verlauf einer inversen Lut (Sony log2Rec709, BMC log2Rec709, ... und einer nicht inversen Lut (Arri log2Rec709)

Viel Spass, Euer Spaceman die interpretation von gamma ist gemeinhin erheblich unterschätzt, da muss ich dir recht geben.

lg

srone

Space


Antwort von Stephan82:

Sehe ich das richtig, dass ein Großteil der Diskussion (Sinn der Kombi GH4 + Shogun) in ca. 2,5 Monaten völlig überflüssig ist, weil die GH4 durch ein Firmware-Update dann endlich V-Log kann?

Space


Antwort von Spaceman:

Stimmt, wenn man die Dikussion oben so mitverfolgt habe ich auch das Gefühl dass da viel Halbwissen zum Thema Log zusammenkommt.

Ausser Basiswissen dass ne Log Kurve ursprünglich mal zum Speicherplatzsparen und komprimieren eines hohen Dynamikumfangs mit etwas Verlust in den Lichtern da war, ist nicht mehr vorhanden.

Space


Antwort von srone:

Auf so hohe Beitragszahlen kommt man nur, wenn man es als Mission empfindet gegen Unwissenheit oder Unsicherheit anzukämpfen, unendlich lange verbale Scharmützel inkl. gegenseitiger Grenzbeleidigungen miteingerechnet. auf die grenzbeleidigungen kann ich gut und gerne verzichten, eine mission gegen unwissenheit und unverständnis erkenne ich freudig an. :-)

lg

srone

Space


Antwort von motiongroup:

Hallo Zusammen,

um den Holzweg zu verlassen auf dem Ihr Euch alle befindet schlage ich vor einfach mal einen Grauverlauf (greyscale) in eine Gradingsuite (Quantel, Assimilate, Baselight, Speedgrade, Davinci, o.ä.) zu laden um zu schauen was Log und Co eigentlich macht.

Dann seht Ihr den Unterschied zwischen dem Verlauf einer inversen Lut (Sony log2Rec709, BMC log2Rec709, ... und einer nicht inversen Lut (Arri log2Rec709)

Viel Spass, Euer Spaceman Ans Bett gefesselt, in brütenden Hitze gar gekocht und mit Relaxan vollgepummt würd ich dich um erleuchtende Worte bitten da mir der Zugang zu davinci auf Sicht wohl länger verwehrt bleibt..:()

In fcpx verhält es sich so wie ich beschrieb.. Inverse LUT bringt nix.

Space


Antwort von Axel:

In fcpx verhält es sich so wie ich beschrieb.. Inverse LUT bringt nix. Wie meinst du das? Ich kenne diesen Begriff nicht, aber wenn BMC log2Rec709 eine inverse Lut ist, dann bringt sie natürlich was, gleich, ob sie in FCP X oder Resolve verwendet wird. Und natürlich sind sowohl die mitgelieferten Luts in FCP X's Video-Inspektor (vergleichbar mit der Projekt-Voreinstellung für CameraRaw in Resolve, die, ohne sich Lut zu nennen, wohl eigentlich eine ist) als auch die durch ein Plugin geladenen "Input-Luts" genau das (so heißen sie auch in Resolve): Vor die eigentliche Korrektur/das Grading geschaltet.


Nehme ich z.B. mit meiner Pocket einmal in "Video" (=rec709) auf und einmal in "Film" (=Log) und belege letzteren mit der o.e. BMC log2Rec709, egal in welchem Programm, erhalte ich visuell exakt dasselbe. Aber nach der "normalisierten" Gammakurve, also *hinter, unter, nach* der Lut habe ich mit 10-bit noch ein bisschen Luft unterhalb 64 und oberhalb 940.

Was ich zuvor zu sagen versuchte ist, dass man diese Werte getrost ignorieren sollte.

Vergessen wird gerne, dass die Mitten in der Regel der Bereich sind, in dem die Musik spielt. Wie srone sagt, ich achte bei der Aufnahme darauf, alles so abzubilden, dass es Zeichnung hat und gut herauskommt. Die Aufgabe von CC ist es, das noch zu unterstützen. Nicht, aus einem wie durch ein Milchglas gefilmtem Clip ein Bild zu generieren, in dem selbst die Schatten noch Pastelltöne haben.

Wenn ein 10-bit Video mit zukünftigem V-Log gut gegradet ist, wird es sich nicht von einem gut aufgenommenem 8-bit-Video mit passend gewähltem Profil unterscheiden. In der Regel unterscheidet es sich zum Schlechteren, und das bei all den Zusatzkosten und Workflow-Kopfschmerzen.

Ob 8-bit gegen 10-bit in der Distribution ästhetisch abstinkt steht auf einem anderen Blatt. Einstweilen ist das noch hypothetischer als die Frage, ab wann man HD als zu schlecht aufgelöst empfinden wird.

Space


Antwort von motiongroup:

Nehme ich z.B. mit meiner Pocket einmal in "Video" (=rec709) auf und einmal in "Film" (=Log) und belege letzteren mit der o.e. BMC log2Rec709, egal in welchem Programm, erhalte ich visuell exakt dasselbe. Aber nach der "normalisierten" Gammakurve, also *hinter, unter, nach* der Lut habe ich mit 10-bit noch ein bisschen Luft unterhalb 64 und oberhalb 940. genau das versuchte ich nachzustellen und scheitert am Quellmaterial

hast du so ein Testmaterial oder einen Link dazu..ich habe leider keines gefunden.

Aber nach der "normalisierten" Gammakurve, also *hinter, unter, nach* der Lut habe ich mit 10-bit noch ein bisschen Luft unterhalb 64 und oberhalb 940. das ist das was ich in fcpx nachstellen möchte und anzweifle..

lösen kann ich es im Moment eh nicht..

Space


Antwort von domain:

@ Axel
Endlich mal eine einleuchtende Darstellung und Erklärung der verschiedenen LUTs und ihrer Funktionen, die man aufgrund einer Dynamikbereichsoptimierung (DRO) über Log-Files ja braucht.
Bei meiner kleinen HX90 gibt es ja die Option, über manuell eingestelltes DRO (hier maximaler Level 5) die Schatten aufzuhellen bei gleichzeitiger Reduktion der Belichtungszeit um eine Blende, was natürlich zu mehr Durchzeichnung in den Lichtern führt . Zunächst große Freude, aber dann die Ernüchterung. Seht euch mal das Rauschen in den Schatten an, hier über unscharf maskieren besonders hervorgehoben.
So ähnlich läuft das offenbar auch bei Log-Aufzeichnungen: unbrauchbare 800 bis 1600 ISO ETTR-Belichtung schon bei Tageslichtaufnahmen und in den Schatten rauscht es wie Sau (so liest man jedenfalls öfters) und zwar so lange, bis man sie ziemlich heruntergezogen hat.
Derzeit DRO-Level 3 eingestellt, damit funktioniert es schon besser und die dunkelsten Schatten liegen jetzt bei ca. 20, vorher bei 40.



Space


Antwort von wolfgang:

Sehe ich das richtig, dass ein Großteil der Diskussion (Sinn der Kombi GH4 + Shogun) in ca. 2,5 Monaten völlig überflüssig ist, weil die GH4 durch ein Firmware-Update dann endlich V-Log kann? Nein, das Gegenteil ist offenbar der Fall: erst dann wird diese Diskussion erst wirklich sinnvoll. Denn mit der GH4 alleine hast halt nur 8bit, und ein lut ohne 10bit macht offenbar nur stark begrenzt Sinn.

Denn das Auftreten von Lücken beim 8bit Material etwa im Histogramm oder in der Waveform Darstellung kennt jeder, der das schon mal intensiver gemacht hat:

Wer jetzt aber bei 8 Bit anfängt, grossartig am Kontrast zu drehen, verringert sich seine Dynamik denn Kontrastveränderung führt zu Punktberechnungen und das wiederum zur Zusammenlegung von Werten.
Das kann man im Histogramm an den Lücken und Spitzen sehen.
....
Sobald also Lücken und Spitzen auftreten hat man keine 8 Bit mehr.
Daher machen solche LOG Kurven in 8Bit nur sehr begrenzt Sinn und auch nur, wenn die Übertragungsfunkion genau passt und wenig Korrektur bedarf.
Auch das 8Bit LUT führt zu Lücken und nicht zu 8Bit. Und daher sollten es halt wohl 10 oder 12 bit sein, und genau das bekommt man bei der GH4 wie auch der kommenden DVX200 halt nur mit externen Rekordern wie dem Shogun.

Übrigens ist der tweet von Panasonic Neuseeland bereits wieder gelöscht worden. Ob also v-log für die GH4 kommen wird, ist vermutlich unverändert ein großes Fragezeichen.

Vergessen wird gerne, dass die Mitten in der Regel der Bereich sind, in dem die Musik spielt. Wie srone sagt, ich achte bei der Aufnahme darauf, alles so abzubilden, dass es Zeichnung hat und gut herauskommt. Nur ist genau das der Punkt. In den Mitteltönen, wo auch die Hauttöne sitzen, verlierst du bei 8bit gewaltig - einfach weil dann hier eigentlich zu wenig Farbpunkte verfügbar sind. Ich bin schon bei dir dass es vielleicht weniger um die Schwarz- und Weißbereiche geht (je nach Motiv), aber genau das ist das Argument dafür dass man genug Werte in den sensiblen Bildbereichen braucht. Und damit ist das hier

Wenn ein 10-bit Video mit zukünftigem V-Log gut gegradet ist, wird es sich nicht von einem gut aufgenommenem 8-bit-Video mit passend gewähltem Profil unterscheiden.

für viele Motive - etwa Portraiaufnahmen - eher falsch. Weil ich mir bereits bei der Aufnahme zuviel wegschneide, und dann in der Postpro damit auch nichts mehr retten kann. Was vorne weg ist ist einfach weg.

Space


Antwort von Spaceman:

Freunde das wird nichts. Ihr drifted immer weiter ab in falsch und falscher.

Habt Ihr Euch mal die greyscale reingeladen und im Waveform gecheckt?

Mein Raumschiff wartet, bin etwas in Eile, muss los, Euer Spaceman...

Space


Antwort von WoWu:

Hallo Zusammen,

um den Holzweg zu verlassen auf dem Ihr Euch alle befindet schlage ich vor einfach mal einen Grauverlauf (greyscale) in eine Gradingsuite (Quantel, Assimilate, Baselight, Speedgrade, Davinci, o.ä.) zu laden um zu schauen was Log und Co eigentlich macht.

Dann seht Ihr den Unterschied zwischen dem Verlauf einer inversen Lut (Sony log2Rec709, BMC log2Rec709, ... und einer nicht inversen Lut (Arri log2Rec709)

Viel Spass, Euer Spaceman Was willst Du uns damit sagen ?
Da muss man nur ein Blick auf die Kurve wagen ... (dafür sind sie nämlich da) ...die sagt einem, was die Teile bewirken.
Dazu muss man allerdings Kurven verstehen.
Versteht man sie nicht, reicht natürlich der "Feldversuch" zur Annäherung.

Space


Antwort von Spaceman:

Na dann schick doch mal die Kurve von Blackmagic oder Red.
Die findest Du garantiert in keinem White Paper!

;-)

Also endlich aufhören mit rumeiern und rein die greyscale!
Und dann verstehen!

Space


Antwort von WoWu:

Du findest sie vielleicht nicht.
Hier schon mal Bmcc
RED kommt, muss ich suchen. Also endlich aufhören mit rumeiern und rein die greyscale!
Und dann verstehen!
Und hör auf, so einen Quatsch zu reden, nur weil Du keine Kurveninterpretation verstehst.
Immerhin müsstest Du die Grayscale mit der Kamera abfilmen .. hast Du schon mal über die Fehlerstreuung beim Abfilmen solcher Tafeln nachgedacht ?
Sicher nicht.
Du gehörst nämlich auch zu denen, die bestenfalls bei der Kamera noch wissen, wo der rote Knopf sitzt und sonst nur aus Unwissen bestehst, das Du mit Sprüchen auszugleichen versuchst.
Aber seih beruhigt, da gibt es noch ein paar "Experten" von der Sorte hier im Forum, da bist Du nicht allein.

Space


Antwort von Spaceman:

Die Kurve ist leider falsch! Und kommt dazu sicher nicht von offizieller Stelle. Wo haste die aufgegabelt?

Die Rede war von den Log2Rec709 Kurven!

Du musst die auch nicht abfilmen da die als LUT z.B. in Davinci standardmässig vorhanden sind. Also Greyscale laden Lut anwenden und staunen. Einfach oder?

So verquer wie Du kann man ja gar nicht denken...
Hab selten jemanden erlebt der sich so selbst im Weg steht...

Space


Antwort von Spaceman:

Na schon die Red Gamma Kurve gefunden? Oder gibts die vielleicht auch nicht im Netz wie die BMCC. (ich meine die offizielle, nicht nen Screenshot aus dem Netz wo jemand glaubt die wärs)

WoWu das Sinnbild für Aktionismus ohne Sinn ;-)

Space


Antwort von WoWu:

Die Rede war von den Log2Rec709 Kurven! Wie ich schon vermutet habe ... Du weisst gar nicht, wovon wir hier reden.
Hier geht es um Übertragungsfunktionen von Kameras.
Die dürften schwerlich in Deinem Bearbeitungsprogramm zu finden sein.
Darin hast Du bestenfalls noch die Reverse Funktion.
Und was nun hier eine Sony Reverse beitragen soll, weiss auch nur Dein Commander.
Explizit geht die Diskussion um die GH4 und im Besonderen um 8 vs. 10 bit.

Du steckst nur randvoll von inhaltlosen Sprüchen, die Du hier zum Besten gibst.
Du schnappst nur irgendwelche Begriffe auf und packst sie sinnfrei in deine geistlosen Postings.
Hoffentlich hebt Dein Raumschiff bald wieder ab.

Space


Antwort von wolfgang:

Das ist langsam ermüdent. In diesem thread gehts weder um dir red noch um die bmcc. Sondern um Erfahrungsberichte der Gerätekombination GH4 und Shogun. Also was sollen wir da mit diesen Kurven? Ausser das es interessant ist Grundprinzipien noch zu reflektieren.

Für mich ist der workflow mit dieser Gerätekombination und dem zukünftigen v-log schon recht klar. Jetzt brauchen wir halt von Panasonic v-log in der GH4. Ohne dem ist der Rest zumindest für mich zwar interessant aber eher hypothetisch.

Space


Antwort von Spaceman:

Jetzt nicht ausweichen nur weil Du auch die Red Kurve nicht gefunden hast.

Aus Deinem Kleinlauten Kommentar leite ich allerdings ab dass Du langsam verstehst worauf ich hinaus will.

Keinen interessiert die Übertragungsfunktion wo aus x bit 12 und dann 10 werden. Ich denke jeder hat verstanden dass die Hersteller unterschiedliche Log Kurven basteln mal etwas steiler mal etwas mehr Offset. Das Konzept ist aber immer gleich.

Viel wichtiger ist die Grading Lut und wenn man die nicht versteht, kommt nacher nur Murks raus!

Space


Antwort von WoWu:

Schnack nur weiter ....

Space


Antwort von Spaceman:

Super WoWu, das klingt doch fast so als machts auch bei Dir langsam klick.
Freue mich dass ich Dir weiterhelfen konnte! Hatte schon fast Die Hoffnung aufgegeben...

Space


Antwort von Spaceman:

So, bin gleich wieder im Mars-Schatten. Muss den Funkkontakt bald abbrechen. Machts gut Ihr Lieben,

Euer Spaceman

Space


Antwort von domain:

Auf diesen erkenntnistheoretisch wertvollen Superklick bin jetzt schön langsam neugierig. Spann uns nicht so auf die Folter. Vielleicht kannst du mal genauer erklären, was du unter dem nebulosen Klickerlebnis eigentlich verstehst ;-)

Space


Antwort von motiongroup:

Welches Klickerlebnis?

Space


Antwort von CameraRick:

Anscheinend meint er dass man die LOG Kurve Anhand der REC709 LUT sehr gut beurteilen kann, die natürlich irgendwie weniger über die Übertragung aussagt als lineare Werte aus dem richtigen Leben. Aber dafür ists halt schön bunt. Sonst wüsste er vielleicht auch, dass man Linearisierungskurven in vielen handelsüblichen Anwendungen recht einfach anwenden und anschauen kann, statt auf ein schniekes REC709 Bild zu schauen - na ja, wers mag?

Endlich ist der Mars wieder in Position, auch wenn mich natürlich interessiert hätte was er mit "die Grading LUT" meint, offenbar ein geheimes Hollywood Textdokument das man bekommt, sobald man mal Nudeln für einen A-List Actor gekocht hat oder so.

Space


Antwort von wolfgang:

So, bin gleich wieder im Mars-Schatten. Muss den Funkkontakt bald abbrechen. Na langsam hoffe ich er ist lange im Mars-Schatten. ;)

Space


Antwort von Kranich:

hm.... also macht jetzt der shogun + GH4 Sinn oder nicht?

Space


Antwort von jaydabone:

Mit dem kommenden V-Log Update auf jeden Fall!!

Space


Antwort von klusterdegenerierung:

Mit dem kommenden V-Log Update auf jeden Fall!! Hier laufen sie rum und wo anders werden sie gesucht!

Space


Antwort von Kranich:

wieso kann hier nicht mal einer ganz normal antworten?
Entweder wird hier medientechnich physilikalisch kluggeschissen oder rumgezickt.
Sind hier vielleicht auch irgendwelche die einfach nur mal sagen können, hey, hab das Ding ausprobiert und muss sagen, ich sehe wirklich (k)einen unterschied. :)

Also, wer hat wirklich damit Erfahrungen gemacht? Wirkt das Bild dadurch besser oder brauch man den recorder als GH4 Besitzer auf keinen Fall?



Danke :)

Space


Antwort von Stephan82:

Klar macht der Shogun + GH4 Sinn.

Du kannst mit dem Shogun in 10Bit 4:4:2 aufzeichnen. Das ist für Color Grading besser als die interne 8Bit-Aufzeichnung. Zudem hast du ein größeres Display mit verschiedenen Anzeigen für die Belichtung und Fokussierung usw. Er hat insgesamt also einige Features, die dir das Filmen erleichtern. Wenn ich ihn geschenkt bekommen würde, dann würde ich ihn sofort nehmen. So ist er mir aber viel zu teuer.

Ist eben die Frage, ob du das Teil persönlich wirklich brauchst und ob der Mehrwert des Shoguns den Kaufpreis für dich rechtfertigt.

Space


Antwort von cantsin:

Also, wer hat wirklich damit Erfahrungen gemacht? Wirkt das Bild dadurch besser oder brauch man den recorder als GH4 Besitzer auf keinen Fall? Einfache Antwort: Du brauchst das, wenn Du Colorgrading machen willst. Wenn Du mit den Farben, so wie sie aus der Kamera kommen, zufrieden bist, brauchst Du es nicht.

Space


Antwort von wolfgang:

Du brauchst das auch wenn du intensivere Helligkeitskorrekturen durchführen willst - was eigentlich nach den gängigen Meinungen immer einer Farbkorrektur vorangehen sollte, weil das menschliche Auge eben Helligkeitsunterschiede deutlich stärker wahrnimmt als Farbunterschiede.

Das 10bit 422 Material aus GH4 + Shogun hat größere Reserven in der Nachbearbeitng als das 8bit 420 Material der GH4 alleine.

Und jetzt kommt noch v-log dazu - was noch umstrittener ist als der 10bit Vorteil gegenüber 8bit. :) Ich gehe aus all den Diskussionen aber davon aus, dass es die Übertragungsfunktion vergleichmäßigt (sprich: den Blenden linear die gleiche Anzahl an Werte zuweist, was bei rec709 eben nicht der Fall sein dürfte). Wird interessant sein das zu erproben wenn das Upgrade zu v-log da ist.

Space


Antwort von klusterdegenerierung:

Verstehe diese Diskussion im Zusammenhang mit dem Shogun nicht.
Wenn die Lut bei 8Bit schon was reißen kann, warum sollte sie bei 10Bit schlechter oder nutzlos sein.

Ist halt alles noch ein tick besser, mit shogun dann eben nochn tick!

Space


Antwort von wolfgang:

Verstehe diese Diskussion im Zusammenhang mit dem Shogun nicht.
Wenn die Lut bei 8Bit schon was reißen kann, warum sollte sie bei 10Bit schlechter oder nutzlos sein. Eben!

Space


Antwort von WoWu:

Von was für eine LUT ?

Space


Antwort von klusterdegenerierung:

Geilo!

http://motionnine.com/shop/cube-shogun- ... kattempt=1

Space


Antwort von Kranich:

hm....



Space


Antwort von klusterdegenerierung:

hm....

Sag mal, wenn Du Dir einen Porsche kaufen möchtest, guckst Du Dir dann als Entscheidungshilfe ausschließlich Crashvideos von Leuten mit einem IQ einer Mandarinenschale an?

Sorry, aber wenn Du Dich wirklich für den Shogun interessieren solltest, dann guck Dir doch nicht so ein Blödsinn an den man mit seinem Handy besser hinbekommt!
Den Unterschied wirst Du im Netz eh nicht finden, erst recht nicht wenn Dein Workflow nicht komplett 10Bit ist oder Du das Material mal selber in Davinci bearbeitet hast!

Kann man doch nicht ane Zähne haben.
Nur fürs Protokol, Du brauchst keine Wunder erwarten!

Space


Antwort von Kranich:

klar du hast vollkommen recht, totaler mumpitz dieses Video.
Ich bin einfach grundsätzlich am überlegen ob ich die gh4 behalte, sie erweiter und noch mehr dazu kaufe (wie z.b. Shogun) oder den ganzen krempel verkaufe und mi ner bessere lösung gleich besorge, vielleicht auch was mit super 35, das vermisse ich leider an der GH4. Mal sehen.

Space


Antwort von WoWu:

Vielleicht noch einen Hinweis im Zusammenhang V-LOG / Recorder / Codec und 709.
ARRI warnt sehr deutlich davor, C-Log Gamma mit etwas anderem als ProRes 4:4:4 zu benutzen, weil es sonst in Rec 709 oder DCI P3 Darstellungen zu Banding kommen kann.

Nun ist V-Log natürlich kein C"LOG, aber im Zusammenspiel mit dem Recorder sollte man beachten, dass von ProRes 4:4:4 die Rede ist und nicht von ProRes 4:2:2 denn alle ProRes ausser 4:4:4 sind auch in 10Bit 709.

Solche Kombinationen sind also nicht so ganz unkritisch, wenn man wenigstens ARRI glaubt.

Space


Antwort von srone:

Vielleicht noch einen Hinweis im Zusammenhang V-LOG / Recorder / Codec und 709.
ARRI warnt sehr deutlich davor, C-Log Gamma mit etwas anderem als ProRes 4:4:4 zu benutzen, weil es sonst in Rec 709 oder DCI P3 Darstellungen zu Banding kommen kann.

Nun ist V-Log natürlich kein C"LOG, aber im Zusammenspiel mit dem Recorder sollte man beachten, dass von ProRes 4:4:4 die Rede ist und nicht von ProRes 4:2:2 denn alle ProRes ausser 4:4:4 sind auch in 10Bit 709.

Solche Kombinationen sind also nicht so ganz unkritisch, wenn man wenigstens ARRI glaubt. @wowu

das ist doch wurscht, jetzt habe ich log (und sei es nur in 8bit 420), da können mir die von arri, die ohnehin nur ihre überteuerten 2k mühlen verkaufen wollen, doch mal den buckel runterrutschen. ;-)))

lg

srone

Space


Antwort von WoWu:

stimmt eigentlich :-)

Space


Antwort von klusterdegenerierung:

klar du hast vollkommen recht, totaler mumpitz dieses Video.
Ich bin einfach grundsätzlich am überlegen ob ich die gh4 behalte, sie erweiter und noch mehr dazu kaufe (wie z.b. Shogun) oder den ganzen krempel verkaufe und mi ner bessere lösung gleich besorge, vielleicht auch was mit super 35, das vermisse ich leider an der GH4. Mal sehen. Dann lerne doch Deine GH4 erst mal richtig kennen und kaufe Dir den Speedbooster XL dazu, dann hast Du echte Super35mm!

Und am besten, guckst Du Dir dann nicht mehr solche Videos an! :-))

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen //


Schultern/handheld mit GH4+Shogun+ME66?
GH4, Shogun und Mikro
Atomos Ninja und Shogun mit HDMI RAW Unterstützung für noch mehr Kameras
Atomos Black Friday - Shogun Ultra und Ninja Phone stark verbilligt
Atomos Shogun und Ninja bekommen direkten Dropbox-Upload
Atomos Shogun und Shogun Ultra - aktualisierte 7" Monitor/Recorder
Panasonic GH6 und Atomos Shogun Connect in der (Cloud)Praxis: Proxy-Upload mit LTE-Handy vom Set?
Atomos: Shogun Connect und Ninja V/V+ mit Connect bekommen neue Streaming-Funktionen
NAB 2022 Interview: Atomos und Shogun Connect - mächtige Cloud Tools im Anflug
Camera-to-Cloud ready: Neuer Shogun Connect und Atomos Connect Erweiterung für Ninja V/V+ vorgestellt
Atomos shogun inferno
Atomos Shogun 7 Update ermöglicht Aufnahme von DCI 4Kp60 ProRes RAW mit Sony FX6
Zhiyun Weebill S - Erfahrungsberichte?
Panasonic S1/GH4/GH5 Forum - mit G9?
Rode Smartlav+ > (Zoom GH5) > Lumix GH4, GH5 + Android Tests
externer monitor via hdmi an gh4?
Für Panasonic-S1H (RAW) Filmer: AtomOS Firmware 10.52 für Atomos Ninja V ist offiziell
Sony FS 700 mit Shogun zu Mac und Compressor aufrüsten?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash