"Der Wildwuchs" herrscht auch bei denen die uns die Ordnung erklären wollen...
"Der Wildwuchs" herrscht auch bei denen die uns die Ordnung erklären wollen...
Klar, bei einem guten Kameramann wird auch das Ergebnis nicht schlecht aussehen. Du wirst nur einige Informationen in den Lichtern verlieren (wenn ich mich richtig erinnere so um die 30%). Aber selbst da gibt es inzwischen einen Workaround mit LUT + Effekt in PP. Aber mal ehrlich Bruno, warum willst Du es dann nutzen? Du könntest dann genauso gut mit einem Cinelike D, Natürlich... oder sonstwas Modus filmen. HLG ist in erster Linie für HDR gemacht.....Bruno Peter hat geschrieben: ↑Mo 27 Nov, 2017 14:30 Also bis jetzt ist immer das dabei rausgekommen was ich wollte, bei der Betrachtung auf meinem HDTV.
Wie es auf einem HDR(HLG)-Sichtgerät aussieht, habe ich selbst noch nicht gesehen, man hat mir aber
bestätigt, dass es dort auch nicht schlecht aussieht.....
Hihi..., weil ich das Recht habe mir einen UHD(HLG) zuzulegen und dann auch noch eine HLG-Kamera, alles im nächsten Jahr.
...auf die HLG Kamera bin ich mal gespannt, dachte nach Deinem Posting weiter oben dass deine FZ300 das ja schon könnte. Zumindest bei Panasonic finde ich dazu nichts.Bruno Peter hat geschrieben: ↑Mo 27 Nov, 2017 15:09Hihi..., weil ich das Recht habe mir einen UHD(HLG) zuzulegen und dann auch noch eine HLG-Kamera, alles im nächsten Jahr.
EDIUS 9 mit dem HLG-Workflow habe ich schon und deshalb teste ich mal den Workflow zu HDR(HLG) vorab.
Denke ne GH5 ist ne ganz vernünftige Wahl, "formal" kann die Kamera HDR und die ~12 Blenden sind denke ich schon ganz ok. Das ist auf jeden Fall qualitativ hochwertiger und sauberer als bei der FZ300, wobei DxO hier zumindest im Fotomodus ~11 Blenden feststellt. So schlecht ist das Bild aus der FZ300 auch gar nicht - nur ist und wird es formal kein HDR.
Auf keinen Fall, welcher Zipfel sagt sowas?Roland Schulz hat geschrieben: ↑Mo 27 Nov, 2017 16:15 So schlecht ist das Bild aus der FZ300 auch gar nicht - nur ist und wird es formal kein HDR.
Jein - wenn ich gegradete a6500 Clips in 10bit ausgebe habe ich nur schadenbereinigtes 8bit mit 10bit Wertedynamik.Bruno Peter hat geschrieben: ↑Mo 27 Nov, 2017 16:18Auf keinen Fall, welcher Zipfel sagt sowas?Roland Schulz hat geschrieben: ↑Mo 27 Nov, 2017 16:15 So schlecht ist das Bild aus der FZ300 auch gar nicht - nur ist und wird es formal kein HDR.
Ich habe das nie behauptet.
Man kann mit dem EDIUS-Workflow allerdings ein HLG-File daraus machen!
Die ganze Diskussion geht an der Fragestellung des Threadstarters eigentlich ziemlich vorbei?Rodder hat geschrieben: ↑So 26 Nov, 2017 20:44 Hallo Zusammen,
ich filme mit einer Panasonic GH5, welche ja auch intern mit 10Bit Farbtiefe aufnehmen kann. Bisher habe ich dieses Feature der GH5 nicht nutzen können/wollen, da weder der Windows Media Player die Dateien abspielen kann, noch meine Schnittsoftware Vegas 14 und DaVinci Resolve 14 (Free Version) mit dem Codec im 10Bit format etwas anfangen können. Soweit ist das auch schon ein bekanntes Problem des 10Bit Codecs der GH5...und es gäbe verschiedene Möglichkeiten diesen verarbeiten zu können --> Vegas 15 kaufen, Vollversion DaVinci Resolve Kaufen oder einen Transcoder nutzen, welcher wahrscheinlich auch Geld kostet.
Aber ich habe mir jetzt nochmal grundsätzlich die Frage gestellt, wie dieser ganze 10Bit Postproduction workflow funktionieren soll und ob dieser momentan überhaupt Sinn macht?
Nehmen wir mal an ich nehme im LOG Profil (Panasonic V-Log) mit 10Bit Farbtiefe auf, Color Grade das ganze in DaVinci Resolve und kann dort die Farben bis an die Grenzen bringen ohne in den Banding Bereich zu kommen (das wäre ja ein Vorteil von 10Bit Farbtiefe).
1. Muss ich nun den Clip in 10Bit heraus rendern um diesen Mehrwert zu behalten oder sieht man den positiven Unterschied dann auch beim rendern in 8Bit?
2. Selbst wenn ich den Clip in 10Bit heraus rendere, Youtube convertiert mir den Clip doch ehe wieder auf 8Bit zurück (falls diese Info falsch ist berichtigt mich gerne)? Sehe ich denn dann wirklich einen Unterschied zwischen intern aufgenommenen 8Bit oder 10Bit bei Youtube (bei V-Log + Grading)?
3. Die Endgeräte auf denen wir alle unsere Videos anschauen sind ja in der Regel 8Bit Monitore. Macht denn ein 10Bit aufgenommenes Video + Color Grading + Herausgabe in 10Bit (oder 8Bit siehe Frage 1 :)) überhaupt sinn?
Das sind eine ganze Menge Fragen, welche mich um die Nächte bringen ;).
Danke schonmal im Voraus für eure Antworten!!
Lieber Wolfgang nun bist Du endlich hier und gleich mit einer sehr interessanten Information.
Lieber WoWu,WoWu hat geschrieben: ↑Mo 27 Nov, 2017 13:19 Da musst Du nun unterscheiden, zwischen (nur) heller werden und steuerung der Hintergrundbeleuchtung.
Wenn HDR nur „heller werden“ bedeutet, bräuchte man den ganzen Zauber nicht.
Und die BBC bezieht sich mit der Kompartibilität nur auf den Bereich, der den identischen Verlauf bis 100 Nits hat ... und das ist der lineare Teil der HLG Übertragungsfunktion für den es dem alten Fernseher nicht extra klar gemacht werden muss, nur muss man sich die Funktion eben mal anschauend und wird sehen, dass die 100 Nits ihren Wert bei 50% Weiß erreichen.
Die BBC hebt in der Kompatibilität im Grunde genommen darauf ab, dass es ein System ist, bei dem das TV Gerät keine Metadaten verstehen muss.
Insofern ist HDR prima, wenn man es auf HDR- Geräten anschaut, aber düster auf andern Geräten, weil den paar Weisswerten (Spitzlichtern) die restlichen 50% des gesamten Videosignals eingeräumt werden.
Déjà vu, zum wiederholten Male!
+1 und mein Versuch von 14:28!
Wolfgang, das wollte ich ausdrücken. Auch ein LCD kann keine bildschirmfüllenden 2.000nits sondern irgendwo ~800. Durch das direkte Local Dimming aber entsteht trotzdem ein sehr hoher Kontrast, da "Bildbereiche" sehr dunkel neben sehr hellen (dann ~2.000nits) dargestellt werden können.wolfgang hat geschrieben: ↑Di 28 Nov, 2017 10:38 Also HLG ist nicht düster auf anderen Geräten - da kann ja HLG nichts dafür wenn das Display nicht mehr als 100 oder 200 nits kann.
Die Quelle für die YouTube Frage habe ich im Videotreffpunkt irgendwann gepostet - findest dort Bruno.
Roland, 1000nit oder 500nits oder 200nits - aber bitte immer mitzudenken, bei wieviel Prozent der Bildfläche das Gerät diesen Wert darstellen kann. Das fällt nämlich mit steigendem Bildanteil rapide ab. Aber sehr oft sind es auch nur kleinere Bildausschnitte die die Spitzenlichter haben.
Das Prinzip hat wenig mit Unsinn zu tun, sondern mit dem technologischem Stand. Wenn du viel Kohle hast, kannst ja versuchen einen Dolby Pulsar mit 4000 nits zu kaufen! Bin mir nur nicht sicher ob der verkäuflich ist und wenn ja, zu welchem Preis. Selbst heutige Referenzmonitore wie der ca. 30.000 Euro schwere Sony 300er kann "nur" 1000nits.
Dein Sony 65-Zöller kann übrigens bereits heute weit über 1000nits, da er auch noch kein OLED ist.
Die erscheinenden HDR Computerbildschirme begeistern mich eigentlich bisher überhaupt nicht. Bei denen ist zu wenig definiert.Roland Schulz hat geschrieben: ↑Di 28 Nov, 2017 10:49 Wolfgang, das wollte ich ausdrücken. Auch ein LCD kann keine bildschirmfüllenden 2.000nits sondern irgendwo ~800. Durch das direkte Local Dimming aber entsteht trotzdem ein sehr hoher Kontrast, da "Bildbereiche" sehr dunkel neben sehr hellen (dann ~2.000nits) dargestellt werden können.
Es gibt aber auch "HDR" gelabelte Geräte die weder direktes Local Dimming noch eine hohe Helligkeit liefern. Wenn ich mir da so einige HDR LCD Computerbildschirme ansehe fällt einem auf dass da was nicht stimmen kann.
Deutscher geht's nicht ;-) Mann, schaut euch einfach an, was bisher mit HDR gemacht wird - entweder es gefällt euch, oder nicht. Wenn nicht, kein Problem. Aber das endlose Genöhle muss ja nun auch nicht sein...Roland Schulz hat geschrieben: ↑Di 28 Nov, 2017 14:03 .... Solange es hier keinen "TÜV" bzw. eine Qualitätskontrolle bzgl. Einhaltung der Spezifikationen gibt ist das ziemlicher Nonsense............
Panasonic V-LOG hat mit HLG überhaupt gar nichts zu tun und ist nicht vergleichbar! V-LOG ist eine reine Aquisitionsübertragungsfunktion - "das kann man unbearbeitet nicht ansehen". HLG kann dagegen beides und liegt im unteren Bereich ganz nah an REC709, zeigt aber im Post deutliche Einschränkungen in den Möglichkeiten der Nachbearbeitung.blueplanet hat geschrieben: ↑Mi 29 Nov, 2017 07:45 ...zusammengefasst und wenn ich es richtig verstanden habe:
...HLG ist im Grunde "nice to have" bzw. ein "einfaches" V-LOG tut es im Moment (wenn schon, denn schon) besser.
...is klar ;)! Ich wollte es auch nicht vergleichen, sondern als praktikable Alternativen betrachten. HLG kann ich wie Rec709 irgendwie ansehen, aber eben nur irgendwie (ohne die richtigen technischen Anzeigegeräte). Die Frage, macht es dann überhaupt Sinn, es jetzt anzuwenden oder gar als massenkompatibel einzustufen?! V-LOG würde man im Ursprung ohnehin niemanden anbieten, aber man erhält sich damit (im Moment) eben die größte Flexibilität! Oder - man bleibt gleich (noch) bei "wie Rec709".Roland Schulz hat geschrieben: ↑Mi 29 Nov, 2017 10:48 Panasonic V-LOG hat mit HLG überhaupt gar nichts zu tun und ist nicht vergleichbar!
Am Anfang hatte ich auch gedacht, dass das V-Log L der GH5 gut geeignet sein müsste für eine HDR-Bearbeitung. Leider ist dem nicht so: Man bekommt oft Artefakte/Sky-Banding in den Lichtern. Ich schätze, dass es daran liegt das die "L"-Variante ab IRE 80% nach oben alles absägt. Und bei HDR kommt es dann wohl zu diesem negativen Effekt. Wer also für die Zukunft in Sachen HDR mit der GH5 flexibel sein will, der sollte (so wie Bruno es machen will) in HLG filmen. Die fehlenden 30% nach oben bei SDR lassen sich mit einem Effekt in PP + DR weitestgehend zurückholen...blueplanet hat geschrieben: ↑Mi 29 Nov, 2017 11:01 ... HLG kann ich wie Rec709 irgendwie ansehen, aber eben nur irgendwie (ohne die richtigen technischen Anzeigegeräte). Die Frage, macht es dann überhaupt Sinn, es jetzt anzuwenden oder gar als massenkompatibel einzustufen?! V-LOG würde man im Ursprung ohnehin niemanden anbieten, aber man erhält sich damit (im Moment) eben die größte Flexibilität! Oder - man bleibt gleich (noch) bei "wie Rec709".
....versteh' ich nicht ganz. Man kann doch nur entweder oder?! Ergo in V-LOGL ODER in HDR drehen. Oder?? Weshalb willste denn aus V-LOG HDR machen. Das beißt sich doch in sich. V-LOG ist absolut kritisch in den Highlights und HLG will ja im Prinzip noch mehr Highlights.Uwe hat geschrieben: ↑Mi 29 Nov, 2017 15:39 Am Anfang hatte ich auch gedacht, dass das V-Log L der GH5 gut geeignet sein müsste für eine HDR-Bearbeitung. Leider ist dem nicht so: Man bekommt oft Artefakte/Sky-Banding in den Lichtern. Ich schätze, dass es daran liegt das die "L"-Variante ab IRE 80% nach oben alles absägt. Und bei HDR kommt es dann wohl zu diesem negativen Effekt.
Als Grundvoraussetzung nimmt ja den Modus für HDR, der am meisten Dynamikumfang hat. Und das ist bei der GH5 ja V-Log L. Aber klappt nicht aus den genannten Gründen. Dieser Artikel von Mystery Box ist da sehr hilfreich: https://www.mysterybox.us/blog/2016/10/ ... ng-for-hdrblueplanet hat geschrieben: ↑Mi 29 Nov, 2017 21:27 .......versteh' ich nicht ganz. Man kann doch nur entweder oder?! Ergo in V-LOGL ODER in HDR drehen. Oder?? Weshalb willste denn aus V-LOG HDR machen....
Und was HLG angeht: Der User Jonpais hat da im EOSHD-Forum einen ganz guten Fred dazu: https://www.eoshd.com/comments/topic/26 ... -d/?page=1So in summary, when choosing your kit for HDR, consider:
1.16 bpc > 14 bpc > 12 bpc > 10 bpc > 8 bpc: 10 bpc should be your minimum spec.
2.RAW > LOG > Linear > Gamma 2.4: avoid baking in your gamma at all costs!
3.Camera Native / BT.2020 > DCI-P3 > Rec. 709 color primaries
4.RAW > Compressed RAW > Intraframe compression (ProRes, DNxHR, AVC/HEVC Intra) > Interframe compressed (AVC/H.264, HEVC).