Bei dieser Nikon-Lösung muss man eben leider zwischen Codec-Beschränkung (10bit) und Auflösungsbeschneidung (Raw) entscheiden.pillepalle hat geschrieben: ↑So 21 Feb, 2021 09:05 Natürlich sind das in dem Sinne keine 'echten' 4K. Ich würde mir auch wünschen die Kanmera würde 6K ausgeben, aber das Leben ist nun mal kein Wunschkonzert und wenn man die Leute nicht mit der Nase draufstößt, oder sie es wissen, bekommen sie davon wenig mit. Ich verfolge im Bezug auf Kameras zur Zeit noch das Motto 'gut genug' :)
VG
Die S5 bietet aber doch 5,9k-Raw extern.cantsin hat geschrieben: ↑So 21 Feb, 2021 09:31 Bei der Sigma fp gibt es dieselbe Einschränkung - von 6K nach 4K heruntergersampeltes Pseudo-Bayer-RAW (bei der fp: als internes CinemaDNG sowie externes ProRes RAW und BRAW), das unschöne Artefakte im Bild zur Folge hat.
Irgendwo habe ich gelesen, dass das eine Hardware-Einschränkung des in beiden Kameras (sowie in der Panasonic S1/S1H/S5) verbauten Sony 24MP-FF-Sensors ist, und dass dieses Pseudo-RAW-Signal direkt aus dem Sensor kommt.
Bei der Sigma fp ist die Lösung für ein besseres/sauberes Bild, im APS-C-Sensorcrop aufzunehmen, was bei 4K zu einer 1:1-Auslesung der Sensorpixel führt.
I stand corrected - dann stimmt auch meine ursprüngliche Aussage über die Begrenzungen der RAW-Auslesung des Sony-Sensors nicht.iasi hat geschrieben: ↑So 21 Feb, 2021 09:54Die S5 bietet aber doch 5,9k-Raw extern.cantsin hat geschrieben: ↑So 21 Feb, 2021 09:31 Bei der Sigma fp gibt es dieselbe Einschränkung - von 6K nach 4K heruntergersampeltes Pseudo-Bayer-RAW (bei der fp: als internes CinemaDNG sowie externes ProRes RAW und BRAW), das unschöne Artefakte im Bild zur Folge hat.
Irgendwo habe ich gelesen, dass das eine Hardware-Einschränkung des in beiden Kameras (sowie in der Panasonic S1/S1H/S5) verbauten Sony 24MP-FF-Sensors ist, und dass dieses Pseudo-RAW-Signal direkt aus dem Sensor kommt.
Bei der Sigma fp ist die Lösung für ein besseres/sauberes Bild, im APS-C-Sensorcrop aufzunehmen, was bei 4K zu einer 1:1-Auslesung der Sensorpixel führt.
Kannst Du mir verraten, wie/wo Du Deine LUT-Knowledge bekommen hast? Kannst Du einen Kanal empfehlen?Darth Schneider hat geschrieben: ↑So 21 Feb, 2021 07:48 Seit ich weiss wie man richtig LUTs anwendet, brauche ich genau mal nicht mal eine halbe Minute und natürlich Franks und Freeers schönes Lut um aus der RAW Szene etwas vom Look her sehr anständiges zu machen.;)
Vielleicht solltest du einfach mal richtiges Color Grading machen und das Ergebnis dann mit LUT-drüber-Ergebnissen vergleichen.roki100 hat geschrieben: ↑So 21 Feb, 2021 13:00 vll. bilde ich mir das ein oder auch nicht: ich habe spaßeshalber in ACES quasi nur Color Correction gemacht, diese dann nach DNxHR 12Bit exportiert...das fertige File in eine neue Timeline und meine Lieblings LUT (Rec709) drüber gepackt. Nun bilde ich mir ein, dass das irgendwie besser aussieht. :D
Es gab einige sehr gute Grading-Demonstrationen auf Yoube - vor einigen Jahren.rush hat geschrieben: ↑Sa 06 Mär, 2021 10:40 Und warum sollte man für YouTube Zwecke auch noch mehr Zeit investieren und stundenlang an den Reglern drehen nur weil die Software es kann?
Genau für solche Zwecke ist das doch völlig unnötig und schnelle Turnarounds sind da viel eher das zu erreichende Ziel.
Der Output vieler Youtuber ist doch heute bereits auf einem sehr hohen Niveau angekommen - auch ohne stundenlanges Color-Grading und das ist auch gut so.
Eigentlich hat niemand Bock sich ewig in der Post aufzuhalten - außer ein paar Hobbyisten oder Leute die beruflich an den Farben schieben - aber selbst die sind doch eher ergebnisorientiert unterwegs.
Und das geht einher mit dem qualitativ hochwertigen Output den wir aus den aktuellen Kameras bekommen - egal ob 8bit, 10bit oder 12bit...
Mit 16bit RAW Material werden sich die wenigsten vollmüllen wollen wenn es auch einfacher geht bei visuell maximal Nuancen im A-B Vergleich...
Wobei es schwer zu sagen ist, woher der "plastikmäßig" Eindruck kommt.cantsin hat geschrieben: ↑Sa 06 Mär, 2021 13:01 Selbst bei YouTubing sieht man doch immer noch den Unterschied, wenn sich jemand die Mühe macht, hochwertigere Bilder zu produzieren. - Man kann hier argumentieren, dass eine Kamera wie die Sigma fp suboptimal ist mangels Autofokus etc. (und dadurch andere Unzulänglichkeiten im Bild produziert). Dennoch sieht das IMHO weniger plastikmäßig aus als das typische YouTubing mit Hybridkameras und deren plastikmäßigeren Straight-out-of-the-camera-Videobildern:
Die üblichen Verdächtigen sind: nicht völlig abschaltbare Entrauschung, nicht völlig abschaltbare künstliche Nachschärfung/Kantenaufsteilung, Privilegierung von spatialer (Pixeldetail)-Auflösung ggü. Farbauflösung/-differenzierung in der kamerainternen Signalverarbeitung (i.e. Prozessierung zu von den meisten Anwendern gewünschten 'knackigen' Bildern), plus zusätzliche Plastik-Look-Punkte durch automatische Softwarekorrektur von Objektivvignettierung und -verzeichnung.
Das liegt aber weniger an der fP an sich - sondern auch am verwendeten, manuellen Voigtländer das den unperfekten Bildcharakter nebst wuscheligem Bokeh unterstützt.cantsin hat geschrieben: ↑Sa 06 Mär, 2021 13:01 Selbst bei YouTubing sieht man doch immer noch den Unterschied, wenn sich jemand die Mühe macht, hochwertigere Bilder zu produzieren. - Man kann hier argumentieren, dass eine Kamera wie die Sigma fp suboptimal ist mangels Autofokus etc. (und dadurch andere Unzulänglichkeiten im Bild produziert). Dennoch sieht das IMHO weniger plastikmäßig aus als das typische YouTubing mit Hybridkameras und deren plastikmäßigeren Straight-out-of-the-camera-Videobildern:
Richtig. Und ich bin mir nicht sicher, ob ich damals wirklich alles abgeschaltet bzw. runtergedreht hatte.cantsin hat geschrieben: ↑Sa 06 Mär, 2021 13:28Die üblichen Verdächtigen sind: nicht völlig abschaltbare Entrauschung, nicht völlig abschaltbare künstliche Nachschärfung/Kantenaufsteilung, Privilegierung von spatialer (Pixeldetail)-Auflösung ggü. Farbauflösung/-differenzierung in der kamerainternen Signalverarbeitung (i.e. Prozessierung zu von den meisten Anwendern gewünschten 'knackigen' Bildern), plus zusätzliche Plastik-Look-Punkte durch automatische Softwarekorrektur von Objektivvignettierung und -verzeichnung.
was ich da gemacht habe war nur einfacher vergleich zwischen ACES und dem default Workflow( Rec709, CST usw.). Bin aber dann doch zum Entschluss gekommen, dass ACES für mich nicht geeigneter ist...iasi hat geschrieben: ↑Sa 06 Mär, 2021 10:28Vielleicht solltest du einfach mal richtiges Color Grading machen und das Ergebnis dann mit LUT-drüber-Ergebnissen vergleichen.roki100 hat geschrieben: ↑So 21 Feb, 2021 13:00 vll. bilde ich mir das ein oder auch nicht: ich habe spaßeshalber in ACES quasi nur Color Correction gemacht, diese dann nach DNxHR 12Bit exportiert...das fertige File in eine neue Timeline und meine Lieblings LUT (Rec709) drüber gepackt. Nun bilde ich mir ein, dass das irgendwie besser aussieht. :D
Ich weiß nicht was ihr macht, aber bei der GH5 kann man intern, sowohl NR als auch Sharpness so runter drehen als wäre es komplett ausgeschaltet. Ich habe gerade deswegen die Kamera damals ausgewählt, weil die IQ eben nicht nach Plastik aussieht. Ein bisschen Sharpness kameraintern (z.B. auf -2) ist sogar besser als garnicht, weil Artefakte wie Moiré dann eben weg sind ohne irgendwelche sichtbare schärfenverlusst, ja, das nenne ich Bildverbesserung und das wäre ganz gut auch für BMPCC/BMMCC/BMCC im CDNG Modus. ;)Aber dies war eben auch ein Grund, weshalb ich mit der GH5 nie richtig warm geworden bin: Der Kampf mit dem Menü und den vielen "Bildverbesserungen".
Einfach ausprobieren z.B. ab wann moiré auftreten usw. Warum Sharpness komplett ausschalten, wenn kamerainterner Sharpness Prozesse die moirés besser killen als beste externe Workflows, z.B. in DaVinci im ColorSpace Modus Y'UV und Green/Red Bluren.Darth Schneider hat geschrieben: ↑Sa 06 Mär, 2021 15:40 Bei meiner Pocket hat es im Menü auch ein Sharpnes Schalter, hab ihn aber immer auf Medium...Wäre das besser den mal auszuschalten ?
Gruss Boris
Sorry, aber irgendwie werde ich das Gefühl nicht los, dass Du seit mittlerweile Jahren hier auf dem Forum und Experimentieren mit der BMPCC die Grundlagen völlig mißverstehst...roki100 hat geschrieben: ↑Sa 06 Mär, 2021 15:44 Einfach ausprobieren z.B. ab wann moiré auftreten usw. Warum Sharpness komplett ausschalten, wenn kamerainterner Sharpness Prozesse die moirés besser killen als beste externe Workflows, z.B. in DaVinci im ColorSpace Modus Y'UV und Green/Red Bluren.
Es ist tatsächlich etwas was ich bei BMPCC vermisse, intern Sharpness zu steuern, so ähnlich wie bei GH5/G9. Stattdessen muss man teueren OLPF kaufen und einer davon macht nichts anderes, schärfe reduzieren.
Mal eben zu Deinen Punkten:
Alle kamerainternen Sharpness-Einstellungen sind nur Regelungen der Kantenaufsteilung (also der Software-Nachschärfung). Wenn Du in in der Kamera die Einstellung auf den kleinsten Wert (wie z.B. "-4") setzt, wird das Bild nicht kameraintern weichgezeichnet, sondern nur die Nachschärfung weniger stark angewandt. Bei den meisten Prosumer-Kameras, inkl. der GH4/GH5, lässt sie sich niemals völlig 'rausdrehen, was man anhand von Nachschärfungs-Farbsäumen bzw. Halos leicht nachprüfen kann. Insofern sind da Menüpunkte wie "-4" irreführend, bzw. beziehen sich auf den Anwendergeschmack, dem ein nicht-nachgeschärftes Bild zu 'weich' bzw. 'unscharf' erscheint.Einfach ausprobieren z.B. ab wann moiré auftreten usw. Warum Sharpness komplett ausschalten, wenn kamerainterner Sharpness Prozesse die moirés besser killen als beste externe Workflows, z.B. in DaVinci im ColorSpace Modus Y'UV und Green/Red Bluren.
Alle OLPFs reduzieren [und zwar prinzipbedingt] Schärfe, um Moirés zu verhindern. Bei einer Raw-Kamera kann man Schärfe/Sharpness nie intern einstellen, weil sie ein Nachprozessierungsparameter ist. Weder bei Foto-RAW, noch bei Video-RAW hat die kamerainterne Sharpness-Einstellung Auswirkungen auf das aufgezeichnete Bild.Es ist tatsächlich etwas was ich bei BMPCC vermisse, intern Sharpness zu steuern, so ähnlich wie bei GH5/G9. Stattdessen muss man teueren OLPF kaufen und einer davon macht nichts anderes, schärfe reduzieren...
Ich weiß was Du meinst. Schau Dir aber die Argumente seitens BMD, wo es um den Vergleich zwischen BRAW und CDNG geht....cantsin hat geschrieben: ↑Sa 06 Mär, 2021 16:06 Alle OLPFs reduzieren [und zwar prinzipbedingt] Schärfe, um Moirés zu verhindern. Bei einer Raw-Kamera kann man Schärfe/Sharpness nie intern einstellen, weil sie ein Nachprozessierungsparameter ist. Weder bei Foto-RAW, noch bei Video-RAW hat die kamerainterne Sharpness-Einstellung Auswirkungen auf das aufgezeichnete Bild.
Wo kann man das nachprüfen? Bei 500% Zoom? ;) Ich bin überzeugt davon, dass gerade Panasonic das kameraintern sehr gut gelöst hat (es verhält sich anders als z.B. Sharpness in DaVinci Resolve). Es gibt da scheinbar keine einheitliche Grundlage für kamerainterne Sharpness... Sony z.B. scheint das kameraintern anders zu lösen...Bei den meisten Prosumer-Kameras, inkl. der GH4/GH5, lässt sie sich niemals völlig 'rausdrehen, was man anhand von Nachschärfungs-Farbsäumen bzw. Halos leicht nachprüfen kann.
Wieder eine andere Baustelle. Bei BRAW wird das Videosignal vor der Aufzeichnung kameraintern entrauscht (und zwar mit temporal denoising) und wird dadurch weicher als das CDNG-Material, und zwar einfach deshalb, weil der Rauschfilter Pixel verschmiert.roki100 hat geschrieben: ↑Sa 06 Mär, 2021 16:17Ich weiß was Du meinst. Schau Dir aber die Argumente seitens BMD, wo es um den Vergleich zwischen BRAW und CDNG geht....cantsin hat geschrieben: ↑Sa 06 Mär, 2021 16:06 Alle OLPFs reduzieren [und zwar prinzipbedingt] Schärfe, um Moirés zu verhindern. Bei einer Raw-Kamera kann man Schärfe/Sharpness nie intern einstellen, weil sie ein Nachprozessierungsparameter ist. Weder bei Foto-RAW, noch bei Video-RAW hat die kamerainterne Sharpness-Einstellung Auswirkungen auf das aufgezeichnete Bild.
Unser Mitforist DeeZid hat sich lange damit herumgeschlagen. Bei Panasonic ist ihm zufolge zumindest in der S1/S5-Serie die künstliche Nachschärfung komplett rausdrehbar, aber bei der S1H auch nur seit einem Firmware-Update.Wo kann man das nachprüfen? Bei 500% Zoom? ;) Ich bin überzeugt davon, dass gerade Panasonic das sehr gut gelöst hat. Es gibt da keine einheitliche Grundlage für kamerainterne Entschärfung, Sony scheint das kameraintern anders zu lösen....Bei den meisten Prosumer-Kameras, inkl. der GH4/GH5, lässt sie sich niemals völlig 'rausdrehen, was man anhand von Nachschärfungs-Farbsäumen bzw. Halos leicht nachprüfen kann.
Das sind natürlich Extrembeispiele. Hier ein praxisnäheres Beispiel anhand von DPreviews "Video Stills Comparison"-Webtool:
Warum wird wohl das Menü der BM-Cams so gelobt? Weil es nicht viel gibt, das man einstellen muss/kann und es dadurch übersichtlich bleibt.roki100 hat geschrieben: ↑Sa 06 Mär, 2021 15:21
Ich weiß nicht was ihr macht, aber bei der GH5 kann man intern, sowohl NR als auch Sharpness so runter drehen als wäre es komplett ausgeschaltet. Ich habe gerade deswegen die Kamera damals ausgewählt, weil die IQ eben nicht nach Plastik aussieht. Ein bisschen Sharpness kameraintern (z.B. auf -2) ist sogar besser als garnicht, weil Artefakte wie Moiré dann eben weg sind ohne irgendwelche sichtbare schärfenverlusst, ja, das nenne ich Bildverbesserung und das wäre ganz gut auch für BMPCC/BMMCC/BMCC im CDNG Modus. ;)
Und was ist mit LUT-drüber-Ergebnissen? Da sollte man m.M. nicht verallgemeinern, ein gutes Beispiel wäre nicht nur frankfrezzer--K-Tone-LUT, sondern auch GHAlex - das ist tatsächlich etwas spezielles und einfach nur gut gemacht.
Nachtrag dazu, und wieder on-topic:
Ist das so?roki100 hat geschrieben: ↑Sa 06 Mär, 2021 17:26 Ich denke da sollte man zwischen GH5+VLOG und nur GH5 unterscheiden, denn wenn Panasonic das behauptet:
"Nearly all image processing is disabled in V-Log mode; the camera bypasses all that internal processing, and delivers a smooth, flat, clean image that is ready to be graded in post. You can, however, still assign noise reduction using the camera’s NR menu."
dann scheint das auch so zu sein.
Was kann die GH5 dafür dass Du nicht selbst eigene Menü anpasst... ;) Wenn Dir diese ein paar Schritte da zu kompliziert sind, dann weiß ich nicht, wie es mit Calorgrading + Nodes in DR bei dir so aussieht... ;)iasi hat geschrieben: ↑Sa 06 Mär, 2021 17:26 Warum wird wohl das Menü der BM-Cams so gelobt? Weil es nicht viel gibt, das man einstellen muss/kann und es dadurch übersichtlich bleibt.
Bei der GH5 hingegen artet es immer sehr schnell in Einstellungsorgien aus. So schlimm hatte ich es noch bei keiner Kamera empfunden.
ja, das deckt sich mit meiner Erfahrung/Vergleiche/Tests usw.iasi hat geschrieben: ↑Sa 06 Mär, 2021 17:32Ist das so?roki100 hat geschrieben: ↑Sa 06 Mär, 2021 17:26 Ich denke da sollte man zwischen GH5+VLOG und nur GH5 unterscheiden, denn wenn Panasonic das behauptet:
"Nearly all image processing is disabled in V-Log mode; the camera bypasses all that internal processing, and delivers a smooth, flat, clean image that is ready to be graded in post. You can, however, still assign noise reduction using the camera’s NR menu."
dann scheint das auch so zu sein.
Gibt´s da Tests?
Ich will während der Aufnahme nicht in Menüs herumwühlen und eventuell sogar Gefahr laufen, dass etwas verstellt ist.roki100 hat geschrieben: ↑Sa 06 Mär, 2021 17:37Was kann die GH5 dafür dass Du nicht selbst eigene Menü anpasst... ;) Wenn Dir diese ein paar Schritte da zu kompliziert sind, dann weiß ich nicht, wie es mit Calorgrading + Nodes in DR bei dir so aussieht... ;)iasi hat geschrieben: ↑Sa 06 Mär, 2021 17:26 Warum wird wohl das Menü der BM-Cams so gelobt? Weil es nicht viel gibt, das man einstellen muss/kann und es dadurch übersichtlich bleibt.
Bei der GH5 hingegen artet es immer sehr schnell in Einstellungsorgien aus. So schlimm hatte ich es noch bei keiner Kamera empfunden.
Mir kommt das so vor, als würden wir über unterschiedliche GH5 schreiben, es gibt aber nur eine GH5 und die etwas abgesteckte Version davon, die G9.... ;)
Ja fraglich, warum nicht vorher die Bedienungsanleitung lesen?Es gibt auf youtube spezielle Tutorials, die zeigen, wie man bei der GH5 180fps einstellt. ;) :)