Newsmeldung von slashCAM:
Nikon hat heute eine neue Firmware für die spiegellosen Vollformatkameras Z 7II und Z 6II angekündigt. Die Firmware-Version 1.10 soll am 25. Februar 2021 veröffentlicht w...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Nikon Z6/Z7 II-Kameras - Neue Firmware, neues Movie Kit und Blackmagic RAW
Antwort von roki100:
also Movie Kit sieht aus wie Bügeleisen mit zusätzlichen Wasserkanister obendrauf
Also ich weiß nicht wer so filmt, aber das sieht doch völlig unbequem aus und scheinbar nur für Stativ...?
Antwort von Darth Schneider:
Ein Christbaum, hübsch...
Gruss Boris
Antwort von iasi:
Noch so eine verkrüppelte Lösung.
Dann lieber 4k-12bit-ProRes oder -H265 von der vollen Sensorauflösung.
Antwort von rush:
Immerhin scheint man nun auch den Weg für weitere Hersteller zu öffnen... Das muss ja aktuell vllt noch nicht allzu spannend sein - könnte aber perspektivisch interessant werden wenn Nikon darüber hinaus gemeinsame Sache mit Blackmagic macht.
Mal fiktiv weiter gedacht gibt es diesen Tannenbaumbedarf dann eines Tages womöglich auch bei Nikon nicht mehr wenn man intern, also je nach Bedarf ProRes RAW oder braw auf die Speicherkarte schreiben kann.
Und wer dann immernoch 'nen extra Monitor mag - greift halt zu einem x-beliebig Vorhandenem oder 'nem besonders hell leuchtenden Moni.
Die anderen nutzen das rückwärtige LCD oder den Sucher.
Antwort von cantsin:
rush hat geschrieben:
Mal fiktiv weiter gedacht gibt es diesen Tannenbaumbedarf dann eines Tages womöglich auch bei Nikon nicht mehr wenn man intern, also je nach Bedarf ProRes RAW oder braw auf die Speicherkarte schreiben kann.
Halte ich für sehr unwahrscheinlich, dass das in absehbarer Zeit kommt. Für internes ProRes RAW bräuchte Nikon eine Patentlizenz von RED. Und auch Blackmagic will seine Recorder (und seine eigenen Kameras) verkaufen und würde bei interner BRAW-Aufzeichnung zur Kasse bitten. Dafür sind das dann auch für die breite Nikon-Kundschaft bzw. 99% der Käufer dieser Kameras zu esoterische Features.
Antwort von rush:
Auch Nikon ist seit einiger Zeit nicht mehr unbedingt der aufstrebende Global Player und könnte durchaus Interesse daran haben wieder von einer etwas breiteren Masse wahrgenommen zu werden...
Manchmal können solche Kooperation ja durchaus beidseitig Früchte tragen. Immerhin hat BMD in Sachen Fotografie und AF noch enormen Nachholeebedarf.
Aber auch klar das dies bisher reine Spekulation ist und man das nicht für bare Münze sehen sollte.
Antwort von markusG:
iasi hat geschrieben:
Noch so eine verkrüppelte Lösung.
Dann lieber 4k-12bit-ProRes oder -H265 von der vollen Sensorauflösung.
Finde auch dass wieder unnötig die RAW Sau durchs Dorf gejagt wird. Lieber erstmal ordentliche Codecs intern anbieten, wenn man schon auf schnelle Speicherkarten setzt.
Dann wiederum finde ich es okay extern aufzunehmen, wenn man eh den Aufwand betreibt wo der Mehrwert Sinn macht - da würde ich ohne externen Monitor nicht drehen wollen. Und wenn das dann gleichzeitig der Recorder ist sehe
ich da kein Problem.
Antwort von pillepalle:
@ Darth & roki
Mir ist auch schleierhaft wie man so ein Produktfoto/Set vorstellen kann... so bescheuert wird wohl kaum jemand seine Kamera riggen :) Hier in dem Video sieht man wie ein 'normaler' Mensch den Monitor riggen würde
https://www.youtube.com/watch?v=n4CmSiN_hgM&t=5s
Für mich gibt es im Moment auch keinen Grund die eine Z6 II wirklich interessant macht. Denn abgesehen von der besseren AF Performance sind die Neuerungen, wie z.B. Dual Card Slots oder der neue Hochfromathandgriff, recht uninteressant und BRAW geht seit Dezember auch schon auf der älteren Z6 Modellen.
Die Implementierung verschiedener RAW Formate finde ich allerdings ziemlich nützlich, denn man kann dadurch die Kamera noch besser in unterschiedliche Produktionsumgebungen einbinden. Jetzt eben auch ganz gut in welche mit Blackmagic Kameras. Der einzige Grund warum ich mir noch keinen Video Assist geholt habe ist der, dass ich BRAW noch nicht unbedingt brauche und das mir der Atomos Recorder von den Features eigentlich besser gefällt als der Video Assist. Gerade was die Timecode-Funktionalitäten und Steuerbarkeit per Funk betrifft.
Früher oder später werde ich mir sicher mal einen Videoassist zulegen. Zum einen um BRAW mal auszuprobieren und zum anderen, weil ich damit direkt in Resolve arbeiten kann. Wobei man, wenn man einen RAW Workflow wählt, ja eh nicht auf einen schnellen Tournaround angewiesen ist. Dafür gibt es dann bessere CODEC Optionen. Bei RAW ist die Nutzung einer Software wie Assimilate Scratch ohnehin eher von Vorteil... bin ein großer Fan dieser Software geworden die ein paar geniale Features bietet :) Auch wenn einige davon sicher nur für größere Produktionen interessant sind. Der ACES Workflow funktioniert in Kombination mit Resolve wirklich reibungslos. Aber auch in jedem anderen Workflow kann man völlig unterschiedliche Materialien perfekt in einen gemeinsames Format umwandeln um damit später weiter zu arbeiten, oder verschiedenen Departments verschiedene Formate des Materials zu zusenden. Und das alles mit wenigen Mausklicks.
Was die Zukunft von Nikon im Videobereich betrifft bin ich auch nur mäßig optimistisch. Die werden kaum eine rein videolastige Kamera, oder gar eine reine Videokamera heraus bringen. Also vermutlich immer nur Fotoapparate, mit denen man auch ganz gut filmen kann. Von da her muss man ohnehin ab einem gewissen Produktionsniveau die Kameramarke wechseln. Aber im Gegensatz zu iasi mache ich das wirklich erst wenn es tatsächlich nötig wird und nicht 10 Jahre im voraus *g*
VG
Antwort von Darth Schneider:
Olympus, Nikon und auch Panasonic, müssen aufpassen. Ich denke die Kamerasparten dieser drei Firmen, werden sehr wahrscheinlich nicht mehr all zu lange exestieren, wenn sie nicht sofort aufhören einen Kamera Flopp nach dem anderen heraus zu bringen.
Wer BRaw will wird sich ganz einfach kaum eine Nikon kaufen...
Gruss Boris
Antwort von pillepalle:
Ganz so pessimistisch wie Du sehe ich die Zukunft von Nikon und Panasonic nicht, aber natürlich wird sich niemand eine Nikon kaufen nur um BRAW nutzen zu können. Außer er ist mit den Mounts und der Haptik der Pockets nicht so glücklich ;) Aber für Nikon User ist das ziemlich praktisch und bisher bietet kaum eine andere DSLM so viele unterschiedliche Codec Optionen (ProRes und DNxHR in 10bit und PRRAW und BRAW in 12bit). Die meisten anderen Hersteller tragen ihre Grabenkämpfe aus und bieten nur die CODECs aus dem eigenen Lager an.
VG
Antwort von Darth Schneider:
Und wozu braucht denn irgend ein Kunde so viele Raw und sonstige Formate beim filmen ?
Für mich tönt das eher ein wenig nach, wir haben kein, internes RAW und auch sonst kein gescheites und klares Konzept für die neue Nikon...Also schmeissen wir möglichst einfach alle RAW Video Formate, zwar nur via externer Rekorder, irgend wie da, mit dem Ninja und dem Christbaum Rig, in die neue Nikon rein...
Nix gegen Nikon, aber wer kauft denn schon sowas, nur zum filmen, eher weniger...
Gut, wenn man damit zu 60% nur fotografiert, und nur nebenbei ein wenig RAW Video Luft schnuppern möchte, dann braucht man den unsinnigen Christbaum/das Geraffel nur selten. Dann muss das an sich nix negatives sein....
Gruss Boris
Antwort von pillepalle:
Ein professioneller Filmer der seit Jahren arbeitet wird sich kaum eine Nikon kaufen. Die Kamera ist eine Hybride für Leute die neben Fotos auch mal Filmen, oder mit dem Filmen anfangen. Sie bietet aber eben auch die Möglichkeit mit den Aufgaben zu wachsen. Die verschiedenen RAW Optionen braucht man z.B., wenn die Nikon als B-Kamera fungiert und die A-Kamera eine bessere ist. Also z.B. mal eine Sony FX6/FX9 (die PRRAW ausgeben kann), oder mal eine URSA Mini die in BRAW aufzeichnet.
Als ich mir vor drei Jahren die Z6 geholt habe gab es noch nicht die 6K Pocket und sonst nur DSLMs im MFT-Format die RAW ausgeben konnten, oder interne 10bit 422 CODECs hatten. Und bei mir spielten natürlich vor allem meine vorhandenen Objektive eine Rolle. Wenn Du einen Objektivpark im fünfstelligen Euro Bereich hast, dann gibt Du den nicht leichtfertig im Tausch für eine billige Zoom-Optik und ein XY-Durchschnittsprime an einer anderen Kamera her. Das ist auch der Grund, warum ich mir bisher keine Z-Mount Optiken gekauft habe. Die sind zum filmen eigentlich recht gut, aber man wäre damit eben auf das Nikon-System festgenagelt. Eigentlich sind die F-Mount Optiken bezüglich der Adaptierbarkeit ideal. Nur beim EF-Mount, auf den sich Blackmagic bei der 6K Pocket kapriziert hat, eben nicht besonders gut. Aber mir ist schon klar, das die Nachfrage nach F-Mounts im Videobereich zu gering ist um ein spezielles Kameramodell dafür anzubieten.
Jedenfalls arbeite ich bisher mit der Z6 wunderbar und verdiene genug um mir meinen 'Filmkram' damit zu finanzieren. An dem Tag an dem ich, oder meine Kunden mit der Qualität nicht mehr zufrieden sind, oder das Produktionsniveau eine bessere Kamera erfordert, hole ich mir eben was besseres. Aber eben möglichst etwas, an dem ich zumindest zum Teil meine Objektive noch verwenden kann. Sonst müsste ich mir alles dafür immer erst noch zusätzlich dazu mieten.
VG
Antwort von Rohschnitzer21:
Ja, leider bin ich auch skeptisch wie weit Nikons Engagement im Bereich Video geht/gehen wird. Was soll man von einem bildgebenden Technologieunternehmen halten, das Werbeclips mit Fehlbildern (1:30) freigibt?
pillepalle hat geschrieben:
@ Darth & roki
Mir ist auch schleierhaft wie man so ein Produktfoto/Set vorstellen kann... so bescheuert wird wohl kaum jemand seine Kamera riggen :) Hier in dem Video sieht man wie ein 'normaler' Mensch den Monitor riggen würde
https://www.youtube.com/watch?v=n4CmSiN_hgM&t=5s
Für mich gibt es im Moment auch keinen Grund die eine Z6 II wirklich interessant macht. Denn abgesehen von der besseren AF Performance sind die Neuerungen, wie z.B. Dual Card Slots oder der neue Hochfromathandgriff, recht uninteressant und BRAW geht seit Dezember auch schon auf der älteren Z6 Modellen.
Die Implementierung verschiedener RAW Formate finde ich allerdings ziemlich nützlich, denn man kann dadurch die Kamera noch besser in unterschiedliche Produktionsumgebungen einbinden. Jetzt eben auch ganz gut in welche mit Blackmagic Kameras. Der einzige Grund warum ich mir noch keinen Video Assist geholt habe ist der, dass ich BRAW noch nicht unbedingt brauche und das mir der Atomos Recorder von den Features eigentlich besser gefällt als der Video Assist. Gerade was die Timecode-Funktionalitäten und Steuerbarkeit per Funk betrifft.
Früher oder später werde ich mir sicher mal einen Videoassist zulegen. Zum einen um BRAW mal auszuprobieren und zum anderen, weil ich damit direkt in Resolve arbeiten kann. Wobei man, wenn man einen RAW Workflow wählt, ja eh nicht auf einen schnellen Tournaround angewiesen ist. Dafür gibt es dann bessere CODEC Optionen. Bei RAW ist die Nutzung einer Software wie Assimilate Scratch ohnehin eher von Vorteil... bin ein großer Fan dieser Software geworden die ein paar geniale Features bietet :) Auch wenn einige davon sicher nur für größere Produktionen interessant sind. Der ACES Workflow funktioniert in Kombination mit Resolve wirklich reibungslos. Aber auch in jedem anderen Workflow kann man völlig unterschiedliche Materialien perfekt in einen gemeinsames Format umwandeln um damit später weiter zu arbeiten, oder verschiedenen Departments verschiedene Formate des Materials zu zusenden. Und das alles mit wenigen Mausklicks.
Was die Zukunft von Nikon im Videobereich betrifft bin ich auch nur mäßig optimistisch. Die werden kaum eine rein videolastige Kamera, oder gar eine reine Videokamera heraus bringen. Also vermutlich immer nur Fotoapparate, mit denen man auch ganz gut filmen kann. Von da her muss man ohnehin ab einem gewissen Produktionsniveau die Kameramarke wechseln. Aber im Gegensatz zu iasi mache ich das wirklich erst wenn es tatsächlich nötig wird und nicht 10 Jahre im voraus *g*
VG
|
Antwort von cantsin:
pillepalle hat geschrieben:
Bei RAW ist die Nutzung einer Software wie Assimilate Scratch ohnehin eher von Vorteil... bin ein großer Fan dieser Software geworden die ein paar geniale Features bietet :) Auch wenn einige davon sicher nur für größere Produktionen interessant sind. Der ACES Workflow funktioniert in Kombination mit Resolve wirklich reibungslos.
Wie bringst Du das ProRes RAW-Material von Scratch nach Resolve? Via ProRes 444, oder kann Scratch auch DNG rausrendern?
Antwort von pillepalle:
@ castin
Normerweise als 12bit ProRes 444XQ. Seit neuestem habe ich aber den ACES Workflow für mich entdeckt, der mir ziemlich gut gefällt. In dem machen ich OpenEXR Dateien in 16bit float und lasse sie im ACES Arbeitsfarbraum. Die importieren ich dann in Resolve. Ist natürlich ein recht großes Einzelbildformat, aber das kann man ggf auch zusätzlich komprimieren.
VG
Antwort von roki100:
Irgendwo habe ich mal gesehen dass dein Workflow mit OpenEXR export auch für (VFX) Fusion eingesetzt wird bzw. dafür so vorbereitet. Kannst Du ein paar Fertigergebnisse zeigen? Also so wie letztens, mit der hüpfende Dame...?
Antwort von pillepalle:
@ roki
Mit den hüpfenden Damen musst Du Dich noch ein wenig gedulden, ich teste das zur Zeit nur an relativ unspektakulären Motiven :) Das ich zu OpenEXR gekommen bin liegt einfach daran, dass dies das Standard-Zwischenformat im ACES Workflow ist. Und ja, Open EXR Dateien verwendet man auch im VFX Bereich, dann allerdings lieber in einer photometrisch linearen Variante wie z.B. ACESgt, was einem Gamma von 1.0 entspricht. Für's Graden, oder am Set verwendet man die logarithmischen Varianten von ACES, also ACEScc oder ACEScct, weil das dem natürlichem Verhalten des menschlichen Sehens entspricht und die Regler beim graden dann auch 'natürlicher' reagieren. ACEScct ist eine etwas verfeinerte Variante von ACEScc die mehr einer traditionellen log-Kurve entspricht, weil sie in den Schatten flacher wird. Dadurch kann man beim graden eher den Effekt schleiriger/milchiger Schwärzern beim anheben der Schatten erzeugen, wie es Coloristen von traditionell gescanntem Filmmaterial gewohnt waren und es bei manchen Looks gefragt ist.
zum Bild
Die eigentliche Idee von ACES ist branchenübliche Standards/Workflows einzuführen, die herstellerübergreifend und frei zugänglich sind. Sozusagen ein Leitfaden an den sich alle am Prozess beteiligten halten sollen. Insbesondere natürlich für Cinema-Applikationen. Dabei hat man vor allem im Auge über den gesamten Bearbeitungsprozess die hohe Qualität des Ausgangsmaterials zu erhalten. Also z.B. geeignete Formate zur Archivierung zu haben (ACES AP0) die quasi den gesamten sichtbaren Bereich abdecken und auch bei einem Remaster Jahre später, wenn z.B. bessere Displaytechnologien (wie HDR oder erweiterte Farbräume) vorhanden sind, verwendet werden können. Zum Arbeiten verwendet man ACES API, was einen erweitertem REC2020 Farbraum entspricht, denn da würde ein übermäßig großer Farbraum beim graden eher ein Nachteil, als ein Vorteil sein.
Wenn man wie ich alleine an den eigenen Projekten und vorwiegend mit Consumer Kameras arbeitet, dann braucht man kein ACES. Das Resolve Color Management (RCM) ist sehr gut und mehr als ausreichend für alle Anwender. Nur ist es eben resolve-spezifisch und unterstützt nicht alle Formate (z.B. nicht das ProRes RAW der Nikon). Ich interessiere mich einfach für das Thema und für verschiedene Workflows die ich selber beherrschen möchte, um eben nicht auf einen anderen 'Fachmann' angewiesen zu sein. Also den gesamten Prozess verstehen, von der Aufnahme bis zu den verschiedenen Formen der Wiedergabe. Andere interessiert das nicht, oder sie brauchen es nicht, auch gut :) Aber sobald man nicht mehr alleine und mit verschiedenen Kameras und Departments arbeitet, wird der Workflow und der Umgang mit dem Material recht wichtig, damit es eben keine Fehler im Verarbeitungsprozess gibt.
VG
Antwort von roki100:
Also ohne Rec.2020 Bildschirm (und das sind doch die meisten Bildschirme nicht?) ist Rec.2020-Farbraum für die meisten doch nutzlos? Die Skintones z.B. sehen matt gelb/braun aus.
Antwort von pillepalle:
@ roki
Wie gesagt, bessere Bildschirme können das schon annähernd. Mein Eizo schaft bereits 88% des B.T.2020 Farbraums. Das ist schon ziemlich gut. Aber du solltest auch nicht den Arbeitsfarbraum (der bei ACES ähnlich dem REC2020 ist) mit dem Farbraum des Displays verwechseln. Ich kann z.B. im REC2020 Farbraum arbeiten, mir für das Monitoring aber ein REC709 ausgeben lassen, wenn mein Monitor z.B. nicht anderes kann. Du siehst dann zwar weniger Farben, aber diejenigen die Du sehen kannst, werden korrekt in den Farbraum Deines Monitors übersetzt.
VG
Antwort von roki100:
Wenn ich aber von Anfang an in (ACES) Rec.709 Farbraum arbeite, so sehe ich exakt das, wie es auf den meisten Bildschirme dann auch aussehen wird (solange die Bildschirme exakt so wie mein Bildschirm kalibriert sind), oder nicht?
Antwort von pillepalle:
In ACES arbeitet man nicht in REC709, sondern in ACES (als Arbeitsfarbraum). Das ist ja gerade der Witz daran, die Farbinformationen über den gesamten Verarbeitungsprozess zu erhalten :) Du wandelst also z.B. Dein RAW direkt in ACES um und änderst es erst in den verschiedenen Stadien der Delivery (also z.B. P3 für Cinema, REC709 für Broadcast, oder sRGB für's Netz).
Was Dein Monitoring betrifft ist das natürlich abhängig vom Monitor den Du verwendest. Dafür wählst Du ein Monitorprofil das zu Deinem Monitor passt über die jeweilige (RRT->ODT). Das Du das Bild korrekt dargestellt bekommst, liegt also im Wesentlichen an den richtigen Projekteinstellungen der jeweiligen Software (eine richtige Monitor-Kalibrierung vorausgesetzt). Und da kommen viele eben durcheinander, weil es Software gibt, die manche Dinge für den Nutzer automatisch erledigen/umwandeln, ohne das er wirklich weiß was im Hintergrund passiert ist, oder eben nicht ganz klar ist, welche Einstellungen wofür sind.
VG
Antwort von roki100:
Ich meinte mit ACES Rec.709-Farbraum das hier:
Bildschirmfoto 2021-02-21 um 04.03.33.png
Bildschirmfoto 2021-02-21 um 03.58.25.png
Antwort von pillepalle:
Ja, wenn Du von einer Blackmagic Kamera kommst ist das richtig, nur die Node LUTs solltest Du in ACES API ändern, denn AP0 verwendet man nur zum Archivieren. Wichtig ist das man sich vorher miteinander abspricht und alle die gleichen Versionen von ACES verwenden. Manchmal gibt es die neueste Version nicht in jeder Software und dann kann es Sinn machen auch mit einer älteren Version zu arbeiten. Deine Output ODT ist in dem Fall REC709 und darauf sollte Dein Monitor dann auch kalibriert sein. Egal ob Du über eine Decklink gehst (mit eigner Monitor-LUT), oder über die Grafikkarte via ICC-Profil.
VG
Ich stelle bei ACES übrigens meist
No ACES Color Space Transform bei der IDT ein, weil ich ja bereits im ACES Farbraum bin, wenn ich mit meinem Material zu Resolve komme. So bin ich auch flexibeler, falls ich für unterschiedliche Materialien unterschiedlichte IDTs verwenden möchte. Die muss ich für die jeweiligen Clips dann manuell in der Media Page eingeben.
Antwort von roki100:
pillepalle hat geschrieben:
nur die Node LUTs solltest Du in ACES API ändern, denn AP0 verwendet man nur zum Archivieren.
genau das war mir nicht ganz klar... Danke.
Antwort von Darth Schneider:
Ist dieses Aces nicht eigentlich gedacht um bei grossen Produktionen dafür zu sorgen das alle unzählige Anzeige Geräte und nicht zuletzt die dazu gehörigen Mitarbeiter visuell alle am selben Strick ziehen ?
Wozu brauchst du das roki ?
Gruss Boris
Antwort von pillepalle:
@ Darth
Es geht dabei weniger um die richtige Anzeige, denn die sollte man ohnehin bei jedem Workflow verwenden, sondern um einen gemeinsamen Workflow und einheitlichen Arbeitsfarbraum. Es gibt seit Einführung der Digitaltechnik eine Unmenge von verschiedenen Formaten und jeder Hersteller kocht sein eigenes Süppchen. Und ebenso vielfältig sind die Wege das Material zu verarbeiten. Man möchte einfach einen gemeinsamen Standard für den Cine-Bereich haben. Wozu roki das braucht, muss er Dir allerdings selber beantworten :)
VG
Antwort von Frank Glencairn:
pillepalle hat geschrieben:
Wobei man, wenn man einen RAW Workflow wählt, ja eh nicht auf einen schnellen Tournaround angewiesen ist.
Ich frage mich immer, warum sie dieser alte Mythos immer noch hält.
Raw verhält sich in der Post - was die "Schnelligkeit des Turnaround" betrifft - auch nicht anders als irgend ein anderer Codec.
Antwort von pillepalle:
@ Frank
Bei einem in der Kamera eingebackenen REC709 ist man in der Post schon ein wenig schneller... glauben zumindest die Broadcaster.
VG
Antwort von Darth Schneider:
Seit ich weiss wie man richtig LUTs anwendet, brauche ich genau mal nicht mal eine halbe Minute und natürlich Franks und Freeers schönes Lut um aus der RAW Szene etwas vom Look her sehr anständiges zu machen.;)
Das geht mit keinem anderem Codec schneller und sehr wahrscheinlich auch nicht schöner.
Mann könnte die LUTs und die Looks ja im Vorfeld auch so definieren das ein Klick reichen würde. Dann dauert das Grading eine Sekunde.
Alles eine Sache der Planung.
Die Ursa Mini Broadcast kann übrigens auch BRaw...Komisch nicht ?
Gruss Boris
Antwort von pillepalle:
Ich persönlich sehe das auch nicht so dramatisch, aber in der Praxis ist das dann meist doch mehr als ein paar Mausklicks, weil man dann eben doch anfängt daran herum zu fummeln. Bei Fotos ist das sicher nochmal anders, aber ich habe eine Zeitlang auch mal Pressearbeit gemacht und da tatsächlich viel mit JPEGs gearbeitet. Einfach weil das Konvertieren und Runterrechnen dann doch immer etwas Zeit brauchte. Die JPEGs konnte ich quasi out of the cam direkt versenden. Und so ähnlich ist das vermutlich im Newsbereich beim TV. Da sieht man auch oft gruseliges Material, aber eben weil da niemand was dran gemacht hat. Da geht Schnelligkeit vor Schönheit.
In allen anderen Fällen hat Frank aber prinzipiell recht. Ob ich von einer ProRes Datei komme, oder von einer BRAW macht eigentlich keinen Unterschied.
VG
Antwort von Frank Glencairn:
pillepalle hat geschrieben:
Bei einem in der Kamera eingebackenen REC709 ist man in der Post schon ein wenig schneller... glauben zumindest die Broadcaster.
Ja, weil die meistens immer noch irgendwelche antiken AVIDs nutzen :D
In Resolve ist 709 nur einen Mausklick entfernt.
Antwort von iasi:
markusG hat geschrieben:
iasi hat geschrieben:
Noch so eine verkrüppelte Lösung.
Dann lieber 4k-12bit-ProRes oder -H265 von der vollen Sensorauflösung.
Finde auch dass wieder unnötig die RAW Sau durchs Dorf gejagt wird. Lieber erstmal ordentliche Codecs intern anbieten, wenn man schon auf schnelle Speicherkarten setzt.
Dann wiederum finde ich es okay extern aufzunehmen, wenn man eh den Aufwand betreibt wo der Mehrwert Sinn macht - da würde ich ohne externen Monitor nicht drehen wollen. Und wenn das dann gleichzeitig der Recorder ist sehe ich da kein Problem.
Es fragt sich bei diesen Lösungen eben immer, ob man ein internes 10bit vom ganzen Sensor, durch ein Raw von nur einem Teil der Sensorauflösung eintauschen will. Beides ist eine Beschneidung und Beeinträchtigung dessen, was eigentlich möglich wäre.
Antwort von pillepalle:
@ iasi
Aber die Z6 gibt ohnehin nie die kompletten Sensordaten aus (also 6K), das ist auch in 10 bit immer entweder herunter gesampled, oder 1:1 gecroppt. In Raw gibt's zumindest bei der alten Z6 dann auch nur noch FF und keine Crop Option mehr.
VG
Antwort von iasi:
pillepalle hat geschrieben:
@ iasi
Aber die Z6 gibt ohnehin nie die reinen Sensordaten aus (also 6K), das ist auch in 10 bit immer entweder herunter gesampled, oder 1:1 gecroppt. In Raw gibt's zumindest bei der alten Z6 dann auch nur noch FF und keine Crop Option mehr.
VG
Die 4k/10bit werden aber doch von der vollen Sensorauflösung heruntergerechnet.
Bei Raw erhält man aber nur einen Teil der Sensorauflösung und aus 4k-Bayer-Raw erhält man nun mal keine echte 4k-Auflösung.
Die Canon R5 ist doch eigentlich keine Kamera für 8k-Resultate, sondern liefert aus ihren 8k-Raw ein sehr gutes 4k-Ergebnis.
Man sieht ja bei der Sigma fp, was es bedeutet eine 6k-Sensorauflösung zu verschenken, indem man nur 4k-Raw nutzt.
Antwort von pillepalle:
Natürlich sind das in dem Sinne keine 'echten' 4K. Ich würde mir auch wünschen die Kanmera würde 6K ausgeben, aber das Leben ist nun mal kein Wunschkonzert und wenn man die Leute nicht mit der Nase draufstößt, oder sie es wissen, bekommen sie davon wenig mit. Ich verfolge im Bezug auf Kameras zur Zeit noch das Motto 'gut genug' :)
VG
Antwort von cantsin:
Bei der Sigma fp gibt es dieselbe Einschränkung - von 6K nach 4K heruntergersampeltes Pseudo-Bayer-RAW (bei der fp: als internes CinemaDNG sowie externes ProRes RAW und BRAW), das unschöne Artefakte im Bild zur Folge hat.
Irgendwo habe ich gelesen, dass das eine Hardware-Einschränkung des in beiden Kameras (sowie in der Panasonic S1/S1H/S5) verbauten Sony 24MP-FF-Sensors ist, und dass dieses Pseudo-RAW-Signal direkt aus dem Sensor kommt.
Bei der Sigma fp ist die Lösung für ein besseres/sauberes Bild, im APS-C-Sensorcrop aufzunehmen, was bei 4K zu einer 1:1-Auslesung der Sensorpixel führt.
Antwort von iasi:
pillepalle hat geschrieben:
Natürlich sind das in dem Sinne keine 'echten' 4K. Ich würde mir auch wünschen die Kanmera würde 6K ausgeben, aber das Leben ist nun mal kein Wunschkonzert und wenn man die Leute nicht mit der Nase draufstößt, oder sie es wissen, bekommen sie davon wenig mit. Ich verfolge im Bezug auf Kameras zur Zeit noch das Motto 'gut genug' :)
VG
Bei dieser Nikon-Lösung muss man eben leider zwischen Codec-Beschränkung (10bit) und Auflösungsbeschneidung (Raw) entscheiden.
Es ist doch aber so, dass es bei anderen Kameras bessere Lösungen ohne derartige Kompromisse gibt.
Antwort von iasi:
cantsin hat geschrieben:
Bei der Sigma fp gibt es dieselbe Einschränkung - von 6K nach 4K heruntergersampeltes Pseudo-Bayer-RAW (bei der fp: als internes CinemaDNG sowie externes ProRes RAW und BRAW), das unschöne Artefakte im Bild zur Folge hat.
Irgendwo habe ich gelesen, dass das eine Hardware-Einschränkung des in beiden Kameras (sowie in der Panasonic S1/S1H/S5) verbauten Sony 24MP-FF-Sensors ist, und dass dieses Pseudo-RAW-Signal direkt aus dem Sensor kommt.
Bei der Sigma fp ist die Lösung für ein besseres/sauberes Bild, im APS-C-Sensorcrop aufzunehmen, was bei 4K zu einer 1:1-Auslesung der Sensorpixel führt.
Die S5 bietet aber doch 5,9k-Raw extern.
Antwort von cantsin:
iasi hat geschrieben:
cantsin hat geschrieben:
Bei der Sigma fp gibt es dieselbe Einschränkung - von 6K nach 4K heruntergersampeltes Pseudo-Bayer-RAW (bei der fp: als internes CinemaDNG sowie externes ProRes RAW und BRAW), das unschöne Artefakte im Bild zur Folge hat.
Irgendwo habe ich gelesen, dass das eine Hardware-Einschränkung des in beiden Kameras (sowie in der Panasonic S1/S1H/S5) verbauten Sony 24MP-FF-Sensors ist, und dass dieses Pseudo-RAW-Signal direkt aus dem Sensor kommt.
Bei der Sigma fp ist die Lösung für ein besseres/sauberes Bild, im APS-C-Sensorcrop aufzunehmen, was bei 4K zu einer 1:1-Auslesung der Sensorpixel führt.
Die S5 bietet aber doch 5,9k-Raw extern.
I stand corrected - dann stimmt auch meine ursprüngliche Aussage über die Begrenzungen der RAW-Auslesung des Sony-Sensors nicht.
Antwort von roki100:
vll. bilde ich mir das ein oder auch nicht: ich habe spaßeshalber in ACES quasi nur Color Correction gemacht, diese dann nach DNxHR 12Bit exportiert...das fertige File in eine neue Timeline und meine Lieblings LUT (Rec709) drüber gepackt. Nun bilde ich mir ein, dass das irgendwie besser aussieht. :D
Antwort von roki100:
ACES Workflow und Export nach DNxHR HQX 12Bit und dann ein neues Projekt erstellt ohne ACES (also default DaVinci YRGB) und die zuvor exportierte File in der Timeline
Bildschirmfoto 2021-02-22 um 03.24.27.png
Bildschirmfoto 2021-02-22 um 03.27.59.png
Bildschirmfoto 2021-02-22 um 03.30.47.png
Kein ACES, CST Default CST BMD Film zu Rec709 + Tone Mapping Methode Simple
Bildschirmfoto 2021-02-22 um 03.23.55.png
Bildschirmfoto 2021-02-22 um 03.27.28.png
Bildschirmfoto 2021-02-22 um 03.31.22.png
???
Antwort von Darth Schneider:
Ich sehe keinen grossen oder jetzt für mich relevanten Unterschied.
Gruss Boris
Antwort von Rohschnitzer21:
"Darth Schneider" hat geschrieben:
Seit ich weiss wie man richtig LUTs anwendet, brauche ich genau mal nicht mal eine halbe Minute und natürlich Franks und Freeers schönes Lut um aus der RAW Szene etwas vom Look her sehr anständiges zu machen.;)
Kannst Du mir verraten, wie/wo Du Deine LUT-Knowledge bekommen hast? Kannst Du einen Kanal empfehlen?
Antwort von Darth Schneider:
Eigentlich von hier im Forum, von freezer, Frank und auch roki100, finde jetzt die Stelle aber nicht.;(
Schaue später nochmal.
Ansonsten mag ich den Kanal hier unten.
Gruss Boris
Antwort von iasi:
roki100 hat geschrieben:
vll. bilde ich mir das ein oder auch nicht: ich habe spaßeshalber in ACES quasi nur Color Correction gemacht, diese dann nach DNxHR 12Bit exportiert...das fertige File in eine neue Timeline und meine Lieblings LUT (Rec709) drüber gepackt. Nun bilde ich mir ein, dass das irgendwie besser aussieht. :D
Vielleicht solltest du einfach mal richtiges Color Grading machen und das Ergebnis dann mit LUT-drüber-Ergebnissen vergleichen.
Irgendwie sind die youtube-Videos mit echten Color Grading Demonstrationen von solchen Tutorials zugeschüttet worden, so dass man sie nicht mehr findet.
Seit es die Software gratis gibt, kann eben jeder ein paar Rädchen drehen und Kurven verschieben, während er ins Mikrofon plappert. Das landet dann ganz schnell und einfach auf youtube - in Massen.
Antwort von rush:
Und warum sollte man für YouTube Zwecke auch noch mehr Zeit investieren und stundenlang an den Reglern drehen nur weil die Software es kann?
Genau für solche Zwecke ist das doch völlig unnötig und schnelle Turnarounds sind da viel eher das zu erreichende Ziel.
Der Output vieler Youtuber ist doch heute bereits auf einem sehr hohen Niveau angekommen - auch ohne stundenlanges Color-Grading und das ist auch gut so.
Eigentlich hat niemand Bock sich ewig in der Post aufzuhalten - außer ein paar Hobbyisten oder Leute die beruflich an den Farben schieben - aber selbst die sind doch eher ergebnisorientiert unterwegs.
Und das geht einher mit dem qualitativ hochwertigen Output den wir aus den aktuellen Kameras bekommen - egal ob 8bit, 10bit oder 12bit...
Mit 16bit RAW Material werden sich die wenigsten vollmüllen wollen wenn es auch einfacher geht bei visuell maximal Nuancen im A-B Vergleich...
Antwort von iasi:
rush hat geschrieben:
Und warum sollte man für YouTube Zwecke auch noch mehr Zeit investieren und stundenlang an den Reglern drehen nur weil die Software es kann?
Genau für solche Zwecke ist das doch völlig unnötig und schnelle Turnarounds sind da viel eher das zu erreichende Ziel.
Der Output vieler Youtuber ist doch heute bereits auf einem sehr hohen Niveau angekommen - auch ohne stundenlanges Color-Grading und das ist auch gut so.
Eigentlich hat niemand Bock sich ewig in der Post aufzuhalten - außer ein paar Hobbyisten oder Leute die beruflich an den Farben schieben - aber selbst die sind doch eher ergebnisorientiert unterwegs.
Und das geht einher mit dem qualitativ hochwertigen Output den wir aus den aktuellen Kameras bekommen - egal ob 8bit, 10bit oder 12bit...
Mit 16bit RAW Material werden sich die wenigsten vollmüllen wollen wenn es auch einfacher geht bei visuell maximal Nuancen im A-B Vergleich...
Es gab einige sehr gute Grading-Demonstrationen auf Yoube - vor einigen Jahren.
Die kann ich schon gar nicht mehr finden, unter den Massen von youtube-Tutorials, für Leute die keinen Bock haben, "sich ewig in der Post aufzuhalten". :)
Und dabei wurde dann eben wirklich ernsthaft am "Cine-Look" gearbeitet - mit gestalterischer Zielsetzung und nicht nur, um Farben zu verdrehen.
Da saß dann z.B. eben wirklich einer sehr lange an einer einzigen Einstellung einer Holzkirche in Australien und gestaltete jedes Detail im Bild im Hinblick auf die gewünschte Bildwirkung.
Antwort von cantsin:
Selbst bei YouTubing sieht man doch immer noch den Unterschied, wenn sich jemand die Mühe macht, hochwertigere Bilder zu produzieren. - Man kann hier argumentieren, dass eine Kamera wie die Sigma fp suboptimal ist mangels Autofokus etc. (und dadurch andere Unzulänglichkeiten im Bild produziert). Dennoch sieht das IMHO weniger plastikmäßig aus als das typische YouTubing mit Hybridkameras und deren plastikmäßigeren Straight-out-of-the-camera-Videobildern:
https://www.youtube.com/watch?v=pAhmj6B91MQ
Antwort von iasi:
cantsin hat geschrieben:
Selbst bei YouTubing sieht man doch immer noch den Unterschied, wenn sich jemand die Mühe macht, hochwertigere Bilder zu produzieren. - Man kann hier argumentieren, dass eine Kamera wie die Sigma fp suboptimal ist mangels Autofokus etc. (und dadurch andere Unzulänglichkeiten im Bild produziert). Dennoch sieht das IMHO weniger plastikmäßig aus als das typische YouTubing mit Hybridkameras und deren plastikmäßigeren Straight-out-of-the-camera-Videobildern:
https://www.youtube.com/watch?v=pAhmj6B91MQ
Wobei es schwer zu sagen ist, woher der "plastikmäßig" Eindruck kommt.
Beim Resolve 17-Testen mit altem GH5/BMCC-Vergleichmaterial hatte ich auch sofort das Gefühl, dass das GH5-Material "plastikmäßiger" wirkt.
Aber ich muss auch eingestehen, dass ich nicht alle Einstellmöglichkeiten der GH5 voll durchgetestet hatte. Wobei dies eben bei der BMCC schon gar nicht nötig ist.
Was mir beim Testen dann eben auch auffiel: Der Himmel war bei allen Aufnahmen nicht überbelichtet, aber es war notwendig den Kontrast zu erhöhen, um etwas Zeichnung zu erhalten. Und hier war dann eben der Unterschied zwischen cDNG und 10bit 422 recht deutlich.
PS: Du bist ein großer Fan der sigma fp. ;)
Das kann ich nachvollziehen. Ich hoffe wirklich inständig, dass Sigma einer Weiterentwicklung bringt, die dann die volle Sensorauflösung nutzt.
Ebenso wäre es doch zu hoffen, dass Nikon auch die volle Auflösung via HDMI ausgibt - die Panasonic S zeigt ja, dass es technisch geht.
Antwort von cantsin:
iasi hat geschrieben:
Wobei es schwer zu sagen ist, woher der "plastikmäßig" Eindruck kommt.
Beim Resolve 17-Testen mit altem GH5/BMCC-Vergleichmaterial hatte ich auch sofort das Gefühl, dass das GH5-Material "plastikmäßiger" wirkt.
Die üblichen Verdächtigen sind: nicht völlig abschaltbare Entrauschung, nicht völlig abschaltbare künstliche Nachschärfung/Kantenaufsteilung, Privilegierung von spatialer (Pixeldetail)-Auflösung ggü. Farbauflösung/-differenzierung in der kamerainternen Signalverarbeitung (i.e. Prozessierung zu von den meisten Anwendern gewünschten 'knackigen' Bildern), plus zusätzliche Plastik-Look-Punkte durch automatische Softwarekorrektur von Objektivvignettierung und -verzeichnung.
Antwort von rush:
cantsin hat geschrieben:
Selbst bei YouTubing sieht man doch immer noch den Unterschied, wenn sich jemand die Mühe macht, hochwertigere Bilder zu produzieren. - Man kann hier argumentieren, dass eine Kamera wie die Sigma fp suboptimal ist mangels Autofokus etc. (und dadurch andere Unzulänglichkeiten im Bild produziert). Dennoch sieht das IMHO weniger plastikmäßig aus als das typische YouTubing mit Hybridkameras und deren plastikmäßigeren Straight-out-of-the-camera-Videobildern:
https://www.youtube.com/watch?v=pAhmj6B91MQ
Das liegt aber weniger an der fP an sich - sondern auch am verwendeten, manuellen Voigtländer das den unperfekten Bildcharakter nebst wuscheligem Bokeh unterstützt.
Schraub so ein Glas mal an eine moderne Hybrid DSLM, dreh die interne Schärfe etwas zurück und das Ergebnis wird sich je nach Bildprofil womöglich gar nicht allzu sehr unterscheiden - mit dem Vorteil der internen Bildstabilisierung.
Und ob man für solch einen "Look" nun stundenlang in Resolve an den Reglern schrauben muss würde ich auch eher bezweifeln. Die wenigsten hier machen professionelle Kinofilme mit kleinen Kameras vom Schlage einer Z6/Z7, fp oder Pocket. Vielleicht hier und da mal ein Kurzfilm oder dergleichen bei dem man auch etwas mehr Zeit für die Postpro hat - aber zum vloggen?
Ich mag die manuellen Voigtländer sehr gern - bereits an der GH2 habe ich die Dinger lieben gelernt und auch am 42MP Sony Boliden erhält man oftmals einen anderen Bildcharakter verglichen mit einem "neumodisch" gerechneten, nahezu perfekten Glas-Äquivalent. Diese bringen dann zwar die gewünschten Auflösungsreserven - dem cinematischen Bildeindruck wiederum tun sie aber manchmal sogar weniger gut. Auch Fotos gefallen mir den unperfekten Noktons und Co. oft vom Gefühl her besser als native Objektiven die bis ins Mark korrigiert und optimiert sind.
Antwort von iasi:
cantsin hat geschrieben:
iasi hat geschrieben:
Wobei es schwer zu sagen ist, woher der "plastikmäßig" Eindruck kommt.
Beim Resolve 17-Testen mit altem GH5/BMCC-Vergleichmaterial hatte ich auch sofort das Gefühl, dass das GH5-Material "plastikmäßiger" wirkt.
Die üblichen Verdächtigen sind: nicht völlig abschaltbare Entrauschung, nicht völlig abschaltbare künstliche Nachschärfung/Kantenaufsteilung, Privilegierung von spatialer (Pixeldetail)-Auflösung ggü. Farbauflösung/-differenzierung in der kamerainternen Signalverarbeitung (i.e. Prozessierung zu von den meisten Anwendern gewünschten 'knackigen' Bildern), plus zusätzliche Plastik-Look-Punkte durch automatische Softwarekorrektur von Objektivvignettierung und -verzeichnung.
Richtig. Und ich bin mir nicht sicher, ob ich damals wirklich alles abgeschaltet bzw. runtergedreht hatte.
Aber dies war eben auch ein Grund, weshalb ich mit der GH5 nie richtig warm geworden bin: Der Kampf mit dem Menü und den vielen "Bildverbesserungen".
Das andere Extrem ist da eben die BMCC: Man stellt 180° ein, wählt die Blende und belichtet dann mit dem ND-Filter. Ansonsten gibt"s nichts einzustellen.
Antwort von roki100:
iasi hat geschrieben:
roki100 hat geschrieben:
vll. bilde ich mir das ein oder auch nicht: ich habe spaßeshalber in ACES quasi nur Color Correction gemacht, diese dann nach DNxHR 12Bit exportiert...das fertige File in eine neue Timeline und meine Lieblings LUT (Rec709) drüber gepackt. Nun bilde ich mir ein, dass das irgendwie besser aussieht. :D
Vielleicht solltest du einfach mal richtiges Color Grading machen und das Ergebnis dann mit LUT-drüber-Ergebnissen vergleichen.
was ich da gemacht habe war nur einfacher vergleich zwischen ACES und dem default Workflow( Rec709, CST usw.). Bin aber dann doch zum Entschluss gekommen, dass ACES für mich nicht geeigneter ist...
Aber dies war eben auch ein Grund, weshalb ich mit der GH5 nie richtig warm geworden bin: Der Kampf mit dem Menü und den vielen "Bildverbesserungen".
Ich weiß nicht was ihr macht, aber bei der GH5 kann man intern, sowohl NR als auch Sharpness so runter drehen als wäre es komplett ausgeschaltet. Ich habe gerade deswegen die Kamera damals ausgewählt, weil die IQ eben nicht nach Plastik aussieht. Ein bisschen Sharpness kameraintern (z.B. auf -2) ist sogar besser als garnicht, weil Artefakte wie Moiré dann eben weg sind ohne irgendwelche sichtbare schärfenverlusst, ja, das nenne ich Bildverbesserung und das wäre ganz gut auch für BMPCC/BMMCC/BMCC im CDNG Modus. ;)
Und was ist mit LUT-drüber-Ergebnissen? Da sollte man m.M. nicht verallgemeinern, ein gutes Beispiel wäre nicht nur frankfrezzer--K-Tone-LUT, sondern auch GHAlex - das ist tatsächlich etwas spezielles und einfach nur gut gemacht.
Antwort von Darth Schneider:
Bei meiner Pocket hat es im Menü auch ein Sharpnes Schalter, hab ihn aber immer auf Medium...Wäre das besser den mal auszuschalten ?
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Bei meiner Pocket hat es im Menü auch ein Sharpnes Schalter, hab ihn aber immer auf Medium...Wäre das besser den mal auszuschalten ?
Gruss Boris
Einfach ausprobieren z.B. ab wann moiré auftreten usw. Warum Sharpness komplett ausschalten, wenn kamerainterner Sharpness Prozesse die moirés besser killen als beste externe Workflows, z.B. in DaVinci im ColorSpace Modus Y'UV und Green/Red Bluren.
Hast Du sharpness so eingestellt, dass keine moiré zu sehen sind, dann lässt sich nachträglich immer noch ein bisschen schärfen.
Es ist tatsächlich etwas was ich bei BMPCC vermisse, intern Sharpness zu steuern, so ähnlich wie bei GH5/G9. Stattdessen muss man teueren OLPF kaufen und einer davon macht nichts anderes, schärfe reduzieren...
Antwort von cantsin:
roki100 hat geschrieben:
Einfach ausprobieren z.B. ab wann moiré auftreten usw. Warum Sharpness komplett ausschalten, wenn kamerainterner Sharpness Prozesse die moirés besser killen als beste externe Workflows, z.B. in DaVinci im ColorSpace Modus Y'UV und Green/Red Bluren.
Es ist tatsächlich etwas was ich bei BMPCC vermisse, intern Sharpness zu steuern, so ähnlich wie bei GH5/G9. Stattdessen muss man teueren OLPF kaufen und einer davon macht nichts anderes, schärfe reduzieren.
Sorry, aber irgendwie werde ich das Gefühl nicht los, dass Du seit mittlerweile Jahren hier auf dem Forum und Experimentieren mit der BMPCC die Grundlagen völlig mißverstehst...
Antwort von roki100:
warum sorry, alles gut. Ist Deine Sichtweise... ich habe da meine, basierend auf die eigene Erfahrung.
Antwort von cantsin:
roki100 hat geschrieben:
warum sorry, alles gut. Ist Deine Sichtweise... ich habe da meine, basierend auf die eigene Erfahrung.
Mal eben zu Deinen Punkten:
Einfach ausprobieren z.B. ab wann moiré auftreten usw. Warum Sharpness komplett ausschalten, wenn kamerainterner Sharpness Prozesse die moirés besser killen als beste externe Workflows, z.B. in DaVinci im ColorSpace Modus Y'UV und Green/Red Bluren.
Alle kamerainternen Sharpness-Einstellungen sind nur Regelungen der Kantenaufsteilung (also der Software-Nachschärfung). Wenn Du in in der Kamera die Einstellung auf den kleinsten Wert (wie z.B. "-4") setzt, wird das Bild nicht kameraintern weichgezeichnet, sondern nur die Nachschärfung weniger stark angewandt. Bei den meisten Prosumer-Kameras, inkl. der GH4/GH5, lässt sie sich niemals völlig 'rausdrehen, was man anhand von Nachschärfungs-Farbsäumen bzw. Halos leicht nachprüfen kann. Insofern sind da Menüpunkte wie "-4" irreführend, bzw. beziehen sich auf den Anwendergeschmack, dem ein nicht-nachgeschärftes Bild zu 'weich' bzw. 'unscharf' erscheint.
Es ist tatsächlich etwas was ich bei BMPCC vermisse, intern Sharpness zu steuern, so ähnlich wie bei GH5/G9. Stattdessen muss man teueren OLPF kaufen und einer davon macht nichts anderes, schärfe reduzieren...
Alle OLPFs reduzieren Schärfe, um Moirés zu verhindern. Bei einer Raw-Kamera kann man Schärfe/Sharpness nie intern einstellen, weil sie ein Nachprozessierungsparameter ist. Weder bei Foto-RAW, noch bei Video-RAW hat die kamerainterne Sharpness-Einstellung Auswirkungen auf das aufgezeichnete Bild.
Antwort von roki100:
cantsin hat geschrieben:
Alle OLPFs reduzieren Schärfe, um Moirés zu verhindern. Bei einer Raw-Kamera kann man Schärfe/Sharpness nie intern einstellen, weil sie ein Nachprozessierungsparameter ist. Weder bei Foto-RAW, noch bei Video-RAW hat die kamerainterne Sharpness-Einstellung Auswirkungen auf das aufgezeichnete Bild.
Ich weiß was Du meinst. Schau Dir aber die Argumente seitens BMD, wo es um den Vergleich zwischen BRAW und CDNG geht....
Bei den meisten Prosumer-Kameras, inkl. der GH4/GH5, lässt sie sich niemals völlig 'rausdrehen, was man anhand von Nachschärfungs-Farbsäumen bzw. Halos leicht nachprüfen kann.
Wo kann man das nachprüfen? Bei 500% Zoom? ;) Ich bin überzeugt davon, dass gerade Panasonic das kameraintern sehr gut gelöst hat (es verhält sich anders als z.B. Sharpness in DaVinci Resolve). Es gibt da scheinbar keine einheitliche Grundlage für kamerainterne Sharpness... Sony z.B. scheint das kameraintern anders zu lösen...
Antwort von cantsin:
roki100 hat geschrieben:
cantsin hat geschrieben:
Alle OLPFs reduzieren Schärfe, um Moirés zu verhindern. Bei einer Raw-Kamera kann man Schärfe/Sharpness nie intern einstellen, weil sie ein Nachprozessierungsparameter ist. Weder bei Foto-RAW, noch bei Video-RAW hat die kamerainterne Sharpness-Einstellung Auswirkungen auf das aufgezeichnete Bild.
Ich weiß was Du meinst. Schau Dir aber die Argumente seitens BMD, wo es um den Vergleich zwischen BRAW und CDNG geht....
Wieder eine andere Baustelle. Bei BRAW wird das Videosignal vor der Aufzeichnung kameraintern entrauscht (und zwar mit temporal denoising) und wird dadurch weicher als das CDNG-Material, und zwar einfach deshalb, weil der Rauschfilter Pixel verschmiert.
Bei den meisten Prosumer-Kameras, inkl. der GH4/GH5, lässt sie sich niemals völlig 'rausdrehen, was man anhand von Nachschärfungs-Farbsäumen bzw. Halos leicht nachprüfen kann.
Wo kann man das nachprüfen? Bei 500% Zoom? ;) Ich bin überzeugt davon, dass gerade Panasonic das sehr gut gelöst hat. Es gibt da keine einheitliche Grundlage für kamerainterne Entschärfung, Sony scheint das kameraintern anders zu lösen....
Unser Mitforist DeeZid hat sich lange damit herumgeschlagen. Bei Panasonic ist ihm zufolge zumindest in der S1/S5-Serie die künstliche Nachschärfung komplett rausdrehbar, aber bei der S1H auch nur seit einem Firmware-Update.
So sehen Sharpening-Halos aus:
zum Bild
...und bei Standard-Videomaterial sind die leider typisch. Ein anderer Test, den Du einfach machen kannst, ist, ein Diagramm mit konzentrischen Kreisen zu fotografieren/zu filmen und dann zu prüfen, ob an den Kreiskonturen durch die Nachschärfung Treppenartefakte enstehen, wie z.B. in DPreviews Studiotestbild:
sharpened.jpg
Antwort von roki100:
das sieht schrecklich aus. Bei meine VLOG Tests damals, sah das aber auf gar kein Fall so aus. Keine Halos oder Treppeneffekte-außer die beim nah zoomen wegen der Auflösung. Ich bearbeite gerade ein Projekt und hab da nochmal nachgeschaut, auch da ist das nicht so zu sehen wie auf Deinen Bilder. VLOG Sharpness war bei -4. Ich werde das aber nochmal genauer testen.
Antwort von cantsin:
roki100 hat geschrieben:
das sieht schrecklich aus. Bei meine VLOG Tests damals, sah das aber auf gar kein Fall so aus.
Das sind natürlich Extrembeispiele. Hier ein praxisnäheres Beispiel anhand von DPreviews "Video Stills Comparison"-Webtool:
Screenshot from 2021-03-06 17-19-24.png
Quelle hier.
Wenn Du die Bilder gut vergleichst, siehst Du, dass die GH5 durch künstliche Nachschärfung diverse Treppenartefakte an den Kreisen produziert, sowie ein leichten weißen Halo (=Heiligenschein) an den Kanten des schwarzen Quadrats.
Antwort von roki100:
Ich denke da sollte man zwischen GH5+VLOG und nur GH5 unterscheiden, denn wenn Panasonic das behauptet:
"Nearly all image processing is disabled in V-Log mode; the camera bypasses all that internal processing, and delivers a smooth, flat, clean image that is ready to be graded in post. You can, however, still assign noise reduction using the camera’s NR menu."
dann scheint das auch so zu sein.
Antwort von iasi:
roki100 hat geschrieben:
Ich weiß nicht was ihr macht, aber bei der GH5 kann man intern, sowohl NR als auch Sharpness so runter drehen als wäre es komplett ausgeschaltet. Ich habe gerade deswegen die Kamera damals ausgewählt, weil die IQ eben nicht nach Plastik aussieht. Ein bisschen Sharpness kameraintern (z.B. auf -2) ist sogar besser als garnicht, weil Artefakte wie Moiré dann eben weg sind ohne irgendwelche sichtbare schärfenverlusst, ja, das nenne ich Bildverbesserung und das wäre ganz gut auch für BMPCC/BMMCC/BMCC im CDNG Modus. ;)
Und was ist mit LUT-drüber-Ergebnissen? Da sollte man m.M. nicht verallgemeinern, ein gutes Beispiel wäre nicht nur frankfrezzer--K-Tone-LUT, sondern auch GHAlex - das ist tatsächlich etwas spezielles und einfach nur gut gemacht.
Warum wird wohl das Menü der BM-Cams so gelobt? Weil es nicht viel gibt, das man einstellen muss/kann und es dadurch übersichtlich bleibt.
Bei der GH5 hingegen artet es immer sehr schnell in Einstellungsorgien aus. So schlimm hatte ich es noch bei keiner Kamera empfunden.
Es ist doch letztlich egal, welches LUT man verwendet, wenn es darum geht, ob man die Grading-Möglichkeiten nutzen will.
Für schnelle Ergebisse ist ein LUT sicherlich i.O. - und manche LUTs liefern im Normalfall auch gute Resultate. Aber man verschenkt eben Möglichkeiten.
Ich will daher auch keine Eingriffe der Kamera, sondern dies mit den Mitteln der Post fein kontrolliert erledigen.
Wenn es um Projekte geht, wo das Zeitlimit eine größere Rolle spielt als der letzte Schliff bzw. der maximale Gestaltungsspielraum sind LUT oder kamerainterne Bildbearbeitung natürlich hilfreich. Aber dann braucht es auch kein externes Raw-Recording.
Antwort von cantsin:
cantsin hat geschrieben:
Wenn Du die Bilder gut vergleichst, siehst Du, dass die GH5 durch künstliche Nachschärfung diverse Treppenartefakte an den Kreisen produziert, sowie ein leichten weißen Halo (=Heiligenschein) an den Kanten des schwarzen Quadrats.
Nachtrag dazu, und wieder on-topic:
Das ist bei praktisch allen Prosumer-Hybridkameras so, auch der Z6 (um wieder zum Ausgangsthema dieses Threads zurückzukommen). Die S1H ist da eine löbliche Ausnahme.
Screenshot from 2021-03-06 17-26-13.png
Deshalb 'braucht' man bei diesen Kameras RAW, wenn man diese Aufbrezelungen nicht will. Bei semiprofessionellen Kameras ab der S1H/C300 etc.-Klasse hat man dieses Problem weniger bzw. nicht.
Antwort von iasi:
roki100 hat geschrieben:
Ich denke da sollte man zwischen GH5+VLOG und nur GH5 unterscheiden, denn wenn Panasonic das behauptet:
"Nearly all image processing is disabled in V-Log mode; the camera bypasses all that internal processing, and delivers a smooth, flat, clean image that is ready to be graded in post. You can, however, still assign noise reduction using the camera’s NR menu."
dann scheint das auch so zu sein.
Ist das so?
Gibt"s da Tests?
Antwort von roki100:
iasi hat geschrieben:
Warum wird wohl das Menü der BM-Cams so gelobt? Weil es nicht viel gibt, das man einstellen muss/kann und es dadurch übersichtlich bleibt.
Bei der GH5 hingegen artet es immer sehr schnell in Einstellungsorgien aus. So schlimm hatte ich es noch bei keiner Kamera empfunden.
Was kann die GH5 dafür dass Du nicht selbst eigene Menü anpasst... ;) Wenn Dir diese ein paar Schritte da zu kompliziert sind, dann weiß ich nicht, wie es mit Calorgrading + Nodes in DR bei dir so aussieht... ;)
Mir kommt das so vor, als würden wir über unterschiedliche GH5 schreiben, es gibt aber nur eine GH5 und die etwas abgesteckte Version davon, die G9.... ;)
iasi hat geschrieben:
roki100 hat geschrieben:
Ich denke da sollte man zwischen GH5+VLOG und nur GH5 unterscheiden, denn wenn Panasonic das behauptet:
"Nearly all image processing is disabled in V-Log mode; the camera bypasses all that internal processing, and delivers a smooth, flat, clean image that is ready to be graded in post. You can, however, still assign noise reduction using the camera’s NR menu."
dann scheint das auch so zu sein.
Ist das so?
Gibt"s da Tests?
ja, das deckt sich mit meiner Erfahrung/Vergleiche/Tests usw.
Antwort von iasi:
roki100 hat geschrieben:
iasi hat geschrieben:
Warum wird wohl das Menü der BM-Cams so gelobt? Weil es nicht viel gibt, das man einstellen muss/kann und es dadurch übersichtlich bleibt.
Bei der GH5 hingegen artet es immer sehr schnell in Einstellungsorgien aus. So schlimm hatte ich es noch bei keiner Kamera empfunden.
Was kann die GH5 dafür dass Du nicht selbst eigene Menü anpasst... ;) Wenn Dir diese ein paar Schritte da zu kompliziert sind, dann weiß ich nicht, wie es mit Calorgrading + Nodes in DR bei dir so aussieht... ;)
Mir kommt das so vor, als würden wir über unterschiedliche GH5 schreiben, es gibt aber nur eine GH5 und die etwas abgesteckte Version davon, die G9.... ;)
Ich will während der Aufnahme nicht in Menüs herumwühlen und eventuell sogar Gefahr laufen, dass etwas verstellt ist.
Wenn ich mal in Resolve vergesse, das richtige Node anzuwählen und an den Rädchen drehe, dann ist das schnell rückgängig gemacht.
Es gibt auf youtube spezielle Tutorials, die zeigen, wie man bei der GH5 180fps einstellt. ;) :)
Antwort von roki100:
Jeder der die GH5 hat und Menü gut kennt, versteht was gemeint ist, nur Du nicht? ;)
Ooo Bruder iasi, da solltest Du Dich damit mehr Beschäftigen, statt Dein Handschuhfach für Kameras wie ein Messie zu missbrauchen.... ;)
Es gibt auf youtube spezielle Tutorials, die zeigen, wie man bei der GH5 180fps einstellt. ;) :)
Ja fraglich, warum nicht vorher die Bedienungsanleitung lesen?
Antwort von iasi:
roki100 hat geschrieben:
Jeder der die GH5 hat und Menü gut kennt, versteht was gemeint ist, nur Du nicht? ;)
Ooo Bruder iasi, da solltest Du Dich damit mehr Beschäftigen, statt Dein Handschuhfach für Kameras wie ein Messie zu missbrauchen.... ;)
Es gibt auf youtube spezielle Tutorials, die zeigen, wie man bei der GH5 180fps einstellt. ;) :)
Ja fraglich, warum nicht vorher die Bedienungsanleitung lesen?
Na - du kennst sie ja auswendig, die Bedienungsanleitung. Dann zähl doch mal die Schritte auf, die notwendig sind, um mal eine Einstellung mit 180fps machen zu können. Es ist die Anzahl der Schritte und das durchhangeln durch die Menüpunkte, die es dir sicherlicher schwer machen dürfte, dies hier aufzuzählen.
Wenn du es mit für die GH5 machst, dann übernehm ich es für die 120fps-Einstellung der P4k. :) ;)
Antwort von roki100:
Du wählst Filmmodus und stellst dir alles mögliche so ein, wie Du es haben möchtest z.B. SlowMo auf 120fps (180 ist nicht so toll) und dann in Menü, Reiter/Tab 4 (Werkzeugschlüssel) --> Einstellungen Speichern und wählst dann C1. Das kannst Du für alles mögliche machen und auch auf C2, C3 usw. speichern.
Nun musst Du dir keine Sorgen mehr machen aus versehen etwas zu verstellen ;) Wenn Du z.B. SlowMo möchtest, einfach auf C1 drehen.....
Außerdem gibt es auch QMenü - einfacher geht es kaum. Ob man diese mit Rädchen und OK Knopf bedient, oder (was auch geht) mit Finger drauf tippt (wie das bei BMD auch der Fall ist), da sehe ich kein großen Unterschied...
Und damit wir bei Thema bleiben:
Auch Nikon ist so eine Sache. Ich finde die Kamera Z6> einfach super ;)