Ja, vor allem um zu sehen ob RAW das ist was es eigentlich sein sollte: unabhängig von Kamera Einstellungen, die nachträgliche Korrektur (ISO, WB/ColorTemp...)
Wenn das Material eh in den Besitz des Kunden übergeht und/oder dieser die Raw-Vorteile gar nicht erwartet bzw. das Ergebnis nur kurzzeitig genutzt wird, lohnt Raw eher nicht.pillepalle hat geschrieben: ↑Mi 18 Dez, 2019 17:14 @ rush
Ich habe ja nicht gesagt das ich gar nicht vor habe in RAW zu drehen, aber ich habe vor es nur einzusetzen wenn ich es auch wirklich brauche. Also z.B. wenn es wirklich mal schwierige Bedingungen sind, oder ein potentieller Kunde das möchte usw. Für mich ist das wie mit Kanonen auf Spatzen schießen. Wenn ich das auch in 10 bit ProRes problemlos hinbekomme, warum dann RAW verwenden? Nicht alles was ich mache ist große Kunst oder sind Meisterwerke :D
VG
Es ist aber eben doch ein zusätzlicher Aufwand, will man die Raw-Vorteile nutzen.
Na ja, ich weiß ja nicht wie ihr das handhabt, aber bei mir geht keine RAW Datei in den Besitz des Kunden über. Wäre ja noch schöner :) Der bekommt noch nicht mal das gesamte Material sondern immer nur eine Auswahl und die Nutzungrechte, je nachdem was ausgehandelt wurde. Das ist wie halbfertige Sachen abgeben.
ich weiß nicht, wenn ich allein daran denke, dass ich mehrere male bei ETTR + ProRes doch nicht perfekt belichtet habe und nachträglich das überbelichtete doch nicht mehr zu retten war, da war ich froh darüber, dass ich CDNG Files hatte (ProRes mit BM VA. aufgenommen und CDNG Kameraintern)...denn damit konnte ich die Highlights runterziehen (Highlight Recovery) und alles war gut.
Na ja - die Inhalte sind meist nicht einfach nutzbar für andere Zwecke.pillepalle hat geschrieben: ↑Mi 18 Dez, 2019 17:52Na ja, ich weiß ja nicht wie ihr das handhabt, aber bei mir geht keine RAW Datei in den Besitz des Kunden über. Wäre ja noch schöner :) Der bekommt noch nicht mal das gesamte Material sondern immer nur eine Auswahl und die Nutzungrechte, je nachdem was ausgehandelt wurde. Das ist wie halbfertige Sachen abgeben.
VG
Ich denke, man muss das immer abwägen.roki100 hat geschrieben: ↑Mi 18 Dez, 2019 17:55ich weiß nicht, wenn ich allein daran denke, dass ich mehrere male bei ETTR + ProRes doch nicht perfekt belichtet habe und nachträglich das überbelichtete doch nicht mehr zu retten war, da war ich froh darüber, dass ich CDNG Files hatte (ProRes mit BM VA. aufgenommen und CDNG Kameraintern)...denn damit konnte ich die Highlights runterziehen (Highlight Recovery) und alles war gut.
Gut, man weiß nachträglich, dass man für ETTR+ProRes die Zebras um +5% erhöhen sollte... Dennoch, wäre Kameramann mein Job, würde ich RAW immer bevorzugen.
Nein, nicht bei RAW, nur nach dem Debayern. Wenn man eine Bayer-Sensormatrix, die vom Sensor kommt, in eine neue, Pseudo-Bayer-Sensormatrix herunterskaliert, können dabei eigentlich nur Verschlechterungen 'rauskommen. Ungefähr so, als wenn man beim Kochen die Roh-Ingredienten in einen Topf wirft, die Hälfte des Gemischs wegschmeisst, und anschliessend versucht, die Roh-Ingredienten wieder einigermaßen zu trennen und damit nach Rezept zu kochen.
Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)cantsin hat geschrieben: ↑Mi 18 Dez, 2019 18:30Nein, nicht bei RAW, nur nach dem Debayern. Wenn man eine Bayer-Sensormatrix, die vom Sensor kommt, in eine neue, Pseudo-Bayer-Sensormatrix herunterskaliert, können dabei eigentlich nur Verschlechterungen 'rauskommen. Ungefähr so, als wenn man beim Kochen die Roh-Ingredienten in einen Topf wirft, die Hälfte des Gemischs wegschmeisst, und anschliessend versucht, die Roh-Ingredienten wieder einigermaßen zu trennen und damit nach Rezept zu kochen.
Richtig wäre der Workflow natives Sensor-Bayermuster -> Debayering -> Herunterskalieren/Downsampling auf Delivery-Auflösung. So machen es ja auch Kameras wie die S1H, C300 etc.
Nein, das ist tatsächlich so, lies mal Slashcams Test der Sigma fp:dienstag_01 hat geschrieben: ↑Mi 18 Dez, 2019 18:39 Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)
ja - leider geht er nicht auf den Unterschied zwischen UHD von FX und DX ein.pillepalle hat geschrieben: ↑Mi 18 Dez, 2019 18:43 Hier ist noch ein Bericht zum ProRes Raw der Nikon von Matthew Allard von newsshooter.com Den Anfang kann man getrost überspringen, interessanter wird's erst im hinteren Teil, ab 'How is RAW over HDMI from the Nikon Z6'. Wobei der auch nichts weltbewegendes herausgefunden hat.
https://www.newsshooter.com/2019/12/17/ ... rores-raw/
VG
Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.cantsin hat geschrieben: ↑Mi 18 Dez, 2019 18:46Nein, das ist tatsächlich so, lies mal Slashcams Test der Sigma fp:dienstag_01 hat geschrieben: ↑Mi 18 Dez, 2019 18:39 Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)
https://www.slashcam.de/artikel/Test/Vo ... html#Die_S
Bei der Kamera wird das 6K-Bayer-Pattern des Sensors auf ein 4K-Bayer-Pattern in der RAW-Aufzeichnung runterskaliert, ohne Windowing/Sensorcrop. Und genau das gleiche machen jetzt Nikon/Atomos bei der ProRes RAW-Aufzeichnung der Z6/Z7.
Lies Dir doch einfach mal den von mir oben verlinkten Slashcam-Test durch bzw. sieh' Dir die Testbilder an...dienstag_01 hat geschrieben: ↑Mi 18 Dez, 2019 19:22 Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.
Wieso? Edius, Adobe, Avid unter Windows können’s schon bzw. ist angekündigt. Oder was meinst du?
Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?cantsin hat geschrieben: ↑Mi 18 Dez, 2019 23:08Lies Dir doch einfach mal den von mir oben verlinkten Slashcam-Test durch bzw. sieh' Dir die Testbilder an...dienstag_01 hat geschrieben: ↑Mi 18 Dez, 2019 19:22 Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.
Achso, das wußte ich noch nicht.
Nochmals: Aus einer Bayer 6K-Matrix wird durch algorithmische Umrechnung eine Bayer 4K-Matrix erzeugt. Dabei werden 3x3 RGGB-Pixel jeweils zu 2x2 RGGB-Pixeln zusammengefasst (laut Slashcam-Test übrigens durch Line skipping: "Offensichtlich findet auch in diesem Format kein Full-Sensor-Readout mit vollem Downscaling statt").dienstag_01 hat geschrieben: ↑Mi 18 Dez, 2019 23:57Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?
Sorry.
Man könnte gleich auf Sensorebene Pixel (Sensel) zusammenfassen. Mal als Beispiel.cantsin hat geschrieben: ↑Do 19 Dez, 2019 00:15Nochmals: Aus einer Bayer 6K-Matrix wird durch algorithmische Umrechnung eine Bayer 4K-Matrix erzeugt. Dabei werden 3x3 RGGB-Pixel jeweils zu 2x2 RGGB-Pixeln zusammengefasst (laut Slashcam-Test übrigens durch Line skipping: "Offensichtlich findet auch in diesem Format kein Full-Sensor-Readout mit vollem Downscaling statt").dienstag_01 hat geschrieben: ↑Mi 18 Dez, 2019 23:57
Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?
Sorry.
Erklär mir bitte, wie das sauber vonstatten gehen soll.
Welchen Unterschied macht das? Nochmals, ich bestreite ja nicht den Sinn von Downsampling/Sensel-Zusammenfassung, sondern nur den Sinn davon, das auf der Ebene von Bayer-Mustern zu tun. Völlig egal, ob das in Hardware oder Software passiert. (Und in beiden Fällen muss dafür irgendein mathematisch beschreibbares Verfahren angewendet werden.)dienstag_01 hat geschrieben: ↑Do 19 Dez, 2019 00:53 Man könnte gleich auf Sensorebene Pixel (Sensel) zusammenfassen. Mal als Beispiel.
Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.cantsin hat geschrieben: ↑Do 19 Dez, 2019 00:59Welchen Unterschied macht das? Nochmals, ich bestreite ja nicht den Sinn von Downsampling/Sensel-Zusammenfassung, sondern nur den Sinn davon, das auf der Ebene von Bayer-Mustern zu tun. Völlig egal, ob das in Hardware oder Software passiert. (Und in beiden Fällen muss dafür irgendein mathematisch beschreibbares Verfahren angewendet werden.)dienstag_01 hat geschrieben: ↑Do 19 Dez, 2019 00:53 Man könnte gleich auf Sensorebene Pixel (Sensel) zusammenfassen. Mal als Beispiel.
Letzteres kannst Du aber entweder nur durch Windowing tun (so, wie es Arri, RED und praktisch alle professionellen Kameramodelle tun) oder durch eine Auslesung, die nicht in einem durchgängigen RGGB-Bayer-Muster resultiert, zumindest nicht bei der Reduktion von 6K nach 4K.dienstag_01 hat geschrieben: ↑Do 19 Dez, 2019 01:32 Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.
Für mich sehen die Artefakte der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.cantsin hat geschrieben: ↑Do 19 Dez, 2019 09:29Letzteres kannst Du aber entweder nur durch Windowing tun (so, wie es Arri, RED und praktisch alle professionellen Kameramodelle tun) oder durch eine Auslesung, die nicht in einem durchgängigen RGGB-Bayer-Muster resultiert, zumindest nicht bei der Reduktion von 6K nach 4K.dienstag_01 hat geschrieben: ↑Do 19 Dez, 2019 01:32 Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.
Stattdessen wird ein fiktives Bayer-Muster erzeugt, dass nicht mehr mit den Senseln des Sensors korrespondiert (und deshalb auch all die im Slashcam-Test beschriebenen Artefakte aufweist).
Skipping und fiktives Pattern ist doch dasselbe, zumindest wenn bei der Auflösungsreduktion von 6K nach 4K wieder ein durchgängiges RGGB-Bayer-Pattern erzeugt wird. (Ich frage mich wirklich, ob wir die ganze Zeit aneinander vorbeireden...)dienstag_01 hat geschrieben: ↑Do 19 Dez, 2019 10:36 Für mich sehen die Artefakte der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.