Logo Logo
/// 

12 Bit ProRes RAW mit der Nikon Z 6 / Z 7 und Atomos Ninja V



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Nikon DZ6 / Z7 / D850 / D750 / D500 / ...-Forum

Frage von Beavis27:


Es stört mich nicht im Geringsten, wenn auf dieser Seite Werbung im Stile eines redaktionellen Artikels geschaltet wird.
Es stört mich aber sehr wohl, wenn für etwas geworben wird, was in dieser Form noch gar nicht existiert!
Nämlich ProResRaw-Ausgabe mit der Z6/7 über den Atomos Ninja V. Vielleicht wäre es klüger von Nikon endlich mal seinen Kunden das entsprechende Update anzubieten,
anstatt hier Schaumschlägerei zu betreiben! Echt peinlich soetwas...



Antwort von Axel:

Vielleicht klappt das mit der Raw-Ausgabe über HDMIHDMI im Glossar erklärt noch nicht zuverlässig genug. Natürlich hast du Recht. Die Aufnahmen aus dieser Kombi erwarte ich mit Spannung. Wäre schade, wenn sich das schon im Vorfeld erledigt.



Antwort von pillepalle:

Nicht gleich unken. Das wird schon funktionieren. Andernfallls wären die schon lange zurück gerudert und würden nicht noch Werbung dafür machen ;) Für die LUT haben sie auch eine Weile gebraucht, aber am Ende ist sie recht gut geworden. Ist für Nikon eben auch Neuland.

Ich bin sowieso schon mit den 10bit ProResProRes im Glossar erklärt super happy. Mal abwarten wie groß der Unterschied zu den 12bit RAW überhaupt sein wird. Könnte mir vorstellen das ich auch mit RAW Update vieles trotzdem in 10bit machen würde, weil es mehr CODEC Optionen bietet, oder besser in manchen Workflow passt. Sehe das einfach als eine schöne Dreingabe.

VG








Antwort von rush:

Was ist schon ein knappes Jahr.... lol

Ich finde das Gebahren auch etwas zwiespältig - zumal es nur schwache Infos und keine verlässlichen Daten gibt wie wann wo das ganze kommen wird.

Ich bin ja vor 3 Jahren weg bei Nikon und habe Ihnen (bis auf die Gläser) eigentlich keine Träne nachgeweint.... Das jetzige Verhalten unterstützt diesen Weg zumindest für mich. Klar kann man ewig warten und das entspannt sehen - andere haben die Kamera aber womöglich genau aus diesem Grund angeschafft und stehen im Regen.

So wie ich immer wieder die nervigen Lieferzeiten bei BMD bemängelt bzw. kritisch gesehen habe so halte ich es auch bei anderen Herstellern.
Der Einwand das ja Atomos mit in der Verantwortung hängt - interessiert den Kunden nicht. Der wird u.U irgendwann schlecht gelaunt und rennt im schlimmsten Fall noch vorher weg zur Konkurrenz.

Natürlich ist 10bit extern auch ganz nett - aber das bieten mittlerweile auch einige andere intern ohne extra Gerödel.



Antwort von pillepalle:

@ rush

Nikon hatte angekündigt dass das Upgrade bis Ende des Jahres kommen soll. Verstehe nicht warum man dann vorher schon jammert.
Die einzige Alternative im Vollformat die interne 10 bit liefert ist die Panasonic S1 und die kam wesentlich später auf den Markt und hat einen schlechteren AF. So reich sind die Alternativen nun wirklich nicht. Zudem nicht zu dem Preis (von aktuell 1500,-€).

VG



Antwort von rudi:

Stimmt schon, das angekündigte RAW-Update ist noch nicht verfügbar, die Release-Aussage von Nikon ("noch in diesem Jahr") soll jedoch noch gültig sein. Der Text wurde jetzt noch um eine entsprechenden Hinweis ergänzt.



Antwort von Beavis27:


@ rush

Nikon hatte angekündigt dass das Upgrade bis Ende des Jahres kommen soll. Verstehe nicht warum man dann vorher schon jammert.
Die einzige Alternative im Vollformat die interne 10 bit liefert ist die Panasonic S1 und die kam wesentlich später auf den Markt und hat einen schlechteren AF. So reich sind die Alternativen nun wirklich nicht. Zudem nicht zu dem Preis (von aktuell 1500,-€).

VG

Also zumindest ich jammere nicht, weil das Upgrade noch nicht da ist. Sondern weil schon Werbung gemacht wird, als wenn es die Raw- Option bereits gäbe.
Finde es generell besser, wenn Firmen erstmal liefern und dann die Werbung schalten. Alles andere ist unseriös!



Antwort von Ledge:

Du hast völlig Recht. Ich dachte schon ich hätte etwas verpasst als ich die Werbung gesehen habe. 10bit intern wäre nett (in ProRes) aber einen externen Monitor braucht man bei der Z6 eh...



Antwort von rush:


aber einen externen Monitor braucht man bei der Z6 eh...

Warum eigentlich? Ist der Sucher so schlecht?

Ich vermisse an meiner (mittlerweile ja beinahe schon betagten) A7rII eigentlich selten einen externen Monitor - nutze viel eher den EVF so oft es eben geht... Zudem kann der HDMIHDMI im Glossar erklärt Lag je nach Kamera/Monitor Kombi u.U. je nach Arbeitsweise störend sein wenn man da empfindlich für ist.

An der Pocket vermisse ich den eingebauten EVF dagegen schmerzlich - und nehme quasi eher als Notlösung einen externen Monitor her.



Antwort von Lorphos:

Die Nikon Z6 hat echt nur einen XQD slot? Da zahlt man pro GB ja mehr als das 10fache gegenüber einer SD 90MB/s UHS-I SDXC Karte. Schon bitter. Davon dass die XQD-Karte mit 440MB/s schreibbar ist habe ich in der Praxis wenig.

Kein Wunder dass sie das gleich im Bundle mit der Atomos Ninja V anpreisen...

Übrigens hat Atomos auf der Webseite https://www.atomos.com/drives schon eine Spalte für 12bit, aber noch keine einzige erfolgreich geprüfte SSD dafür.

Man sieht leider bei den SSDs auch nicht ob eine SSD noch nicht geprüft oder negativ geprüft wurde.



Antwort von pillepalle:

@ Lorphos

Es soll auch noch ein Firmware-Update für CFexpress Karten kommen. Dann hättest Du auch diese Option, falls Dir die XQD Karten zu langsam sein sollten 😂

Panasonic geht ja mit der S1/S1H den gleichen Weg. Da wird RAW auch nur über den Ninja möglich sein.



Antwort von Ledge:



aber einen externen Monitor braucht man bei der Z6 eh...

Warum eigentlich? Ist der Sucher so schlecht?

Für mich, darum:
  • 10-bit (nur extern)

  • N-Log (nur extern)

  • ProRes (nur extern)

  • Interner Monitor zu klein und nicht sehr hell, Sucher nicht immer einfach zu erreichen (z.B. Rig im Weg, hohe/tiefe Winkel)

  • Nicht möglich Zebra & PeakingPeaking im Glossar erklärt gleichzeitig zuzuschalten

  • Kein Waveform

  • Keine Framing Guides oder Anamorphic De-squeeze

  • Kein LUT Support (Unbearbeitetes N-Log Material kann man dem Kunden nicht antun)


  • Der Lag ist allerdings ein Problem!








    Antwort von pillepalle:

    Der Workflow für PR RAW in FinalCut scheint genauso primitiv zu sein wie in Edius :) Muss wohl warten bis Premiere das unterstützt um zu schauen wie es da umgesetzt ist. Hab ja selber noch nicht viel in RAW gemacht (mangels Software) aber den riesen Unterschied in den Farben, so wie Matti es darstellt, erwarte ich eigentlich nicht. In Sachen Dynamik scheint es mit RAW jedenfalls auch nicht großartig besser zu werden. Fand das Footage was er gefilmt hat aber jetzt auch nicht so aussagekräftig... wie das ganze Video im übrigen nicht *g*

    https://www.youtube.com/watch?v=F-Oc45I3ZuA

    VG



    Antwort von Darth Schneider:



    Warum eigentlich? Ist der Sucher so schlecht?

    Für mich, darum:
  • 10-bit (nur extern)

  • N-Log (nur extern)

  • ProRes (nur extern)

  • Interner Monitor zu klein und nicht sehr hell, Sucher nicht immer einfach zu erreichen (z.B. Rig im Weg, hohe/tiefe Winkel)

  • Nicht möglich Zebra & PeakingPeaking im Glossar erklärt gleichzeitig zuzuschalten

  • Kein Waveform

  • Keine Framing Guides oder Anamorphic De-squeeze

  • Kein LUT Support (Unbearbeitetes N-Log Material kann man dem Kunden nicht antun)


  • Der Lag ist allerdings ein Problem!


    Nikon sollte die beiden Kameras besser umtaufen in: Nikon Kompromiss Z6, und Nikon Kompromiss Z7.

    Warum werde ich das Gefühl nicht los, das Panasonic und Black Magic Design den anderen Kamera Herstellern einfach im Moment um Lichtjahre voraus sind ?
    Das über ein Jahr nach dem erscheinen der 4K Pocket, irgend, fast zwei Jahre seit die Gh5/Gh5s erschienen ist/sind... Immer noch hinken die anderen Kamerahersteller sich schleppend weit, weit hinten, hinter her. Dabei meine ich nicht mal RAW, sondern nur grundlegende Funktionen ;)

    Gruss Boris



    Antwort von pillepalle:

    @ Darth Schneider

    Es hat ja auch niemand gesagt das die Nikon eine perfekte Kamera für Filmer ist und mit dem Lag des Ninjas hat Ledge schon recht und natürlich das man einen externen Recorder braucht. Aber die meisten anderen vermeidlichen Nachteile/fehlenden Features hat der Ninja ja an Board und 'ne gut funktionierende LUT gibt's auch. Die Nikon ist eben eine echte Hybridkamera und kann auch gute Fotos machen, das unterschiedet sie z.B. von der Pocket. Die Pocket ist von der reinen Filmqualität und von den möglichen Formaten besser liegt aber vom Kamerabody, so wie Du es sagen würdest, 'Lichtjahre' hinter der Nikon ;) Ich finde das Nikon mit der Z6 und dafür das es ihre erste ernst zu nehmende Kamera zum Filmen ist, ziemlich gute Arbeit geleistet hat. Wenn die mit zukünftigen Modellen so weiter machen und sich nicht auf ihren Lorbeeren ausruhen, dann ist das auch für Filmer eine interessante Option. Die Panasonic S1 ist vielleicht auch etwas besser, die S1H mit Sicherheit, hinken aber z.B. in Sachen AF hinterher. Ich hätte kein Problem mit jeder dieser Kameras zu filmen, aber jede ist eben anders und hat andere Vor- und Nachteile.

    VG



    Antwort von Darth Schneider:

    Also mir gefällt das neue Nikon Lineup, auch die Sgma und die Panasonic ja auch. Ich verstehe einfach nicht warum so manche von den neuen Kameras halt immer noch kein internes 10 BitBit im Glossar erklärt in 4K ev sogar mit 50 fps können.,Aber Hauptsache der Autofokus und die Sensor Stabis sind spitze..;)
    Gruss Boris



    Antwort von Axel:


    Der Workflow für PR RAW in FinalCut scheint genauso primitiv zu sein wie in Edius :) Muss wohl warten bis Premiere das unterstützt um zu schauen wie es da umgesetzt ist. Hab ja selber noch nicht viel in RAW gemacht (mangels Software) aber den riesen Unterschied in den Farben, so wie Matti es darstellt, erwarte ich eigentlich nicht. In Sachen Dynamik scheint es mit RAW jedenfalls auch nicht großartig besser zu werden. Fand das Footage was er gefilmt hat aber jetzt auch nicht so aussagekräftig... wie das ganze Video im übrigen nicht *g*

    Was FCP bräuchte wäre halt eine vernünftige Implementierung. Scheint nicht so ganz deren Baustelle zu sein. Oder anders gesagt, man sieht auf einer seit über einem Jahr offenen Baustelle die Arbeiter Pause machen. Das wäre eine Aufgabe für die fleißigen BM-Leute. In Resolve hätte man gleich eine gescheite Vorschau anstatt weißer Frames in 709, und auch sonst alles, was das Herz begehrt.

    Ich sah kürzlich ein Video über die günstigsten von Netflix empfohlenen Kameras. Das wäre eine gebrauchte Ursa Mini 4,6k (Pro nicht Bedingung), die man teilweise mit sinnvollem Zubehör für 5000€ kriegt. Ich hab die mal gemietet. Fand sie zu groß, aber nicht unhandlich. Ich finde, das ganze Prinzip der Hybrid-Aufrüstung macht nur unter dem Aspekt Sinn, dass man kleiner und handlicher bleibt. Finde ich hier kaum gegeben. Wichtiger ist, dass das "eco system" noch Sandkastenniveau hat. Nur Resolve könnte das ändern.



    Antwort von pillepalle:

    @ Darth Schneider

    Der AF und der Stabi sind spitze weil Nikon damit viel Erfahrung hat. Genauso wie im Bau robuster und zuverlässiger Kamerabodys. Das was ihnen fehlt ist die Erfahrung im Filmbereich und vielleicht auch worauf Filmer wert legen. Aber es ist doch klar das sie dabei Kompromisse machen müssen, denn die Kamera soll ja auch in ihrer Funktion als Fotoapparat nicht eingeschränkt werden. Eine Pocket oder Sigma nimmt niemand ernsthaft um damit zu fotografieren und dadurch hat man auch mehr Freiheiten beim Kameradesign und der Funktionalität.

    Wie gesagt, ich hätte auch nichts gegen eine interne Aufzeichnung, aber einen guten externen Monitor braucht es für die Z6 sowieso und das verlagern der Aufzeichnung auf den Ninja macht die Kamera und die benötigten Speichermedien auch günstiger. Mit der Kamera kann man Stunden am Stück filmen, ohne das irgendwas warm wird, oder die Kamera sich verschluckt (schon mit dem pupsigen internen Nikon Akku über 2 Stunden). Hat also nicht nur Nachteile. Und 50fps in 4K wären natürlich auch schön, aber vielleicht geht das ja mit einer zukünftigen Nikon. Ich meine, selbst mit Ninja und Zubehör kostet die Z6 unter 2500,-€. Das ist schon ziemlich günstig...

    @ Axel

    Hab nie mit FCPX gearbeitet... in Edius waren die Bilder nicht zu hell, aber da gab's natürlich auch kein RAW-Tab wo man was hätte einstellen können. Ich find einfach blöd eine RAW Datei in die TimelineTimeline im Glossar erklärt zu ziehen und dann an den normalen Farb-/Kontrastkorrektur Reglern drehen zu müssen. Am Workflow müssen sie definitiv noch arbeiten, aber da hat Nikon vermutlich auch noch nicht so viel Erfahrung mit. Aber da Panasonic das Feature (RAW oder HDMI) ja auch liefern wird, bin ich zuversichtlich das sich da noch einiges tun wird.

    Hast Du schon mal ne Z6 mit Ninja in der Hand gehabt? Die ist auch mit Ninja nicht wirklich groß.

    VG



    Antwort von dienstag_01:

    Die Vorstellung, dass ein Kamerahersteller in einer fremden Software einen RAW-Tab o.ä. programmiert und implementiert ist genauso weltnah, wie die Annahme, dass es einen Kamerahersteller namens Lumetri gibt. Denn Lumetri gibt es ja schließlich als Tab in Premiere ;)



    Antwort von Axel:

    Ich find einfach blöd eine RAW Datei in die TimelineTimeline im Glossar erklärt zu ziehen und dann an den normalen Farb-/Kontrastkorrektur Reglern drehen zu müssen.

    Kenne Edius nicht, aber ich vermute, du wirst der Exposure eines Raw-Moduls mit Mitten (Gamma) am nächsten kommen. Zeigt Edius dir eigentlich irgendwelche aufnahmebezogenen Metadaten ("EXIF") an? FCP nämlich nicht, zumindest nicht bei den downloadbaren Schnippseln von überall her. Und die sollten drin sein, schließlich ist mov ein Container mit solchem Krempel (falls vorhanden!).

    Die Farbkreise in FCP, die alle (auch Matt im Video) benutzen, verhalten sich nicht wie Lift, GammaGamma im Glossar erklärt, Gain, darauf hat ja schon bei ihrer Einführung Simon Ubsdell hingewiesen. Die Farbtafel hat dagegen ein Tab "Belichtung", und nur damit hat man wirklich das Gefühl, nachträglich am Blendenring zu drehen. Dasselbe gilt für den Schieberegler "Farbtemperatur", der für Nicht-Raw funktioniert, aber für PRAW schlicht färbt.

    Am Workflow müssen sie definitiv noch arbeiten, aber da hat Nikon vermutlich auch noch nicht so viel Erfahrung mit.

    Ist das denn Nikons Aufgabe?

    Aber da Panasonic das Feature (RAW oder HDMI) ja auch liefern wird, bin ich zuversichtlich das sich da noch einiges tun wird.

    Erklär bitte.

    Hast Du schon mal ne Z6 mit Ninja in der Hand gehabt? Die ist auch mit Ninja nicht wirklich groß.

    Noch nicht. Aber ich würde Kamera plus Ninja sowieso ganz anders riggen. Externen Monitor benutze ich nur für den Gimbal, sonst lieber EVF.



    Antwort von pillepalle:

    @Axel

    Nee, auf die Software anderer haben die natürlich wenig Einfluss. Aber wenn Panasonic das Feature in Zukunft auch mal anbietet und mehr Nutzer danach fragen, werden die Software Hersteller es vielleicht besser implementieren.

    VG








    Antwort von Jott:


    Ich find einfach blöd eine RAW Datei in die TimelineTimeline im Glossar erklärt zu ziehen und dann an den normalen Farb-/Kontrastkorrektur Reglern drehen zu müssen.

    Wieso eigentlich?



    Antwort von pillepalle:

    @ Jott

    Weil es z. B. bei Fotos so auch ganz gut funktioniert. Wenn ich Dinge wie den WeissabgleichWeissabgleich im Glossar erklärt, oder die Belichtung separat einstellen kann schaffe ich ja erst einmal die Grundlagen für ein späteres Grading und die Feinarbeit. So drehe ich an den Reglern und drehe danach nochmal daran herum, weil ich vielleicht einen bestimmten Look haben möchte. Bei Resolve wäre das ja noch okay, weil man da verschiedene Nodes machen kann, dessen Werte man leicht übertragen kann, aber wie das in FCPX, oder Premiere sein wird weiss ich eben noch nicht. Ich fände es eben übersichtlicher die Bilder in mehreren Schritten zu bearbeiten, als alles an den gleichen Reglern zu machen.

    VG



    Antwort von Axel:

    Matti Haapoja sagt, eigentlich muss man nicht mehr viel machen, die Farben von der Z6 sind in PRAW schon super. Da ist nichts gegen zu sagen. Schön wäre es halt, wenn man durch eine Interpretation von PRAW für den 709 Arbeitsfarbraum auch eine normalere Direktansicht erhielte. Das Camera-Raw-Modul in Resolve dient ja nicht dazu, die Aufnahmen zu graden, sondern das Raw-Bild zunächst zu interpretieren.
    zum Bild https://i.postimg.cc/y6fT8s81/Camera-Raw.jpg
    Man kann sich darüber streiten, wessen Aufgabe das ist. Aber im Falle von Apple, die CodecCodec im Glossar erklärt und Software stellen, wäre es wohl deren Job (gewesen, muss man sagen).



    Antwort von Jott:


    Weil es z. B. bei Fotos so auch ganz gut funktioniert. Wenn ich Dinge wie den WeissabgleichWeissabgleich im Glossar erklärt, oder die Belichtung separat einstellen kann schaffe ich ja erst einmal die Grundlagen für ein späteres Grading und die Feinarbeit. So drehe ich an den Reglern und drehe danach nochmal daran herum, weil ich vielleicht einen bestimmten Look haben möchte.

    Geht doch im gleichen InterfaceInterface im Glossar erklärt genauso. Zwei Stufen, macht man doch sowieso auch ohne raw: erst Bilder einheitlich in Ordnung bringen, Stufe 2 (weitere Filterebene (pro Clip oder global via Einstellebene) dann für den gewünschten Look.Weitere Stufen für weiteres Zeug, soviel man will.

    Wieso sollten das jeweils andere Bedienoberflächen sein müssen, nur weil das Material live debayered wird? Davon kriegt man ja gar nichts mit.



    Antwort von pillepalle:

    @ Jott

    Weil wenn ich, sagen wir mal mein Bild neutralisiert habe, die Einstellungen behalten möchte, auch wenn ich z. B. mit dem Grading herum spiele. Wenn ich an den selben Reglern drehe, verstellen ich gleichzeitig ja auch meinen ersten Arbeitsschritt. Wenn man die separiert, dann kann ich mein Grading jederzeit verändern, ohne das ich dabei die Einstellungen für die Neutralisiation verändern muss. Wäre einfach viel praktischer.

    VG



    Antwort von Axel:


    Weil wenn ich, sagen wir mal mein Bild neutralisiert habe, die Einstellungen behalten möchte, auch wenn ich z. B. mit dem Grading herum spiele. Wenn ich an den selben Reglern drehe, verstellen ich gleichzeitig ja auch meinen ersten Arbeitsschritt. Wenn man die separiert, dann kann ich mein Grading jederzeit verändern, ohne das ich dabei die Einstellungen für die Neutralisiation verändern muss. Wäre einfach viel praktischer.

    Streng genommen ist das nur ein GUI-Unterschied, vermutlich auch in Edius. Neutralisierung im ersten Schritt, danach das jeweilige Tool (z.B. Farbkreise) erneut anwenden, dann verwendet "Farbkreise2" (wie es in FCP hieße) den Output des ersten Nodes (wie es in Resolve hieße). Allerdings ohne parallele oder Layer-Nodes, und das ist eine der vielen entscheidenden Unterschiede. Abgesehen, wie gesagt, dass die nicht-destruktive Konvertierung in den Arbeitsfarbraum an den Anfang des Workflows gehört und nicht mit "Neutralisierung" bezeichnet werden sollte.



    Antwort von Jott:

    Verschiedene Stufen, habe ich doch gesagt. Mehrere Filter nacheinander, wenn du willst. Die erste Instanz ist das "Neutralisieren" (inclusiv Axels "nicht-destruktiver Konvertierung"), die wird dann auch gar nicht mehr angefasst. fcp x hat doch eine hierarchische Filterstruktur, da kannst du das völlig getrennt halten.

    Eben deshalb verstehe ich das verzweifelte Suchen nach einem extra "raw-Editor" nicht, der zwanghaft irgendwie anderes aussehen soll. Wozu? Klingt für mich ein wenig nach der Kategorie "Cine-Kameras dürfen keinen Autofokus haben".



    Antwort von roki100:

    Eben deshalb verstehe ich das verzweifelte Suchen nach einem extra "raw-Editor" nicht, der zwanghaft irgendwie anderes aussehen soll. Wozu?
    Wo soll man dann z.B. ColorTemp, ISO & Co. einstellen?



    Antwort von Jott:


    Eben deshalb verstehe ich das verzweifelte Suchen nach einem extra "raw-Editor" nicht, der zwanghaft irgendwie anderes aussehen soll. Wozu?
    Wo soll man dann z.B. ColorTemp, ISO & Co. einstellen?

    Der Color-Temp-Regler ist ja da. Was ISO angeht, auch hier: wozu genau? Aber ich weiß, hier verlassen wir gewohnten Boden. Jedenfalls kann man ProResProRes im Glossar erklärt raw in fcp x prima graden, der Rest ist mir ehrlich gesagt eher egal. Technisch erklären können und sollen's andere.








    Antwort von cantsin:

    Raw-Regler sind Steuerungsparameter fürs Debayering und liefern bessere Resultate, als erst Debayern und danach korrigieren. Kann man in Resolve schön sehen, wenn man die Wirkungsweise des Weissabgleich-Regler im Raw-Tab mit dem Weissabgleich-Regler im Color (=Nachbearbeitungs-Tab) vergleicht.



    Antwort von roki100:


    Der Color-Temp-Regler ist ja da.

    Der ist da, jedoch ist dieser nicht das selbe. Falsch gesetzte ColorTemp Wert, z.B. um +/- 2000 lässt sich nachträglich mit normale ColorTemp Regler nicht mehr korrekt einstellen. Anders mit den RAW Regler.

    Was ISO angeht, auch hier: wozu genau?

    Keine Ahnung... :) Es sei nur erwähnt, dass auch ISO bei RAW nicht eingebacken wird. Ich nutze öfter höhere ISO Wert (ISO1600), um zB. in Innenräume besser zu sehen. Nachträglich ändere ich es dann auf Nativ...



    Antwort von dienstag_01:


    Raw-Regler sind Steuerungsparameter fürs Debayering und liefern bessere Resultate, als erst Debayern und danach korrigieren. Kann man in Resolve schön sehen, wenn man die Wirkungsweise des Weissabgleich-Regler im Raw-Tab mit dem Weissabgleich-Regler im Color (=Nachbearbeitungs-Tab) vergleicht.

    Aha, du machst also den WeißabgleichWeißabgleich im Glossar erklärt mit undebayertem Material. Was ja Graustufen hat. Finde ich interessant.



    Antwort von cantsin:



    Raw-Regler sind Steuerungsparameter fürs Debayering und liefern bessere Resultate, als erst Debayern und danach korrigieren. Kann man in Resolve schön sehen, wenn man die Wirkungsweise des Weissabgleich-Regler im Raw-Tab mit dem Weissabgleich-Regler im Color (=Nachbearbeitungs-Tab) vergleicht.

    Aha, du machst also den WeißabgleichWeißabgleich im Glossar erklärt mit undebayertem Material. Was ja Graustufen hat. Finde ich interessant.

    Du hast ein echtes Talent, einem falsche Worte in den Mund zu legen. Nein, das habe ich NICHT geschrieben, lies mal genau.



    Antwort von dienstag_01:



    Aha, du machst also den WeißabgleichWeißabgleich im Glossar erklärt mit undebayertem Material. Was ja Graustufen hat. Finde ich interessant.

    Du hast ein echtes Talent, einem falsche Worte in den Mund zu legen. Nein, das habe ich NICHT geschrieben, lies mal genau.

    Dann erkläre es bitte nochmal.



    Antwort von cantsin:



    Du hast ein echtes Talent, einem falsche Worte in den Mund zu legen. Nein, das habe ich NICHT geschrieben, lies mal genau.

    Dann erkläre es bitte nochmal.

    http://rawpedia.rawtherapee.com/White_Balance
    unten: "The white balance is described in temperature and tint, but will for raw images be translated into weights of the red, green and blue channels. The weights will be adjusted so that the channel with the smallest weight reaches clipping in the working space (usually ProPhoto RGB) when the raw channel is clipped. In other words, with exposure set to 0.0 and no highlight recovery enabled the full visible range is fully defined by the raw backing."

    Es ist natürlich ein Unterschied, ob man die Gewichtung der RGB-Kanäle an den ursprünglichen Farbkanälen vornimmt oder aus interpolierten (debayerten) Mischfarben wieder RGB-Kanäle rekonstruiert und dann neu gewichtet.



    Antwort von dienstag_01:



    Dann erkläre es bitte nochmal.

    http://rawpedia.rawtherapee.com/White_Balance
    unten: "The white balance is described in temperature and tint, but will for raw images be translated into weights of the red, green and blue channels. The weights will be adjusted so that the channel with the smallest weight reaches clipping in the working space (usually ProPhoto RGB) when the raw channel is clipped. In other words, with exposure set to 0.0 and no highlight recovery enabled the full visible range is fully defined by the raw backing."

    Es ist natürlich ein Unterschied, ob man die Gewichtung der RGB-Kanäle an den ursprünglichen Farbkanälen vornimmt oder aus interpolierten (debayerten) Mischfarben wieder RGB-Kanäle rekonstruiert und dann neu gewichtet.

    Wo steht denn, dass es nicht interpoliert ist, es muss ja interpoliert werden. Oder wie gewichtest du Wertigkeiten von Farben ohne verschiedene Farben.

    Edit: das muss doch jedem einleuchten, dass eine Verschiebung auf z.B. der Blau-Gelb-Achse never ever ohne die Mischfarbe Gelb gehen kann. Wenigstens ab hier muss man doch stutzig werden ;)



    Antwort von cantsin:


    Edit: das muss doch jedem einleuchten, dass eine Verschiebung auf z.B. der Blau-Gelb-Achse never ever ohne die Mischfarbe Gelb gehen kann. Wenigstens ab hier muss man doch stutzig werden ;)

    Für die Mischfarbe Gelb muss man nur den Rot- und den Grünkanal addieren, das ist noch kein echtes Debayering...

    Hier mal Praxis:
    Ein mit einer 5D MkII und MagicLantern aufgenommenes 14bit-Raw-Videobild (von MLV nach CinemaDNG gewandelt), in Resolve importiert und mit im Raw-Tab korrekt eingestelltem Weißabgleich:

    white-balance_1.57.1.jpg

    Jetzt mit verdrehtem Weißabgleich:
    white-balance_1.57.2.jpg

    Versuch, den WeißabgleichWeißabgleich im Glossar erklärt über den "Temperature"-Regler im Color-Tab wieder zu korrigieren:
    white-balance_1.57.3.jpg

    Versuch, noch mit Gammakorrektur nachzuhelfen:
    white-balance_1.57.4.jpg

    Es gelingt nicht. Auch nicht, wenn man statt Temperature+Gamma den Offset-Regler nimmt - gleiche Ergebnisse.

    Das Spiel kann man auch in anderen Programmen wie z.B. Photoshop (Adobe Camera Raw-Regler versus "Color Balance" im Programm selbst) wiederholen und wird keine wesentlich anderen Ergebnisse erhalten.

    Würde mich daher wundern, wenn es in FCPX anders wäre, solange sich da keine Raw-Interpretations-Parameter einstellen lassen.



    Antwort von dienstag_01:



    Edit: das muss doch jedem einleuchten, dass eine Verschiebung auf z.B. der Blau-Gelb-Achse never ever ohne die Mischfarbe Gelb gehen kann. Wenigstens ab hier muss man doch stutzig werden ;)

    Für die Mischfarbe Gelb muss man nur den Rot- und den Grünkanal addieren, das ist noch kein echtes Debayering...

    Hier mal Praxis:
    Ein mit einer 5D MkII und MagicLantern aufgenommenes 14bit-Raw-Videobild (von MLV nach CinemaDNG gewandelt), in Resolve importiert und mit im Raw-Tab korrekt eingestelltem Weißabgleich:

    white-balance_1.57.1.jpg

    Jetzt mit verdrehtem Weißabgleich:
    white-balance_1.57.2.jpg

    Versuch, den WeißabgleichWeißabgleich im Glossar erklärt über den "Temperature"-Regler im Color-Tab wieder zu korrigieren:
    white-balance_1.57.3.jpg

    Versuch, noch mit Gammakorrektur nachzuhelfen:
    white-balance_1.57.4.jpg

    Es gelingt nicht. Auch nicht, wenn man statt Temperature+Gamma den Offset-Regler nimmt - gleiche Ergebnisse.

    Das Spiel kann man auch in anderen Programmen wie z.B. Photoshop (Adobe Camera Raw-Regler versus "Color Balance" im Programm selbst) wiederholen und wird keine wesentlich anderen Ergebnisse erhalten.

    Würde mich daher wundern, wenn es in FCPX anders wäre, solange sich da keine Raw-Interpretations-Parameter einstellen lassen.

    Das heißt doch nichts anderes, als dass der Color Balance Regler im Programm auf das Ergebnis der WB Balance aus dem RAW Tab zugreift und nicht auf das von Null. Das kann man jetzt gut oder schlecht finden, aber daraus die Aussage abzuleiten, das Material würde für den WB Abgleich nicht interpoliert werden, überfordert mein technisches Verständnis ;) Das geht schlicht nicht.
    Die Frage wäre ja, ob ein Programm wie FCPX mit seinen Einstellungen genauso verfährt oder das Material quasi als RAW erkennt und seine Korrekturen nicht auf dem schon in den Arbeitsfarbraum und mit einer Gammakurve versehenem Material ausführt. Das ist nämlich der eigentliche Punkt, das Bild aus der Kamera wird vom RAW Konverter interpretiert, um so mehr man an dieser Interpretation ändern/eingreifen kann, umso weiter lässt sich das Bild *verbiegen*. Color Regler im Programm setzen dann auf das interpretierte (mit einer Gammakurve versehene) Bild auf und haben damit geringere Eingriffsmöglichkeiten.
    Ob ein Programm das anders machen kann, warum nicht. Ob FCPX das macht, wahrscheinlich nicht, wird man aber schwer rausbekommen.








    Antwort von cantsin:


    Die Frage wäre ja, ob ein Programm wie FCPX mit seinen Einstellungen genauso verfährt oder das Material quasi als RAW erkennt und seine Korrekturen nicht auf dem schon in den Arbeitsfarbraum und mit einer Gammakurve versehenem Material ausführt.

    Irgendwie reden wir aneinander vorbei, denn genau das meinte ich.

    Alle bisherigen Erfahrungsberichte weisen bisher darauf hin, dass es FCPX nicht anders macht als andere Programme (und im Arbeitsfarbraum korrigiert).



    Antwort von dienstag_01:



    Die Frage wäre ja, ob ein Programm wie FCPX mit seinen Einstellungen genauso verfährt oder das Material quasi als RAW erkennt und seine Korrekturen nicht auf dem schon in den Arbeitsfarbraum und mit einer Gammakurve versehenem Material ausführt.

    Irgendwie reden wir aneinander vorbei, denn genau das meinte ich.

    Alle bisherigen Erfahrungsberichte weisen bisher darauf hin, dass es FCPX nicht anders macht als andere Programme (und im Arbeitsfarbraum korrigiert).

    Ich rege mich ja nur darüber auf, dass du WB Korrektur vor das Debayering gesetzt hast. Wie soll das gehen.



    Antwort von cantsin:


    Ich rege mich ja nur darüber auf, dass du WB Korrektur vor das Debayering gesetzt hast. Wie soll das gehen.

    Ich hatte geschrieben: "Raw-Regler sind Steuerungsparameter fürs Debayering" - ja, weil (wie auf der rawpedia-Seite beschrieben) die RGB-Kanalgewichtung als Teil des Debayering-Prozesses verändert wird, wenn man den WeissabgleichWeissabgleich im Glossar erklärt im Raw-Tab einstellt.

    "und liefern bessere Resultate, als erst Debayern und danach korrigieren" - hätte ich präziser schreiben sollen: als erst in den Arbeitsfarbraum Debayern und danach korrigieren.

    (Ich hatte nirgendwo geschrieben, dass WB Korrektur vor dem Debayering stattfindet, daher die Bitte an Dich, richtig zu lesen.)



    Antwort von dienstag_01:



    Ich rege mich ja nur darüber auf, dass du WB Korrektur vor das Debayering gesetzt hast. Wie soll das gehen.

    Ich hatte geschrieben: "Raw-Regler sind Steuerungsparameter fürs Debayering" - ja, weil (wie auf der rawpedia-Seite beschrieben) die RGB-Kanalgewichtung als Teil des Debayering-Prozesses verändert wird, wenn man den WeissabgleichWeissabgleich im Glossar erklärt im Raw-Tab einstellt.

    "und liefern bessere Resultate, als erst Debayern und danach korrigieren" - hätte ich präziser schreiben sollen: als erst in den Arbeitsfarbraum Debayern und danach korrigieren.

    Ich behaupte mal, dass hat nicht nur was mit dem Arbeitsfarbraum, sondern noch mehr mit der Gammakurve (vielleicht auch der des Reglers, wenn du verstehst) zu tun. Sieht man an deinem blauen Bild, da dürfte der Arbeitsfarbraum eher weniger Beschränkungen produzieren.



    Antwort von Jott:

    Mal schauen, wie es bei Adobe und AVID umgesetzt wird. Sollte ja demnächst so weit sein (NAB?).



    Antwort von dienstag_01:

    Vielleicht macht es ja auch Sinn, in einem *normalen* Schnittsystem nur einen Teil (vielleicht die Dynamik) der Möglichkeiten von RAW nutzen zu können. Und wenn es richtig ans Eingemachte gehen muss, gibt es die Möglichkeit eines Roundtrips über Resolve und Co.



    Antwort von cantsin:


    Vielleicht macht es ja auch Sinn, in einem *normalen* Schnittsystem nur einen Teil (vielleicht die Dynamik) der Möglichkeiten von RAW nutzen zu können. Und wenn es richtig ans Eingemachte gehen muss, gibt es die Möglichkeit eines Roundtrips über Resolve und Co.

    Nur, dass Resolve ProResProRes im Glossar erklärt Raw leider nicht unterstützt...

    (Noch) gibt es keine Software, in der sich PRR vernünftig bearbeiten lässt.



    Antwort von dienstag_01:



    Vielleicht macht es ja auch Sinn, in einem *normalen* Schnittsystem nur einen Teil (vielleicht die Dynamik) der Möglichkeiten von RAW nutzen zu können. Und wenn es richtig ans Eingemachte gehen muss, gibt es die Möglichkeit eines Roundtrips über Resolve und Co.

    Nur, dass Resolve ProResProRes im Glossar erklärt Raw leider nicht unterstützt...

    (Noch) gibt es keine Software, in der sich PRR vernünftig bearbeiten lässt.

    Naja, diese ganze RAW Entwicklung scheint mir sowieso dubios. Da nennt jeder irgendwie was und wie er will RAW. Vielleicht sollte man sich in diesem Bereich (Consumer/Semi) besser auf für einen selbst nachvollziehbare Vorteile konzentrieren, anders wird's diffus ;)



    Antwort von roki100:

    Da nennt jeder irgendwie was und wie er will RAW.
    so wie es aussieht, ist PPRAW genau das, Hauptsache RAW betitelt und 12 Bit?








    Antwort von pillepalle:

    @ roki100

    Aber 12 bit Farbe sind ja auch nicht so schlecht 😉 Ist mir eigentlich wurscht wie man das dann nennt

    VG



    Antwort von Darth Schneider:

    Red RAW ist auch komprimiert, eigentlich fast genau wie BRaw oder sehe ich das falsch ?
    Gruss Boris



    Antwort von roki100:

    @pillepalle
    das ist doch das beste daran. Man muss es halt wie ProResProRes im Glossar erklärt 10bit behandeln und vor der Aufnahme Kameraintern ColorTemp, ISO... korrekt einstellen.

    Ich habe aber wirklich bei YouTube mal gesehen, wie PPRAW Material bearbeitet wurde und da funktionierte Highlight Recovery, mit den normalen Regler (keine extra RAW Regler). Ich glaube es war FCPX.



    Antwort von pillepalle:

    @ roki100

    Müsste man einfach mal ausprobieren. Aber die Farbtemperatur steht bei mir ohnehin meist recht nah an der WB, schon alleine weil ich kein blaues Monitorbild beim filmen mag 😁 Feinkorrekturen sind selbst bei 10bit schon kein Thema. Nur wenn man es wirklich völlig versaut, hat man vielleicht ein Problem.

    VG



    Antwort von roki100:


    Red RAW ist auch komprimiert, eigentlich fast genau wie BRaw oder sehe ich das falsch ?
    Gruss Boris

    Frank hat mal irgendwo erwähnt, dass RED RAW auch wie BRAW ist.



    Antwort von Jott:

    Ein paar Anmerkungen zum Rätselraten.

    Zunächst mal einfach aufhören mit der Story, ProResProRes im Glossar erklärt raw sei kein raw. Da ist nichts debayered. Sagt auch Nikon in seiner Präsentation.

    In fcp x wird erkannt, was es ist. Es ploppen zusätzlich Metadaten im Inspektor auf, fcp weiß, aus welcher Kamera das Material kommt, kennt die Log-Kurve, die Gammaeinstellung und im Hintergrund vielleicht noch mehr, was nur nicht angezeigt wird. Man kann zum Spaß umschalten auf einen anderen Hersteller (Panasonic, DJI ...), und das De-Bayering sieht anders aus.

    Die Files spielen realtime ohne RendernRendern im Glossar erklärt, volle Auflösung. Nix ProResProRes im Glossar erklärt, nix Proxy, einfach so. Schon cool.

    Ich teile übrigens Axels Verdacht, dass der Belichtungs-Puck bei ProResProRes im Glossar erklärt raw den Job des vermissten ISO-Reglers übernimmt. Aber das ist nur eine Vermutung.



    Antwort von Frank Glencairn:



    Frank hat mal irgendwo erwähnt, dass RED RAW auch wie BRAW ist.

    Ned ganz. Beides ist komprimiertes raw - das wars dann aber auch schon mit den Gemeinsamkeiten.

    RED Code komprimiert mit Wavelet (im Prinzip ist es ne Version von Cineform raw),
    während BRAW wegen der RED Patente einen anderen Weg gehen mußte, und beim speichern schon teildebayert.
    Im Workflow merkt man allerdings keinen Unterschied zu dem ursprünglichen DNG-raw, das ganz undebayert war.



    Antwort von Axel:



    Die Files spielen realtime ohne RendernRendern im Glossar erklärt, volle Auflösung. Nix ProResProRes im Glossar erklärt, nix Proxy, einfach so. Schon cool.

    Ich teile übrigens Axels Verdacht, dass der Belichtungs-Puck bei ProResProRes im Glossar erklärt raw den Job des vermissten ISO-Reglers übernimmt. Aber das ist nur eine Vermutung.

    Clips in erheblich besserer Qualität ohne Kopfschmerzen, ein "No-Brainer". Dennoch könnte man im "Film"-Tab des Inspektors doch zwei Schieberegler addieren "Raw Belichtung" und "Raw Farbtemperatur". Die müssten bei Nicht-Raw-Material gar nicht erscheinen, "Ratenanpassung" taucht ja auch nur auf, wenn die Clip-fps von denen der TimelineTimeline im Glossar erklärt abweichen.

    ETTR ist übrigens dringend anzuraten. Tiefen, die man hochzieht, haben in PRAW sehr viel noise.



    Antwort von cantsin:


    ETTR ist übrigens dringend anzuraten. Tiefen, die man hochzieht, haben in PRAW sehr viel noise.

    Das liegt aber nicht an ProResProRes im Glossar erklärt Raw, sondern entweder an der Kamera oder an der Prozessierung in FCP.








    Antwort von roki100:

    https://www.youtube.com/watch?v=yd2S7NVnV1o



    Antwort von Jott:

    Dennoch könnte man im "Film"-Tab des Inspektors doch zwei Schieberegler addieren "Raw Belichtung" und "Raw Farbtemperatur".

    Könnte man. Sie haben sich sicher irgend etwas dabei gedacht, das nicht zu tun. Wie gesagt, ich bin gespannt, wie Adobe und AVID das angehen.



    Antwort von cantsin:


    Sie haben sich sicher irgend etwas dabei gedacht, das nicht zu tun.

    Adobe- und CinemaDNG-Nutzer könnten hier ein gewisses Deja Vu haben... (Denn Adobe behandelte sein eigenes RAW-Format in Premiere ebenso stiefmütterlich, wie es Apple jetzt mit ProResProRes im Glossar erklärt Raw tut.)



    Antwort von Jott:

    Mag sein. Ich glaube nur nicht so recht an das "Stiefmütterliche" in fcp x. macht ja keinen Sinn, wenn sie gleichzeitig versuchen, das FormatFormat im Glossar erklärt zu etablieren.

    Ich frage mich eher, ob nicht fcp x so "aware" ist, dass bei einem ProResProRes im Glossar erklärt raw-Clip einfach die FarbkorrekturFarbkorrektur im Glossar erklärt unmerklich komplett zum raw-Editor wird. Wilde Theorie? Sollte RSK Bescheid wissen, wo isser?



    Antwort von cantsin:


    Ich frage mich eher, ob nicht fcp x so "aware" ist, dass bei einem ProResProRes im Glossar erklärt raw-Clip einfach die FarbkorrekturFarbkorrektur im Glossar erklärt unmerklich komplett zum raw-Editor wird.

    Kann man ja einfach testen, indem man einen PRR-Clip mit verdrehter Weißabgleich-Einstellung dreht und dann den WeißabgleichWeißabgleich im Glossar erklärt in FCP korrigiert, wie bei meinem CinemaDNG+Resolve-Beispiel weiter oben.

    Scheint aber (bislang) nicht der Fall zu sein, laut u.a. "The Australian Cinematographer":

    "I could change RAW exposure, white balance and tint controls but not anywhere near the level of control available in the Da Vinci Resolve grading software with the same CinemaDNG RAW file."

    https://acmag.com.au/2018/06/01/prores-raw/



    Antwort von Jott:

    In deinem Zitat redet er von Adobe, nicht von fcp x/ProRes raw.



    Antwort von cantsin:


    In deinem Zitat redet er von Adobe, nicht von fcp x/ProRes raw.

    Stimmt, mein Lesefehler.

    Wäre interessant, wenn hier jemand meinen CinemaDNG+Resolve-Weissabgleich-Test mit PRR und FCPX wiederholen könnte.



    Antwort von dienstag_01:

    Der Unterschied zwischen WeißabgleichWeißabgleich im Glossar erklärt und Farbtemperatur (Reglern) ist ja schon mal, dass WB auf zwei Achsen stattfindet und Farbtemperatur auf einer. Zumindest bei RAW (WB). Die KÖNNEN also gar nicht die selben Funktion haben.



    Antwort von pillepalle:

    Es gibt ja auch in fcp, so wie in jeder anderen Software einen grün/magenta Regler. Genau damit und mit der Farbtemperatur macht man eine WB.

    VG








    Antwort von dienstag_01:


    Es gibt ja auch in fcp, so wie in jeder anderen Software einen grün/magenta Regler. Genau damit und mit der Farbtemperatur macht man eine WB.

    VG

    Den gibt es in Photoshop auch und trotzdem ist da ein RAW Entwickler davor geschaltet.



    Antwort von pillepalle:

    Die beiden Regler finden sich auch in jedem RAW Konverter. Damit macht man die WB, falls man nicht die Automatik einer Pipette nutzen möchte, die beide Regler verändert.

    VG



    Antwort von dienstag_01:


    Die beiden Regler finden sich auch in jedem RAW Konverter. Damit macht man die WB, falls man nicht die Automatik einer Pipette nutzen möchte, die beide Regler verändert.

    VG

    Ja, aber die arbeiten eben anders, sonst gäbe es sie nicht.



    Antwort von pillepalle:

    Nee, die machen genau das selbe, nur eben mit der Raw Datei bevor sie in irgendein spezifisches FormatFormat im Glossar erklärt gespeichert wird. Im Grunde sind das nur Metadaten. Erst wenn an die Datei anschließend speichert werden die Werte eingebacken.

    VG



    Antwort von dienstag_01:


    Nee, die machen genau das selbe, nur eben mit der Raw Datei bevor sie in irgendein spezifisches FormatFormat im Glossar erklärt gespeichert wird. Im Grunde sind das nur Metadaten. Erst wenn an die Datei anschließend speichert werden die Werte eingebacken.

    VG

    Dann wäre es unnützes Zeug.



    Antwort von pillepalle:

    Wieso das? Das ist doch genau was Du im Nachhinein festlegen möchtest. In fcp arbeitest Du auch mit einer RAW Datei. Erst in dem Moment des Exports/Rendern hast Du Dich mit Deinen Werten festgelegt.

    VG



    Antwort von dienstag_01:


    Wieso das? Das ist doch genau was Du im Nachhinein festlegen möchtest. In fcp arbeitest Du auch mit einer RAW Datei. Erst in dem Moment des Exports/Rendern hast Du Dich mit Deinen Werten festgelegt.

    VG

    Da ist das, was du glaubst. Die Frage ist doch, ob man vollen Zugriff auf das undebayerte Material hat. Hat man? Ich glaube das nicht. Aber ich weiß es auch nicht.



    Antwort von pillepalle:

    Wieso sollte man das nicht haben? Es wird natürlich, wie in jedem RAW Konverter, vorab interpretiert (je nach Einstellungen des Konverters). Ist bei Fotos ja nicht anders. Da siehst Du im Konverter auch keine uninterpretierte Zahlenreihevon von Einsen und Nullen, oder eine Schwarzweiss Darstellung.

    VG



    Antwort von dienstag_01:


    Wieso sollte man das nicht haben? Es wird natürlich, wie in jedem RAW Konverter, vorab interpretiert (je nach Einstellungen des Konverters). Ist bei Fotos ja nicht anders. Da siehst Du im Konverter auch keine uninterpretierte Zahlenreihevon von Einsen und Nullen, oder eine Schwarzweiss Darstellung.

    VG

    Genau. Das wäre sozusagen Adobe Camera Raw (um mal den Fotovergleich zu nutzen) ohne Einstellmöglichkeiten, also im Automatikmodus. Und wenn du jetzt den WeißabgleichWeißabgleich im Glossar erklärt änderst, dann wie in Photoshop, ohne Zugriff auf das uninterpretierte RAW. Davon rede ich.








    Antwort von pillepalle:

    Das verstehst Du eben nicht. Solange Du in Photoshop die Datei nicht als etwas anderes speicherst, ist es immer noch eine Raw Datei. Das geht mit ACR nur, weil der Konverter und die Software vom gleichen Hersteller sind. Die RAW Datei wird quasi nur an Photoshop übergeben. Ich nutze z. B. einen anderen Konverter (Capture One). Sobald ich die Datei dort exportiert habe, ist es keine RAW Datei mehr. Und genauso ist es mit fcp, oder mit BRAW in Resolve. Solange Du das nicht exportiert, ist es immer noch RAW.

    VG



    Antwort von srone:

    wenn wir allerdings raw "entwickeln", für zb die schnittansicht, und den finalen export trennen sieht das ein wenig anders aus.

    lg

    srone



    Antwort von dienstag_01:


    Das verstehst Du eben nicht. Solange Du in Photoshop die Datei nicht als etwas anderes speicherst, ist es immer noch eine Raw Datei. Das geht mit ACR nur, weil der Konverter und die Software vom gleichen Hersteller sind. Die RAW Datei wird quasi nur an Photoshop übergeben. Ich nutze z. B. einen anderen Konverter (Capture One). Sobald ich die Datei dort exportiert habe, ist es keine RAW Datei mehr. Und genauso ist es mit fcp, oder mit BRAW in Resolve. Solange Du das nicht exportiert, ist es immer noch RAW.

    VG

    Ja, pillepalle, was soll man dazu sagen. Schau dir den Test (Resolve) von cantsin an, vielleicht verstehst du dann, dass es eben nicht so simpel ist. Nach deiner Aussage müsste man die Veränderung der WB im RAW Tab easy im Color Tab rückgängig machen können, geht aber scheinbar nicht ;)



    Antwort von pillepalle:

    Das liegt dann aber an den Reglern in Resolve, weniger an der Datei. Oder daran das es schon Teildebayert wurde... bei einer echten Raw Datei spielt alles was man einstellt jedenfalls keine wirkliche Rolle, weil man es immer wieder Rückgängig machen kann. Im Gegensatz zu irgend einem anderen FormatFormat im Glossar erklärt, wo die Einstellungen eingebacken werden und destruktiv sind.

    VG



    Antwort von dienstag_01:


    Das liegt dann aber an den Reglern in Resolve, weniger an der Datei. Oder daran das es schon Teildebayert wurde... bei einer echten Raw Datei spielt alles was man einstellt jedenfalls keine wirkliche Rolle, weil man es immer wieder Rückgängig machen kann. Im Gegensatz zu irgend einem anderen FormatFormat im Glossar erklärt, wo die Einstellungen eingebacken werden und destruktiv sind.

    VG

    Und wenn ich sage, die Regler sind unterschiedlich, sagst du nein. Wir drehen uns im Kreis.



    Antwort von pillepalle:

    Ich habe nicht gesagt das die Regler in Resolve nicht unterschiedlich sind. Hab auch nie mit BRAW gearbeitet. Sie machen aber prinzipiell das gleiche.

    In jedem Konverter sind die Regler für Farbtemperatur und Grün/Magenta für die WB. Sie werden höchstens unterschiedlich genannt.

    Der springende Punkt ist aber ein anderer. Man arbeitet mit einer RAW Datei. Egal wie sich die Tabs/Knöpfe nennen oder funktionieren. Und in Final Cut eben auch... bis zum Export.

    VG



    Antwort von Axel:


    Wäre interessant, wenn hier jemand meinen CinemaDNG+Resolve-Weissabgleich-Test mit PRR und FCPX wiederholen könnte.

    Naja, hab ja kein Material mit falschem Weißabgleich. Aber brauche ich auch nicht. Ich kann, wie beschrieben, mittels des Farbtemperatur-Reglers im 709-Farbraum nur das gesamte PRAW-Bild entweder oranger oder blauer färben, schlechter sogar als mit stinknormalem XAVC. Während ich mit noch vorhandenem CDNG der Pocket in Resolve augenscheinlich im CR-Tab die Farbtemperatur festlege, als würde ich es live bei der Aufnahme tun. Da sind Welten zwischen. Der kleine Puck für Farbbalance der Farbtafel, grob im Blausektor in den Plus- und Minusbereich verschoben, liefert optisch Brauchbares.
    Das ist nirgendwo offiziell dokumentiert, zumindest nicht, soweit ich weiß.



    Antwort von dienstag_01:


    Ich habe nicht gesagt das die Regler in Resolve nicht unterschiedlich sind. Hab auch nie mit BRAW gearbeitet. Sie machen aber prinzipiell das gleiche.

    In jedem Konverter sind die Regler für Farbtemperatur und Grün/Magenta für die WB. Sie werden höchstens unterschiedlich genannt.

    Der springende Punkt ist aber ein anderer. Man arbeitet mit einer RAW Datei. Egal wie sich die Tabs/Knöpfe nennen oder funktionieren. Und in Final Cut eben auch... bis zum Export.

    VG

    In CaptureCapture im Glossar erklärt One habe ich einen Green/Margenta-Regler im Bereich WB und einen im Bereich Tonwerte. Arbeiten die bei dir gleich?



    Antwort von pillepalle:

    Bin gerade unterwegs und nicht am Rechner, aber ich denke mal nicht. Der GRÜN Magenta Regler der WB geht über alles. Nennt sich in Resolve Tint.

    VG








    Antwort von dienstag_01:


    Bin gerade unterwegs und nicht am Rechner, aber ich denke mal nicht. Der GRÜN Magenta Regler der WB geht über alles. Nennt sich in Resolve Tint.

    VG

    Brauchst du nicht nachzuschauen, sie machen natürlich nicht dasselbe. Deshalb ist es ja so verwunderlich, dass du behauptest, sie machen - auf Resolve bezogen - prinzipiell das gleiche.
    Aber wie gesagt, wir drehen uns im Kreis. Meiner Meinung nach sind die Einstellmöglichkeiten im RAW Tab und im Color Tab verschieden. Das bedeutet, dass Einstellungen im Color Tab nicht einfach - im Programm nicht vorhandene - Einstellmöglichkeiten im RAW Tab ersetzen können. Was wiederum nicht heißt, dass RAW in einem NLE nichts bringt (Resolve jetzt mal nicht den NLE zugerechnet), es ist nur nicht ganz klar, was und wieviel genau.



    Antwort von pillepalle:

    Farbtemperatur und Tint machen in Resolve das gleiche wie die WB im Raw Tab. Bei CaptureCapture im Glossar erklärt haben die von Dir genannten Regler unterschiedliche Funktionen.

    VG



    Antwort von dienstag_01:


    Farbtemperatur und Tint machen in Resolve das gleiche wie die WB im Raw Tab. Bei CaptureCapture im Glossar erklärt haben die von Dir genannten Regler unterschiedliche Funktionen.

    VG

    Naja, da hatte ich mich auf cantsin verlassen (siehe hier Seite 2 oben). Muss ich wahrscheinlich selber nochmal schauen.



    Antwort von Axel:

    Hier (getimet) mit LUT-Konversion.
    https://youtu.be/yd2S7NVnV1o?t=377

    Ich habe genau das nachvollzogen, und alle downloadbaren Schnippsel sehen danach Grütze aus. Und ich gebe zu, keine Ahnung zu haben, ob diese vorgeschaltete LUT nicht-destruktiv ist. Zu guter Letzt ist da noch der Aspekt, dass ich, wenn ich schon Raw habe, ich ja noch was selbst machen will. Sonst kann ich gleich bei 8-bit bleiben. Da wir davon sprechen: Liefert das Bild der hier als Vlogging-Kamera verwendeten Z50 ein so viel schwächeres Bild ootb?



    Antwort von pillepalle:

    @ Axel

    Die Z50 kann halt nur 8bit intern Aufnehmen und hat keine externe 10bit oder 12bit RAW Ausgabe. Aber wenn man die Korrekt belichtet ist das 8 bit Material der Nikon schon ok.

    Der hier ist auch nicht so der Checker, aber zumindest erklärt er halbwegs plausibel, warum die Highlights beim Import in FinalCut und einem REC709 ColorSpace so ausbrennen. Ich persönlich glaube ja nicht das man in 12bit RAW gegenüber 10bit ProResProRes im Glossar erklärt viel Dynamik gewinnt. War mir bei meiner Testaufnahme auch nicht aufgefallen. Aber die Farben sind wahrscheinlich etwas besser, bzw. man kann mit 12bit eben etwas mehr in der Post machen. Da ich selber nicht an FinalCut X dran komme, werde ich vermutlich auf Premiere warten und damit dann anfangen in RAW zu arbeiten.

    https://www.youtube.com/watch?v=jQYhebj5oNU

    VG



    Antwort von dienstag_01:


    @ Axel

    Die Z50 kann halt nur 8bit intern Aufnehmen und hat keine externe 10bit oder 12bit RAW Ausgabe. Aber wenn man die Korrekt belichtet ist das 8 bit Material der Nikon schon ok.

    Der hier ist auch nicht so der Checker, aber zumindest erklärt er halbwegs plausibel, warum die Highlights beim Import in FinalCut und einem REC709 ColorSpace so ausbrennen. Ich persönlich glaube ja nicht das man in 12bit RAW gegenüber 10bit ProResProRes im Glossar erklärt viel Dynamik gewinnt. War mir bei meiner Testaufnahme auch nicht aufgefallen. Aber die Farben sind wahrscheinlich etwas besser, bzw. man kann mit 12bit eben etwas mehr in der Post machen. Da ich selber nicht an FinalCut X dran komme, werde ich vermutlich auf Premiere warten und damit dann anfangen in RAW zu arbeiten.

    https://www.youtube.com/watch?v=jQYhebj5oNU

    VG

    Echt, brennen Lichter aus? Dürfte es ja deiner Meinung nach gar nicht geben. Oder kann man sie zurückholen?



    Antwort von pillepalle:

    @ Dienstag

    Die brennen so aus weil sie in einem anderem Farbraum aufgenommen wurden und final Cut es scheinbar anders interpretiert. Klar kann man die zurückholen. Ich hatte meinen RAW Clip seinerzeit ja in die Demo-Version von Edius importiert und da brannte nix aus. Das Bild sah völlig normal aus. Hatte aber keinen Plan wie ich irgendwas in Edius verändern konnte. Deshalb warte ich ja lieber auf Premiere, damit komme ich besser klar und da gibt's auch Monatsabos.

    VG



    Antwort von Jott:

    Die gewünschten Farbräume für Mediathek, Rohmaterial, Projekt kann und muss man einstellen.



    Antwort von roki100:


    @ Axel

    Die Z50 kann halt nur 8bit intern Aufnehmen und hat keine externe 10bit oder 12bit RAW Ausgabe. Aber wenn man die Korrekt belichtet ist das 8 bit Material der Nikon schon ok.

    Der hier ist auch nicht so der Checker, aber zumindest erklärt er halbwegs plausibel, warum die Highlights beim Import in FinalCut und einem REC709 ColorSpace so ausbrennen. Ich persönlich glaube ja nicht das man in 12bit RAW gegenüber 10bit ProResProRes im Glossar erklärt viel Dynamik gewinnt. War mir bei meiner Testaufnahme auch nicht aufgefallen. Aber die Farben sind wahrscheinlich etwas besser, bzw. man kann mit 12bit eben etwas mehr in der Post machen. Da ich selber nicht an FinalCut X dran komme, werde ich vermutlich auf Premiere warten und damit dann anfangen in RAW zu arbeiten.

    https://www.youtube.com/watch?v=jQYhebj5oNU

    VG

    Wie man sieht, Highlight Recovery funktioniert schonmal.



    Antwort von Axel:


    Die gewünschten Farbräume für Mediathek, Rohmaterial, Projekt kann und muss man einstellen.

    Die Mediathek soll angeblich immer auf 2020 Breiter Gamut stehen. Das sagen alle, aber *siehe unten.
    Das Rohmaterial lässt sich durch eine LUT-Konvertierung zu einem von einer Handvoll Log-Profilen (N-Log nicht darunter) ändern. Die Kamera-LUT (egal welche) lässt die Farben dezent nach NTSCNTSC im Glossar erklärt aussehen, pfui! Beides würde ich mal weglassen.
    Dann gibt's noch die Option, den "Farbraum (zu) überschreiben". Ich hab's probiert mit rec709:
    zum Bild https://i.postimg.cc/CKj8mTnW/Farbraum.jpg
    ... es ändert sich subjektiv nichts.

    Das Projekt natürlich in 709. Jetzt kommt der Witz. So sieht die Waveform aus, wenn man 2020 für die Mediathek nimmt (nicht HDR, dann ändert sich "IRE" zu "Leuchtkraft" und die Skala reicht bis 10.000 nits):
    zum Bild https://i.postimg.cc/MTGWXNRC/Waveform-2020.jpg

    Aaaber.
    Wenn ich mal spaßeshalber die Mediathek auf Standard (709) umstelle ...
    zum Bild https://i.postimg.cc/ZYF1XVd3/Waveform-709.gif
    ... ändert sich (subjektiv) gar nichts. Auch die Flatline lässt sich wieder unter 100 entzerren.
    WTF?



    Antwort von dienstag_01:



    Die gewünschten Farbräume für Mediathek, Rohmaterial, Projekt kann und muss man einstellen.

    Die Mediathek soll angeblich immer auf 2020 Breiter Gamut stehen. Das sagen alle, aber *siehe unten.
    Das Rohmaterial lässt sich durch eine LUT-Konvertierung zu einem von einer Handvoll Log-Profilen (N-Log nicht darunter) ändern. Die Kamera-LUT (egal welche) lässt die Farben dezent nach NTSCNTSC im Glossar erklärt aussehen, pfui! Beides würde ich mal weglassen.
    Dann gibt's noch die Option, den "Farbraum (zu) überschreiben". Ich hab's probiert mit rec709:
    zum Bild https://i.postimg.cc/CKj8mTnW/Farbraum.jpg
    ... es ändert sich subjektiv nichts.

    Das Projekt natürlich in 709. Jetzt kommt der Witz. So sieht die Waveform aus, wenn man 2020 für die Mediathek nimmt (nicht HDR, dann ändert sich "IRE" zu "Leuchtkraft" und die Skala reicht bis 10.000 nits):
    zum Bild https://i.postimg.cc/MTGWXNRC/Waveform-2020.jpg

    Aaaber.
    Wenn ich mal spaßeshalber die Mediathek auf Standard (709) umstelle ...
    zum Bild https://i.postimg.cc/ZYF1XVd3/Waveform-709.gif
    ... ändert sich (subjektiv) gar nichts. Auch die Flatline lässt sich wieder unter 100 entzerren.
    WTF?

    Die beiden letzteren Scopes lassen doch auf ein sehr schlüssiges Verhalten schließen: 1. mein Ausgangsmaterial (Mediathek) ist HDR und wird in ein 709 Projekt importiert und dafür gewandelt. 2. Mein Ausgangsmaterial wird als 709 gesehen, ich importiere es in 709, es wird nichts mit dem Material gemacht, also knallts durch die Decke.
    Und bearbeiten kann man es trotzdem voll. Alles ok.



    Antwort von Axel:

    Die beiden letzteren Scopes lassen doch auf ein sehr schlüssiges Verhalten schließen: 1. mein Ausgangsmaterial (Mediathek) ist HDR und wird in ein 709 Projekt importiert und dafür gewandelt. 2. Mein Ausgangsmaterial wird als 709 gesehen, ich importiere es in 709, es wird nichts mit dem Material gemacht, also knallts durch die Decke.
    Und bearbeiten kann man es trotzdem voll. Alles ok.

    Mein Fehler. Ich habe den 2020 Screenshot gemacht, nachdem ich die Highlights schon runtergezogen hatte. Unbearbeitet clippt sowohl 2020 als auch 709, die Waveforms sind absolut identisch.

    Aber unser deutscher Freund hier hat mich glaube ich einen Schritt weitergebracht:
    https://youtu.be/jQYhebj5oNU

    Ich brauche ja für kein Material bekannten Ursprungs irgendwelche Angaben zu machen, da FCP mit Hilfe von Colorsync automatisch in den Farbraum konvertiert. Es versucht das ja sogar für HDR (nämlich, HDR in P3 zu übersetzen, seit Catalina mit der maximal möglichen Helligkeit des Monitors von meist ~500 nits für den Viewer, während das GUI ab 100 nits gedimmt wird). Das erklärt einiges. Glaube ich zumindest vorläufig.

    Ab 4'58" sagt er : "Natürlich sieht das *auch* Scheiße aus, denn der Input ist nicht rec2020, sondern rec2020 PQ . Das sieht schon viel besser aus!"

    Keine Ahnung, wie er auf PQ kommt. Ich glaube, er auch nicht. Fischen im Trüben.



    Antwort von Jott:

    Ist es euch eigentlich wirklich egal, welche Probleme man sich im Budget-Bereich mit raw (egal welches) einfängt? Man sieht doch hier wieder schön, dass sich wegen der wegfallenden Objektivkorrektur die Balken biegen. Spätestens wenn’s weitwinklig wird. Das ist doch eklig.

    Kampf um das letzte PixelPixel im Glossar erklärt, aber die ganzen Verzerrungen, CAs etc. werden schulterzuckend abgetan oder einfach nicht wahrgenommen?

    Für mich macht raw nur Sinn, wenn auch die Objektive "raw" sind, also ohne elektronische Hilfe ein nicht zu beanstandendes Bild liefern. Und das verschiebt die sinnvolle Nutzung von raw in die oberen Preisklassen, insbesondere bei Zooms. Die kosten dann plötzlich fünfstellig.

    Im Budget-Bereich, von dem wir hier reden, ist die elektronische Korrektur ein Segen, auch Optiken für ein paar Hunderter sind so prima nutzbar. Egal ob H.264, H.265, DNxHDDNxHD im Glossar erklärt, ProResProRes im Glossar erklärt, Intraframe, Interframe, bla bla, alles gut - nur die raw-Aufzeichnung wirft alle Vorteile aus dem Fenster.

    Egal für euch?



    Antwort von Darth Schneider:

    Egal nicht, aber ändern kann man ja eh nix.
    Und ja, ich Kauf mir dieses Jahr höchst wahrscheinlich, trotzdem zähneknirschend ein 1000€ Olympus Zoom.
    Und blicke dabei schon etwas neidisch auf die GH5 User, die ein 300 € ZoomZoom im Glossar erklärt dran hängen können, und die Kamera die optischen Falten glatt bügelt.,;)
    Bei meiner 4K Pocket nervt das schon heftig, und es ist absolut unlogisch für mich, wie die Leute von BMD das Linsenproblem angehen.

    Da bauen sie so coole kleine Kameras nur muss man leider erst mal den Spagat machen um ne geeignete bezahlbare Linse dafür zu finden....

    De gebeyert und entrauschen tut die Kiste ja auch, (raw hin oder her),
    automatisch, Aber Korrekturen bei optischen Schwächen bei günstigen Objektiven das geht nicht ?
    Obwohl das sonst jeder x beliebige 300 € Gurkenhobel von der Konkurrenz auch kann.
    Lightroom bietet auch auf Software Basis, schon seit Jahren eine ganz simple, tolle Objektiv Korrektur, warum schafft das BMD nicht endlich mal so was in Resolve zu integrieren ?
    Gruss Boris

    Gruss Boris



    Antwort von pillepalle:

    @ Darth

    Objektivkorrektur ginge schon, aber dafür müßte Blackmagic, oder andere Software Hersteller, die Korrekturprofile für die Objektive auch parat haben. Am ehesten könnte ich mir das noch bei Adobe vorstellen, weil die ja schon viele Profile aus dem Still-Bereich auf Halde haben.

    @ Jott

    Für mich ist RAW ja auch kein Muss. Komme mit 10bit ProResProRes im Glossar erklärt wunderbar klar. Momentan wäre der Softwarewechsel das was mich daran am meisten stört. Meine Optiken sind recht gut und verzeichnen kaum. Das wäre nicht das Problem. Das Beispielvideo ist vermutlich mit dem 4/24-70 Kitzoom gemacht. Das eiert natürlich.

    Für mich ist das erst interessant wenn es einen für mich vernünftigen Workflow gibt (eventuell in Premiere, oder sogar mal Resolve). Gegen mehr Farbtiefe ist ja nichts einzuwenden, aber nicht um jeden Preis.

    VG



    Antwort von Axel:

    @Jott
    Nicht nur das. Alles zusammengenommen, was bleibt übrig?
    Von welchen Vorteilen reden wir, wenn alle Aspekte gegeneinander abgewogen werden? Wieviel würdigt das Auge des unvoreingenommenen Betrachters? Ist das eine billiges Video und das andere "Film" (langsam sagen wir eher "Netflix")?

    Dies ist nicht ein "it‘s not the camera"-Einwand. Es ist nur eine unschuldige Frage. Wer sich auf Raw eingelassen hat sagt, Tag und Nacht. Wirklich?

    @pillepalle
    Ganz ehrlich, wenn mir jemand heute die Z6 und den Ninja schenken würde, würde ich zu diesem Zeitpunkt kein PRAW benutzen, auch wenn der Mehraufwand für mich als FCP-Nutzer überschaubar ist. Ich sehe einfach im Moment keinen großen Mehrwert.



    Antwort von Jott:

    Die Workflow-Frage ist ja gelöst, insbesondere BM und Apple haben alle Hürden ausgeräumt. Das ist nicht der Punkt.



    Antwort von pillepalle:

    @ Axel

    Jeder so wie er mag. Ich bin kein Nikon Repräsentant der hier eine Marke vertreten muss :) Natürlich hat die Kamera auch viele Nachteile, aber für mich überwiegen die Vorteile und ich bin super zufrieden mit der Z6. Am Ende muss man mit einer Kamera arbeiten/filmen und da hat jeder eben andere Präferenzen. Ich arbeite nicht auf allerhöchstem Niveau und habe auch keine Kunden die von mir eine bestimmte Kameraklasse erwarten. Bin also völlig frei in der Wahl (natürlich im Rahmen des Budgets).

    Ich denke schon das es Situationen geben kann wo 12bit RAW auch sichtbare Vorteile bringt, aber wir stehen mit der Entwicklung eben noch ganz am Anfang. Die meisten Nikon User sind Videoamateure die selber wenig bis keine Ahnung haben. Das dauert eben bis sich da mal ein vernünftiger Workflow entwickelt hat und Nikon selber Dinge für Filmer verbessert. Ich bin mir sicher in ein paar Jahren ist RAW auch im Consumer Bereich bei Video kein Thema mehr und recht selbstverständlich. So wie es heute schon bei Fotos ist. Natürlich ist das nicht jedermanns Sache, aber wer möchte, kann heute schon im Low-Budget Filmbereich mit RAW arbeiten. Vor ein paar Jahren noch undenkbar.

    @ Jott

    Na ja, alle Hürden würde ich mal nicht sagen... Ich würde PR-Raw z.B. gerne mit Resolve nutzen. Muss dafür vermutlich auf Premiere umsteigen.

    VG



    Antwort von Darth Schneider:

    An Jott
    Was für Hürden wurden aufgeräumt, BMD hat BRaw und Apple hat ProResProRes im Glossar erklärt RAW ?
    Final Cut X mag ja leider kein BRaw...
    Ich denke es gibt noch genug Hürden.
    Gruss Boris



    Antwort von Jott:

    Wer was dreht, überlegt sich ja wohl vorher, wie er‘s schneiden wird. Die einzige Hürde ist Planlosigkeit.

    BM ist übrigens aus dem Thema draußen, da ist ja egal ob man raw oder ProResProRes im Glossar erklärt dreht, ändert nichts. Die verstehen sich als Cine-Kameras - und dass die wenigsten dafür auch die erforderlichen teuren Cine-Optiken nehmen, ist nicht das Problem von BM.

    Es geht um das freiwillige Umgehen der Objektivkorrektur bei Herstellern wie Sony oder Nikon, indem man unbedingt extern raw aufnehmen will. Die Begeisterung und das Verdrängen der Nachteile wundern mich halt.



    Antwort von pillepalle:

    @ Jott

    Mit planlos hat das wenig zu tun. Ich filme ja bisher in ProResProRes im Glossar erklärt und da ist Resolve super. Musste aber letztes Jahr ein Filmprojekt über die Bühne bringen. Deshalb habe ich mir auch die Studio Version von Resolve geholt. Das Nikon RAW Feature gibt's ja erst seit gut einem Monat. Vorher hat sich die Frage nach RAW ja gar nicht ernsthaft gestellt. Wie gesagt, ist ein nettes Zusatzfeature und abhängig davon, was ich dafür für Umwege gehen muss, entscheide ich ob und wann ich es nutzen werde. Vielleicht geht's ja irgendwann auch mit meiner Lieblingssoftware, oder meine nächste Kamera wird eine ganz andere... Das schöne, wenn man wenig Geld in ein System investiert, ist ja das man es auch problemlos wechseln kann. Und meine Optiken, die teuer waren, lassen sich an quasi jede Kamera adaptieren.

    Und wie gesagt, wenn man nicht gerade an den Objektiven spart, sind die Bildfehler auch nicht wirklich ein Problem. Die CP3. Metadaten die es selbst für die Zeiss Cine-Optiken gibt, werden ja überwiegend im Special Effects Bereich genutzt, wo z.B. die Geometrie auch wirklich wichtig ist.

    VG



    Antwort von Darth Schneider:

    An Jott
    DA31BDDF-A572-4C58-A8B1-9817765B9F1A.png
    Da oben auf dem werbe Foto von Black Magic sind aber doch nicht nur teure Cine Objektive zu sehen, da gibt es auch einige günstige Fotolinsen..;)
    Gruss Boris



    Antwort von Cinealta 81:


    Es geht um das freiwillige Umgehen der Objektivkorrektur bei Herstellern wie Sony oder Nikon, indem man unbedingt extern raw aufnehmen will. Die Begeisterung und das Verdrängen der Nachteile wundern mich halt.

    Die Problematik ist gar nicht neu. Seit Optiken adaptiert werden (ganz früher an GH4, oder Fremdoptiken an diversen anderen Kameras) hat man nicht bedacht, dass viele moderne Objektive durch die Kamera-Software korrigiert werden. Allerdings NICHT bei adaptierten Optiken, denn diese kommunizieren korrekturtechnisch in 99% der Fälle gar nicht mit der "Fremdgänger-Cam".

    Man muss fairerweise dazu sagen, dass es wohl eine moderne Unart der Hersteller ist, sich auf die kamerainterne Korrektur zu verlassen. Und das OBWOHL der Preis mancher Optik eigentlich eine saubere Bau- und Funktionsweise erfordern dürfte. Es scheint auf jeden Fall so zu sein, dass eine große Mehrheit der Konsumentenkäufer sich dafür gar nicht interessiert.

    Hauptsache "scharf" beim 200% Punch-In. Krumm und schief ist gar nicht so wichtig. Gradlinigkeit ist schon lange kein entscheidendes Kriterium mehr... ;-)



    Antwort von dienstag_01:

    Wir reden doch hier über RAW und ob das in der derzeitigen Form (RAW-Workflow) überhaupt was bringt. Erst wenn man das mit Ja beantworten kann, beginnt man doch über geeignete Objektive nachzudenken. Oder macht das irgend jemand umgekehrt: erst teures Objektiv kaufen, dann schauen, ob der Workflow überhaupt einen Mehrwert bringt.



    Antwort von pillepalle:

    @ dienstag

    Der Mehrwert sind offensichtlich die 12bit Farbe. Der Umweg der, das man zur Zeit nur wenige Programme damit nutzen kann.

    VG



    Antwort von Axel:


    Die Workflow-Frage ist ja gelöst, insbesondere BM und Apple haben alle Hürden ausgeräumt. Das ist nicht der Punkt.

    Apple bis zu dem Punkt, an dem es heißt "Leben Sie - Wir kümmern uns um den Rest!". War das ein Sparkassen-Slogan? Jedenfalls spüre ich Orwell'sche Untertöne.

    Ausgehend von meinen o.e. Tests halte ich es für möglich bis wahrscheinlich, dass es egal ist, in welchem Farbraum ich arbeite, weil FCP automatisch konvertiert. Den Krampf mit Log-zu-709 LUTs habe ich mit Slog2 durch, inklusive angeblich maßgeschneiderter LUTs von Chapman. Mein Eindruck ist, dass ich manuell immer zu besseren Ergebnissen komme.

    Aber auch das brauche ich ja gar nicht mit Nikons PRAW. Wie wir gesehen haben, sagen alle: runter mit den Höhen, und danach Finger weg! Okay, okay, aber Raw war doch mal mit "mehr kreativen Möglichkeiten in der post" (iasi) untrennbar verknüpft, das nennt man wohl eine Philosophie ...

    Jedenfalls, maximal 12 Blendenstufen in PRAW, das schaffe ich mit der A6500 in Slog2 auch, locker. Ich habe damit *in Resolve* auch noch genügend Reserven und Spielraum, sofern ich mit Belichtung und WeißabgleichWeißabgleich im Glossar erklärt nicht völlig daneben gelegen habe bei der Aufnahme. Insofern ist die Z6-Ninja-Kombo in meinen Augen noch keine Cine-Kamera, wie es die BMs sind. Das Argument mit den Objektivkorrekturen ist zwar gut, aber es zählt nur halb, meiner Auffassung nach.

    Das schöne, wenn man wenig Geld in ein System investiert, ist ja das man es auch problemlos wechseln kann. Und meine Optiken, die teuer waren, lassen sich an quasi jede Kamera adaptieren.

    Schätze, das stimmt ganz genau. Noch steht ein Jawdropper-Video aus, bei dem jemand an der Z6 mal keine Kitlens oder Gimmick-Scherbe (wie die weiter oben benutzte Sirui-Anamorph) benutzt, sondern Glas mit Klasse und Charakter! Auch, wenn das heißt Autofokus adé.



    Antwort von Funless:


    Ich bin mir sicher in ein paar Jahren ist RAW auch im Consumer Bereich bei Video kein Thema mehr und recht selbstverständlich. So wie es heute schon bei Fotos ist.

    Und genau das wage ich ernsthaft zu bezweifeln.

    Ebenso finde ich den Vergleich mit RAW-Foto der von RAW-Video Befürwortern gerne herangezogen wird geradezu absurd (überspitzt formuliert), dann kann man auch genausogut Äpfel mit Ketchup vergleichen.



    Antwort von dienstag_01:

    Man muss sich auch klar machen, je mehr sich RAW in Richtung Consumer bewegt, umso weniger aussagekräftig wird das ganze. Verallgemeinernd kann man sagen, schön, dass sich dieses oder jenes FormatFormat im Glossar erklärt im NLE bearbeiten lässt. Wie das aber genau läuft, bleibt undokumentiert. Wie sieht es z.B. mit der Verarbeitungstiefe von FCPX aus, ist das eine 32bit FP Engine? Oder die anderen NLE? Letztendlich sind das Editoren und keine Tools wie Resolve oder Baselight oder andere.



    Antwort von Axel:

    Wie sieht es z.B. mit der Verarbeitungstiefe von FCPX aus, ist das eine 32bit FP Engine?

    Ausschließlich und von Anfang an. Hier liegt nicht die Beschränkung. Die Beschränkungen liegen in der Vereinfachung der Arbeitsabläufe, die nach dem Selbstverständnis von FCP ein Feature sind, kein Bug. Werkzeuge, die traditionell auf intuitive Bearbeitung mit sofortigem Feedback setzen und im Gegenzug aufwändigeres, feineres Grading eher erschweren. Auch ein tieferes Verständnis dafür, was man gerade macht. Über die tatsächliche Wirkungsweise der Farbwerkzeuge gibt es zum Beispiel wenig, das meiste deduktiv von Dritten erarbeitet. Sehen > Machen. Keine Differenzierung zwischen Lift, GammaGamma im Glossar erklärt, Gain und Log, kein Pivot. Durch das Benutzer-Feedback hat Apple immer etwas nachgebessert, aber dabei bisher nicht Nägel mit Köpfen gemacht. Kommt auch drauf an, aus welcher Perspektive man es betrachtet. Was die beschriebenen Werkzeuge nämlich nicht ermutigen, ist, ein Bild kaputtzugraden, und man erzielt sehr schnell gefällige Ergebnisse.



    Antwort von Jott:

    Hauptsache "scharf" beim 200% Punch-In. Krumm und schief ist gar nicht so wichtig. Gradlinigkeit ist schon lange kein entscheidendes Kriterium mehr... ;-)

    Wer Landschaft, Natur, Katzen und Blümchen filmt, der merkt das ja auch gar nicht. Nur wenn's etwas weitwinkliger wird (Innenaufnahmen) und wo überall gerade Linien sind (Fensterrahmen, Türen ...), wird's ernst. Bei Architektur im Bild sowieso. Die ersten Pocket 4k-Demoaufnahmen von BM (Leute in der Hochhaus-Wohnung) mit irgend einem mft-zoom sahen aus wie vor zwanzig Jahren mit Weitwinkelvorsatz.

    Hatte aber niemanden gestört. Darüber staune ich halt.



    Antwort von Frank Glencairn:

    Ich dreh jetzt seit erscheinen der ersten RED hauptsächlich raw - und ich glaub seit 2011 oder so nur noch.
    Und ehrlich gesagt möchte ich es nicht mehr missen, und ich seh auch aktuell keinen Grund nochmal irgendwas anderes zu nehmen.

    Was die Optiken betrifft macht ihr euch viel IMHO viel zu viel Gedanken.
    Ab 35 mm ist Verzeichnung sowieso kaum noch ein Thema, alles andere kann man durch einen Klick in Resolve so weit ausgleichen, daß es keine signifikante Rolle mehr spielt.

    Ich sehe immer mehr, daß mittlerweile für viele quasi ALLES zu schwer, zu umständlich, zu kompliziert, zu aufwändig, ne Zumutung etc. ist, und man quasi ALLES mit irgendeiner Automatik gelöst haben will. Ich kann mir nicht vorstellen, daß man damit weiter kommt und besser wird. Aber jedem das seine.



    Antwort von Jott:

    Du tust aber auch öfters mal kund, dass du kein Weitwinkel magst. Hilft natürlich! :-)



    Antwort von Frank Glencairn:

    Stimmt - von ein paar Ausnahmesituationen abgesehen, bin ich freiwillig selten auf weniger als 35mm.
    Allerdings bin ich trotzdem oft genug gezwungen, auf 21mm, 16mm oder 14mm zu arbeiten, wenn's halt nicht anders geht.

    Aber ich würde jetzt weder meine Objktiv- noch meine Kamerawahl davon abhängig machen.



    Antwort von Jott:

    Das hier meinte ich:

    https://www.youtube.com/watch?v=BHR023W ... atch_on_yt

    Da biegen sich die Balken wie Sau. Für den "Klick in Resolve" war wohl keine Zeit - obwohl das eine BM-Werbeclip ist! :-)



    Antwort von Frank Glencairn:

    Keine Ahnung warum die das nicht korrigiert haben.
    Wenn ich mich recht erinnere, war der Grund für die Wahl des Oly wohl der Stabilisator, damit John aus der Hand drehen konnte.
    Wobei Zooms ja immer nochmal problematischer sind als Festbrennweiten, was Verzerrungen angeht.



    Antwort von Jott:

    Ja, das Dumme ist nur, dass Zooms praktisch sind.



    Antwort von Frank Glencairn:

    Zielkonflikte :D



    Antwort von Jott:

    Die Aufnahmen sind ProResProRes im Glossar erklärt, sehe ich gerade - das böse böse ProRes!
    Ist raw doch nicht lebenswichtig? Iasi dreht durch, wenn er das sieht.



    Antwort von Cinealta 81:


    Allerdings bin ich trotzdem oft genug gezwungen, auf 21mm, 16mm oder 14mm zu arbeiten, wenn's halt nicht anders geht.

    Darf man fragen, welche Optik(en) Sie gerade für 14mm verwenden?

    Wir verwenden oftmals beispielsweise die Laowa 12mm Zero D (Nikon Version) an FF und sind insgesamt sehr zufrieden mit dem Preis-Leistungs-Verhältnis, auch hinsichtlich Größe/Kompaktheit.



    Antwort von Frank Glencairn:

    Samyang 14mm T3.1 Cine



    Antwort von Kanaloa:

    Hallo, das Thema ist zwar etwas verstaubt, nach den Entwicklungen in den letzten Monaten bin ich von der Pionier Idee dieser Kombo ziemlich enttäuscht:
    Schärfe: es gibt Videos und Berichte (und es wurde mir auch vom Atomos Support bestätigt) dass bei ProResProRes im Glossar erklärt RAW mittels Pixelbinning auf 4K reduziert wird. Ergibt ein weniger scharfes Bild und Farbsäume.
    Nachbearbeitung/Metadaten: FCPX und Assimalte Scratch ermöglichen mittlerweile die Bearbeitung von WeißabgleichWeißabgleich im Glossar erklärt und ISO der raw Daten. Da gibt es auch eine Tabelle von Apple: geht nicht mit den Nikons.
    Eine perfekte Lösung wäre ein FW Update mit 1:1 5.9k readout und der Implementierung der erweiterten raw Funktionen.
    Haltet ihr das für wahrscheinlich?



    Antwort von pillepalle:

    WB und ISO kann man in Scratch einstellen. Farbsäume hatte ich bisher auch noch keine. Klar, das Pixelbinning ist nicht ideal, in der Praxis aber auch nicht so schlimm. Ein paar Dinge werden sich mit der Zeit sicher noch verbessern und weiter entwickeln. Warte einfach noch ein Jahr. Neue Formate brauchen ihre Zeit um Anwenderfreundlicher zu werden.

    VG

    PS: 5.9K readout wäre schön, kommt aber sicher nicht per Firmware Upgrade. Vielleicht in einem späteren Modell



    Antwort von Kanaloa:

    Wirklich? Ich bin mir nicht sicher ob ich das letzte FW Update der Nikon gemacht habe.
    Wenn ich die Clips in Assimilate öffne dann gibt es keine Metadaten für WB und ISO.
    In den RAW Settings steht immer eine WB von 5600 und eine ISO von 800, ungeachtet der Kamera Einstellungen.
    Funktioniert das bei dir anders?
    FCPX unterstützt die Nikons minimal:
    https://support.apple.com/en-us/HT211277

    Bg



    Antwort von pillepalle:

    Ja, ist bei mir auch so, weil entweder der Ninja, oder die Kamera, die Metadaten nicht weiter gibt. Die Software nimmt dann einfach zwei Standardwerte von denen sie ausgeht. Man kann die ISO und WB aber trotzdem ändern, so wie bei jeder anderen Kamera, nur die Werte die angezeigt werden stimmen eben nicht. Wenn man weiss wo man hin möchte ist das aber nicht weiter schlimm. Du stellst Dein Bild doch sowieso so ein wie Du es haben möchtest. Für mich macht es die Arbeit viel einfacher, wenn ich den Weiss Punkt mit WB und Tint leicht ändern kann, so wie in jedem anderen Raw Konverter. Wäre natürlich schön, wenn die das irgendwann mal fixen.

    VG



    Antwort von Kanaloa:

    Würde es eben sehr praktisch finden wenn man mit absoluten Werten arbeiten kann.
    Und wenn man die Apple Liste betrachtet dann ist die Z6 als einstmaliger Vorreiter weit nach hinten gefallen.
    Bei allen Panasonic’s werden die Sensoren voll ausgelesen und die Daten komplett übernommen.
    Denke da hinkt Nikon hinterher.



    Antwort von pillepalle:

    Klar hinken die da hinterher. Sind ja auch die ersten ernst zu nehmenden Kameras für Video bei Nikon. Und dazu noch die ersten DSLMs. Da braucht es für die ein oder andere Sache etwas mehr Geduld. Panasonic, Canon, oder Sony haben im Filmbereich viel mehr Erfahrung die sie auch in ihre DSLMs einfließen lassen können. Ich finde deren Debut jedenfalls sehr gelungen. Sie müssen eben nur weitermachen und den Videobereich langfristig nicht stiefmütterlich behandeln wie zu früheren Zeiten.

    VG



    Antwort von cantsin:


    Sie müssen eben nur weitermachen und den Videobereich langfristig nicht stiefmütterlich behandeln wie zu früheren Zeiten.

    Lustigerweise war Nikon mit der D90 der erste Hersteller einer videofähigen DSLR (und bezahlbaren Großsensor-Videokamera) überhaupt, denn die D90 kam noch vor der Canon 5D MkII 'raus (mit 720p-Video in Motion-JPEG).

    Beide Kameras konnten anfangs AFAIK im Videomodus nur 30p, und BlendeBlende im Glossar erklärt und ISO gingen ebenfalls nur automatisch. Darum setzte damals der Run auf gebrauchte DSLR-Objektive mit manueller Fokussierung ein, weil man mit deren Blendenring zumindest die automatische Blendensteuerung aushebeln konnte. Ich hatte damals mit der D90 aufs falsche Pferd gesetzt, weil Canon wenig später für die 5D Firmware-Updates mit manueller Belichtungssteuerung, 24p/25p und flachen Bildprofilen nachschob, und dann noch die 7D und 550D als preiswertere APS-C-Bodies mit denselben Videofunktionen.

    Für die D90 gab es nie Firmwareupdates mit Funktionsverbesserungen, und Nikon behandelte dann bis zur Z6 - also fast ein Jahrzehnt lang - das ganze Thema Video stiefmütterlich.

    (Aus der Zeit habe ich immerhin noch einen kompletten Satz Nikkor Ai-s-Objektive von 24 bis 180mm. Und Erinnerungen an mit Ach und Krach und Bedienungstricks auf der D90 gedrehten - und mit Cinelerra unter Linux geschnittenen - Videos wie diesem hier:)

    https://vimeo.com/5384737




    Noch was unklar? Dann in unserem Forum nachfragen
    Zum Original-Thread / Zum Nikon DZ6 / Z7 / D850 / D750 / D500 / ...-Forum

    Antworten zu ähnlichen Fragen:
    ProRes RAW vs Nikon N-Log Hauttöne im Vergleich - Nikon Z6 und Atomos Ninja V in der Praxis
    Messevideo: Nikon Z6 und ProRes RAW mit dem Atomos Ninja V // NAB 2019
    Atomos Ninja V: ProRes RAW für Fujifilm GFX100 und SIGMA fp
    Atomos Ninja V Firmware Update ermöglicht ProRes RAW Aufnahme mit Z CAM E2
    Fujifilm GFX100 unterstützt externe ProRes RAW Aufnahmen mit Atomos Ninja V
    Atomos Ninja V - Kleiner 5-Zoll 4K-Recorder mit ProRes RAW // NAB 2018
    Nikon 10 Bit N-Log 3D LUT für Nikon Z6 u. Z7 zum freien Download da - ProRes RAW kostenpflichtig
    Messevideo: Atomos Shogun 7 - High-End Display, Zielgruppe, Userfragen und ProRes RAW auf Ninja V // NAB 2019
    Z CAM E2 wird ProRes RAW-fähig Dank Atomos Ninja V
    Messevideo: Atomos Ninja V & ProRes RAW: Workflow, Handling, uvm. // NAB 2018
    Atomos: Neue Firmware 10.55 für Ninja V bringt ProRes RAW ISO Metadaten
    Nachtrag: Sony A7S III + Atomos Ninja V = 12bit ProRes RAW Aufzeichnung
    Sony A7S III - Atomos Ninja V Update für ProRes RAW Aufzeichnung ist da
    Atomos Ninja V wird ProRes RAW in 6K aufzeichnen -- Preissenkung für Shinobi // IBC 2019
    Atomos Shogun 7 wird ProRes RAW mit der Sony FX9 aufzeichnen können
    Panasonic Lumix S1: 4K 10-bit 422 HDR/HLG-Aufnahme ab Start mit Atomos Ninja V und Inferno
    Gamechanger: ProRes RAW für die Vollformat Nikon Z6 und Nikon Z7 im Anflug // CES 2019
    Prescht Nikon mit 8K-ProRes RAW vor?
    Canon EOS C300 Mark III in der Praxis: Hauttöne, 10 und 12 Bit (internes) RAW und 10 Bit XF-AVC LOG Recording ?.
    Weitere CES-Informationen zu Nikon, RAW und Atomos
    10 Bit 60p (V-Log L) mit der Panasonic GH5 und dem Atomos Inferno (+ Speedbooster)
    DJI Zenmuse X7 Kamera bekommt ProRes RAW und 14-bit CinemaDNG // NAB 2018
    Atomos Shogun 7 Update: ProRes RAW Aufnahme mit Sonys FX9 jetzt verfügbar
    Für Panasonic-S1H (RAW) Filmer: AtomOS Firmware 10.52 für Atomos Ninja V ist offiziell
    Atomos Shogun 7: 7" Dolby HDR Monitor/Recorder/Switcher mit 5.7K ProRes RAW // NAB 2019
    Erste ProRes RAW-Recoder durch Update von Atomos Shogun und Sumo 19 // NAB 2018

















    weitere Themen:
    Spezialthemen


    16:9
    3D
    4K
    ARD
    ARTE
    AVCHD
    AVI
    Adapter
    Adobe After Effects
    Adobe Premiere Pro
    After effects
    Akku
    Akkus
    Apple Final Cut Pro
    Audio
    Aufnahme
    Aufnahmen
    Avid
    Avid Media Composer
    Band
    Bild
    Bit
    Blackmagic
    Blackmagic DaVinci Resolve
    Blackmagic Design DaVinci Resolve
    Blende
    Book
    Brennen
    Cam
    Camcorder
    Camera
    Canon
    Canon EOS 5D MKII
    Canon EOS C300
    Capture
    Capturing
    Cinema
    Clip
    ClipKanal
    Clips
    Codec
    Codecs
    DSLR
    Datei
    Digital
    EDIUS
    ENG
    EOS
    Effect
    Effekt
    Effekte
    Euro
    Export
    Fehler
    Festplatte
    File
    Film
    Filme
    Filmen
    Filter
    Final Cut
    Final Cut Pro
    Format
    Formate
    Foto
    Frage
    Frame
    GoPro
    Grass Valley Edius
    HDMI
    HDR
    Hilfe
    Import
    JVC
    Kabel
    Kamera
    Kanal
    Kauf
    Kaufe
    Kaufen
    Kurzfilm
    Layer
    Licht
    Light
    Live
    Lösung
    MAGIX video deLuxe
    MPEG
    MPEG-2
    MPEG2
    Magix
    Magix Vegas Pro
    Menü
    Mikro
    Mikrofon
    Mikrophone
    Monitor
    Movie
    Musik
    Musikvideo
    NAB
    Nero
    News
    Nikon
    Objektiv
    Objektive
    PC
    Panasonic
    Panasonic GH2
    Panasonic HC-X1
    Panasonic S1 mit V-Log
    Panasonic S5
    Pinnacle
    Pinnacle Studio
    Player
    Plugin
    Plugins
    Premiere
    Projekt
    RAW
    RED
    Recorder
    Red
    Render
    Rendern
    Schnitt
    Software
    Sony
    Sony HDR
    Sound
    Speicher
    Stativ
    Stative
    Streaming
    Studio
    TV
    Test
    Titel
    Ton
    USB
    Umwandeln
    Update
    Vegas
    Video
    Video-DSLR
    Videos
    Videoschnitt
    Windows
    YouTube
    Zoom