Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Nikon Z6 (II) / Z7 (II) / Z9 ...-Forum

Infoseite // 12 Bit ProRes RAW mit der Nikon Z 6 / Z 7 und Atomos Ninja V



Frage von Beavis27:


Es stört mich nicht im Geringsten, wenn auf dieser Seite Werbung im Stile eines redaktionellen Artikels geschaltet wird.
Es stört mich aber sehr wohl, wenn für etwas geworben wird, was in dieser Form noch gar nicht existiert!
Nämlich ProResRaw-Ausgabe mit der Z6/7 über den Atomos Ninja V. Vielleicht wäre es klüger von Nikon endlich mal seinen Kunden das entsprechende Update anzubieten,
anstatt hier Schaumschlägerei zu betreiben! Echt peinlich soetwas...

Space


Antwort von Axel:

Vielleicht klappt das mit der Raw-Ausgabe über HDMI noch nicht zuverlässig genug. Natürlich hast du Recht. Die Aufnahmen aus dieser Kombi erwarte ich mit Spannung. Wäre schade, wenn sich das schon im Vorfeld erledigt.

Space


Antwort von pillepalle:

Nicht gleich unken. Das wird schon funktionieren. Andernfallls wären die schon lange zurück gerudert und würden nicht noch Werbung dafür machen ;) Für die LUT haben sie auch eine Weile gebraucht, aber am Ende ist sie recht gut geworden. Ist für Nikon eben auch Neuland.

Ich bin sowieso schon mit den 10bit ProRes super happy. Mal abwarten wie groß der Unterschied zu den 12bit RAW überhaupt sein wird. Könnte mir vorstellen das ich auch mit RAW Update vieles trotzdem in 10bit machen würde, weil es mehr CODEC Optionen bietet, oder besser in manchen Workflow passt. Sehe das einfach als eine schöne Dreingabe.

VG

Space


Antwort von rush:

Was ist schon ein knappes Jahr.... lol

Ich finde das Gebahren auch etwas zwiespältig - zumal es nur schwache Infos und keine verlässlichen Daten gibt wie wann wo das ganze kommen wird.

Ich bin ja vor 3 Jahren weg bei Nikon und habe Ihnen (bis auf die Gläser) eigentlich keine Träne nachgeweint.... Das jetzige Verhalten unterstützt diesen Weg zumindest für mich. Klar kann man ewig warten und das entspannt sehen - andere haben die Kamera aber womöglich genau aus diesem Grund angeschafft und stehen im Regen.

So wie ich immer wieder die nervigen Lieferzeiten bei BMD bemängelt bzw. kritisch gesehen habe so halte ich es auch bei anderen Herstellern.
Der Einwand das ja Atomos mit in der Verantwortung hängt - interessiert den Kunden nicht. Der wird u.U irgendwann schlecht gelaunt und rennt im schlimmsten Fall noch vorher weg zur Konkurrenz.

Natürlich ist 10bit extern auch ganz nett - aber das bieten mittlerweile auch einige andere intern ohne extra Gerödel.

Space


Antwort von pillepalle:

@ rush

Nikon hatte angekündigt dass das Upgrade bis Ende des Jahres kommen soll. Verstehe nicht warum man dann vorher schon jammert.
Die einzige Alternative im Vollformat die interne 10 bit liefert ist die Panasonic S1 und die kam wesentlich später auf den Markt und hat einen schlechteren AF. So reich sind die Alternativen nun wirklich nicht. Zudem nicht zu dem Preis (von aktuell 1500,-€).

VG

Space


Antwort von rudi:

Stimmt schon, das angekündigte RAW-Update ist noch nicht verfügbar, die Release-Aussage von Nikon ("noch in diesem Jahr") soll jedoch noch gültig sein. Der Text wurde jetzt noch um eine entsprechenden Hinweis ergänzt.

Space


Antwort von Beavis27:

pillepalle hat geschrieben:
@ rush

Nikon hatte angekündigt dass das Upgrade bis Ende des Jahres kommen soll. Verstehe nicht warum man dann vorher schon jammert.
Die einzige Alternative im Vollformat die interne 10 bit liefert ist die Panasonic S1 und die kam wesentlich später auf den Markt und hat einen schlechteren AF. So reich sind die Alternativen nun wirklich nicht. Zudem nicht zu dem Preis (von aktuell 1500,-€).

VG
Also zumindest ich jammere nicht, weil das Upgrade noch nicht da ist. Sondern weil schon Werbung gemacht wird, als wenn es die Raw- Option bereits gäbe.
Finde es generell besser, wenn Firmen erstmal liefern und dann die Werbung schalten. Alles andere ist unseriös!

Space


Antwort von Ledge:

Du hast völlig Recht. Ich dachte schon ich hätte etwas verpasst als ich die Werbung gesehen habe. 10bit intern wäre nett (in ProRes) aber einen externen Monitor braucht man bei der Z6 eh...

Space


Antwort von rush:

Ledge hat geschrieben:
aber einen externen Monitor braucht man bei der Z6 eh...
Warum eigentlich? Ist der Sucher so schlecht?

Ich vermisse an meiner (mittlerweile ja beinahe schon betagten) A7rII eigentlich selten einen externen Monitor - nutze viel eher den EVF so oft es eben geht... Zudem kann der HDMI Lag je nach Kamera/Monitor Kombi u.U. je nach Arbeitsweise störend sein wenn man da empfindlich für ist.

An der Pocket vermisse ich den eingebauten EVF dagegen schmerzlich - und nehme quasi eher als Notlösung einen externen Monitor her.

Space



Space


Antwort von Totao:

Die Nikon Z6 hat echt nur einen XQD slot? Da zahlt man pro GB ja mehr als das 10fache gegenüber einer SD 90MB/s UHS-I SDXC Karte. Schon bitter. Davon dass die XQD-Karte mit 440MB/s schreibbar ist habe ich in der Praxis wenig.

Kein Wunder dass sie das gleich im Bundle mit der Atomos Ninja V anpreisen...

Übrigens hat Atomos auf der Webseite https://www.atomos.com/drives schon eine Spalte für 12bit, aber noch keine einzige erfolgreich geprüfte SSD dafür.

Man sieht leider bei den SSDs auch nicht ob eine SSD noch nicht geprüft oder negativ geprüft wurde.

Space


Antwort von pillepalle:

@ Lorphos

Es soll auch noch ein Firmware-Update für CFexpress Karten kommen. Dann hättest Du auch diese Option, falls Dir die XQD Karten zu langsam sein sollten 😂

Panasonic geht ja mit der S1/S1H den gleichen Weg. Da wird RAW auch nur über den Ninja möglich sein.

Space


Antwort von Ledge:

rush hat geschrieben:
Ledge hat geschrieben:
aber einen externen Monitor braucht man bei der Z6 eh...
Warum eigentlich? Ist der Sucher so schlecht?
Für mich, darum:
  • 10-bit (nur extern)
  • N-Log (nur extern)
  • ProRes (nur extern)
  • Interner Monitor zu klein und nicht sehr hell, Sucher nicht immer einfach zu erreichen (z.B. Rig im Weg, hohe/tiefe Winkel)
  • Nicht möglich Zebra & Peaking gleichzeitig zuzuschalten
  • Kein Waveform
  • Keine Framing Guides oder Anamorphic De-squeeze
  • Kein LUT Support (Unbearbeitetes N-Log Material kann man dem Kunden nicht antun)
  • Der Lag ist allerdings ein Problem!

    Space


    Antwort von pillepalle:

    Der Workflow für PR RAW in FinalCut scheint genauso primitiv zu sein wie in Edius :) Muss wohl warten bis Premiere das unterstützt um zu schauen wie es da umgesetzt ist. Hab ja selber noch nicht viel in RAW gemacht (mangels Software) aber den riesen Unterschied in den Farben, so wie Matti es darstellt, erwarte ich eigentlich nicht. In Sachen Dynamik scheint es mit RAW jedenfalls auch nicht großartig besser zu werden. Fand das Footage was er gefilmt hat aber jetzt auch nicht so aussagekräftig... wie das ganze Video im übrigen nicht *g*

    https://www.youtube.com/watch?v=F-Oc45I3ZuA

    VG

    Space


    Antwort von Darth Schneider:

    Ledge hat geschrieben:
    rush hat geschrieben:

    Warum eigentlich? Ist der Sucher so schlecht?
    Für mich, darum:
  • 10-bit (nur extern)
  • N-Log (nur extern)
  • ProRes (nur extern)
  • Interner Monitor zu klein und nicht sehr hell, Sucher nicht immer einfach zu erreichen (z.B. Rig im Weg, hohe/tiefe Winkel)
  • Nicht möglich Zebra & Peaking gleichzeitig zuzuschalten
  • Kein Waveform
  • Keine Framing Guides oder Anamorphic De-squeeze
  • Kein LUT Support (Unbearbeitetes N-Log Material kann man dem Kunden nicht antun)
  • Der Lag ist allerdings ein Problem!

    Nikon sollte die beiden Kameras besser umtaufen in: Nikon Kompromiss Z6, und Nikon Kompromiss Z7.

    Warum werde ich das Gefühl nicht los, das Panasonic und Black Magic Design den anderen Kamera Herstellern einfach im Moment um Lichtjahre voraus sind ?
    Das über ein Jahr nach dem erscheinen der 4K Pocket, irgend, fast zwei Jahre seit die Gh5/Gh5s erschienen ist/sind... Immer noch hinken die anderen Kamerahersteller sich schleppend weit, weit hinten, hinter her. Dabei meine ich nicht mal RAW, sondern nur grundlegende Funktionen ;)

    Gruss Boris

    Space


    Antwort von pillepalle:

    @ Darth Schneider

    Es hat ja auch niemand gesagt das die Nikon eine perfekte Kamera für Filmer ist und mit dem Lag des Ninjas hat Ledge schon recht und natürlich das man einen externen Recorder braucht. Aber die meisten anderen vermeidlichen Nachteile/fehlenden Features hat der Ninja ja an Board und 'ne gut funktionierende LUT gibt's auch. Die Nikon ist eben eine echte Hybridkamera und kann auch gute Fotos machen, das unterschiedet sie z.B. von der Pocket. Die Pocket ist von der reinen Filmqualität und von den möglichen Formaten besser liegt aber vom Kamerabody, so wie Du es sagen würdest, 'Lichtjahre' hinter der Nikon ;) Ich finde das Nikon mit der Z6 und dafür das es ihre erste ernst zu nehmende Kamera zum Filmen ist, ziemlich gute Arbeit geleistet hat. Wenn die mit zukünftigen Modellen so weiter machen und sich nicht auf ihren Lorbeeren ausruhen, dann ist das auch für Filmer eine interessante Option. Die Panasonic S1 ist vielleicht auch etwas besser, die S1H mit Sicherheit, hinken aber z.B. in Sachen AF hinterher. Ich hätte kein Problem mit jeder dieser Kameras zu filmen, aber jede ist eben anders und hat andere Vor- und Nachteile.

    VG

    Space


    Antwort von Darth Schneider:

    Also mir gefällt das neue Nikon Lineup, auch die Sgma und die Panasonic ja auch. Ich verstehe einfach nicht warum so manche von den neuen Kameras halt immer noch kein internes 10 Bit in 4K ev sogar mit 50 fps können.,Aber Hauptsache der Autofokus und die Sensor Stabis sind spitze..;)
    Gruss Boris

    Space


    Antwort von Axel:

    pillepalle hat geschrieben:
    Der Workflow für PR RAW in FinalCut scheint genauso primitiv zu sein wie in Edius :) Muss wohl warten bis Premiere das unterstützt um zu schauen wie es da umgesetzt ist. Hab ja selber noch nicht viel in RAW gemacht (mangels Software) aber den riesen Unterschied in den Farben, so wie Matti es darstellt, erwarte ich eigentlich nicht. In Sachen Dynamik scheint es mit RAW jedenfalls auch nicht großartig besser zu werden. Fand das Footage was er gefilmt hat aber jetzt auch nicht so aussagekräftig... wie das ganze Video im übrigen nicht *g*
    Was FCP bräuchte wäre halt eine vernünftige Implementierung. Scheint nicht so ganz deren Baustelle zu sein. Oder anders gesagt, man sieht auf einer seit über einem Jahr offenen Baustelle die Arbeiter Pause machen. Das wäre eine Aufgabe für die fleißigen BM-Leute. In Resolve hätte man gleich eine gescheite Vorschau anstatt weißer Frames in 709, und auch sonst alles, was das Herz begehrt.

    Ich sah kürzlich ein Video über die günstigsten von Netflix empfohlenen Kameras. Das wäre eine gebrauchte Ursa Mini 4,6k (Pro nicht Bedingung), die man teilweise mit sinnvollem Zubehör für 5000€ kriegt. Ich hab die mal gemietet. Fand sie zu groß, aber nicht unhandlich. Ich finde, das ganze Prinzip der Hybrid-Aufrüstung macht nur unter dem Aspekt Sinn, dass man kleiner und handlicher bleibt. Finde ich hier kaum gegeben. Wichtiger ist, dass das „eco system“ noch Sandkastenniveau hat. Nur Resolve könnte das ändern.

    Space


    Antwort von pillepalle:

    @ Darth Schneider

    Der AF und der Stabi sind spitze weil Nikon damit viel Erfahrung hat. Genauso wie im Bau robuster und zuverlässiger Kamerabodys. Das was ihnen fehlt ist die Erfahrung im Filmbereich und vielleicht auch worauf Filmer wert legen. Aber es ist doch klar das sie dabei Kompromisse machen müssen, denn die Kamera soll ja auch in ihrer Funktion als Fotoapparat nicht eingeschränkt werden. Eine Pocket oder Sigma nimmt niemand ernsthaft um damit zu fotografieren und dadurch hat man auch mehr Freiheiten beim Kameradesign und der Funktionalität.

    Wie gesagt, ich hätte auch nichts gegen eine interne Aufzeichnung, aber einen guten externen Monitor braucht es für die Z6 sowieso und das verlagern der Aufzeichnung auf den Ninja macht die Kamera und die benötigten Speichermedien auch günstiger. Mit der Kamera kann man Stunden am Stück filmen, ohne das irgendwas warm wird, oder die Kamera sich verschluckt (schon mit dem pupsigen internen Nikon Akku über 2 Stunden). Hat also nicht nur Nachteile. Und 50fps in 4K wären natürlich auch schön, aber vielleicht geht das ja mit einer zukünftigen Nikon. Ich meine, selbst mit Ninja und Zubehör kostet die Z6 unter 2500,-€. Das ist schon ziemlich günstig...

    @ Axel

    Hab nie mit FCPX gearbeitet... in Edius waren die Bilder nicht zu hell, aber da gab's natürlich auch kein RAW-Tab wo man was hätte einstellen können. Ich find einfach blöd eine RAW Datei in die Timeline zu ziehen und dann an den normalen Farb-/Kontrastkorrektur Reglern drehen zu müssen. Am Workflow müssen sie definitiv noch arbeiten, aber da hat Nikon vermutlich auch noch nicht so viel Erfahrung mit. Aber da Panasonic das Feature (RAW oder HDMI) ja auch liefern wird, bin ich zuversichtlich das sich da noch einiges tun wird.

    Hast Du schon mal ne Z6 mit Ninja in der Hand gehabt? Die ist auch mit Ninja nicht wirklich groß.

    VG

    Space



    Space


    Antwort von dienstag_01:

    Die Vorstellung, dass ein Kamerahersteller in einer fremden Software einen RAW-Tab o.ä. programmiert und implementiert ist genauso weltnah, wie die Annahme, dass es einen Kamerahersteller namens Lumetri gibt. Denn Lumetri gibt es ja schließlich als Tab in Premiere ;)

    Space


    Antwort von Axel:

    pillepalle hat geschrieben:
    Ich find einfach blöd eine RAW Datei in die Timeline zu ziehen und dann an den normalen Farb-/Kontrastkorrektur Reglern drehen zu müssen.
    Kenne Edius nicht, aber ich vermute, du wirst der Exposure eines Raw-Moduls mit Mitten (Gamma) am nächsten kommen. Zeigt Edius dir eigentlich irgendwelche aufnahmebezogenen Metadaten ("EXIF") an? FCP nämlich nicht, zumindest nicht bei den downloadbaren Schnippseln von überall her. Und die sollten drin sein, schließlich ist mov ein Container mit solchem Krempel (falls vorhanden!).

    Die Farbkreise in FCP, die alle (auch Matt im Video) benutzen, verhalten sich nicht wie Lift, Gamma, Gain, darauf hat ja schon bei ihrer Einführung Simon Ubsdell hingewiesen. Die Farbtafel hat dagegen ein Tab "Belichtung", und nur damit hat man wirklich das Gefühl, nachträglich am Blendenring zu drehen. Dasselbe gilt für den Schieberegler "Farbtemperatur", der für Nicht-Raw funktioniert, aber für PRAW schlicht färbt.
    pillepalle hat geschrieben:
    Am Workflow müssen sie definitiv noch arbeiten, aber da hat Nikon vermutlich auch noch nicht so viel Erfahrung mit.
    Ist das denn Nikons Aufgabe?
    pillepalle hat geschrieben:
    Aber da Panasonic das Feature (RAW oder HDMI) ja auch liefern wird, bin ich zuversichtlich das sich da noch einiges tun wird.
    Erklär bitte.
    pillepalle hat geschrieben:
    Hast Du schon mal ne Z6 mit Ninja in der Hand gehabt? Die ist auch mit Ninja nicht wirklich groß.
    Noch nicht. Aber ich würde Kamera plus Ninja sowieso ganz anders riggen. Externen Monitor benutze ich nur für den Gimbal, sonst lieber EVF.

    Space


    Antwort von pillepalle:

    @Axel

    Nee, auf die Software anderer haben die natürlich wenig Einfluss. Aber wenn Panasonic das Feature in Zukunft auch mal anbietet und mehr Nutzer danach fragen, werden die Software Hersteller es vielleicht besser implementieren.

    VG

    Space


    Antwort von Jott:

    pillepalle hat geschrieben:
    Ich find einfach blöd eine RAW Datei in die Timeline zu ziehen und dann an den normalen Farb-/Kontrastkorrektur Reglern drehen zu müssen.
    Wieso eigentlich?

    Space


    Antwort von pillepalle:

    @ Jott

    Weil es z. B. bei Fotos so auch ganz gut funktioniert. Wenn ich Dinge wie den Weissabgleich, oder die Belichtung separat einstellen kann schaffe ich ja erst einmal die Grundlagen für ein späteres Grading und die Feinarbeit. So drehe ich an den Reglern und drehe danach nochmal daran herum, weil ich vielleicht einen bestimmten Look haben möchte. Bei Resolve wäre das ja noch okay, weil man da verschiedene Nodes machen kann, dessen Werte man leicht übertragen kann, aber wie das in FCPX, oder Premiere sein wird weiss ich eben noch nicht. Ich fände es eben übersichtlicher die Bilder in mehreren Schritten zu bearbeiten, als alles an den gleichen Reglern zu machen.

    VG

    Space


    Antwort von Axel:

    Matti Haapoja sagt, eigentlich muss man nicht mehr viel machen, die Farben von der Z6 sind in PRAW schon super. Da ist nichts gegen zu sagen. Schön wäre es halt, wenn man durch eine Interpretation von PRAW für den 709 Arbeitsfarbraum auch eine normalere Direktansicht erhielte. Das Camera-Raw-Modul in Resolve dient ja nicht dazu, die Aufnahmen zu graden, sondern das Raw-Bild zunächst zu interpretieren.

    zum Bild

    Man kann sich darüber streiten, wessen Aufgabe das ist. Aber im Falle von Apple, die Codec und Software stellen, wäre es wohl deren Job (gewesen, muss man sagen).

    Space


    Antwort von Jott:

    pillepalle hat geschrieben:
    Weil es z. B. bei Fotos so auch ganz gut funktioniert. Wenn ich Dinge wie den Weissabgleich, oder die Belichtung separat einstellen kann schaffe ich ja erst einmal die Grundlagen für ein späteres Grading und die Feinarbeit. So drehe ich an den Reglern und drehe danach nochmal daran herum, weil ich vielleicht einen bestimmten Look haben möchte.
    Geht doch im gleichen Interface genauso. Zwei Stufen, macht man doch sowieso auch ohne raw: erst Bilder einheitlich in Ordnung bringen, Stufe 2 (weitere Filterebene (pro Clip oder global via Einstellebene) dann für den gewünschten Look.Weitere Stufen für weiteres Zeug, soviel man will.

    Wieso sollten das jeweils andere Bedienoberflächen sein müssen, nur weil das Material live debayered wird? Davon kriegt man ja gar nichts mit.

    Space


    Antwort von pillepalle:

    @ Jott

    Weil wenn ich, sagen wir mal mein Bild neutralisiert habe, die Einstellungen behalten möchte, auch wenn ich z. B. mit dem Grading herum spiele. Wenn ich an den selben Reglern drehe, verstellen ich gleichzeitig ja auch meinen ersten Arbeitsschritt. Wenn man die separiert, dann kann ich mein Grading jederzeit verändern, ohne das ich dabei die Einstellungen für die Neutralisiation verändern muss. Wäre einfach viel praktischer.

    VG

    Space


    Antwort von Axel:

    pillepalle hat geschrieben:
    Weil wenn ich, sagen wir mal mein Bild neutralisiert habe, die Einstellungen behalten möchte, auch wenn ich z. B. mit dem Grading herum spiele. Wenn ich an den selben Reglern drehe, verstellen ich gleichzeitig ja auch meinen ersten Arbeitsschritt. Wenn man die separiert, dann kann ich mein Grading jederzeit verändern, ohne das ich dabei die Einstellungen für die Neutralisiation verändern muss. Wäre einfach viel praktischer.
    Streng genommen ist das nur ein GUI-Unterschied, vermutlich auch in Edius. Neutralisierung im ersten Schritt, danach das jeweilige Tool (z.B. Farbkreise) erneut anwenden, dann verwendet "Farbkreise2" (wie es in FCP hieße) den Output des ersten Nodes (wie es in Resolve hieße). Allerdings ohne parallele oder Layer-Nodes, und das ist eine der vielen entscheidenden Unterschiede. Abgesehen, wie gesagt, dass die nicht-destruktive Konvertierung in den Arbeitsfarbraum an den Anfang des Workflows gehört und nicht mit "Neutralisierung" bezeichnet werden sollte.

    Space



    Space


    Antwort von Jott:

    Verschiedene Stufen, habe ich doch gesagt. Mehrere Filter nacheinander, wenn du willst. Die erste Instanz ist das "Neutralisieren" (inclusiv Axels "nicht-destruktiver Konvertierung"), die wird dann auch gar nicht mehr angefasst. fcp x hat doch eine hierarchische Filterstruktur, da kannst du das völlig getrennt halten.

    Eben deshalb verstehe ich das verzweifelte Suchen nach einem extra "raw-Editor" nicht, der zwanghaft irgendwie anderes aussehen soll. Wozu? Klingt für mich ein wenig nach der Kategorie "Cine-Kameras dürfen keinen Autofokus haben".

    Space


    Antwort von roki100:

    Eben deshalb verstehe ich das verzweifelte Suchen nach einem extra "raw-Editor" nicht, der zwanghaft irgendwie anderes aussehen soll. Wozu? Wo soll man dann z.B. ColorTemp, ISO & Co. einstellen?

    Space


    Antwort von Jott:

    roki100 hat geschrieben:
    Eben deshalb verstehe ich das verzweifelte Suchen nach einem extra "raw-Editor" nicht, der zwanghaft irgendwie anderes aussehen soll. Wozu? Wo soll man dann z.B. ColorTemp, ISO & Co. einstellen?
    Der Color-Temp-Regler ist ja da. Was ISO angeht, auch hier: wozu genau? Aber ich weiß, hier verlassen wir gewohnten Boden. Jedenfalls kann man ProRes raw in fcp x prima graden, der Rest ist mir ehrlich gesagt eher egal. Technisch erklären können und sollen's andere.

    Space


    Antwort von cantsin:

    Raw-Regler sind Steuerungsparameter fürs Debayering und liefern bessere Resultate, als erst Debayern und danach korrigieren. Kann man in Resolve schön sehen, wenn man die Wirkungsweise des Weissabgleich-Regler im Raw-Tab mit dem Weissabgleich-Regler im Color (=Nachbearbeitungs-Tab) vergleicht.

    Space


    Antwort von roki100:

    Jott hat geschrieben:
    Der Color-Temp-Regler ist ja da.
    Der ist da, jedoch ist dieser nicht das selbe. Falsch gesetzte ColorTemp Wert, z.B. um +/- 2000 lässt sich nachträglich mit normale ColorTemp Regler nicht mehr korrekt einstellen. Anders mit den RAW Regler.
    Was ISO angeht, auch hier: wozu genau? Keine Ahnung... :) Es sei nur erwähnt, dass auch ISO bei RAW nicht eingebacken wird. Ich nutze öfter höhere ISO Wert (ISO1600), um zB. in Innenräume besser zu sehen. Nachträglich ändere ich es dann auf Nativ...

    Space


    Antwort von dienstag_01:

    cantsin hat geschrieben:
    Raw-Regler sind Steuerungsparameter fürs Debayering und liefern bessere Resultate, als erst Debayern und danach korrigieren. Kann man in Resolve schön sehen, wenn man die Wirkungsweise des Weissabgleich-Regler im Raw-Tab mit dem Weissabgleich-Regler im Color (=Nachbearbeitungs-Tab) vergleicht.
    Aha, du machst also den Weißabgleich mit undebayertem Material. Was ja Graustufen hat. Finde ich interessant.

    Space


    Antwort von cantsin:

    dienstag_01 hat geschrieben:
    cantsin hat geschrieben:
    Raw-Regler sind Steuerungsparameter fürs Debayering und liefern bessere Resultate, als erst Debayern und danach korrigieren. Kann man in Resolve schön sehen, wenn man die Wirkungsweise des Weissabgleich-Regler im Raw-Tab mit dem Weissabgleich-Regler im Color (=Nachbearbeitungs-Tab) vergleicht.
    Aha, du machst also den Weißabgleich mit undebayertem Material. Was ja Graustufen hat. Finde ich interessant.
    Du hast ein echtes Talent, einem falsche Worte in den Mund zu legen. Nein, das habe ich NICHT geschrieben, lies mal genau.

    Space


    Antwort von dienstag_01:

    cantsin hat geschrieben:
    dienstag_01 hat geschrieben:

    Aha, du machst also den Weißabgleich mit undebayertem Material. Was ja Graustufen hat. Finde ich interessant.
    Du hast ein echtes Talent, einem falsche Worte in den Mund zu legen. Nein, das habe ich NICHT geschrieben, lies mal genau.
    Dann erkläre es bitte nochmal.

    Space


    Antwort von cantsin:

    dienstag_01 hat geschrieben:
    cantsin hat geschrieben:


    Du hast ein echtes Talent, einem falsche Worte in den Mund zu legen. Nein, das habe ich NICHT geschrieben, lies mal genau.
    Dann erkläre es bitte nochmal.
    http://rawpedia.rawtherapee.com/White_Balance
    unten: "The white balance is described in temperature and tint, but will for raw images be translated into weights of the red, green and blue channels. The weights will be adjusted so that the channel with the smallest weight reaches clipping in the working space (usually ProPhoto RGB) when the raw channel is clipped. In other words, with exposure set to 0.0 and no highlight recovery enabled the full visible range is fully defined by the raw backing."

    Es ist natürlich ein Unterschied, ob man die Gewichtung der RGB-Kanäle an den ursprünglichen Farbkanälen vornimmt oder aus interpolierten (debayerten) Mischfarben wieder RGB-Kanäle rekonstruiert und dann neu gewichtet.

    Space



    Space


    Antwort von dienstag_01:

    cantsin hat geschrieben:
    dienstag_01 hat geschrieben:

    Dann erkläre es bitte nochmal.
    http://rawpedia.rawtherapee.com/White_Balance
    unten: "The white balance is described in temperature and tint, but will for raw images be translated into weights of the red, green and blue channels. The weights will be adjusted so that the channel with the smallest weight reaches clipping in the working space (usually ProPhoto RGB) when the raw channel is clipped. In other words, with exposure set to 0.0 and no highlight recovery enabled the full visible range is fully defined by the raw backing."

    Es ist natürlich ein Unterschied, ob man die Gewichtung der RGB-Kanäle an den ursprünglichen Farbkanälen vornimmt oder aus interpolierten (debayerten) Mischfarben wieder RGB-Kanäle rekonstruiert und dann neu gewichtet.
    Wo steht denn, dass es nicht interpoliert ist, es muss ja interpoliert werden. Oder wie gewichtest du Wertigkeiten von Farben ohne verschiedene Farben.

    Edit: das muss doch jedem einleuchten, dass eine Verschiebung auf z.B. der Blau-Gelb-Achse never ever ohne die Mischfarbe Gelb gehen kann. Wenigstens ab hier muss man doch stutzig werden ;)

    Space


    Antwort von cantsin:

    dienstag_01 hat geschrieben:
    Edit: das muss doch jedem einleuchten, dass eine Verschiebung auf z.B. der Blau-Gelb-Achse never ever ohne die Mischfarbe Gelb gehen kann. Wenigstens ab hier muss man doch stutzig werden ;)
    Für die Mischfarbe Gelb muss man nur den Rot- und den Grünkanal addieren, das ist noch kein echtes Debayering...

    Hier mal Praxis:
    Ein mit einer 5D MkII und MagicLantern aufgenommenes 14bit-Raw-Videobild (von MLV nach CinemaDNG gewandelt), in Resolve importiert und mit im Raw-Tab korrekt eingestelltem Weißabgleich:
    white-balance_1.57.1.jpg
    Jetzt mit verdrehtem Weißabgleich: white-balance_1.57.2.jpg
    Versuch, den Weißabgleich über den "Temperature"-Regler im Color-Tab wieder zu korrigieren: white-balance_1.57.3.jpg
    Versuch, noch mit Gammakorrektur nachzuhelfen: white-balance_1.57.4.jpg
    Es gelingt nicht. Auch nicht, wenn man statt Temperature+Gamma den Offset-Regler nimmt - gleiche Ergebnisse.

    Das Spiel kann man auch in anderen Programmen wie z.B. Photoshop (Adobe Camera Raw-Regler versus "Color Balance" im Programm selbst) wiederholen und wird keine wesentlich anderen Ergebnisse erhalten.

    Würde mich daher wundern, wenn es in FCPX anders wäre, solange sich da keine Raw-Interpretations-Parameter einstellen lassen.

    Space


    Antwort von dienstag_01:

    cantsin hat geschrieben:
    dienstag_01 hat geschrieben:
    Edit: das muss doch jedem einleuchten, dass eine Verschiebung auf z.B. der Blau-Gelb-Achse never ever ohne die Mischfarbe Gelb gehen kann. Wenigstens ab hier muss man doch stutzig werden ;)
    Für die Mischfarbe Gelb muss man nur den Rot- und den Grünkanal addieren, das ist noch kein echtes Debayering...

    Hier mal Praxis:
    Ein mit einer 5D MkII und MagicLantern aufgenommenes 14bit-Raw-Videobild (von MLV nach CinemaDNG gewandelt), in Resolve importiert und mit im Raw-Tab korrekt eingestelltem Weißabgleich:

    white-balance_1.57.1.jpg


    Jetzt mit verdrehtem Weißabgleich:
    white-balance_1.57.2.jpg


    Versuch, den Weißabgleich über den "Temperature"-Regler im Color-Tab wieder zu korrigieren:
    white-balance_1.57.3.jpg


    Versuch, noch mit Gammakorrektur nachzuhelfen:
    white-balance_1.57.4.jpg


    Es gelingt nicht. Auch nicht, wenn man statt Temperature+Gamma den Offset-Regler nimmt - gleiche Ergebnisse.

    Das Spiel kann man auch in anderen Programmen wie z.B. Photoshop (Adobe Camera Raw-Regler versus "Color Balance" im Programm selbst) wiederholen und wird keine wesentlich anderen Ergebnisse erhalten.

    Würde mich daher wundern, wenn es in FCPX anders wäre, solange sich da keine Raw-Interpretations-Parameter einstellen lassen.
    Das heißt doch nichts anderes, als dass der Color Balance Regler im Programm auf das Ergebnis der WB Balance aus dem RAW Tab zugreift und nicht auf das von Null. Das kann man jetzt gut oder schlecht finden, aber daraus die Aussage abzuleiten, das Material würde für den WB Abgleich nicht interpoliert werden, überfordert mein technisches Verständnis ;) Das geht schlicht nicht.
    Die Frage wäre ja, ob ein Programm wie FCPX mit seinen Einstellungen genauso verfährt oder das Material quasi als RAW erkennt und seine Korrekturen nicht auf dem schon in den Arbeitsfarbraum und mit einer Gammakurve versehenem Material ausführt. Das ist nämlich der eigentliche Punkt, das Bild aus der Kamera wird vom RAW Konverter interpretiert, um so mehr man an dieser Interpretation ändern/eingreifen kann, umso weiter lässt sich das Bild *verbiegen*. Color Regler im Programm setzen dann auf das interpretierte (mit einer Gammakurve versehene) Bild auf und haben damit geringere Eingriffsmöglichkeiten.
    Ob ein Programm das anders machen kann, warum nicht. Ob FCPX das macht, wahrscheinlich nicht, wird man aber schwer rausbekommen.

    Space


    Antwort von cantsin:

    dienstag_01 hat geschrieben:
    Die Frage wäre ja, ob ein Programm wie FCPX mit seinen Einstellungen genauso verfährt oder das Material quasi als RAW erkennt und seine Korrekturen nicht auf dem schon in den Arbeitsfarbraum und mit einer Gammakurve versehenem Material ausführt.
    Irgendwie reden wir aneinander vorbei, denn genau das meinte ich.

    Alle bisherigen Erfahrungsberichte weisen bisher darauf hin, dass es FCPX nicht anders macht als andere Programme (und im Arbeitsfarbraum korrigiert).

    Space


    Antwort von dienstag_01:

    cantsin hat geschrieben:
    dienstag_01 hat geschrieben:
    Die Frage wäre ja, ob ein Programm wie FCPX mit seinen Einstellungen genauso verfährt oder das Material quasi als RAW erkennt und seine Korrekturen nicht auf dem schon in den Arbeitsfarbraum und mit einer Gammakurve versehenem Material ausführt.
    Irgendwie reden wir aneinander vorbei, denn genau das meinte ich.

    Alle bisherigen Erfahrungsberichte weisen bisher darauf hin, dass es FCPX nicht anders macht als andere Programme (und im Arbeitsfarbraum korrigiert).
    Ich rege mich ja nur darüber auf, dass du WB Korrektur vor das Debayering gesetzt hast. Wie soll das gehen.

    Space


    Antwort von cantsin:

    dienstag_01 hat geschrieben:
    Ich rege mich ja nur darüber auf, dass du WB Korrektur vor das Debayering gesetzt hast. Wie soll das gehen.
    Ich hatte geschrieben: "Raw-Regler sind Steuerungsparameter fürs Debayering" - ja, weil (wie auf der rawpedia-Seite beschrieben) die RGB-Kanalgewichtung als Teil des Debayering-Prozesses verändert wird, wenn man den Weissabgleich im Raw-Tab einstellt.

    "und liefern bessere Resultate, als erst Debayern und danach korrigieren" - hätte ich präziser schreiben sollen: als erst in den Arbeitsfarbraum Debayern und danach korrigieren.

    (Ich hatte nirgendwo geschrieben, dass WB Korrektur vor dem Debayering stattfindet, daher die Bitte an Dich, richtig zu lesen.)

    Space


    Antwort von dienstag_01:

    cantsin hat geschrieben:
    dienstag_01 hat geschrieben:
    Ich rege mich ja nur darüber auf, dass du WB Korrektur vor das Debayering gesetzt hast. Wie soll das gehen.
    Ich hatte geschrieben: "Raw-Regler sind Steuerungsparameter fürs Debayering" - ja, weil (wie auf der rawpedia-Seite beschrieben) die RGB-Kanalgewichtung als Teil des Debayering-Prozesses verändert wird, wenn man den Weissabgleich im Raw-Tab einstellt.

    "und liefern bessere Resultate, als erst Debayern und danach korrigieren" - hätte ich präziser schreiben sollen: als erst in den Arbeitsfarbraum Debayern und danach korrigieren.
    Ich behaupte mal, dass hat nicht nur was mit dem Arbeitsfarbraum, sondern noch mehr mit der Gammakurve (vielleicht auch der des Reglers, wenn du verstehst) zu tun. Sieht man an deinem blauen Bild, da dürfte der Arbeitsfarbraum eher weniger Beschränkungen produzieren.

    Space


    Antwort von Jott:

    Mal schauen, wie es bei Adobe und AVID umgesetzt wird. Sollte ja demnächst so weit sein (NAB?).

    Space


    Antwort von dienstag_01:

    Vielleicht macht es ja auch Sinn, in einem *normalen* Schnittsystem nur einen Teil (vielleicht die Dynamik) der Möglichkeiten von RAW nutzen zu können. Und wenn es richtig ans Eingemachte gehen muss, gibt es die Möglichkeit eines Roundtrips über Resolve und Co.

    Space



    Space


    Antwort von cantsin:

    dienstag_01 hat geschrieben:
    Vielleicht macht es ja auch Sinn, in einem *normalen* Schnittsystem nur einen Teil (vielleicht die Dynamik) der Möglichkeiten von RAW nutzen zu können. Und wenn es richtig ans Eingemachte gehen muss, gibt es die Möglichkeit eines Roundtrips über Resolve und Co.
    Nur, dass Resolve ProRes Raw leider nicht unterstützt...

    (Noch) gibt es keine Software, in der sich PRR vernünftig bearbeiten lässt.

    Space


    Antwort von dienstag_01:

    cantsin hat geschrieben:
    dienstag_01 hat geschrieben:
    Vielleicht macht es ja auch Sinn, in einem *normalen* Schnittsystem nur einen Teil (vielleicht die Dynamik) der Möglichkeiten von RAW nutzen zu können. Und wenn es richtig ans Eingemachte gehen muss, gibt es die Möglichkeit eines Roundtrips über Resolve und Co.
    Nur, dass Resolve ProRes Raw leider nicht unterstützt...

    (Noch) gibt es keine Software, in der sich PRR vernünftig bearbeiten lässt.
    Naja, diese ganze RAW Entwicklung scheint mir sowieso dubios. Da nennt jeder irgendwie was und wie er will RAW. Vielleicht sollte man sich in diesem Bereich (Consumer/Semi) besser auf für einen selbst nachvollziehbare Vorteile konzentrieren, anders wird's diffus ;)

    Space


    Antwort von roki100:

    Da nennt jeder irgendwie was und wie er will RAW. so wie es aussieht, ist PPRAW genau das, Hauptsache RAW betitelt und 12 Bit?

    Space


    Antwort von pillepalle:

    @ roki100

    Aber 12 bit Farbe sind ja auch nicht so schlecht 😉 Ist mir eigentlich wurscht wie man das dann nennt

    VG

    Space


    Antwort von Darth Schneider:

    Red RAW ist auch komprimiert, eigentlich fast genau wie BRaw oder sehe ich das falsch ?
    Gruss Boris

    Space


    Antwort von roki100:

    @pillepalle
    das ist doch das beste daran. Man muss es halt wie ProRes 10bit behandeln und vor der Aufnahme Kameraintern ColorTemp, ISO... korrekt einstellen.

    Ich habe aber wirklich bei YouTube mal gesehen, wie PPRAW Material bearbeitet wurde und da funktionierte Highlight Recovery, mit den normalen Regler (keine extra RAW Regler). Ich glaube es war FCPX.

    Space


    Antwort von pillepalle:

    @ roki100

    Müsste man einfach mal ausprobieren. Aber die Farbtemperatur steht bei mir ohnehin meist recht nah an der WB, schon alleine weil ich kein blaues Monitorbild beim filmen mag 😁 Feinkorrekturen sind selbst bei 10bit schon kein Thema. Nur wenn man es wirklich völlig versaut, hat man vielleicht ein Problem.

    VG

    Space


    Antwort von roki100:

    "Darth Schneider" hat geschrieben:
    Red RAW ist auch komprimiert, eigentlich fast genau wie BRaw oder sehe ich das falsch ?
    Gruss Boris
    Frank hat mal irgendwo erwähnt, dass RED RAW auch wie BRAW ist.

    Space


    Antwort von Jott:

    Ein paar Anmerkungen zum Rätselraten.

    Zunächst mal einfach aufhören mit der Story, ProRes raw sei kein raw. Da ist nichts debayered. Sagt auch Nikon in seiner Präsentation.

    In fcp x wird erkannt, was es ist. Es ploppen zusätzlich Metadaten im Inspektor auf, fcp weiß, aus welcher Kamera das Material kommt, kennt die Log-Kurve, die Gammaeinstellung und im Hintergrund vielleicht noch mehr, was nur nicht angezeigt wird. Man kann zum Spaß umschalten auf einen anderen Hersteller (Panasonic, DJI ...), und das De-Bayering sieht anders aus.

    Die Files spielen realtime ohne Rendern, volle Auflösung. Nix ProRes, nix Proxy, einfach so. Schon cool.

    Ich teile übrigens Axels Verdacht, dass der Belichtungs-Puck bei ProRes raw den Job des vermissten ISO-Reglers übernimmt. Aber das ist nur eine Vermutung.

    Space



    Space


    Antwort von Frank Glencairn:

    roki100 hat geschrieben:


    Frank hat mal irgendwo erwähnt, dass RED RAW auch wie BRAW ist.
    Ned ganz. Beides ist komprimiertes raw - das wars dann aber auch schon mit den Gemeinsamkeiten.

    RED Code komprimiert mit Wavelet (im Prinzip ist es ne Version von Cineform raw),
    während BRAW wegen der RED Patente einen anderen Weg gehen mußte, und beim speichern schon teildebayert.
    Im Workflow merkt man allerdings keinen Unterschied zu dem ursprünglichen DNG-raw, das ganz undebayert war.

    Space


    Antwort von Axel:

    Jott hat geschrieben:

    Die Files spielen realtime ohne Rendern, volle Auflösung. Nix ProRes, nix Proxy, einfach so. Schon cool.

    Ich teile übrigens Axels Verdacht, dass der Belichtungs-Puck bei ProRes raw den Job des vermissten ISO-Reglers übernimmt. Aber das ist nur eine Vermutung.
    Clips in erheblich besserer Qualität ohne Kopfschmerzen, ein „No-Brainer“. Dennoch könnte man im „Film“-Tab des Inspektors doch zwei Schieberegler addieren „Raw Belichtung“ und „Raw Farbtemperatur“. Die müssten bei Nicht-Raw-Material gar nicht erscheinen, „Ratenanpassung“ taucht ja auch nur auf, wenn die Clip-fps von denen der Timeline abweichen.

    ETTR ist übrigens dringend anzuraten. Tiefen, die man hochzieht, haben in PRAW sehr viel noise.

    Space


    Antwort von cantsin:

    Axel hat geschrieben:
    ETTR ist übrigens dringend anzuraten. Tiefen, die man hochzieht, haben in PRAW sehr viel noise.
    Das liegt aber nicht an ProRes Raw, sondern entweder an der Kamera oder an der Prozessierung in FCP.

    Space


    Antwort von roki100:

    https://www.youtube.com/watch?v=yd2S7NVnV1o

    Space


    Antwort von Jott:

    Axel hat geschrieben:
    Dennoch könnte man im „Film“-Tab des Inspektors doch zwei Schieberegler addieren „Raw Belichtung“ und „Raw Farbtemperatur“.
    Könnte man. Sie haben sich sicher irgend etwas dabei gedacht, das nicht zu tun. Wie gesagt, ich bin gespannt, wie Adobe und AVID das angehen.

    Space


    Antwort von cantsin:

    Jott hat geschrieben:
    Sie haben sich sicher irgend etwas dabei gedacht, das nicht zu tun.
    Adobe- und CinemaDNG-Nutzer könnten hier ein gewisses Deja Vu haben... (Denn Adobe behandelte sein eigenes RAW-Format in Premiere ebenso stiefmütterlich, wie es Apple jetzt mit ProRes Raw tut.)

    Space


    Antwort von Jott:

    Mag sein. Ich glaube nur nicht so recht an das "Stiefmütterliche" in fcp x. macht ja keinen Sinn, wenn sie gleichzeitig versuchen, das Format zu etablieren.

    Ich frage mich eher, ob nicht fcp x so "aware" ist, dass bei einem ProRes raw-Clip einfach die Farbkorrektur unmerklich komplett zum raw-Editor wird. Wilde Theorie? Sollte RSK Bescheid wissen, wo isser?

    Space


    Antwort von cantsin:

    Jott hat geschrieben:
    Ich frage mich eher, ob nicht fcp x so "aware" ist, dass bei einem ProRes raw-Clip einfach die Farbkorrektur unmerklich komplett zum raw-Editor wird.
    Kann man ja einfach testen, indem man einen PRR-Clip mit verdrehter Weißabgleich-Einstellung dreht und dann den Weißabgleich in FCP korrigiert, wie bei meinem CinemaDNG+Resolve-Beispiel weiter oben.

    Scheint aber (bislang) nicht der Fall zu sein, laut u.a. "The Australian Cinematographer":

    "I could change RAW exposure, white balance and tint controls but not anywhere near the level of control available in the Da Vinci Resolve grading software with the same CinemaDNG RAW file."

    https://acmag.com.au/2018/06/01/prores-raw/

    Space


    Antwort von Jott:

    In deinem Zitat redet er von Adobe, nicht von fcp x/ProRes raw.

    Space



    Space


    Antwort von cantsin:

    Jott hat geschrieben:
    In deinem Zitat redet er von Adobe, nicht von fcp x/ProRes raw.
    Stimmt, mein Lesefehler.

    Wäre interessant, wenn hier jemand meinen CinemaDNG+Resolve-Weissabgleich-Test mit PRR und FCPX wiederholen könnte.

    Space


    Antwort von dienstag_01:

    Der Unterschied zwischen Weißabgleich und Farbtemperatur (Reglern) ist ja schon mal, dass WB auf zwei Achsen stattfindet und Farbtemperatur auf einer. Zumindest bei RAW (WB). Die KÖNNEN also gar nicht die selben Funktion haben.

    Space


    Antwort von pillepalle:

    Es gibt ja auch in fcp, so wie in jeder anderen Software einen grün/magenta Regler. Genau damit und mit der Farbtemperatur macht man eine WB.

    VG

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Es gibt ja auch in fcp, so wie in jeder anderen Software einen grün/magenta Regler. Genau damit und mit der Farbtemperatur macht man eine WB.

    VG
    Den gibt es in Photoshop auch und trotzdem ist da ein RAW Entwickler davor geschaltet.

    Space


    Antwort von pillepalle:

    Die beiden Regler finden sich auch in jedem RAW Konverter. Damit macht man die WB, falls man nicht die Automatik einer Pipette nutzen möchte, die beide Regler verändert.

    VG

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Die beiden Regler finden sich auch in jedem RAW Konverter. Damit macht man die WB, falls man nicht die Automatik einer Pipette nutzen möchte, die beide Regler verändert.

    VG
    Ja, aber die arbeiten eben anders, sonst gäbe es sie nicht.

    Space


    Antwort von pillepalle:

    Nee, die machen genau das selbe, nur eben mit der Raw Datei bevor sie in irgendein spezifisches Format gespeichert wird. Im Grunde sind das nur Metadaten. Erst wenn an die Datei anschließend speichert werden die Werte eingebacken.

    VG

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Nee, die machen genau das selbe, nur eben mit der Raw Datei bevor sie in irgendein spezifisches Format gespeichert wird. Im Grunde sind das nur Metadaten. Erst wenn an die Datei anschließend speichert werden die Werte eingebacken.

    VG
    Dann wäre es unnützes Zeug.

    Space


    Antwort von pillepalle:

    Wieso das? Das ist doch genau was Du im Nachhinein festlegen möchtest. In fcp arbeitest Du auch mit einer RAW Datei. Erst in dem Moment des Exports/Rendern hast Du Dich mit Deinen Werten festgelegt.

    VG

    Space



    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Wieso das? Das ist doch genau was Du im Nachhinein festlegen möchtest. In fcp arbeitest Du auch mit einer RAW Datei. Erst in dem Moment des Exports/Rendern hast Du Dich mit Deinen Werten festgelegt.

    VG
    Da ist das, was du glaubst. Die Frage ist doch, ob man vollen Zugriff auf das undebayerte Material hat. Hat man? Ich glaube das nicht. Aber ich weiß es auch nicht.

    Space


    Antwort von pillepalle:

    Wieso sollte man das nicht haben? Es wird natürlich, wie in jedem RAW Konverter, vorab interpretiert (je nach Einstellungen des Konverters). Ist bei Fotos ja nicht anders. Da siehst Du im Konverter auch keine uninterpretierte Zahlenreihevon von Einsen und Nullen, oder eine Schwarzweiss Darstellung.

    VG

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Wieso sollte man das nicht haben? Es wird natürlich, wie in jedem RAW Konverter, vorab interpretiert (je nach Einstellungen des Konverters). Ist bei Fotos ja nicht anders. Da siehst Du im Konverter auch keine uninterpretierte Zahlenreihevon von Einsen und Nullen, oder eine Schwarzweiss Darstellung.

    VG
    Genau. Das wäre sozusagen Adobe Camera Raw (um mal den Fotovergleich zu nutzen) ohne Einstellmöglichkeiten, also im Automatikmodus. Und wenn du jetzt den Weißabgleich änderst, dann wie in Photoshop, ohne Zugriff auf das uninterpretierte RAW. Davon rede ich.

    Space


    Antwort von pillepalle:

    Das verstehst Du eben nicht. Solange Du in Photoshop die Datei nicht als etwas anderes speicherst, ist es immer noch eine Raw Datei. Das geht mit ACR nur, weil der Konverter und die Software vom gleichen Hersteller sind. Die RAW Datei wird quasi nur an Photoshop übergeben. Ich nutze z. B. einen anderen Konverter (Capture One). Sobald ich die Datei dort exportiert habe, ist es keine RAW Datei mehr. Und genauso ist es mit fcp, oder mit BRAW in Resolve. Solange Du das nicht exportiert, ist es immer noch RAW.

    VG

    Space


    Antwort von srone:

    wenn wir allerdings raw "entwickeln", für zb die schnittansicht, und den finalen export trennen sieht das ein wenig anders aus.

    lg

    srone

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Das verstehst Du eben nicht. Solange Du in Photoshop die Datei nicht als etwas anderes speicherst, ist es immer noch eine Raw Datei. Das geht mit ACR nur, weil der Konverter und die Software vom gleichen Hersteller sind. Die RAW Datei wird quasi nur an Photoshop übergeben. Ich nutze z. B. einen anderen Konverter (Capture One). Sobald ich die Datei dort exportiert habe, ist es keine RAW Datei mehr. Und genauso ist es mit fcp, oder mit BRAW in Resolve. Solange Du das nicht exportiert, ist es immer noch RAW.

    VG
    Ja, pillepalle, was soll man dazu sagen. Schau dir den Test (Resolve) von cantsin an, vielleicht verstehst du dann, dass es eben nicht so simpel ist. Nach deiner Aussage müsste man die Veränderung der WB im RAW Tab easy im Color Tab rückgängig machen können, geht aber scheinbar nicht ;)

    Space


    Antwort von pillepalle:

    Das liegt dann aber an den Reglern in Resolve, weniger an der Datei. Oder daran das es schon Teildebayert wurde... bei einer echten Raw Datei spielt alles was man einstellt jedenfalls keine wirkliche Rolle, weil man es immer wieder Rückgängig machen kann. Im Gegensatz zu irgend einem anderen Format, wo die Einstellungen eingebacken werden und destruktiv sind.

    VG

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Das liegt dann aber an den Reglern in Resolve, weniger an der Datei. Oder daran das es schon Teildebayert wurde... bei einer echten Raw Datei spielt alles was man einstellt jedenfalls keine wirkliche Rolle, weil man es immer wieder Rückgängig machen kann. Im Gegensatz zu irgend einem anderen Format, wo die Einstellungen eingebacken werden und destruktiv sind.

    VG
    Und wenn ich sage, die Regler sind unterschiedlich, sagst du nein. Wir drehen uns im Kreis.

    Space


    Antwort von pillepalle:

    Ich habe nicht gesagt das die Regler in Resolve nicht unterschiedlich sind. Hab auch nie mit BRAW gearbeitet. Sie machen aber prinzipiell das gleiche.

    In jedem Konverter sind die Regler für Farbtemperatur und Grün/Magenta für die WB. Sie werden höchstens unterschiedlich genannt.

    Der springende Punkt ist aber ein anderer. Man arbeitet mit einer RAW Datei. Egal wie sich die Tabs/Knöpfe nennen oder funktionieren. Und in Final Cut eben auch... bis zum Export.

    VG

    Space



    Space


    Antwort von Axel:

    cantsin hat geschrieben:
    Wäre interessant, wenn hier jemand meinen CinemaDNG+Resolve-Weissabgleich-Test mit PRR und FCPX wiederholen könnte.
    Naja, hab ja kein Material mit falschem Weißabgleich. Aber brauche ich auch nicht. Ich kann, wie beschrieben, mittels des Farbtemperatur-Reglers im 709-Farbraum nur das gesamte PRAW-Bild entweder oranger oder blauer färben, schlechter sogar als mit stinknormalem XAVC. Während ich mit noch vorhandenem CDNG der Pocket in Resolve augenscheinlich im CR-Tab die Farbtemperatur festlege, als würde ich es live bei der Aufnahme tun. Da sind Welten zwischen. Der kleine Puck für Farbbalance der Farbtafel, grob im Blausektor in den Plus- und Minusbereich verschoben, liefert optisch Brauchbares.
    Das ist nirgendwo offiziell dokumentiert, zumindest nicht, soweit ich weiß.

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Ich habe nicht gesagt das die Regler in Resolve nicht unterschiedlich sind. Hab auch nie mit BRAW gearbeitet. Sie machen aber prinzipiell das gleiche.

    In jedem Konverter sind die Regler für Farbtemperatur und Grün/Magenta für die WB. Sie werden höchstens unterschiedlich genannt.

    Der springende Punkt ist aber ein anderer. Man arbeitet mit einer RAW Datei. Egal wie sich die Tabs/Knöpfe nennen oder funktionieren. Und in Final Cut eben auch... bis zum Export.

    VG
    In Capture One habe ich einen Green/Margenta-Regler im Bereich WB und einen im Bereich Tonwerte. Arbeiten die bei dir gleich?

    Space


    Antwort von pillepalle:

    Bin gerade unterwegs und nicht am Rechner, aber ich denke mal nicht. Der GRÜN Magenta Regler der WB geht über alles. Nennt sich in Resolve Tint.

    VG

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Bin gerade unterwegs und nicht am Rechner, aber ich denke mal nicht. Der GRÜN Magenta Regler der WB geht über alles. Nennt sich in Resolve Tint.

    VG
    Brauchst du nicht nachzuschauen, sie machen natürlich nicht dasselbe. Deshalb ist es ja so verwunderlich, dass du behauptest, sie machen - auf Resolve bezogen - prinzipiell das gleiche.
    Aber wie gesagt, wir drehen uns im Kreis. Meiner Meinung nach sind die Einstellmöglichkeiten im RAW Tab und im Color Tab verschieden. Das bedeutet, dass Einstellungen im Color Tab nicht einfach - im Programm nicht vorhandene - Einstellmöglichkeiten im RAW Tab ersetzen können. Was wiederum nicht heißt, dass RAW in einem NLE nichts bringt (Resolve jetzt mal nicht den NLE zugerechnet), es ist nur nicht ganz klar, was und wieviel genau.

    Space


    Antwort von pillepalle:

    Farbtemperatur und Tint machen in Resolve das gleiche wie die WB im Raw Tab. Bei Capture haben die von Dir genannten Regler unterschiedliche Funktionen.

    VG

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    Farbtemperatur und Tint machen in Resolve das gleiche wie die WB im Raw Tab. Bei Capture haben die von Dir genannten Regler unterschiedliche Funktionen.

    VG
    Naja, da hatte ich mich auf cantsin verlassen (siehe hier Seite 2 oben). Muss ich wahrscheinlich selber nochmal schauen.

    Space


    Antwort von Axel:

    Hier (getimet) mit LUT-Konversion.
    https://youtu.be/yd2S7NVnV1o?t=377

    Ich habe genau das nachvollzogen, und alle downloadbaren Schnippsel sehen danach Grütze aus. Und ich gebe zu, keine Ahnung zu haben, ob diese vorgeschaltete LUT nicht-destruktiv ist. Zu guter Letzt ist da noch der Aspekt, dass ich, wenn ich schon Raw habe, ich ja noch was selbst machen will. Sonst kann ich gleich bei 8-bit bleiben. Da wir davon sprechen: Liefert das Bild der hier als Vlogging-Kamera verwendeten Z50 ein so viel schwächeres Bild ootb?

    Space


    Antwort von pillepalle:

    @ Axel

    Die Z50 kann halt nur 8bit intern Aufnehmen und hat keine externe 10bit oder 12bit RAW Ausgabe. Aber wenn man die Korrekt belichtet ist das 8 bit Material der Nikon schon ok.

    Der hier ist auch nicht so der Checker, aber zumindest erklärt er halbwegs plausibel, warum die Highlights beim Import in FinalCut und einem REC709 ColorSpace so ausbrennen. Ich persönlich glaube ja nicht das man in 12bit RAW gegenüber 10bit ProRes viel Dynamik gewinnt. War mir bei meiner Testaufnahme auch nicht aufgefallen. Aber die Farben sind wahrscheinlich etwas besser, bzw. man kann mit 12bit eben etwas mehr in der Post machen. Da ich selber nicht an FinalCut X dran komme, werde ich vermutlich auf Premiere warten und damit dann anfangen in RAW zu arbeiten.

    https://www.youtube.com/watch?v=jQYhebj5oNU

    VG

    Space


    Antwort von dienstag_01:

    pillepalle hat geschrieben:
    @ Axel

    Die Z50 kann halt nur 8bit intern Aufnehmen und hat keine externe 10bit oder 12bit RAW Ausgabe. Aber wenn man die Korrekt belichtet ist das 8 bit Material der Nikon schon ok.

    Der hier ist auch nicht so der Checker, aber zumindest erklärt er halbwegs plausibel, warum die Highlights beim Import in FinalCut und einem REC709 ColorSpace so ausbrennen. Ich persönlich glaube ja nicht das man in 12bit RAW gegenüber 10bit ProRes viel Dynamik gewinnt. War mir bei meiner Testaufnahme auch nicht aufgefallen. Aber die Farben sind wahrscheinlich etwas besser, bzw. man kann mit 12bit eben etwas mehr in der Post machen. Da ich selber nicht an FinalCut X dran komme, werde ich vermutlich auf Premiere warten und damit dann anfangen in RAW zu arbeiten.

    https://www.youtube.com/watch?v=jQYhebj5oNU

    VG
    Echt, brennen Lichter aus? Dürfte es ja deiner Meinung nach gar nicht geben. Oder kann man sie zurückholen?

    Space


    Antwort von pillepalle:

    @ Dienstag

    Die brennen so aus weil sie in einem anderem Farbraum aufgenommen wurden und final Cut es scheinbar anders interpretiert. Klar kann man die zurückholen. Ich hatte meinen RAW Clip seinerzeit ja in die Demo-Version von Edius importiert und da brannte nix aus. Das Bild sah völlig normal aus. Hatte aber keinen Plan wie ich irgendwas in Edius verändern konnte. Deshalb warte ich ja lieber auf Premiere, damit komme ich besser klar und da gibt's auch Monatsabos.

    VG

    Space


    Antwort von Jott:

    Die gewünschten Farbräume für Mediathek, Rohmaterial, Projekt kann und muss man einstellen.

    Space


    Antwort von roki100:

    pillepalle hat geschrieben:
    @ Axel

    Die Z50 kann halt nur 8bit intern Aufnehmen und hat keine externe 10bit oder 12bit RAW Ausgabe. Aber wenn man die Korrekt belichtet ist das 8 bit Material der Nikon schon ok.

    Der hier ist auch nicht so der Checker, aber zumindest erklärt er halbwegs plausibel, warum die Highlights beim Import in FinalCut und einem REC709 ColorSpace so ausbrennen. Ich persönlich glaube ja nicht das man in 12bit RAW gegenüber 10bit ProRes viel Dynamik gewinnt. War mir bei meiner Testaufnahme auch nicht aufgefallen. Aber die Farben sind wahrscheinlich etwas besser, bzw. man kann mit 12bit eben etwas mehr in der Post machen. Da ich selber nicht an FinalCut X dran komme, werde ich vermutlich auf Premiere warten und damit dann anfangen in RAW zu arbeiten.

    https://www.youtube.com/watch?v=jQYhebj5oNU

    VG
    Wie man sieht, Highlight Recovery funktioniert schonmal.

    Space


    Antwort von Axel:

    Jott hat geschrieben:
    Die gewünschten Farbräume für Mediathek, Rohmaterial, Projekt kann und muss man einstellen.
    Die Mediathek soll angeblich immer auf 2020 Breiter Gamut stehen. Das sagen alle, aber *siehe unten.
    Das Rohmaterial lässt sich durch eine LUT-Konvertierung zu einem von einer Handvoll Log-Profilen (N-Log nicht darunter) ändern. Die Kamera-LUT (egal welche) lässt die Farben dezent nach NTSC aussehen, pfui! Beides würde ich mal weglassen.
    Dann gibt's noch die Option, den "Farbraum (zu) überschreiben". Ich hab's probiert mit rec709:

    zum Bild

    ... es ändert sich subjektiv nichts.

    Das Projekt natürlich in 709. Jetzt kommt der Witz. So sieht die Waveform aus, wenn man 2020 für die Mediathek nimmt (nicht HDR, dann ändert sich "IRE" zu "Leuchtkraft" und die Skala reicht bis 10.000 nits):

    zum Bild


    Aaaber.
    Wenn ich mal spaßeshalber die Mediathek auf Standard (709) umstelle ...

    zum Bild

    ... ändert sich (subjektiv) gar nichts. Auch die Flatline lässt sich wieder unter 100 entzerren.
    WTF?

    Space


    Antwort von dienstag_01:

    Axel hat geschrieben:
    Jott hat geschrieben:
    Die gewünschten Farbräume für Mediathek, Rohmaterial, Projekt kann und muss man einstellen.
    Die Mediathek soll angeblich immer auf 2020 Breiter Gamut stehen. Das sagen alle, aber *siehe unten.
    Das Rohmaterial lässt sich durch eine LUT-Konvertierung zu einem von einer Handvoll Log-Profilen (N-Log nicht darunter) ändern. Die Kamera-LUT (egal welche) lässt die Farben dezent nach NTSC aussehen, pfui! Beides würde ich mal weglassen.
    Dann gibt's noch die Option, den "Farbraum (zu) überschreiben". Ich hab's probiert mit rec709:

    zum Bild

    ... es ändert sich subjektiv nichts.

    Das Projekt natürlich in 709. Jetzt kommt der Witz. So sieht die Waveform aus, wenn man 2020 für die Mediathek nimmt (nicht HDR, dann ändert sich "IRE" zu "Leuchtkraft" und die Skala reicht bis 10.000 nits):

    zum Bild


    Aaaber.
    Wenn ich mal spaßeshalber die Mediathek auf Standard (709) umstelle ...

    zum Bild

    ... ändert sich (subjektiv) gar nichts. Auch die Flatline lässt sich wieder unter 100 entzerren.
    WTF?
    Die beiden letzteren Scopes lassen doch auf ein sehr schlüssiges Verhalten schließen: 1. mein Ausgangsmaterial (Mediathek) ist HDR und wird in ein 709 Projekt importiert und dafür gewandelt. 2. Mein Ausgangsmaterial wird als 709 gesehen, ich importiere es in 709, es wird nichts mit dem Material gemacht, also knallts durch die Decke.
    Und bearbeiten kann man es trotzdem voll. Alles ok.

    Space


    Antwort von Axel:

    dienstag_01 hat geschrieben:
    Die beiden letzteren Scopes lassen doch auf ein sehr schlüssiges Verhalten schließen: 1. mein Ausgangsmaterial (Mediathek) ist HDR und wird in ein 709 Projekt importiert und dafür gewandelt. 2. Mein Ausgangsmaterial wird als 709 gesehen, ich importiere es in 709, es wird nichts mit dem Material gemacht, also knallts durch die Decke.
    Und bearbeiten kann man es trotzdem voll. Alles ok.
    Mein Fehler. Ich habe den 2020 Screenshot gemacht, nachdem ich die Highlights schon runtergezogen hatte. Unbearbeitet clippt sowohl 2020 als auch 709, die Waveforms sind absolut identisch.

    Aber unser deutscher Freund hier hat mich glaube ich einen Schritt weitergebracht:


    Ich brauche ja für kein Material bekannten Ursprungs irgendwelche Angaben zu machen, da FCP mit Hilfe von Colorsync automatisch in den Farbraum konvertiert. Es versucht das ja sogar für HDR (nämlich, HDR in P3 zu übersetzen, seit Catalina mit der maximal möglichen Helligkeit des Monitors von meist ~500 nits für den Viewer, während das GUI ab 100 nits gedimmt wird). Das erklärt einiges. Glaube ich zumindest vorläufig.

    Ab 4'58" sagt er : "Natürlich sieht das *auch* Scheiße aus, denn der Input ist nicht rec2020, sondern rec2020 PQ . Das sieht schon viel besser aus!"

    Keine Ahnung, wie er auf PQ kommt. Ich glaube, er auch nicht. Fischen im Trüben.

    Space


    Antwort von Jott:

    Ist es euch eigentlich wirklich egal, welche Probleme man sich im Budget-Bereich mit raw (egal welches) einfängt? Man sieht doch hier wieder schön, dass sich wegen der wegfallenden Objektivkorrektur die Balken biegen. Spätestens wenn’s weitwinklig wird. Das ist doch eklig.

    Kampf um das letzte Pixel, aber die ganzen Verzerrungen, CAs etc. werden schulterzuckend abgetan oder einfach nicht wahrgenommen?

    Für mich macht raw nur Sinn, wenn auch die Objektive „raw“ sind, also ohne elektronische Hilfe ein nicht zu beanstandendes Bild liefern. Und das verschiebt die sinnvolle Nutzung von raw in die oberen Preisklassen, insbesondere bei Zooms. Die kosten dann plötzlich fünfstellig.

    Im Budget-Bereich, von dem wir hier reden, ist die elektronische Korrektur ein Segen, auch Optiken für ein paar Hunderter sind so prima nutzbar. Egal ob H.264, H.265, DNxHD, ProRes, Intraframe, Interframe, bla bla, alles gut - nur die raw-Aufzeichnung wirft alle Vorteile aus dem Fenster.

    Egal für euch?

    Space


    Antwort von Darth Schneider:

    Egal nicht, aber ändern kann man ja eh nix.
    Und ja, ich Kauf mir dieses Jahr höchst wahrscheinlich, trotzdem zähneknirschend ein 1000€ Olympus Zoom.
    Und blicke dabei schon etwas neidisch auf die GH5 User, die ein 300 € Zoom dran hängen können, und die Kamera die optischen Falten glatt bügelt.,;)
    Bei meiner 4K Pocket nervt das schon heftig, und es ist absolut unlogisch für mich, wie die Leute von BMD das Linsenproblem angehen.

    Da bauen sie so coole kleine Kameras nur muss man leider erst mal den Spagat machen um ne geeignete bezahlbare Linse dafür zu finden....

    De gebeyert und entrauschen tut die Kiste ja auch, (raw hin oder her),
    automatisch, Aber Korrekturen bei optischen Schwächen bei günstigen Objektiven das geht nicht ?
    Obwohl das sonst jeder x beliebige 300 € Gurkenhobel von der Konkurrenz auch kann.
    Lightroom bietet auch auf Software Basis, schon seit Jahren eine ganz simple, tolle Objektiv Korrektur, warum schafft das BMD nicht endlich mal so was in Resolve zu integrieren ?
    Gruss Boris


    Gruss Boris

    Space


    Antwort von pillepalle:

    @ Darth

    Objektivkorrektur ginge schon, aber dafür müßte Blackmagic, oder andere Software Hersteller, die Korrekturprofile für die Objektive auch parat haben. Am ehesten könnte ich mir das noch bei Adobe vorstellen, weil die ja schon viele Profile aus dem Still-Bereich auf Halde haben.

    @ Jott

    Für mich ist RAW ja auch kein Muss. Komme mit 10bit ProRes wunderbar klar. Momentan wäre der Softwarewechsel das was mich daran am meisten stört. Meine Optiken sind recht gut und verzeichnen kaum. Das wäre nicht das Problem. Das Beispielvideo ist vermutlich mit dem 4/24-70 Kitzoom gemacht. Das eiert natürlich.

    Für mich ist das erst interessant wenn es einen für mich vernünftigen Workflow gibt (eventuell in Premiere, oder sogar mal Resolve). Gegen mehr Farbtiefe ist ja nichts einzuwenden, aber nicht um jeden Preis.

    VG

    Space


    Antwort von Axel:

    @Jott
    Nicht nur das. Alles zusammengenommen, was bleibt übrig?
    Von welchen Vorteilen reden wir, wenn alle Aspekte gegeneinander abgewogen werden? Wieviel würdigt das Auge des unvoreingenommenen Betrachters? Ist das eine billiges Video und das andere „Film“ (langsam sagen wir eher „Netflix“)?

    Dies ist nicht ein „it‘s not the camera“-Einwand. Es ist nur eine unschuldige Frage. Wer sich auf Raw eingelassen hat sagt, Tag und Nacht. Wirklich?

    @pillepalle
    Ganz ehrlich, wenn mir jemand heute die Z6 und den Ninja schenken würde, würde ich zu diesem Zeitpunkt kein PRAW benutzen, auch wenn der Mehraufwand für mich als FCP-Nutzer überschaubar ist. Ich sehe einfach im Moment keinen großen Mehrwert.

    Space


    Antwort von Jott:

    Die Workflow-Frage ist ja gelöst, insbesondere BM und Apple haben alle Hürden ausgeräumt. Das ist nicht der Punkt.

    Space


    Antwort von pillepalle:

    @ Axel

    Jeder so wie er mag. Ich bin kein Nikon Repräsentant der hier eine Marke vertreten muss :) Natürlich hat die Kamera auch viele Nachteile, aber für mich überwiegen die Vorteile und ich bin super zufrieden mit der Z6. Am Ende muss man mit einer Kamera arbeiten/filmen und da hat jeder eben andere Präferenzen. Ich arbeite nicht auf allerhöchstem Niveau und habe auch keine Kunden die von mir eine bestimmte Kameraklasse erwarten. Bin also völlig frei in der Wahl (natürlich im Rahmen des Budgets).

    Ich denke schon das es Situationen geben kann wo 12bit RAW auch sichtbare Vorteile bringt, aber wir stehen mit der Entwicklung eben noch ganz am Anfang. Die meisten Nikon User sind Videoamateure die selber wenig bis keine Ahnung haben. Das dauert eben bis sich da mal ein vernünftiger Workflow entwickelt hat und Nikon selber Dinge für Filmer verbessert. Ich bin mir sicher in ein paar Jahren ist RAW auch im Consumer Bereich bei Video kein Thema mehr und recht selbstverständlich. So wie es heute schon bei Fotos ist. Natürlich ist das nicht jedermanns Sache, aber wer möchte, kann heute schon im Low-Budget Filmbereich mit RAW arbeiten. Vor ein paar Jahren noch undenkbar.

    @ Jott

    Na ja, alle Hürden würde ich mal nicht sagen... Ich würde PR-Raw z.B. gerne mit Resolve nutzen. Muss dafür vermutlich auf Premiere umsteigen.

    VG

    Space


    Antwort von Darth Schneider:

    An Jott
    Was für Hürden wurden aufgeräumt, BMD hat BRaw und Apple hat ProRes RAW ?
    Final Cut X mag ja leider kein BRaw...
    Ich denke es gibt noch genug Hürden.
    Gruss Boris

    Space


    Antwort von Jott:

    Wer was dreht, überlegt sich ja wohl vorher, wie er‘s schneiden wird. Die einzige Hürde ist Planlosigkeit.

    BM ist übrigens aus dem Thema draußen, da ist ja egal ob man raw oder ProRes dreht, ändert nichts. Die verstehen sich als Cine-Kameras - und dass die wenigsten dafür auch die erforderlichen teuren Cine-Optiken nehmen, ist nicht das Problem von BM.

    Es geht um das freiwillige Umgehen der Objektivkorrektur bei Herstellern wie Sony oder Nikon, indem man unbedingt extern raw aufnehmen will. Die Begeisterung und das Verdrängen der Nachteile wundern mich halt.

    Space


    Antwort von pillepalle:

    @ Jott

    Mit planlos hat das wenig zu tun. Ich filme ja bisher in ProRes und da ist Resolve super. Musste aber letztes Jahr ein Filmprojekt über die Bühne bringen. Deshalb habe ich mir auch die Studio Version von Resolve geholt. Das Nikon RAW Feature gibt's ja erst seit gut einem Monat. Vorher hat sich die Frage nach RAW ja gar nicht ernsthaft gestellt. Wie gesagt, ist ein nettes Zusatzfeature und abhängig davon, was ich dafür für Umwege gehen muss, entscheide ich ob und wann ich es nutzen werde. Vielleicht geht's ja irgendwann auch mit meiner Lieblingssoftware, oder meine nächste Kamera wird eine ganz andere... Das schöne, wenn man wenig Geld in ein System investiert, ist ja das man es auch problemlos wechseln kann. Und meine Optiken, die teuer waren, lassen sich an quasi jede Kamera adaptieren.

    Und wie gesagt, wenn man nicht gerade an den Objektiven spart, sind die Bildfehler auch nicht wirklich ein Problem. Die CP3. Metadaten die es selbst für die Zeiss Cine-Optiken gibt, werden ja überwiegend im Special Effects Bereich genutzt, wo z.B. die Geometrie auch wirklich wichtig ist.

    VG

    Space


    Antwort von Darth Schneider:

    An Jott DA31BDDF-A572-4C58-A8B1-9817765B9F1A.png Da oben auf dem werbe Foto von Black Magic sind aber doch nicht nur teure Cine Objektive zu sehen, da gibt es auch einige günstige Fotolinsen..;)
    Gruss Boris

    Space


    Antwort von Cinealta 81:

    Jott hat geschrieben:
    Es geht um das freiwillige Umgehen der Objektivkorrektur bei Herstellern wie Sony oder Nikon, indem man unbedingt extern raw aufnehmen will. Die Begeisterung und das Verdrängen der Nachteile wundern mich halt.
    Die Problematik ist gar nicht neu. Seit Optiken adaptiert werden (ganz früher an GH4, oder Fremdoptiken an diversen anderen Kameras) hat man nicht bedacht, dass viele moderne Objektive durch die Kamera-Software korrigiert werden. Allerdings NICHT bei adaptierten Optiken, denn diese kommunizieren korrekturtechnisch in 99% der Fälle gar nicht mit der "Fremdgänger-Cam".

    Man muss fairerweise dazu sagen, dass es wohl eine moderne Unart der Hersteller ist, sich auf die kamerainterne Korrektur zu verlassen. Und das OBWOHL der Preis mancher Optik eigentlich eine saubere Bau- und Funktionsweise erfordern dürfte. Es scheint auf jeden Fall so zu sein, dass eine große Mehrheit der Konsumentenkäufer sich dafür gar nicht interessiert.

    Hauptsache "scharf" beim 200% Punch-In. Krumm und schief ist gar nicht so wichtig. Gradlinigkeit ist schon lange kein entscheidendes Kriterium mehr... ;-)

    Space


    Antwort von dienstag_01:

    Wir reden doch hier über RAW und ob das in der derzeitigen Form (RAW-Workflow) überhaupt was bringt. Erst wenn man das mit Ja beantworten kann, beginnt man doch über geeignete Objektive nachzudenken. Oder macht das irgend jemand umgekehrt: erst teures Objektiv kaufen, dann schauen, ob der Workflow überhaupt einen Mehrwert bringt.

    Space


    Antwort von pillepalle:

    @ dienstag

    Der Mehrwert sind offensichtlich die 12bit Farbe. Der Umweg der, das man zur Zeit nur wenige Programme damit nutzen kann.

    VG

    Space


    Antwort von Axel:

    Jott hat geschrieben:
    Die Workflow-Frage ist ja gelöst, insbesondere BM und Apple haben alle Hürden ausgeräumt. Das ist nicht der Punkt.
    Apple bis zu dem Punkt, an dem es heißt "Leben Sie - Wir kümmern uns um den Rest!". War das ein Sparkassen-Slogan? Jedenfalls spüre ich Orwell'sche Untertöne.

    Ausgehend von meinen o.e. Tests halte ich es für möglich bis wahrscheinlich, dass es egal ist, in welchem Farbraum ich arbeite, weil FCP automatisch konvertiert. Den Krampf mit Log-zu-709 LUTs habe ich mit Slog2 durch, inklusive angeblich maßgeschneiderter LUTs von Chapman. Mein Eindruck ist, dass ich manuell immer zu besseren Ergebnissen komme.

    Aber auch das brauche ich ja gar nicht mit Nikons PRAW. Wie wir gesehen haben, sagen alle: runter mit den Höhen, und danach Finger weg! Okay, okay, aber Raw war doch mal mit "mehr kreativen Möglichkeiten in der post" (iasi) untrennbar verknüpft, das nennt man wohl eine Philosophie ...

    Jedenfalls, maximal 12 Blendenstufen in PRAW, das schaffe ich mit der A6500 in Slog2 auch, locker. Ich habe damit *in Resolve* auch noch genügend Reserven und Spielraum, sofern ich mit Belichtung und Weißabgleich nicht völlig daneben gelegen habe bei der Aufnahme. Insofern ist die Z6-Ninja-Kombo in meinen Augen noch keine Cine-Kamera, wie es die BMs sind. Das Argument mit den Objektivkorrekturen ist zwar gut, aber es zählt nur halb, meiner Auffassung nach.
    pillepalle hat geschrieben:
    Das schöne, wenn man wenig Geld in ein System investiert, ist ja das man es auch problemlos wechseln kann. Und meine Optiken, die teuer waren, lassen sich an quasi jede Kamera adaptieren.
    Schätze, das stimmt ganz genau. Noch steht ein Jawdropper-Video aus, bei dem jemand an der Z6 mal keine Kitlens oder Gimmick-Scherbe (wie die weiter oben benutzte Sirui-Anamorph) benutzt, sondern Glas mit Klasse und Charakter! Auch, wenn das heißt Autofokus adé.

    Space


    Antwort von Funless:

    pillepalle hat geschrieben:
    Ich bin mir sicher in ein paar Jahren ist RAW auch im Consumer Bereich bei Video kein Thema mehr und recht selbstverständlich. So wie es heute schon bei Fotos ist.
    Und genau das wage ich ernsthaft zu bezweifeln.

    Ebenso finde ich den Vergleich mit RAW-Foto der von RAW-Video Befürwortern gerne herangezogen wird geradezu absurd (überspitzt formuliert), dann kann man auch genausogut Äpfel mit Ketchup vergleichen.

    Space


    Antwort von dienstag_01:

    Man muss sich auch klar machen, je mehr sich RAW in Richtung Consumer bewegt, umso weniger aussagekräftig wird das ganze. Verallgemeinernd kann man sagen, schön, dass sich dieses oder jenes Format im NLE bearbeiten lässt. Wie das aber genau läuft, bleibt undokumentiert. Wie sieht es z.B. mit der Verarbeitungstiefe von FCPX aus, ist das eine 32bit FP Engine? Oder die anderen NLE? Letztendlich sind das Editoren und keine Tools wie Resolve oder Baselight oder andere.

    Space


    Antwort von Axel:

    dienstag_01 hat geschrieben:
    Wie sieht es z.B. mit der Verarbeitungstiefe von FCPX aus, ist das eine 32bit FP Engine?
    Ausschließlich und von Anfang an. Hier liegt nicht die Beschränkung. Die Beschränkungen liegen in der Vereinfachung der Arbeitsabläufe, die nach dem Selbstverständnis von FCP ein Feature sind, kein Bug. Werkzeuge, die traditionell auf intuitive Bearbeitung mit sofortigem Feedback setzen und im Gegenzug aufwändigeres, feineres Grading eher erschweren. Auch ein tieferes Verständnis dafür, was man gerade macht. Über die tatsächliche Wirkungsweise der Farbwerkzeuge gibt es zum Beispiel wenig, das meiste deduktiv von Dritten erarbeitet. Sehen > Machen. Keine Differenzierung zwischen Lift, Gamma, Gain und Log, kein Pivot. Durch das Benutzer-Feedback hat Apple immer etwas nachgebessert, aber dabei bisher nicht Nägel mit Köpfen gemacht. Kommt auch drauf an, aus welcher Perspektive man es betrachtet. Was die beschriebenen Werkzeuge nämlich nicht ermutigen, ist, ein Bild kaputtzugraden, und man erzielt sehr schnell gefällige Ergebnisse.

    Space


    Antwort von Jott:

    "Cinealta 81" hat geschrieben:
    Hauptsache "scharf" beim 200% Punch-In. Krumm und schief ist gar nicht so wichtig. Gradlinigkeit ist schon lange kein entscheidendes Kriterium mehr... ;-)
    Wer Landschaft, Natur, Katzen und Blümchen filmt, der merkt das ja auch gar nicht. Nur wenn's etwas weitwinkliger wird (Innenaufnahmen) und wo überall gerade Linien sind (Fensterrahmen, Türen ...), wird's ernst. Bei Architektur im Bild sowieso. Die ersten Pocket 4k-Demoaufnahmen von BM (Leute in der Hochhaus-Wohnung) mit irgend einem mft-zoom sahen aus wie vor zwanzig Jahren mit Weitwinkelvorsatz.

    Hatte aber niemanden gestört. Darüber staune ich halt.

    Space


    Antwort von Frank Glencairn:

    Ich dreh jetzt seit erscheinen der ersten RED hauptsächlich raw - und ich glaub seit 2011 oder so nur noch.
    Und ehrlich gesagt möchte ich es nicht mehr missen, und ich seh auch aktuell keinen Grund nochmal irgendwas anderes zu nehmen.

    Was die Optiken betrifft macht ihr euch viel IMHO viel zu viel Gedanken.
    Ab 35 mm ist Verzeichnung sowieso kaum noch ein Thema, alles andere kann man durch einen Klick in Resolve so weit ausgleichen, daß es keine signifikante Rolle mehr spielt.

    Ich sehe immer mehr, daß mittlerweile für viele quasi ALLES zu schwer, zu umständlich, zu kompliziert, zu aufwändig, ne Zumutung etc. ist, und man quasi ALLES mit irgendeiner Automatik gelöst haben will. Ich kann mir nicht vorstellen, daß man damit weiter kommt und besser wird. Aber jedem das seine.

    Space


    Antwort von Jott:

    Du tust aber auch öfters mal kund, dass du kein Weitwinkel magst. Hilft natürlich! :-)

    Space


    Antwort von Frank Glencairn:

    Stimmt - von ein paar Ausnahmesituationen abgesehen, bin ich freiwillig selten auf weniger als 35mm.
    Allerdings bin ich trotzdem oft genug gezwungen, auf 21mm, 16mm oder 14mm zu arbeiten, wenn's halt nicht anders geht.

    Aber ich würde jetzt weder meine Objktiv- noch meine Kamerawahl davon abhängig machen.

    Space


    Antwort von Jott:

    Das hier meinte ich:

    https://www.youtube.com/watch?v=BHR023W ... atch_on_yt

    Da biegen sich die Balken wie Sau. Für den "Klick in Resolve" war wohl keine Zeit - obwohl das eine BM-Werbeclip ist! :-)

    Space


    Antwort von Frank Glencairn:

    Keine Ahnung warum die das nicht korrigiert haben.
    Wenn ich mich recht erinnere, war der Grund für die Wahl des Oly wohl der Stabilisator, damit John aus der Hand drehen konnte.
    Wobei Zooms ja immer nochmal problematischer sind als Festbrennweiten, was Verzerrungen angeht.

    Space


    Antwort von Jott:

    Ja, das Dumme ist nur, dass Zooms praktisch sind.

    Space


    Antwort von Frank Glencairn:

    Zielkonflikte :D

    Space


    Antwort von Jott:

    Die Aufnahmen sind ProRes, sehe ich gerade - das böse böse ProRes!
    Ist raw doch nicht lebenswichtig? Iasi dreht durch, wenn er das sieht.

    Space


    Antwort von Cinealta 81:

    "Frank Glencairn" hat geschrieben:
    Allerdings bin ich trotzdem oft genug gezwungen, auf 21mm, 16mm oder 14mm zu arbeiten, wenn's halt nicht anders geht.
    Darf man fragen, welche Optik(en) Sie gerade für 14mm verwenden?

    Wir verwenden oftmals beispielsweise die Laowa 12mm Zero D (Nikon Version) an FF und sind insgesamt sehr zufrieden mit dem Preis-Leistungs-Verhältnis, auch hinsichtlich Größe/Kompaktheit.

    Space


    Antwort von Frank Glencairn:

    Samyang 14mm T3.1 Cine

    Space


    Antwort von Kanaloa:

    Hallo, das Thema ist zwar etwas verstaubt, nach den Entwicklungen in den letzten Monaten bin ich von der Pionier Idee dieser Kombo ziemlich enttäuscht:
    Schärfe: es gibt Videos und Berichte (und es wurde mir auch vom Atomos Support bestätigt) dass bei ProRes RAW mittels Pixelbinning auf 4K reduziert wird. Ergibt ein weniger scharfes Bild und Farbsäume.
    Nachbearbeitung/Metadaten: FCPX und Assimalte Scratch ermöglichen mittlerweile die Bearbeitung von Weißabgleich und ISO der raw Daten. Da gibt es auch eine Tabelle von Apple: geht nicht mit den Nikons.
    Eine perfekte Lösung wäre ein FW Update mit 1:1 5.9k readout und der Implementierung der erweiterten raw Funktionen.
    Haltet ihr das für wahrscheinlich?

    Space


    Antwort von pillepalle:

    WB und ISO kann man in Scratch einstellen. Farbsäume hatte ich bisher auch noch keine. Klar, das Pixelbinning ist nicht ideal, in der Praxis aber auch nicht so schlimm. Ein paar Dinge werden sich mit der Zeit sicher noch verbessern und weiter entwickeln. Warte einfach noch ein Jahr. Neue Formate brauchen ihre Zeit um Anwenderfreundlicher zu werden.

    VG

    PS: 5.9K readout wäre schön, kommt aber sicher nicht per Firmware Upgrade. Vielleicht in einem späteren Modell

    Space


    Antwort von Kanaloa:

    Wirklich? Ich bin mir nicht sicher ob ich das letzte FW Update der Nikon gemacht habe.
    Wenn ich die Clips in Assimilate öffne dann gibt es keine Metadaten für WB und ISO.
    In den RAW Settings steht immer eine WB von 5600 und eine ISO von 800, ungeachtet der Kamera Einstellungen.
    Funktioniert das bei dir anders?
    FCPX unterstützt die Nikons minimal:
    https://support.apple.com/en-us/HT211277

    Bg

    Space


    Antwort von pillepalle:

    Ja, ist bei mir auch so, weil entweder der Ninja, oder die Kamera, die Metadaten nicht weiter gibt. Die Software nimmt dann einfach zwei Standardwerte von denen sie ausgeht. Man kann die ISO und WB aber trotzdem ändern, so wie bei jeder anderen Kamera, nur die Werte die angezeigt werden stimmen eben nicht. Wenn man weiss wo man hin möchte ist das aber nicht weiter schlimm. Du stellst Dein Bild doch sowieso so ein wie Du es haben möchtest. Für mich macht es die Arbeit viel einfacher, wenn ich den Weiss Punkt mit WB und Tint leicht ändern kann, so wie in jedem anderen Raw Konverter. Wäre natürlich schön, wenn die das irgendwann mal fixen.

    VG

    Space


    Antwort von Kanaloa:

    Würde es eben sehr praktisch finden wenn man mit absoluten Werten arbeiten kann.
    Und wenn man die Apple Liste betrachtet dann ist die Z6 als einstmaliger Vorreiter weit nach hinten gefallen.
    Bei allen Panasonic’s werden die Sensoren voll ausgelesen und die Daten komplett übernommen.
    Denke da hinkt Nikon hinterher.

    Space


    Antwort von pillepalle:

    Klar hinken die da hinterher. Sind ja auch die ersten ernst zu nehmenden Kameras für Video bei Nikon. Und dazu noch die ersten DSLMs. Da braucht es für die ein oder andere Sache etwas mehr Geduld. Panasonic, Canon, oder Sony haben im Filmbereich viel mehr Erfahrung die sie auch in ihre DSLMs einfließen lassen können. Ich finde deren Debut jedenfalls sehr gelungen. Sie müssen eben nur weitermachen und den Videobereich langfristig nicht stiefmütterlich behandeln wie zu früheren Zeiten.

    VG

    Space


    Antwort von cantsin:

    pillepalle hat geschrieben:
    Sie müssen eben nur weitermachen und den Videobereich langfristig nicht stiefmütterlich behandeln wie zu früheren Zeiten.
    Lustigerweise war Nikon mit der D90 der erste Hersteller einer videofähigen DSLR (und bezahlbaren Großsensor-Videokamera) überhaupt, denn die D90 kam noch vor der Canon 5D MkII 'raus (mit 720p-Video in Motion-JPEG).

    Beide Kameras konnten anfangs AFAIK im Videomodus nur 30p, und Blende und ISO gingen ebenfalls nur automatisch. Darum setzte damals der Run auf gebrauchte DSLR-Objektive mit manueller Fokussierung ein, weil man mit deren Blendenring zumindest die automatische Blendensteuerung aushebeln konnte. Ich hatte damals mit der D90 aufs falsche Pferd gesetzt, weil Canon wenig später für die 5D Firmware-Updates mit manueller Belichtungssteuerung, 24p/25p und flachen Bildprofilen nachschob, und dann noch die 7D und 550D als preiswertere APS-C-Bodies mit denselben Videofunktionen.

    Für die D90 gab es nie Firmwareupdates mit Funktionsverbesserungen, und Nikon behandelte dann bis zur Z6 - also fast ein Jahrzehnt lang - das ganze Thema Video stiefmütterlich.

    (Aus der Zeit habe ich immerhin noch einen kompletten Satz Nikkor Ai-s-Objektive von 24 bis 180mm. Und Erinnerungen an mit Ach und Krach und Bedienungstricks auf der D90 gedrehten - und mit Cinelerra unter Linux geschnittenen - Videos wie diesem hier:)

    https://vimeo.com/5384737

    Space


    Noch was unklar? Dann in unserem Forum nachfragen
    Zum Original-Thread / Zum Nikon Z6 (II) / Z7 (II) / Z9 ...-Forum

    Antworten zu ähnlichen Fragen //


    ProRes RAW vs Nikon N-Log Hauttöne im Vergleich - Nikon Z6 und Atomos Ninja V in der Praxis
    Atomos Ninja V/Ninja V+ plus Canon EOS R5 C: ProRes RAW Aufnahme mit bis zu 8K 30fps
    Atomos Ninja V/Ninja V+ Update ermöglicht Canon EOS R5 C ProRes RAW mit bis zu 8K 30fps
    Neue Nikon Z7 II nimmt mit Atomos Ninja 4Kp30 ProRes RAW auf - gegen Aufpreis
    Nikon Z6 mit Atomos Ninja ProRes RAW
    Nikon 10 Bit N-Log 3D LUT für Nikon Z6 u. Z7 zum freien Download da - ProRes RAW kostenpflichtig
    Neue Ninja V Firmware AtomOS 10.64 bringt Support für ProRes RAW Metadaten der Sony Alpha 7SIII
    Panasonic GH6 Firmware 2.0: 120 fps ProRes RAW mit Ninja V+, mehr internes ProRes und mehr...
    Fujifilm GFX100 unterstützt externe ProRes RAW Aufnahmen mit Atomos Ninja V
    Atomos Ninja V Firmware Update ermöglicht ProRes RAW Aufnahme mit Z CAM E2
    Canon EOS R5 ohne Hitzelimit bei 8K 25p und 5K 50p ProRes RAW mit dem ATOMOS Ninja V+ ?
    Atomos Ninja: Akkufresser ProRes RAW mit GH5s??
    Atomos Ninja V(+) kaufen und ProRes RAW mit kostemlosen Assimilate Play Pro am PC umwandeln
    Atomos Ninja V wird ProRes RAW in 6K aufzeichnen -- Preissenkung für Shinobi // IBC 2019
    Z CAM E2 wird ProRes RAW-fähig Dank Atomos Ninja V
    Nachtrag: Sony A7S III + Atomos Ninja V = 12bit ProRes RAW Aufzeichnung
    Atomos Ninja V: ProRes RAW für Fujifilm GFX100 und SIGMA fp
    Sony A7S III - Atomos Ninja V Update für ProRes RAW Aufzeichnung ist da




    slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
    RSS Suche YouTube Facebook Twitter slashCAM-Slash