Logo Logo
/// 

Nikon RAW-Ausgabe für Z6 und Z7 ist jetzt verfügbar!



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Mit dem Upgrade der Firmware-Version 2.20 stellt Nikon ab heute die Videoausgabe im RAW-Format für die spiegellosen Vollformatkameras Z 7 und Z 6 bereit. Allerdings ist e...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Nikon RAW-Ausgabe für Z6 und Z7 ist jetzt verfügbar!




Antwort von cantsin:

Tja, das verheisst auch nichts gutes für das geplante ProResProRes im Glossar erklärt Raw-Firmware-Upgrade der Sigma fp: Wenn schon bei der Z6/Z7 auf 4K Raw runtergesampelt wird, wird es bei der fp wahrscheinlich ebenso laufen, und wird ProResProRes im Glossar erklärt Raw in dieser Hinsicht keine Vorteile ggü. der bestehenden CinemaDNG-Aufzeichnung bringen.

Schade, dass runterskaliertes "RAW" jetzt scheinbar zum Industriestandard wird...

@Slashcam, diesen thread hier vielleicht mit diesem zusammenführen: viewtopic.php?f=2&t=146508&p=1021195#p1021195



Antwort von Borke:

Ich stelle mir immer wieder die Frage was für eine Pappnase in deren Marketingabteilung steckt? Wie kann man ein RAW-Showreel nur in HD auf Youtube anbieten? Mal abgesehen davon, daß man lange Szenen sehen wollen würde, um einen echten Eindruck zu bekommen, wie gut oder schlecht RAW nun auf Z6/Z7 aussehen.








Antwort von Darth Schneider:

Sehe ich jetzt nicht so drastisch, raw ist in 4K nicht mehr raw als in HD und auf YouTube spielt das doch eh keine Rolle...
Komisch finde ich eher, das mit dem bringen zum Servicepoint und das man nochmal 200€ mehr bezahlen muss.;) Abgesehen davon den Ninja kommt ja dann auch noch dazu...Bei BMD geht das filmen mit Raw intern, auf SD Karten und kostet keinen Cent mehr als wenn man mit ProResProRes im Glossar erklärt filmt und die Updates sind gratis, mitsamt der Software.
Wenn ich Nikon wäre wäre ich nicht so optimistisch was die Verkaufszahlen anbelangt, vielleicht werden die Kameras für Fotografen ein Hit, aber für Filmer, denke ich eher weniger.
GrussBoris



Antwort von iasi:

2700€ für den Z6 Essential Movie Kit

Nicht schlecht - vor allem für Leute mit Nikon-Linsen.



Antwort von -paleface-:

Warum soll die kein Hit werden?
Ist die erste richtige Nikon RAW Kamera.

Da lecken sich bestimmt viele die Finger nach.

Mit dem Firmware Update ist aber wirklich kompliziert. Vermutlich Angst vor Jailbreak.



Antwort von Paralkar:

Raw und runterskalieren,

Genau erstes Nikon Raw....



Antwort von Axel:

Was soll‘s mit dem Runterskalieren? Ist im Grunde halt 12-bit bei akzeptablen Datenraten, ist ja bei BRAW nicht anders. Und dass 6k > 4k eine Vorbehandlung voraussetzt ist klar, aber auch, dass es sehr sauber geht. Man soll es mit dem Purismus nicht übertreiben.



Antwort von MrMeeseeks:

Werte Slashcam Redaktion, könnte man die Z6 mal mit sem Update testen?

Den ganzen Youtube-Pappnasen kann man echt nicht mehr glauben. (da wird sicher viel Müll die Wochen erscheinen).



Antwort von rob:

Hallo M.

wir sind auch schon gespannt darauf -
es wird auf jeden Fall demnächst einen Z6 - ProResProRes im Glossar erklärt RAW Test auf slashCAM geben ...

Viele Grüße

Rob/
slashCAM



Antwort von cantsin:


Was soll‘s mit dem Runterskalieren? Ist im Grunde halt 12-bit bei akzeptablen Datenraten, ist ja bei BRAW nicht anders.

Deine Argumentation verstehe ich nicht ganz - BRAW ist nicht skaliert, sondern immer in der Sensorauflösung aufgezeichnet.



Antwort von rush:


Warum soll die kein Hit werden?
Ist die erste richtige Nikon RAW Kamera.

Da lecken sich bestimmt viele die Finger nach.

Mit dem Firmware Update ist aber wirklich kompliziert. Vermutlich Angst vor Jailbreak.

Ein Hit wäre es bei interner Aufzeichnung geworden.

Dieses Ninja-Gedöns hält sicherlich einige Nutzer auch wieder davon ab zuzugreifen.

Und dann auch noch die Kamera einschicken?

Kann man nur hoffen das Nikon als auch Atomos neu verkauften Kameras möglichst die passenden Updates einbaut sodass man das ganze nach Zahlung von 200 Tacken wenigstens ohne einschicken "freischalten" kann...
Muss man den Ninja ebenfalls einschicken? ;)

Naja - mal gucken was die Early Birder so berichten werden... ich lehne mich mal entspannt zurück und beobachte.
Aber wurde ja auch wirklich mal Zeit das sie in die Puschen kommen...








Antwort von MrMeeseeks:



Warum soll die kein Hit werden?
Ist die erste richtige Nikon RAW Kamera.

Da lecken sich bestimmt viele die Finger nach.

Mit dem Firmware Update ist aber wirklich kompliziert. Vermutlich Angst vor Jailbreak.

Ein Hit wäre es bei interner Aufzeichnung gewesen.

Ja bei Speicherkarten die 10-15x !!!!!! so teuer sind die wie der SSD Speicher eines Atomos Ninja V.

Ein echter Hit.



Antwort von rush:

Im Fall der Z6 mag das ja mit den "teuren" Karten so sein sein - BMD aber zeigt doch bspw. das man selbst auf moderaten und wirklich bezahlbaren SD Karten bereits RAW wegschreiben kann... die Möglichkeit einer externen SSD via USB hat man on top dann immernoch.

Nikon zwingt einem die Ninja V Lösung quasi mit auf - die vermeintlich "gesparten" Euro für den Monitor holt man sich dann über das Bezahlupdate wieder hinten herum rein. Schon etwas merkwürdig - aber wenn's optisch hinhaut und passt werden sicherlich einige drauf anspringen... die bisher schon den Ninja erworben haben sowieso.



Antwort von didah:

finds schade, dass das nur mim ninjav geht. klar is der für die größe der z6 perfekt, aber ein shogun inferno kann ja auch prores raw aufzeichen.... nu anscheined nicht das der nikon... hmpf...



Antwort von roki100:


Hallo M.

wir sind auch schon gespannt darauf -
es wird auf jeden Fall demnächst einen Z6 - ProResProRes im Glossar erklärt RAW Test auf slashCAM geben ...

Viele Grüße

Rob/
slashCAM

Interessant wäre dann zu wissen, ob RAW tatsächlich RAW ist und nicht nur 12Bit oderso. Google suche findet wenig und das was man findet handelt von Streitereien und "BRAW is better, it's amazing and blablabla" usw. usf. aber keine klare/sachliche Bestätigung darüber, ob WB/ColorTemp & Co. doch nicht etwa eingebacken ist? Allein die frage darüber löst bei einigen komische Reaktion aus (wahrscheinlich auch hier und jetzt... hoffentlich nicht). ;)



Antwort von Jott:

Du musst nur statt "im Netz" bei Apple im Whitepaper nachlesen, dann weißt du, wie es funktioniert. Ganz sachlich.



Antwort von Darth Schneider:

An Roki100
...Also die 4K Pocket kann man ja schon mieten, für irgend ein Hunderter proTag. Dann kannst du mindestens das BRaw selber austesten und selber mit deinen Augen vergleichen, Bei ProResProRes im Glossar erklärt RAW weiss ich auch nicht ob die Kameras schon beim Verleiher sind.
Alles andere ist doch Spekulation.
SlashCAM hat ja auch noch nicht mal das BRaw der neuen 4/6K Pockets getestet......(nur im Bezug auf die Ursa Mini Pro) also selbst wenn die jetzt ProResProRes im Glossar erklärt RAW testen hast du dann nicht wirklich ein für dich relevanten Vergleich zu den anderen neuen RAW Formaten...;))
Gruss Boris



Antwort von cantsin:

ProRes Raw ist ein kompromiertes undebayertes Aufzeichnungsverfahren mit bis zu 12bit Farbtiefe. Mehr muss man eigentlich nicht wissen bzw. hängt von der Nachbearbeitungssoftware ab.



Antwort von Axel:


ProRes Raw ist ein kompromiertes undebayertes Aufzeichnungsverfahren mit bis zu 12bit Farbtiefe. Mehr muss man eigentlich nicht wissen bzw. hängt von der Nachbearbeitungssoftware ab.

Naja, man möchte‘s schon wissen, aus akademischer Neugier. Zum Beispiel in Bezug auf das Downsampling von 8 bzw. 6k auf 4k. Das widerspricht dem Laienverständnis von rohen Pixeldaten. Hier sagte weiland WoWu immer, ach, bei Raw kocht doch eh jeder Hersteller sein eigenes Süppchen. Aber ganz offensichtlich gibt es zwischen Wasser, Salz, Sellerie, Liebstöckl und einem Maggiwürfel noch viele gangbare Kompromisse.

Was ich weiter oben sagen wollte ist, es ist mir persönlich egal, ob getrickst wird, solange das Ergebnis überzeugt.



Antwort von cantsin:


Naja, man möchte‘s schon wissen, aus akademischer Neugier. Zum Beispiel in Bezug auf das Downsampling von 8 bzw. 6k auf 4k.

Das macht aber nicht ProResProRes im Glossar erklärt Raw, sondern die Kamera/der externe Recorder.

Auch CinemaDNG kann ja runterskaliert aufgezeichnet werden, wie bei der Sigma fp oder MagicLantern, ohne dass das irgendein Feature des Formats ist.

CinemaDNG und ProResProRes im Glossar erklärt RAW sind nur zwei verschiedene Container, mit jeweils eigenen möglichen Kompressionsverfahren, für undebayerte Videodaten.








Antwort von Jott:

Getrickst wird in der Kamera. Der ProResProRes im Glossar erklärt raw-Recorder zeichnet halt das gelieferte nicht de-bayerte raw-Signal auf und hat keine Ahnung davon, ob das in der Kamera skaliert wurde oder nicht, und wenn, dann wie.

Gibt es wirklich Leute, die von solchen Fragen um den Schlaf gebracht werden?

Ups, Cantsin war schneller.



Antwort von Axel:



Naja, man möchte‘s schon wissen, aus akademischer Neugier. Zum Beispiel in Bezug auf das Downsampling von 8 bzw. 6k auf 4k.

Das macht aber nicht ProResProRes im Glossar erklärt Raw, sondern die Kamera/der externe Recorder.

Auch CinemaDNG kann ja runterskaliert aufgezeichnet werden, wie bei der Sigma fp oder MagicLantern, ohne dass das irgendein Feature des Formats ist.

Bei der Sigma fp, wenn ich das richtig mitbekommen habe, bisher mit Artefakten. Aber wenn es gut gemacht ist (wer macht es? schon die Nikon oder erst der Ninja?), kann das dann nicht sogar ein Vorteil sein? Das Debayern ist doch bei 1:1 Auflösung nicht sauber möglich, oder wie ist das? Nicht, dass ich ein Auflösungs-Pixelpeeper wäre, aber das CDNG der alten Pocket war für mich wegen unübersehbaren Moirés dem matschigeren ProResProRes im Glossar erklärt unterlegen. Ich las auch von ("partially debayered" - Grant Petty) BRAW, dass es, obwohl "weicher", im Grunde von vielen gegenüber CDNG bevorzugt wird. Schonend vorgekocht.



Antwort von rush:


Getrickst wird in der Kamera. Der ProResProRes im Glossar erklärt raw-Recorder zeichnet halt das gelieferte nicht de-bayerte raw-Signal auf und hat keine Ahnung davon, ob das in der Kamera skaliert wurde oder nicht, und wenn, dann wie.

Gibt es wirklich Leute, die von solchen Fragen um den Schlaf gebracht werden?

Ups, Cantsin war schneller.

Um den Schlaf bringt es vermutlich keinen - außer vielleicht einige Nikon Nutzer.

Aber dennoch darf man sicherlich und auch berechtigterweise die Frage in den Raum stellen ob es sinnvoll ist bereits vorher zu skalieren wenn man im Zusammenhang von "RAW" sunterwegs ist bzw. das als Merkmal herausstellt.... das dies erst einmal nicht unbedingt ProResProRes im Glossar erklärt RAW tangiert weil es darin am Ende nur transportiert wird ist dabei eher nebensächlich.
Abzuwarten bleibt wie gut das Downsampling dann entsprechend funzt und was am Ende dabei herauskommt. Sony zeigt ja durchaus das internes skalieren von 6k auf 4k ziemlich gut funkionieren kann - wenn man das dann noch sauber in 12Bit als quasi-RAW transportiert bekommt - warum nicht. Warum man dazu dann aber überhaupt erst extern gehen muss und das ganze nicht direkt intern zulässt entbehrt sich weiterhin meinem Verständnis - zumal man die neueren, schnellen Speicherkarten ja ebenfalls zu unterstützen scheint... 12Bit 4k Pro Res RAW sollte damit doch locker drin sein - oder sind das dann eher wieder lizenzrechtliche Fragestellungen die Nikon über den externen Atomos Weg zu umgehen versucht?



Antwort von Jott:

aber das CDNG der alten Pocket war für mich wegen unübersehbaren Moirés dem matschigeren ProResProRes im Glossar erklärt unterlegen

Aufschrei: Roki!



Antwort von pillepalle:

Habe gerade soviel zu tun das ich das RAW Upgrade fast verpennt hätte. Konnte es mir dann aber doch nicht nehmen lassen und bin kurz bei Nikon vorbei. Na ja, kurz ist relativ. Das dauert eine knappe Stunde und ich warte gerade auf die Kamera.
Habe vermutlich erst zum Wochenende Zeit damit etwas rum zu spielen. Irgendwelche Blumentöpfe in RAW Filmen macht eh keinen Sinn :)

VG



Antwort von Funless:


Habe vermutlich erst zum Wochenende Zeit damit etwas rum zu spielen. Irgendwelche Blumentöpfe in RAW Filmen macht eh keinen Sinn :)

VG

Na du wirst ja wohl'ne Katze haben.



Antwort von pillepalle:


Na du wirst ja wohl'ne Katze haben.

Nicht mal das 😂 Aber ich schaue mal. Muss eigentlich noch was fertig schneiden, aber falls es mich zu sehr in den Finger juckt mache ich nacher ein paar phantastische Aufnahmen vom Hinterhof... oder so.

VG



Antwort von roki100:

ich habe mich schon gewundert warum pillepalle sich hier nicht gemeldet hat...aber anscheint ist er sofort zu Nikon marschiert und hatte keine Zeit. ;)



Antwort von roki100:


An Roki100
...Also die 4K Pocket kann man ja schon mieten, für irgend ein Hunderter proTag. Dann kannst du mindestens das BRaw selber austesten und selber mit deinen Augen vergleichen, Bei ProResProRes im Glossar erklärt RAW weiss ich auch nicht ob die Kameras schon beim Verleiher sind.

Für das Geld hol ich mir lieber eine gute Helios Linse ;)

SlashCAM hat ja auch noch nicht mal das BRaw der neuen 4/6K Pockets getestet......

Ja siehe: viewtopic.php?f=3&t=143064&start=35#p1015996 bzw. SlasCam wusste (wie die meisten) nicht, dass bei CDNG eine weitere Korrektur nötig ist (Pan und Tilt auf 0.500).








Antwort von CameraRick:


SlashCAM hat ja auch noch nicht mal das BRaw der neuen 4/6K Pockets getestet......

Ja siehe: viewtopic.php?f=3&t=143064&start=35#p1015996 bzw. SlasCam wusste (wie die meisten) nicht, dass bei CDNG eine weitere Korrektur nötig ist (Pan und Tilt auf 0.500).

Da Resolve in Relationen arbeitet wäre eine Info über Timeline-Größe aber auch nicht verkehrt. Wenn es ein Verschieben um Halbpixel-Werte darstellt interpoliert man zwangsläufig das Bild neu; da ist mit bloßem Auge selten ein Schärfeverlust, zu viel machen würde ich das aber auch nicht. Gerade weil Resolve uns mit seinen Begrifflichkeiten "sharper" usw nicht erzählt, welche Transformationsfilter da eigentlich greifen.



Antwort von pillepalle:

Habe gerade nur mal einen kleinen Funktionstest gemacht und alles läuft wie es soll. Da mein Premiere Abo abgelaufen ist, habe ich mir eine Demo Version von Edius herunter geladen, habe aber gerade keine Zeit mich damit zu beschäftigen und bin ziemlich planlos wie die Software funktioniert. Immerhin habe ich die Scopes gefunden und ein paar Screenshots gemacht. Sind vielleicht nicht besonders hilfreich, zeigen aber ganz gut die Unterschiede zwischen der RAW und der Log Datei. So sehen die 'out of cam' aus. Wer genau hinschaut dem wird auffallen das die RAW Datei einen minimal größeren Bildausschnitt hat, also echtes Vollformat ist. Die 10bit Dateien waren ja immer minimal beschnitten. Die Dateigröße ist je nach komprimierung 3 bis 6 mal größer als 10bit Prores. Auf einer 1TB SSD zeigt der Recorder 55 min Restzeit an. Zum Vergleich dazu in Prores 422 HQ 2Std 48 min und in Prores 422 5 Std. 30 Min.

zum Bild http://giotta.com/scopes.jpg

zum Bild http://giotta.com/prores_raw.jpg

VG



Antwort von roki100:

@pillepalle

wenn Premiere bei dir wieder läuft, wäre es gut wenn Du folgendes mal testen könntest:
1. in der Kamera falsche ColorTemp Werte setzen (so um 2000 +/-). Dann einmal in ProResProRes im Glossar erklärt RAW und in ProResProRes im Glossar erklärt HQ aufnehmen. Dann in Resolve das Ganze versuchen zu korrigieren und schauen ob es ein unterschied zwischen das eine(ProRes RAW) und das andere(ProRes) FormatFormat im Glossar erklärt gibt.

2. in der Kamera niedrigen ISO Wert einstellen (vll. - 200 oder -400) und einmal in ProResProRes im Glossar erklärt RAW und in ProResProRes im Glossar erklärt HQ aufnehmen. Dann in Resolve mit Gain (weil ProResProRes im Glossar erklärt RAW scheinbar keine RAW Optionen hat, wie z.B. nachträgliche ISO Änderung, daher Gain...) das ganze versuchen zu wiederherstellen, und schauen ob sich ProResProRes im Glossar erklärt RAW da anders verhält als das normale ProRes.

Danke im Voraus!



Antwort von roki100:



Ja siehe: viewtopic.php?f=3&t=143064&start=35#p1015996 bzw. SlasCam wusste (wie die meisten) nicht, dass bei CDNG eine weitere Korrektur nötig ist (Pan und Tilt auf 0.500).

Da Resolve in Relationen arbeitet wäre eine Info über Timeline-Größe aber auch nicht verkehrt.

Die TimelineTimeline im Glossar erklärt ist auf 1080p1080p im Glossar erklärt eingestellt.

Wenn es ein Verschieben um Halbpixel-Werte darstellt interpoliert man zwangsläufig das Bild neu; da ist mit bloßem Auge selten ein Schärfeverlust, zu viel machen würde ich das aber auch nicht.
Ich habe es genau untersucht, an der Schärfe wird nichts verändert und mehr als 0.500 bringt nichts. Es ist exakt 0.500 (Pan und Tilt) was die ArtefakteArtefakte im Glossar erklärt verschwinden lässt.



Antwort von pillepalle:

@ roki100

Ja, ich benutze ja eigentlich Resolve, deshalb bin ich gar nicht so scharf auf ein Premiere Abo :) Ich werde mal was filmen wenn ich etwas mehr Zeit und Ruhe habe und mir das in Ruhe anschauen, denke aber das der RAW Workflow bei mir eher ausnahmsweise eingesetzt werden wird. Vielleicht hat man etwas mehr Dynamik (die Schatten haben in der RAW Aufnahme noch mehr Luft nach unten) und mehr Möglichkeiten bei extremem Grading, aber wenn ich deshalb eine andere Software nutzen muss, ist das für mich erstmal ein zusätzlicher Mehraufwand (einfach weil ich dann zwei Programme beherrschen muss). Kann das mit dem verhauenen WeißabgleichWeißabgleich im Glossar erklärt aber gerne mal für Dich ausprobieren. Für mich ist das mehr eine nette Dreingabe die eine ohnehin schon gute Kamera noch etwas besser macht. Wenn ich meine Doku in RAW gedreht hätte, dann lägen jetzt statt 8TB 24-30TB auf meinen Festplatten. Ist immer auch eine praktische Frage.

Es gibt auch schon RAW Videos Online...

https://www.youtube.com/watch?v=0O-MSeLEu0o

VG



Antwort von roki100:

@pillepalle
Ich denke da wie iasi, warum auf etwas besseres Verzichten? Da würde ich sogar die Software ersetzen und mich da neu einarbeiten wenn es sein muss.

Hoffentlich gibt es bald ProResProRes im Glossar erklärt RAW für BMD DR.



Antwort von rush:

Warum dann überhaupt 200€ investieren wenn man eigentlich gar nicht plant damit zu arbeiten? Interessante Ansicht.

Das RAW mehr Speicherplatz frisst war/ist doch vorher bekannt....

Dennoch viel Spaß beim ausprobieren.

PS. Macht es Sinn ein Log Profil mit einem RAW Bild zu vergleichen?



Antwort von roki100:


PS. Macht es Sinn ein Log Profil mit einem RAW Bild zu vergleichen?

Ja, vor allem um zu sehen ob RAW das ist was es eigentlich sein sollte: unabhängig von Kamera Einstellungen, die nachträgliche Korrektur (ISO, WB/ColorTemp...)



Antwort von pillepalle:

@ rush

Ich habe ja nicht gesagt das ich gar nicht vor habe in RAW zu drehen, aber ich habe vor es nur einzusetzen wenn ich es auch wirklich brauche. Also z.B. wenn es wirklich mal schwierige Bedingungen sind, oder ein potentieller Kunde das möchte usw. Für mich ist das wie mit Kanonen auf Spatzen schießen. Wenn ich das auch in 10 bit ProResProRes im Glossar erklärt problemlos hinbekomme, warum dann RAW verwenden? Nicht alles was ich mache ist große Kunst oder sind Meisterwerke :D

VG








Antwort von roki100:

Wieso der Kunde? Du hast es doch leichter. Unabhängig jetzt von 12Bit, das entscheidende ist doch, dass Du beim dreh dich nicht um WB/ColorTemp, ISO & Co. kümmern musst...das geschieht dann alles nachträglich. Darum RAW.



Antwort von pillepalle:

@ roki

Klar, aber meine Lieblingssoftware nicht verwenden zu können, oder transcodieren zu müssen ist auch ein Argument. Habe ehrlich gesagt diese Jahr noch nie ernsthafte Probleme mit der Farbtemperatur, oder der ISO Einstelung gehabt. Das ist ein Knopfdruck. Wie gesagt, RAW ist einfach eine Option mehr die man hat. Vielleicht bin ich ja bald so begeistert davon das ich das tatsächlich häufiger benutze. Aber ich sehe das pragmatisch.

VG



Antwort von iasi:


@ rush

Ich habe ja nicht gesagt das ich gar nicht vor habe in RAW zu drehen, aber ich habe vor es nur einzusetzen wenn ich es auch wirklich brauche. Also z.B. wenn es wirklich mal schwierige Bedingungen sind, oder ein potentieller Kunde das möchte usw. Für mich ist das wie mit Kanonen auf Spatzen schießen. Wenn ich das auch in 10 bit ProResProRes im Glossar erklärt problemlos hinbekomme, warum dann RAW verwenden? Nicht alles was ich mache ist große Kunst oder sind Meisterwerke :D

VG

Wenn das Material eh in den Besitz des Kunden übergeht und/oder dieser die Raw-Vorteile gar nicht erwartet bzw. das Ergebnis nur kurzzeitig genutzt wird, lohnt Raw eher nicht.



Antwort von iasi:


Wieso der Kunde? Du hast es doch leichter. Unabhängig jetzt von 12Bit, das entscheidende ist doch, dass Du beim dreh dich nicht um WB/ColorTemp, ISO & Co. kümmern musst...das geschieht dann alles nachträglich. Darum RAW.

Es ist aber eben doch ein zusätzlicher Aufwand, will man die Raw-Vorteile nutzen.
Nicht immer lohnt sich dieser Aufwand.



Antwort von pillepalle:


Wenn das Material eh in den Besitz des Kunden übergeht und/oder dieser die Raw-Vorteile gar nicht erwartet bzw. das Ergebnis nur kurzzeitig genutzt wird, lohnt Raw eher nicht.

Na ja, ich weiß ja nicht wie ihr das handhabt, aber bei mir geht keine RAW Datei in den Besitz des Kunden über. Wäre ja noch schöner :) Der bekommt noch nicht mal das gesamte Material sondern immer nur eine Auswahl und die Nutzungrechte, je nachdem was ausgehandelt wurde. Das ist wie halbfertige Sachen abgeben.

VG



Antwort von roki100:



Wieso der Kunde? Du hast es doch leichter. Unabhängig jetzt von 12Bit, das entscheidende ist doch, dass Du beim dreh dich nicht um WB/ColorTemp, ISO & Co. kümmern musst...das geschieht dann alles nachträglich. Darum RAW.

Es ist aber eben doch ein zusätzlicher Aufwand, will man die Raw-Vorteile nutzen.
Nicht immer lohnt sich dieser Aufwand.

ich weiß nicht, wenn ich allein daran denke, dass ich mehrere male bei ETTR + ProResProRes im Glossar erklärt doch nicht perfekt belichtet habe und nachträglich das überbelichtete doch nicht mehr zu retten war, da war ich froh darüber, dass ich CDNG Files hatte (ProRes mit BM VA. aufgenommen und CDNG Kameraintern)...denn damit konnte ich die Highlights runterziehen (Highlight Recovery) und alles war gut.

Gut, man weiß nachträglich, dass man für ETTR+ProRes die Zebras um +5% erhöhen sollte... Dennoch, wäre Kameramann mein Job, würde ich RAW immer bevorzugen.



Antwort von iasi:



Wenn das Material eh in den Besitz des Kunden übergeht und/oder dieser die Raw-Vorteile gar nicht erwartet bzw. das Ergebnis nur kurzzeitig genutzt wird, lohnt Raw eher nicht.

Na ja, ich weiß ja nicht wie ihr das handhabt, aber bei mir geht keine RAW Datei in den Besitz des Kunden über. Wäre ja noch schöner :) Der bekommt noch nicht mal das gesamte Material sondern immer nur eine Auswahl und die Nutzungrechte, je nachdem was ausgehandelt wurde. Das ist wie halbfertige Sachen abgeben.

VG

Na ja - die Inhalte sind meist nicht einfach nutzbar für andere Zwecke.
Eine Firma wird dich z.B. nicht einfach Aufnahmen von den Werkhallen für andere Projekte nutzen lassen.



Antwort von iasi:



Es ist aber eben doch ein zusätzlicher Aufwand, will man die Raw-Vorteile nutzen.
Nicht immer lohnt sich dieser Aufwand.

ich weiß nicht, wenn ich allein daran denke, dass ich mehrere male bei ETTR + ProResProRes im Glossar erklärt doch nicht perfekt belichtet habe und nachträglich das überbelichtete doch nicht mehr zu retten war, da war ich froh darüber, dass ich CDNG Files hatte (ProRes mit BM VA. aufgenommen und CDNG Kameraintern)...denn damit konnte ich die Highlights runterziehen (Highlight Recovery) und alles war gut.

Gut, man weiß nachträglich, dass man für ETTR+ProRes die Zebras um +5% erhöhen sollte... Dennoch, wäre Kameramann mein Job, würde ich RAW immer bevorzugen.

Ich denke, man muss das immer abwägen.
Beispiel: Ein Hochzeitsvideo in Raw zu drehen, bedeutet eben doch auch höhere Kosten. Wenn das Brautpaar so viel bezahlt, dass mit mehreren Red-Cams, Drohnen, Kran und und und gefilmt werden kann - OK - das gab"s ja auch schon. Aber der Normalfall ist das wohl eher nicht.



Antwort von cantsin:


Bei der Sigma fp, wenn ich das richtig mitbekommen habe, bisher mit Artefakten. Aber wenn es gut gemacht ist (wer macht es? schon die Nikon oder erst der Ninja?), kann das dann nicht sogar ein Vorteil sein?

Nein, nicht bei RAW, nur nach dem Debayern. Wenn man eine Bayer-Sensormatrix, die vom Sensor kommt, in eine neue, Pseudo-Bayer-Sensormatrix herunterskaliert, können dabei eigentlich nur Verschlechterungen 'rauskommen. Ungefähr so, als wenn man beim Kochen die Roh-Ingredienten in einen Topf wirft, die Hälfte des Gemischs wegschmeisst, und anschliessend versucht, die Roh-Ingredienten wieder einigermaßen zu trennen und damit nach Rezept zu kochen.

Richtig wäre der Workflow natives Sensor-Bayermuster -> Debayering -> Herunterskalieren/Downsampling auf Delivery-Auflösung. So machen es ja auch Kameras wie die S1H, C300 etc.








Antwort von dienstag_01:



Bei der Sigma fp, wenn ich das richtig mitbekommen habe, bisher mit Artefakten. Aber wenn es gut gemacht ist (wer macht es? schon die Nikon oder erst der Ninja?), kann das dann nicht sogar ein Vorteil sein?

Nein, nicht bei RAW, nur nach dem Debayern. Wenn man eine Bayer-Sensormatrix, die vom Sensor kommt, in eine neue, Pseudo-Bayer-Sensormatrix herunterskaliert, können dabei eigentlich nur Verschlechterungen 'rauskommen. Ungefähr so, als wenn man beim Kochen die Roh-Ingredienten in einen Topf wirft, die Hälfte des Gemischs wegschmeisst, und anschliessend versucht, die Roh-Ingredienten wieder einigermaßen zu trennen und damit nach Rezept zu kochen.

Richtig wäre der Workflow natives Sensor-Bayermuster -> Debayering -> Herunterskalieren/Downsampling auf Delivery-Auflösung. So machen es ja auch Kameras wie die S1H, C300 etc.

Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)



Antwort von pillepalle:

Hier ist noch ein Bericht zum ProResProRes im Glossar erklärt Raw der Nikon von Matthew Allard von newsshooter.com Den Anfang kann man getrost überspringen, interessanter wird's erst im hinteren Teil, ab 'How is RAW over HDMIHDMI im Glossar erklärt from the Nikon Z6'. Wobei der auch nichts weltbewegendes herausgefunden hat.

https://www.newsshooter.com/2019/12/17/ ... rores-raw/

VG



Antwort von cantsin:


Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)

Nein, das ist tatsächlich so, lies mal Slashcams Test der Sigma fp:

https://www.slashcam.de/artikel/Test/Vo ... html#Die_S

Bei der Kamera wird das 6K-Bayer-Pattern des Sensors auf ein 4K-Bayer-Pattern in der RAW-Aufzeichnung runterskaliert, ohne Windowing/Sensorcrop. Und genau das gleiche machen jetzt Nikon/Atomos bei der ProResProRes im Glossar erklärt RAW-Aufzeichnung der Z6/Z7.



Antwort von iasi:


Hier ist noch ein Bericht zum ProResProRes im Glossar erklärt Raw der Nikon von Matthew Allard von newsshooter.com Den Anfang kann man getrost überspringen, interessanter wird's erst im hinteren Teil, ab 'How is RAW over HDMIHDMI im Glossar erklärt from the Nikon Z6'. Wobei der auch nichts weltbewegendes herausgefunden hat.

https://www.newsshooter.com/2019/12/17/ ... rores-raw/

VG

ja - leider geht er nicht auf den Unterschied zwischen UHD von FX und DX ein.

4k-Raw von einem 6k-Sensor?
Dies sehe ich als die wichtigste Frage.



Antwort von pillepalle:

Edit: Völliger Quatsch. Hatte nur nicht kapiert das man das nur im neuen RAW-Menu der Kamera umstellen kann. Ist etwas umständlicher, aber geht. Also DX RAW und FX RAW.
(Hab das gerade nochmal ausprobiert, aber im RAW Modus kann man tatsächlich nur im Vollformat Filmen. Auch wenn die Kamera im DX/Crop Modus steht, schaltet sie auf FX um, sobald der Ninja ein RAW-Signal erkennt.)
Vom Wechsel von DX zu FX mache ich recht regen Gebrauch. Da kann ich aus dem Bildwinkel meines 35ers, mal eben per Knopfdruck den Bildwinkel eines 50ers machen. Dafür gibt's aber auch Vorteile. Man kann in RAW bis 100 ASA runter gehen. Das erspart einem hin und wieder den ND Filter.

VG



Antwort von dienstag_01:



Bei modernen Sensoren finden eine Menge Berechnungen schon auf dem Sensor (sozusagen auf Pixelebene) statt. Ich kenne zwar den Sigma Sensor nicht, aber das da irgendwas skaliert wird wie in Photoshop, ist in meinen Augen eine sehr naive Vorstellung. Daher ist auch der Gedanke, dass Video und Matrix nicht übereinstimmen könnten, eher als wilde Theorie zu betrachten ;)

Nein, das ist tatsächlich so, lies mal Slashcams Test der Sigma fp:

https://www.slashcam.de/artikel/Test/Vo ... html#Die_S

Bei der Kamera wird das 6K-Bayer-Pattern des Sensors auf ein 4K-Bayer-Pattern in der RAW-Aufzeichnung runterskaliert, ohne Windowing/Sensorcrop. Und genau das gleiche machen jetzt Nikon/Atomos bei der ProResProRes im Glossar erklärt RAW-Aufzeichnung der Z6/Z7.

Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.



Antwort von Beavis27:

Schade nur, daß man das neue Feature nur nutzen kann, wenn man einen Mac hat!
Da muß ich wahrscheinlich nochmal ein Jahr warten, bis auch ich Raw mit meiner Z7 aufnehmen kann.



Antwort von cantsin:


Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.

Lies Dir doch einfach mal den von mir oben verlinkten Slashcam-Test durch bzw. sieh' Dir die Testbilder an...



Antwort von Jott:


Schade nur, daß man das neue Feature nur nutzen kann, wenn man einen Mac hat!

Wieso? Edius, Adobe, Avid unter Windows können’s schon bzw. ist angekündigt. Oder was meinst du?








Antwort von dienstag_01:



Mir geht es eigentlich nur darum, dass *runterskaliert* sehr viele Bedeutungen haben kann. Bei dir klingt es nach einfachem Zusammenfassen, ohne dass auf die Bayernmatrix geachtet wird. Und das ist eine Vermutung, mehr nicht. Meines Erachtens eine ziemlich wilde.

Lies Dir doch einfach mal den von mir oben verlinkten Slashcam-Test durch bzw. sieh' Dir die Testbilder an...

Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?
Sorry.



Antwort von Beavis27:



Schade nur, daß man das neue Feature nur nutzen kann, wenn man einen Mac hat!

Wieso? Edius, Adobe, Avid unter Windows können’s schon bzw. ist angekündigt. Oder was meinst du?

Achso, das wußte ich noch nicht.
Danke für die Aufklärung!



Antwort von cantsin:



Lies Dir doch einfach mal den von mir oben verlinkten Slashcam-Test durch bzw. sieh' Dir die Testbilder an...

Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?
Sorry.

Nochmals: Aus einer Bayer 6K-Matrix wird durch algorithmische Umrechnung eine Bayer 4K-Matrix erzeugt. Dabei werden 3x3 RGGB-Pixel jeweils zu 2x2 RGGB-Pixeln zusammengefasst (laut Slashcam-Test übrigens durch Line skipping: "Offensichtlich findet auch in diesem FormatFormat im Glossar erklärt kein Full-Sensor-Readout mit vollem Downscaling statt").

Erklär mir bitte, wie das sauber vonstatten gehen soll.



Antwort von roki100:

Bayer und Matrix und hin und her... ;) Auf jeden Fall ist die Sigma FP besser für deine zwecke geeignet, denn die letzte Aufnahme von dem Theater da, sah am Besten aus... Anscheint hat Sigma etwas besser gemacht, als alle deine andere Kameras... ;)



Antwort von dienstag_01:



Was willst du denn damit sagen? Willst du denn wirklich anhand der Testbilder auf Algorithmen/Verfahren schließen?
Sorry.

Nochmals: Aus einer Bayer 6K-Matrix wird durch algorithmische Umrechnung eine Bayer 4K-Matrix erzeugt. Dabei werden 3x3 RGGB-Pixel jeweils zu 2x2 RGGB-Pixeln zusammengefasst (laut Slashcam-Test übrigens durch Line skipping: "Offensichtlich findet auch in diesem FormatFormat im Glossar erklärt kein Full-Sensor-Readout mit vollem Downscaling statt").

Erklär mir bitte, wie das sauber vonstatten gehen soll.

Man könnte gleich auf Sensorebene PixelPixel im Glossar erklärt (Sensel) zusammenfassen. Mal als Beispiel.



Antwort von cantsin:


Man könnte gleich auf Sensorebene PixelPixel im Glossar erklärt (Sensel) zusammenfassen. Mal als Beispiel.

Welchen Unterschied macht das? Nochmals, ich bestreite ja nicht den Sinn von Downsampling/Sensel-Zusammenfassung, sondern nur den Sinn davon, das auf der Ebene von Bayer-Mustern zu tun. Völlig egal, ob das in Hardware oder Software passiert. (Und in beiden Fällen muss dafür irgendein mathematisch beschreibbares Verfahren angewendet werden.)



Antwort von dienstag_01:



Man könnte gleich auf Sensorebene PixelPixel im Glossar erklärt (Sensel) zusammenfassen. Mal als Beispiel.

Welchen Unterschied macht das? Nochmals, ich bestreite ja nicht den Sinn von Downsampling/Sensel-Zusammenfassung, sondern nur den Sinn davon, das auf der Ebene von Bayer-Mustern zu tun. Völlig egal, ob das in Hardware oder Software passiert. (Und in beiden Fällen muss dafür irgendein mathematisch beschreibbares Verfahren angewendet werden.)

Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.
Kann man das anhand des Testbildes feststellen?

Nachtrag: in diesem kleinen Disput mit cantsin dreht es sich um die Sigma Cam. Bitte nicht einfach auf die Nikon übertragen.



Antwort von Axel:

Hm, line skipping wäre wahrscheinlich ein dealbreaker.
Aber ich bin trotzdem auf Reviews gespannt. Nach einem so überzogen langen Trommelwirbel wäre ein Bild voller ArtefakteArtefakte im Glossar erklärt für drei Parteien heftigste Blamage in dieser Passage, und Apple (preismäßig der Einstieg und damit für viele der erste Kontakt mit PRAW) wäre eine davon. Kaum vorstellbar, dass da keine Ingenieure aus Cupertino mit im Boot saßen. Und kaum vorstellbar, dass für einen bloßen proof of concept (Raw über HDMI) Nikon 200 Euro Upgradegebühr erheben würde. Zumal da die Konkurrenz schon länger ihre Flaggen gehisst hat. Zum Glück gibt es kritische Tester zuhauf, nicht zuletzt unsere bewährte slahCAM Redaktion.



Antwort von iasi:

6k-Raw für 4k wäre ideal, wenn der Rolling ShutterShutter im Glossar erklärt sich in Grenzen halten würde.

Aber 4k-Raw von einem 6k-Sensor ist nicht Fisch, nicht Fleisch.

Bei der Sigma fp kann man diesen Kompromiss vielleicht noch eingehen, da Größe und Gewicht einzigartig sind und auf eine externe SSD geschrieben wird.

Die Nikon-Lösung ist hingegen nur für Leute interessant, die schon reichlich Nikon-Linsen besitzen oder die Kamera vorwiegend zum Fotografieren nutzen.
Vorausgesetzt, diese Leute verfügen über die passende Software. ;)

Jedenfalls ist eine P6k noch immer die konsequentere Film-Lösung.








Antwort von cantsin:


Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.

Letzteres kannst Du aber entweder nur durch Windowing tun (so, wie es Arri, RED und praktisch alle professionellen Kameramodelle tun) oder durch eine Auslesung, die nicht in einem durchgängigen RGGB-Bayer-Muster resultiert, zumindest nicht bei der Reduktion von 6K nach 4K.

Stattdessen wird ein fiktives Bayer-Muster erzeugt, dass nicht mehr mit den Senseln des Sensors korrespondiert (und deshalb auch all die im Slashcam-Test beschriebenen ArtefakteArtefakte im Glossar erklärt aufweist).



Antwort von dienstag_01:



Der Unterschied wäre, dass ich einmal Daten eines 6k Sensors habe und diese dann verarbeite (mit Verringerung auf 4K), das andere mal aus einem 6k Sensor nur die Daten für 4k auslese.

Letzteres kannst Du aber entweder nur durch Windowing tun (so, wie es Arri, RED und praktisch alle professionellen Kameramodelle tun) oder durch eine Auslesung, die nicht in einem durchgängigen RGGB-Bayer-Muster resultiert, zumindest nicht bei der Reduktion von 6K nach 4K.

Stattdessen wird ein fiktives Bayer-Muster erzeugt, dass nicht mehr mit den Senseln des Sensors korrespondiert (und deshalb auch all die im Slashcam-Test beschriebenen ArtefakteArtefakte im Glossar erklärt aufweist).

Für mich sehen die ArtefakteArtefakte im Glossar erklärt der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.



Antwort von pillepalle:

Verstehe nicht so ganz warum es bei RAW mehr ArtefakteArtefakte im Glossar erklärt geben sollte als bei den 10bit ProRes? Da macht es doch die Kamera und der Ninja speichert 'nur'. Macht das in RAW der Ninja V? Und muss das zwangsläufig schlechter sein, wenn es dann so wäre?

Ich werde die Tage mal versuchen ein paar 'schwierige' Motive zu filmen. Mit feinen Strukturen. Bisher hab ich jedenfalls keine ArtefakteArtefakte im Glossar erklärt entdecken können und denke auch nicht das es eine große Praxisrelevanz hat.
Kann ja auch sein das die Sigma diesbezüglich tatsächlich schlechter ist.

VG



Antwort von cantsin:


Für mich sehen die ArtefakteArtefakte im Glossar erklärt der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.

Skipping und fiktives Pattern ist doch dasselbe, zumindest wenn bei der Auflösungsreduktion von 6K nach 4K wieder ein durchgängiges RGGB-Bayer-Pattern erzeugt wird. (Ich frage mich wirklich, ob wir die ganze Zeit aneinander vorbeireden...)

Ein Bayer-Pattern ist normalerweise eine 1:1-Repräsentation der Sensorpixel/Sensel. Alle Skalierungen/Auflösungsreduktionen werden normalerweise nach dem Debayering gemacht, was auch technisch sinnvoll ist. (Da man wahrgenommene Farbwerte runterskaliert, nicht ein Raster. Genau so, wie man Bild für den Druck erst skaliert und dann rastert, und nicht von einem Raster in ein anderes herunterrechnet.)

Bei der Sigma fp und nun auch beim ProResProRes im Glossar erklärt Raw der Z6/Z7 haben wir es zum ersten Mal mit Bayer-Pattern zu tun, die nicht mehr 1:1 mit Senseln korrespondieren. Und wo auch nicht einfach Sensel ausgelassen werden, denn sonst gäbe es im auflösungsreduzierten, undebayerten Signal ein anderes Pixelmuster als durchgängig RGGB. Es werden also RGGB-Pixel mit Werten erzeugt, die nicht mehr Sensel-RGGB-Werten entsprechen.

Daher "fiktives" Bayer-Pattern.



Antwort von iasi:



Für mich sehen die ArtefakteArtefakte im Glossar erklärt der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.

Skipping und fiktives Pattern ist doch dasselbe, zumindest wenn bei der Auflösungsreduktion von 6K nach 4K wieder ein durchgängiges RGGB-Bayer-Pattern erzeugt wird. (Ich frage mich wirklich, ob wir die ganze Zeit aneinander vorbeireden...)

Ein Bayer-Pattern ist normalerweise eine 1:1-Repräsentation der Sensorpixel/Sensel. Alle Skalierungen/Auflösungsreduktionen werden normalerweise nach dem Debayering gemacht, was auch technisch sinnvoll ist. (Da man wahrgenommene Farbwerte runterskaliert, nicht ein Raster. Genau so, wie man Bild für den Druck erst skaliert und dann rastert, und nicht von einem Raster in ein anderes herunterrechnet.)

Bei der Sigma fp und nun auch beim ProResProRes im Glossar erklärt Raw der Z6/Z7 haben wir es zum ersten Mal mit Bayer-Pattern zu tun, die nicht mehr 1:1 mit Senseln korrespondieren. Und wo auch nicht einfach Sensel ausgelassen werden, denn sonst gäbe es im auflösungsreduzierten, undebayerten Signal ein anderes Pixelmuster als durchgängig RGGB. Es werden also RGGB-Pixel mit Werten erzeugt, die nicht mehr Sensel-RGGB-Werten entsprechen.

Daher "fiktives" Bayer-Pattern.

so oder so ist es suboptimal - ein Kompromiss

6k-Raw wäre schon in der Cine-Cam-Klasse, wobei dann eben noch die Auslesegeschwindigkeit eine bedeutende Rolle spielen würde.

Ich hab mich nun nicht sehr mit ProRes-Raw beschäftigt - vielleicht ist es ja ein pseudo-Raw, das ein Skalieren erlaubt.



Antwort von pillepalle:

Wieso sollte ProResProRes im Glossar erklärt Raw ein pseudo RAW sein? Wenn man Cropt liest man eben nur den Mittleren Teil des Sensors aus. Geht im Fotomodus übrigens auch und da spricht niemand von pseudo RAW.

Wartet doch erst einmal ab anstatt vorher schon zu Unken. Mir kommt diese Diskussion jedenfalls ziemlich akademisch vor und hat vermutlich auch kaum Relevanz in der Praxis. Ich habe dieses Jahr über 300 Std. ProResProRes im Glossar erklärt gefilmt und mir sind nirgendwo ArtefakteArtefakte im Glossar erklärt aufgefallen, geschweige denn anderen Leuten. Und das trotz des 'schlechten' downdamplings 😉

VG



Antwort von dienstag_01:



Für mich sehen die ArtefakteArtefakte im Glossar erklärt der Sigma eher nach irgendeiner Art von Skipping aus als nach *fiktivem* Bayern Pattern.

Skipping und fiktives Pattern ist doch dasselbe, zumindest wenn bei der Auflösungsreduktion von 6K nach 4K wieder ein durchgängiges RGGB-Bayer-Pattern erzeugt wird. (Ich frage mich wirklich, ob wir die ganze Zeit aneinander vorbeireden...)

Ein Bayer-Pattern ist normalerweise eine 1:1-Repräsentation der Sensorpixel/Sensel. Alle Skalierungen/Auflösungsreduktionen werden normalerweise nach dem Debayering gemacht, was auch technisch sinnvoll ist. (Da man wahrgenommene Farbwerte runterskaliert, nicht ein Raster. Genau so, wie man Bild für den Druck erst skaliert und dann rastert, und nicht von einem Raster in ein anderes herunterrechnet.)

Bei der Sigma fp und nun auch beim ProResProRes im Glossar erklärt Raw der Z6/Z7 haben wir es zum ersten Mal mit Bayer-Pattern zu tun, die nicht mehr 1:1 mit Senseln korrespondieren. Und wo auch nicht einfach Sensel ausgelassen werden, denn sonst gäbe es im auflösungsreduzierten, undebayerten Signal ein anderes Pixelmuster als durchgängig RGGB. Es werden also RGGB-Pixel mit Werten erzeugt, die nicht mehr Sensel-RGGB-Werten entsprechen.

Daher "fiktives" Bayer-Pattern.

Skipping und fiktives Pattern sind das selbe, aber fiktives Pattern ist nicht unbedingt Skipping. Bei manchen Sachen, vor allem, wenn sie neu sind, sollte man sich ab und zu mal deren Komplexität vor Augen führen. Nichts anderes will ich sagen.



Antwort von iasi:


Wieso sollte ProResProRes im Glossar erklärt Raw ein pseudo RAW sein? Wenn man Cropt liest man eben nur den Mittleren Teil des Sensors aus. Geht im Fotomodus übrigens auch und da spricht niemand von pseudo RAW.

VG

Was ist denn mit dem Vollformat-Modus, bei dem aus 6k plötzlich 4k werden?

Im Crop-Mode sind es 4k von S35 - da bietet die P6k mehr.



Antwort von roki100:

Also CinemaDNG von der Blackmagic Kameras sieht zuerst schlechter aus als ProRes. Doch dann kann man nachträglich mehr machen als mit ProResProRes im Glossar erklärt, nämlich WB/ColorTemp, ISO, Highlights. Ganz einfach: wenn nachträglich alles das fehlt und man sollte beim dreh schon darauf achten, korrekte ISO, ColorTemp Wert zu setzen, dann ist das nach meiner Verständnis von RAW, kein RAW, sondern nur ein besseres ProResProRes im Glossar erklärt (12Bit)...?

Also wenn 6K auf 4K skaliert wird, sehe ich das eher als Vorteil (macht man nachträglich sowieso) doch nachträgliche Korrektor wie ISO, ColorTemp, dass muss doch dabei sein? Ist bei RAW Fotos doch auch so?








Antwort von iasi:



Skipping und fiktives Pattern sind das selbe, aber fiktives Pattern ist nicht unbedingt Skipping. Bei manchen Sachen, vor allem, wenn sie neu sind, sollte man sich ab und zu mal deren Komplexität vor Augen führen. Nichts anderes will ich sagen.

4k-Raw ergibt kein 4k. Das ist schon mal ein Nachteil.

Wie ein sauberes Debayering stattfinden soll, wenn die Werte benachbarter Sensel nicht vorhanden sind, vermag ich mir nur schwer vorzustellen.



Antwort von pillepalle:

@iasi

Natürlich lassen die beim downsampling einen Teil der Informationen weg. Aber deshalb muss da doch nichts vorher schon eingebacken werden.

Dich hindert ja auch niemand daran ne Pocket zu nutzen. Ich finde die Nikon als Kamera besser und hatte schon passende Optiken, deshalb war ich auch nicht wild auf die Pocket. Jeder so wie er mag.

@Roki

In ProResProRes im Glossar erklärt Raw kannst Du doch auch die WB nachträglich verschieben.



Antwort von cantsin:


Wieso sollte ProResProRes im Glossar erklärt Raw ein pseudo RAW sein? Wenn man Cropt liest man eben nur den Mittleren Teil des Sensors aus. Geht im Fotomodus übrigens auch und da spricht niemand von pseudo RAW.

Geht nicht bei der Z6/Z7 (aber immerhin bei der Sigma fp). Wie hier jemand früher in diesem Thread schrieb, schaltet das Kameramenü automatisch von APS-C-Crop nach Full Frame-Auslesung, wenn ProResProRes im Glossar erklärt Raw-Aufzeichnung aktiviert wird.



Antwort von roki100:


@Roki

In ProResProRes im Glossar erklärt Raw kannst Du doch auch die WB nachträglich verschieben.

ja, aber handelt es sich um die selben Regler wie die die man für ProResProRes im Glossar erklärt benutzt? Da ProResProRes im Glossar erklärt RAW scheinbar keine extra RAW Optionen hat, dann kannst Du nur so herausfinden, indem Du mit völlig falsche ColorTemp Wert aufnimmst, also übertreiben z.B. auf +4000 in der Kamera ColorTemp einstellst und dann nachträglich schauen, ob man es exakt so korrigieren kann, als hättest Du mit optimalen ColorTemp Wert aufgenommen.
CDNG/RAW Regler für ColorTemp ist völlig was anderes, als die Regler ColorTemp, Tint etc. was man (z.B. in DaVinci Resolve) unter Color Wheels findet. Auch RAW Exposure(=ISO) ist völlig was anderes als Gain...



Antwort von pillepalle:

]

Geht nicht bei der Z6/Z7 (aber immerhin bei der Sigma fp). Wie hier jemand früher in diesem Thread schrieb, schaltet das Kameramenü automatisch von APS-C-Crop nach Full Frame-Auslesung, wenn ProResProRes im Glossar erklärt Raw-Aufzeichnung aktiviert wird.

Das hatte ich fälschlicherweise geschrieben. Natürlich geht das bei der Z6.

@roki100

Habe wie schon gesagt gerade wenig Zeit, aber in einer ruhigen Minute schaue ich mir Edius mal an und wo ich da welche Regler finde. Ich bin mir auch sicher das man damit mehr Flexibilität haben wird als mit normalem ProRes. Mache Dir dann auch ein paar schräge Aufnahmen zur Demo 😉

VG



Antwort von cantsin:


Skipping und fiktives Pattern sind das selbe, aber fiktives Pattern ist nicht unbedingt Skipping. Bei manchen Sachen, vor allem, wenn sie neu sind, sollte man sich ab und zu mal deren Komplexität vor Augen führen. Nichts anderes will ich sagen.

Klar, da sind wir auf einer Linie.

Nur entsteht durch die "neuen" Raw-Videoaufzeichnungsverfahren (wie Blackmagics vordebayertes BRAW, das wohl faktisch eher 12bit-Log ist, und nun auch Sigmas und Nikons auflösungsreduziertes RAW mit fiktiven Bayern-Pattern) erstmals die Situation, dass RAW nicht mehr per definitionem synonym mit der bestmöglichen Video-Signalqualität ist.

Gutes Beispiel sind das 4K-Full Frame-CinemaDNG der Sigma fp ggü. der 6K h265- und 4K-h264-Videoaufzeichnung der Panasonic S1H. Beide Kameras haben denselben Sensor - und sehr wahrscheinlich stammt auch die gesamte übrige Kameraelektronik der Sigma fp von Panasonic -, aber die S1H liefert in h265/h264 ein qualitativ deutlich besseres Videosignal als die Sigma fp in RAW.

Bei der Nikon Z6/Z7 und ProResProRes im Glossar erklärt RAW bin ich gespannt auf Slashcams Testergebnisse. Wäre den Nikon-Besitzern sehr zu wünschen, dass das Bayer-Signal mit besseren Verfahren runterskaliert wird als bei der Sigma fp.



Antwort von roki100:


aber die S1H liefert in h265/h264 ein qualitativ deutlich besseres Videosignal als die Sigma fp in RAW.

Das verstehe ich wiedermal nicht. Ist h265/h264 von S1H dann auch besser für nachträgliche Bearbeitung als RAW von Sigma FP? Denn darum geht es ja... und nicht darum was Kameraintern passiert und geliefert wird.



Antwort von pillepalle:

Eigentlich liegt der Sinn von RAW in der höheren Flexibilität in der Post und darin den Rechenintensiven Teil der Verarbeitung nicht die Kamera machen zu lassen, sondern den leistungsfähigeren externen Rechner. Zumindest laut Allister Chapman, oder wie der Vogel heißt...

VG



Antwort von cantsin:


Eigentlich liegt der Sinn von RAW in der höheren Flexibilität in der Post und darin den Rechenintensiven Teil der Verarbeitung nicht die Kamera machen zu lassen, sondern den leistungsfähigeren externen Rechner.

Was allerdings von derart stark bereits in der Aufnahme-Pipeline prozessiertem RAW konterkariert wird.... Schätze mal, dass die Signalverarbeitung von skaliertem ProResProRes im Glossar erklärt RAW deutlich komplexer ist als 10bit-Videoaufzeichnung.








Antwort von cantsin:



aber die S1H liefert in h265/h264 ein qualitativ deutlich besseres Videosignal als die Sigma fp in RAW.

Das verstehe ich wiedermal nicht. Ist h265/h264 von S1H dann auch besser für nachträgliche Bearbeitung als RAW von Sigma FP?

Tja, wenn man diesem Video hier glauben darf:

https://youtu.be/rghbaHoVRsk?t=676



Antwort von pillepalle:


Was allerdings von derart stark bereits in der Aufnahme-Pipeline prozessiertem RAW konterkariert wird....

Eben, alles nur Vermutungen. Wenig Wissen ;)

VG



Antwort von cantsin:



Was allerdings von derart stark bereits in der Aufnahme-Pipeline prozessiertem RAW konterkariert wird....

Eben, alles nur Vermutungen. Wenig Wissen ;)

Sorry, was ist denn bitte eine Vermutung und kein Wissen, dass:
(a) bei der Sigma fp und Nikon Z6/Z7 die Sensorauflösung auf Bayer-Pattern-Ebene verringert wird und in fiktiven Bayer-Pattern resultiert, um (aus Kompatibilitätsgründen) der Nachbearbeitungssoftware Sensor-RAW vorzugaukeln;
(b) bei BRAW bereits kameraintern heftige Signalverarbeitung inkl. temporal Denoising und Debayering stattfindet.

Das sind Fakten.

Und nur um das klarzustellen: Ich bin kein RAW-Purist und behaupte nicht, dass diese Verfahren per se schlecht sind. (BRAW hat viele Vorteile in der Praxis, und bei der Z6/Z7-ProRes Raw-Aufzeichnung muss man noch sehen, wie gut die 4K-Skalierung in der Praxis aussieht.)

Sie führen nur zu einer neuen Situation, wo die alte Gleichung "Raw = un- bzw. wenig prozessiertes Signal" nicht mehr gilt, und damit auch eine ganze Reihe von Grundannahmen über die Vorteile von Raw-Aufzeichnung. Wie am Beispiel Sigma fp vs. Panasonic S1h ausgeführt, gibt es bereits heute Beispiele, in denen Raw-Aufzeichnung klassischer Videoaufzeichnung bildqualitativ unterlegen ist.

Damit gelten für Videokameras jetzt die gleichen neuen Gewissheiten wie für Smartphone-Kameras (bei denen RAW-Fotografie auch oft qualitativ schlechter ist als die eingebauten und kameraoptimierten algorithmischen Bildverbesserungen bzw. computational photography).



Antwort von dienstag_01:



Skipping und fiktives Pattern sind das selbe, aber fiktives Pattern ist nicht unbedingt Skipping. Bei manchen Sachen, vor allem, wenn sie neu sind, sollte man sich ab und zu mal deren Komplexität vor Augen führen. Nichts anderes will ich sagen.

Klar, da sind wir auf einer Linie.

Nur entsteht durch die "neuen" Raw-Videoaufzeichnungsverfahren (wie Blackmagics vordebayertes BRAW, das wohl faktisch eher 12bit-Log ist, und nun auch Sigmas und Nikons auflösungsreduziertes RAW mit fiktiven Bayern-Pattern) erstmals die Situation, dass RAW nicht mehr per definitionem synonym mit der bestmöglichen Video-Signalqualität ist.

Gutes Beispiel sind das 4K-Full Frame-CinemaDNG der Sigma fp ggü. der 6K h265- und 4K-h264-Videoaufzeichnung der Panasonic S1H. Beide Kameras haben denselben Sensor - und sehr wahrscheinlich stammt auch die gesamte übrige Kameraelektronik der Sigma fp von Panasonic -, aber die S1H liefert in h265/h264 ein qualitativ deutlich besseres Videosignal als die Sigma fp in RAW.

Bei der Nikon Z6/Z7 und ProResProRes im Glossar erklärt RAW bin ich gespannt auf Slashcams Testergebnisse. Wäre den Nikon-Besitzern sehr zu wünschen, dass das Bayer-Signal mit besseren Verfahren runterskaliert wird als bei der Sigma fp.

RAW hieß eben noch nie bestmöglich, das haben viele genau so lange geglaubt, wie die Prozessoren in den Cams noch nicht für bestimmte rechenintensive Aufgaben geeignet waren. Allgemein kann man vielleicht sagen, dass sich der Vorteil von RAW im Vergleich zu anderen Formaten DERSELBEN Kamera zu beweisen hat, alles andere idealisiert das FormatFormat im Glossar erklärt (RAW). Eine Art Wolkenkuckucksheim-RAW (in Analogie zum fiktiven), sehen wir ja jetzt ;)



Antwort von cantsin:


Allgemein kann man vielleicht sagen, dass sich der Vorteil von RAW im Vergleich zu anderen Formaten DERSELBEN Kamera zu beweisen hat, alles andere idealisiert das FormatFormat im Glossar erklärt (RAW).

Völlig einverstanden. Wobei es dann wirklich spannend bei der Panasonic S1H werden könnte, falls deren ProResProRes im Glossar erklärt RAW-Aufzeichnung auch nur in 'runtergerechnetem 4K möglich sei sollte.

Und, wie gesagt, bei High End-Smartphones ist die von Dir beschriebene Situation (RAW hat keine Vorteile mehr, sondern sogar bildqualitative Nachteile ggü. dem kameraintern prozessierten Bild) bereits Realität.



Antwort von iasi:


@iasi

Natürlich lassen die beim downsampling einen Teil der Informationen weg. Aber deshalb muss da doch nichts vorher schon eingebacken werden.

Nun - wenn sie einen Teil der Informationen weglassen, dann funktioniert der Debayer-Algorithmus nicht mehr optimal.



Antwort von pillepalle:

Gut möglich das er der Debayer-Algorythmus nicht mehr optimal funktioniert, könnte aber auch sei dass sie sich eine intelligenter Methode einfallen lassen um das Bild runter zu skalieren und es dann trotzdem ganz gut passt.

Ich würde jedenfalls erstmal abwarten was da tatsächlich hinten raus kommt, anstatt vorher zu spekulieren und anzunehmen alle Kameras müssten so schlecht abschneiden wie die Sigma.

VG



Antwort von iasi:



Sorry, was ist denn bitte eine Vermutung und kein Wissen, dass:
(a) bei der Sigma fp und Nikon Z6/Z7 die Sensorauflösung auf Bayer-Pattern-Ebene verringert wird und in fiktiven Bayer-Pattern resultiert, um (aus Kompatibilitätsgründen) der Nachbearbeitungssoftware Sensor-RAW vorzugaukeln;
(b) bei BRAW bereits kameraintern heftige Signalverarbeitung inkl. temporal Denoising und Debayering stattfindet.

Da vergleichst du nun aber Äpfel mit Birnen.

Sigma und Nikon werfen Sensordaten über Bord, da die Auslesegeschwindigkeit zu niedrig und/oder die Datenmenge zu groß wird.
Wenn im Crop der Sensor beschnitten wird, bleibt wenigstens die Bayer-Struktur erhalten. Bei der Nutzung der vollen Sensorfläche leidet diese Struktur.

BRAW ist kein reines Raw, aber es liefert eben doch alle Pixeldaten - wenn auch in bearbeiteter Form.



Antwort von iasi:


Gut möglich das er der Debayer-Algorythmus nicht mehr optimal funktioniert, könnte aber auch sei dass sie sich eine intelligenter Methode einfallen lassen um das Bild runter zu skalieren und es dann trotzdem ganz gut passt.

Das kann sein - vielleicht bietet hier ProRes-Raw einen Ansatz.



Antwort von rush:

Ich würde mir da auch keine allzu großen Sorgen machen... einerseits haben Apple, Atomos und Nikon da mehr als lange dran geschraubt - und zum anderen zeigt Sony doch seit Jahren wie gut etwa 6k auf 4k Downsampling innerhalb der Kamera am Ende aussehen kann...

https://www.slashcam.de/artikel/Test/Di ... utter.html

Das ganze dann noch sauber transportiert mit etwas mehr DatenrateDatenrate im Glossar erklärt und Bit-Tiefe aka ProResProRes im Glossar erklärt Raw... ist ganz sicher allemal spürbar besser als die bisherigen 8bit 420 Derivate und der ganze Kram... so gesehen können Nikon Nutzer ja faktisch nur von profitieren wenn sie bereit sind nochmal ein paar Euronen klarzumachen.



Antwort von iasi:


Ich würde mir da auch keine allzu großen Sorgen machen... einerseits haben Apple, Atomos und Nikon da mehr als lange dran geschraubt - und zum anderen zeigt Sony doch seit Jahren wie gut etwa 6k auf 4k Downsampling innerhalb der Kamera am Ende aussehen kann...

Da werden nicht 6k-Raw auf 4k-Video heruntergerechnet, was ja in der Post auch mit 6k-Raw passiert, sondern 6k-Raw auf 4k-Raw reduziert.

Für die Panasonic S1H sollen es dann ja auch 5,9k-ProRes-Raw sein, was eben weit kompromissloser wäre, als dieses 6k --> 4k.



Antwort von pillepalle:

Ich habe jetzt mal zwei Videostills in voller Auflösung hochgeladen. Einmal ein ProResProRes im Glossar erklärt Raw Bild und einmal ein ProRes422HQ (je 26MB). Von Artefakten ist selbst in feinen Strukturen (wie Dachziegeln, oder feinen Ästen in der Ferne) keine Spur. Ist allerdings auch nicht verwunderlich, weil die Bilder natürlich noch nicht geschärft und flau sind. ArtefakteArtefakte im Glossar erklärt entstehen ja oft auch erst durch falsche Nachbewarbeitung. Aufgenommen sind die mit BlendeBlende im Glossar erklärt 13, sollten also eigentlich von vorne bis hinten rappelscharf sein.

Komme mit Edius allerdings immer noch nicht klar, die TimelineTimeline im Glossar erklärt kann man nur auf 8 bit oder 10bit einstellen, ein RAW Menu konnte ich auch nirgendwo finden, genau so wenig wie irgendwelche Importeinstellungen. Ich ziehe die ganz blöd einfach per drag&drop in die Timeline. Noch nicht mal einen Tab für's Graden gefunden... *lol* Muss vielleicht doch mal versuchen die Files in Final Cut zu importieren um zu schauen was man damit machen kann.

http://giotta.com/ProRes_Raw.bmp

http://giotta.com/ProRes422HQ.bmp

VG



Antwort von roki100:

Ist das eine Samyang (12mm) Linse? Ich sehe da auch keine ArtefakteArtefakte im Glossar erklärt, außer die Unschärfe... So sah es es aus als ich letztens eine Samyang (mft) 12mm Linse getestet habe. Fand die Unschärfe sehr schlecht...

Du hast doch ne Katze, diese Model da. Film die doch mal in ProResProRes im Glossar erklärt RAW ;)

EDIT:
Vorhin konnte ich die Bilder noch sehen. Jetzt erscheint die Meldung: Objekt nicht gefunden



Antwort von pillepalle:

@ roki100

Das ist ein 1.4/35er Zeiss Distagon. Wie gesagt, die Aufnahme ist scharf, nur noch nicht nachgeschärft. Die kommen immer erst einmal so weich aus der Kamera. Auch die Beugung spielt bei der Auflösung noch keine große Rolle. Weiss es gerade gar nicht genau, aber ich glaube die Kamera hat einen Tiefpassfilter drin. Keine Ahnung warum die Bilder weg waren. Jetzt sind sie wieder da.

VG



Antwort von Darth Schneider:

An roki100
Also mein Samjang 12 mit MFT, mm ist überhaupt nicht unscharf, und zeigt auch sonst keine Mängel. Das ist eine super Linse.
Als Nächstes mal hol ich mit das 35iger, oder ein 50iger von Samjang.
Die Samjangs werden ja auch zum fotografieren benutzt, und verkauft, wüsste jetzt nicht warum die zum in HD zu filmen jetzt zu unscharf sein sollten.
Vielleicht war dein getestetes Model fehlerhaft....
Gruss Boris



Antwort von pillepalle:

Da sich roki100 ein Katzenvideo gewünscht hat, komme ich seinem Wunsch natürlich gerne nach :D Einmal im berüchtigten downgesampleten Fullframe Modus und einmal im Crop-Modus. Aufgenommen bei ISO 200, 135mm, f5.6.

http://giotta.com/PR_RAW_FX.bmp

http://giotta.com/PR_RAW_DX.bmp

Ich entschuldige mich vorab bei allen Tierfreunden das es sich dabei um eine tote Katze handelt.

VG



Antwort von rush:


Ich habe jetzt mal zwei Videostills in voller Auflösung hochgeladen. Einmal ein ProResProRes im Glossar erklärt Raw Bild und einmal ein ProRes422HQ (je 26MB). Von Artefakten ist selbst in feinen Strukturen (wie Dachziegeln, oder feinen Ästen in der Ferne) keine Spur. Ist allerdings auch nicht verwunderlich, weil die Bilder natürlich noch nicht geschärft und flau sind.

Also so flau und unscharf sehen die *.braw stills aus der P4K bei mir eher nicht aus... schon gar nicht bei BlendeBlende im Glossar erklärt 13! (warum überhaupt f/13?) Da ist womöglich nicht nur irgendwas flau, sondern eher etwas faul?! ;)



Antwort von pillepalle:

Kann ich mir heute Abend noch mal anschauen. Vielleicht habe ich vergessen richtig zu fokussieren... BlendeBlende im Glossar erklärt 13 weil ich keinen ND Filter verwenden wollte.

VG



Antwort von Axel:

Komme mit Edius allerdings immer noch nicht klar, die TimelineTimeline im Glossar erklärt kann man nur auf 8 bit oder 10bit einstellen, ein RAW Menu konnte ich auch nirgendwo finden, genau so wenig wie irgendwelche Importeinstellungen. Ich ziehe die ganz blöd einfach per drag&drop in die Timeline. Noch nicht mal einen Tab für's Graden gefunden... *lol* Muss vielleicht doch mal versuchen die Files in Final Cut zu importieren um zu schauen was man damit machen kann.

Du hättest ETTR anwenden sollen. Das hätte dir statt BlendeBlende im Glossar erklärt 13 auch den ND-FilterND-Filter im Glossar erklärt erspart. Wäre dann rechnerisch zwischen 6 und 7 gewesen. Am sichersten gehts mit Zebra 100 plus. Gerade so abblenden, dass das Zebra verschwindet (ausgenommen Sonne und direkte Lichtquellen). Ausgehend von Beschreibungen zu Raw-Fotos mit dieser Kamera wäre die native Iso 800. Eine alternative ETTR-Methode zu Zebra in heller Umgebung wäre dann, auf Iso 200 zu stellen und nach Augenmaß abzublenden (am Zebra dürfte sich dann nichts ändern!). Weiß nicht, ob sich das von BM-Kameras übertragen lässt, aber versuchen kannst du's ja mal.
https://youtu.be/eXPApYc6Id4?t=197
Iso 200 wäre dann in FCPX (und natürlich auch in Edius) eine Meta-Date, mit der das eigentlich um zwei Blenden überbelichtete Bild lediglich vom NLE interpretiert wird. Hättest du mit Iso 800 aufgenommen (was du zwangsläufig eigentlich getan hast), hättest du es in FCPX mit einem grauenhaft geclippten, fast weißen Bild zu tun, was du aber über den Belichtungs-Regler (die spielzeugmäßig aussehende, von iMovie übernommene Farbtafel vermittelt noch am ehesten das Gefühl, tatsächlich mit Raw zu arbeiten) alles wieder zurückholen kannst. Mit dem im jüngsten slashCAM-Artikel beschriebenen Vorteil von absolut rauschfreien Tiefen. Das ist neben der ebenfalls nicht so kritischen Weißabgleichs-Bestimmung der Trumpf von Raw (Es ist banal, ein versehentlich auf 5600°K eingestelltes Kunstlichtbild nachträglich zu korrigieren. Raw ist dagegen besonders gut darin, Farbkontraste zu verstärken. Das bedeutet, dass man während der Aufnahme besonderes Augenmerk darauf richten sollte. Ein mit einer gleichmäßigen Lichtquelle beleuchtetes Bild sieht in Raw genau so flach aus wie überall sonst). Im Zweifelsfalle lieber etwas überbelichten, das ist ja einfach (man sollte natürlich trotzdem nicht zu schlampig sein, denn auch Raw clippt irgendwann, und das Matchen von zig völlig unterschiedlich belichteten Clips braucht man nicht zu forcieren).

http://giotta.com/ProRes_Raw.bmp

http://giotta.com/ProRes422HQ.bmp

Diese Bilder sind tatsächlich komplett unscharf. Aber aus reiner Neugier: wo ist das? Kommt mir bekannt vor. Welche Stadt?



Antwort von roki100:


An roki100
Also mein Samjang 12 mit MFT, mm ist überhaupt nicht unscharf, und zeigt auch sonst keine Mängel. Das ist eine super Linse.
Als Nächstes mal hol ich mit das 35iger, oder ein 50iger von Samjang.
Die Samjangs werden ja auch zum fotografieren benutzt, und verkauft, wüsste jetzt nicht warum die zum in HD zu filmen jetzt zu unscharf sein sollten.
Vielleicht war dein getestetes Model fehlerhaft....
Gruss Boris

Kannst Du vll. eine Testaufnahme von draußen machen? Also keine Nahaufnahme sondern etwas in der weite....und ohne nachschärfe. Ich meine, super scharf muss es nicht sein, aber das was ich gesehen habe, war wirklich sehr unscharf.



Antwort von pillepalle:

@roki100

Ja, mache ich Dir später. Da gebe ich mir dann mal Mühe mit dem Fokus 🙈 Vielleicht auch noch weitwinkeliger als 35mm, weil die Strukturen für den Sensor dann noch feiner sind.

Aber eigentlich sind auch Felle und Stoffe oft eine Herausforderung. Deshalb fand ich die Katzen Idee gar nicht so schlecht. Das eine sind Siemenssterne und irgendwelche Testmuster, aber die Praxis ist eben nochmal was anderes. Da spielen viele Dinge die in der Theorie dramatisiert werden kaum noch eine Rolle.

VG



Antwort von roki100:

@pillepalle
ich meinte Darth Schneider mit der Samyang 12mm Linse.

Die tote Katze sieht doch schick aus. :)



Antwort von Jott:


Ich habe jetzt mal zwei Videostills in voller Auflösung hochgeladen.

http://giotta.com/ProRes_Raw.bmp

http://giotta.com/ProRes422HQ.bmp

VG

Ist das Satire?



Antwort von Darth Schneider:

An roki100
Kann im Moment nix hochladen weil ich seit ich heute Morgen Resovle Studio auf Version 16 up gadatet habe, kann ich nix mehr exportieren....
Die Software sagt habe keine Berechtigung zum speichern, oder sowas.
Ich hab jetzt wenig Zeit, probiere es morgen wieder.....
So ein Kack...Ich hab nix verstellt, nicht das ich wüsste.
Gruss Boris



Antwort von pillepalle:

@ Jott

Mensch, das war doch nur der Hack für cinematische Bilder mit der Z6 ;) Hier kommt noch ein extra scharfes

http://giotta.com/PRR_21.bmp

VG



Antwort von Axel:

https://youtu.be/FEGxTXC6trU

Ich habe auch die Vorgängervideos geguckt und die PRAW-Schnippsel runtergeladen.

Und ich bin nicht übermäßig beeindruckt.

Er vergleicht hier PRAW mit ProResHQ (warum nicht normalem 422?) und H.264 im NLog-Profil. Das Fazit: *halbwegs* richtig belichtet gibt es keinen Unterschied! Mir gefallen sogar die Farben ootb bei meinem Sony GFILM Profil (SLog2 mit kleinen Farbtweaks, nicht mehr nötig für A7iii, A6400 und A6600) besser. Und ich kann sie in dem Maße verbiegen, das mir sinnvoll erscheint.

Nicht falsch verstehen, es ist gewiss ein geiler CodecCodec im Glossar erklärt, sogar schnittfreundlicher als XAVC trotz Raw. Und mit der richtigen Kamera und der richtigen Bearbeitungssoftware: sonnenklare Sache.

Aber man würde sich das ständige Retten von Tiefen und Höhen nur antun, würde ich sagen, wenn man es wirklich ernst meint mit dem Grading. Und nicht nur ein bisschen korrigiert. Ich find's witzig, dass der freundliche Mann noch vor ein paar Tagen die Farbräder benutzt hat, als ich sagte, die Farbtafel sei für Raw ansprechfreundlicher (noch besser sind Kurven). Machen wir uns nichts vor, eine Schwalbe macht noch keinen Sommer, und FCP ist in Sachen Farbe trotz sukzessiver Nachrüstung nicht auf dem Niveau von Resolve. Die HSL-Farbmasken, die mit 10.4.7 nachgeliefert wurden, nützen einem nicht viel, wenn man das nicht machen kann, weil Layer-Nodes fehlen (getimet):
https://youtu.be/Il9CW3KbjPA?t=586

Wenn PRAW in Resolve Einzug hält, dann wird's ein Selbstläufer.



Antwort von cantsin:


Wenn PRAW in Resolve Einzug hält, dann wird's ein Selbstläufer.

Die RAW Wars sind aus Nutzersicht einfach nur ärgerlich. Wünschenswert wäre, dass sowohl PRAW-, als auch BRAW-Unterstützung in alle relevanten NLEs und sonstigen Postproduktionsprogramme einzieht.



Antwort von Axel:



Wenn PRAW in Resolve Einzug hält, dann wird's ein Selbstläufer.

Die RAW Wars sind aus Nutzersicht einfach nur ärgerlich. Wünschenswert wäre, dass sowohl PRAW-, als auch BRAW-Unterstützung in alle relevanten NLEs und sonstigen Postproduktionsprogramme einzieht.

Der Langzeiteffekt wird sein, dass Raw insgesamt normaler wird, auch im Einsteiger / Low-Budget - Bereich der Kameras. Nicht unbedingt echtes Raw (siehe RED-Patente). Wozu brauchen wir zum Beispiel durch HEVC noch platzsparendere KompressionKompression im Glossar erklärt bei immer weiter fallenden Speicherkartenpreisen? Soll das ganze Jahr auf eine Briefmarke passen? Und irgendwann werden die gängigsten Geschmacksrichtungen überall unterstützt werden. Aber, wie man in Amiland sagt, halt nicht die Luft an.



Antwort von cantsin:


Ist das eine Samyang (12mm) Linse? Ich sehe da auch keine ArtefakteArtefakte im Glossar erklärt, außer die Unschärfe... So sah es es aus als ich letztens eine Samyang (mft) 12mm Linse getestet habe. Fand die Unschärfe sehr schlecht...

(Offtopic)

Das Samyang 12mm hat Auflösungsschwächen an den Rändern, wenn man 4K-DCI (z.B. mit der Pocket 4K) aufnimmt, löst aber in der Bildmitte IMHO sehr ordentlich auf. Anbei ein mit der Pocket 4K geschossenes Test-DNG-Still, bei BlendeBlende im Glossar erklärt 2.8.

An Deiner alten Pocket, mit ihrem 1"-Sensor, funktioniert das Objektiv besser; siehe das zweite Bild, bei dem Beschnitt und Auflösung der alten Pocket entsprechen.

https://data.pleintekst.nl/A002_11282259_S001.jpg

https://data.pleintekst.nl/A002_1128225 ... _scale.jpg




Antwort von pillepalle:

Na ja, was Blackmagic machen könnte wäre BRaw over HDMIHDMI im Glossar erklärt in den eigenen Recordern anzubieten. Lohnt sich vermutlich nur nicht für die 5 Nikon und Panasonic Nutzer...

VG



Antwort von Jott:

Wer hat denn Lust, bei jedem einzigen Clip mühsam manuell die Bildfehler der billigen Optiken wegzumachen (insbesondere CA und Verzeichnungen), die man üblicherweise auf billigen Kameras verwendet? Mal ehrlich - ist viel angenehmer, wenn sich schon die Kamera selber drum kümmern kann. Was sie im raw-Modus naturbedingt nicht kann.

Erst neulich hat hier wieder einer geschrieben, raw sei geil, weil man sich nicht mehr um Belichtung und WeißabgleichWeißabgleich im Glossar erklärt kümmern muss. Cool. Aber mal angenommen, man beherrscht beides - eigentlich ja wohl Grundqualifikation jedes Kameramanns! - dann schrumpft die Wichtigkeit von raw auf eine vernachlässigbare Größe, wenn man nicht gerade im High End-Bereich zuhause ist. Und wer ist das denn schon von den hiesigen Diskutanten?

Andersrum: nur bei Kameras, die grundsätzlich keine Optikkorrektur vornehmen können/wollen, ist raw automatisch die bessere Wahl.

Andere Meinungen sind selbstverständlich gestattet!



Antwort von pillepalle:

@ Jott

Ja, sehe ich ähnlich, wobei die Kamera ohnehin nur bei internen Aufnahmen und Z-Optiken korrigiert. Berührt mich also nicht weil ich ja immer über den Ninja aufnehme. Braucht ja noch nicht mal Billigglas zu sein. Selbst viele hochgelobte Fuji und Panasonic Optiken sehen ohne interne Korreltur der Kamera ziemlich gruselig aus. Das sind die modernen Zeiten. Alles muss speziell sein, nix ist kompatibel und so kauft man ständig neuen Kram. Ich persönlich verzichte da lieber auf die neusten Gimmicks und nutze das Equipment dafür länger. Dann darf es auch mal etwas mehr kosten.

VG



Antwort von cantsin:


Na ja, was Blackmagic machen könnte wäre BRaw over HDMIHDMI im Glossar erklärt in den eigenen Recordern anzubieten.

Das tun sie bereits mit dem neuen Blackmagic Video Assist 12G HDR (zumindest über SDISDI im Glossar erklärt, weiss nicht ob es auch via HDMIHDMI im Glossar erklärt geht).

Erst neulich hat hier wieder einer geschrieben, raw sei geil, weil man sich nicht mehr um Belichtung und WeißabgleichWeißabgleich im Glossar erklärt kümmern muss. Cool. Aber mal angenommen, man beherrscht beides - eigentlich ja wohl Grundqualifikation jedes Kameramanns! - dann schrumpft die Wichtigkeit von raw auf eine vernachlässigbare Größe, wenn man nicht gerade im High End-Bereich zuhause ist. Andere Meinungen sind selbstverständlich gestattet!

Die Behauptung, dass man sich bei RAW nicht mehr um die Belichtung kümmern müsse, stimmt ja sowieso nicht...

Aber: RAW hat auch im Low-End-Bereich (z.B. beim Drehen in Clubs und von Konzerten/Bühnen) klare Vorteile, wenn man in nicht-kontrollierten Lichtbedingungen drehen muss: Bei Mischlicht (schnell wechselnden und gemischten Farbtemperaturen), bei Schwachlicht (weil man in der Post mit Neat & Co. deutlich besser/hochqualitativer entrauschen kann als in der Kamera), wenn man - für bestimmte Looks - künstliche Nachschärfungen und Rauschfilter ganz abschalten will oder wenn man extreme Grades macht (z.B. Simulation von Crossprocessing), und wenn man Material in anderen Projekten mit völlig anderen Looks wiederverwenden will.

Praktisches Beispiel: Das gefürchtete Magenta-Bühnenlicht, das heutzutage praktisch überall bei Konzerten geleuchtet wird und auf Video i.d.R. schlimm aussieht, kann man bei RAW-Material ziemlich gut neutralisieren bzw. abmildern. (Das geht zwar auch mit Gegensteuern beim WeißabgleichWeißabgleich im Glossar erklärt bei herkömmlichen Videokameras - doch der hilft dann nicht mehr bei Mischlicht.) Im Extremfall kann man sogar verschiedene Bildteile maskieren & tracken und jeweils mit eigenem WeißabgleichWeißabgleich im Glossar erklärt versehen.

Zugegebenermaßen reicht für die einige der o.g. Anwendungsfälle (Wiederverwenden von Material mit anderen Looks) auch Log-Material mit ausreichender Bittiefe und in einem guten Codec. Andererseits haben Codecs wie das klassische ProResProRes im Glossar erklärt und DNxHR praktisch keine Vorteile hinsichtlich Dateigröße und Verarbeitungsgeschwindigkeit ggü. neueren Formaten wie PRAW und BRAW.

Dass bei RAW-Video Software-Objektivkorrekturen entweder wegfallen oder händisch nachgebaut werden müssen, stimmt zwar in der (heutigen) Praxis, liegt aber nicht mehr an den RAW-Formaten, sondern an der Nachbearbeitungssoftware, die diese Korrekturen (noch) nicht macht/kann. Dass das auch anders geht, zeigen ja RAW-Fotografie bzw. Lightroom & Co.

Sehr seltsam übrigens, dass Adobe seinen Heimvorteil nicht ausspielt und das ACR-RAW-Rendering (einschliesslich aller Parameter-Regler) nicht in Premiere einbaut...



Antwort von Axel:

Sehr seltsam übrigens, dass Adobe seinen Heimvorteil nicht ausspielt und das ACR-RAW-Rendering (einschliesslich aller Parameter-Regler) nicht in Premiere einbaut...

Fun fact am Rande: Photoshop kann Videoclips öffnen, ganz normale, man kann den (Top-Menu) Adobe-Camera-Raw-Filter darauf anwenden und mit dem Media Encoder exportieren. Ich hab ja schon immer gesagt, der ACR ist das beliebteste Tool überhaupt.



Antwort von ksingle:

Machen wir uns nichts vor, eine Schwalbe macht noch keinen Sommer, und FCP ist in Sachen Farbe trotz sukzessiver Nachrüstung nicht auf dem Niveau von Resolve. Die HSL-Farbmasken, die mit 10.4.7 nachgeliefert wurden, nützen einem nicht viel, wenn man das nicht machen kann, weil Layer-Nodes fehlen

Ich arbeite mit beiden Programmen. Hast du es in Final Cut X schon mal mit mehreren Einstellungsebenen übereinander probiert? Das kommt der Bearbeitung mit den Nodes in Resolve in manchen Belangen schon recht nahe.
Und mal ehrlich: wer von den Usern hier arbeitet schon so filigran an einem Video, wie in dem oben gezeigten Blockbuster-Beispiel?



Antwort von iasi:



Erst neulich hat hier wieder einer geschrieben, raw sei geil, weil man sich nicht mehr um Belichtung und WeißabgleichWeißabgleich im Glossar erklärt kümmern muss. Cool. Aber mal angenommen, man beherrscht beides - eigentlich ja wohl Grundqualifikation jedes Kameramanns! - dann schrumpft die Wichtigkeit von raw auf eine vernachlässigbare Größe, wenn man nicht gerade im High End-Bereich zuhause ist. Und wer ist das denn schon von den hiesigen Diskutanten?

Schreib das mal in einem Foto-Forum.
Die werden dir dann sicherlich erklären, warum du ziemlich falsch liegst mit deinen Einschätzungen.



Antwort von iasi:

Aktuell gibts ja hier ein gutes Beispiel dafür, was Raw ermöglicht.

viewtopic.php?f=9&t=146901

Richtig belichtet wurde hier sicherlich.
Da immer auf Wolken gewartet wurde, war wohl auch der DR kein Problem.
Licht konnte Deakins jedoch meist nicht setzen, denn Ausleuchten war schlicht oft nicht möglich.

Und dennoch sehen die Aufnahmen nach Kino aus. Wie das wohl kommt?! ;)



Antwort von Jott:

Ach Iasi. Du hast kein Wort verstanden, aber das musst du auch nicht. Dreh deinen Spielfilm.



Antwort von Axel:

Fun fact am Rande: Photoshop kann Videoclips öffnen, ganz normale, man kann den (Top-Menu) Adobe-Camera-Raw-Filter darauf anwenden und mit dem Media Encoder exportieren. Ich hab ja schon immer gesagt, der ACR ist das beliebteste Tool überhaupt.

War Quatsch. Der ACR wird nur auf dem FrameFrame im Glossar erklärt angewendet, auf dem sich der Playhead befindet, der Rest wird unbearbeitet rausgerendert. Was schade ist, denn was man im ACR schon mit 8-bit alles rausholen kann. Wenn FCP nur 50% davon brächte ...

Ich erinnere mich an so einen Türkei-Film mit Ballons:
https://vimeo.com/108018156
... den der Macher als Bildserie in ACR verarbeitet hatte, weil er das am besten fand.

Machen wir uns nichts vor, eine Schwalbe macht noch keinen Sommer, und FCP ist in Sachen Farbe trotz sukzessiver Nachrüstung nicht auf dem Niveau von Resolve. Die HSL-Farbmasken, die mit 10.4.7 nachgeliefert wurden, nützen einem nicht viel, wenn man das nicht machen kann, weil Layer-Nodes fehlen

Ich arbeite mit beiden Programmen. Hast du es in Final Cut X schon mal mit mehreren Einstellungsebenen übereinander probiert?

Jetzt gerade mal flüchtig. Keine schlechte Idee. Was fehlt:

1. Ich habe keine Ahnung, was ich auf den Einstellungsebenen veranstaltet habe. Umbenennen kann ich sie auch nicht, genauso wenig wie die einzelnen Instanzen im Farbtab, bzw. Inspektor. Resolve dagegen zeigt mir in dem Node-Icon eine kleine Repräsentation des Keys, die verwendeten Werkzeuge als Mini-Icon, und umbenennen kann ich die Nodes auch, falls mir das nicht reicht. Dazu kommt, dass ich in FCP gar keinen zweiten Farbbereich auf einer höheren Ebene auswählen kann, ohne die Ebene darunter mit v zu deaktivieren (Klick in Resolve).

2. Bevor es die HSL-Qualifier gab konnte man die Farbmaske weichzeichnen. Das geht jetzt nicht mehr. Eine harte Auswahl ist aber Scheiße. Und die kleinen Anfasser links und rechts haben nicht den gleichen Effekt! Oder habe ich da was übersehen?

3. Ich kann die Formmaske (anderswo bekannt als power window) nicht automatisch tracken.

4. Ich kann die Formmaske nicht kopieren. Die Einstellungsebenen sind kaum anders als würde ich den gesamten Clip als sein eigenes Duplikat übereinanderstapeln und mit Kompositionsmodi rumhantieren. Das wäre wahrscheinlich übersichtlicher.

5. Der Vorteil von FCPX beim Schnitt ist die Effizienz. Vor kurzem noch im fcp.co forum anhand von "asymmetrischem Trimmen" (zu deutsch: ein L- oder J-Cut) in AVID verglichen. Kein Klick in FCP (bei verbundenem Audio nur ein Doppelklick, dann länger ziehen), sehr viele Klicks in AVID (abhängig davon, wie viele Spuren man vorher auswählen muss). Oder vergleichend eine Temporampe in Premiere und FCP. Kompliziert? Nein Danke. Und in FCP ist durch die Fensteranordnung und durch das Prinzip der Effektliste statt Node-Tree die FarbkorrekturFarbkorrektur im Glossar erklärt schon per se erschwert, wird aber bei einer etwas komplizierten Aufgabe lächerlich umständlich. Die oben genannten vier Punkte summieren sich nämlich, jeder einzelne wäre u.U. verschmerzbar.

Das kommt der Bearbeitung mit den Nodes in Resolve in manchen Belangen schon recht nahe.

Das würde jeder freiwillig bleiben lassen.

Und mal ehrlich: wer von den Usern hier arbeitet schon so filigran an einem Video, wie in dem oben gezeigten Blockbuster-Beispiel?

Nun ja, das lassen schon viele freiwillig bleiben. Aber auch eine ganz einfache FarbkorrekturFarbkorrektur im Glossar erklärt mit zaghaftem Allerweltslook ist schneller in Resolve, das einmalige XML-Schicken schon eingerechnet. Auf Seite von Resolve wird nämlich bei einer FCPX-Delivery die Rückantwort gleich mit generiert. Fast ein Dynamic Link!



Antwort von Jott:

Hat schon jemand das neue Color Finale probiert? Dessen Anspruch: scheiß auf Resolve, geht jetzt alles direkt in fcp, Roundtrips waren gestern.



Antwort von Axel:


Hat schon jemand das neue Color Finale probiert? Dessen Anspruch: scheiß auf Resolve, geht jetzt alles direkt in fcp, Roundtrips waren gestern.

https://youtu.be/yfYa5TaOZkA

Ja, ein paar Sachen sind besser. Aber erstens nicht so gut wie Resolve (da fehlt noch 'ne ganze Menge) und zweitens kostet's mal wieder 149 €. Beim letzten Mal haben sich die, die die Pro-Version gekauft haben, geärgert, als zwei Wochen später FCP 10.4 rauskam, was vieles davon konnte. Und zudem schneller renderte. Dann kam immer wieder noch was dazu, z.B. in FCPX das Compare-Fenster (finde ich wichtig, aber den "Wipe" in Resolve finde ich noch gelungener), funzt das eigentlich mit CFP? Vielleicht wird 10.5 wieder Farbe zum Thema machen, wer weiß das schon?



Antwort von roki100:


Das Samyang 12mm hat Auflösungsschwächen an den Rändern, wenn man 4K-DCI (z.B. mit der Pocket 4K) aufnimmt, löst aber in der Bildmitte IMHO sehr ordentlich auf. Anbei ein mit der Pocket 4K geschossenes Test-DNG-Still, bei BlendeBlende im Glossar erklärt 2.8.

Das sah beim Test überhaupt nicht so aus, sondern das gesamt Bild ungefähr so, wie die Ränder bei deinem 4K Beispiel. Der User nedag hat hier irgendwo Beispiel Bild mit der Samyang 12mm Linse gepostet, auch sehr unscharf...
Ich habe es auch mit f2.8 und f4 getestet... erst ab f8 sah es etwas besser aus.



Antwort von pillepalle:

@ roki100

Das ist doch normal. Bei preiswerten Optiken hat man immer eine größere Streuung. D.h. es ist viel wahrscheinlicher das Du auch mal eine 'Gurke' erwischst. Da hilft nur mehrere ausprobieren bis man eine Gute findet.

VG



Antwort von roki100:


@ roki100

Das ist doch normal. Bei preiswerten Optiken hat man immer eine größere Streuung. D.h. es ist viel wahrscheinlicher das Du auch mal eine 'Gurke' erwischst. Da hilft nur mehrere ausprobieren bis man eine Gute findet.

VG

das weiß ich Mittlerweile auch. Lieder gibt es keine Anleitung im netz, wie man Samyang 12mm selbst justieren/kalibrieren kann. Der Verkäufer meinte, man muss es nach Polen schicken.



Antwort von Axel:

Eine Handvoll PRAW-Tests mit der Nikon Z6 sickert jetzt auf Youtube rein. Alle ziemlich enttäuschend. Der ist okay:
https://youtu.be/z7G3RBH955s

Aber nichts, was 8-bit nicht gekonnt hätte. Der Ersteller sagt, es ist lächerlich, das in 8-bit versuchen zu wollen, aber das sehe ich nicht so. Da sind die meisten Kätzchen von BM-Kameras auf Anhieb eindrucksvoller (und schärfer 🤨).



Antwort von Funless:

Ja Schärfe, Schärfe, Schärfe ...

The digital filmmaker‘s curse of the 21st century.



Antwort von roki100:

https://www.youtube.com/watch?v=YnQA75YheW4

WB/ColorTemp ist also eingebacken...?

kein Highlight Recovery...?

https://www.youtube.com/watch?v=Tfu4XtxtPxk



Antwort von Axel:

Die blaue Lampe im Hintergrund ist sowohl bei N-Log als auch bei PRAW "kompletter Schrott" (auch mit Colorchecker, wohlgemerkt), bei interner (8-bit) Aufzeichnung aber visuell "voll okay". Aber wahrscheinlich liegt das an der "schlechten Qualität der Lampe" ???

Worauf will der Mann hinaus?

wolfcrow: "once it is clipped, it stays clipped."

Seufz.



Antwort von roki100:


Worauf will der Mann hinaus?

er glaubt, es würde an die schlechte LED Lampe liegen ;) Es liegt definitiv an eingebackene ColorTemp bzw. das kalte (zu blau) lässt sich nicht wiederherstellen.... und eingebrannt in den Highlights (die LED Lampe). Vielleicht ist das nur ein ProResProRes im Glossar erklärt RAW Bug und es kommt demnächst ein Atomos oder Nikon fix.



Antwort von Axel:



Worauf will der Mann hinaus?

er glaubt, es würde an die schlechtes LED Lampe liegen ;) Es liegt definitiv an eingebackene ColorTemp bzw. das kalte (zu blau) lässt sich nicht wiederherstellen.... und eingebrannt in den Highlights (die LED Lampe). Vielleicht ist das ProResProRes im Glossar erklärt RAW Bug und es kommt demnächst ein Atomos oder Nikon fix.

Ich tippe darauf, dass er was falsch macht. Was man mit Testclips aber leicht nachvollziehen kann ist, dass, zumindest in FCPX, nicht das Gefühl aufkommen will, tatsächlich mit Raw zu arbeiten.



Antwort von roki100:

er hat doch alles richtig gemacht, also mit falsche ColorTemp werte aufgenommen und nachträglich diese korrigiert bzw. das was ich vor ein paar Wochen vorgeschlagen habe, um so zu testen ob ColorTemp eingebacken ist: viewtopic.php?f=2&t=147648&start=70#p1021595

wolfcrow: "once it is clipped, it stays clipped."

Damit ist gemeint, dass Highlight Recovery nicht möglich ist. Und in diesem Video ist das mit PRRAW möglich:

https://www.youtube.com/watch?v=Pc6Nt2UlTQw

Es handelt sich jedoch nicht um Nikon + Atomos PRRAW.... Entweder ist das Ganze ein (Nikon oder Atomos) Bug oder es geht nicht anders.



Antwort von Axel:

Bin gerade unterwegs und kann auf dem Phone-Display nicht genau sehen, was er einstellt. Ich kann mir vage vorstellen, warum hier (scheinbar) klappt und dort (scheinbar) nicht. Die Highlight-Recovery ist eine Roll-Off-Kurvenkorrektur, und sowas gibt es in FCP halt nicht, weil im DSLR-Shooter-Video die S-Kurve erst manuell durch die Korrektur erzeugt wird. Das ist das Problem (oder vielleicht das Missverständnis?), dass alle in einem 2020 Farbraum beginnen und das dann in einer 709-Timeline anwenden. Total nervig. Aber geclippt ist geclippt. wolfcrow muss N-Log und PRAW unterschiedlich belichtet haben.



Antwort von pillepalle:

Schade dass ich da nicht hin kann... :)

https://www.facebook.com/plugins/post.p ... 701312%3A0

VG



Antwort von Axel:

Ich habe mir wolfcrows Video nochmal in Ruhe angesehen. Seinen "download link in the description" habe ich nicht gefunden. Aber einen möglichen / wahrscheinlichen Fehler:

Er sagt, dass ein Vorteil von PRAW ist, dass er alle anderen ISO-Werte außer 800 verwenden kann im Gegensatz zu N-Log, somit bei Sonnenlicht ISO 100 statt eines NDs verwenden kann. Bei echtem Raw, das ich kenne, für Fotos von Canon, Nikon, Panasonic und Sony, für Video von Blackmagic, ändert sich durch Verstellen des ISO eigentlich gar nichts - bis möglicherweise auf die von mir eingestellte Belichtung. Ich erinnere mich vage an einen Noobie-Eintrag im RED Forum, wo einer sich Scarlett oder Raven vom Mund abgespart hatte, dann mit hoher ISO aufgenommen hatte, nur, um später festzustellen, dass alles unerwarteterweise unterbelichtet war. Das Gegenteil wird hier passiert sein. Er hat um, wie es scheint, eine BlendeBlende im Glossar erklärt überbelichtet, absolut geclippt. Und natürlich hat ein geclipptes Raw-Video weniger Dynamik als ein korrekt belichtetes Log-Video derselben Kamera.

Ansonsten scheint er den Nagel auf den Kopf zu treffen. Welche ISO-Empfindlichkeit kameraseits eingestellt war, das muss man im NLE sehen können. Fehlanzeige im sonst so metadatenfreundlichen FCPX. Kein Raw-Modul, das anhand dieser Einstellungen eine normalisierte Vorschau ermöglicht. Mit anderen Worten: kein praktikabler Workflow. Oder alle machen was falsch, wirklich alle. Es ist auch unlogisch, dass dieser deutsche Tester die blaue Lampe in PRAW nicht vom Kanal-Clipping hat bewahren können, da ja sämtliche Farb- und Helligkeitsinformationen, die im normal aussehenden 8-bit-Vergleichsclip sind, da sein müssen. Falsch interpretiert, würde ich mal tippen. Was sagt die FCP Hilfe zu PRAW? Dass das Programm automatisch den Kamerahersteller erkennt (was mit Atomos und Nikon Z offenbar nicht der Fall ist) und eine Konvertierungs-LUT anwendet, allerdings, "um die Farbe in ProResProRes im Glossar erklärt RAW-Videos so zu korrigieren, als handele es sich um SDR-Videos." Na toll. Aber immerhin:
zum Bild https://i.postimg.cc/9fTvGvR8/PRAW-Apple-Hilfe.jpg

Man hat die Wahl zwischen Informationen wegschmeißen oder gar keinem Tonemapping? Ich muss da was missverstehen.



Antwort von pillepalle:

@ Axel

Es macht in RAW natürlich einen Unterschied mit welcher ASA Zahl man dreht. Auch bei Fotos. Normalerweise reduziert man mit hochdrehen der ASA Zahl ja auch den Dynamikumfang. Das ist der Preis für die höhere Empfindlichkeit. Und wenn es bei Fotos nicht egal ist, warum sollte es dann bei Film egal sein? Klar verwendet man immer eine möglichst niedrige ISO, aber wenn man zu stark unterbelichtet, dann ist da auch mit RAW nix mehr zu holen...

VG



Antwort von dienstag_01:

https://www.foto-schuhmacher.de/artikel ... rianz.html

Es gibt halt solches und solches Processing ;)



Antwort von pillepalle:

Das Prinzip ist mir schon klar, nur die Praxis ist eine andere. Wirklich isoless Sensoren kenne ich keinen. Mach mal ein RAW-Bild mit der Base ISO 32-200 (je nach Kameramodell) und eins mit ISO 6400. Du wirst sehen das sich die Ergebnisse sehr wohl unterscheiden.
Auch bei der Pocket hat man einen eingeschränkten ISO Bereich und kann nur innerhalb weniger Blenden die ISO nachträglich verändern. Da gibt es gar kein ISO 100, oder 25.000 soweit ich weiss.

VG



Antwort von Jörg:

danke für den link



Antwort von roki100:

@pillepalle
Bei BMD CDNG gibt es nachträglich noch Exposure, was das selbe ist wie ISO. Exposure +1 ist +ISO200 / -0.50 ist -ISO100 usw.
Wie das mit BRAW ist weiß ich nicht.



Antwort von pillepalle:


@pillepalle
Bei BMD CDNG gibt es nachträglich noch Exposure, was das selbe ist wie ISO. Exposure +1 ist +ISO200 / -0.50 ist -ISO100 usw.
Wie das mit BRAW ist weiß ich nicht.

Und um wieviel Blenden kannst Du die nachträglich verschieben?



Antwort von dienstag_01:

Bei DPreview gibt es zu jeder aktuellen Kamera einen ISO-Invarianz Text.



Antwort von roki100:

@pillepalle
Die Einstellung für ISO ist (z.B. für BMPCC) ISO200 bis ISO1600. Das sind aber keine feste Werte, weil es noch Exposure Regler von -5.00 bis +5.00 gibt. Das heißt, ISO200 ist nicht der niedrigste Wert, da man noch Exposure bis -5 bedienen kann (-0.50 ist gleich wie ISO100) ...



Antwort von pillepalle:

Kann ich gerade nicht finden, weil ich unterwegs bin. Suche ich heute Abend noch mal nach. Das einzige was ich bei DP Review auf die Schnelle gefunden habe war die Aussage da sie neuesten Sony Sensoren isoless seien (welche das auch immer sein mögen) und es bei allen anderen eben doch einen Unterschied macht, bzw. sich nur in bestimmten Bereichen (z. B. über ISO 1600) wirklich Isoless Verhalten würden.
Die Nikon Kameras sind es jedenfalls nicht.

VG



Antwort von Axel:

Das Prinzip ist mir schon klar, nur die Praxis ist eine andere. Wirklich isoless Sensoren kenne ich keinen. Mach mal ein RAW-Bild mit der Base ISO 32-200 (je nach Kameramodell) und eins mit ISO 6400. Du wirst sehen das sich die Ergebnisse sehr wohl unterscheiden.
Auch bei der Pocket hat man einen eingeschränkten ISO Bereich und kann nur innerhalb weniger Blenden die ISO nachträglich verändern. Da gibt es gar kein ISO 100, oder 25.000 soweit ich weiss.

Ich weiß nicht, wie es bei Dual Iso funktioniert. Ansonsten gibt es bei der Pocket HD und bei der Nikon Z6 eine native Sensorempfindlichkeit von 800, und nur in dieser steht der volle Dynamikbereich zur Verfügung (weswegen er auch bei Log-Profilen der Default ist, d.h. man kann darüber gehen, aber nicht 400, 200, 100 wählen). Anscheinend meinst du einen Sensor ohne echten Gain, was komplizierter ist (siehe von dienstag_01 verlinkten Artikel). Aus eigener Erfahrung weiß ich, dass ich höhere Iso bei Slog freischalten und als ETTR verwenden kann, und zwar, um Rauschen (und allerdings auch Dynamik!) zu minimieren. Das lässt den Umkehrschluss zu, dass keine analoge Signalverstärkung stattfindet (dann würde es mehr rauschen) sondern dass die Signale durch eine bei der Kodierung eingebackene Kurve digital verstärkt werden.

VG
https://www.foto-schuhmacher.de/artikel ... rianz.html

Es gibt halt solches und solches Processing ;)

Daraus (bezieht sich auf modernste Sensoren):

Der Analog-Digital-Wandler rückt eine Stufe nach links auf 3. Die ISO-Aufhellung liegt nun auf 4. Aber sie geht nur noch als reiner Zahlenwert in die RAW-Datei ein. De facto wird für RAW-Dateien nichts mehr verstärkt. Eine kamerainterne reale Signalverstärkung tritt nur noch für JPEG-Dateien ein.

Und dass dieser reine Zahlenwert nicht zur Verfügung steht und "Belichtung" das Bild nur heller oder dunkler macht anstatt, wie bei 8-bit, effektiv (anscheinend) den Gammawert zu verschieben - das ist gegenwärtig der Murks in FCPX. Im Februar soll Gerüchten zufolge Version 10.5 kommen. Da dürfen wir gespannt sein, ob Apple hier Nägel mit Köpfen macht.



Antwort von pillepalle:


@pillepalle
Die Einstellung für ISO ist (z.B. für BMPCC) ISO200 bis ISO1600. Das sind aber keine feste Werte, weil es noch Exposure Regler von -5.00 bis +5.00 gibt. Das heißt, ISO200 ist nicht der niedrigste Wert, da man noch Exposure bis -5 bedienen kann (-0.50 ist gleich wie ISO100) ...

Du kannst die Kamera dann nur über 3 Blenden in den ISO Werten einstellen? Dann wäre die Kamera also in dem Bereich ISO invariant. Ist natürlich etwas weniger als bei einer Kamera bei denen man über 9 oder 10 Blenden die ISO verändern kann.

VG



Antwort von Axel:

Zu dem angeblich "eingebackenen" WB: Der "Farbtemperatur"-Regler in FCPX hat eine normalere Anmutung für 8-bit. Bei PRAW wärmt oder kühlt er tendenziell mehr das gesamte Bild. Dasselbe mit "Färbung" (Tint). In PRAW fast wie ein einfacher Magenta/Grün-Filter. Es sieht so aus, dass FCP das PRAW nicht so recht "versteht".

EDIT: Interessante Beobachtung ist, dass der Master-Puck "Farbe" der vermeintlich primitiven Farbtafel die Farbtemperatur realistisch verändert, genau wie die "Färbung". "Belichtung" reagiert auch richtig.



Antwort von dienstag_01:

Was man darüber hinaus verstehen sollte, das RAW Processing in der Kamera und die Rückführung in der Software sind zwei verschiedene Dinge. In der Kamera macht das der Hersteller der Kamera, die Softwarehersteller der Raw Entwickler bekommen a nicht alle Informationen von ihnen (bleibt nur Revers Engineering) und b entscheiden sie selbst, wie das Raw des jeweiligen Herstellers verarbeitet/aussehen wird.

Warum schreibe ich das? Man sollte aus dem Verhalten einer Raw Datei in einem x-beliebigen Entwickler keine eins-zu-eins Rückschlüsse auf die Verarbeitung in der Kamera ziehen. Oder wenigstens vorsichtig damit sein.



Antwort von pillepalle:

Ich hatte mir jetzt mal den Themenblock (ca. 30min.) den Nikon auf der CES zu ProResProRes im Glossar erklärt RAW hatte angeschaut, aber wirklich interessantes zum Workflow gab es da noch nicht (Das Adobe und Avid als NLEs dazu kommen werden, war ja schon bekannt). Einzig das es sich bei den beiden RAW Codecs um ProResProRes im Glossar erklärt Raw HQ 5:1 und ProREs Raw HQ 3:1 handelt, das die Kamera keinerlei Datenverarbeitung vornehme und es sich um echte RAW Daten handelt, wurde von offizieller Seite nochmals erwähnt. Sobald Premiere das FormatFormat im Glossar erklärt unterstützt werde ich mir ein Monatsabo gönnen und mir anschauen wie es dort implementiert wurde...

https://www.youtube.com/watch?v=4sn5YvmnrH4

VG




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Nikon RAW-Ausgabe für Z6 und Z7 ist jetzt verfügbar!
Nikon Z7 - viele Crop-Modi und deren Unterschiede in der Bildqualität beim Filmen
Sony FX9 v2.0 Update ist da mit FF5K-Crop, C4K, HLG, User 3D-LUTs, RAW-Ausgabe und mehr
Gamechanger: ProRes RAW für die Vollformat Nikon Z6 und Nikon Z7 im Anflug // CES 2019
Atomos Shogun 7 Update: ProRes RAW Aufnahme mit Sonys FX9 jetzt verfügbar
ProRes RAW vs Nikon N-Log Hauttöne im Vergleich - Nikon Z6 und Atomos Ninja V in der Praxis
Nikon 10 Bit N-Log 3D LUT für Nikon Z6 u. Z7 zum freien Download da - ProRes RAW kostenpflichtig
Nikon 10 Bit N-Log LUT ausprobiert: Wie gut ist die offizielle N-Log LUT für Nikon Z6 und Z7?
Displaylupe für Pocket 4K/ 6K jetzt verfügbar
Irix Cine-Objektive jetzt auch für Canon RF-Mount verfügbar
Sigma fp -- 4K RAW-Kamera demnächst für 1899 Dollar verfügbar
Nikon Firmware 2.0 für Nikon Z6 und Z7 bringt Eye-AF, besseren Lowlight AF und mehr
Blackmagic Camera Update 4.5, Nikon F-Mount und SSD-Recorder jetzt da
Weitere CES-Informationen zu Nikon, RAW und Atomos
Osmo Raw -- Handgimbal jetzt mit X5R 4K-Raw Kamera kompatibel // NAB 2016
Wann ersetzt Nikon RED? Compressed RAW für alle ...!
Korrigiertes HLG Firmware-Update v4.02 für Sony FS5 ist verfügbar
Silhouette Paint: professionelles Roto- und Paint-Tool jetzt auch als Plugin verfügbar
12 Bit ProRes RAW mit der Nikon Z 6 / Z 7 und Atomos Ninja V
Sandisk teasert CFexpress-Karten mit 4K Raw Video und Nikon
Nikon Z6 Problem: Bild-Flackern bei LOG (und RAW) Videoaufnahme
Neue Nikon Sofortrabatt-Aktion: bis zu 400 Euro für Nikon Z6, Z7 und Objektive
Nikon zeigt neue Eye AF Funktion für Nikon Z6 und Z7 im Video // CES 2019
Griffvergösserung für Nikon Z6 und Nikon Z7: Meike MK-Z7G
Besserer Ton: Mikrofon-Adapter für DJI Osmo Pocket ist verfügbar
Messevideo: Nikon Z6 und ProRes RAW mit dem Atomos Ninja V // NAB 2019

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
15. August - 15. November / Düsseldorf
upfront! young european video award
30-31. Oktober / Espelkamp
Filmfestival SPITZiale
6-8. November / Freyung
Kurzfilmfest Dreiländereck
27. November / Bielefeld
31. Bilderbeben zum Thema „Abschied“
alle Termine und Einreichfristen