Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Infoseite // Z-RAW native support for premiere



Frage von iasi:


Laut Aussage eines Users un der ZCam-Facebook-Gruppe, gibt"s nun also ...

Z-RAW native support for premiere (PC) has been developped. Files import seamlessly. They directly pop up in your project bin and you can scrub through them (proxies are adviced). In the effects panel you can click on the master file, just like with R3D raw. There you can see the metadata you can alter in post: ISO, Kelvin and temperature. From there you can either grade the footage with the z-raw plugin or use lumetri panel. The in camera debayered part make these files user friendly, so there's not a lot of noise reduction and sharpness that needs to be applied. There is a lot of room and flexibility in post. I'll be shooting Z-raw from now on.

Nett, wie er das in-Kamera-debayern versucht positiv darzustellen.

Aber immerhin: Nun kann man Z-Raw immerhin in Premiere und bearbeiten. Ganz so zu Anfang mit RedRaw - nur ist dies eben auch schon Jahre her.

proxies are adviced deutet leider nichts gutes an. ;)

Space


Antwort von roki100:

iasi hat geschrieben:
Nett, wie er das in-Kamera-debayern versucht positiv darzustellen.
"...noise reduction and sharpness..."

Wie BRAW? Das finde ich jetzt nicht so schlimm. Schlimmer wäre es doch, wenn z.B. WB/ColorTemp eingebacken ist.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Nett, wie er das in-Kamera-debayern versucht positiv darzustellen.
"...noise reduction and sharpness..."

Wie BRAW? Das finde ich jetzt nicht so schlimm. Schlimmer wäre es doch, wenn z.B. WB/ColorTemp eingebacken ist.
Dass es bei BRaw auch so ist, macht es ja nicht besser.

Aber wichtiger wird sein, wie man ohne proxies arbeiten kann,

Space


Antwort von roki100:

iasi hat geschrieben:
Dass es bei BRaw auch so ist, macht es ja nicht besser.
Ich weiß leider nicht wo ich das gesehen habe, aber es gibt so ein vergleich zwischen BRAW (P4K) und ZRAW 4K (E2). ZRAW war um einiges schärfer. Es scheint also etwas besser zu sein.

Space


Antwort von Onkel Danny:

Das irgendwann mal ein nativer Support kommt, war doch wohl zu erwarten.
Jetzt ist er da, zumindest schon mal für ein großes NLE, ist doch schön.

Und nochmal fürs Protokoll: jedes verlustbehaftet komprimierte RAW Format ist schon teilweise gedebayert!
Auch Red Raw ist stark bearbeitet, genau wie alle anderen auch.

Die einen sagen es offen, die anderen eben nicht.
roki100 hat geschrieben:
... ZRAW war um einiges schärfer. Es scheint also etwas besser zu sein.
Es ist nicht besser, nur weil Zcam stärker nachschärft, völliger Unsinn ;)

greetz

Space


Antwort von mash_gh4:

"Onkel Danny" hat geschrieben:
roki100 hat geschrieben:
... ZRAW war um einiges schärfer. Es scheint also etwas besser zu sein.
Es ist nicht besser, nur weil Zcam stärker nachschärft, völliger Unsinn ;)
ich denke, dass hat mehr damit zu tun, wie BMD komprimiert.

wenn man sich das näher angeschaut hat, war schon die properitäre kompressionsvariante, die sie im cDNG benutzt haben ziemlich problematisch (=> mehrere pixel breite vertikale streifenbildung), und im BRAW ist es nur noch schlimmer und m.e. weitestgehend unzumutbar geworden. mit irgendwelchem nachschärfen hat das wirklich nichts zu tun, sondern nur mit informationsverlusten auf grund der unzureichenden komprimierung.

leider lässt sich derartiges bei kameras bzw. weitestegehend geschlossenen verabeitungslösungen nur schwer mit messungen und eindeutigen zahlen belegen, aber im falle von BRAW ist das auch nicht wirklich nötig, weil es ohnehein auch mit freiem auge klar zu erkennen ist.

Space


Antwort von roki100:

"Onkel Danny" hat geschrieben:
Es ist nicht besser, nur weil Zcam stärker nachschärft, völliger Unsinn ;)
besser ist es natürlich wenn BMD BRAW mehr entschärft...und sogar ProRes dann schärfer aussehen lässt. ;)
Aber mash_gh4 kann schon recht haben, wahrscheinlich liegt es an die BMD Komprimierung.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Dass es bei BRaw auch so ist, macht es ja nicht besser.
Ich weiß leider nicht wo ich das gesehen habe, aber es gibt so ein vergleich zwischen BRAW (P4K) und ZRAW 4K (E2). ZRAW war um einiges schärfer. Es scheint also etwas besser zu sein.
Wenn es stärker geschärft ist, ist es eher schelchter.

Space


Antwort von iasi:

roki100 hat geschrieben:
"Onkel Danny" hat geschrieben:
Es ist nicht besser, nur weil Zcam stärker nachschärft, völliger Unsinn ;)
besser ist es natürlich wenn BMD BRAW mehr entschärft...und sogar ProRes dann schärfer aussehen lässt. ;)
Aber mash_gh4 kann schon recht haben, wahrscheinlich liegt es an die BMD Komprimierung.
Red-Material lässt zunächst mal auch Schärfe vermissen. Das hat doch aber nichts mit der Komprimierung zu tun.

Dass BRaw unzumutbar sei, hab ich bisher noch nicht bemerkt und auch noch nicht gehört.

Space



Space


Antwort von cantsin:

Habe mich schon immer gewundert, wie Zcam um REDs Patent herumentwickelt hat - also auch als Pseudo-RAW.

Dass Blackmagics BRAW weich aussieht, liegt am eingebackenen temporal denoising.

Space


Antwort von dienstag_01:

Prinzipiell ist es doch immer so, daß die - elektronische - Schärfe nicht ins RAW einfliesst. Ist doch ein nachgelagerter Prozess.

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Prinzipiell ist es doch immer so, daß die - elektronische - Schärfe nicht ins RAW einfliesst. Ist doch ein nachgelagerter Prozess.
Nicht mehr bei dem, was Hersteller wie Blackmagic und Zcam heute als "RAW" verkaufen (was eigentlich nur 12bit-Log-Video ist).

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Prinzipiell ist es doch immer so, daß die - elektronische - Schärfe nicht ins RAW einfliesst. Ist doch ein nachgelagerter Prozess.
Nicht mehr bei dem, was Hersteller wie Blackmagic und Zcam heute als "RAW" verkaufen (was eigentlich nur 12bit-Log-Video ist).
D.h., die Schärfe wird mitgenommen?

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
cantsin hat geschrieben:


Nicht mehr bei dem, was Hersteller wie Blackmagic und Zcam heute als "RAW" verkaufen (was eigentlich nur 12bit-Log-Video ist).
D.h., die Schärfe wird mitgenommen?
Zum Teil ja. Unser Forenmitglied DeeZid hatte ja einen längere Diskussion, auch mit Blackmagic, über Nachschärfungsartefakte/Halos in BRAW.

Space


Antwort von roki100:

Aktuell wird im BMD Forum darüber diskutiert wo auch CDNG und BRAW Files zum Download zur Verfügung steht https://forum.blackmagicdesign.com/view ... 50#p621632
Da kann man dann vergleichen. Also ich habe mir das angeschaut und cantsin hat m.M. recht, es liegt am eingebackenen temporal denoising. Hier zwei Screenshots. Genauer sieht man aber wenn man das als Video abspielt und genauer hinsieht.

BRAW BRAW.png CDNG CDNG.png Das ist bei ZRAW doch nicht der Fall(?). Ich habe mir vor ein paar Wochen (als ich mir die E2 kaufen wollte) ZRAW sample heruntergeladen, mit ZCAM Programm umgewandelt und mir das ganze angeschaut und das sah auf gar kein Fall so wie BRAW und temporal denoising aus.

Space


Antwort von iasi:

Unterschiedliche Kameras mit unterschiedlichen Objektiven.

Space


Antwort von Darth Schneider:

Um herauszufinden welches Raw Format wirklich besser ist müssten ZRaw und BRaw Dateien in der selben Kamera erzeugt werden können.
Alles andere ist doch nur reine Lotterie. Liegt es an der Kamera, am Sensor, am Objektiv, an den Einstellungen ???
An Roki100
Warum denkst du bei Raw schärfer ist besser ?
Ich denke genau umgekehrt, zu viel Schärfe=Videolook.
Das schöne am Bild deiner Pocket ist ja genau das das Bild weicher ist, als bei meiner...;-)

Space


Antwort von iasi:

Es gehört eben auch zu Raw, dass man NR und Schärfung in der Post macht. Auch das sollte nicht schon "endgültig" eingebacken sein.

Beim Vergleich der Standbilder fallen mir zudem andere Unterschiede viel stärker auf.

Space



Space


Antwort von Darth Schneider:

Was mich ein wenig verwirrt, ich kann bei der Pocket wohl bei ProRes die Schärfe sogar in der Kamera anpassen, aber bei BRaw geht das nicht mal einfach so mit einem Regler in Resolve..meines bescheidenen Wissens nur mit digitalen Filtern und so....
Aber sonst kann man alles am BRaw Bild anpassen, biegen und formen, aber die Schärfe nicht ??
Wie bescheuert Unlogisch ist das denn ?
Gruss Boris

Space


Antwort von iasi:

https://www.slashcam.de/artikel/Ratgebe ... Funkt.html

Space


Antwort von Darth Schneider:

Witzig finde ich das Arri Raw fast am wenigsten an Raw Optionen bietet, aber in Hollywood scheinbar (nach den benutzten Kameras zu urteilen) trotzdem das beliebteste Format ist.
Also was machen denn alle anderen Hersteller falsch ??
Liegt das an den Kameras ? Umständlicher Workflow, der immer noch frischen Konkurrenz, oder liegt das einfach nur am Marketing und Vitamin B ?
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Witzig finde ich das Arri Raw fast am wenigsten an Raw Optionen bietet, aber in Hollywood scheinbar (nach den benutzten Kameras zu urteilen) trotzdem das beliebteste Format ist.
Also was machen denn alle anderen Hersteller falsch ??
Liegt das an den Kameras ? Umständlicher Workflow, der immer noch frischen Konkurrenz, oder liegt das einfach nur am Marketing und Vitamin B ?
Gruss Boris
Es liegt daran, dass früher schon alle mit Arri-Cams gedreht hatten.
Vor allem war Arri so klug, den Übergang von Negativ zu Digital möglichst leicht zu gestalten. Wenn ein DP es gewohnt war, sein Negativ um 1 Blende überzubelichten, so wurde er dafür von einer Alexa nicht gleich brutal abgestraft.
Und natürlich hatte sich Arri etwas mehr Zeit genommen und dann eine sehr gute Kamera entwickelt.

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Was mich ein wenig verwirrt, ich kann bei der Pocket wohl bei ProRes die Schärfe sogar in der Kamera anpassen, aber bei BRaw geht das nicht mal einfach so mit einem Regler in Resolve..meines bescheidenen Wissens nur mit digitalen Filtern und so....
Die Schärfeeinstellung ist immer (und bei allen Kameras) ein digitaler Filter...

Space


Antwort von Darth Schneider:

Ich frage mich wie die das bei Raw mit Iso machen, ist das einfach eine Art Raw Gain ?
Das muss scheinbar so sein, denn schon in der Kamera sehe ich bei meiner 4K Pocket wie 400iso, nicht wenig, weniger rauscht bei schlechtem Licht als Iso 3200.....
Also, doch nicht wirklich Dual Iso, oder ist das normal ??
Und wie ist bei den Farben, dem Grading ? Und bei HIghlight Recovery ? Auf jeden Fall, eine digitale Änderung, auf Pixel Ebene, weil das Licht am Drehort kann Resolve ja nicht wirklich verändern. Bei zu groben Änderungen, leidet das Bild.
Gruss Boris

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Ich frage mich wie die das bei Raw mit Iso machen, ist das einfach eine Art Raw Gain ?
ISO ist Gain, bei allen Kameras. :-)

RAW macht diese Mechanismen nur etwas transparenter.

Space


Antwort von Darth Schneider:

Also, ist der höhere (In meinem Fall 3200iso) der beiden Dual Iso Werten, auch Gain ?
Gruss Boris

Space


Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Also, ist der höhere (In meinem Fall 3200iso) der beiden Dual Iso Werten, auch Gain ?
Ja, eine zweite, direkt in den Sensor eingebaute Gainstufe. Daher ja auch der Name "Dual-Gain-Sensor".

Space



Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
An Roki100
Warum denkst du bei Raw schärfer ist besser ?
Ich denke genau umgekehrt, zu viel Schärfe=Videolook.
das denke ich überhaupt nicht, sondern das Kamera interne denoiser für BRAW schlechter ist, als RAW ohne denoiser.

Und übrigens, Dual Gain wie das bei Arri und ältere BMD Kameras und nun auch bei C300M3, ist nicht wie DualISO, wie das bei P4K&Co. Eine Bestätigung von BMD Mitarbeiter "CaptainHook":
The dual gain readout in the BMCC, Pocket/Micro (HD), and 4.6K do work similar to ARRI's dual gain where the dual gain is readout simultaneously and combined for higher dynamic range. The "dual gain" on the Pocket 4K/6K that you might be thinking of is different and is used to achieve lower noise at higher ISO's by 'changing the gain'.
https://forum.blackmagicdesign.com/view ... n+#p585441

DualISO: verringert bei höhere ISO/Gain Werten das rauschen...
DualGain: sorgt für einen höheren DynamicRange...

Space


Antwort von Darth Schneider:


Was auch immer BRaw und die neuen Pockets machen das scheinbar mit dem Raw auch ohne Fairchild Sensor schon auch richtig ;-)
Gruss Boris

Space


Antwort von rdcl:

roki100 hat geschrieben:
"Darth Schneider" hat geschrieben:
An Roki100
Warum denkst du bei Raw schärfer ist besser ?
Ich denke genau umgekehrt, zu viel Schärfe=Videolook.
das denke ich überhaupt nicht, sondern das Kamera interne denoiser für BRAW schlechter ist, als RAW ohne denoiser.

Und übrigens, Dual Gain wie das bei Arri und ältere BMD Kameras und nun auch bei C300M3, ist nicht wie DualISO, wie das bei P4K&Co. Eine Bestätigung von BMD Mitarbeiter "CaptainHook":
The dual gain readout in the BMCC, Pocket/Micro (HD), and 4.6K do work similar to ARRI's dual gain where the dual gain is readout simultaneously and combined for higher dynamic range. The "dual gain" on the Pocket 4K/6K that you might be thinking of is different and is used to achieve lower noise at higher ISO's by 'changing the gain'.
https://forum.blackmagicdesign.com/view ... n+#p585441

DualISO: verringert bei höhere ISO/Gain Werten das rauschen...
DualGain: sorgt für einen höheren DynamicRange...
Dein zitierter Post und deine Schlussfolgerung am Ende wiedersprechen sich.

Space


Antwort von roki100:

@Darth Schneider
ja, ist doch tolle Kamera. Doch leider muss ich zugeben, dass ich eingebackenen temporal denoising für BRAW nicht so toll finde. Hätte ich die P4K only BRAW Kamera, dann würde ich höchstwahrscheinlich nur in ProRes filmen und als denoiser eben NeatVideo einsetzen.

Space


Antwort von roki100:

rdcl hat geschrieben:
roki100 hat geschrieben:


das denke ich überhaupt nicht, sondern das Kamera interne denoiser für BRAW schlechter ist, als RAW ohne denoiser.

Und übrigens, Dual Gain wie das bei Arri und ältere BMD Kameras und nun auch bei C300M3, ist nicht wie DualISO, wie das bei P4K&Co. Eine Bestätigung von BMD Mitarbeiter "CaptainHook":
The dual gain readout in the BMCC, Pocket/Micro (HD), and 4.6K do work similar to ARRI's dual gain where the dual gain is readout simultaneously and combined for higher dynamic range. The "dual gain" on the Pocket 4K/6K that you might be thinking of is different and is used to achieve lower noise at higher ISO's by 'changing the gain'.
https://forum.blackmagicdesign.com/view ... n+#p585441

DualISO: verringert bei höhere ISO/Gain Werten das rauschen...
DualGain: sorgt für einen höheren DynamicRange...
Dein zitierter Post und deine Schlussfolgerung am Ende wiedersprechen sich.
Warum?

Space


Antwort von rdcl:

roki100 hat geschrieben:
rdcl hat geschrieben:


Dein zitierter Post und deine Schlussfolgerung am Ende wiedersprechen sich.
Warum?
Weil du schreibst, dass Dual Iso zum verringern des Rauschen bei hohen Isos verwendet wird. In deinem Zitat wird da aber von Dual Gain gesprochen. Oder soll das Dual Gain in Anführungszeichen eigentlich Dual Iso heißen?

Space


Antwort von roki100:

rdcl hat geschrieben:
roki100 hat geschrieben:


Warum?
Weil du schreibst, dass Dual Iso zum verringern des Rauschen bei hohen Isos verwendet wird. In deinem Zitat wird da aber von Dual Gain gesprochen. Oder soll das Dual Gain in Anführungszeichen eigentlich Dual Iso heißen?
ISO ist doch das selbe wie Gain/Exposure... deswegen wird DualISO öfter mit Dual Gain wie das von Arri, ältere BMD Kameras und Canon DGO verwechselt...
CaptainHook Antwort im BMD Forum, bezieht sich genau darauf und erklärt, dass das nicht das eine und das selbe ist.

Space


Antwort von rdcl:

roki100 hat geschrieben:
rdcl hat geschrieben:


Weil du schreibst, dass Dual Iso zum verringern des Rauschen bei hohen Isos verwendet wird. In deinem Zitat wird da aber von Dual Gain gesprochen. Oder soll das Dual Gain in Anführungszeichen eigentlich Dual Iso heißen?
ISO ist doch das selbe wie Gain/Exposure... deswegen wird DualISO öfter mit Dual Gain wie das von Arri und Canon DGO verwechselt.
CaptainHook Antwort im BMD Forum, bezieht sich genau darauf und erklärt, dass das nicht das eine und das selbe ist.
Aber wieso spricht er dann ausschließlich von Dual Gain? Und du von Dual Gain und Dual Iso?

Space


Antwort von Darth Schneider:

Da liegt genau meine Verwirrung mit dem Iso/Gain Thema.
Gruss Darth

Space



Space


Antwort von roki100:

rdcl hat geschrieben:
roki100 hat geschrieben:


ISO ist doch das selbe wie Gain/Exposure... deswegen wird DualISO öfter mit Dual Gain wie das von Arri und Canon DGO verwechselt.
CaptainHook Antwort im BMD Forum, bezieht sich genau darauf und erklärt, dass das nicht das eine und das selbe ist.
Aber wieso spricht er dann ausschließlich von Dual Gain? Und du von Dual Gain und Dual Iso?
weil ISO das selbe ist wie Gain/Exposure. Die Missverständnisse basieren genau darauf, nämlich, DualISO bedeutet auch "DaulGain", jedoch in der Funktionalität etwas anderes, nämlich: es verringert das rauschen bei höhere ISO Werten (z.B. bei ISO3200).

Space


Antwort von rdcl:

roki100 hat geschrieben:
rdcl hat geschrieben:


Aber wieso spricht er dann ausschließlich von Dual Gain? Und du von Dual Gain und Dual Iso?
weil ISO das selbe ist wie Gain/Exposure. Die Missverständnisse basieren genau darauf, nämlich, DualISO bedeutet auch "DaulGain", jedoch in der Funktionalität etwas anderes, nämlich: es verringert das rauschen bei höhere ISO Werten (z.B. bei ISO3200).
Ich habe das schon verstanden. Ich verstehe nur nicht, warum Captain Hook das so geschrieben hat.

Aber evtl. hat BMD bei den neuen Pockets auf Dual ISO gesetzt, weil das erhöhen der Dynamic Range (durch Dual Gain) durch den neuen Sensor nicht mehr nötig ist?

Space


Antwort von roki100:

rdcl hat geschrieben:
Aber evtl. hat BMD bei den neuen Pockets auf Dual ISO gesetzt, weil das erhöhen der Dynamic Range (durch Dual Gain) durch den neuen Sensor nicht mehr nötig ist?
Ja, scheint so zu sein. Der neue Sony Sensor erreicht auch ohne Arri&Co.-Dual Gain die selbe DynamicRange (also 88db? / 13 Stops). Mit dem unterschied, dass der Sony Sensor auch für lowlight besser geeignet ist (dank die neue DualISO Funktion).

Ich bin aber der Meinung, dass DualGain wie das von Arri&Co. das Bild nicht zu digital aussehen lässt...
Das ich das bei P4K anders sehe, kann auch an BMD neues Color Science liegen. Bin mir da nicht sicher. Ich habe es damals mit CDNG getestet und verglichen.

Space


Antwort von iasi:

roki100 hat geschrieben:


Ich bin aber der Meinung, dass DualGain wie das von Arri&Co. das Bild nicht zu digital aussehen lässt...
Das Bild sieht so aus, wie es während der Aufnahme und in der Post gestaltet wurde.
Es gibt auch genügend Filme, die mit Alexa gedreht wurden und digital aussehen.

Space


Antwort von roki100:

Du meinst RAW ist RAW und unabhängig davon mit welchen Sensoren aufgenommen wurde...?
Arri hat denke ich nicht umsonst DualGain damals gewählt. Denn die haben sehr viel Arbeit darin investiert (so habe ich das zumindest irgendwo gelesen), um den analogen Standard Look der alten Arri Kamera zu behalten/erreichen...

Es gibt (soweit ich weiß), nur drei Sensoren die DaulGain Architektur nutzen: Fairchild, ALEV und nun Sensor von Canon (da heißt es DGO) und alle stehen mit mehr Stops DynamicRange in Verbindung. Bei C300M3 wird damit beworben, siehe hier https://www.canon.de/video-cameras/eos- ... fications/
Dual Gain Output
Mehr als 16 Blendenstufen Dynamikumfang


Space


Antwort von iasi:

roki100 hat geschrieben:
Du meinst RAW ist RAW und unabhängig davon mit welchen Sensoren aufgenommen wurde...?
Nein - aber mal ganz abgesehen von den vielen Faktoren wie z.B. Objektiv, Blende etc., die das Bild beeinflussen, kannst du in der Post derart viel gestalten, dass die Unterschiede zwischen Cine-Kameras keine große Rolle mehr spielen.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:
Du meinst RAW ist RAW und unabhängig davon mit welchen Sensoren aufgenommen wurde...?
Nein - aber mal ganz abgesehen von den vielen Faktoren wie z.B. Objektiv, Blende etc., die das Bild beeinflussen, kannst du in der Post derart viel gestalten, dass die Unterschiede zwischen Cine-Kameras keine große Rolle mehr spielen.
ich denke nicht dass man mehr DynamicRange in der Post erreicht als das was die Sensor bieten können bzw. wie in Sensor Spec. zu lesen. Wobei 88db eigentlich um die 14,6 Stops ist? BMD gibt aber 13 Stops an, gemessen wurde aber 11-12 Stops (von unterschiedliche Tester)... vielleicht kann man in der Post irgendwie volle DynamicRange erreichen, also 14,6 Stops?

Ich finde immer noch, besseres DynamicRange viel wichtiger und filmischer sowieso, als mehr K.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Nein - aber mal ganz abgesehen von den vielen Faktoren wie z.B. Objektiv, Blende etc., die das Bild beeinflussen, kannst du in der Post derart viel gestalten, dass die Unterschiede zwischen Cine-Kameras keine große Rolle mehr spielen.
ich denke nicht dass man mehr DynamicRange in der Post erreicht als das was die Sensor bieten können bzw. wie in Sensor Spec. zu lesen. Wobei 88db eigentlich um die 14,6 Stops ist? BMD gibt aber 13 Stops an, gemessen wurde aber 11-12 Stops (von unterschiedliche Tester)... vielleicht kann man in der Post irgendwie volle DynamicRange erreichen, also 14,6 Stops?

Ich finde immer noch, besseres DynamicRange viel wichtiger und filmischer sowieso, als mehr K.
Hohe Kontraste kommen gar nicht so oft vor.
Und wenn es dann wirklich mal eine Person vor einem Himmel bei hohem Sonnenstand steht, rettet auch eine Alexa die Aufnahme nicht mehr - da muss dann in der Post ein schöner blauer Himmel mit Wolken eingefügt werden.

Ich hab mir heute z.B. Jumanji: The Next Level gegeben. In einer Einstellung in der Wüste war eine Gesichtshälfte von Dwayne Johnson auch ausgebrannt.

Space


Antwort von rush:

iasi hat geschrieben:

Und wenn es dann wirklich mal eine Person vor einem Himmel bei hohem Sonnenstand steht, rettet auch eine Alexa die Aufnahme nicht mehr - da muss dann in der Post ein schöner blauer Himmel mit Wolken eingefügt werden.
Was spricht dagegen einfach entsprechend Licht zu setzen bzw- 'nen Reflektor zu verwenden? ;-) Spart den Post-Kram...

Space



Space


Antwort von iasi:

rush hat geschrieben:
iasi hat geschrieben:

Und wenn es dann wirklich mal eine Person vor einem Himmel bei hohem Sonnenstand steht, rettet auch eine Alexa die Aufnahme nicht mehr - da muss dann in der Post ein schöner blauer Himmel mit Wolken eingefügt werden.
Was spricht dagegen einfach entsprechend Licht zu setzen bzw- 'nen Reflektor zu verwenden? ;-) Spart den Post-Kram...
Frag das z.B. die Macher des letzten Mad Max oder des teuersten indischen Films Baahubali

Space


Antwort von Funless:

iasi hat geschrieben:
rush hat geschrieben:


Was spricht dagegen einfach entsprechend Licht zu setzen bzw- 'nen Reflektor zu verwenden? ;-) Spart den Post-Kram...
Frag das z.B. die Macher des letzten Mad Max oder des teuersten indischen Films Baahubali
Hmmmm ... also bei den Machern des letzten Mad Max sprach offenbar nix dagegen selbst in der Wüste bei Tageslicht entsprechend Licht zu setzen.
Fury Road.JPG

Space


Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:


Frag das z.B. die Macher des letzten Mad Max oder des teuersten indischen Films Baahubali
Hmmmm ... also bei den Machern des letzten Mad Max sprach offenbar nix dagegen selbst in der Wüste bei Tageslicht entsprechend Licht zu setzen.

Fury Road.JPG
Dann schau dir mal ein paar Making-off an und du wirst erkennen, was dagegen sprach.

Space


Antwort von Funless:

Ich hab' das Making of geschaut (dieser Screenshot ist übrigens aus dem Making Of) und genauso wie bereits seinerzeit bei Birdman stellst du leider Behauptungen auf die bedauerlicherweise nicht stimmen.

Space


Antwort von iasi:

Funless hat geschrieben:
Ich hab' das Making of geschaut (dieser Screenshot ist übrigens aus dem Making Of) und genauso wie bereits seinerzeit bei Birdman stellst du leider Behauptungen auf die bedauerlicherweise nicht stimmen.
Dann schau es dir nochmal an und hör vielleicht auch mal die Aussagen, die gemacht werden. Einfach immer alles zu bestreiten, ist ziemlich einfach.
Du kannst auch gerne mal anhören, was Roger Deakins zu den Dreharbeiten von 1917 zu sagen hat.

Du könntest dir aber eben auch einfach mal vorstellen, wie du bis ins letzte Detail Licht bei einer längeren Einstellung mit bewegter Kamera und improvisierendem Darsteller setzen willst.

Space


Antwort von Funless:

iasi hat geschrieben:
Funless hat geschrieben:
Ich hab' das Making of geschaut (dieser Screenshot ist übrigens aus dem Making Of) und genauso wie bereits seinerzeit bei Birdman stellst du leider Behauptungen auf die bedauerlicherweise nicht stimmen.
Einfach immer alles zu bestreiten, ist ziemlich einfach.
Und einfach immerzu irgendwelche Sachen zu postulieren ohne irgendwelche konkrete und vor allem nachvollziehbare Beispiele zu nennen ist noch einfacher.

So kommt man allerdings leider nicht dazu eine konstruktive sowie zielführende Diskussion zu führen.

Selbst nach bereits mehrfacher Nachfrage an dich warst du bisher leider nicht in der Lage auch nur ein einziges Beispiel von irgendeinem bereits produzierten Film zu nennen in dem die von dir gepredigten innovativen RAW Gestaltungsmöglichkeiten dazu geführt haben, dass es nicht notwendig war bei den Dreharbeiten entsprechend Licht zu setzen.

Somit kann (und muss wohl) davon ausgegangen werden, dass kein einziges Beispiel für deine These existiert.

Das muss allerdings nicht automatisch bedeuten, dass deine These Quatsch ist, denn du könntest ja selber einen kurzen Beispielclip machen der deine These belegt, nach deinen Aussagen hättest du ja dafür genügend RAW Cinekameras griffbereit zur Hand. Bspw. eine kurze Szene mit Lichtsetzung und dann zum Vergleich die gleiche Szene ohne Lichtsetzung und dafür dann die tollen "RAW Gestaltungsmöglichkeiten" angewandt sodass am Schluss dann beide Szenen mit dem selben visuellen Ergebnis zu sehen sind plus den Daten welcher Aufwand unterm Strich länger gedauert hat.

Einfach nur ein kurzes Beispiel und schon hättest du alle unwissenden Zweifler deiner Behauptung (mich eingeschlossen) ein für alle mal Mundtot gemacht.

Doch auch in der Hinsicht kommt leider nichts von dir. Es bleibt bei deinen Behauptungen und auf Nachfrage kommen als Antwort entweder vage Verweise auf irgendwelche Shootouts von Annodazumal, Rankingvergleiche von Kameras die noch nicht mal auf dem Markt sind oder dünnhäutige Breitseiten.

iasi hat geschrieben:
Du könntest dir aber eben auch einfach mal vorstellen, wie du bis ins letzte Detail Licht bei einer längeren Einstellung mit bewegter Kamera und improvisierendem Darsteller setzen willst.
Auch hier wieder: Von welchem Film sprechen wir hier bitte in dem improvisierende Darsteller bei einer längeren Einstellung mit bewegter Kamera zum Einsatz kamen und deswegen die Lichtsetzung unmöglich gemacht hätte?

Space


Antwort von cantsin:

Habe eben mal nachgesehen, ob "Dallas Buyers Club" vielleicht das Kriterium erfüllt, weil mit Handkamera, nur zwei Festbrennweiten und größtenteils ohne Lichtsetzung bzw. nur mit practicals gedreht wurde. Laut IMDB war das Aufnahmeformat aber ProRes (aus der Alexa)...

EDIT: Und "Victoria" wurde sogar auf einer C300 der ersten Generation in 8bit-h264 gedreht...

Space


Antwort von Funless:

cantsin hat geschrieben:
Habe eben mal nachgesehen, ob "Dallas Buyers Club" vielleicht das Kriterium erfüllt, weil mit Handkamera, nur zwei Festbrennweiten und größtenteils ohne Lichtsetzung bzw. nur mit practicals gedreht wurde. Laut IMDB war das Aufnahmeformat aber ProRes (aus der Alexa)...

EDIT: Und "Victoria" wurde sogar auf einer C300 der ersten Generation in 8bit-h264 gedreht...
Dank dir für deine Mühe. Ja Victoria ist sogar ein gutes Beispiel dafür, dass es sogar "nur" in H264 8Bit geht.

Und ich möchte betonen, dass es mir nicht darum geht iasi zu bashen oder ihn aufzuziehen, ich würde mich wirklich freuen wenn es denn ein Bespiel für seine immer wieder postulierte These geben würde.

Es geht in seinen Behauptungen ja auch nicht um mit kamerabegleitende Dokumentationen wie du sie bspw. machst wo du keinerlei Einfluss auf das vorhandene Licht hast oder wie Axel mal anmerkte, dass er als Hochzeitsfilmer ständig wechselnden Lichtbedingungen ausgesetzt ist. Da ist es für mich absolut nachvollziehbar und auch völlig logisch am besten mit RAW, bzw. so vielen Reserven wie nur möglich, aufzuzeichnen um später in der Post nachträglich gestalten zu können, sei es zur Bildkorrektur oder für kreative Eingriffe. Bin ich komplett d'accord.

Aber iasi redet hier explizit von szenischen Produktionen, bringt andauernd u.a. das nicht nachvollziehbare Beispiel von Outbreak wo für eine Szene angeblich völlig verschwenderisch Lastwagen voll von Licht angekarrt wurden was mit den von ihm angeführten "RAW Gestaltungsmöglichkeiten" nicht notwendig gewesen wäre, etc.

Space


Antwort von iasi:

Funless hat geschrieben:

Auch hier wieder: Von welchem Film sprechen wir hier bitte in dem improvisierende Darsteller bei einer längeren Einstellung mit bewegter Kamera zum Einsatz kamen und deswegen die Lichtsetzung unmöglich gemacht hätte?
Einer flog über das Kuckucksnest
Zumindest war es ein Grund, weshalb der erste DP ausgewechselt wurde.

Dogma-Filme

1917

Viele Action-Einstellungen im letzten Mad Max ...

Birdman ...

Aber die sollten dir eigentlich bekannt sein, da ich sie mehrfach genannt hatte - leider scheint du sie gerne zu übersehen.

Vor allem scheinen wir unterschiedliche Vorstellungen von Lichtsetzung zu haben. Wenn mit einem Reflektoren versucht wird, noch etwas Licht auf einen 10m entfernten Darsteller zu werfen, ist das eigentlich nur ein Hochziehen der Mitten aus dem Rauschen. "Lichtgestaltung" also Bildgestaltung erfolgt dann in der Post. Das hat auch gar nichts mit Fix-it-in-Post zu tun, sondern ist die schlichte Ausnutzung der Möglichkeiten von Digi-Cine-Cams und hohem Spielraum des Materials.

Space



Space


Antwort von iasi:

Funless hat geschrieben:

Aber iasi redet hier explizit von szenischen Produktionen, bringt andauernd u.a. das nicht nachvollziehbare Beispiel von Outbreak wo für eine Szene angeblich völlig verschwenderisch Lastwagen voll von Licht angekarrt wurden was mit den von ihm angeführten "RAW Gestaltungsmöglichkeiten" nicht notwendig gewesen wäre, etc.
Es gibt ein Interview mit Wolfgang Petersen, bei dem er auf die Frage nach den Unterschieden zwischen Drehen in Deutschland und Hollywood eben dieses Beispiel bringt:
In D hätte er diese Szene mit einem Dutzend Leute gedreht. In Hollywood wurden Straßenzüge abgesperrt und 300 Leute aufgefahren.

Wer denkt, er könne Hollywood nacheifern, sollte wieder auf den deutschen Boden zurückkehren. Wenn selbst jemand wie Roger Deakins erklärt, dass es bei 1917 oft nicht möglich war, Licht zu setzen, dann sollte dies jedem zu denken geben. Zumal Deakins für Blade Runner 2049 wirklich LKW-Ladungen an Arri-Lichttechnik nach Budapest ins Studio hatte karren lassen.

Mit Schulbuchlichtsetzung und Blick auf den Vorschaumonitor erhält man eben noch lange kein cinematisches Bild.

Space


Antwort von iasi:

cantsin hat geschrieben:

EDIT: Und "Victoria" wurde sogar auf einer C300 der ersten Generation in 8bit-h264 gedreht...
Die C300 war hier sicherlich eine gute Wahl.

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:
Wenn selbst jemand wie Roger Deakins erklärt, dass es bei 1917 oft nicht möglich war, Licht zu setzen,...
..außer daß er dafür das größte Licht Rig der Filmgeschichte hat bauen lassen.


zum Bild


Space


Antwort von -paleface-:

Ich verstehe die Diskussion über Lichtsetzen nicht.

Setzt du kein Licht... Hast du auch einen Film.

Setzt du Licht... Hast du eben einen schönen Film.

Space


Antwort von Axel:

iasi hat geschrieben:
Mit Schulbuchlichtsetzung und Blick auf den Vorschaumonitor erhält man eben noch lange kein cinematisches Bild.
Ausnahmezustand / Quarantäne / Sozialdistanz , Sesselfurzerei. Also beschloss ich, meine schönsten Filmideen in Form von Storyboards zu verwirklichen, kaufte mir Skizzenblöcke, Bleistifte und Zeichenkohle. Zur Inspiration sah ich ein paar Youtube-Clips zum Thema. Dabei stolperte ich vor ein paar Tagen über ein Tutorial zur Aquarelltechnik, wo einer beim Warten auf's Einchecken in unter einer Stunde ein fotorealistisches Bild des Hangars malte - mit einem Fingerhut voll Wasser und fünf Farbtnäpfchen, aus denen er durch Mischen und schichtweises Auftragen ("Layering") alle Farben mischte, die die dokumentierende Kamera sah. Weiß war das Weiß des Papiers, Schwarz die sich gegenseitig sperrenden Grundfarben, Linien entstanden durch Aneinandergrenzen von Farbflächen, Sättigung durch weniger Verdünnung.

Ich glaube, wenn einer die wenigen Farben, die in der Welt seines Films vorkommen sollen, nicht vor sich sieht, wird er sie auch in Resolve nicht finden, wenn er statt in Millionen qua RAW in Billionen von Farben eintauchen kann. Wär nicht das Auge sonnenhaft, die Sonne könnt es nie erblicken!

Space


Antwort von Funless:

iasi hat geschrieben:
Funless hat geschrieben:

Auch hier wieder: Von welchem Film sprechen wir hier bitte in dem improvisierende Darsteller bei einer längeren Einstellung mit bewegter Kamera zum Einsatz kamen und deswegen die Lichtsetzung unmöglich gemacht hätte?
Einer flog über das Kuckucksnest
Zumindest war es ein Grund, weshalb der erste DP ausgewechselt wurde.

Dogma-Filme

1917

Viele Action-Einstellungen im letzten Mad Max ...

Birdman ...

Aber die sollten dir eigentlich bekannt sein, da ich sie mehrfach genannt hatte - leider scheint du sie gerne zu übersehen.
Bedauerlicherweise scheinst du gerne zu übersehen, dass das was du mehrfach genannt hast bereits ebenso mehrfach von vielen Usern hier anhand von Set-Fotos und Videos widerlegt wurde. Ganz aktuelles Widerlegungsbeispiel das Setbild aus 1917 was Frank ein paar Beiträge über mir gepostet hat.

Abgesehen davon haben in keinem von dir o.g. Filmen die Schauspieler improvisiert. Wenn dir Nicholsons oder Keatons protagonistisches Handeln in den o.g. Filmen "natürlich" vorkam, dann lag es daran weil sie exzellente Schauspieler sind und nicht weil sie angeblich "improvisiert" hätten.
iasi hat geschrieben:
Vor allem scheinen wir unterschiedliche Vorstellungen von Lichtsetzung zu haben. Wenn mit einem Reflektoren versucht wird, noch etwas Licht auf einen 10m entfernten Darsteller zu werfen, ist das eigentlich nur ein Hochziehen der Mitten aus dem Rauschen. "Lichtgestaltung" also Bildgestaltung erfolgt dann in der Post. Das hat auch gar nichts mit Fix-it-in-Post zu tun, sondern ist die schlichte Ausnutzung der Möglichkeiten von Digi-Cine-Cams und hohem Spielraum des Materials.
Nochmal: Bitte ein konkretes Beispiel in dem genau das gemacht wurde (also das Lichtsetzen am Set mit der "RAW Gestaltung" in der post ersetzt).
iasi hat geschrieben:
Funless hat geschrieben:

Aber iasi redet hier explizit von szenischen Produktionen, bringt andauernd u.a. das nicht nachvollziehbare Beispiel von Outbreak wo für eine Szene angeblich völlig verschwenderisch Lastwagen voll von Licht angekarrt wurden was mit den von ihm angeführten "RAW Gestaltungsmöglichkeiten" nicht notwendig gewesen wäre, etc.
Es gibt ein Interview mit Wolfgang Petersen, bei dem er auf die Frage nach den Unterschieden zwischen Drehen in Deutschland und Hollywood eben dieses Beispiel bringt:
In D hätte er diese Szene mit einem Dutzend Leute gedreht. In Hollywood wurden Straßenzüge abgesperrt und 300 Leute aufgefahren.
Womit er einfach nur die Unterschiede der finanziellen Möglichkeiten zwischen DE und Hollywood erklärt hat. Oder glaubst du wirklich allen Ernstes, dass wenn Petersen für seine Filme in DE auch solch ein hohes Budget gehabt hätte wie für seine Filme in Hollywood, dass er dann hier nicht auch Straßenzüge abgesperrt hätte?
iasi hat geschrieben:
Mit Schulbuchlichtsetzung und Blick auf den Vorschaumonitor erhält man eben noch lange kein cinematisches Bild.
Na das solltest du schleunigst dem Petersen mitteilen, denn seit Neverending Story schaut er nämlich bei seiner Regiearbeit beim "camera rolling" ausschließlich auf den Vorschaumonitor.

Space


Antwort von Darth Schneider:

@Axel, schön geschrieben.
Tönt Awirklich interessant, lad doch dein Hangar mal hoch....Würde mich interessieren;-)
Ich zeichne und male auch sehr gerne auf echtem Papier, aber ohne mir bewusste Technik, nur so zum Spass, habe aber zu wenig Zeit zum wirklich üben, darum bin ich nur selten wirklich zufrieden mit dem Endergebnis...was mich aber nicht abhält.
Gruss Boris

Space


Antwort von Axel:

"Darth Schneider" hat geschrieben:
@Axel, schön geschrieben.
Tönt Awirklich interessant, lad doch dein Hangar mal hoch....Würde mich interessieren;-)
Gern. Weil das das Erste war, was ich gesehen habe, habe ich die Technik verwechselt: es ist nicht Wasserfarbe, sondern Gouache (stärker deckend, höherer Pigment- und Bindemittelanteil, im Gegensatz zu Aquarell können dunkle Stellen mit Weiß übermalt werden):

"Darth Schneider" hat geschrieben:
Ich zeichne und male auch sehr gerne auf echtem Papier, aber ohne mir bewusste Technik, nur so zum Spass, habe aber zu wenig Zeit zum wirklich üben, darum bin ich nur selten wirklich zufrieden mit dem Endergebnis...was mich aber nicht abhält.
Gruss Boris
Da ich heute morgen 80 Euro für Malzeugs ausgegeben habe, bin ich auch zu allem entschlossen. Mein Ansatz ist noch zu zeichnerisch, ich müsste lernen, feinfühliger für Farben zu sein. Ist immerhin sehr meditativ. Die Zeit vergeht im Flug, und ich bin völlig eingesaut, was ich daran merke, dass die Keyboard-Tasten bunt werden.

Space


Antwort von Darth Schneider:

Wau !!! Hut ab.
Gruss Boris

Space



Space


Antwort von Funless:

Axel hat geschrieben:
"Darth Schneider" hat geschrieben:
@Axel, schön geschrieben.
Tönt Awirklich interessant, lad doch dein Hangar mal hoch....Würde mich interessieren;-)
Gern. Weil das das Erste war, was ich gesehen habe, habe ich die Technik verwechselt: es ist nicht Wasserfarbe, sondern Gouache (stärker deckend, höherer Pigment- und Bindemittelanteil, im Gegensatz zu Aquarell können dunkle Stellen mit Weiß übermalt werden):

"Darth Schneider" hat geschrieben:
Ich zeichne und male auch sehr gerne auf echtem Papier, aber ohne mir bewusste Technik, nur so zum Spass, habe aber zu wenig Zeit zum wirklich üben, darum bin ich nur selten wirklich zufrieden mit dem Endergebnis...was mich aber nicht abhält.
Gruss Boris
Da ich heute morgen 80 Euro für Malzeugs ausgegeben habe, bin ich auch zu allem entschlossen. Mein Ansatz ist noch zu zeichnerisch, ich müsste lernen, feinfühliger für Farben zu sein. Ist immerhin sehr meditativ. Die Zeit vergeht im Flug, und ich bin völlig eingesaut, was ich daran merke, dass die Keyboard-Tasten bunt werden.
Sieht sehr cool aus, sowohl die Entstehung, als auch das Ergebnis dieses Künstlers.

Ich selber zeichne seit über 40 Jahren, das Malen habe ich oft probiert bin aber letztendlich immer mit großem Unmut und noch größerer Unzufriedenheit gescheitert, so dass ich irgendwann zur Erkenntnis kam, dass die beim ausschließlichen zeichnen meiner "Werke" bleiben und das kolorieren dann anderen überlassen sollte.

Oder um es im US amerikanischen "Graphic Novel Jargon" auszudrücken: Ich bin ein sehr guter Penciller, ein mäßig guter Inker und ein äußerst miserabler Colorist.

Von daher wünsche ich dir viel Erfolg bei deinem Vorhaben.

Space


Antwort von Jott:

cantsin hat geschrieben:
Und "Victoria" wurde sogar auf einer C300 der ersten Generation in 8bit-h264 gedreht...
Die konnte kein H.264, das war sogar noch uraltes MPEG 2 (kompatibel zum XDCAM HD 422 der Broadcaster). Man musste nur korrekt belichten können. Manche besitzen diese Fähigkeit! :-)



Space


Antwort von roki100:

Jason Zhang:
“The key point for RAW is the details of the image. … The RAW test should always include detail test. Our ZRAW is designed to achieve a visually lossless image of a complex scene. We suggest that you shoot complex scenes to check the resolution of the ZRAW. … This would explain why you need larger ZRAW files. … If you don’t care about extreme details but care more about noise then ProRes is a much better choice. …ZRAW itself should have a lot more noise than a YUV based format as the noise came from the sensor. YUV based files including ProRes and H265 have the image signal processor involved so it will have a different level of noise reduction which cannot be performed at Bayer level. … In camera noise reduction / curves / color correction are some major components of the image signal processor … We don’t add 2D noise reduction and chroma noise reduction in ZRAW VideoSuite and our Z CAM DeNoiser adopts full optical flow based 3D noise reduction which does not hurt details. We would consider adding more denoise related features to our image processing pipeline in the future. … Since your test is noise based so we recommend using our denoise software Z CAM DeNoiser to process the video and test again. We could reduce more noise in the camera but some professionals don’t like it and that’s why we introduce ZRAW” https://www.cinema5d.com/z-cam-zraw-vs- ... -lab-test/

Space


Antwort von pillepalle:

Keine Ahnung was aus ZRAW wird aber Atomos hat angekündigt auch ProRes RAW mit der E2 und dem Ninja V zu unterstützen. War zumindest mir neu.

https://www.atomos.com/cameras/zcam-e2

Außerdem soll die Kamera dann nach einem Firmware-Update über das Touchdisplay des Ninja V steuerbar sein.

VG

Space


Antwort von Darth Schneider:

Die ZCams würden wohl wohl besser nur mit ProRes Raw Recording fahren anstatt mit ZRaw. Aber das ist nur meine Meinung.
Gruss Boris

Space


Antwort von pillepalle:

@ Darth Schneider

Ja, sehe ich ähnlich, zumal man ja eh einen Sucher oder Monitor an der Cam braucht. Allerdings kann man ZRAW intern aufzuzeichnen, wenn ich mich nicht irre. Aber der Atomos Ninja V mausert sich echt zu einem Universalwerkzeug. Unterstützt mittlerweile recht viele Kameras (nicht nur was RAW betrifft) und hat durch die Zusatzmodule (für Timecode und SDI) ein paar coole neue Features mit an Board.

VG

Space


Antwort von markusG:

Also...im aktuellen Premiere (14.3.0 build 38) sagt er bei ZRAW (von der S6) leider: "Dateiformat wird nicht unterstützt" :'(
Also doch nicht nativ? Das Plugin ist leider nicht zertifiziert, da kommt dann ne Sicherheitswarnung usw.

PRAW braucht ebenfalls ein Plugin.

Irgendwie noch nicht so optimal...

Space


Antwort von TheGadgetFilms:

"Darth Schneider" hat geschrieben:
Witzig finde ich das Arri Raw fast am wenigsten an Raw Optionen bietet, aber in Hollywood scheinbar (nach den benutzten Kameras zu urteilen) trotzdem das beliebteste Format ist.
Also was machen denn alle anderen Hersteller falsch ??
Liegt das an den Kameras ? Umständlicher Workflow, der immer noch frischen Konkurrenz, oder liegt das einfach nur am Marketing und Vitamin B ?
Gruss Boris
Arris Kameras tun eines, was bei anderen Herstellern nicht der Fall ist- sie funktionieren, ohne dass man sie bemerkt. Darum benutzen wir sie so oft.

Space


Antwort von Jott:

Punkt für Z-Cam: die erfrischende Ehrlichkeit des Chefs (auch wenn die für manche blasphemische Züge hat).

"Our ZRAW is designed to achieve a visually lossless image of a complex scene ... If you don’t care about extreme details but care more about noise then ProRes is a much better choice."

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Antworten zu ähnlichen Fragen //


Insta one X2 Native ISO
AJA Desktop Software 16.1 bringt native Unterstützung für Apple M1
Apple iOS 15.1: ProRes Video jetzt auch für native Kamera App auf dem iPhone 13 Pro und Max
A7SIII-DUAL Native und trotzdem Gain?
RED V-Raptor und Fujifilm X-H2s - erste native Camera-to-Cloud Integrationen
Dji Osmo Action 4 Native Iso
ProRes RAW support für Olympus OM-D E-M1X and OM-D E-M1 Mark III
Avid ProRes RAW Support nach langer Wartezeit nun umgesetzt
Atomos kündigt Entwicklung von ProRes RAW Support von Ninja V für neue Sony FX3 und A1 an
Atomos kündigt ProRes RAW Support für Panasonic Lumix BGH1 und S1 per Ninja V an
Neue Ninja V Firmware AtomOS 10.64 bringt Support für ProRes RAW Metadaten der Sony Alpha 7SIII
AtomOS 10.67 bringt Support für ProRes RAW Metadaten der Sony FX9/FX6 und FujiFilm GFX100
Fujifilm GFX100S and Fujifilm GFX100, get Blackmagic RAW support.
Hedge Update, und EditReady Transcoder bekommt erweiterten RAW-Support
Schnittprogramme und Support RAW Formate
Adobe Premiere Pro Update 14.8 bringt Timecode Support für Non-Standard Frameraten
BorisFX Sapphire 2020: bessere Performance, OCIO-Support und neuer FreeLens Effekt
Hat Magix den Support für Vegas eingestellt?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash