News-Kommentare Forum



ETTR verständlich erklärt



Kommentare / Diskussionen zu aktuellen Newsmeldungen auf slashCAM
Antworten
slashCAM
Administrator
Administrator
Beiträge: 11279

ETTR verständlich erklärt

Beitrag von slashCAM »

Bild

Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
ETTR verständlich erklärt



Axel
Beiträge: 16823

Re: ETTR verständlich erklärt

Beitrag von Axel »

Zum Monitoring von Aufnahmen mit ETTR (alles erscheint gnadenlos überbelichtet, man sieht praktisch nichts) gibt es im BM-Forum vom selben Autor einen Tip, der in weitere Diskussionsabgründe führt:

Da die BMCC eine native Empfindlichkeit bei 800 Iso hat, wählt man bei der Aufnahme einfach Iso 400 oder Iso 200, und das Monitorbild (auch auf externen Monitoren) erscheint ohne Zwischen-Lut eine oder zwei Blenden dunkler, also mehr oder weniger "augenrichtig".

Tatsache ist, dass in dem Raw-File zwar die gewählten Iso-Werte gespeichert werden, aber nur als Metadaten, auf die eigentliche Bildinformation hat das keinen Einfluss, wie Majerski mit dem zweiten verlinkten Clip ja auch beweist.

Der Unterschied zu Kameras mit z.B. Mpeg-4-Codec ist der, dass dort die gewählten Iso-Werte mit in die Videodatei eingebacken werden. Nicht nur Iso, sondern auch Weißabgleich und sämtliche "picture profiles".

Denn auch dort sind die Daten zunächst raw, sie werden bloß je nach lustigem Knöpfchen, Rädchen oder Menüpünktchen, mit dem sich der Fotograf/Videograf sehr wohl fühlt, weil es "Hardware" ist, gefiltert. Und die gefilterten Werte sind das, was komprimiert später zu sehen ist.

Iso bei Digitalkameras ist nicht wie analoger Gain, es ist ein nachträglich gepushtes Signal, als würde man in AdobeCameraRaw die Belichtung hochziehen, wobei es dann eben in dunklen Bildpartien rauscht. Aber dieses Rauschen ist bereits Teil des ursprünglichen Signals. Den höchsten dynamic range erzielt jede Kamera nur mit ihrem nativen Iso (die Empfindlichkeit des Sensors), und - jetzt kommt's! - mit ETTR.

Wer in einem komprimierten Codec unterbelichtet, um in der Post aufzuziehen ("ETTC" - expose to the center), fängt damit jene zuletzt unbrauchbaren Signale mit ein, die mehr Störungen als eigentliches Nutzsignal enthalten. Darum ist in jedem Fall (einen günstigen picturestyle vorausgesetzt) Zebra eine gute Wahl, um die Obergrenze zu bestimmen, und man muss experimentieren, ob man mit 95% Zebra wirklich Clipping vermeidet und trotzdem noch einen guten Übergang zu geclippten Lichtquellen (das darf nach wie vor sein) hat. Hier gilt es, eigene Tests zu machen. Bye bye Neat!

Nochmal gegen Missverständnisse: ETTR bezieht sich auf die Blende am Objektiv relativ zur Beleuchtung des Sets. Iso muss aus der Gleichung rausbleiben!



Gregott
Beiträge: 523

Re: ETTR verständlich erklärt

Beitrag von Gregott »

Es wurde ja auch viel diskutiert warum die Belichtung im Filmmodus bei der Pocket oder der BMDCC nicht funktioniert... doch sie funktioniert... genau wegen dem was Axel beschreibt. Sie belichtet so lange "über" bis man höchstmögliche Infos in den höhen hat.

Siehe Manual:

Iris Button
When using Video dynamic range settings, a single press of the Iris button will set an average exposure
based on the highlights and shadows in your shot. When using Film dynamic range settings, pressing the
IRIS button sets your exposure to the brightest highlight in your shot.

Anstelle von Dave Dugdale würde ich mir erstmal des Manual lesen bevor ich irgendwelche Videos drehe in denen es mir nur darum geht mich selbst darzustellen... Himmelhergott Sackra...

Bin ebenfalls schuldig. Studiere grade das Handbuch von Davinci Resolve. Eine Epiphanie übrigens...



Valentino
Beiträge: 4833

Re: ETTR verständlich erklärt

Beitrag von Valentino »

So lange man bei digitalen Kameras verstanden hat, das die Bildwandler analoge und nicht digital Bausteine sind, ist man schon mal ein ganzen Schritt weiter.

Das unterblichten auf 400 oder gar 200ASA ist bei der BMCC nicht zu empfehlen, da man so die Dynamik unnötig beschneidet und in den Highlights so gut wie keine Zeichnung mehr hat.



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

Mal langsam - wenn der Sensor nativ ISO800 hat und ich die Belichtung mit ISO400 vornehme, habe ich keine Unterbelichtung, sondern verpasse dem Sensor die doppelte Menge Licht.

1/50 + f8 + ISO 800 = 1/50 + f5,6 + ISO 400

Da für die Raw-Belichtung nur Belichtungszeit, Blende und Filter von Belang sind, kommt es bei ISO400 zur Überbelichtung.

Red empfiehlt auf ISO800 zu belichten, obwohl der MX-Sensor nativ ISO320 hat - um die Lichter zu schützen.
Wobei die ISO-Werte so eine Sache sind. Letztlich lege ich damit nur fest, wieviele Blendenstufen Spielraum ich nach oben und wieviele ich nach unten habe.

Es hängt auch sehr davon ab, wie die Kamera in den Lichtern ausläuft - manche reagieren recht extrem und clippen hart - daher ist ein extremes ETTR in dynamischen Drehsituation riskant.
Da fährt z.B. ein silbernes Auto ins Bild und spiegelt das Licht - schon könnte es clippen. Oder während der Aufnahme ändert sich die Lichtsituation.

Es kann zudem auch sein, dass R oder B zuerst clippen, sofern die Farbtemperatur des Lichts stark vom Sensor-Wert abweicht.

Rauschen kann man noch mindern. Wenn es clippt, ist (meist) nichts mehr zu retten.

Zebra bei 100% ist daher ziemlich riskant. Besser die Lichter schützen.
Meist hat man keinen so hohen Kontrastumfang, dass man rechts an den Anschlag gehen muss, damit man links nicht zu sehr in den Rauschbereich kommt.

Eigentlich sollte man die Lichter und die Schatten messen, damit man dann den ermittelten Kontrastumfang per Belichtung in den DR des Sensors "legen" kann - möglichst weit weg vom Rauschen - also nach rechts - aber mit einem gewissen Sicherheitspuffer für die Lichter.



Valentino
Beiträge: 4833

Re: ETTR verständlich erklärt

Beitrag von Valentino »

Da habe ich mich glaub falsch ausgedrückt.
Meine nachträgliche Unterbelichtung bezieht sich immer auch die gleiche Lichtmenge die auf den Sensor triff.
Dabei wird durch die 400 und 200ISO eine nachträgliche Dämpfung für das REC709 oder gar Film Log Bild "zugeschaltet".
Die Lichtmenge auf dem Sensor bleibt gleich, nur das was hinten raus kommt erscheint "unterbelichtet".

Natürlich unter der Voraussetzung, das zuvor auf die nativen 800 ISO belichtet wird, also Lichtmesser auf 18% Grau.

Und ja es gibt auch ein nativen ISO/ASA Wert für Bildwandler, auch wenn da deine Red eher das untere Mittelfeld darstellt.

Zum Rest kann man bei dir auch nur wieder den Kopf schütteln und sollte die fachkundige Gegendarstellung von Wolfgang abwarten.



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

"ISO" und Raw führt leider immer schnell zu Missverständnissen.
Bei ISO 320 hat man bei der RED-MX bei 5000Kelvin etwa 6-6,5 Blendenstufen nach oben und etwa genauso viel nach unten.
Bei ISO 800 sind es dann eben 7-7,5 nach oben und 5-5,5 nach unten - was eben die Lichter schützt, aber eben auch zu einer Unterbelichtung führt.
Belichtet man nach einem Raw-Histogramm erübrigen sich die ISO-Werte.

Wolfgang scheint mir technisch fachkundig, wir sprechen hier aber von der Praxis.
Meine Aufnahmen mit der Red zeigen kein Clipping und bewegen sich auch nicht im unteren "Rauschbereich".
Ich belichte nach dem Histogramm immer möglichst nach rechts, aber doch mit etwas "Sicherheitsabstand". Damit vermeide ich sowohl Rauschen wie auch Clippen.

Dagegen habe ich doch schon einige BMCC-Aufnahmen gesehen, bei denen es clippt - höchstwahrscheinlich aufgrund der 100%-Zebra-Belichtung.
Ich erinnere mich da an eine Straßenszene, bei der im Hintergrund ein weißes Auto in praller Sonne vor einer Ampel hält.

Es kommt eher selten vor, dass der DR der Red oder der BMCC ans Limit kommt. Dann jedoch kommt es für mich immer darauf an, wo wie es mit den bildwichtigen Bereichen bestellt ist: Sind sie nicht zu weit links, schütze ich die Lichter. Befinden sie sich jedoch in dem Bereich, in dem Rauschen problematisch wird (also zu weit links) versuche ich sie aufzuhellen.


Zudem bedeutet ETTR ja gerade nicht, dass man auf 18% Grau belichtet. Da muss ich nun aber den Kopf schütteln.



Axel
Beiträge: 16823

Re: ETTR verständlich erklärt

Beitrag von Axel »

Zusammenfassend und vereinfachend kann man sagen, dass ETTR eine schnelle Messmethode über Zebra ist, die als einzige geeignet ist, sofort zu sehen, welcher Bildbereich clippt. Das Histogramm erlaubt mir dies nicht, ich sehe nur, dass etwas clippt. Und Waveform ("ETTT") auch nicht spontan, es sei denn, ich kann es aus Erfahrung sofort interpretieren.

Ich kann mir vorstellen (hab ja leider noch immer kein Raw-Video), dass externe Monitore für die Belichtungsbeurteilung null taugen, weil sie das Signal interpretieren, das sie selbst darstellen und was ein 8-bit-Signal ohne Kurve ist, mithin maximal 5 Blendenstufen aus 13 (16-240), wobei vielleicht noch OSD-Zeichen mitgerechnet werden. Ich sehe immer nur einen Ausschnitt (auf dem eingebauten Display ja auch), und sobald ich tendenziell rechts von der Mitte belichte, *erscheint* ein weißes Bild.

Weiter ist ETTR ein Konzept, das im Widerspruch zu Lowlight steht. Ich tue in Raw nicht nur so, ich habe tatsächlich nur die native Empfindlichkeit des Sensors zur Verfügung. Noch einmal: Iso verändert weder nach unten noch nach oben die Empfindlichkeit, diese Idee ist ein Missverständnis.

Somit kann ich nur über Licht, Blendenöffnung und in Grenzen Verschlusswinkel bestimmen, ob ich die linken, verrauschten Bildteile mitnehme oder nicht. Im Zweifelsfall bedeutet das nach Goethe "mehr Licht".
Zuletzt geändert von Axel am Mo 04 Nov, 2013 10:18, insgesamt 1-mal geändert.



domain
Beiträge: 11062

Re: ETTR verständlich erklärt

Beitrag von domain »

Im Grunde geht es hier ja um eine ziemliche Banalität: wieviel Clipping bzw. wieviel Noise ist die menschliche Auge-Hirn-Kombination individuell bereit zu akzeptieren?
Dabei spielen m.E. bisherige Sehgewohnheiten eine entscheidende Rolle.
Sehr vielen Menschen erscheinen HDR-Bilder als abnormal, weil sie diese Art der Darstellung auf einem kontrastreduzierenden Medium einfach nicht gewohnt sind, z.B. speziell nicht auf doch ziemlich beschränkten Drucken und Foto-Papierabzügen.
Über Jahrzehnte hat sich eine ganz spezielle Sehweise ins Hirn geradezu eingebrannt, die fehlenden Bereiche werden dazuaddiert, quasi, ich weiß, dass in den Lichtern in Wirklichkeit noch was vorhanden ist und die Schatten nicht abgesoffen sind, wenn ich in diese vor Ort direkt schauen könnte.
Ziemlich verändert hat sich die Sache mit aktiv leuchtenden Displays und ihrem viel größeren Dynamikbereich. Aber auch da haben sich wieder ganz spezifische Sehweisen und Anforderungen etabliert.
Deshalb gibt es auch dort immer nur individuell wertende Aussagen: die ausgebrannten Flächen sind abnormal groß (speziell bei Hauttönen störend) oder das Rauschen in den Schatten finde ich zu stark.
Die richtige Belichtung bei einer Kamera oder einem speziellen Aufnahmeverfahren zu finden ist also immer nur eine Anpassung an den derzeit geltenden durchschnittlichen Geschmack für das betreffende Wiedergabemedium.
Bei den alten Stummfilmen stören uns weder massiv ausgebrannte Lichter noch kapitale großflächige Schattenbereiche, im Gegenteil sie gehören einfach zu den erwarteten Sehschablonen aus dieser Zeit.



Mikepro
Beiträge: 148

Re: ETTR verständlich erklärt

Beitrag von Mikepro »

Interessant ist seine Herangehensweise bei ProRes:
For ProRes mode, as long as you are careful about what is clipping - you would want to expose a scene as follows:
Set camera to iso 800, light your scene.
Expose the camera until just under clipping.
But this time, instead of pulling the exposure down in post, you would want to lower your iso slightly before filming. This is because ProRes is a compressed format so less flexible in post production. By Lowering the ISO the camera is pulling it down before compressing it onto your SSD.
Do not lower the ISO too much, as you will lose details in the shadows if you are not careful - but if it does look way too bright on screen - perhaps just lower it to 400.
The Zebra's will show the clipping at the same place whether on iso 800, 400 or 200.



Axel
Beiträge: 16823

Re: ETTR verständlich erklärt

Beitrag von Axel »

domain hat geschrieben:Im Grunde geht es hier ja um eine ziemliche Banalität: wieviel Clipping bzw. wieviel Noise ist die menschliche Auge-Hirn-Kombination individuell bereit zu akzeptieren?
Nein, es geht darum, wie vermeide ich sowohl Clipping als auch Noise, wenn ich mit einem Format zu schaffen habe, das mir ein WYSIWYG prinzipbedingt verweigert. Für dessen endgültige Erscheinung ich also im Moment der Aufnahme blind bin. Und für das auch herkömmliche in-camera Messmethoden nur bedingt taugen.
domain hat geschrieben:Sehr vielen Menschen erscheinen HDR-Bilder als abnormal, weil sie diese Art der Darstellung auf einem kontrastreduzierenden Medium einfach nicht gewohnt sind, z.B. speziell nicht auf doch ziemlich beschränkten Drucken und Foto-Papierabzügen.
Ob man überhaupt eine HDR-Anmutung z.B. mit 8-bit als Ziel umsetzen will, steht auf einem anderen Blatt. Jpeg- und Mjpeg-Aufnahmen nehmen mir größtenteils die Entscheidung ab (ich kann nur verschiedene Kurven-Förmchen durchprobieren, ich mache die "Post" per Kamera-Presets, chris_wenzel lässt grüßen). Mit Raw ist eine "Entwicklung" nötig, und für die sollte ich Informationen maximieren und optimieren. Für die ohnehin unabdingbare Nachbearbeitung den größtmöglichen echten Dynamikumfang. Was daran nicht neu und scheinbar "banal" ist, wie du schreibst, ist, dass für die normalen Codecs im Grunde dasselbe Prinzip gilt: Noise und Clipping vermeiden. Vergessen wir nicht, dass moderne Kameras auch in 8-bit über S-Kurven bis 11 Blenden Dynamikumfang erreichen können. Auch hier ließe sich mittels einer entsprechenden Quantisierung (Bildprofil, damit ich im bildwichtigen Teil des Spektrum - etwa menschliche Haut - genügend Abstufungen habe) leicht überbelichten. Landläufig gilt Clipping als das schlimmere Übel (zu Recht), weswegen man ein Motiv mit hohem Kontrastumfang eher unter- als überbelichtet.



domain
Beiträge: 11062

Re: ETTR verständlich erklärt

Beitrag von domain »

Axel, im Grunde handelt sich hier um ein physiologisches bzw. technisches Problem.
Wenn eine optimale Belichtung speziell der Lichter nur knapp unter dem 100%-Zebra denkbar ist, aber der Kontrollmonitor dabei ein voll überbelichtetes Bild anzeigt, also bei wem liegt dann das Problem?
Doch wohl nicht bei dem das Monitorbild Betrachtenden, oder?



Axel
Beiträge: 16823

Re: ETTR verständlich erklärt

Beitrag von Axel »

domain hat geschrieben:Axel, im Grunde handelt sich hier um ein physiologisches bzw. technisches Problem.
Wenn eine optimale Belichtung speziell der Lichter nur knapp unter dem 100%-Zebra denkbar ist, aber der Kontrollmonitor dabei ein voll überbelichtetes Bild anzeigt, also bei wem liegt dann das Problem?
Doch wohl nicht bei dem das Monitorbild Betrachtendem, oder?
Der hat das Problem. Nämlich, dass er ein ETTR-Bild auf seinem Monitor so hell sieht, dass ein Fokussieren nach Augenmaß unmöglich ist, als nur ein Beispiel (auch Peaking kann man vergessen). Die Lösung des Problems ist "trivial" (studiolondon), zumindest für BMCC + BMPCC (mit zukünftigem Raw): Iso runter. Iso hat nur Auswirkungen auf nicht-Raw-Codecs wie ProRes.

Das macht das Bild während der Aufnahme sichtbar. Aber: Der ganze Wahrnehmungsbereich aus dem 13-Blenden-Spektrum ist schlicht um ein oder zwei Blenden nach links verschoben. Er sieht einen linearen 5-Blenden-Ausschnitt und ist blind für die rechts noch existierenden Lichter.

Sollten die Kamerahersteller also nicht lieber gleich einen "Raw-ETTR-LUT" für's Raw-Monitoring einbauen? Ich schätze, Red und Konsorten werden so etwas wohl haben. Es sollte nur dann niemanden dazu verführen, nach Augenmaß zu belichten.



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

Axel hat geschrieben:Zusammenfassend und vereinfachend kann man sagen, dass ETTR eine schnelle Messmethode über Zebra ist, die als einzige geeignet ist, sofort zu sehen, welcher Bildbereich clippt. Das Histogramm erlaubt mir dies nicht, ich sehe nur, dass etwas clippt. Und Waveform ("ETTT") auch nicht spontan, es sei denn, ich kann es aus Erfahrung sofort interpretieren.

Ich kann mir vorstellen (hab ja leider noch immer kein Raw-Video), dass externe Monitore für die Belichtungsbeurteilung null taugen, weil sie das Signal interpretieren, das sie selbst darstellen und was ein 8-bit-Signal ohne Kurve ist, mithin maximal 5 Blendenstufen aus 13 (16-240), wobei vielleicht noch OSD-Zeichen mitgerechnet werden. Ich sehe immer nur einen Ausschnitt (auf dem eingebauten Display ja auch), und sobald ich tendenziell rechts von der Mitte belichte, *erscheint* ein weißes Bild.

Weiter ist ETTR ein Konzept, das im Widerspruch zu Lowlight steht. Ich tue in Raw nicht nur so, ich habe tatsächlich nur die native Empfindlichkeit des Sensors zur Verfügung. Noch einmal: Iso verändert weder nach unten noch nach oben die Empfindlichkeit, diese Idee ist ein Missverständnis.

Somit kann ich nur über Licht, Blendenöffnung und in Grenzen Verschlusswinkel bestimmen, ob ich die linken, verrauschten Bildteile mitnehme oder nicht. Im Zweifelsfall bedeutet das nach Goethe "mehr Licht".
zebra zeigt mir wenn es clippt - sofern ich 100% eingestellt habe - dann ist es schon zu spät - das ist dann wie ein feuermelder
histogramm hält mich eben ständig auf dem laufenden und ermöglicht mir, das clippen zu verhindern
zebra bei <100% gibt mir ebenfalls noch etwas sicherheit

wenn ich einen kontrastumfang von 7 blendenstufen habe, kann ich zudem bei ettr auch etwas sicherheitspuffer lassen, ohne in den rauschbereich zu gerateni
zebra bietet aber eben leider keine Infos zum kontrastumfang

false-color + histogramm ist eine sehr gute kombination - oder histogramm + zebra



domain
Beiträge: 11062

Re: ETTR verständlich erklärt

Beitrag von domain »

Nun sag aber bloß nicht Iasi, dass RAW für dich überhaupt noch eine Rolle spielen dürfte.
Bekanntlich können die betr. RAW-Filmer falsch und ohne jedweden Weißabgleich irgenwie belichten, um danach auch mit großartigen Ergebnissen im NLE in der Post aufzuwarten.
Ich glaube, ich werde auch bald so bequem werden, RAW ist was für alternde Tateln, wie mich: bei der Aufnahme kann man nicht mehr viel verhauen. ist was für die Altersbevölkerung in unseren Breiten.



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

domain hat geschrieben:Nun sag aber bloß nicht Iasi, dass RAW für dich überhaupt noch eine Rolle spielen dürfte.
Bekanntlich können die betr. Filmer falsch und ohne jedweden Weißabgleich irgenwie belichten, um danach auch mit großartigen Ergebnissen im NLE in der Post aufzuwarten.
Ich glaube, ich werde auch bald so bequem werden, RAW ist was für alternde Tateln, wie mich: bei der Aufnahme kann man nicht mehr viel verhauen. ist was für die Alterssbevölkerung in unseren Breiten.
also gut, dann erkläre ich es dir eben mal ausführlich:
Bei Raw belichtet man so, dass der DR ausgenutzt wird. Wer meint, er müsse nach dem Videomonitorbild beurteilen, sollte lieber die Finger von Raw lassen.

Wer Raw nutzt. sollte vielleicht wirklich mal die alten Techniken des Zonenbelichtungssystems wieder ausgraben.

Und mit Farbtemperaturen sollte er sich auch mal wieder beschäftigen und nicht nur auf die Weißabgleichstaste hoffen.

Ich nehme mal als Beispiel RedRaw:
1. Der Red MX Sensor reagiert nicht sonderlich gutmütig auf große Abweichungen von seinen nativen 5000 Kelvin. Daher sollte man ggf. zu den guten alten Korrekturfiltern greifen.
2. Das Histogramm zu lesen, ermöglicht das Bild zu beurteilen. Nur ETTR wäre etwas grob, denn es gibt nicht die Standardlichtsituation.
Bequem ist doch der, der nach seinem Zebra belichtet und sich sonst keine Gedanken macht. So ganz nach dem Mtto: Blick nach rechts und der Rest ist egal, denn er wird schon passen.
Der Red MX neigt zum Rauschen, daher achte ich darauf, dass bildwichtige Bereiche nicht zu sehr nach links auf dem Historgamm rutschen. In die Sonne halte ich daher möglichst nicht, während die Personen im Schatten sind. Ein Histogramm mit starken Ausschlägen links und rechts ist kritsch, muss aber auch im Hinblick auf den Bildinhalt beurteilt werden.
False Color ist ebenfalls sehr hilfreich. Ich habe auch weitere definiert, die mir dann den Bereich zeigen, in dem sich die Gesichter befinden sollten - bei Bedarf schalte ich dies kurz zu.
Clipping vermeide ich pinzipiell. Wenn ich wirklich Überstrahlungen möchte, bekomme ich diese in der Postpro viel schöner hin.
Die BMCC soll ja auch zu Blooming neigen - damit bin ich nicht konfrontiert, wenn ich mich vom Clippen fernhalte.
Die Red MX läuft im Vergleich zur Alexa in den Lichtern nicht so weich aus, auch dies berücksichtige ich.

Warum wohl will ich mehr als nur die Zebra-Anzeige, wenn ich es deiner Meinung nach so bequem liebe?

Der Kameramonitor dient mir einzig zur Schärfeeinstellung und für den Bildaufbau.
Eben wie in den alten Zeiten, als man noch durch den Sucher blickte
und das Bild anhand von Messwerten beurteilte.
Denkst du wirklich, dass dies bequemer ist, als die Einstellerei an der Kamera, bis das Vorschaubild schön aussieht?



Gregott
Beiträge: 523

Re: ETTR verständlich erklärt

Beitrag von Gregott »

Hier mal ein Bild von nem Histogramm was passiert wenn man die ISO oder ASA auf 200 runterdrosselt... Als ob die Höhen einfach abgeschnitten wären... null, null Info mehr in die Höhen reinzubringen.. trotz Prores (scheinbar auch gerade deswegen)

Bei ISO 800 wieder alles gewohnt mit wunder wunderschöner Dynamik :)
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



cantsin
Beiträge: 16052

Re: ETTR verständlich erklärt

Beitrag von cantsin »

Zusammenfassend lässt sich sagen, dass ProRes für ETTR der falsche Codec ist, weil alle Belichtungskorrekturen in der Post zu Gamma-Shifts führen. Also entweder ETTR mit Raw, oder ProRes auf 18% Grau.

Wie wird eigentlich ProRes in der Arri Alexa belichtet? Und: Gibt's das Problem eigentlich auch mit DnXHD?



Valentino
Beiträge: 4833

Re: ETTR verständlich erklärt

Beitrag von Valentino »

iasi hat geschrieben: Ich nehme mal als Beispiel RedRaw:
1. Der Red MX Sensor reagiert nicht sonderlich gutmütig auf große Abweichungen von seinen nativen 5000 Kelvin. Daher sollte man ggf. zu den guten alten Korrekturfiltern greifen.
Schade das du immer noch nicht verstanden hast, das Korrekturfilter bei Bayer-Sensoren nix bringen, außer das du den Sensor in seiner Dynamik beschneidest.
Irgendwie willst du es nicht wahr haben, das durch das weniger Licht(verursacht durch den Korrektufilter) auf dem Sensor der Abstand vom eigentlichen Signal zum Grundrauschen deutlich geringer wird.
Die Filter sind schon auf den einzelnen Pixeln und die Farbtemperatur wird durch das DeBayering geregelt, auch wenn jeder Sensor natürlich sein Sweetspot hat.
Dann doch besser etwas Zeit in der Postproduktion mit NR-Tools verbringen, als sich schon vorher den Sensor bzw. Bild vermachten.

Es ist schon lußtig mit den Korrekturfilter katapultierst du deine Scarlet in die D-Cinema Steinzeit einer D20 und dein Sensor hat gerade mal noch 160 ISO.
Dabei wendest du diese Korrektur sehr wahrscheinlich noch Nachts an und musst im Nachhinein die 160 ISO auf 1600 puschen und bekommst somit wieder mehr Rauschen.



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

Valentino hat geschrieben:
iasi hat geschrieben: Ich nehme mal als Beispiel RedRaw:
1. Der Red MX Sensor reagiert nicht sonderlich gutmütig auf große Abweichungen von seinen nativen 5000 Kelvin. Daher sollte man ggf. zu den guten alten Korrekturfiltern greifen.
Schade das du immer noch nicht verstanden hast, das Korrekturfilter bei Bayer-Sensoren nix bringen, außer das du den Sensor in seiner Dynamik beschneidest.
Was du wieder redest.

Weißt du eigentlich, was z.B. ein 80B bewirkt?
Du gehörst zu der Generation, die nur noch NR-Filter und die WB-Taste kennen.

Ich dachte du liest Film&TV-Kameramann - da hat schon zu Red One MX-Zeiten einer der ersten Red-User in D, von Sonntag, einen Artikel verfasst, den du mal lesen solltest, wenn du schon die Artikel von Red meidest.
Das ist zwar schon lange her, aber da kannst du mal was lernen.

Aber mal ganz kurz:
Wenn ein Sensor auf 5000Kelvin abgestimmt ist, du ihn aber mit 3400k belichtest, ist der Blauanteil weit geringe als der Rotanteil - entsprechend bekommt der Sensor zu wenig Blau, während Rot noch OK ist, was dazu führt, dass das B-Signal schon so niedrig ist, dass es durch Rauschen überlagert wird.
Umgekehrt kann R schon clippen, während B noch im Sensorbereich ist.

Man nutzt einen Korrekturfilter doch nicht als NR-Filter, sondern gleicht bei der Belichtung die 1 /2/3 Blendenstufen eines 80B dann eben aus.

Wer mit einer Red MX Low-Light ohne Filter filmt und dann über das blaue Rauschen klagt, hat es eben nicht kappiert.

Wenn ich wirklich derart wenig Licht bei niedriger Farbtemperatur zur Verfügung habe, dass ich nicht einmal die 2/3 Blende eines 80D ausgleichen kann, dann muss ich eben in Resolve im B-Kanal gegen das Rauschen ankämpfen oder ein rötliches Bild akzeptieren.
Ein wirklich gutes Ergebnis erhält man eben nie, wenn man zu wenig Licht hat.

In der Praxis habe ich übrigens sehr viel seltener das Problem der zu geringen Empfindlichkeit als eher das der zu hohen.
Um bei Sonnenschein auf Blende 5,6 oder 4 zu kommen, braucht es extreme NR-Filter, die man dann mit IR-Filter kombinieren muss - und auch dann genügt es manchmal nicht.
Nur wenige Objektive liefern bei stärkerer Abblendung als f8 oder f11 noch brauchbare Ergebnisse.

Nachtszenen sollte man vielleicht eher am Tag drehen - geht heute ja noch einfacher und überzeugender als zu Truffauts Zeiten:
http://www.professional-production.de/f ... i-resolve/



WoWu
Beiträge: 14819

Re: ETTR verständlich erklärt

Beitrag von WoWu »

cantsin hat geschrieben:Zusammenfassend lässt sich sagen, dass ProRes für ETTR der falsche Codec ist, weil alle Belichtungskorrekturen in der Post zu Gamma-Shifts führen. Also entweder ETTR mit Raw, oder ProRes auf 18% Grau.

Wie wird eigentlich ProRes in der Arri Alexa belichtet? Und: Gibt's das Problem eigentlich auch mit DnXHD?
Das kann man so nicht nachvollziehen, weil es sich um zwei unabhängige Prozesse handelt.
Zu einen die Belichtung des Sensors und zum andern die benutzte Quantisierungskurve.
Nur hat das nicht viel mit ISO zu tun sondern der Begriff bezieht sich auf die Objekthelligkeit, bei der im Bild der Arbeits- oder Mappingpunkt M erreicht wird. In der digitalen Kameratechnik entspricht diese Helligkeit einem Signalpegel von 40%.

Empfindlichkeit ist also nicht mehr ein Wert, sondern der Abstand vom Arbeitspunkt M in Richtung geringer Objekthelligkeit bis zu Punkt S (Schwellwert), ab dem das digitale Signal das erste Mal in der Lage ist, örtliche Information zu übertragen.
Dynamik ist, daraus folgend, der Abstand vom Schwellwert S bis zum Clippen C in Blenden.

Bei einer andern Quantisierungskurve bleibt das Ergebnis in Bezug auf die Dynamik immer gleich, nur verschieben sich die + und - Werte entsprechend.
Die Quantisierungskurve hat also keinen Einfluss auf das Ergebnis, wohl aber auf das Mapping.

Es macht also überhaupt keinen Sinn über-oder unter zu belichten, wohl aber das Mapping in Richtung ETTR zu verändern.
Und nichts anderes machen die LOG Kurven.
Wer RAW filmt, sollte den guten alten Belichtungsmesser wieder einstecken und die beiden Dynamikpunkte seiner Kamera kennen.
Der Belichtungsmesser ist nämlich deutlich genauer als die unpräzisen Softwaretools in den Kameras, die dazu noch (für die Messung) gefiltert werden. Das sind wirklich nur Schätzungen.
Und wenn man dazu noch LOG arbeitet, kann man sich das ETTR sowieso schenken, denn das macht die Kurve schon für die Kamera.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

WoWu hat geschrieben:
Es macht also überhaupt keinen Sinn über-oder unter zu belichten, wohl aber das Mapping in Richtung ETTR zu verändern.
Und nichts anderes machen die LOG Kurven.
Wer RAW filmt, sollte den guten alten Belichtungsmesser wieder einstecken und die beiden Dynamikpunkte seiner Kamera kennen.
Der Belichtungsmesser ist nämlich deutlich genauer als die unpräzisen Softwaretools in den Kameras, die dazu noch (für die Messung) gefiltert werden. Das sind wirklich nur Schätzungen.
Die "Schätzungen" sind nicht so schlecht, dass man sie in der Praxis nicht nutzen könnte. Jedoch stimmt der Hinweis mit dem Belichtungsmesser. Will man ganz sicher sein, sollte man wie in guten alten Zeiten messen.

Die Werte für S, M und C beziehen sich aber doch bei jeder Kamera auf eine bestimmte Farbtemperatur. Nutzt man davon abweichendes Licht, tritt eine Spreitzung auf und für R gelten dann andere Werte als für B.
Will man dann neutrale Farbwiedergabe bleiben effektiv weniger Blendenstufen Dynamik übrig.
WoWu hat geschrieben: Und wenn man dazu noch LOG arbeitet, kann man sich das ETTR sowieso schenken, denn das macht die Kurve schon für die Kamera.
Diese Formulierung könnte man missverstehen: Munter drauf los, die Kurve richtet es schon.
Der Belichtungsmesser ist hier ja durchaus auch sinnvoll, denn an S und C ändert die Kurve ja nichts.



Axel
Beiträge: 16823

Re: ETTR verständlich erklärt

Beitrag von Axel »

iasi hat geschrieben:Wer RAW filmt, sollte den guten alten Belichtungsmesser wieder einstecken und die beiden Dynamikpunkte seiner Kamera kennen.
Ich kenne weder den "guten alten" noch die guten neuen, digitalen. Worauf sollte man beim Kauf achten? Auch beim Preis? Wie stelle ich in der Praxis den Bezug zu den Kameraeinstellungen her? Iso einstellen, draufhalten und Blende ablesen? Sorry, absolut ahnungslos.



WoWu
Beiträge: 14819

Re: ETTR verständlich erklärt

Beitrag von WoWu »

Diese Formulierung könnte man missverstehen: Munter drauf los, die Kurve richtet es schon.
Das ist wohl richtig, nur versucht man mit ETTR genau denselben Effekt zu erzeugen, nämlich die Lichtmenge, die den Sensor trifft anzuheben, um den darunter liegenden Noisefloor in der Post (incl. der Lichtanhebung) abzusenken, um dann wieder Schwarz -aber bei einem geringeren Rauschen- zu erreichen.

Die Kurve macht das bereits über eine veränderte Quantisierung.
ETTR macht also (wenn überhaupt) nur Sinn in einem linearen Aufnahmeverfahren, um so eine Kurve (einwenig) nachzubilden. Nur wird man den Wertebereich, den man unten "nachschiebt", im oberen Bereich verlieren.
Dazu kommt noch, dass sich die unterschiedlichen Rauschwerte auch entlang der Empfindlichkeitskurve des Sensors verändern und nicht etwa an dem Punkt enden, den man als Rausschwelle angibt, denn das ist nur bezogen auf den Read-Noise. Der Shot Noise nimmt aber munter mit der Menge des eintreffenden Lichtes in der Kamera zu.
Daher sind die LOG Kurven genau der Kompromiss, der für die jeweilige Kamera optimiert ist.
Bei den 2 Kanaligen Sensoren kommen noch andere Optimierungen dazu.

Und was die Quanteneffizienz des Sensors angeht ... Auch die Bayermaske besteht nicht aus RGB in den Standardwerten sondern die Farben in den Filtern sind exakt auf die QE angepasst.
Deswegen ist es ja so wichtig, die entsprechenden Werte der exakten Farbe in das De-Bayering zu übernehmen und nicht einfach die Metadaten wegfallen zu lassen.
Das (und noch ein paar Dinge) bedeuten ja eigentlich die "Unterstützung" von DNG.
Fallen solche Metadaten nämlich weg, dann stimmt das nachfolgende De-Bayering nur so ungefähr oder das Bild wird nach gemittelten (Vergleichts-)Werten gerechnet.
Aber das gehört hier eigentlich nicht zum Thema.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

WoWu hat geschrieben:
Und was die Quanteneffizienz des Sensors angeht ... Auch die Bayermaske besteht nicht aus RGB in den Standardwerten sondern die Farben in den Filtern sind exakt auf die QE angepasst.
Deswegen ist es ja so wichtig, die entsprechenden Werte der exakten Farbe in das De-Bayering zu übernehmen und nicht einfach die Metadaten wegfallen zu lassen.
Das (und noch ein paar Dinge) bedeuten ja eigentlich die "Unterstützung" von DNG.
Fallen solche Metadaten nämlich weg, dann stimmt das nachfolgende De-Bayering nur so ungefähr oder das Bild wird nach gemittelten (Vergleichts-)Werten gerechnet.
Aber das gehört hier eigentlich nicht zum Thema.
Gehört zwar nicht zum Thema, interessiert mich aber - daher frag ich doch:

Ich stelle mir das immer möglichst einfach vor:
Da sitzen die einzelnen Sensoren unter ihren R, G oder B Filtern und sind so abgestimmt, dass bei einer bestimmten Farbtemperatur jeder dieselbe Signalstärke für neutrales Grau liefert.
Trifft nun auf einen Tageslichtsensor schön warmes Kunstlicht, dann ist die Signalstärke für dieses neutrale Grau bei B niedriger als bei R.
Wenn ich dich richtig verstehe, werden die z.B. 3400kelvin in den Metadaten während des DeBayerings genutzt.
Ergibt sich nun ein Unterschied, wenn ich z.B. Resolve sage, es soll statt den Metadaten einen eingegebenen Farbtemperaturwert nutzen?

"... die Farben in den Filtern sind exakt auf die QE angepasst."
Verstehe ich dich hier richtig: Es ist also sinnvoll, die Farbtemperatur des Lichts so zu korregieren, dass sie dem Sensor entspricht?



WoWu
Beiträge: 14819

Re: ETTR verständlich erklärt

Beitrag von WoWu »

Ergibt sich nun ein Unterschied, wenn ich z.B. Resolve sage, es soll statt den Metadaten einen eingegebenen Farbtemperaturwert nutzen?
Ja, natürlich, das macht einen Unterschied weil Resolve nicht weiss, welches die Originalfarbe des Lichtes war, ohne den Wert des Filters und des effektiv angelegten Wertes zu kennen.

Adobe macht das in dem DNG Konvertern bei den Formaten, die diese Metadaten nicht mitführen so, dass sie solche Werte aufgrund bekannter Farbmodelle re-engineered. Aber das ist dann eben (mehr oder weniger) Glückssache und hat nur noch eingeschränkt mit der Farbe zu tun, die am Set vorlag.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

WoWu hat geschrieben:
Ergibt sich nun ein Unterschied, wenn ich z.B. Resolve sage, es soll statt den Metadaten einen eingegebenen Farbtemperaturwert nutzen?
Ja, natürlich, das macht einen Unterschied weil Resolve nicht weiss, welches die Originalfarbe des Lichtes war, ohne den Wert des Filters und des effektiv angelegten Wertes zu kennen.

Adobe macht das in dem DNG Konvertern bei den Formaten, die diese Metadaten nicht mitführen so, dass sie solche Werte aufgrund bekannter Farbmodelle re-engineered. Aber das ist dann eben (mehr oder weniger) Glückssache und hat nur noch eingeschränkt mit der Farbe zu tun, die am Set vorlag.
Da muss ich nochmal nachfragen:
Mal angenommen, ich zücke ein Colormeter und bestimme die Farbtemperatur am Set. Wenn ich diesen Wert nun eingebe?
Welche weiteren Metadaten würde Resolve oder Adobe denn noch nutzen?

Und nochmal die Frage:
Der Red MX-Sensor wird mit 5000 Kelvin angegeben. Ist es in einer Kunstlichtsituation nicht angeraten, die 3400k per Filter auf die 5000k zu korregieren?
Reagieren andere Sensoren (z.B. der Alexa) hier unkritischer?



cybr
Beiträge: 197

Re: ETTR verständlich erklärt

Beitrag von cybr »

Ich meine die Alexa verstärkt bei 5600 auch weniger. Aber nicht im sichtbaren Bereich.



WoWu
Beiträge: 14819

Re: ETTR verständlich erklärt

Beitrag von WoWu »

Der Red MX-Sensor wird mit 5000 Kelvin angegeben.
Das heisst doch nur, dass er so abgestimmt ist, dass er am "kalten Ende" von "Neutrallicht" eine ausgeglichene Quanteneffizienz hat.
Wenn Du jetzt auf Kunstlicht arbeitest, werden die Werte hinter "Blau" entsprechend gering gesichtet und dementsprechend auch die Rauschwerte.
Regelst Du Dir das mit einem Filter künstlich runter, kommt es immer darauf an, wie hoch der Effektivwert war.
Ist er dicht an C, wird es kaum einen Unterschied machen. Ist er dichter an S, wirst Du Dir Rauschen einhandeln, weil die B-Bewertung überproportional im De-Bayering stattfinden muss.

Ein De Bayerin braucht immer die Korrekturwerte der Farbmaske sonst vergleicht der RAW Konverter immer das Bild mit neutralen Farbmodellen und stellt seine Werte nach stochastischen Statistiken ein.
Das hat aber u.U. nicht mehr viel mit dem Licht am Set zu tun.

Deswegen war ja auch meine Frage (schon etwas her), warum das Signal einer Kamera, die CDNG unterstützt, bei Adobe vorher durch einen "hauseigenen" Converter laufen muss.
Die beste Methode ist noch, DNG lediglich als Container zu benutzen, in dem das original-RAW file optional abgelegt ist und der nachlaufende Converter gemeinsam die Metadaten und das Original-RAW Material benutzt. Das ist genau das Verfahren, was auch in den Kameras zur Anwendung kommt, nur dass man extern eben alternative Algorithmen hat und auf die Einzelparameter Einfluss nehmen kann.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 28248

Re: ETTR verständlich erklärt

Beitrag von iasi »

WoWu hat geschrieben:
Ein De Bayerin braucht immer die Korrekturwerte der Farbmaske sonst vergleicht der RAW Konverter immer das Bild mit neutralen Farbmodellen und stellt seine Werte nach stochastischen Statistiken ein.
Das hat aber u.U. nicht mehr viel mit dem Licht am Set zu tun.
Nun tu ich mich immer noch ein wenig schwer, das klar zu verstehen.
Mal angenommen, ich stelle am Set unabhängig von der vorhanden Farbtemperatur des Lichts 5000 Kelvin ein. Nun reicht das vorhandene Licht nicht mal für den Einsatz eines Korrekturfilters und so belichte ich mit 3400 Kelvin.
Macht es denn nun einen Unterschied, ob ich die 3400 Kelvin-Einstellung in der Kamera oder erst in der Software vornehme?
WoWu hat geschrieben: Deswegen war ja auch meine Frage (schon etwas her), warum das Signal einer Kamera, die CDNG unterstützt, bei Adobe vorher durch einen "hauseigenen" Converter laufen muss.
Die beste Methode ist noch, DNG lediglich als Container zu benutzen, in dem das original-RAW file optional abgelegt ist und der nachlaufende Converter gemeinsam die Metadaten und das Original-RAW Material benutzt. Das ist genau das Verfahren, was auch in den Kameras zur Anwendung kommt, nur dass man extern eben alternative Algorithmen hat und auf die Einzelparameter Einfluss nehmen kann.
So richtig implementiert hat Adobe CinemaDNG doch eigentlich noch gar nicht.
Für die Ikonsoskop gibt es in Speedgrade zwar Vorgaben, aber sonst habe ich da noch nichts gefunden.
Ich warte jedenfalls noch immer auf eine Lösung ala r3d. Hier ist die Zusammenarbeit zwischen Red und Adobe sehr gut.
BMD und Adobe dürfen sich da miteinander schon schwerer tun - BMD ist schließlich auch mit Resolve am Markt.



WoWu
Beiträge: 14819

Re: ETTR verständlich erklärt

Beitrag von WoWu »

Du hast da lediglich ein Weisspunkt-Shift und bist (bei wenig Licht-ohne Spitzen) weit entfernt von Tone-Compression.
Kennst Du also beide Werte (5000k) und das Licht mit 3400k kannst Du den Weisspunkt in der Post bestimmen.
Machst Du das ohne Blau anzuheben, durch Absenkungen (wenn Dein Bild z.B. so dunkel sein soll), gewinnst Du auch noch einwenig Störabstand, weil du a.A. auch Deinen Shot Noise absenkst.
Kommt Verstärkung ins Spiel, wird man die Spitzlichter anschauen müssen, weil es dann (quasi) zu Tone-compression kommt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



Valentino
Beiträge: 4833

Re: ETTR verständlich erklärt

Beitrag von Valentino »

Der Einsatz von Farbtemperatur-Korrekturfilter bei Bayer-Sensoren beschneidet den Sensor doch in seiner Dynamik oder?

Habe da von Wolfgang mal ein sehr einleuchtende Erklärung dazu gelsen.
Ausnahme war hier der Filter gegen das Ausbrennen von roten Rück/Bremmslichtern ein zu setzten.



Frank Glencairn
Beiträge: 26509

Re: ETTR verständlich erklärt

Beitrag von Frank Glencairn »

Oha. Was war das denn für ein Filter?



WoWu
Beiträge: 14819

Re: ETTR verständlich erklärt

Beitrag von WoWu »

Optische Notch Filter.
Gibt es mit einzelnem Notch oder als Multinotch und verschiedener Flankensteilheiten oder als Bandpass.
Um die 700 nm mit rd 80nm Breite ist ein guter Wert bei einem single Notsch.
Du must nur in der Post in dem Bereich wieder anheben, damit im Restbild Rot wieder ausgeglichen wird.
Nur dann bleiben deine Rücklichter rot und sind nicht weiss geworden und nicht ausgebrannt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



Frank Glencairn
Beiträge: 26509

Re: ETTR verständlich erklärt

Beitrag von Frank Glencairn »

Ah, danke.



 Aktuelle Beiträge [alle Foren]
 
» Panasonic LUMIX S1II und S1IIE für Videofilmer - bis zu 15 Blendenstufen und ARRI Log
von Darth Schneider - Sa 0:16
» Gerücht: Nikon ZR wird 6K60p Z-Mount-Kamera mit REDCODE RAW Aufzeichnung
von pillepalle - Sa 0:12
» Neue Umfrage: Mit welchem Programm schneidest Du?
von NurlLeser - Fr 19:27
» Webcam per Nvidia HDMI?
von Silentsnoop - Fr 19:21
» Was schaust Du gerade?
von Darth Schneider - Fr 19:08
» Werbung - es geht auch gut ;) Sammelthread
von 7River - Fr 18:44
» PC 2018: AsusX470 Pro, AMD 2700+ Nvidia 1080 8 GB, 32 GB RAM > Upgrade oder neuer PC?
von dienstag_01 - Fr 18:27
» Andor | offizieller Trailer | Disney+
von Darth Schneider - Fr 17:57
» Sony Xperia 1 VII mit größerem 16mm-Bildsensor und KI-Kameraführung vorgestellt
von Alex - Fr 17:51
» Das Rätsel um den elektronischen ND-Filter der DJI Mavic 4 Pro
von rush - Fr 14:17
» Panasonic LUMIX S1 II Sensor-Bildqualität - Debayering, Rolling Shutter und Dynamik
von WWJD - Fr 13:23
» Nikon Z50II Create-a-Cut Wettbewerb: Stimme für den besten Clip ab!
von stip - Fr 13:03
» Superman | Offizieller Trailer
von Funless - Fr 10:39
» Panasonic L-Mount Cine-Kamera als Konkurrent zur Sony FX3 im Anflug?
von rush - Fr 8:41
» Kommt in Kürze eine Sony FX2 ?
von cantsin - Do 23:10
» Panasonic LUMIX S1II im Praxistest: Beste Video-DSLM ihrer Klasse Dank 5.1K Open Gate u. hohem DR?
von guntero - Do 19:38
» Linsen (Vintage, Anamorphic & Co.)
von Funless - Do 16:33
» Panasonic Zoomobjektiv mit großer Blende - LUMIX S 24-60mm F2.8
von Darth Schneider - Do 15:29
» AI-Alive - TikTok integriert generative KI-Videos für jedermann in der App
von philr - Do 15:22
» Shure MV88 Plus Videokit
von 123oliver - Do 10:00
» Rode Rode VideoMic GO II
von 123oliver - Do 9:58
» Rode Stereo VideoMic Pro
von 123oliver - Do 9:54
» Fachstudie zum Thema Video-Software
von ruessel - Do 9:00
» Was hörst Du gerade?
von pillepalle - Do 7:24
» DJI Mavic 4 Pro ist da und filmt mit neuem 360°-Gimbal in 6K
von Videopower - Do 0:11
» Nubia Z70S Ultra Smartphone - "Sicht des menschlichen Auges"
von iasi - Mi 19:51
» Sennheiser Profile Wireless Mikro bekommt 32-Bit Float per Firmware und eine 1-Kanal Version
von Darth Schneider - Mi 18:14
» Ersatz für Pinnacle Studio 9 gesucht
von cantsin - Di 22:31
» Nachfolger der Lumix S1II S1IIX im Mai 2025?
von iasi - Di 22:00
» RIP - Frank Glencairn :-(
von Darth Schneider - Di 18:58
» Die korrekte anamorphe Abstimmung von Kamera und Objektiv
von CameraRick - Di 16:47
» Katastrophe Filmset: WTF macht eigentlich ein Line Producer?
von 7River - Di 14:06
» APV-Codec: Visuell verlustfrei, Open Source und jetzt in Blackmagic Camera App
von cantsin - Mo 23:30
» Leica SL3-S/SL3 bekommen C4K- und C6K-Aufnahme in ProRes
von slashCAM - Mo 23:24
» Z Cam E2G, E2C, E2-6F, E2-S6, E2-F8
von Clemens Schiesko - Mo 20:46