Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Infoseite // Blöde Frage, aber: Was sagt mir die Luminanzanzeige?



Frage von Paul*Berlin:


Also, ich habe eine Frage, bei der sich viele von euch sicherlich an den Kopf fassen werden, aber:
Was kann ich mit der Luminanz-Anzeige meines Camcorders anfangen? Bin jetzt vor einem Moant auf HD umgestiegen und seitdem erstmals die Möglichkeit, umfangreichere manuelle Einstellungen vorzunehmen, und deshalb stehen mir seit dem auch tolle Funktionen wie Zebra oder Histogramm zur Verfügung.

Wäre euch dankbar, wenn ihr mir sagen könntet, was die Luminanzanzeige bedeutet und welcher Wert dort am besten ist (wenn man das sagen kann, vielleicht ist das ja auch je nach Aufnahmesituation unterschiedlich?).

Space


Antwort von Piers:

Also es ziegt natürlich die Luminanz an. ;-)

Ein 100% ausgeleuchtetes 100% weisses Blatt Papier sollte dementsprechend auch einen Luminanzwert von 100 haben.

Wie, wann, wass einen Luminanzwert von X hat ist einfach Erfahrungssache, das findest Du in keinem Buch oder Forum.

Space


Antwort von strike300xxx:

http://de.wikipedia.org/wiki/Luminanz

Space


Antwort von MarcBallhaus:

Natürlich gibt es klare Richtlinien, die einfachste ist, die Haut eines Mitteleuropäers belichtet man mit 70% Luminanz, alles andere nicht über 90%, ausser direkte Lichtquellen, die dürfen 100% haben, und ein Blatt Papier natürlich niemals 100%, denn dann ist es nicht 100% ausgeleuchtet sondern überbelichtet.

Ganz einfach. Und für ganz Peniblen gibt es die Graukarte, die liegt immer bei 50%. Eine vernünftige Luma Wertung hilft ausserdem beim späteren Grading enorm.

MB

Space


Antwort von Piers:

@Ballhaus

Also wenn keine direkte Lichtquelle im Bild ist, dann hat dein Video auf nem Waveformer alle (ausgeleuchteten, weißen) Spitzen bei max 90%?

uiuiuiuiui...

Space


Antwort von MarcBallhaus:

wo sonst!

Space


Antwort von Piers:

Naja, anders herum gefragt: Warum liegt bei einem Farbbalken dann weiß bei 100% bzw. 0,7V uund nicht bei 90%?

Space


Antwort von MarcBallhaus:

Komm, is gut jetzt, ist ja kein Problem wenn du keine Ahnung von Belichtung und Beleuchtung hast, aber fang doch jetzt bitte keine unsubstantiierte, sinnentleerte Diskussion an.

MB

Space


Antwort von Piers:

@ Ballhaus

Anscheinend noch nie in Deinem Leben mal in nem Broadcast Schnitt, oder an ner CCU vor nem Waveformer gesessen und richtig drauf geschaut, aber mal wieder von oben auf Dir unbekannte herunter paulen.
Ich bin zutiefst beeindruckt.
Aber Du hast Recht. Belichtung und Beleuchtung ist nicht mein Fachgebiet. Bin ja auch kein lichtsetzender Kameramann. Ich arbeite eher am anderen Ende des Kamera-Kabels.

Space



Space


Antwort von B.DeKid:

Luminanz, Histogramm und Zebra ....ist ja alles so sehr wichtig !!! ;-)

Ich nutz das alles nicht ;-) Wofür auch, müsste ich ja studiert haben um den Kram zu verinnerlichen.

Ich schmeiss ne Farb oder Graukarte ins Bild nutz einen Lichtmeter - spiele dann mit dem Licht - und dann hat das zu passen.

So seh Ich das. Und meine weissen Blätter sind nie ganz weiss - weil das würde ja grottig aussehen.

Bei so Aussagen bekommt man ja Angst - leuchtet Ihr alle euern Arbeitsplatz so steriel aus wie wir es in Deutschen Fernseh Produktion zu sehen bekommen?!

.................

Leute es gibt echt Themen die sind ziemlich unnötig - ausser Ihr seit Techniker.

Also Handbuch nutzen und vielleicht noch die Wiki und dann anfangen zu arbeiten. Wer zuviel Zeit mit Theorie und Physik /Technik verbringt wird nie anfangen zu schaffen oder gar mit seiner Arbeit zu frieden sein.

MfG
B.DeKid

Space


Antwort von Piers:

Sorry BDeKid, aber natürlich ist sowas wichtig. Vielleicht nicht zwingend, wenn Du nur wie der TS eventuell für den privaten Gebrauch drehst.
Aber wenn ich für nen Sendung Betas von 3 versch. EB Teams reinbekomme, ist es schon ganz gut wenn ein Kamera-Farbbalken drauf ist und die Jungs nen sauberen Weißabgleich gemacht haben, damit man die Bilder matchen kann.
Ausserdem kann so ein Zebra für den unerfahren Amateur ebenso hilfreich sein, denn dann hat er eine objektive Richtschnur, an der er sich orientieren kann.
Das man nach jahrelanger Dreherfahrung schon ziemlich genau sieht, wann das Bild richtig und wann über/unterbelichtet ist, ist natürlich klar. Aber für den Amateur kann eine Luminanz-Anzeige in der Kamera eben eine willkommene Hilfe sein. Denn wenn ich immer sehe was unerfahrene Praktis und Volos an Material reinbringen und sich nicht dafür schämen, dann wünsche ich mir oft, man würde wieder mehr auf eine saubere Aufnahmetechnik achten und nicht immer mit "der Inhalt zählt, der Rest versendet sich" kommen.

Space


Antwort von WoWu:

..... auch nicht zu vergessen, dass 10% Unterbelichtung auch Schwarz absaufen läst (sofern man nicht im Gamma "kurbeln" will) .... und das Rauschen drastisch verschlechtern. Die Bilddynamik wird ausserdem kleiner, weil die ADC Werte gar nicht ausgenutzt werden. (254 entspricht in einem 8 bit System einer Verstärkung von Null)
Weiss heist ja nicht nur : oben hübsch machen. 90% "toller" Vorschlag !
Ausserdem sind 100% noch nicht ausgebrannt. Das findet erst ab 133 Lux statt.

Wie Piers schon sagt, mit Geräten muss man schon umgehen können, um sie richtig zu benutzen.

Space


Antwort von B.DeKid:

@ Piers

Volle Zustimmung - nur ein übereifriger Anfänger kann schnell durch die ganzen Sachen verwirrt werden und ist sich dann unsicher am Set und krammt wohl möglichst noch das Manual hervor um das Einstellen des "What So Ever" nach zu lesen.

Darauf wollte ich mit meiner recht salopen Art hinweisen.


Das es wichtig ist diese Funktionen zu haben davon bin ich überzeugt.
Nur darf man sich am Anfang nicht ganz verrückt machen lassen, das hemmt nur und ist nicht förderlich.

MfG
B.DeKid

Space


Antwort von WoWu:

Da geb ich Dir ja Recht, es bringt nur nichts, "Filmweisheiten" auf Video zu übertragen, wo sie drastisch andere Auswirkungen haben. Dafür gibt es eben solche Tools wie Zebra.
Nur muss man eben wissen, dass 100% noch nicht kaputt machen, wohl aber 90%.

Space


Antwort von pardalis:

Naja, anders herum gefragt: Warum liegt bei einem Farbbalken dann weiß bei 100% bzw. 0,7V uund nicht bei 90%? Hallo,

weil es sonst grau wäre; schwarz liegt dort übrigens bei 0% und es sind Referenzwerte, an denen du dich orientieren kannst. Fotografierst du eine Farbkarte ab und das 50%Grau liegt bei 40 % ist das Weiß lt Messung noch immer bei 100% aber "überbelichtet", obwohl es natürlich nicht mehr als 100% gibt und das schwarz ist bei 10%; du hast also überbelichtet. Auf der anderen Seite braucht weiß einen Ton (zwischen 90% und 95%), damit es auch "Zeichnung hat" was aber nicht heißt, das es unterbelichtet ist. Stellst du also Weiß auf 90% ein, musst du für Schwarz extra Licht aufwenden, weil es natürlich nicht bei 0% liegen darf, damit du auch in den Schatten noch Zeichnung bekommst. Ein Fotograf hat mal zu mir gesagt: "Weißer als weiß geht nicht, egal wie viel Licht du drauf gibst".

viele Grüße
uwe

Space


Antwort von B.DeKid:

@ WoWu klar das ist aber wieder ein anderes Thema welches man natürlich beachten muss.

Aber zuviel Imput darum gings mir halt - bzw das man sich hier unter den "Profis" dann in die Haare bekommt welcher Wert denn dann der richtige sei und mit Geschützen aller Wave Monitor auffährt;-)

Deswegen sagte Ich - Ich nutz es nicht ;-)

MfG
B.DeKid

Space


Antwort von Debonnaire:

@Paul*Berlin:
Lies dir mal im Manual durch, wie du die Zebra-Funktion einsetzen solltest. Die gibt dir eine recht objektive Möglichkeit, unabhängig von Umgebungslicht und LCD-/Monitorhelligkeit, die korrekte Belichtung der bildwichtigen Elemente zu steuern!

Was hier zu den Themen Luminanz und Prozentsätze beim Belichten gesagt wurde ist hilfreich und lässt sich dann eben auf die Einstellung und Beurteilung des Zebras direkt anwenden! - Also: Zuerst Manual konsultieren, dann diesen Thread nochmals durchlesen und.... oh Wunder... Verständnis entsteht! ;-)

P.S.: Auch wenn Leute wie B.DeKid jegliches Mehrwissen über On/Off-Knopfbedienung als unnötig und elitär betiteln, tut es Not, sich ein klein wenig über dem absoluten Bedienungsminimum mit seinem Equipment auszukennen.

Space


Antwort von B.DeKid:

P.S.: Auch wenn Leute wie B.deKid jegliches Mehrwissen über On/Off-Knopfbedienung als unnötig und elitär betiteln, tut es Not, sich ein klein wenig über dem absoluten Bedienungsminimum mit seinem Equipment auszukennen. Genau deswegen hab Ich das geschrieben , weil Ich nur on / off nutze.

Sach ließt Du auch mal mit bzw zwischen den Zeilen?

Dann wäre Dir aufgefallen das ich absichtilich geschrieben hab " ICH nutze das nicht" um hier das Level mal wieder auf das Thema zurück zu ziehn.

Also tu mir doch den Gefallen mit lesen und verstehen. Du weisst doch das Ich hier ne riesen GreenBox hab - ne feste - und ohne Luminanz Zebra und Hiostogramm aber in dem Fall Zebra koennte Ich doch garnicht damit arbeiten, oder ?

Aber jemandem der nach Luminanz mit Wavemonitor zu kommen ist wohl dezent zu viel Imput am Anfang.

Meinst nicht auch. ?-)

................

Also @ Paul*Berlin - nur um es noch mal ganz klar zu sagen quasi nur für Dich

Das sind alles wichtige Infos / Tools die man verinnerlicht haben muss ohne sich zu sehr auf die Tehorie zu versteifen. Am besten die Haupt Aufgabe Funktion des jeweiligen "Tools" lernen und dann viel damit spielen / probieren - so das die Handhabung einem ins Blut über geht.

Dann kannst auch irgendwann mal so dekadent sein und nur den On / Off Knopf benutzen ;-))

MfG
B.DeKid

Space



Space


Antwort von Debonnaire:

Luminanz, Histogramm und Zebra ....ist ja alles so sehr wichtig !!! ;-)
Ich nutz das alles nicht ;-) Wofür auch, müsste ich ja studiert haben um den Kram zu verinnerlichen.
(...)
Leute es gibt echt Themen die sind ziemlich unnötig - ausser Ihr seit Techniker. Tja, da hätte ich doch tatsächlich annehmen können, dass für EINMAL MEINST, was du hier sagst und wollte dich ernst nehmen... Mist, wieder voll in die Scheisse gehauen und du bist erst noch selbst Schuld daran!

A propos "Wofür auch, müsste ich ja studiert haben um den Kram zu verinnerlichen.": Ich sag's echt fast ein wenig ungern, aber vor nicht allzu langer Zeit habe ich mal in einem anderen Thread gesagt, dass du halt nicht so ne Hirnleuchte wärst. *smile* Irgendwie sehe ich mich nun nicht so gaaanz unbestätigt, oder?! ;-)

Du weisst doch das Ich hier ne riesen GreenBox hab - ne feste Och, Schande, Schande, Schande! Jetzt muss mir doch tatsächlich dieses EINE Detail aus deinem Lebenslauf entfallen sein! Da muss ich mich wohl schon wieder auf's Schärfste entschuldigen, hier im Slashcam!!!

Space


Antwort von B.DeKid:

LOL ne musst Du ja nicht war echt gemein und zynisch geschrieben.

Und Hirnleuchte hin oder her ;-) aber ich möchte mich da nie so sehr ins Technische Detail verlieren / vertiefen.

Das lenkt mich dann meist nur ab.
Bzw seh Ich das an Leuten mit denen Ich teilweise arbeite, die sich da dann echt verrückt machen weil sie irgendwo in einem Forum mal eine Formel gelesen haben und dann am Set auf einmal Ihren Spickzettel aus packen , weisst wie Ich das mein;-)

.................

Un das mit der Greenbox weisst nun auch ;-) Ja hab Ich mir vor ca 5 Jahren in der Scheune gebaut so ca 5x6x4 mit festem Licht und allem Spielzeug darin haben wir unsere ersten Video MoCap Test Sachen gemacht - also Latex Mischgewebe Anzuege mit aufklettbaren 3M Reflektor Punkten und dann mit min 2 Kameras drehen und tracken ;-))

Was zwar geht aber ne Schweine Arbeit macht das ganze zu verarbeiten;-)

MfG
B.DeKid

Space


Antwort von Debonnaire:

Danke für die Infos zu deinem Privatstudio, Björn. Erwarte bitte aber nicht, dass ich mir die Mühe mache, diese Infos für künftiges Referenzieren deinerseits zu merken!

Und tu mir BITTE den Gefallen und hör endlich auf, "Ich" penetrant mit grossem "I" zu schreiben! Es wirkt wirklich nervig protzig und vorallem sind wir hier nicht im englischsprachigen Raum. Danke!

Und, sorry, aber wer als Videofilmer behauptet, Zebra nicht zu nutzen und es noch nicht mal zu verstehen, der ist wirklich auf allerblutigstem Amateurniveau. Ein Niveau, welches du hier mit viel Vehemenz als tief unter dir befindlich zu etablieren versuchst! Und dich hier durch peinliches Understatement mit Anfängern zu verbrüdern brauchst du doch auch echt nicht, oder?!

Space


Antwort von B.DeKid:

Sorry ja das grosse I hat es mir wohl angetan bzgl English Speaking Folks ;-)

Ai natürlich nutz Ich ab und zu das Zebra aber eben meist nur vor dem Shot zum einstellen des Lichts aber waehrend der Aufnahme stoert mich das im Sucher .

Und verbrüdern wollte / will ich mich ja auch nicht mit Ihm aber nicht das er irgendwann halt mal bei jemandem steht und diesem dann was von Formeln aus der Wiki erzaehlt das kommt halt nicht wirklich gut.

Darum ging es mir ;-)

MfG
B.DeKid

Space


Antwort von Debonnaire:

Und verbrüdern wollte / will ich mich ja auch nicht mit Ihm aber nicht das er... Übrigens schreibt man "Ihm", ausser am Satzanfang, ebenfalls nicht mit grossem "I".

Space


Antwort von Paul*Berlin:

Eben, diesen Wikipedia-Eintrag habe ich auch schon gefunden, aber der ist leider ohne mathematische Streberkenntnisse unverständlich! Leider ist die Wikipedia zu mehreren Fachlexika ausgeartet. Anderes Thema:

Danke auch für die anderen mehr oder weniger hilfreichen Antworten, allerdings muss ich zugeben, dass ich immer noch nicht komplett verstehe, wie ich die Luminanzanzeige deuten muss. Es wird in der Bildschirmmitte ein kleines Quadrat angezeigt und daneben steht eben eine Prozentzahl. Gibt diese Prozentzahl jetzt die Durchschnittshelligkeit des Bildes an?
Wenn ja, dann hab ichs verstanden...

Space


Antwort von B.DeKid:

http://www.belle-nuit.com/dv/dvddix.html

http://de.wikibooks.org/wiki/Kdenlive/_Digitales_Video

Ja gibt die Helligkeit an.

Space


Antwort von Piers:

Ein kleines Quadrat, neben dem eine Prozentzahl steht.

Nun, ich kennne Deine Kamera nicht, aber bei der EX-1 ist es so, dass neben diesem Quadrat die Helligkeit = Luminanz für die Pixel in diesem Qaudrat steht.

Steht da 75%, so heisst das einfach, dass Du einen Luminanzwert von 75% erreichst. Nicht mehr und nicht weniger. Das bringt Dich als Amateur aber auch nicht weiter.
Film& Video Erfinder Marc Ballhaus und ich können zwar "einfach so erkennen", ob die 75% stimmen, aber Dir als Amateur bringt das nix.

Man muss als Video_Schaffender eben durch Erfahrung erkennen, welches (Mess) Quadrat wohl welche Helligkeit haben könnte. Eine direkte, hellweiße Lichtquelle muss nicht immer 100% auf der Luminanz anzeige haben. ISt sie weiter von der Kamera weg, kann diese Lichtquell nur 90% oder vielleicht 85% haben. Das musst Du als Kameramann immer am gesamt Bildeindruck beurteilen.

Im Aktuellen Bereich kann es sogar sein, dass Bildbereiche mutwillig überbelichtet werden müssen, dass man z.B. das Gesicht des Interviepartner erkennen kann. Da kann der Himmel im Hintergrund ruhig mal "bruzzreln".
Wichtig im Video Bereich ist nur zu wissen:
Stelle ich meinen Weiß/ Luminanz Abgleich falsch ein, geht Bild-Information verloren. Man sollte eben immer darauf achten, dass in der hellsten Stelle im Bild, die vielleicht 100% haben könnte, immer noch genug Kontrast vorhanden ist, damit man eine Zeichnung erkennen kann.
Denn eine Unterbelichtung (< 100%) kann man immer besser korrigieren, als eine überbelichtete Einstellung. Liegen helle Anteile über/nahe an 100% stellen aber nur 50% Helligkeit dar (eine graue Betonwand muss immer grau sein sein) dann ist der Kontrast verloren.

Als Faustregel gilt einfach: Stelle dein Blendenverhältnis immer so ein, damit in den hellsten Breichen immer noch ein Schatten zu erkennen ist. Du musst also auf deinem 100% weissen Papier, das zu 100% ausgeleuchtet ist, immer noch einen Knick erkennen, da er ja einen Schatten wirft, bzw. das Licht wegreflektiert. Hast Du riesige weisse Flächen im Bild, die keinerlei Zeichnung (Schatten) zeigen, dann hast Du Dein Bild überbelichteti
Wie gesagt. um die richtige Luminanz in einm Video zu bestimmen, baucht es richtig viel Erfahrung.

Space


Antwort von B.DeKid:

@ Piers

Danke für die wirklich gute Erklärung

Anmerken möchte Ich nur wollen
.....
Heut zu Tage muss alles ca 1/3 bis eine 1/2 Blende überbelichtet sein , so das man in der "Post Production" noch mit Filtern und Effekten arbeiten kann!!!

Jeder "Filter/ Effekt " schluck nunmal weiteres Licht der Source (Aufnahme (Shot) und muss somit bedacht eingesetzt werden.

Kontrast und Schärfe Ebene muss dabei vorhanden sein in dem "RAW Footage"!!!das ist ganz wichtig!!!!!


Wer eine solche Kamera sein Eigen nennen darf der sollte gefälligst auch Stunden damit verbringen diese Technik bewusst und gekonnt einzusetzen;-)

Also "spielen" ist angesagt - danach Sicht Kontrolle - dann kann man aus jeglicher Cam gute Bilder zaubern.... denn den "Filmlook" macht nicht die Cam sondern nur Du - und Du bist es der so seine Geschichte erzählt und zeigt !


Ich bleib dabei Ich nutz das erst garnicht mehr, macht mich nur zu kirre. ;-)

........................

Viel Spass am forschen und ausprobieren wünsche Ich dem Paul*Berlin aber denn nur so wird er schlussendlich zum gewünschten Ziel kommen.

MfG
B.DeKid

PS : Das Quadrat deiner Luminanz Messung richtest zur Messung am besten auf den dir ersichtlichen hellsten Punkt aus, dann erhaelst auch Verzeichnungs freies Material .

Space



Space


Antwort von soahC:

@ Piers

Danke für die wirklich gute Erklärung

Anmerken möchte Ich nur wollen
.....
Heut zu Tage muss alles ca 1/3 bis eine 1/2 Blende überbelichtet sein , so das man in der "Post Production" noch mit Filtern und Effekten arbeiten kann!!!

Jeder "Filter/ Effekt " schluck nunmal weiteres Licht der Source (Aufnahme (Shot) und muss somit bedacht eingesetzt werden. Das ist ja wohl nicht dein ernst oder? Sowas habe ich ja noch nie gehört! Weder das eine absichtliche Überbelichtung gemacht wird und auch noch Vorteile haben soll, noch dass es irgendwelche "Filter und Effekte" gibt die Licht schlucken. Nenne mir mal bitte einen einzigen davon.

Space


Antwort von Debonnaire:

Heut zu Tage muss alles ca 1/3 bis eine 1/2 Blende überbelichtet sein , so das man in der "Post Production" noch mit Filtern und Effekten arbeiten kann!!!
Jeder "Filter/ Effekt " schluck nunmal weiteres Licht der Source (Aufnahme (Shot) und muss somit bedacht eingesetzt werden. Das ist ja wohl nicht dein ernst oder? Sowas habe ich ja noch nie gehört! Weder das eine absichtliche Überbelichtung gemacht wird und auch noch Vorteile haben soll, noch dass es irgendwelche "Filter und Effekte" gibt die Licht schlucken. Nenne mir mal bitte einen einzigen davon. *LOL* Ihr seid putzig, in eurem Halbwissen, Jungs!

B.DeKid bringt da, wie so oft, etwas Entscheidendes durcheinander und soahC hat nicht erkannt, wo sein Denkfehler liegt: Zu analogen Zeiten in der Dunkelkammer, bzw. auch heute noch, wenn man mit physischen (Effekt-)Filtern vor dem Objektiv arbeitet, stimmt Björns Aussage (wenn auch unpräzise und gewohnt salopp formuliert). Digitale Effekte/Filter aber, "schlucken kein Licht" sondern sie beeinflussen einfach die ihnen vorgeworfenen Pixel.

Was aber, um die von euch diskutierte Aussage aufzugreifen, heute idealerweise erreicht werden sollte sind digitale Aufnahmen, bei welchen das Histogramm dreierlei Voraussetzungen erfüllt: Weder links im Schwarz noch rechts im Weiss sollen Pixel "abgeschnitten" werden (das waren bereits die ersten zwei Voraussetzungen). Und drittens soll der Helligkeitsverlauf (oft eine Art Gauss'sche Glockenkurve) so liegen, dass die grösste Erhebung und damit die meisten Bildpixel sich deutlich im rechten/oberen/"hellen" Teil des Histogramms befinden. Insofern hat Björn ansatzweise Recht mit seinem Postulat, heutzutage höher zu belichten (zu analogen Zeiten tendierte man genau zum Gegenteil und hat - hätte es damals bereits Live-Histogramme gegeben - die Kurve im linken/unteren/"dunklen" Bereich ihre Maxima haben lassen).

Und wieso macht man das heute so, mit der histogrammmässig rechtslastigen Belichtung?

Solange alle drei von mir erwähnten Bedingungen erfüllt sind, ist das digitale Bild perfekt belichtet und erlaubt in der Postproduction eine grösstmögliche Flexibilität für Effekte und Korrekturen. Abdunkeln ist in der digitalen Welt einfacher und rückstandsfreier möglich als Aufhellen! Das Stichwort hier ist "Bildrauschen": Ein zu dunkles Digitalbild aufzuhellen führt in den Lichtern zwar zu ordentlichen Ergebnissen, aber in den Schatten entsteht vermehrt Bildrauschen, weil hier ja elektronisch etwas verstärkt wird, das nicht existiert (ist ähnlich dem Raufdrehen des Gains über 0 dB bei der Aufnahme -> Rauschen). Beim Abdunkeln des zu hellen Bildes passiert absolut nichts Negatives (was analog einem qualitätsverlustfreien Verkleinern gegenüber einem zu Verpixelung führenden Vergrössern eines Digitalbildes anzusehen ist). Man hat also die höhere Latenz, wenn man tendenziell überbelichtet (ja, Björn), sofern man dafür sorgt, dass das Histogramm weder links (das ist einfach, beim Überbelichten) noch rechts "ausfrisst"!

Und das erreicht man - jetzt geht's zurück zum eigentlichen Thema des Threads - eben am einfachsten durch Beobachten der Luminanz der hellsten Bildteile mittels der Zebra-Funktion der Kamera. Ich stelle mein "Zebra" immer auf 90% ein. Wenn also die hellsten Bildteile grad so knapp zu flimmern beginnen weiss ich, dass ich ja noch 10% Sicherheitsmarge habe gegen oben, bevor's wirklich hässlich wird und der Rest des Bildes definitiv nicht überbelichtet ist.

Natürlich kommt nun das Riesenproblem des relativ bescheidenen Dynamikumfangs (die Spanne von Hell bis Dunkel, die der Bildsensor noch erfassen kann bevor die Pixel zu Reinweiss bzw. Reinschwarz versaufen) hinzu, welcher gegenwärtig ca. 8 Blendenstufen beträgt (Analoges Filmmaterial hatte ca. 11 Blendenstufen (das ist 8x mehr) und unser Auge bildet ca. 19 Blendenstufen (das ist 2048x mehr als der digitale Sensor) ab.). Mit diesen bescheidenen 8 Blendenstufen lässt es sich, ausser bei hollywoodmässig ausgeleuchteten Sets, selten bewerkstelligen, dass die dunkelsten Bildbereiche noch Zeichnung aufweisen, während die hellsten noch nicht überstrahlen.

Und genau hier liegt unser Dilemma: Belichten bedeutet also fast immer einen Kompromiss zu finden. Man muss (leider) oft (unwichtige) Bildbereiche ins Reinschwarz oder Reinweiss opfern, damit die bildwichtigen Bereiche korrekt belichtet werden können. Will/kann man dieses Opfer nicht bringen, hilft nur das aufwändige Ausleuchten des Sets oder, in der Digitalfotografie, das Arbeiten mit Belichtungsreihen für HDR-Bilder (das gibt's beim Videofilmen allerdings noch nicht).

Space


Antwort von soahC:

Das Bild wird eben nicht ÜBERBELICHTET und genauso wenig schlucken (digitale) Filter und Effekte. Punkt.
Und wenn im Material kein Reinweiss oder Reinschwarz vorhanden ist (was für mich in der Post die optimale Ausgangposition ist), dann mache ich es in der Post rein.

Space


Antwort von Debonnaire:

Ja, vom Wortlaut her hast du natürlich Recht: ÜBERbelichtet wird das Bild natürlich nicht, aber es wird tendenziell HÖHER belichtet, als man es früher getan hat.

Bei B.DeKid musst du mit dem Spracheinstz sehr grosszügig sein (sorry Björn, aber ist halt so)! Ich kenne ihn langsam und weiss, dass er videomässig an sich viel weiss, es aber einfach nur schlecht und oft unpräzise rüberbringen kann.

Wir sprechen aber vom Gleichen! Ich hab's einfach ein wenig ausformuliert oben; auch zu Gunsten des Threadstarters, damit er endlich etwas mit Luminanz und Zebra anfangen kann. ;-)

P.S.: Wieso schreibst du "Chaos" in deiner Fusszeile eigentlich mit grossem "C"?

Space


Antwort von soahC:

Weil das K aus war :)
Nö, keine Ahnung. Gute Frage. Habe icch noch nie drüber nachgedacht :)

Space


Antwort von UlmsSkyliner:

Mit diesen bescheidenen 8 Blendenstufen lässt es sich, ausser bei hollywoodmässig ausgeleuchteten Sets, selten bewerkstelligen, dass die dunkelsten Bildbereiche noch Zeichnung aufweisen, während die hellsten noch nicht überstrahlen.

Und genau hier liegt unser Dilemma: Belichten bedeutet also fast immer einen Kompromiss zu finden. Man muss (leider) oft (unwichtige) Bildbereiche ins Reinschwarz oder Reinweiss opfern, damit die bildwichtigen Bereiche korrekt belichtet werden können. Will/kann man dieses Opfer nicht bringen, hilft nur das aufwändige Ausleuchten des Sets oder, in der Digitalfotografie, das Arbeiten mit Belichtungsreihen für HDR-Bilder (das gibt's beim Videofilmen allerdings noch nicht). Richtig.

Space


Antwort von Debonnaire:

Nö, keine Ahnung. Gute Frage. Habe icch noch nie drüber nachgedacht :) Ok, und wieso änderst du's dann nicht einfach jetzt?

Space


Antwort von Axel:

@Debonnaire: Klasse zusammengefasst.
.... des relativ bescheidenen Dynamikumfangs (die Spanne von Hell bis Dunkel, die der Bildsensor noch erfassen kann bevor die Pixel zu Reinweiss bzw. Reinschwarz versaufen) hinzu, welcher gegenwärtig ca. 8 Blendenstufen beträgt (Analoges Filmmaterial hatte ca. 11 Blendenstufen (das ist 8x mehr) und unser Auge bildet ca. 19 Blendenstufen (das ist 2048x mehr als der digitale Sensor) ab.) "Unser Auge" - klingt wie der Titel einer weiteren Naturdoku für's Kino, bei der das Interessanteste der Produktionsbericht in Professional Production ist. Es ist gar nicht nur unser Auge allein, es ist vor allem unser Sehzentrum im Gehirn (der sog. "visuelle Cortex", klingt wie was von WoWu), wodurch die Wahrnehmung solcher Dynamik möglich wird. Früher dachte man bei menschlichem Sehen an etwas Mechanisches. Licht fällt rein, biochemische Reaktion, Zack!, Abbildung im Hürn. Der mechanische Apparat alleine wäre als analoger Fotoapparat nicht besonders toll. Verschiedene Empfindlichkeiten sind da, aber Lowlight im Vergleich mit anderen Tieraugen allenfalls "ausreichend". Permanente Vignette: Alles außerhalb der Fovea wird dunkler und unschärfer. Kein Zoom (*doch, ein "digitaler", s.u.). Auflösung leicht über dem Durchschnitt.

Das Wahrnehmungszentrum interpretiert Bilder von der Netzhaut und fordert neue Informationen an. Dafür werden beide Augäpfel in Millisekunden dauernden, sehr vielen winzigen Scan-Bewegungen ("Sakkaden") innerhalb langsamerer Pan-Bewegungen ("Drifts") über das Bild geschickt. Man schätzt, dass ein für 3 Sekunden betrachtetes Objekt des Interesses aus mindestens 100 Teilbildern zusammengesetzt wird. Eine "Belichtungsreihe" wird ebenfalls gemacht, und obwohl Anpassungen der Iris ("Blende") nicht so rasant vonstatten gehen wie die Augenbewegungen, erklärt sich daraus wohl die letztlich phantastische Dynamik. Eher ein kybernetischer als ein mechanischer Vorgang. Selbst der beste aller denkbaren Camcorder erscheint im Vergleich dazu plump.

Und dumm. Wir selbst als Videografen müssen die Aufgabe des Sehzentrums übernehmen und unter Befolgung von Debonnaires Rezept dafür sorgen, dass die Bilder auf dem Chip wunschgemäß interpretierbar sind.

Space


Antwort von Debonnaire:

Wow, spannende Ergänzungen! Danke schön! Vieles davon wusste ich noch nicht! :-)

Man lernt nie aus, gell B.DeKid! ;-)

Space



Space


Antwort von soahC:

Nö, keine Ahnung. Gute Frage. Habe icch noch nie drüber nachgedacht :) Ok, und wieso änderst du's dann nicht einfach jetzt? Darum ;)
http://www.youtube.com/profile?user=jon ... wS5xOZ7Rq8

Space


Antwort von Debonnaire:

Alles klar...

Space


Antwort von Axel:

Der Spruch "don"t give a fuck" kommt in Michael Moores The Big One vor (in Titeln wird im Englischen immer alles groß geschrieben). Ein Reiseveranstalter besetzt seine Beschwerde-Hotline mit tariflich ultragünstigen Häftlingen. So mancher aggressive Urlauber hat wohl keine Ahnung, mit wem er gerade telefoniert. Ein flächendeckend tätowierter Schwerverbrecher zeigt in die Kamera: "I don"t care a fuck about you, and you, and you." Moore, in Anlehnung an Swifts "bescheidenen Vorschlag": Mehr Leute hinter Gitter bringen, das hilft der amerikanischen Wirtschaft!

Space


Antwort von B.DeKid:

@ soahC

Klasse Youtube Video ;-)

Also Ich meinte das schon ernst mit dem "Licht schlucken" bzw " dem Überbelichten"

Wenn Ich eine Szene in das 3D Progi lade und mehrere Ebenen drüberlege, dann "habe ich zumindestens" das Gefühl das Licht geschluckt wird.

Als Effekte meine ich nun jegliche Layer die zB Partikel Spielerein enthalten , Licht , und soweiter.

Das Ausgangsmaterial wird also abgedunkelt ausgespielt. Und mit zu dunklem Material kann man halt kaum mehr arbeiten.

Aber wir haben ja nun von Debonnaire sowie Axel sehr aufschlussreiche Erklärungen vorliegen , somit können wir es ja darauf beruhen lassen.

Ich hab mich halt nur so wie ich es konnte ausgedrückt gehabt.

...................................

@ Debonnaire

Ja man lernt nie aus zum Glück, oder?

Aber eine Frage hätte Ich da nun mal an Dich. Du nutzt ja auch Canon Kameras - stellst Du den Belichtungskorrekturwert auch auf +1/3 ?

MfG
B.DeKid

Space


Antwort von Debonnaire:

Aber eine Frage hätte Ich da nun mal an Dich. Du nutzt ja auch Canon Kameras - stellst Du den Belichtungskorrekturwert auch auf +1/3 ? Beim Fotografieren habe ich Canon, beim Filmen Panasonic.

Beim Fotografieren schaue ich, sofern es die Zeit und das Motiv erlauben, kurz auf das Histogramm und regle die Belichtung je nach dem rauf oder runter, um eben den rechtslastigen Berg ohne Beschnitt zu erzielen. Klappt mal besser und mal weniger besser...

Sehr oft, z.B. bei Event-Fotografie, reicht dafür aber schlicht die Zeit nicht und ich schiess einfach auf P und versuche, nach Erfahrung, den Fokus-/Belichtungseinrastpunkt dort zu wählen, wo ich dann für den Rest des Bildes die wahrscheinlich/hoffentlich beste Gesamtbelichtung erhalte.

Was ich in meinem langen Eintrag oben beschrieben habe ist ein eher selten zu realisierender Idealfall!

Beim Videofilmen, z.B. beim Abfilmen von Theaterstücken, arbeite ich aber wirklich stark mit dem Zebra und das bringt tolle Resultate.

Fotografie und Video sind nun mal keine exakten Wissenschaften und man kann nicht einfach sklavisch eine Drittelblende überbelichten und gut, Björn! Jede einzelne Situation verlangt nach einem entsprechend angepassten Vorgehen. Deshalb sind gleichermassen Wissen und Erfahrung so essenziell! Mit: "Ich setz das nie ein. Weiss nicht mal wie's funktioniert!" gewinnst du keinen Blumentopf und erhältst nur zufällig brauchbare oder sogar gute Resultate!

Space


Antwort von B.DeKid:

Weiss nicht mal wie's funktioniert!! Das hab ich doch garnicht gesagt *schnief*:-(

Bei meiner Frage eben bezog ich mich auf Erfahrungen die Ich mit D SLR s von Canon gemacht hab das sie in der Automatik "P" eben nen bissel zu dunkel belichten für meinen Geschmack. Deswegen fragte Ich nach ob Dir das auch mal aufgefallen sei.


Beziehe meine Erfahrung auf Tests die Ich in Kombie mit SLR DSLR und Lichtmeter gemacht hatte.
Irgendwo in den Weiten des DSLR Forums gabs dazu auch mal einen Thread dies bzgl. mal sehn vielleicht hab ich ja Lust den mal zu suchen ;-)



MfG
B.DeKid

Space


Antwort von Debonnaire:

Weiss nicht mal wie's funktioniert!! Das hab ich doch garnicht gesagt *schnief*:-( Na ja, das: Ich nutz das alles nicht ;-) Wofür auch, müsste ich ja studiert haben um den Kram zu verinnerlichen. heisst für mein Dafürhalten ziemlich genau das von mir Gesagte...

Space


Antwort von WoWu:

@ Debonnonair
Schöne Aufbereitung des Themas.
Zwei kleine Anmerkungen seien gestattet:
Zur Ehrenrettung der Videotechnik sei bemerkt, dass in einem 8 bit System ein Umfang von 10 Blenden speicherbar sind und dass die tendentielle Überbelichtung, die eigentlich aus der Filmwelt kommt, in der Videotechnik bereits durch die Elektronik durchgeführt wird, weil es im Histogramm auch nicht um (belichtete) Pixels geht, sondern um Quantisierungswerte. Die aber werden ohnehin nicht linear erzeugt, sondern entlang einer Quantisierungskennlinie, die eben genau diese Belange bereits berücksichtigt. Der Hersteller wählt eine Kennlinie aus, deren Quanten sich nach der Häufigkeit der Amplituden richtet und nach solchen Kriterien die Menge der Quanten auf der Zeitachse gewichtet.
Daraus ergibt sich auch ein geringeres Quantisierungsrauschen. Das hat dann wieder Auflösungauswirkungen in den dunklen Teilen und einiges mehr, worauf ich nicht weiter eingehen möchte.
Ergebniss: greift man in der Videotechnik dergestalt ein, die Belichtung höher (oder tiefer) zu setzen, verändert man das gesamte Auflösungsgefüge des Bildes, incl. des Störabstands.
Video setzt immer ein exakt belichtetes Bild voraus, es sei denn, man nimmt solche Bildverschlechterungen in kauf.
Es ist eben anders als bei Film, bei dem solche Abhängigkeiten, zumindest in dem Umfang, nicht bestanden.

Space


Antwort von Debonnaire:

Interessante Ergänzung, Wolfgang, danke! :-)

Space



Space


Antwort von Jott:

In der Praxis sollte man sich auch mal anschauen, was bei Überbelichtung genau mit dem Bild passiert, bzw. mit den Bereichen, die dann "ausreissen." Da gibt es von Kamera zu Kamera visuell massive Unterschiede. Und davon hängt dann ab, ob man stoisch unter 100% bleiben muss oder nicht.

Space


Antwort von Debonnaire:

Und davon hängt dann ab, ob man stoisch unter 100% bleiben muss oder nicht. Nö du, in der digitalen Bildaufnahme gibt es kein: "Vielleicht könnte ich ja ein KLEIN wenig über 100% belichten und werde dann, bei meiner visuell 'mit Unterschied' aufnehmenden Kamera, immer noch korrekt belichtete Bereiche im Bild kriegen!"! - Der "Witz" an Digital ist eben, dass es nur richtig und falsch gibt, 1 und 0, ja und nein. Aber kein "vielleicht ein wenig richtig" oder "in der Nähe von noch korrekt". ;-)

Genau gleich wie bei digitalen Audioaufnahmen gilt hier: Drüber ist drüber und was drüber ist ist unrettbar futsch!
(...)Und davon hängt dann ab, ob man stoisch unter 100% bleiben muss oder nicht. "stoisch unter 100% bleiben" musst du nicht, nur über 100% darfst du nicht gehen! - Der kleine Unterschied macht oft den grossen Unterschied! ;-)

Space


Antwort von MarcBallhaus:

Zur Ehrenrettung der Videotechnik sei bemerkt, dass in einem 8 bit System ein Umfang von 10 Blenden speicherbar sind In 8 Bit passen also 2E10? This must be Voodoo.

MB

Space


Antwort von WoWu:

Im Grunde genommen ist beides richtig.
Jott spricht da vermutlich genau den, von mir beschriebenen Umstand an, denn Hersteller benutzen unterschiedliche Quantisierungskennlinen, mit unterschiedlichen Ergebnissen.
Manche legen eine feinere Quantisierung in den dunklen Bereich, um eine bessere Auflösung in Schwarz/Grau zu erreichen, andere benutzen die von mir beschriebene „optimalen Digitalisierungs Kennline“ nach Huffmann/Fanö.
Entsprechend anders muten die hellen/dunklen Bildbereiche an.
Ebenso werden in vielen Kameras den hellen Bildbereichen (hohen Frequenzen) geringer quantisiert, weil die meisten Kameras da schon gar nicht mehr zeichnen und man sich die Quantisierung "spart" und lieber auf sichtbare Bereiche legt.
Generell findet das aber selbstverständlich alles innerhalb der zugelassenen Werte statt.

Space


Antwort von WoWu:

Zur Ehrenrettung der Videotechnik sei bemerkt, dass in einem 8 bit System ein Umfang von 10 Blenden speicherbar sind In 8 Bit passen also 2E10? This must be Voodoo.

MB Kein Voodoo, nur die angewandte Videotechnik und nicht nur Mathematik, denn im Videobereich findet keine lineare Quantisierung statt. Sichwort Helligkeitskennline 2,2. Damit ist das Delta von Lw mit: 255,221,180,129,79,42,21,11,6,4,3 abgebildet, also 10 Blendenwerten.

Space


Antwort von Jott:

Nö du, in der digitalen Bildaufnahme gibt es kein: "Vielleicht könnte ich ja ein KLEIN wenig über 100% belichten und werde dann, bei meiner visuell 'mit Unterschied' aufnehmenden Kamera, immer noch korrekt belichtete Bereiche im Bild kriegen!"! - Der "Witz" an Digital ist eben, dass es nur richtig und falsch gibt, 1 und 0, ja und nein. Doch du. Der erste Schritt nach der Optik ist immer noch analog. Schließe zwei Kameras an einen Monitor an zum Vergleich, in der ansonsten korrekt belichteten Szenerie gibt es eine Lichtquelle, bei der das 100%- Zebra laut blökt. Meinetwegen ein zur Kamera gerichteter Scheinwerfer, kann ja ein Stilmittel sein. Wie stellt sich der dar? Bleibt er weiß? Oder kippt es vielleicht ins Gelbliche? Ist der Übergang zur krassen Überbelichtung weich (ein wenig filmisch), oder hart? Natürlich wirkend oder fehlerhaft aussehend? Allgemein: Zebra mal abschalten, den Techniker im Kopf auch, nur auf einen Monitor gucken. Hat was.

Überbelichten im technischen Sinne geht bei Digitalaufzeichnung genau genommen gar nicht, nur Zeichnungsverlust tritt ein. Wie schon mal angemerkt: weisser als weiß geht nicht. Was letztlich zählt ist, wie's aussieht. Und das hängt vom Kamerakopf ab.

Space


Antwort von Axel:

... in der ansonsten korrekt belichteten Szenerie gibt es eine Lichtquelle, bei der das 100%- Zebra laut blökt. Meinetwegen ein zur Kamera gerichteter Scheinwerfer, kann ja ein Stilmittel sein. Naja, klar. Dann willst du absichtlich keine Zeichnung haben, weil du direkt in die Lichtquelle blickst (Verdurstender in der Wüste blickt in die Sonne). Stimmt, das ist insgesamt unproblematisch. In der wirklichen Welt ist es oft eine Glatze unter einer Deckenlampe oder ein schneeweißes Oberhemd, die wirklich Scheiße aussehen, und gegen die man in einer reportage-artigen Situation oft nichts unternehmen kann. Die Blende zu schließen würde alles andere unterbelichten.

Mit Zebra lässt sich übrigens keyen. Es ist situationsabhängig. Kleinere Räume (geringerer Abstand zur Keyingfläche) lassen sich mit dem Luminanzkey besser keyen als mit Blue/Greenscreen: Irgendeine weiße oder helle Rückwand brutal mit ein paar Flächenleuchten anballern, auf Zebra-Erfassung achten, Vordergrundmotiv korrekt beleuchten mit nur wenig Zebra (ein paar Flimmer-Flecken kann man maskieren). Spill war gestern. Probieren, dauert nur 5 Minuten!

Space


Antwort von Debonnaire:

Mit Zebra lässt sich übrigens keyen. Es ist situationsabhängig. Kleinere Räume (geringerer Abstand zur Keyingfläche) lassen sich mit dem Luminanzkey besser keyen als mit Blue/Greenscreen: Irgendeine weiße oder helle Rückwand brutal mit ein paar Flächenleuchten anballern, auf Zebra-Erfassung achten, Vordergrundmotiv korrekt beleuchten mit nur wenig Zebra (ein paar Flimmer-Flecken kann man maskieren). Spill war gestern. Probieren, dauert nur 5 Minuten! Das klingt ja spannend! Und was wählst du im Effektprogi dann aus, analog zum grünen Hintergrund bei z.B. Greenscreen-Keying? Wie teilst du dem Progi mit, was es rausstanzen soll?

Space


Antwort von srone:


Mit Zebra lässt sich übrigens keyen. Es ist situationsabhängig. Kleinere Räume (geringerer Abstand zur Keyingfläche) lassen sich mit dem Luminanzkey besser keyen als mit Blue/Greenscreen: der effekt heisst luminanzkey, und es wird alles oberhalb einer einstellbaren luminanz z.b. 90% transparent.

lg

srone

Space



Space


Antwort von MarcBallhaus:

Das klingt ja spannend! Und was wählst du im Effektprogi dann aus, analog zum grünen Hintergrund bei z.B. Greenscreen-Keying? Wie teilst du dem Progi mit, was es rausstanzen soll? After Effects, Luma-Key, "hellere auskeyen" oder "dunklere auskeyen".

MB

Space


Antwort von Debonnaire:

Hey, endlich geht mir ein Luminanz auf, wofür der Luminanz-Key eigentlich ist! Merci!

Space


Antwort von srone:

@ marc ballhaus

bleiben wir bei gesicht des protagonisten bei 70% stellen uns aber vor er oder sie hat schwarze haare und trägt schwarze kleidung, siehts schon wieder anders aus, zumal sich meiner erfahrung vor ort eher weisse wände finden, denn schwarze und man eher licht, denn grossflächigen mollton plus hintergrundgestänge dabei hat.

lg

srone

Space


Antwort von WoWu:

Der erste Schritt nach der Optik ist immer noch analog. Das kommt ganz darauf an, wie alt Deine Kamera ist. Früher zählten die Sensoren noch zu den analogen Teilen, weil sie eine nachfolgende Verstärkerstufe bedienten.
Heute geschieht die A/D Wandlung, wenn man überhaupt noch davon sprechen kann, im Sensor und die "Pixels" werden wie in einem Datenbus System abgefragt. Da ist eigentlich nicht analoges mehr.
So gesehen kann jedes "Pixel" seine eigene Belichtungszeit haben oder Gruppen können zu einer partiellen Blende zusammengefasst werden.
Also die ausgebrannten Spitzlichter sind eigentlich ein Überbleibsel aus dieser analogen Zeit.
Verstärkung in dem analogen Sinn gibt es nicht mehr. Das regelt man heute an der Stelle über Integrationszeiten oder binären Additionen.

Space


Antwort von camworks:

Ausserdem sind 100% noch nicht ausgebrannt. Das findet erst ab 133 Lux statt. was’n dat für ne aussage?

Space


Antwort von WoWu:

Sorry, Arndt,
.. ich hatte das für ein 10bit System angegeben, weil wir wenig in 8Bit machen und ich die Werte nicht parat habe.
Für 8 bit müsste ich das auch jetzt nachrechnen aber das Prinzip ist klar:
Die Pixels werden zwar bis auf ihr Maximum geladen, das heist aber noch nicht, dass sie "ausbrennen".
In einem 10-Bit System entspricht das dem ADC- Wert 1023, was einem Verstärkungswert von 0 gleichgesetzt wird und beispielsweise einer Hellig-keit von 133 Lux (bei einer F1.2 Optik) entspricht. Man könnte auch die Photonenmenge angeben, die 133 Lux am Pixel erzeugen. (nur dann müsste man es wieder auf eine Integrationszeit beziehen). Ich denke, unter "Lux" kann sich jeder etwas vorstellen.
Die kürzeste derzeit erreichbare Belichtungszeit üblicher Sensoren beträgt 1/64 der Framebelichtungszeit, also etwa 1/4000 sec, was wiederum bedeutet, daß der Dynamikbereich von 1024 Werten (10 Bit) auf 65.536 Werte ansteigt (16 Bit).
Die 133 Lux sind natürlich Systemabhängig und ändern sich mit den Rahmenparametern.
Die Größenordnung aber bleibt erhalten und die aufnehmbare Lichtintensität ist nach oben durch die minimale Integrationszeit begrenzt. Überschreitet man diese Grenze, hier im Beispiel von 133 Lux, muss auch bei den Sensoren eine Regelspannung aus den hellsten Sensoren gewonnen werden, die eine mechanische Blende ansteuert.
Daher sind für mich auch Sensorwerte, wie beispielsweise der Füllfaktor erheblich aussagekräftiger als die klassischen Katalogangaben.
Bei solchen Werten kann übrigens auch kein Hersteller mehr schummeln und die S/N Werte des Sensors lassen sich daraus ebenso exakt ableiten.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen //


Trapcode Mir 3 / Mir Texture Coordinates x, noise z
Equipment in luftdichten Boxen im Keller - eine blöde Idee?
IBC 2021 und Corona - Blackmagic Design sagt Teilnahme ab
KI wird Filmemacher nicht ersetzen (sagt Ben Affleck)
Überlege mir die Blackmagic 6k zu holen, reicht die Leistung meines Macs aus?
Gib mir mal den Salzakku für die Kamera!
Die Top 20 Filme für die VFX-Oscars: Napoleon, Spider-Man, The Creator aber kein Oppenheimer
Such jemanden der mir ein Intro für meine Website erstellt.
Kann mir jemand eine HDV-Kassette auf USB-Stick spielen?l
Pana Lens update gelingt mir nicht
Resolve bietet mir selbes update zum 2. mal an?
Osmo Pocket Verlängerungsstab - Will nicht mit mir spielen :-(
Vater, vergib mir - Horror Kurzfilm
Wer hat Lust mit mir Filme zu drehen? (Hamburg und Umgebung)
DaVinci schreibt auf SSD Platte, Sichtbar wird die Datei aber erst bei Neustart
Nvidia RTX 4070 wird ausgeliefert - Gute Leistung, aber höhere Preise für die Mittelklasse




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash