Frage von CineFilm:Ich suche eine Möglichkeit wirklich PRO Grading zu lernen - alle YT die ich finde ob Deutsch oder Englisch machen das so 0815 - keins der Aufnahmen sieht aus wie Hollywood
Kennt einer einen YT Kanal der wirklich zu empfehlen ist oder einen Kurs etc....... Ich würde mich in Resolve gerne weiter entwickeln aber finde da nicht eine passende Möglichkeit
Danke
Antwort von Frank Glencairn:
Hollywood Ergebnisse entstehen hauptsächlich vor der Kamera.
Location, Setdesign, Licht etc.
Wenn du scheiß Material hast, hilft das beste Grading nix.
Was Resolve Kurse betrifft - Cullen Kelly ist IMHO das beste was Youtube in der Richtung zu bieten hat.
https://www.youtube.com/@CullenKelly
Ansonsten halt bezahlte Workshops.
Antwort von pillepalle:
Workshops bei Profis sind schon gut, aber das ist vermutlich auch ein Lernprozess der Jahre dauert. Nicht umsonst ist Colorist ein eigener Job beim Film und etwas bei dem man sich ständig weiterentwickelt. Selbst wenn man das schon zwanzig Jahre lang macht. Es kommen ja immer neue Möglichkeiten und Techniken dazu und über die Jahre verändert sich auch die Ästhetik und der Stil. Der Profi wird man eben irgendwann, wenn man deutlich mehr Skills drauf hat als der durchschnittliche Filmer. Praktisch einen riesen Werkzeugkasten an Möglichkeiten den man beherrscht.
VG
Antwort von Axel:
CineFilm hat geschrieben:
- alle YT die ich finde ob Deutsch oder Englisch machen das so 0815 - keins der Aufnahmen sieht aus wie Hollywood
Hollywood stellt Genre-Filme her. Im Grunde ist alles
ein großes Narrativ, aber viele variierende Erzählmuster. Auf dieser Tatsache begründen viele Experten ihre Theorie, dass diese Muster auf noch zu formulierende Film-Ideen, Handlungen, Drehbücher appliziert werden könnten oder sollten, quasi a priori. Sie und ihre gläubige Gefolgschaft übersehen dabei, dass ihre Analysen etwas Vorhandenes auseinanderklamüsern. Es ist so, als würde man die Gehirne von Albert Einstein und Charles Manson in Scheibchen schneiden und hoffen, daraus eine Erkenntnis zu gewinnen.
Im riesigen Mahlstrom der Resolve-Grading-Tutorials gibt es auch eine große Zahl solcher, die den Filmlook nachzuäffen empfehlen. Am schönsten für uns sind die, die ein Hollywood-Bild hernehmen, es unter dem Grading-Gesichtspunkt dekonstruieren und auf ein
völlig beliebiges ähnliches Bild zu übertragen versuchen.
Es ist wichtig, die Werkzeuge und die Regeln ihrer Anwendung zu kennen, aber das wird für sich genommen nicht helfen. Gewiss, es wird Insider in Würdigung bestimmter formaler Kriterien dazu bringen, etwas als "cinematisch" zu klassifizieren. Die AI-Roboter haben das begriffen und scheißen uns aktuell mit cinematischen Bildern zu. Was sie nicht können ist, die aus Milliarden Bildern Lernmaterial extrahierten, äh, Erkenntnisse in einen be
deutsamen Zusammenhang zu bringen.
Vage passend in diesem Zusammenhang ist ein Beitrag über Bildkomposition, den ich (zufällig?) gestern sah:
Ich selbst bin ein genauso mittelmäßiger Kadrateur (kein Wort, ich weiß) wie ich ein mittelmäßiger Video-Grader bin. Dennoch habe ich etwas mMn Wichtiges begriffen: dass alle Theorie über Erzählen, Erfinden, Ausstatten, Beleuchten, Framen, Schneiden und Graden nur Grundlage für etwas ist, was in der Summe darüber hinausgehen muss, um originell zu sein. Ich muss ein inneres Bild vor Augen haben und
davon eine Aufnahme machen. Das innere Bild ist das Was, das Wie (Stil und Look) ergibt sich daraus, auch ganz intuitiv - die o.e. erwähnte Kenntnis der Werkzeuge vorausgesetzt. Oder es ergibt sich nicht. Dann haben wir Beliebigkeit.
Graden sollte nicht "Fix it in Post" sein, sondern "Enhance it in Post". "it" ist das Was. Obduzieren von Looks und Frankensteinen der Zutaten auf "Etwas" heißt, das Pferd von hinten aufzuzäumen. Grading ist "nur" das Finishing.
Antwort von CineFilm:
Ich bin kein Anfänger - es geht darum jedoch ein Stück weiter zu gehen etc.... Es geht wirklich um die Theorie und wenig um die Philosophie was ein Film Look ist
Hier zB eins meiner Aktuellen Projekte
Antwort von Axel:
CineFilm hat geschrieben:
Ich bin kein Anfänger - es geht darum jedoch ein Stück weiter zu gehen etc.... Es geht wirklich um die Theorie und wenig um die Philosophie was ein Film Look ist
Das lässt sich zwar trennen, führt aber, wie gesagt, nicht zum Ziel.
CineFilm hat geschrieben:
Hier zB eins meiner Aktuellen Projekte
Gutes Beispiel. Auf einem hypothetischen "Cinematic"-Barometer würde das Standbild keinen sehr hohen Wert erreichen. Das liegt aber kaum an den Farben, sondern erstens daran, dass wir den Zusammenhang nicht kennen und dass zweitens das Bild für sich nicht interessant ist. Die Küche scheint eine Profi-Küche zu sein (eine Doppelfriteuse befindet sich kaum in einer normalen Einbauküche, aber würde jemand, der kein Gastronom ist, das überhaupt, wenn auch nur unterschwellig, wahrnehmen?), der Mann aber kein typischer Koch, da er schwarz gekleidet ist. Was mir zuallererst auffällt ist, dass er schwarze Handschuhe trägt. Im Bild ist nicht genau auszumachen, ob es (nicht ungewöhnliche) Nitril-Einmalhandschuhe sind oder mit Crime verknüpfte Lederhandschuhe. Auf dem Blickfang-Barometer aber maximal eine 10/100, da ich ja nicht weiß, was das bedeutet. Was mir normalerweise gefiele ist das Blocking durch die dunklen Partien links und rechts, aber ohne Szenenzusammenhang auch nichtssagend.
Sofern es also keine Doku über einen edel ergrauten und leicht spinnerten Sternekoch ist, dessen Küche nichtsdestotrotz dunkel und eng wirkt und banal (helle Baumarktkacheln, kleine rote Kontroll-Lampe neben den nicht senkrecht laufenden, ultra-unfilmischen Heizungsrohren usw.) ist es produktionsdesignmäßig nicht hollywood-like. Es ist keine Filmküche. Es ist nicht
die Küche. Es wirkt beliebig.
Vielleicht ist es im Zusammenhang Bombe, wer weiß? Könnte man das Bild durch Grading verbessern? Auch das ist schwer zu sagen. Womöglich würde ein Gloweffekt das practical light Dunstabzugshaube etwas ominöser aussehen lassen (anstatt praktisch-realistisch)? Vielleicht könnte "Relight" die Schatten im Gesicht dämonischer machen anstatt den Nacken so zu akzentuieren? Zählt das noch unter Wirkungsverstärkung oder ist es schon Bildrettung?
Antwort von CineFilm:
Danke Alex für diese Forensische Datenanalyse - Das ist bloß ein Frame aus dem Aktuellen Projekt. Das ganze ist in einem Real Fast Food Restaurant und kein Filmset. Ich wollte bloß damit ausdrücken, ich bin nicht auf dem Happy Wedding Aufnahmen stand :P sondern beschäftige mich damit...
Mir ist auch klar, dass es viel mit dem Inhalt zutun hat. zB sehen die ersten 1-2 Staffeln von 4 Blocks "schlecht CG aus" aber es hat trotzdem eine sehr gute Atmosphäre
Mir geht es aber jedoch hier um die Resolve Optimierung und weniger, was ich am Set machen kann
Antwort von wolfgang:
Darren Mostyn
https://www.youtube.com/@DarrenMostyn ist ein anderer interessanter Zeitgenosse. Der hatte vor einiger Zeit sogar eine Masterklasse, die ich mir dann aber persönlich nicht gegeben habe. Cullen Kelly wurde ja schon genannt.
Es gibt aber noch unzählige andere, die Weiterbildungen anbieten. Etwa hier:
https://www.youtube.com/@theqazman
Antwort von Axel:
Waqas Qazi ist genau der, der Bilder ohne jeden Zusammenhang (nach
meinem Gefühl:) total zergradet, und außerdem nervt (mich) seine hyperaktive Art. Er hat ein paar Beispiele, wo er Hollywood nachäfft und dabei (nach meinem Dafürhalten) missversteht. Hier ein Beispiel:
Nicht, dass die Produktionskette in John Wick 4
nicht interessant wäre, sie ist aber nur "sooo good" für diesen speziellen Film. Deswegen ist dieses Vorkochen, das er so manisch aufbereitet, auch der direkte Weg von schwäbischen Maultaschen zu Dschungelcamps Rattenkot-Pralinen.
Cullen Kelly geht sehr in die Tiefe. Es ist fast entmutigend,
wie tief. Wenn man, wie CineFilm "ein Stück weiter gehen" will, dann gähnt hinter jedem (langen) Tutorial von Cullen die Unendlichkeit. A propos Gähnen. Er hat eine sehr beruhigende Stimme. In den ersten Minuten. Danach eine prima Alternative zu "10 Hours Rainforest Sounds For Better Sleep". Für die, die das brauchen.
Darren Mostyn überfordert mich nicht, und ich weiß nicht, ob das gut ist. Selbst Ausbilder für Pflegefachkräfte, finde ich maßvolle Überforderung inspirierend und nach meiner Erfahrung (und modernen Erkenntnissen) auch am effektivsten.
Schwierig, die richtigen Tuts zu finden. Am besten querbeet. Für Einsteiger Learn Color Grading von Alex Jordan. Für Geheimtips ist Chadwick von Creative Video Tips gut.
Antwort von wolfgang:
Glücklicherweise kann man ja wählen, und sich genug Material der diversen Anbieter vorab anschauen.
Ich finde die Tutorials von Darren Mostyn eigentlich immer recht gut - und auf den Punkt gebracht. Cullen Kelley hat Tiefgang, sagt aber mir persönlich nicht so enorm zu - auch wenn seine Inputs gut sind.
Persönliche Geschmäcker eben.
Antwort von CineFilm:
Zwischenfrage
Was sollte man an dieser Node-Tree verbessern?
NR - Entrauschen
WB - Weiß/Schwarz-Abgleich
EXPOS - Belichtung
Farbe - Falls ich mal eine bestimmte Farbe ändern / anpassen will
Haut - Optimierung der Hauttöne
MD - Etwas Midtone
S/W - Macht das bild Schwarz-Weiß. Damit kann ich besser die Belichtung anpassen (nur als Hilfe)
CTS - Color Space Transform
Kodak - 2383 Lut
K-Lut - nur bei bedarf für eine zusätzliche LUT (Kreativ Lut)
Blur FX
Glow FX
Halation FX
Antwort von Darth Schneider:
https://blackwells.co.uk/bookshop/produ ... 0321929662
https://www.blackmagicdesign.com/produc ... e/training
Und nur so als Schmankerl…
So geht das auch mit 3 Nodes…
Gruss Boris
Antwort von roki100:
Interessant. Also nachdem Du alle Bücher gelesen hast und dir das Video angeschaut hast, kannst Du alles mit drei Node? ;)
Antwort von Darth Schneider:
Mit dem Dehancer brauche ich vielfach gar nicht mehr.
Und wenn ich mal ein Projekt mit professionellen Ansprüchen machen sollte, hol ich mir dafür einen Profi…;)
Gruss Boris
Antwort von Darth Schneider:
Wobei das Colorcorrection Handbook würde ich wirklich jedem der mit RAW und mit Log gerne wirklich bessere Ergebnisse erzielen möchte wärmstens empfehlen.
Dann versteht man die Grundlagen und Zusammenhänge besser.
Auch wenn man das wirklich können möchte, braucht es jahrelange intensive Erfahrungen, Studium und viel Zeit/Arbeit….
Gruss Boris
Antwort von Axel:
"Darth Schneider" hat geschrieben:
Auch wenn man das wirklich können möchte, braucht es jahrelange intensive Erfahrungen, Studium und viel Zeit/Arbeit….
Ach, ich denke, wenn man bei CineFilms Node-Tree angekommen ist, hat man den Kern der Sache schon begriffen:
NR - Entrauschen
WB - Weiß/Schwarz-Abgleich
EXPOS - Belichtung
Farbe - Falls ich mal eine bestimmte Farbe ändern / anpassen will
Haut - Optimierung der Hauttöne
MD - Etwas Midtone
S/W - Macht das bild Schwarz-Weiß. Damit kann ich besser die Belichtung anpassen (nur als Hilfe)
CTS - Color Space Transform
Kodak - 2383 Lut
K-Lut - nur bei bedarf für eine zusätzliche LUT (Kreativ Lut)
Blur FX
Glow FX
Halation FX
Der Node-Tree ist ja wohl ein Powergrade, ein Standard. Belichtung (EXP) einen extra Node zu machen, um nur mit Global resp. Offset zu arbeiten, finde ich klug. SW würde ich direkt hinter CONT setzen, was schon mein zweiter Node hinter NR wäre (falls nötig, habe ja eine lichtstarke Kamera). Den Kontrast würde ich mit Curves machen, mit einer minimalen Änderung im Powergrade. Grund: ich will die "Edible Splines" nicht jedesmal neu aktivieren müssen (vielleicht weiß jemand, wie man das sonst permanent einstellen kann?). Warum nicht mit Contrast und Pivot? K.A., Curves kommen mir intuitiver vor, da gibt's ja dann Highsoft und Lowsoft noch extra. Anschließend würde ich natürlich SW deaktivieren. BAL (Weißabgleich, Farbkontrast) mit Wheels und Temp. SAT. SKIN schließt dann die primäre CC ab. Ich tendiere hier zu einem 12-er Colorwarper als Werkzeug, weil ich wiederum sofort sehe, wo meine Hauttöne liegen und sie intuitiver auf dem Bild manipulieren kann. Auch ist in den Scopes Display Qualifier Focus aktiviert. Wenn übrigens jemand weiß, wie ich das 12-er Spinnennetz permanent so einstellen kann ...
Der Rest ist ähnlich, wobei ich die LUT weglasse und den CST auch, da ich mit RCM hantiere (z.Zt. zumindest). Dazwischen kommen fast immer Powerwindows.
Sehr gute Resultate erzielen HDR Wheels für die Gradierung (statt Curves dann). Sie müssen freilich von der Logik her vorne im Node Tree sein, und wenn etwas nicht passt später, muss man dahin zurück. Leider sind sie unglaublich fummelig.Ich habe das Gefühl, bei denen ist der Groschen bei mir noch nicht gefallen. Wem geht es ähnlich? Tut zu empfehlen?
Antwort von wolfgang:
"Darth Schneider" hat geschrieben:
Wobei das Colorcorrection Handbook würde ich wirklich jedem der mit RAW und mit Log gerne wirklich bessere Ergebnisse erzielen möchte wärmstens empfehlen.
Dann versteht man die Grundlagen und Zusammenhänge besser.
Auch wenn man das wirklich können möchte, braucht es jahrelange intensive Erfahrungen, Studium und viel Zeit/Arbeit….
Gruss Boris
Im Color Correction Handbook lese ich gerne immer wieder. Es ist halt doch schon älter, aber teils noch sehr aktuell. Teils halt.
Antwort von wolfgang:
Der CST gehört ist viel weiter nach vorne, ich würde in einem wide gamut graden wollen.
Antwort von Axel:
Du meinst nach hinten?
Antwort von Darth Schneider:
Also nach vorne, an den Anfang ?
Denn alles was man gradet macht man ja daraus…
Immer auch eine Sache der Sichtweise.
Ist ja nicht so das Resolve das so genau definiert hat bei den Nodes wo vorne und hinten ist.;)
Gruss Boris
Antwort von CineFilm:
wolfgang hat geschrieben:
Der CST gehört ist viel weiter nach vorne, ich würde in einem wide gamut graden wollen.
Ich Arbeite eigentlich fast nur mit RAW und da Arbeite ich im RAW Fenster - bei den Wheels mach ich sehr wenig bis auf HDR Wheels
....
Du meinst erst CST und dann die Wheels mhhh (guter Einwand) ich hab mir das mal so abgeschaut bei einem Pro (keine Ahnung er das war)
Antwort von Axel:
Nach CST (rechts neben diesem Node, nach meinem Verständnis dahinter, downstream, also stromabwärts in der Pipeline, weg vom Input, hin zum Output) befinden wir uns effektiv im rec709 Farbraum, der kleiner und enger ist als die meisten Aufnahmefarbräume. Warum sollte ich also CST an den Anfang setzen? Stromaufwärts von den Wheels? Auf denen plätschert dann nur noch ein Rinnsal, und viel habe ich nicht mehr an (iasi) "Spielraum".
Antwort von CineFilm:
Ich hab wirklich zum 1 mal die CST Node auf Platz 2 gesetzt und hab ein bessere Ergebnis (Hast du das so gemeint Alex etc...)
Antwort von CineFilm:
Axel hat geschrieben:
Nach CST (rechts neben diesem Node, nach meinem Verständnis dahinter, downstream, also stromabwärts in der Pipeline, weg vom Input, hin zum Output) befinden wir uns effektiv im rec709 Farbraum, der kleiner und enger ist als die meisten Aufnahmefarbräume. Warum sollte ich also CST an den Anfang setzen? Stromaufwärts von den Wheels? Auf denen plätschert dann nur noch ein Rinnsal, und viel habe ich nicht mehr an (iasi) "Spielraum".
Der 1 CST ist von NRAW zu Gamma = Cineon Film Log (Color Space bleibt gleich bei Red 2020) - dann kommt EXP WB etc... - um zum Schluss der Kodak Film Lut 2383
Oder habe ich dich Falsch verstanden
Antwort von Axel:
Nein, ich dich. Vergaß, dass der Resolve 2383-LUT Cineon braucht. Hauptsache dann, dass die LUT hinten, rechts, unten ist.
Antwort von wolfgang:
Wir reden hier über verschiedene Verwendungszwecke von CST. Hinten in der Node Kette nimmst das für den Cineon LUT. Aber vorne im Signalfluss will ich das für die Wandlung zu einem wide gamut haben, um mein raw Format einen noch größeren Raum für die Berechnungen zu geben. Da sind eben ACES oder Davinci wide gamut noch geeigneter.
Antwort von iasi:
Axel hat geschrieben:
Graden sollte nicht "Fix it in Post" sein, sondern "Enhance it in Post". "it" ist das Was. Obduzieren von Looks und Frankensteinen der Zutaten auf "Etwas" heißt, das Pferd von hinten aufzuzäumen. Grading ist "nur" das Finishing.
Grading ist Teil des Gestaltungsprozesses.
Das fertige Bild sieht man nicht auf dem Kameramonitor sondern erst, wenn es "entwickelt" ist.
Also ist auch "Enhance it in Post" zu kurz gegriffen.
Gerade weil man heute solche mächtigen Gestaltungswerkzeuge hat, sollte man die Post im Sinne Ansel Adams betrachten - und schon während der Aufnahme mitdenken.
Das hier ist ein plakatives Beispiel:
https://www.youtube.com/watch?v=xDqgg2aXxsc&t=83s
Die Lichter des Hauses einzuschalten, gehört dann zum gesamten Gestaltungsprozess.
"Pro Grading" ist dabei die Kenntnis und die Beherrschung all der Post-Werkzeuge - auch in Kombination. Ansel Adams beherrschte die Negativentwicklung und z.B. die Abwedel- und Nachbelichtungstechniken und dachte diese schon bei der Aufnahme mit.
Antwort von roki100:
iasi hat geschrieben:
Das fertige Bild sieht man nicht auf dem Kameramonitor sondern erst, wenn es "entwickelt" ist.
Also ist auch "Enhance it in Post" zu kurz gegriffen.
Die Profis erstellen den Look (oder wie es ungefähr aussehen soll) im Voraus und dieser wird auch auf die Vorschaubildschirme als LUT angewendet. Zumindest habe ich das von anderen Profis so gelesen, darunter auch Arri.
iasi hat geschrieben:
"Pro Grading" ist dabei die Kenntnis und die Beherrschung all der Post-Werkzeuge - auch in Kombination.
So sehe ich das auch und das braucht Zeit. Und man muss mM auch das richtige Auge für Looks haben.
Antwort von iasi:
roki100 hat geschrieben:
iasi hat geschrieben:
Das fertige Bild sieht man nicht auf dem Kameramonitor sondern erst, wenn es "entwickelt" ist.
Also ist auch "Enhance it in Post" zu kurz gegriffen.
Die Profis erstellen den Look (oder wie es ungefähr aussehen soll) im Voraus und dieser wird auch auf die Vorschaubildschirme als LUT angewendet. Zumindest habe ich das von anderen Profis so gelesen, darunter auch Arri.
iasi hat geschrieben:
"Pro Grading" ist dabei die Kenntnis und die Beherrschung all der Post-Werkzeuge - auch in Kombination.
So sehe ich das auch und das braucht Zeit. Und man muss mM auch das richtige Auge für Looks haben.
Ich kann mich an einen Profi erinnern, der in einem Artikel im Film&TV-Kameramann ziemlich klar sagte, was er von Vorschaubildern hält: Gar nichts.
Er meinte, das Bild wird erst in der Post entwickelt.
LUTs dienen nur dazu, den Schauspielern und Leuten, die sich das Ergebnis nicht vorstellen können, nicht durch ein ETTR-Raw-Vorschaubild zu verschrecken.
Für die Belichtung und Lichtsetzung blickt der Profi auf das Histogram und die Belichtungsmesser.
Das Vorschaubild dient ihm zur Beurteilung und Gestaltung von Fokus und Bildausschnitt.
Sieht man sich die Aufnahme-LUT-Vorschaubilder von Hollywood-Produktionen an, dann sehen sie meist aus, wie deutsche Kinofilme. :)
Antwort von roki100:
hier zb. ist das auch so zu hören (von Arri):
https://youtu.be/B5TW1XWIAJw?t=280
Antwort von iasi:
roki100 hat geschrieben:
hier zb. ist das auch so zu hören (von Arri):
https://youtu.be/B5TW1XWIAJw?t=280
Ja - und raus kommt dann dieser tolle "Manta Manta 2"-Look. :)
Man kocht eben in Deutschland gern mit Gewürzmischungspäckchen.
Antwort von pillepalle:
iasi hat geschrieben:
Ja - und raus kommt dann dieser tolle "Manta Manta 2"-Look. :)
Man kocht eben in Deutschland gern mit Gewürzmischungspäckchen.
Im Gegensatz zu Dir, bei dem jedes Bild ein individuelles Meisterwerk ist :)
VG
Antwort von dienstag_01:
pillepalle hat geschrieben:
iasi hat geschrieben:
Ja - und raus kommt dann dieser tolle "Manta Manta 2"-Look. :)
Man kocht eben in Deutschland gern mit Gewürzmischungspäckchen.
Im Gegensatz zu Dir, bei dem jedes Bild ein individuelles Meisterwerk ist :)
VG
Dit stimmt. Iasi kann man eigentlich an jede beliebige Stelle in der Kette der Filmproduktion setzen, beginnend beim ersten Andruck des Geldscheins für die Finanzierung bis zum Eintüten des Popcorn für die Vorführung, und es ist immer ein Gewinn ;)
Antwort von iasi:
pillepalle hat geschrieben:
iasi hat geschrieben:
Ja - und raus kommt dann dieser tolle "Manta Manta 2"-Look. :)
Man kocht eben in Deutschland gern mit Gewürzmischungspäckchen.
Im Gegensatz zu Dir, bei dem jedes Bild ein individuelles Meisterwerk ist :)
VG
Ja - so sollte es eigentlich sein und dieses Ziel sollte man haben.
Aber das bedeutet eben, dass man Zeit, Energie und Gestaltungswillen investieren muss.
LUT-drüber wird dem nicht gerecht, was zuvor erarbeitet wurde. ;)
Antwort von iasi:
dienstag_01 hat geschrieben:
pillepalle hat geschrieben:
Im Gegensatz zu Dir, bei dem jedes Bild ein individuelles Meisterwerk ist :)
VG
Dit stimmt. Iasi kann man eigentlich an jede beliebige Stelle in der Kette der Filmproduktion setzen, beginnend beim ersten Andruck des Geldscheins für die Finanzierung bis zum Eintüten des Popcorn für die Vorführung, und es ist immer ein Gewinn ;)
Und unseren dienstag_01 kann man an der Stelle in die Kette einer "Filmproduktion" setzen, die am Montag das Grading beginnt und am darauffolgenden dienstag_um_01 das Ergebnis haben will. Denn am Mittwoch sollen die Zuschauer der Vorpremiere schließlich schon mit dem LUT-cinelook beglückt werden. :)
Es ist sowieso pille-palle, denn es muss ja eh nur deutsch für das deutsche Publikum aussehen. Also völlig unnötig, sich mit jeder einzelnen Einstellung beim Grading aufzuhalten. :)
Antwort von roki100:
Also Du hast das missverstanden. Es geht nicht um LUT baked in, sondern der Look wird vorher erstellt, davon wird dann LUT für Vorschau Bildschirme generiert. Wenn alles fertig ist, kommt der Schnitt und der Look drauf eventuell auch optimiert usw.
Antwort von Axel:
wolfgang hat geschrieben:
Wir reden hier über verschiedene Verwendungszwecke von CST. Hinten in der Node Kette nimmst das für den Cineon LUT. Aber vorne im Signalfluss will ich das für die Wandlung zu einem wide gamut haben, um mein raw Format einen noch größeren Raum für die Berechnungen zu geben. Da sind eben ACES oder Davinci wide gamut noch geeigneter.
Jetzt kapiert.
Antwort von iasi:
roki100 hat geschrieben:
Also Du hast das missverstanden. Es geht nicht um LUT baked in, sondern der Look wird vorher erstellt, davon wird dann LUT für Vorschau Bildschirme generiert. Wenn alles fertig ist, kommt der Schnitt und der Look drauf eventuell auch optimiert usw.
Ich verstehe schon. Nur funktioniert das alles nur mit dem erstellten LUT, wenn die Aufnahmen nach dem Vorschaubildschirm belichtet werden, was schlicht nicht gut ist.
Warum nur will man sich fesseln, indem man vorher einen LUT erstellt, der dann auf dem Vorschaubildschirm ein Ergebnis vorlügt.
Wie schon gesagt: Für Schauspieler und die anderen Crew-Mitglieder, die während des Drehs oder nach dem Drehtag etwas sehen wollen, ist es ja OK, aber mit dem Ergebnis hat es letztlich nichts zu tun.
Antwort von roki100:
iasi hat geschrieben:
Ich verstehe schon. Nur funktioniert das alles nur mit dem erstellten LUT, wenn die Aufnahmen nach dem Vorschaubildschirm belichtet werden, was schlicht nicht gut ist.
Belichtet wird doch mit histogramm usw.
Antwort von Darth Schneider:
Es soll auch Leute geben (wie mich), die belichten am liebsten mit Hilfe von den Augen..;)
Gerade so bei Aufnahmen im Theater, bei Aufführungen ich hätte gar keine Zeit um aufs Histogramm oder Waveform zu schauen.
Gruss Boris
Antwort von MK:
Wenn man Clipping riskieren will kann man das ja gerne so machen, den Ton am besten auch noch hart übersteuern, dann wird das was.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Ich verstehe schon. Nur funktioniert das alles nur mit dem erstellten LUT, wenn die Aufnahmen nach dem Vorschaubildschirm belichtet werden, was schlicht nicht gut ist.
Warum nur will man sich fesseln, indem man vorher einen LUT erstellt,
Erstens hat ne LUT und Belichtung nix miteinander zu tun. Und warum fesselt man sich damit? An irgend einem Punkt muß man ja den Look des Films festlegen, und das macht man natürlich lange vor dem Dreh. Alles andere wäre ja Irrsinn.
Antwort von Darth Schneider:
@MK
Also der Ton ist gar nicht übersteuert und das mit der Belichtung hab ich mittlerweile auch ganz gut im Griff.
Erstens gibt es ja Proben mit Licht und der Musik und zweitens mache ich das mittlerweile seit über 25 Jahren…
Zumal, und wenn man sich dann zu fest aufs Histogramm konzentriert verpasst man womöglich was wichtiges was auf der Bühne passiert und riskiert unschöne Aufnahmen…:)
Gruss Boris
Antwort von andieymi:
roki100 hat geschrieben:
iasi hat geschrieben:
Ich verstehe schon. Nur funktioniert das alles nur mit dem erstellten LUT, wenn die Aufnahmen nach dem Vorschaubildschirm belichtet werden, was schlicht nicht gut ist.
Belichtet wird doch mit histogramm usw.
Ich kann Dir garantieren, niemand der Spielfilm macht belichtet nach Histogramm. Cine Kameras haben größtenteils nicht mal ein Histogramm: Keine Alexa, keine Venice, Red hatte das irgendwie immer, aber 90% aller Spielfilme werden auf Kameras gedreht, die kein Histogramm haben. Und nein, da schraubt auch niemand einen Ninja drauf, um sich ein Histogramm anzeigen zu lassen. Wäre auch völlig sinnlos, wenn man dann wieder bei 3 hellen Stellen im Bild raten müsste, welche jetzt frisst. Ich weiß ehrlich gesagt nicht, wieso sich nicht eine Art False Color / Zonensystem auch schön langsam in der Fotografie durchsetzt, das Histogramm hat maximal als RGB-Multi-Kanal-Histogramm eine Berechtigung, als Luminanzmessungstool könnte das auch einfach sterben. Es gibt genauere Systeme, es gibt intuitivere Systeme, Ende.
Film-Podcaster stellen die Frage öfter DPs und raus kommen tun immer 3 Sachen: Belichtungsmesser (größtenteils ältere Semster), False Color oder tatsächlich "kalibrierter Vorschaumonitor". Es soll Leute geben, die kalibrieren sich ihren Monitor regelmäßig, testen und kennen eine Kamera irgendwann so auswendig, da weiß man, wenn das am Monitor gut ausschaut, passt das. Kommt tatsächlich so von ASC DPs und die Sachen sehen dann super aus, also an falscher Belichtung wird's nicht liegen... das geht. Irgendwann weißt Du auch, was im False Color in der Zone liegt schaut am Monitor so aus und passt.
Zur Ausgangsfrage:
Der Vergleich hinkt jetzt etwas, aber die Grundproblemstellugn des Threads geht in erster Linie so ca. wie "Wie kann ich lernen, meine Kamera so zu bedienen, dass ich Hollywood DP werde." Und damit genug der hinkenden Vergleiche, aber die Analogie schaut so aus: Kennt man seine Kamera in und auswendig, kann man alle Einstellungen bedienen ist man irgendwann ausgelernter DP und kann das.
Das Problem ist - Technik und die Kenntnis über Technik geht tatsächlich nur für die ersten 50% - danach ist es - so beschissen wie das klingt tatsächlich Vision & Ideen und kein simples Bedienen nach Vorschrift, "richtiger Belichtung", oder gute Technik oder Kenntnis der Technik. Resolve hat auch keine magischen Tools deren Kenntnis Dich zu einem besseren Coloristen macht, auf dem Level gibt es einfach nur mehr Leute, die Erfahrung haben und wissen WAS sie am Bild ändern müssen damit das sehr gut (und nicht nur gut) ausschaut und nicht mehr WIE sie das ändern. Die Tools sind da bekannt und es ist dann auch tatsächlich oft nur mehr persönliche Präferenz wie man was macht, ob jetzt mit RGB-Kurven oder Color Wheels oder gar Printer Lights ist dann egal - die Qualität eines Coloristen bemisst sich daran ob er eine Idee entwickeln kann was das Bild braucht und nicht so sehr wie er es umsetzt.
(Das da Vermeidung destruktiver Workflows kein Thema mehr ist versteht sich von selbst, aber das ist auch das A&O, einmal gelernt und das wars).
Mir fällt im Vergleich zu vielen Youtubern auf, dass professionelle Coloristen mit denen man tatsächlich auch Arbeiten kann oft einfach viel weniger Resolve-Tools "brauchen" als auf Youtube gern suggeriert wird. Die haben ihre Wege um etwas zu realisieren, aber da ist dann auch egal ob das jetzt der oder der Weg ist - viel wichtiger ist, dass sie die Vision verstehen, zusätzlich passenden (und das ist schwierig!) eigenen Input bringen und das Ding am Ende passt und gut ausschaut.
Ich kann aus eigener wenigen Erfahrung in der Zusammenarbeit mit professionellen Coloristen z.B. bei Arri Media (damals wars nicht Utsi sondern Traudl Nicholson, ihre Senior/Lead Colorist Credits u.a. Tar, Matrix Resurrections, Cloud Atlas, 3 Tage in Quiberon, Das Finstere Tal und die vor eingier Zeit 2 Tage einen meiner Abschlussfilme gegradet hat) sagen, dass da absolut keine Fancy Tools zum Einsatz kommen, die man lernen müsste, die nicht in jedem Resolve Grundkurs enthalten sind sondern absolute Basics: Normalisiert wurde mit dem Arri-Standard-Rec709-Lut, der Standard-Resolve-Kodak-Print-Simulation, der Rest waren ein paar Primary-Anpassungen mit Color Wheels, ein paar Secondaries/Masken und am Ende kommt man auf was, das passt und das trotzdem natürlich im Welten besser ist als das, was man selbst hinbekommen hätte: Aber nicht wegen Magic Sauce, weil diese Spezialisten besonders wissen wie sie Color Wheels angreifen müssen, sondern weil sie auf ein Bild sagen und sofort wissen: "Das funktioniert, das funktioniert nicht. Das braucht es, das wäre too much. Nicht zu viel davon, aber in der Richtigen Dosierung kommen wir da hin."
Und das kann Dir halt kein Youtuber in ein paar Videos vermitteln.
Schau Dir lieber mal an, was Dir "qualitativ" an bestimmten Bildern gefällt, versuch aufzudröseln was davon trotzdem am Set passiert ist (Licht/Farben/Maske/Ausstattung) und der Rest ist Schulung des eigenen Geschmacks viel mehr als der umsetzungsmäßigen "Skills" - denn ich wette, wenn Du weißt was Du ändern wollen würdest (und es gibt keine Magic Tricks, das ist im Endeffekt alles Wissen über Anforderungen des Materials hin zum Gewüschten Resultat) könntest Du das mit deinem bisherigen Resolve Wissen schon.
Sehr viel vom Look ist wie schon gesagt wurde im Material, sehr viel dann Wissen was genau dieses oder jenes Material braucht. Aber es sind nicht die Tools und nicht die Magic Sauce und die Pro Coloristen die man auf Youtube findet, machen halt auch Youtube Videos weil sie zwar sicher ein paar kommerzielle Projekte sonst graden aber das halt auch ein Job ist. Ich will da gar nicht haten, aber es gibt Gründe, wieso keine Leute von Arri Media oder Company 3 Youtube-Tutorials machen, die sind busy genug mit ihren Projekten. Und schaut man sich die Referenzen der Youtuber an dann ist das halt oft die B oder C-Liga (auch mit Licht-Tutorials oder Ähnlichem) und nicht die A-Liga. Du hast auch keinen Youtube-Kanal wo Dir Greg Fraiser gemeinsam mit Jamie Mills erklären, wie weit sie jetzt Lampe A von Talent B wegstellen, sondern vielleicht findest Du einen Podcast, wo Dir erklärt wird worauf es für die beiden visuell ankommt, aber kein Malen nach Zahlen. Das gibt's nicht wirklich und bringt auch nichts.
Ein Kollege von mir der auch mittlerweile hauptberuflich Color macht schwört aber auf die Inputs von Dado Valentic von Colour.Training. Die gibt's nicht gratis und nicht auf Youtube sondern als Kursform, aber darüber ich nur gutes darüber gehört. Andererseits, ziehe mal in Erwägung was ich oben über Schulung von Geschmack geschrieben habe und schau mal ob das für Dich ein Ansatz ist (auch da findet man sogar was auf Youtube, vl aber nicht bei den genannten Coloristen), wenn Du dich tatsächlich weiterentwickeln willst. It's not the tools.
Antwort von MK:
roki100 hat geschrieben:
Belichtet wird doch mit histogramm usw.
Zebra und False Color.
Antwort von wolfgang:
Hauptsache false color, denn das vermittelt einem den besten Eindruck wo welche Bildteile wie belichtet sind. Ich liebe das bei der Pocket 6K und beim SmallHD, wo man das noch individuell einstellen kann. Es geht auch noch waveform halbwegs, Zebra nimmt einen Aspekt des false colors raus.
Antwort von iasi:
andieymi hat geschrieben:
roki100 hat geschrieben:
Belichtet wird doch mit histogramm usw.
Ich kann Dir garantieren, niemand der Spielfilm macht belichtet nach Histogramm.
Oh - da bist du aber etwas sehr vorschnell mit deinen Garantien.
Schon der Begriff ETTR bezieht sich auf das Histogramm.
Und dieser gute Mann im Film&TV-Kamera-Artikel arbeitete an einem Spielfilm, als er davon sprach, dass er das Histogramm nutzt und eben auch zu lesen weiß.
Und was er ausdrücklich nicht zu Bildbeurteilung nutze: Den Vorschaumonitor.
Belichtungsmesser braucht es zur Lichtsetzung.
False Color? Ja. Kann man auch nutzen.
Bei Red ist das Histogramm (mit der Ampel) das zentrale Tool.
Wer dem Vorschaumonitor traut, der gehört zu den Videofilmern.
Das ist ganz so, als würde man das ausgespiegelte Videobild einer Filmkamera als Referenz nutzen wollen.
Antwort von Darth Schneider:
Der Look hier unten gefällt mir sehr,
aber wie immer liegt das viel weniger am Grading. Auch nicht an der Kamera, sondern viel mehr an dem was vor der Kamera ist, nämlich das interessante Paar, und natürlich das wunderschöne Licht…;)
Die Farben könnten von mir aus auch ganz anders aussehen, das zu kurze Video würde mir dann auch nicht weniger gefallen.
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Der Look hier unten gefällt mir sehr,
aber wie immer liegt das viel weniger am Grading, sondern viel mehr an dem was vor der Kamera ist, nämlich das interessante Paar, und natürlich an dem wunderschönem Licht…;)
Die Farben könnten von mir aus auch ganz anders aussehen, das zu kurze Video würde mir dann auch nicht weniger gefallen.
Gruss Boris
Das arme Mädle kommt aber recht unvorteilhaft rüber.
Antwort von Darth Schneider:
Find ich jetzt gar nicht, ganz im Gegenteil, beide kommen toll herüber.
Erinnert mich irgendwie an alte Fellini Filme….
Aber es ist natürlich Geschmackssache.
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Find ich jetzt gar nicht, ganz im Gegenteil, beide kommen toll herüber.
Erinnert mich irgendwie an alte Fellini Filme….
Aber es ist natürlich Geschmackssache.
Gruss Boris
Die unreine Haut wird betont und kein Licht auf den Augen:
https://youtu.be/gJep7e1nNpU?t=29
Antwort von Darth Schneider:
Also mich stört nix davon, die etwas unreine Haut lässt sie sympathisch menschlich wirken und das fehlende Licht um die Augen macht sie geheimnisvoll…
Gruss Boris
Antwort von Darth Schneider:
Auch sehr spannend das Thema.
Was nützt das aufwendigste Colorgrading wenn die Hautfarben vom Licht schon beim drehen nicht schön sind….
Gruss Boris
Antwort von roki100:
MK hat geschrieben:
roki100 hat geschrieben:
Belichtet wird doch mit histogramm usw.
Zebra und False Color.
Ja auch das.
Was ich gerne ausprobieren würde ist EL Zone. Gibt es (soweit ich mitbekommen habe) momentan nur bei VariCam, SmallHD und Sigma FP.
Antwort von Darth Schneider:
False Color ist schon toll, besser als Histogram und Zebra, nutze das manchmal an der Pocket wenn ich mit der Belichtung vor der Aufnahme ganz sicher sein will.
Ist aber nur nicht ganz so intuitiv zum erlernen und im Kopf zu behalten wenn man die Funktion nicht wirklich regelmässig oft nutzt..
An der S5 nutze ich False Color so gut wie ar nie, weil ich den Shinobi halt nur sehr wenig mit der S5 verwende.
Nackt mag ich die S5 am liebsten, auch zum filmen….
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Auch sehr spannend das Thema.
Was nützt das aufwendigste Colorgrading wenn die Hautfarben vom Licht schon beim drehen nicht schön sind….
Gruss Boris
Ja. Man kann zwar in der Post (gerade mit Raw) bis zu einem gewissen Grad ausgleichen, aber mit miesem Licht ist der Hautton dahin.
Mischlicht kann auch zu einer unguten Sache werden.
Antwort von Darth Schneider:
Es ging mal früher auch perfekt ganz ohne Colorcorrection und Colorgrading….
Nur zur Erinnerung..
Gruss Boris
Antwort von iasi:
"Darth Schneider" hat geschrieben:
Es ging mal früher auch perfekt ganz ohne Colorcorrection und Colorgrading….
Nur zur Erinnerung..
Gruss Boris
Bei SW braucht es natürlich kein Colorcorrection. :)
Und die ausführlichen Test inkl. Entwicklung sowie der Einsatz von Colormeters sollte man mal lieber nicht unterschätzen. Heute hat man es Dank Colorgrading leichter - niemand verwendet mehr Korrekturfilter und arbeitet mit dem Entwicklungsprozess.
Das ist übrigens ziemliches Fan-Blablabla.
Bildsprache beherrschen alle guten Regisseure.
Wenn schon, dann doch bitte konkreter und nicht ein Gefasel über "Paintings" ohne auch nur auf eines der aneinandergereihten Frames überhaupt mal einzugehen.
Ein besseres Beispiel:
https://www.youtube.com/watch?v=doaQC-S8de8
Antwort von andieymi:
iasi hat geschrieben:
Schon der Begriff ETTR bezieht sich auf das Histogramm.
Und ist in der Umsetzung genau so gut mit False Color möglich.
iasi hat geschrieben:
Schon der Begriff ETTR bezieht sich auf das Histogramm.
Und dieser gute Mann im Film&TV-Kamera-Artikel arbeitete an einem Spielfilm, als er davon sprach, dass er das Histogramm nutzt und eben auch zu lesen weiß.
Und was er ausdrücklich nicht zu Bildbeurteilung nutze: Den Vorschaumonitor.
Belichtungsmesser braucht es zur Lichtsetzung.
False Color? Ja. Kann man auch nutzen.
Bei Red ist das Histogramm (mit der Ampel) das zentrale Tool.
Wer dem Vorschaumonitor traut, der gehört zu den Videofilmern.
Das ist ganz so, als würde man das ausgespiegelte Videobild einer Filmkamera als Referenz nutzen wollen.
Und es wird ja auch so viel auf Red gedreht, dass ein Großteil das Histogramm nutzen, oder? Merkst Du selbst?
Wenn Du Dir die Mühe machst für Deine Quelle einen Namen zu suchen, such ich Dir 3 ASC-Member mit Aussagen in Podcastform, die das genau so machen. Aber sind ja nur Videofilmer die auf Monitore schauen.
Wahnsinn was hier im Forum manche für eine Einstellung haben oder einfach hochqualifizierten Leuten absprechen, was diese können "dürfen". Wird wohl der Grund sein, dass es hier eigentlich nur um Technik und nie um Inhalte geht, weil's manche hier kaum geschafft haben, sich von einer reinen Technik-Einstellungs-Ebene so weit zu Lösen, dass das nicht den Hauptteil der Arbeitsweise ausmacht, sondern wirkliches Gestalten. Von Dir weiß man ja eh, dass Du nichts drehst weil selbst die Technik die du so benötigst und feierst gleichzeitig nur im Weg steht, aber es scheint Dir darüberhinaus nicht möglich sein zu glauben, dass es Menschen gibt, die das Bedienen und Einstellen von Technik so verinnerlicht haben, dass sie keine reinen Messinstrumente mehr brauchen um adäquate Belichtung auf einem Sensor über einen immer gleichen, per Kalibrierung fein-eingestellten Monitor zu begutachten. Die werden schon auch bei der einen oder anderen Nachtszene manchmal ins False Color lugen, wenn sie sich nicht sicher sind. Aber dieses "Ich checke jeden Shot extra noch 2x mit Histogram ob ich eh genau die notwendige ETTR-Belichtung richtig eingestellt habe" - seriously? Glaubst Du da gibt's solche Unsicherheiten was korrekte Belichtung angeht?
Das ist auch irgendwie das gleiche Thema, wie ich oben versucht hatte zu formulieren: Wenn es wirklich an so technischen Grundlagen wie der richtigen Belichtung scheitert, ok. Da hilft Youtube. Histogramm nutzen, False Color nutzen, Youtube Tutorials schauen. Das gilt für Belichtung wie für Grading. Aber das ist nicht das Arbeits-Level, auf dem sich Menschen, welche die Filme machen, um die es im Einstiegspost geht, lange technisch aufhalten. Da ist es völlig egal, ob das jetzt Histogramm, False Color oder nur ein kalibrierter Monitor ist, das Resultat stimmt auf dem Level. Und das zu verstehen hilft auch in einer Form, in der Technik nicht mehr im Weg steht, weil Belichtung einfach sitzt (egal wie!). Und ohne darüber nachzudenken, das sind wirklich keine Entscheidungen mehr die nennenswert gedankliche Kapazität brauchen auf dem Level. Und jede Sekunde, die jemand dann über Bildgestaltung & entwickeln einer eigenen solchen lernt ist besser investiert als sich weiter mit der Art und Ausgestaltung der technischen Tools zu beschäftigen, was dann einfach nur mehr persönliche Präferenz ist.
Antwort von andieymi:
roki100 hat geschrieben:
Was ich gerne ausprobieren würde ist EL Zone. Gibt es (soweit ich mitbekommen habe) momentan nur bei VariCam, SmallHD und Sigma FP.
Gibt's jetzt in ähnlicher Form auch bei Red (DSMC2 immer, jetzt auch DSMC3), die nennen es halt GioScope statt EL Zone System- glaube sogar länger als ED Lachmann das digital propagiert hat bzw. es bei SmallHD implementiert wurde, das ist seit DSMC2 eigentlich ein alter Hut:
http://www.gordonarkenberg.com/blog/201 ... one-system
Seit der letzen 1.7.5 Firmware auch in der Komodo z.B.
Antwort von roki100:
andieymi hat geschrieben:
roki100 hat geschrieben:
Was ich gerne ausprobieren würde ist EL Zone. Gibt es (soweit ich mitbekommen habe) momentan nur bei VariCam, SmallHD und Sigma FP.
Gibt's jetzt in ähnlicher Form auch bei Red (DSMC2 immer, jetzt auch DSMC3), die nennen es halt GioScope statt EL Zone System- glaube sogar länger als ED Lachmann das digital propagiert hat bzw. es bei SmallHD implementiert wurde, das ist seit DSMC2 eigentlich ein alter Hut:
http://www.gordonarkenberg.com/blog/201 ... one-system
Seit der letzen 1.7.5 Firmware auch in der Komodo z.B.
Aaa, RED war also der erste...das scheint ähnlich zu sein wie das mit RAW ;)
Antwort von roki100:
Was kaum erwähnt wird, ist die Arbeit mit Masken. Es gibt ein Video von einem bekannten pro-Coloristen (wurde hier bei SlashCam schon mal verlinkt), ich weiß den Namen nicht mehr... wenn ich mich richtig erinnere, war es mit der Colorgrading-Software Baselight(?). Da wird gezeigt wie er mit Masken arbeitet usw.
Antwort von wolfgang:
andieymi hat geschrieben:
Wahnsinn was hier im Forum manche für eine Einstellung haben oder einfach hochqualifizierten Leuten absprechen, was diese können "dürfen". Wird wohl der Grund sein, dass es hier eigentlich nur um Technik und nie um Inhalte geht, weil's manche hier kaum geschafft haben, sich von einer reinen Technik-Einstellungs-Ebene so weit zu Lösen, dass das nicht den Hauptteil der Arbeitsweise ausmacht, sondern wirkliches Gestalten.
Du sprichst einen wichtigen Punkt gelassen aus.
Antwort von klusterdegenerierung:
CineFilm hat geschrieben:
Das ganze ist in einem Real Fast Food Restaurant und kein Filmset. Ich wollte bloß damit ausdrücken, ich bin nicht auf dem Happy Und was nützt dann ein 4 Blenden unterbelichtets frame mit vermutlich einer Person die vermutlich Schemenhaft in einer Großküche steht?
Wenn ich das sehe, sorry, denke ich mir Du möchtest Pro grade lernen weil es jemand am Set mit der Beleuchtung versemmelt hat?
Antwort von roki100:
Also persönlich finde ich das was der TO gezeigt hat nicht schlecht. Es muss ja nicht alles super hell beleuchtet sein - ist im RL ja auch nicht so.
Antwort von Darth Schneider:
Also ich habe noch nie so eine dunkle Industrie/Restaurant Küche gesehen…
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Also ich habe noch nie so eine dunkle Industrie/Restaurant Küche gesehen…
Ich schon. Da können wir uns im Kreis damit drehen was alle jetzt nun gesehen haben und was nicht :)
In Filme sieht auch nicht alles so aus, wie das, was Du im RL siehst. Außerdem kannst Du zB. Screenschoot von manche Filme machen, das in der Timeline ziehen und schau dann auf Scopes, da ist auch nicht alles auf 100 beleuchtet ;)
Antwort von klusterdegenerierung:
roki100 hat geschrieben:
Also persönlich finde ich das was der TO gezeigt hat nicht schlecht. Es muss ja nicht alles super hell beleuchtet sein - ist im RL ja auch nicht so.
Dann lass mal die Behörden mit Taschenlampen zu Besuch kommen wenn die den Laden checken.
Antwort von klusterdegenerierung:
roki100 hat geschrieben:
"Darth Schneider" hat geschrieben:
Also ich habe noch nie so eine dunkle Industrie/Restaurant Küche gesehen…
Ich schon. Da können wir uns im Kreis damit drehen was alle jetzt nun gesehen haben und was nicht
Nö können wir nicht, aber wo wir uns drauf einigen können, das Du und ein paar wenige auf massiv unterbelichtetes Material steht.
Was natürlich auch einer unempfindlichen BMD entgegenkommt, geht Hand in Hand.
Antwort von roki100:
klusterdegenerierung hat geschrieben:
roki100 hat geschrieben:
Also persönlich finde ich das was der TO gezeigt hat nicht schlecht. Es muss ja nicht alles super hell beleuchtet sein - ist im RL ja auch nicht so.
Dann lass mal die Behörden mit Taschenlampen zu Besuch kommen wenn die den Laden checken.
das wird dann spannend, dazu noch anamorphic linse :) der Koch nimmt Bruce Lee stellung an und Action! :)
Antwort von andieymi:
roki100 hat geschrieben:
Aaa, RED war also der erste...das scheint ähnlich zu sein wie das mit RAW ;)
Also ganz unironisch, wenn man mag kann man sicher die Unterschiede zwischen EL Zone System und Gio Scope finden, aber letzteres gibt es halt gefühlt seit jeher bei Red, zumindest seit Mysterium-X schon:
http://docs.red.com/955-0156/EPICSCARLE ... oScope.htm
Das macht Red ja jetzt nicht besser oder andere schlechter :)
Antwort von roki100:
roki100 hat geschrieben:
Was kaum erwähnt wird, ist die Arbeit mit Masken. Es gibt ein Video von einem bekannten pro-Coloristen (wurde hier bei SlashCam schon mal verlinkt), ich weiß den Namen nicht mehr... wenn ich mich richtig erinnere, war es mit der Colorgrading-Software Baselight(?). Da wird gezeigt wie er mit Masken arbeitet usw.
Hier ein anderes Beispiel mit DaVinci:
https://www.youtube.com/watch?v=vRTutcjqn2o
Antwort von iasi:
andieymi hat geschrieben:
iasi hat geschrieben:
Schon der Begriff ETTR bezieht sich auf das Histogramm.
Und dieser gute Mann im Film&TV-Kamera-Artikel arbeitete an einem Spielfilm, als er davon sprach, dass er das Histogramm nutzt und eben auch zu lesen weiß.
Und was er ausdrücklich nicht zu Bildbeurteilung nutze: Den Vorschaumonitor.
Belichtungsmesser braucht es zur Lichtsetzung.
False Color? Ja. Kann man auch nutzen.
Bei Red ist das Histogramm (mit der Ampel) das zentrale Tool.
Wer dem Vorschaumonitor traut, der gehört zu den Videofilmern.
Das ist ganz so, als würde man das ausgespiegelte Videobild einer Filmkamera als Referenz nutzen wollen.
Und es wird ja auch so viel auf Red gedreht, dass ein Großteil das Histogramm nutzen, oder? Merkst Du selbst?
Der besagte Mann hatte auf einer Sony gedreht. ;)
andieymi hat geschrieben:
Wenn Du Dir die Mühe machst für Deine Quelle einen Namen zu suchen, such ich Dir 3 ASC-Member mit Aussagen in Podcastform, die das genau so machen. Aber sind ja nur Videofilmer die auf Monitore schauen.
Wahnsinn, wie sich hier Forum manche während einer Aufnahme ständig Falschfarben anschauen, während Leute in der Praxis einfach nur das Histogramm im Auge behalten.
Und schon auch interessant, dass manche hier im Forum wirklich glauben, dass das, was sie da auf dem Vorschaumonitor am Set sehen, auch das sein wird, was am Ende auf der Leinwand zu bestaunen sein wird.
Da kann man sich das Grading in der Post ja sparen, denn die Grading-Helden haben ja schon alles vorgearbeitet und in eine LUT gepackt. :)
andieymi hat geschrieben:
Wahnsinn was hier im Forum manche für eine Einstellung haben oder einfach hochqualifizierten Leuten absprechen, was diese können "dürfen".
Es gab eben schon immer Leute, die hatten maximal Vorabtests gemacht, sich über das Bild im Sucher gefreut und dann fleißig das Negativ belichtet, um es anschließend ins Labor zu schicken.
Und dann gab es Leute, die betrachteten sich ein Motiv etwas genauer und führten auch Messungen durch, um sich dann ein Bild davon zu machen, wie das Bild nach einem gesteuerten und angepassten Belichtungsprozess aussehen würde.
Und nun überlegen wir doch mal, welche Vorgehensweise wohl dem Videofilmen und
welche dem Produktionsprozess mit einbezogenem Grading entspricht.
andieymi hat geschrieben:
Wird wohl der Grund sein, dass es hier eigentlich nur um Technik und nie um Inhalte geht, weil's manche hier kaum geschafft haben, sich von einer reinen Technik-Einstellungs-Ebene so weit zu Lösen, dass das nicht den Hauptteil der Arbeitsweise ausmacht, sondern wirkliches Gestalten.
Da muss man sich doch auch mal fragen, wer denn die Bildgestaltung im Sinn hat:
Derjenige, der auf sein fertiges Vorschaubild blickt.
Oder derjenige, der auch die Gestaltungsmöglichkeiten der Post mitdenkt.
Die Techniken gehörten schon immer zur Gestaltung. Nur wer die Techniken beherrscht, kann sie auch gestalterisch nutzen.
Es gibt ja zudem auch immer diejenigen, die sich z.B. den modernen Gestaltungsmöglichkeiten der Post verschließen und davon reden, dass das fertige Bild am Set entstehen würde und jede Gestaltung in der Post doch nur "Fix-it-in-Post" sei.
andieymi hat geschrieben:
... dass es Menschen gibt, die das Bedienen und Einstellen von Technik so verinnerlicht haben, ...
Das sind dann die 0815-Filmer, die sich gar keine Gedanken mehr über die kreativen Gestaltungsmöglichkeiten machen. Da wird dann unreflektiert runtergedreht und der immer gleiche "möchtegern-cine-look" erzeugt.
Ich kann mich noch an einen Werbedreh erinnern, bei dem der DP alles ganz "nach Vorschrift" ausgeleuchtet hatte, um dann plötzlich auf die Idee zu kommen, die Nachttischlampen einzuschalten.
Ganz begeistert von seiner ungewöhnlichen Eingabe meinte er dann: Das sieht aus wie bei Hamilton.
Gestaltung bedeutet, all die technischen Möglichkeiten gezielt und bewußt einzusetzen, die sich bieten. Filmsprachliche Mittel lassen sich nicht von der Technik trennen.
Vielmehr kann Technik die filmsprachlichen Ausdrucksmöglichkeiten erweitern.
andieymi hat geschrieben:
dass sie keine reinen Messinstrumente mehr brauchen um adäquate Belichtung auf einem Sensor über einen immer gleichen, per Kalibrierung fein-eingestellten Monitor zu begutachten. Die werden schon auch bei der einen oder anderen Nachtszene manchmal ins False Color lugen, wenn sie sich nicht sicher sind. Aber dieses "Ich checke jeden Shot extra noch 2x mit Histogram ob ich eh genau die notwendige ETTR-Belichtung richtig eingestellt habe" - seriously? Glaubst Du da gibt's solche Unsicherheiten was korrekte Belichtung angeht?
Dir ist aber schon klar, dass Histogramm und False-Color, die sich auf die nativen Sensorsaten beziehen, auch nichts anderes als Messinstrumente sind.
Und das sollte man nicht mit Vorschaubildern verwechseln.
andieymi hat geschrieben:
Das ist auch irgendwie das gleiche Thema, wie ich oben versucht hatte zu formulieren: Wenn es wirklich an so technischen Grundlagen wie der richtigen Belichtung scheitert, ok. Da hilft Youtube. Histogramm nutzen, False Color nutzen, Youtube Tutorials schauen. Das gilt für Belichtung wie für Grading. Aber das ist nicht das Arbeits-Level, auf dem sich Menschen, welche die Filme machen, um die es im Einstiegspost geht, lange technisch aufhalten. Da ist es völlig egal, ob das jetzt Histogramm, False Color oder nur ein kalibrierter Monitor ist, das Resultat stimmt auf dem Level. Und das zu verstehen hilft auch in einer Form, in der Technik nicht mehr im Weg steht, weil Belichtung einfach sitzt (egal wie!). Und ohne darüber nachzudenken, das sind wirklich keine Entscheidungen mehr die nennenswert gedankliche Kapazität brauchen auf dem Level. Und jede Sekunde, die jemand dann über Bildgestaltung & entwickeln einer eigenen solchen lernt ist besser investiert als sich weiter mit der Art und Ausgestaltung der technischen Tools zu beschäftigen, was dann einfach nur mehr persönliche Präferenz ist.
Es scheitert doch nicht an der "Technischen Belichtung" sondern an der Nutzung der Belichtung als Gestaltungsmittel.
Dein kalibrierter Monitor überdeckt all die Gestaltungsmöglichkeiten der Post.
Ein Ansel Adams hatte das Ergebnis nicht im Sucher, sondern er hatte es vor seinem inneren Auge.
Die heutigen Gradingmöglichkeiten erfordern eigentlich eine Arbeitsweise wie Ansel Adams.
Wie sehr sich das Kamerabild vom Endergebnis unterscheiden kann, sieht man an diesem Beispiel:
https://youtu.be/xDqgg2aXxsc?t=555
Dabei ist es dann wichtig, das Grading mitzudenken, statt auf den Vorschaumonitor zu starren, denn sonst vergisst man vielleicht z.B. die Lampen am Haus einzuschalten. :)
Antwort von Frank Glencairn:
Ihr macht das alles zu kompliziert.
Was die Belichtung betrifft geht es eigentlich nur darum den jeweiligen Sensor maximal auszunutzen, das kann bedeuten ETTR - oder einfach so, daß nix clippt, da reichen 100% Zebras. Bei anderen Sensoren wiederum muß man die Highlights schützen und eher konservativ belichten - die Erfahrung macht's, oder man fährt halt entsprechende Tests.
Was die Ratios betrifft kann man sich entweder auf nen Belichtungsmesser verlassen oder False Color (oder auch nur auf seine Augen), wobei das EL System auch keine Wunder vollbringt, sondern sich hauptsächlich dadurch von den anderen FC Systemen unterscheidet, daß es Blendenwerte unter den Farbkästchen hat, und generell ein Versuch ist, das ganze über alle Marken zu vereinheitlichen.
Was dabei gerne vergessen wird ist ja, daß ich mit FC nicht irgend eine Zone in der Kamera heller oder dunkler drehen kann, sondern daß man das dann immer noch mit Licht vor der Kamera machen muß, was ja für einige hier undenkbar scheint.
Ich könnte jetzt noch 2 Seiten über die Problematik von FC und Adams Zone System schreiben, aber das würde zu weit führen.
Und dieses "Gestaltung in der Post" Thema - naja.
Gestaltet wird normal vor der Kamera. Location, Set Design/Wardobe/Color Palette etc. sind die Hauptgestaltungsmittel die dein Bild machen (oder eben nicht). Erst dann kommt Licht, Framing und der ganze Technik Kram.
In a nut shell - erst wenn deine Szene auf der Rückfahrkamera eines Prius nach Kino aussieht, ist dein Job vor der Kamera erledigt, und erst dann kannst dich allem anderen hinter der Kamera zuwenden.
Ansonsten ist Post (neben den rein technischen Sachen) In den meisten Fällen hauptsächlich ne Schadensbegrenzugs-Maßnahme.
Man kompensiert - so gut es geht - für wenig Budget, wenig Zeit, wenig Möglichkeit und andere Unwägbarkeiten - ist ja auch okay, und schön das wir heute all die Tools haben.
Als geplanter Gestaltungs-Workflow, ist das IMHO allerdings der falsche Ansatz.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Ihr macht das alles zu kompliziert.
Was die Belichtung betrifft geht es eigentlich nur darum den jeweiligen Sensor maximal auszunutzen, das kann bedeuten ETTR - oder einfach so, daß nix clippt, da reichen 100% Zebras. Bei anderen Sensoren wiederum muß man die Highlights schützen und eher konservativ belichten - die Erfahrung macht's, oder man fährt halt entsprechende Tests.
Was die Ratios betrifft kann man sich entweder auf nen Belichtungsmesser verlassen oder False Color (oder auch nur auf seine Augen), wobei das EL System auch keine Wunder vollbringt, sondern sich hauptsächlich dadurch von den anderen FC Systemen unterscheidet, daß es Blendenwerte unter den Farbkästchen hat, und generell ein Versuch ist, das ganze über alle Marken zu vereinheitlichen.
Was dabei gerne vergessen wird ist ja, daß ich mit FC nicht irgend eine Zone in der Kamera heller oder dunkler drehen kann, sondern daß man das dann immer noch mit Licht vor der Kamera machen muß, was ja für einige hier undenkbar scheint.
Und dieses "Gestaltung in der Post" Thema - naja.
Gestaltet wird normal vor der Kamera. Location, Set Design/Wardobe/Color Palette etc. sind die Hauptgestaltungsmittel die dein Bild machen (oder eben nicht). Erst dann kommt Licht, Framing und der ganze Technik Kram.
Gestaltet wurde - mangels Möglichkeiten - zu Negativzeiten vor der Kamera.
Manche haben eben noch nicht mitbekommen, dass man nun auch in der Post Gestaltungsmöglichkeiten hat, die man nutzen kann.
In der Fotografie war man da bei den Negativen schon weiter und nutzte schon damals die Möglichkeiten des Entwicklungsprozesses und der Positivherstellung.
Ein Ansel Adams hatte das "Grading" schon damals mitgedacht. Das sollte man heute im Filmbereich nun wirklich auch mal endlich tun.
Was die Belichtung betrifft:
ETTR und 100%-Zebra ist reichlich grob.
Übrigens kann man in der Post "irgend eine Zone heller oder dunkler drehen" - das ist ja auch die Basis für ETTR.
Schützt man die Lichter (verhindert also Clippen) kann das Gesicht auch mal über- oder unterbelichtet werden. Dies gleicht man dann problemlos in der Post aus - ansonsten braucht es doch nun wirklich nicht die unzähligen DR-Stops, die immer alle fordern.
Und um gleich mal das Fix-it-in-Post-Gerede zu verhindern:
Wenn die Belichtung des Gesicht auf 18%-Grau fällt, ändert sich nichts an der Qualität, wenn man es in der Post dann hochzieht. Ich muss nicht am Set die Lichtstärke verdoppeln.
 |
Antwort von Frank Glencairn:
iasi hat geschrieben:
Manche haben eben noch nicht mitbekommen, dass man nun auch in der Post Gestaltungsmöglichkeiten hat, die man nutzen kann.
Als Notlösung, nicht als sinnvoller Workflow - Schadensbegrenzung mit stark eingeschränkten Möglichkeiten halt, wie ich schon sagte.
iasi hat geschrieben:
ETTR und 100%-Zebra ist reichlich grob.
Das ist das einzige, was wir "in camera" haben, um den jeweiligen Sensor maximal auszunützen.
iasi hat geschrieben:
Und um gleich mal das Fix-it-in-Post-Gerede zu verhindern:
Wenn die Belichtung des Gesicht auf 18%-Grau fällt, ändert sich nichts an der Qualität, wenn man es in der Post dann hochzieht. Ich muss nicht am Set die Lichtstärke verdoppeln.
18% Grau ist nur ein ganz grober Richtwert, es gibt jede Menge Gründe, warum ich mich für nen völlig anderen Wert entscheiden könnte. Das ist ja auch einer der Gründe, warum FC/Zone nur bedingt Relevanz haben.
Sklavisch irgendwelchen Nummern hinterherzulaufen ist halt das Gegenteil von Gestaltung.
Antwort von Axel:
iasi hat geschrieben:
Wenn die Belichtung des Gesicht auf 18%-Grau fällt, ändert sich nichts an der Qualität, wenn man es in der Post dann hochzieht. Ich muss nicht am Set die Lichtstärke verdoppeln.
Für ein Bild, das noch "Gestaltungsspielraum" erlaubt, muss man alle Signale maximieren. Man schützt die Highlights, das heißt man lässt nichts clippen. Vor allem aber schützt man die Schatten durch wie auch immer geartete Überbelichtung, ob man es ETTR nennt oder 2 stops over.
Und das kann man nur, wie Cullen sagt, durch Licht, Blende und Shutter. Da aber Blende und Shutter selbst bereits ästhetisch wahrnehmbare technische Entscheidungen bei der Aufnahme sind (die Anmutung der Bewegung, die Wahrnehmbarkeit des - hoffentlich ausdrucksstarken - Sets durch Schärfentiefe), ist der verbleibende Parameter Licht. Es stimmt also nicht, dass ich bloß Haut okay belichten muss und dann in der Post alle Freiheiten habe.
iasi hat geschrieben:
Schützt man die Lichter (verhindert also Clippen) kann das Gesicht auch mal über- oder unterbelichtet werden. Dies gleicht man dann problemlos in der Post aus - ansonsten braucht es doch nun wirklich nicht die unzähligen DR-Stops, die immer alle fordern.
Unzählige, nun ja. Ein oder zwei Blenden können schon einen erheblichen Unterschied machen, ob Lowlight- oder Highlight-Rolloff schön aussehen. Und dabei bewegen wir uns dann als naive Träumerle in 709-Land. Die Frage ist, wie "zukunftssicher" (auch einer deiner Lieblingsbegriffe) das ist.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Es stimmt also nicht, dass ich bloß Haut okay belichten muss und dann in der Post alle Freiheiten habe.
Das hört sich nach einem Widerspruch an, denn wenn ich genug Licht hatte um auf den benötigten Grauwert zu kommen, wobei es natürlich jedem selbst überlassen ist wie man zu genug Licht beim Dreh kommt, hat man genau das was man braucht.
In dem Sinne weißt er ja eigentlich nur darauf hin das wenn man zu wenig Licht hat und dies durch Blende und shutter kompensiert, einen anderen und wohlmöglich unerwünschten Bildeindruck bekommt.
Hier ging es doch aber eher darum wie viel Licht man braucht und ob überhaubt, aber nicht wie dies meine Bildcharakteristik verändert.
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Es stimmt also nicht, dass ich bloß Haut okay belichten muss und dann in der Post alle Freiheiten habe.
Das hört sich nach einem Widerspruch an, denn wenn ich genug Licht hatte um auf den benötigten Grauwert zu kommen, wobei es natürlich jedem selbst überlassen ist wie man zu genug Licht beim Dreh kommt, hat man genau das was man braucht.
Klar, meistens ist es ja so. Aber er hat wohl nicht zufällig eine Lowkey-Szene gewählt, mit viel Schatten und Schatten auch auf dem Gesicht selbst. Ich würde nie aus irgendwas ein Dogma machen. Ich kann mich noch gut erinnern, wie mein Ausbilder im Fotolabor mir am ersten Tag an's Herz legte: "Licht ist unser schlimmster Feind", und ich im Stillen dachte, das klingt aber düster. Später musste ich an diesen Spruch denken bei Amenabars The Others.
https://youtu.be/7r-zcM9qfhU?t=4534
Antwort von Frank Glencairn:
Axel hat geschrieben:
Es stimmt also nicht, dass ich bloß Haut okay belichten muss und dann in der Post alle Freiheiten habe.
Natürlich nicht - die Vorstellung es würde reichen irgendeine Fläche auf irgendeinen Wert zu schieben, und dann würde der Rest automatisch passen ist reichlich bizarr.
Belichtet wird vor der Kamera mit Licht, in der Kamera kannst du nur das "Auschnitt-Fenster" des nutzbaren Bereiches deines Sensors minimal verschieben.
Antwort von klusterdegenerierung:
Ich denke was Axel meint ist, wenn alles im Bild einen bestimmten, übersetzt Grauwert, hat, dann ist ja eine Korrektur von allen Werten gleichzeitig, immer auch proportional und wenn der Wert des Gesichts in einer bestimmten und passenden Range liegt kann man unproblematischer alle anderen Werte so beeinflussen, ohne das der Gesichtswert davon beeinflusst wird bzw Schaden nimmt, oder so. :-)
Antwort von Frank Glencairn:
Ja sicher - deshalb müssen ja die Ratios auch bei ETTR stimmen.
Das sind genau die Probleme mit irgendwelchen FC/Zone Systemen von denen ich gesprochen habe, in die viele rein laufen, und sich dann wundern wenn es m Ende scheiße aussieht.
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Ich denke was Axel meint ist, wenn alles im Bild einen bestimmten, übersetzt Grauwert, hat, dann ist ja eine Korrektur von allen Werten gleichzeitig, immer auch proportional und wenn der Wert des Gesichts in einer bestimmten und passenden Range liegt kann man unproblematischer alle anderen Werte so beeinflussen, ohne das der Gesichtswert davon beeinflusst wird bzw Schaden nimmt, oder so. :-)
Stimmt mW nicht für alle Gamma-Quanti-Dingenskirchen, wo Hautnuancen irgendwann reduziert werden und das Gesicht fatalerweise 6-bit ist, posterisiert und so gut wie geclippt. Oder so.
Was ich meinte ist tatsächlich das Licht-Schatten-Verhältnis in The Others und war eher als Kommentar für iasi gemeint, der sinngemäß schrieb, pah, Hauptsache die Visage hängt bei 18%, und schon fällt alles Andere (The Others) an seinen Platz. In einem Supermarkt richtig zu belichten ist ja banal.
Antwort von Frank Glencairn:
Dabei ist das eigentlich völlig trivial.
Zwei - drei Blenden (je nachdem) zu machen (Blende oder besser VariND), leuchten bis es passt - wieder auf machen (aufpassen daß nix clippt) und drehen - fertig.
Antwort von Bildlauf:
Meine nicht ganz optimal belichteten Clips sind nur deshalb nicht gut belichtet, weil es an Mangel an Zeit lag, weil man eben mal schnell draufhalten musste oder es schlichtweg keine Zeit war um da irgendwie Licht zu rücken oder Kamera 100% einzustellen. Oder die zeit insgesamt knapp war was den Drehplan betrifft.
Klar habe ich die Kamera immer in einer Grundeinstellung und irgendwie im Anschlag, daß man schnell draufhalten kann, aber die Feinjustage entfällt dann manchmal und die macht es aus.
Man kann die Clips zwar dann noch gut bearbeiten, und dann sehen die auch "irgendwie gut" aus, aber ich habe es auch lieber so, daß sie nativ wirklich gut belichtet sind.
Wenn Zeit da ist bei szenischen Drehs, dann belichte ich nach waveform, großem Monitor, Belichtungsmesser. Und ggf. zusätzlich kleiner Monitor plus Sucher. Und wenn zeit da ist, dann klappt es auch mit der Belichtung. Letztendlich gibt es auch bei Belichtung Geschmack, wie zb bei der Frage mit dem Koch in dem anderen Thread. Für manche zu dunkel für manche aber ok.
Letztendlich ist es irgendwann ein Gefühl, wie man mit dem eigenen Kamerasetup belichten muss, man kennt den Monitor etc.
Ansonsten finde ich es auch am wichtigsten, daß man schon in der Szene alles bestens herrichtet und eher das Ziel sein sollte so wenig wie möglich in Post.
Das gefällt mir immer am besten. So bald es in Richtung retten geht, bin ich irgendwie mental raus.
Dann geht ein clip lieber mal in die Tonne und bleibt raus aus dem Film/Video. Und von den wichtigen Szenen macht man ja eh mehrere Aufnahmen.
Antwort von iasi:
Bildlauf hat geschrieben:
Letztendlich gibt es auch bei Belichtung Geschmack, wie zb bei der Frage mit dem Koch in dem anderen Thread. Für manche zu dunkel für manche aber ok.
Letztendlich ist es irgendwann ein Gefühl, wie man mit dem eigenen Kamerasetup belichten muss, man kennt den Monitor etc.
Belichtung ist ein technischer Vorgang und hat doch nichts mit Geschmack zu tun.
Wenn ich nicht gerade das Sensorrauschen oder Clippen in den Lichtern/Schatten gezielt als Geschaltungsmittel einsetzen will, belichte ich doch möglichst optimal.
Auf das Gefühl würde ich mich auch nicht verlassen - oder erfühlst du, welche Lichtmenge den Sensor erreicht?
Der Monitor zeigt zudem auch nicht an, wie der Sensor "sieht". Darauf ist dann bei Raw und/oder 12bit-Formaten auch kein Verlass.
Antwort von iasi:
Axel hat geschrieben:
iasi hat geschrieben:
Wenn die Belichtung des Gesicht auf 18%-Grau fällt, ändert sich nichts an der Qualität, wenn man es in der Post dann hochzieht. Ich muss nicht am Set die Lichtstärke verdoppeln.
Für ein Bild, das noch "Gestaltungsspielraum" erlaubt, muss man alle Signale maximieren. Man schützt die Highlights, das heißt man lässt nichts clippen. Vor allem aber schützt man die Schatten durch wie auch immer geartete Überbelichtung, ob man es ETTR nennt oder 2 stops over.
Und das kann man nur, wie Cullen sagt, durch Licht, Blende und Shutter. Da aber Blende und Shutter selbst bereits ästhetisch wahrnehmbare technische Entscheidungen bei der Aufnahme sind (die Anmutung der Bewegung, die Wahrnehmbarkeit des - hoffentlich ausdrucksstarken - Sets durch Schärfentiefe), ist der verbleibende Parameter Licht. Es stimmt also nicht, dass ich bloß Haut okay belichten muss und dann in der Post alle Freiheiten habe.
iasi hat geschrieben:
Schützt man die Lichter (verhindert also Clippen) kann das Gesicht auch mal über- oder unterbelichtet werden. Dies gleicht man dann problemlos in der Post aus - ansonsten braucht es doch nun wirklich nicht die unzähligen DR-Stops, die immer alle fordern.
Unzählige, nun ja. Ein oder zwei Blenden können schon einen erheblichen Unterschied machen, ob Lowlight- oder Highlight-Rolloff schön aussehen. Und dabei bewegen wir uns dann als naive Träumerle in 709-Land. Die Frage ist, wie "zukunftssicher" (auch einer deiner Lieblingsbegriffe) das ist.
Wenn der Sensor +10 Blendenstufen DR bietet, kann ich dies auch ausnutzen. Dabei ist es eben gerade nicht nötig, dass die Lichter bei knapp 100% und die Hautfarbe bei 56-52% liegen.
Belichtung steuert man bei Film mit ND-Filtern, denn die Blende will man - wie du auch sagst - für die Bildgestaltung nutzen und auch beim Shutter weicht man nur von den 180° ab, wenn man eine bestimmte Wirkung erzielen will.
Es geht auch überhaupt nicht um Lowlight- oder Highlight-Rolloff, denn wenn ich wirklich einen so hohen Motivkontrast habe, dass mein DR nicht mehr ausreicht, hab ich eine sehr extreme Aufnahmesituation.
ETTR bedeutet, dass da nichts clippt und ich auch nicht in den Rolloff komme.
Und nach unten hin achte ich natürlich auch darauf, dass bildwichtige Bereiche, die volle Zeichnung und perfekte Farben haben sollen, noch einen ordentlichen Signal-Rauschabstand haben.
Aber das ist ja das Tolle am Grading:
Ich kann das recht unkompliziert und sehr präzise machen, was Fotografen mit Abwedeln und Nachbelichten erreichten.
zum Bild
Antwort von roki100:
@iasi, wie findest Du das, zu dunkel, zu hell, zu (wenig) farbig....?
Antwort von iasi:
roki100 hat geschrieben:
@iasi, wie findest Du das, zu dunkel, zu hell, zu (wenig) farbig....?
log
Bildschirmfoto 2023-06-09 um 01.58.58.png
korrektur / rec709 / pre look usw.
Bildschirmfoto 2023-06-09 um 02.01.23.png
look
Bildschirmfoto 2023-06-09 um 02.10.11.png
Da geht´s gar nicht um zu dunkel oder zu hell.
Der Hals des Jungen sticht hervor und bestimmt das Bild. Dadurch verliert das Bild jegliche Aussage, wenn es nicht gerade um Nackenverspannungen gehen soll.
Die Hand aufhellen und die Sonneneinstrahlung abmildern, könnte noch etwas daraus machen.
Antwort von roki100:
okay, danke, hand ist aufgehellt, Sonneneinstrahlung ist abgemildert.
Antwort von Frank Glencairn:
"Darth Schneider" hat geschrieben:
Der Look hier unten gefällt mir sehr,
aber wie immer liegt das viel weniger am Grading. Auch nicht an der Kamera, sondern viel mehr an dem was vor der Kamera ist, nämlich das interessante Paar, und natürlich das wunderschöne Licht…;)
Die Farben könnten von mir aus auch ganz anders aussehen, das zu kurze Video würde mir dann auch nicht weniger gefallen.
Gruss Boris
Gutes Beispiel für das, was ich immer sage.
Framing, Kameraführung und Schnitt sind eigentlich grausig, Zufallslicht durch ein Fenster, ohne sich irgendwelche weitere Mühe zu geben und beim Grading wäre sogar noch massiv Luft nach oben, aber Set Design, Farbpalette, Styling/Wardrobe und Location stimmen zu 100%, nur deshalb funktioniert es trotzdem.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
"Darth Schneider" hat geschrieben:
Der Look hier unten gefällt mir sehr,
aber wie immer liegt das viel weniger am Grading. Auch nicht an der Kamera, sondern viel mehr an dem was vor der Kamera ist, nämlich das interessante Paar, und natürlich das wunderschöne Licht…;)
Die Farben könnten von mir aus auch ganz anders aussehen, das zu kurze Video würde mir dann auch nicht weniger gefallen.
Gruss Boris
Gutes Beispiel für das, was ich immer sage.
Framing, Kameraführung und Schnitt sind eigentlich grausig, Zufallslicht durch ein Fenster, ohne sich irgendwelche weitere Mühe zu geben und beim Grading wäre sogar noch massiv Luft nach oben, aber Set Design, Farbpalette, Styling/Wardrobe und Location stimmen zu 100%, nur deshalb funktioniert es trotzdem.
Was funktioniert denn hier eigentlich?
Es ist wie mit dem Foto von rokki100:
Die Frage des Inhalts und der Intention stellt sich.
Antwort von pillepalle:
iasi hat geschrieben:
Die Frage des Inhalts und der Intention stellt sich.
Hört man doch im Song. Der Letzte Atemzug in meinem Leben... kommt vom Rauchen :) Aber das 'Short Film' zu nennen ist ja schon ein wenig albern.
VG
Antwort von Frank Glencairn:
iasi hat geschrieben:
Was funktioniert denn hier eigentlich?
Die cinematische Bildästhetik.
iasi hat geschrieben:
Die Frage des Inhalts und der Intention stellt sich.
Und nein, die Frage nach Inhalt und Intention stellt sich bei Fingerübungen von Anfängern nicht,
die ist offensichtlich - üben, ausprobieren, besser werden.
Antwort von pillepalle:
"Frank Glencairn" hat geschrieben:
- üben, ausprobieren, besser werden.
Das kannst Du ihm nicht vermitteln. Für iasi ein völlig fremdes Konzept. Der macht doch alles aus dem Stehgreif bei seinem Debut 🙃
VG
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Was funktioniert denn hier eigentlich?
Die cinematische Bildästhetik.
So? Das ist also die vielbesungene "cinematische Bildästhetik"?
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Die Frage des Inhalts und der Intention stellt sich.
Und nein, die Frage nach Inhalt und Intention stellt sich bei Fingerübungen von Anfängern nicht,
die ist offensichtlich - üben, ausprobieren, besser werden.
Dann üben diese Anfänger aber offensichtlich falsch.
Oder soll das Ziel denn sein, nichtssagende "cinematische Bildästhetik" zu erzeugen?
Wobei man ja zumindest in das Video durchaus etwas hineininterpretieren könnte:
Mann denkt: "Da hab ich so schöne Tattoos und ein solch maskulines Shirt und bekomme nur so eine rauchende Picklige." :)
Übrigens gibt es keine "cinematische Bildästhetik".
Was es gibt, sind filmsprachliche Mittel.
zum Bild
zum Bild
Antwort von Frank Glencairn:
iasi hat geschrieben:
Dann üben diese Anfänger aber offensichtlich falsch.
Übrigens gibt es keine "cinematische Bildästhetik".
... und der Preis für den inkompetentesten Post der Woche geht an - iasi
Antwort von wolfgang:
Die Argumente für ETTR sind hier mal wieder ziemlich ungenügend. Keiner reflektiert, dass man damit jeden Take anders aufnimmt - wenn man das konsequent von clip zu clip anwendet. Keiner reflektiert, dass man mit ETTR eben KEINE Ahnung hat, um wieviel man überbelichtet hat. Und keiner reflektiert, dass man damit in der Post in die Höllenarbeit kommt, jeden Clip mühsam anpassen zu müssen - und jeder Clip ist anders belichtet.
Ich verstehe das nicht, das ist alles weltfremd. Es geht eben nicht darum, den Sensor auszunutzen. Es geht darum, einen Kompromiss aus richtiger Belichtung, falls man das Rauschen reduzieren muss (was heute oft gar nicht mehr nötig ist) eine gezielte Überbelichtung macht - aber dafür brauche ich schon den richtigen Bezugspunkt.
Da belichtet ich noch lieber mit false color auf Gesichtstöne falls vorhanden, und gut ist es. Notfalls gibt es noch die verpönte Grautafel - aber auch wenn die gut im Studiebetrieb geht, wird die doch ja gerne abgelehnt. Starke Männer brauchen keine Grautafel, obwohl es die in sehr kleiner Größe (Colorchecker) eh gibt. Aber nach einiger Zeit hat man das natürlich eh im Gefühl - wie hier gesagt worden ist. Und dann bleibt noch der künstlerisch Aspekt.. na ok.
Antwort von pillepalle:
wolfgang hat geschrieben:
Ich verstehe das nicht, das ist alles weltfremd. Es geht eben nicht darum, den Sensor auszunutzen. Es geht darum, einen Kompromiss aus richtiger Belichtung, falls man das Rauschen reduzieren muss (was heute oft gar nicht mehr nötig ist) eine gezielte Überbelichtung macht - aber dafür brauche ich schon den richtigen Bezugspunkt.
Da gibt es auch nichts zu verstehen. Es gibt nicht den einen richtigen Weg. Der Eine arbeitet lieber so, der Andere lieber so. Ist alles total individuell, weil es einfach von sehr vielen Faktoren abhängt. Den Aufnahmebedingungen, dem Workflow, persönlichen Vorlieben, usw... Es ist doch toll das einem heutzutage soviele Belichtungs-Tools zur Verfügung stehen und jeder nutzt diejenigen die ihm am liebsten sind. Und beim Colorgrading ist das genauso. Frag 10 Leute und sie werden Dir 10 Wege zeigen um irgendwo hin zu kommen.
VG
Antwort von wolfgang:
Sorry, aber es ist eine technische Methodendiskussion, und da gibt es klare Fakten was man wie bekommt (und bitte mir nicht mit der kreativen Freiheit zu kommen).
Das oben verlinkte Video zeigt es eh recht gut - ABER ein zusätzliches Problem ist die Sprachverwirrung, was ETTR ist. Ich verstehe darunter das "ausnutzen des Sensors", also im Histogramm bis nach rechts gehen, bevor die Sache clipt. Und da ist meine Kritik, dass ich dann nie weiß wie viel ich überbelichtet bin.
Aber das obige Video von Cullen Kelley versteht darunter eine gezielte Überbelichtung um 1 oder 2 Stops (und die anschließende Absenkung in der Post). WAS für mich etwas Anderes ist als ETTR - weil ich hier a) eine gezielt korrekte Belichtung mache, und b) dann gezielt Überbelichte. Und dann kann er die zusätzlichen Stops - weil bekannt - natürlich leicht in der Post korrigieren, wenn er immer um z.B. 1,5 Stops hochgeht. Und entrauscht damit wunderbar. DAS ist sinnvoll, und das sehe ich auch so.
Ob ich es mache, hängt auch von so Dingen wie einer etwaigen Entrauschung in der Kamera ab. Die Pocket 6K entrauscht etwa durchaus so gut, dass man diesen Ansatz gar nicht benötigt.
Und von Licht setzen rede ich auch nicht - wo notwendig, braucht es das halt.
Antwort von andieymi:
iasi hat geschrieben:
Belichtung ist ein technischer Vorgang und hat doch nichts mit Geschmack zu tun.
Wenn ich nicht gerade das Sensorrauschen oder Clippen in den Lichtern/Schatten gezielt als Geschaltungsmittel einsetzen will, belichte ich doch möglichst optimal.
Ich brauche eigentlich nichts weiter zu schrieben, als das zu zitieren und meinen Punkt von vorhin klarer zu machen: Auf dem höchsten Level ist Belichtung Geschmack, weil sich niemand an die mantramäßige-technische Sauberkeit hält die iasi daran hindert überhaupt zu drehen.
Nehmen wir mal nicht als isoliertes Beispiel ein Gesicht ohne Kontext (wo kommt das vor, Greenscreen vor Keying? Da hat er vmtl Recht...), sondern einen Raum mit Tageslicht draußen mit Person darin:
Ich kann jetzt 90° zu rückseitigen Fenstern vielleicht sogar auch von draußen mehr Licht in den Raum bringen und Hintergrund und Person auf ein Belichtungs-Level bringen. Oder aber ich kann etwas mehr Grundhelligkeit innen durch extrem diffuse Beleuchtung im ganzen Raum von oben realisieren. Oder aber ich belichte auf den Hintergrund und die Person wird eine Silhouette. Und weißt Du was? Alles ist gestalterisch legitim, wenn es die Stimmung der Szene unterstützt. Es gibt keine richtige Belichtung für diese Szene, genau so wie es sie nicht für quasi jede andere gibt.
Alles sind völlig "richtige" Belichtungen, obwohl sie völlig unterschiedliche Sensor-Helligkeits-Werte am Gesicht aufweisen werden. Diese Vorstellung eine Person müsste in einer Szene den und den Hauttonhelligkeitswert haben damit sie richtig belichtet ist ungefähr der Grund warum so viel Content heute so furchtbar fake aussieht indem Leute dann halt die Lampe besser 50cm vor die Fresse stellen weil dann ist die Belichtung richtig (Wahrscheinlich auch so der Grund, warum so viele on Location mit einem 200X auskommen). Indem Du Clipping und Rauschen reinbringst, suggerierst Du es gäbe nur eine richtige Belichtung, bei der diese Probleme nicht auftreten und das ist so ca. exakt was ich vorher meinte: Du klammerst Dich an technische Prinzipien, um die sich niemand der was für Kino oder High-End-Streaming macht auch nur gröbere Gedanken verschwendet und jeder DP der auf einem Podium über seine Kunst (vielleicht muss man echt mehr die Kunstkeule mehr auspacken - und wenn es nur eine Netflix Show ist - um sich von sowas zu emanzipieren) reden darf (weil er genau deswwegen eingeladen wird) ist manchmal froh über seine knappere Belichtung, die sich nicht in der Post umkehren lässt wenn er 2 Jobs später auf einem anderen Kontinent Show Nummer 3 das Jahr dreht, während irgend eine Colorist einen Kontinent weiter etwas anderes probiert als die Grundintention war.
Antwort von pillepalle:
Das Missverständnis rührt eben daher, dass die meisten kein technisch korrektes Bild haben wollen. Technisch korret bedeutet, den Kontkrastumfang des Motivs erstmal auf den Kontrastumfang der Kamera zu bringen und dann auf eine bildwichtige Stelle zu belichten. Das kann man auch auf eine Graukarte machen wenn man möchte, oder sich eben nach den Sintones richten, da die oft wichtig erscheinen. Man kann auch, um minimales Rauschen zu bekommen ETTR belichten, falls dass das Ziel sein sollte. Aber das Ergebnis ist dann oft eben ein langweiliges Bild. Es geht nicht immer darum alles so naturgetreu wie möglich abzubilden. Im Grunde ist jeder Grade bereits eine Abstraktion.
VG
PS: andieymi war schneller :)
Antwort von andieymi:
pillepalle hat geschrieben:
Das Missverständnis rührt eben daher, dass die meisten kein technisch korrektes Bild haben wollen. Technisch korret bedeutet, den Kontkrastumfang des Motivs erstmal auf den Kontrastumfang der Kamera zu bringen und dann auf eine bildwichtige Stelle zu belichten. Das kann man auch auf eine Graukarte machen wenn man möchte, oder sich eben nach den Sintones richten, da die oft wichtig erscheinen. Man kann auch, um minimales Rauschen zu bekommen ETTR belichten, falls dass das Ziel sein sollte. Aber das Ergebnis ist dann oft eben ein langweiliges Bild. Es geht nicht immer darum alles so naturgetreu wie möglich abzubilden. Im Grunde ist jeder Grade bereits eine Abstraktion.
VG
PS: andieymi war schneller :)
Macht nichts, ich finde das das einfach auch in eine Richtung geht, die sich der Ausgangsfrage nähert: Niemanden "Pro"-dort interessieren die Tools oder interessieren die Levels, solange es genug für die technische Sauberkeit ist. Diese kann auf unterschiedlichste Arten erreicht werden und ist kein definierter Optimalwert - die Optimalwertdefinition auf dem Level ist es, die gestalterische Intention oder Aussage/Funktion der Szene im Gesamtwerk zu treffen und zu unterstützen. Die bemisst sich halt nicht in IRE ;)
Ein richtig belichtetes Gesicht im Schneesturm wird halt anders aussehen als Bondi Beach. Und erst wenn man das verstanden hat, fängt Gestalten an und hört Technik bedienen auf.
Antwort von Frank Glencairn:
wolfgang hat geschrieben:
Und keiner reflektiert, dass man damit in der Post in die Höllenarbeit kommt, jeden Clip mühsam anpassen zu müssen - und jeder Clip ist anders belichtet.
Reines - mir ist alles zu viel - Hobbyfilmer Problem.
Im richtigen Leben muß man sowieso jeden Clip einzeln anfassen um optimale Ergebnisse zu erlangen.
wolfgang hat geschrieben:
Notfalls gibt es noch die verpönte Grautafel - aber auch wenn die gut im Studiebetrieb geht, wird die doch ja gerne abgelehnt.
Eine Grautafel weiß nix über Schatten und Highlights in der Szene und ist deshalb völlig nutzlos.
Selbst wenn du die Grautafel auf irgendeinen Wert bringst kannst du andere Bereiche damit komplett ausbrennen lassen und andere in Rauschen absaufen.
Hier werden verschiedenste Äpfel und Birnen verglichen.
1. Rein technisches, maximales ausnutzen des Sensors - also kein Clipping, so wenig Rauschen wie möglich - idealerweise mit VariND.
2. Wenn die Szene die Möglichkeiten des Sensors übersteigt - einfach entsprechend leuchten, und das ganze auf die 12-13 Blenden des Sensors bringen
3. Ratios und Gestaltung - natürlich ebenfalls mit Lichtern (und Schatten).
Und ja, man muß alle 3 Schritte immer durchspielen, sonst wird das nix,
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Dann üben diese Anfänger aber offensichtlich falsch.
Übrigens gibt es keine "cinematische Bildästhetik".
... und der Preis für den inkompetentesten Post der Woche geht an - iasi
Tja - von "cinematischer Bildästhetik" redet eben derjenige, der mit Aussage und Kreativität nicht viel anzufangen weiß.
Das ist dann wie der Unterschied zwischen einem Maler und einem Maler. :)
Der eine weißelt ein Zimmer, der andere erschafft Kunst. ;)
Und der Zimmerweißler versteht noch nicht einmal den Unterschied, sondern benutzt nur hohle Phrasen wie "cinematische Bildästhetik".
Antwort von iasi:
andieymi hat geschrieben:
iasi hat geschrieben:
Belichtung ist ein technischer Vorgang und hat doch nichts mit Geschmack zu tun.
Wenn ich nicht gerade das Sensorrauschen oder Clippen in den Lichtern/Schatten gezielt als Geschaltungsmittel einsetzen will, belichte ich doch möglichst optimal.
Ich brauche eigentlich nichts weiter zu schrieben, als das zu zitieren und meinen Punkt von vorhin klarer zu machen: Auf dem höchsten Level ist Belichtung Geschmack, weil sich niemand an die mantramäßige-technische Sauberkeit hält die iasi daran hindert überhaupt zu drehen.
Und du denkst also, das die Beherrschung der Techniken nicht notwendig ist, um etwas zu gestalten.
zum Bild
https://image.stern.de/9009518/t/sq/v8/ ... -river.jpg
So etwas entsteht nicht, indem man nur seinem Geschmack folgt.
So etwas verlangt die Kenntnis und die Beherrschung der gesamten Bilderzeugungstechniken.
Aber es gibt ja glücklicherweise genügend Leute, die etwas drehen ohne sich solche Mühen zu machen. Die sind dann auch ganz begeistert, wenn sie ihren "cinematischen"
Look erzeugen - und dann im youtube-Meer versenken oder nach dem Kurzfilmfestival begraben.
Frank redet z.B. von "cinematischer Bildästhetik", kann aber gar nicht definieren, was das denn genau sein soll.
Dabei kommt es nur darauf an, wie man die filmsprachlichen Mittel beherrscht und für die Aussage und beabsichtigte Wirkung einzusetzen weiß.
zum Bild
Für unseren Frank käme solch ein Framing schon mal gar nicht in Frage.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Und du denkst also, das die Beherrschung der Techniken nicht notwendig ist, um etwas zu gestalten.
So etwas entsteht nicht, indem man nur seinem Geschmack folgt.
So etwas verlangt die Kenntnis und die Beherrschung der gesamten Bilderzeugungstechniken.
Da typische Warmluft-blah-blah wieder mal, nur statt LOA diesmal Adams.
Ganz ehrlich, der ist da hingegangen hat draufgehalten und abgedrückt, nachdem er sicher gestellt hat, daß nix ausbrennt - old school ETTR halt.
Der einzige Gestaltungswille, der da zu erkennen ist, ist das Framing, und die Postproduction im Labor.
Aber so eine Aufnahme rein technisch herzustellen ist völlig trivial, die entsprechenden Werte liest man vom Belichtungsmesser ab und fertig.
Da braucht es keine "meisterhafte Beherrschung" von irgendwas.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Frank redet z.B. von "cinematischer Bildästhetik", kann aber gar nicht definieren, was das denn genau sein soll.
Das hab ich jetzt bestimmt schon 10 mal erklärt, aber du hörst mir ja nicht zu, sondern faselst lieber ständig was von "filmsprachlichen Mitteln", was ne völlig andere Baustelle ist als Bildästhetik.
Antwort von Jott:
iasi hat geschrieben:
zum Bild
Wo ist denn der Freddy Mercury da?
Antwort von pillepalle:
Das sind eben iasis Klassiker aus der Mottenkiste :) Natürlich hat Adams nicht einfach draufgehalten, aber das war zu seiner Zeit auch ein ganz anderes Arbeiten. Da hat man den Negativkontrast noch über die Entwicklung gesteuert und dann eben entsprechend belichtet. Das was wir heute auf einen Blick im Histogram oder mit den Waveforms sehen, musste er damals mit dem Belichtungsmesser durchmessen, bzw. ganz zu Anfang sogar schätzen. Aber das hat eben nur noch wenig mit einem modernen Workflow im Digitalzeitalter zu tun.
Adams Konzept war das genaue Gegenteil von dem was iasi predigt. Nämlich bereits vorher das Motiv in seinen Grauwerten zu visualiseren und es dann genauso umzusetzen. Da war nichts mit: 'Das gestalte ich in der Post'. In der Post wurde nur das umgesetzt was er sich bereits vorher überlegt hatte.
VG
Antwort von Bildlauf:
iasi hat geschrieben:
Belichtung ist ein technischer Vorgang und hat doch nichts mit Geschmack zu tun.
Wenn ich nicht gerade das Sensorrauschen oder Clippen in den Lichtern/Schatten gezielt als Geschaltungsmittel einsetzen will, belichte ich doch möglichst optimal.
Auf das Gefühl würde ich mich auch nicht verlassen - oder erfühlst du, welche Lichtmenge den Sensor erreicht?
Der Monitor zeigt zudem auch nicht an, wie der Sensor "sieht". Darauf ist dann bei Raw und/oder 12bit-Formaten auch kein Verlass.
Jeder hat seine eigene Arbeitsweise. Für mich funktioniert es nunmal so.
Würde es nicht funktionieren, würde ich was verändern an meiner Art des Belichtens.
Ein Aspekt ist mit Sicherheit, daß ich in Codecs/Bildprofilen filme, die auch bei nicht korrekter Belichtung (sei es absichtlich oder unabsichtlich) sehr gut bearbeitbar sind. Also natürlich auch nur bis zu einem gewissen Punkt, den ich aber im Gefühl habe ganz gut.
Weil man da nicht nach ETTR gehen muss. Also ich kann auch mal bewusst unterbelichten oder über und weiß aber schon was ich dann in Nachbearbeitung draus machen will. Aber tendenziell belichte ich am Tageslicht etwas unter (und nachträglich ggf. etwas Helligkeit anziehen) und bei Lowlight Aufnahmen einiges höher (und da die Helligkeit nachträglich (etwas) runterziehen).
Antwort von andieymi:
iasi hat geschrieben:
zum Bild
Und für sowas ist die Kunst (Indoor ohne Außeneinfluss dann weniger) das Szenenrelevante in die üblichen 6-7 Hollywood-Blenden Motivkonktrast zu drücken. Geht halt auch nicht mit 300W-LED-Funsen-durch-Diffusion-aus-1m auf Haut wenn die "Practicals (Neonröhren) im Frame dann auf einmal mehr Output haben als die LED vorne auf der Haut macht. Dann ist es auch erstaunlicherweise relativ egal wo ich die Belichtung hinlege, weil ich nur ca. 50% der Dynamik der gängigen Sensoren überhaupt brauche und die Practicals schon deutlich vor Clipping legen kann. Wo soll da was ausfressen oder mir Rauschen gröbere Probleme machen? In dem Fall ist es eher das "Problem", dass es Lichtmäßig die Practicals braucht, weil sonst der generelle Kontrast so niedrig ist, dass das Bild einfach flach ist. Aber da braucht niemand ETTR bis vor Clipping, umgekehrt hat man auch kaum das Problem dass etwas überhaupt clippen könnte. Kann man eh belichtungsmäßig hinlegen, wo man will weil Dynamik da nicht das ausschlaggebende Thema ist.
Aber das ist ein Fall der ist so - leider recht sinnlos - wie die Slashcam-"Dynamik"-Tests. Weil wenn ich Dynamik messe, indem ich 7 Blenden Motivkontrast Hin- und Herschiebe, naja. Interessanter ist dann was sich eigentlich in einem Frame ohne ETTR ausgeht. Das zählt nämlich für die Praxis. Wie viel heller (und v.a. trotzdem noch natürlich bleibend) müsste man den Key kriegen um die Highlights draußen "runter zu drücken"? Das macht alles keinen Sinn wenn es die Highlights draußen nicht gibt und ich mir aussuchen kann wo ich die 7 Blenden hinlege, das hat meines Erachtens auch nichts mit Dynamiktest, sondern mit Über- & Unterbelichtungstest zu tun und beides davon braucht man an Sets mit Licht eigentlich seltener - viel relevanter ist die Gesamtdynamik des Sensors im Vergleich zur Motivdynamik.
Aber generell: Sehr viel vom Look kommt auch von dem manchmal besser, manchmal schlechter gelungenen 6-7 Blenden - Versuch, deshalb sieht Adams, auch wenn das Foto zweifelsfrei gut belichtet ist nicht nach Hollywood aus. Und deshalb sieht auch eine Alexa auf Motiv XY draußen im Auflicht nicht nach Hollywood aus, selbst wenn das Bild ideal belichtet ist und die 14 Blenden Dynamik bestmöglich ausgereizt wird. Das ist richtig belichtet, aber der Look kommt von etwas anderem (und ich lasse jetzt auch mal Kadrage und Bildinhalt völlig außen vor, das kannst Du mit einer Topffplanze probieren).
Im Gegenlicht, mit in die Schatten schauen und Sonne aus dem Bild halten (Links, Rechts, Oberkannte) hat sich abgesehen von blonder Frisur auch das Dynamikproblem erledigt und Lookmäßig ist man auch eine Ecke weiter dort.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Da typische Warmluft-blah-blah wieder mal, nur statt LOA diesmal Adams.
Ganz ehrlich, der ist da hingegangen hat draufgehalten und abgedrückt, nachdem er sicher gestellt hat, daß nix ausbrennt - old school ETTR halt.
Ganz ehrlich. Dann hast du das Zonensystem nicht verstanden.
"Frank Glencairn" hat geschrieben:
Der einzige Gestaltungswille, der da zu erkennen ist, ist das Framing, und die Postproduction im Labor.
Aber so eine Aufnahme rein technisch herzustellen ist völlig trivial, die entsprechenden Werte liest man vom Belichtungsmesser ab und fertig.
Da braucht es keine "meisterhafte Beherrschung" von irgendwas.
Man muss die Techniken beherrschen, um sie gestalterisch nutzen zu können.
Nur wer weiß, wie "korrektes" und "triviales" Framing aussehen muss, kann gezielt und im Wissen um die Wirkung, die "Framing-Regel" verletzen.
Bei "Saving Private Ryan" werden so manche "cinematischen Regeln" verletzt - um eine ganz bestimmte Wirkung zu erzielen.
Man muss die technischen Möglichkeiten kennen, um sie gestalterisch als filmsprachliche Mittel einsetzen zu können.
Antwort von Bruno Peter:
andieymi hat geschrieben:
Aber das ist ein Fall der ist so - leider recht sinnlos - wie die Slashcam-"Dynamik"-Tests. Weil wenn ich Dynamik messe, indem ich 7 Blenden Motivkontrast Hin- und Herschiebe, naja. Interessanter ist dann was sich eigentlich in einem Frame ohne ETTR ausgeht. Das zählt nämlich für die Praxis. Wie viel heller (und v.a. trotzdem noch natürlich bleibend) müsste man den Key kriegen um die Highlights draußen "runter zu drücken"? Das macht alles keinen Sinn wenn es die Highlights draußen nicht gibt und ich mir aussuchen kann wo ich die 7 Blenden hinlege, das hat meines Erachtens auch nichts mit Dynamiktest, sondern mit Über- & Unterbelichtungstest zu tun und beides davon braucht man an Sets mit Licht eigentlich seltener - viel relevanter ist die Gesamtdynamik des Sensors im Vergleich zur Motivdynamik.
Ich stimme Dir voll zu!
Antwort von iasi:
andieymi hat geschrieben:
iasi hat geschrieben:
zum Bild
Und für sowas ist die Kunst (Indoor ohne Außeneinfluss dann weniger) das Szenenrelevante in die üblichen 6-7 Hollywood-Blenden Motivkonktrast zu drücken. Geht halt auch nicht mit 300W-LED-Funsen-durch-Diffusion-aus-1m auf Haut wenn die "Practicals (Neonröhren) im Frame dann auf einmal mehr Output haben als die LED vorne auf der Haut macht. Dann ist es auch erstaunlicherweise relativ egal wo ich die Belichtung hinlege, weil ich nur ca. 50% der Dynamik der gängigen Sensoren überhaupt brauche und die Practicals schon deutlich vor Clipping legen kann. Wo soll da was ausfressen oder mir Rauschen gröbere Probleme machen? In dem Fall ist es eher das "Problem", dass es Lichtmäßig die Practicals braucht, weil sonst der generelle Kontrast so niedrig ist, dass das Bild einfach flach ist. Aber da braucht niemand ETTR bis vor Clipping, umgekehrt hat man auch kaum das Problem dass etwas überhaupt clippen könnte. Kann man eh belichtungsmäßig hinlegen, wo man will weil Dynamik da nicht das ausschlaggebende Thema ist.
Aber das ist ein Fall der ist so - leider recht sinnlos - wie die Slashcam-"Dynamik"-Tests. Weil wenn ich Dynamik messe, indem ich 7 Blenden Motivkontrast Hin- und Herschiebe, naja. Interessanter ist dann was sich eigentlich in einem Frame ohne ETTR ausgeht. Das zählt nämlich für die Praxis. Wie viel heller (und v.a. trotzdem noch natürlich bleibend) müsste man den Key kriegen um die Highlights draußen "runter zu drücken"? Das macht alles keinen Sinn wenn es die Highlights draußen nicht gibt und ich mir aussuchen kann wo ich die 7 Blenden hinlege, das hat meines Erachtens auch nichts mit Dynamiktest, sondern mit Über- & Unterbelichtungstest zu tun und beides davon braucht man an Sets mit Licht eigentlich seltener - viel relevanter ist die Gesamtdynamik des Sensors im Vergleich zur Motivdynamik.
Aber generell: Sehr viel vom Look kommt auch von dem manchmal besser, manchmal schlechter gelungenen 6-7 Blenden - Versuch, deshalb sieht Adams, auch wenn das Foto zweifelsfrei gut belichtet ist nicht nach Hollywood aus. Und deshalb sieht auch eine Alexa auf Motiv XY draußen im Auflicht nicht nach Hollywood aus, selbst wenn das Bild ideal belichtet ist und die 14 Blenden Dynamik bestmöglich ausgereizt wird. Das ist richtig belichtet, aber der Look kommt von etwas anderem (und ich lasse jetzt auch mal Kadrage und Bildinhalt völlig außen vor, das kannst Du mit einer Topffplanze probieren).
Im Gegenlicht, mit in die Schatten schauen und Sonne aus dem Bild halten (Links, Rechts, Oberkannte) hat sich abgesehen von blonder Frisur auch das Dynamikproblem erledigt und Lookmäßig ist man auch eine Ecke weiter dort.
Bei dem Beispiel-Standbild geht es ums Framing.
Adams hat das Bild bewußt und unter Anwendung aller verfügbaren Techniken hergestellt.
"Nach Hollywood" sieht sowieso schon mal gar nichts aus, denn es gibt ihn nicht, diesen "Hollywood"-Look.
Was es gibt, ist der gestalterische Einsatz der Techniken, der ganz bewußt und kreativ erfolgt.
Da bekommen dann Leones Darsteller dunkle Schminke verpasst, um die Augen heller und strahlender wirken zu lassen.
Da nutzt ein Kurosawa eine hohe Schärfentiefe und lange Brennweite, um Vorder- und Hintergrund miteinander kombinieren zu können.
Da nutzt ein Welles kurze Brennweiten, um enorme Räumlichkeit zu erzeugen.
...
Und all das erfordert eine Kenntnis der Technik.
Übrigens:
1917 wurde übrigens mit einer Alexa gedreht - z.T. nur mit dem Licht von oben. Sieht das nicht nach "Hollywood" aus?
Es geht nicht ums "richtig" belichten, sondern ums "bewußt gestalterisch" belichten.
Ist das denn "richtig" belichtet:
zum Bild
Antwort von klusterdegenerierung:
pillepalle hat geschrieben:
Das sind eben iasis Klassiker aus der Mottenkiste :) Natürlich hat Adams nicht einfach draufgehalten, aber das war zu seiner Zeit auch ein ganz anderes Arbeiten. Da hat man den Negativkontrast noch über die Entwicklung gesteuert und dann eben entsprechend belichtet. Das was wir heute auf einen Blick im Histogram oder mit den Waveforms sehen, musste er damals mit dem Belichtungsmesser durchmessen, bzw. ganz zu Anfang sogar schätzen. Aber das hat eben nur noch wenig mit einem modernen Workflow im Digitalzeitalter zu tun.
Adams Konzept war das genaue Gegenteil von dem was iasi predigt. Nämlich bereits vorher das Motiv in seinen Grauwerten zu visualiseren und es dann genauso umzusetzen. Da war nichts mit: 'Das gestalte ich in der Post'. In der Post wurde nur das umgesetzt was er sich bereits vorher überlegt hatte.
VG
Jetzt aber immer den Adams ranzuziehen ist auch nicht der Bringer, eben weil dort ganz anders gearbeitet wurde, weil man mit einer analogen Technik zu tun hatte.
Das man Heute anders aggiert, was viele verpönen, liegt ja nicht daran das man plötzlich zu blöd zum Belichtung messen ist oder es keine Gossen mehr gäbe, sondern das die Kameras vieles dieser Technik inne haben.
Früher haben wir unser Pola Rückteil auf die Mamiya geknallt, vorher im Gossen alle Werte eingetragen, gecheckt und ein Pola gemacht.
Heute machst Du doch das gleiche, checkst die Belichtung in der Cam weil diese das im Gegensatz zu einer SLR kann und machst ein "Pola" am Display!
Ob Das jetzt unbedigt im "Zonen" Verfahren sein muß oder sonst was, den Negativ Prozess hat man doch Heute im ACR, ist im Grunde alles gleich geblieben.
Irgendwann muß man auch mal im hier und jetzt ankommen, vielleicht hätte Adams das Heute auch ganz anders gemacht, wie zb. die Künstlerin mit der ich damals viel assistiert habe, die hat an einem Tag ungefähr 5 Pakete a´10 Polas durchgebraten, witzigerweiße haben die Kunden das sogar noch bezahlt! :-))
Antwort von iasi:
"Bruno Peter" hat geschrieben:
andieymi hat geschrieben:
Aber das ist ein Fall der ist so - leider recht sinnlos - wie die Slashcam-"Dynamik"-Tests. Weil wenn ich Dynamik messe, indem ich 7 Blenden Motivkontrast Hin- und Herschiebe, naja. Interessanter ist dann was sich eigentlich in einem Frame ohne ETTR ausgeht. Das zählt nämlich für die Praxis. Wie viel heller (und v.a. trotzdem noch natürlich bleibend) müsste man den Key kriegen um die Highlights draußen "runter zu drücken"? Das macht alles keinen Sinn wenn es die Highlights draußen nicht gibt und ich mir aussuchen kann wo ich die 7 Blenden hinlege, das hat meines Erachtens auch nichts mit Dynamiktest, sondern mit Über- & Unterbelichtungstest zu tun und beides davon braucht man an Sets mit Licht eigentlich seltener - viel relevanter ist die Gesamtdynamik des Sensors im Vergleich zur Motivdynamik.
Ich stimme Dir voll zu!
Wenn ich 7 Blenden Motivkontrast habe, dann schiebt sie ETTR in den Bereich mit dem höchsten Signal-Rauschabstand.
Warum sollte ich die Schatten durch knappe Belichtung in einen Bereich bringen, dem das Rauschen schon die Qualität beeinträchtigt?
Mehr als 7 Blendenstufen Motivkontrast sind eben doch auch möglich.
Also mal ein konkretes Beispiel:
Dieses Bild hier ist so nicht ideal.
10295540_602131659884816_1650982152405959275_o.jpg
Was wäre nötig, um es brauchbar zu machen?
Antwort von Frank Glencairn:
iasi hat geschrieben:
Adams hat das Bild bewußt und unter Anwendung aller verfügbaren Techniken hergestellt.
Ja, nach Belichtungsmesser so belichtet das nix ausbrennt - das ist aber auch schon alles.
Mehr hatte er nicht zur Verfügung - der Rest war dann Laborarbeit.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Adams hat das Bild bewußt und unter Anwendung aller verfügbaren Techniken hergestellt.
Ja, nach Belichtungsmesser so belichtet das nix ausbrennt - das ist aber auch schon alles.
Mehr hatte er nicht zur Verfügung - der Rest war dann Laborarbeit.
Nein.
Er hat den DR des Negativs an den Motivkontrast angepasst - mit der Entwicklung.
Er hat zudem die Bildbereiche in Zonen eingeteilt und beim Erstellen eines Abzugs per Abwedeln und Nachbelichten diese dann auch angepasst.
Schon bei der Belichtung musste er also die "Laborarbeiten" berücksichtigen.
zum Bild
https://cdn.fstoppers.com/styles/full/s ... -zones.jpg
Da haben wir es heute schon einfacher.
Wenn der Motivkontrast den nutzbaren DR des Sensors nicht übersteigt, können wir mit ETTR Ausgangsmaterial erhalten, das in der Post vergleichsweise einfach an die gewünschten "Zonen" angepasst werden kann.
Andererseits können wir das DR-Limit des Sensors nur schwer erweitern, wenn der Motivkontrast sehr hoch ist.
Die Fohlen im Schnee bei meinem Beispielbild lassen sich nur mit Mühe und sicherlich auch nicht mehr perfekt in der Post aufhellen.
Ein weicher Roll-off in den Lichtern, wie ihn z.B. die Alexa bietet, wäre wohl auch keine Hilfe, denn die Strukturen im Schnee soll nicht verloren gehen. Der höhere DR der Alexa würde aber mehr Spielraum gerade bei den Fohlen bieten.
Antwort von Frank Glencairn:
iasi hat geschrieben:
[
Nein.
Er hat den DR des Negativs an den Motivkontrast angepasst - mit der Entwicklung.
Er hat zudem die Bildbereiche in Zonen eingeteilt und beim Erstellen eines Abzugs per Abwedeln und Nachbelichten diese dann auch angepasst.
Schon bei der Belichtung musste er also die "Laborarbeiten" berücksichtigen.
Er hat ein Negativ Material, dessen DR und Gradation er chemisch minimal verschieben kann, aber nicht signifikant erweitern - die Platten mit denen er seinerzeit gearbeitet hat, waren halt was anderes als moderner Tri-X Film, aus dem ich - mit entsprechender Chemie - schon mal 15-16 Blenden raus holen kann. Das Material damals hatte bestenfalls einen Kontrast von 0.6 und nen D-Max von 3.0 - wenn überhaupt.
Er hat ein Motiv mit festem DR von vielleicht 20-30 Blenden, die er da irgendwie unterbringen muß.
Spielraum hat er nur oben, weil wenn was ausbrennt ist keine Zeichnung mehr im Schnee. Nachdem es von ihm keine Bilder mit Schnee ohne Zeichnung gibt, ist klar das er ETTR gearbeitet hat. Lichter gerade noch Zeichnung, möglichst viel Informationen in den Schatten.
Also Blende 22, Gelb oder Rot Filter für den Himmel und die Dramatik drauf, Belichtungszeit so zwischen 4 und 6 Sekunden.
Viel Spielraum gibt es da bei solchen Aufnahmen sowieso nicht.
Das Negativ dann mit nem Low Contrast Entwickler (POTA) extrem weich entwickeln, und dann beim Print entsprechend harte Chemie und hartes Papier für den Kontrast. Zusätzlich noch irgendwelche Details wedeln.
Das kleine 1x1 der S/W Fotografie halt.
Und das war selbst Ende der 30er Jahre kein Geheimnis von Adams, sondern stand schon lange vorher alles in allen möglichen Lehrbüchern zu dem Thema - ich hab selbst ein paar davon rum stehen. Da gibt's Lange Tabellen in denen das alles genau aufgeführt ist. Blende, Belichtungszeiten, Chemie, Temperaturen etc.
Dieses "im Kopf Visionisieren" des Bildes, von dem er immer gesprochen hat, ist eigentlich nix anders, als jemand der auf einen Monitor mit LOG Signal schaut, und aus Erfahrung weiß, wie das Bild in der Post aussehen wird, und wo er es in im Colorgrading noch hinbiegen kann. Und durch das extrem weiche Entwickeln bekommst du quasi ein "LOG Negativ". Die harte Chemie und die Papier-Gradation sind dann dein CST.
Dieses ganze Zonen Voodoo - was nix anderes als old school False Color ist - nutzt dir (wie auch FC) überhaupt nix, wenn du keine Möglichkeit hast das Motiv so zu leuchten, daß es in den DR deines Aufnahmemediums passt (was bei Bergen jetzt eher schwierig ist).
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
[
Nein.
Er hat den DR des Negativs an den Motivkontrast angepasst - mit der Entwicklung.
Er hat zudem die Bildbereiche in Zonen eingeteilt und beim Erstellen eines Abzugs per Abwedeln und Nachbelichten diese dann auch angepasst.
Schon bei der Belichtung musste er also die "Laborarbeiten" berücksichtigen.
Er hat ein Negativ Material, dessen DR und Gradation er chemisch minimal verschieben kann, aber nicht signifikant erweitern - die Platten mit denen er seinerzeit gearbeitet hat, waren halt was anderes als moderner Tri-X Film, aus dem ich - mit entsprechender Chemie - schon mal 15-16 Blenden raus holen kann. Das Material damals hatte bestenfalls einen Kontrast von 0.6 und nen D-Max von 3.0 - wenn überhaupt.
Er hat ein Motiv mit festem DR von vielleicht 20-30 Blenden, die er da irgendwie unterbringen muß.
Spielraum hat er nur oben, weil wenn was ausbrennt ist keine Zeichnung mehr im Schnee. Nachdem es von ihm keine Bilder mit Schnee ohne Zeichnung gibt, ist klar das er ETTR gearbeitet hat. Lichter gerade noch Zeichnung, möglichst viel Informationen in den Schatten.
Also Blende 22, Gelb oder Rot Filter für den Himmel und die Dramatik drauf, Belichtungszeit so zwischen 4 und 6 Sekunden.
Viel Spielraum gibt es da bei solchen Aufnahmen sowieso nicht.
Das Negativ dann mit nem Low Contrast Entwickler (POTA) extrem weich entwickeln, und dann beim Print entsprechend harte Chemie und hartes Papier für den Kontrast. Zusätzlich noch irgendwelche Details wedeln.
Das kleine 1x1 der S/W Fotografie halt.
Und das war selbst Ende der 30er Jahre kein Geheimnis von Adams, sondern stand schon lange vorher alles in allen möglichen Lehrbüchern zu dem Thema - ich hab selbst ein paar davon rum stehen. Da gibt's Lange Tabellen in denen das alles genau aufgeführt ist. Blende, Belichtungszeiten, Chemie, Temperaturen etc.
Dieses "im Kopf Visionisieren" des Bildes, von dem er immer gesprochen hat, ist eigentlich nix anders, als jemand der auf einen Monitor mit LOG Signal schaut, und aus Erfahrung weiß, wie das Bild in der Post aussehen wird, und wo er es in im Colorgrading noch hinbiegen kann. Und durch das extrem weiche Entwickeln bekommst du quasi ein "LOG Negativ". Die harte Chemie und die Papier-Gradation sind dann dein CST.
Dieses ganze Zonen Voodoo - was nix anderes als old school False Color ist - nutzt dir (wie auch FC) überhaupt nix, wenn du keine Möglichkeit hast das Motiv so zu leuchten, daß es in den DR deines Aufnahmemediums passt (was bei Bergen jetzt eher schwierig ist).
Wie auch beim Grading konnte man beim Zonensystem Bildteile den gewünschten Zonen zuordnen und in der Helligkeit anpassen.
Wenn ein heller Bildbereich es nötig macht, ein Gesicht um 1 oder 2 Blendenstufen unterzubelichten, ist dies kein Problem, denn in der Post lässt sich dies wieder anheben. Dazu muss ich dann nicht die doppelte oder vierfache Lichtmenge auffahren und vielleicht andere Bildteile "erschlagen".
Das ändert zwar nichts an der Lichtqualität, aber ich habe die Kontrolle über das Ergebnis und kann "nachbelichten". Wobei selbst die Gestaltung der Lichtqualität heute per Relight sogar schon möglich ist.
Das Leuchten des Motivs ist heute nur noch ein Teil der "Lichtgestaltung" - jeder Bildbereich lässt sich in der Post noch weiter gestalten.
Vor allem aber kann man in der Post heute weit präziser gestalten, als es am Set möglich ist. Und dabei geht es nicht um eine entweder-oder, sondern um die Kombination von Leuchten am Set und Gestaltung in der Post.
Diese Kombination macht den "Hollywood-Look" aus.
Dabei ist es wichtig, schon bei der Aufnahmen die Kombination mitzudenken.
Und dies machte man eben beim Zonensystem auch schon.
Leone wollte helle große Augen - vor allem die blauen Augen von Fonda. Dazu musste er die Darsteller extrem dunkel schminken. Heute kann man die Augen in der Post aufhellen.
 |
Antwort von Frank Glencairn:
iasi hat geschrieben:
Wie auch beim Grading konnte man beim Zonensystem Bildteile den gewünschten Zonen zuordnen und in der Helligkeit anpassen.
Und wozu brauch ich dann die Zonen?
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Wie auch beim Grading konnte man beim Zonensystem Bildteile den gewünschten Zonen zuordnen und in der Helligkeit anpassen.
Und wozu brauch ich dann die Zonen?
Die Zonen definieren das Ergebnis, zu dem ich kommen möchte.
Kein LUT kann dir auf dem Vorschaubild einen Bereich im Bild anheben und einen anderen zurücknehmen.
Hier nochmal das recht plakative Beispiel:
https://youtu.be/xDqgg2aXxsc?t=565
Das ist eine korrekt belichtete Tageslichtaufnahme, die in der Post zu einer Nachtaufnahme gestaltet wird.
Die Lampen am Haus schon bei der Aufnahme anzuschalten, erfordert dann das Vorausdenken. :)
Antwort von Frank Glencairn:
iasi hat geschrieben:
Die Zonen definieren das Ergebnis, zu dem ich kommen möchte.
Kein LUT kann dir auf dem Vorschaubild einen Bereich im Bild anheben und einen anderen zurücknehmen.
Das kann das Zonensystem auch nicht.
Nach dem was du hier aber immer so alles schreibst, bin ich ziemlich sicher, daß du nicht nur das Zonensystem nicht mal im Ansatz verstanden hast, sondern auch keinerlei Ausbildung/Erfahrung im Entwickeln und Printen.
Du kannst verschiedene Bildbereiche nicht beliebigen Zonen zuweisen.
Wenn du z.B. ne verwitterte Baumrinde nach Messung mit nem Spotmeter von Zone 2 nach 3 schiebst, änderst du ja nicht nur die Belichtung der Baumrinde, sondern auch alles andere im Bild wird ne Blende heller.
Dann brennen deine Highlights aus und du machst wieder ne Blende zu, was zur Folge hat, daß deine Baumrinde wieder da ist wo sie vorher war - in Zone 2 - und alle Details wieder im Schwarz absaufen.
Ohne Lichtsetzten drehst du dich da nur im Kreis, und mit Lichtsetzen brauch ich keine Zonen, da seh ich ja was ich bekomme (notfalls mit Spotmeter, wenn ich meinen Augen nicht traue).
Im Prinzip ist das Zone System nix anderes als chemisches Tone-Mapping - shoot for the shadows, develop for the highlights - wie wir früher sagten (bei Diafilm natürlich umgekehrt). Also 20% kürzer Entwickeln (N-2 Entwicklung ) um das was jetzt in Zone 9 liegt und ausbrennt zurück in Zone 7 zu holen, und damit noch ein bisschen Zeichnung zu bewahren. Bei einer Low Contrast Szene kannst du das genau umgekehrt machen (N+2 Entwicklung). Funktioniert im Prinzip wie die Tone-Mapping Schieberegler.
Das ganze geht natürlich nur mit Platten, nicht mit Rollfilm (und natürlich nur wenn man selbst entwickelt).
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Die Zonen definieren das Ergebnis, zu dem ich kommen möchte.
Kein LUT kann dir auf dem Vorschaubild einen Bereich im Bild anheben und einen anderen zurücknehmen.
Das kann das Zonensystem auch nicht.
Nach dem was du hier aber immer so alles schreibst, bin ich ziemlich sicher, daß du nicht nur das Zonensystem nicht mal im Ansatz verstanden hast, sondern auch keinerlei Ausbildung/Erfahrung im Entwickeln und Printen.
So spricht jemand, der das Negativ beim Discounter abgibt und sich Abzüge maschinell erstellen lässt.
Dazu passt ja auch der LUT auf dem Vorschaumonitor.
Du bist wohl noch nie in einer Dunkelkammer gestanden und hast mal selbst einen Abzug von einem Negativ erstellt.
Was denkst du wohl, was geschieht, wenn man Bildbereiche abwedelt oder nachbelichtet?
Ansel Adams hatte nicht mit Diafilm gearbeitet, denn damit ist das Zonenssystem nur beschränkt anwendbar.
Das zeigt ja auch deine wiederholten Erzählungen von dem Bild, das am Set entsteht und dem Vorschaumonitor, der das Endergebnis anzeigt.
Oh ja - ganz einfach ETTR und Lichter schützen. Und hauptsache alles richtig ausgeleuchtet. LUT drauf und fertig.
Immerhin hast du selbst schon bemerkt, dass das Ausleuchten am Berg dann endet. :)
Und nun nehmen wir mal dein Baumrindenbeispiel und wenden es auf Digitalkameras an:
Wir belichten also nach ETTR.
Die Baumrinde rutscht von Zone 2 nach 3. Das gesamte Bild wird zu reichlich belichtet.
Nun senke ich nicht einfach das ganze Bild wieder ab, sondern belasse die Baumrinde dort, wo ich sie gerne habe. Der Rest vom Bild nimmt durch die Überbelichtung keinen Schaden, denn mit ETTR clippt auch nichts.
Da ist dann aber ein Bach, den ich stärker hervorheben möchte. Also widme ich mich ihm. Nichts clippt und nichts wird vom Rauschen überdeckt, daher hab ich freie Bahn.
Der Wald soll alles nur einrahmen und nicht zu sehr ablenken, also nehme ich ihn zurück.
...
Letztlich hatte A.A. auch nicht anders gearbeitet. Nur war es mühsamer, dies in der Dunkelkammer umzusetzen.
Das ist ja das Tolle am modernen Grading:
Es eröffnet die Möglichkeiten, die früher nur die Fotografen hatten.
Jeder Bereich im Bild kann gestaltet werden.
Wer nur irgendeinen Look übers Bild klatscht, verschenkt die Gestaltungsmöglichkeiten.
Antwort von roki100:
iasi hat geschrieben:
So spricht jemand, der das Negativ beim Discounter abgibt und sich Abzüge maschinell erstellen lässt.
Du nicht? Nachdem Du immer wieder SW Bilder postet, bilde ich mir ein, dass Du scheinbar noch negativ Labor im keller hast^^
Antwort von pillepalle:
Was hat bitte Adams mit Grading zu tun? Das eine völlig andere Baustelle. Es kann Sinn machen mit Schwarzweiß-Material nach dem Zonensystem zu arbeiten, muss man aber nicht. Früher ging das übrigens mit den silberreichen dickschichtigen Filmen deutlich besser, als mit den modernen dünnschichtigen von heute.
Aber es ist wirklich müßig darüber zu diskutieren, weil das ein System für einzeln belichtette SW-Negative war (in der Regel blattweise Planfilme). Das funktioniert mit Filmrollen (MF und KB) bereits nicht mehr so gut, wenn man verschiedene Motive auf einer Filmrolle hat, denn dann müßte man ihn vor dem Entwickeln zerschneiden und die verschiedenen Motive unterschiedlich entwickeln. Oder mehrere Kameras/Magazine dabei haben (für unterschiedliche Entwicklungen). Es macht wirklich keinen Sinn das System auf Digitalkameras übertragen zu wollen.
iasi hat geschrieben:
Immerhin hast du selbst schon bemerkt, dass das Ausleuchten am Berg dann endet. :)
Man läßt den Berg ausleuchten, indem man auf das richtige Licht wartet ;) Das kann man auch vorher planen und so arbeiten Profis auch. Die gehen nicht irgendwann, z.B. in der prallen Mittagssonne, dahin und biegen sich das Bild dann in der Post zurecht. Die warten auf den richtigen Moment. Und das hat Adams übrigens auch schon so gemacht. Der hatte nur ein paar Blatt Film dabei und musste sich gut überlegen, wann er eins davon belichtet.
Und wenn man nicht gerade das große Tableau fotografiert/filmt kann man sehr wohl auch draußen das Licht beeinflussen, oder Objekte beleuchten. Es gibt Diffusoren, Reflektoren, Akku-oder Strom-Generatoren... man ist der Natur nicht hilflos ausgeliefert. So gestaltet man ein Bild.
VG
Antwort von klusterdegenerierung:
iasi hat geschrieben:
Jeder Bereich im Bild kann gestaltet werden.
Wer nur irgendeinen Look übers Bild klatscht, verschenkt die Gestaltungsmöglichkeiten.
Hmhm, jaja, und was spricht dagegen das gleiche Heute in Resolve zu machen?
Wenn AA den Berg von 2 nach 3 verschoben hat, hat er das "nur" mit dem Berg gemacht, da mit der Rest nicht auch eins weiter rutscht.
Was spricht denn dagegen dies Heute auch zu tun?
Er hat ein Negativ so belichtet, das er alle Zonen max nutzen kann, nix anderes ist ETTR und wenn er dann hinterher im Abzug seinen Abwedelwudu betreibt, legt Frank seine Windows an.
Wobei Frank noch weniger Probleme hätte dies alles in den Griff zu kriegen, weil er in RAW filmt, da geht noch viel mehr.
Ich habe früher jahrelang in Dunkelkammer gestanden und Tri-x Pan TMax und sonst was entwickelt, da konnte man froh sein wenn da überhaubt ein Grauwert dabei war, da mußte man schon den 50er Ilford nehmen, geht nur leider Schlecht auf einer mager beleuchteten Theaterbühne und wenn Du mir nun sagen willst den hätte man ja können, klar hätte man, aber Du weißt ja selber was bei einer Iso Verschiebung passiert, man verschiebt die Dynamik und am Ende hättest Du auch mit dem Ilford auch ein hartes Bild gehabt!
Ist ja nicht so als hätte ich die letzten 30 Jahre auf einem Baum geschlafen oder Autos gewaschen. ;-)
Antwort von Frank Glencairn:
iasi hat geschrieben:
So spricht jemand, der das Negativ beim Discounter abgibt und sich Abzüge maschinell erstellen lässt.
Du bist wohl noch nie in einer Dunkelkammer gestanden und hast mal selbst einen Abzug von einem Negativ erstellt.
Nun, im Vergleich zu dir hab ich nicht nur Photographie studiert und ne ganze Weile in einem Labor speziell für High-End Werbefotografie gearbeitet wo alles super aufwändig per Hand nachgefummelt wurde, sondern ich entwickle/printe auch mein S/W Material seit 40 Jahren.
Ich hab in dem Bereich also nicht nur ne akademische Ausbildung sondern auch die entsprechende Erfahrung.
Ich glaub also nicht, daß du mir irgendwas über über Laborarbeiten erzählen mußt.
Antwort von iasi:
pillepalle hat geschrieben:
Was hat bitte Adams mit Grading zu tun? Das eine völlig andere Baustelle. Es kann Sinn machen mit Schwarzweiß-Material nach dem Zonensystem zu arbeiten, muss man aber nicht. Früher ging das übrigens mit den silberreichen dickschichtigen Filmen deutlich besser, als mit den modernen dünnschichtigen von heute.
Aber es ist wirklich müßig darüber zu diskutieren, weil das ein System für einzeln belichtette SW-Negative war (in der Regel blattweise Planfilme). Das funktioniert mit Filmrollen (MF und KB) bereits nicht mehr so gut, wenn man verschiedene Motive auf einer Filmrolle hat, denn dann müßte man ihn vor dem Entwickeln zerschneiden und die verschiedenen Motive unterschiedlich entwickeln. Oder mehrere Kameras/Magazine dabei haben (für unterschiedliche Entwicklungen). Es macht wirklich keinen Sinn das System auf Digitalkameras übertragen zu wollen.
Das digitale Grading überträgt die Möglichkeit aus dem SW-Negativzeitalter auf die Filmwelt.
Das ist ja gerade der große Sprung.
Wo früher Bildbereiche abgewedelt wurden, da setzt man heute ein Fenster und trackt es.
Es geht doch beim Grading nicht darum, das ganze Bild in einen Farbton zu tauchen oder eine Kurve anzulegen. Damit steckt man in der Zeit des Filmnegativs fest und lässt die heutigen Gestaltungsmöglichkeiten ungenutzt.
pillepalle hat geschrieben:
iasi hat geschrieben:
Immerhin hast du selbst schon bemerkt, dass das Ausleuchten am Berg dann endet. :)
Man läßt den Berg ausleuchten, indem man auf das richtige Licht wartet ;) Das kann man auch vorher planen und so arbeiten Profis auch. Die gehen nicht irgendwann, z.B. in der prallen Mittagssonne, dahin und biegen sich das Bild dann in der Post zurecht. Die warten auf den richtigen Moment. Und das hat Adams übrigens auch schon so gemacht. Der hatte nur ein paar Blatt Film dabei und musste sich gut überlegen, wann er eins davon belichtet.
Man sollte nicht Lichtqualität mit Helligkeit verwechseln.
Das ist ganz so, als würde man eine kurze Brennweite benutzen, weil man mehr draufkriegt.
pillepalle hat geschrieben:
Und wenn man nicht gerade das große Tableau fotografiert/filmt kann man sehr wohl auch draußen das Licht beeinflussen, oder Objekte beleuchten. Es gibt Diffusoren, Reflektoren, Akku-oder Strom-Generatoren... man ist der Natur nicht hilflos ausgeliefert. So gestaltet man ein Bild.
VG
Bei 1917 hatten sie auf Wolken gewartet. :)
Gestaltet wurde das Bild dann auch in der Post.
zum Bild
zum Bild
Aber auch wenn man Licht setzen kann, ist es nicht damit getan mit einigen Notes:
https://youtu.be/QoEkCvdjDz0?t=1995
"Every eyeball in that movie" hat er von Hand herausgearbeitet. ;)
Antwort von pillepalle:
iasi hat geschrieben:
Man sollte nicht Lichtqualität mit Helligkeit verwechseln.
Tue ich auch nicht. Weiß nicht ob Dir schon mal aufgefallen ist das die Lichtstimmung draußen total unterschiedlich sein kann, je nachdem wann man wo ist ;) Das ist der Schlüssel zu einer guten Landschaftsaufnahme, nicht das nachträgliche Gefummel in der Post. Aber das Du das nicht einsehen möchtest, ist mir mittlerweile auch schon klar. Du nutzt eben nicht alle gestalterischen Möglichkeiten 👻
VG
Antwort von roki100:
Der TO (ist er noch da? ;) ) hat jetzt sehr viel informationen. Er hat gelernt, dass das "PRO" von Profi zu Profi anders verstanden und auch umgesetzt wird ...Einiges ist abhängig vom Tageslicht, belichten geht auch mit der bloße Auge (wenn man sein Werkzeug Kamera gut kennt) , oder Zones-System, Zebras usw. war fast alles dabei. Nun muss er vll noch wissen, was ist highlight rolloff und ob man das während der aufnahme mit nem diffussion bzw. ProMist Filter realisieren kann, oder halt nachträglich zB in DaVinci mit glow und composite mode softlght usw ;) Nicht das es zu spät ist für TO und er hat sich einfach nur dehancer oder filmconvert oder presets looks luts geholt^^
Antwort von klusterdegenerierung:
roki100 hat geschrieben:
Der TO (ist er noch da? ;)
Der hatte bei diesem Kindergarten sofort die Schnauze voll, kein Wunder, hier im Forum geht es ja nie um das was der TO wissen will!
Antwort von roki100:
hoffentlich nicht spätestens danach, nachdem Du geschrieben hast, dass das Bild zu dunkel sei usw ^^
Ehrlich gesagt, finde ich es gut, dass man Wissen austauscht, es ist nicht schlimm, wenn einer falsch liegt oder ein anderer es besser kann und ihn davon überzeugen will, dass der Dritte falsch oder richtig liegt usw So kann man auch seine eigenen Schwächen oder Stärken hinterfragen, daraus lernen etc.
Antwort von MK:
Manchmal ist der TO auch einfach schwer von Begriff und wird zur beleidigten Leberwurst.
Antwort von roki100:
Ich finde, wenn man zB DaVinci-Werkzeuge sehr gut kennengelernt hat, kann man zB auch viel aus Photoshop-Tutorials lernen und das in DaVinci umsetzen. Photoshop und colograding da sind jede menge gute professionelle Tutorials dabei.
Antwort von Frank Glencairn:
Hier nochmal was zu ETTR und show LUTs
Antwort von roki100:
hmm, also wenn ich es richtig verstehe, simuliert er ETTR mit ISO (Linear und dann Gain usw.) in der Post, um zu zeigen, dass dies nicht notwendig ist? Aber das ist mM nicht dasselbe wie ETTR während der Aufnahme. Würde er ETTR während der Aufnahme mit ISO machen, würde man im Schattenbereich noise sehen statt wie in seinem Beispiel, gedreht wahrscheinlich mit native ISO und nachträglich das simulieren,dann ist das doch etwas anderes..... Während der aufnahme mache ich ETTR nie mit ISO, sondern zB. Tageslicht draußen mit VariND.
Und man opfert eigentlich kein DR, wenn es nicht clippt, sondern man gewinnt mehr saubere details im Schattenbereich. Oder habe ich alles falsch verstanden?
Also eigentlich ist mehr nach rechts belichten, immer besser. Zumindest mit Fairchild habe ich dann ein sauberes Bild und mit ISO1600 (statt nativ 800) auch mehr DR.
Antwort von Frank Glencairn:
Da ging es eher drum, wie man eine Show LUT für die Kamera macht, die eine Blende dunkler ist, und das dann in der Post wieder normalisiert.
Antwort von iasi:
roki100 hat geschrieben:
hmm, also wenn ich es richtig verstehe, simuliert er ETTR mit ISO (Linear und dann Gain usw.) in der Post, um zu zeigen, dass dies nicht notwendig ist? Aber das ist mM nicht dasselbe wie ETTR während der Aufnahme. Würde er ETTR während der Aufnahme mit ISO machen, würde man im Schattenbereich noise sehen statt wie in seinem Beispiel, gedreht wahrscheinlich mit native ISO und nachträglich das simulieren,dann ist das doch etwas anderes..... Während der aufnahme mache ich ETTR nie mit ISO, sondern zB. Tageslicht draußen mit VariND.
Und man opfert eigentlich kein DR, wenn es nicht clippt, sondern man gewinnt mehr saubere details im Schattenbereich. Oder habe ich alles falsch verstanden?
Also eigentlich ist mehr nach rechts belichten, immer besser. Zumindest mit Fairchild habe ich dann ein sauberes Bild und mit ISO1600 (statt nativ 800) auch mehr DR.
Im letzten Satz widersprichst du dir doch selbst.
ISO-Einstellungen werden erst dann relevant, wenn du eine Dual-ISO-Kamera mit 2 nativen ISO-Werten hast, von denen du nach Bedarf eine wählen kannst.
Oder aber wenn deine Kamera sehr harsch in den Lichtern clippt und du diese dadurch schützt, indem du um 1/2 oder 1 Blende knapper belichtest - so nach dem Motto: Sicher ist sicher. Dadurch verschenkst du jedoch auch diese Blende beim DR.
All die Belichtungsanzeigen sollten sich auf das native ISO, also Raw beziehen.
Ansonsten gilt: So viel Licht, wie möglich auf den Sensor, aber nicht zu viel.
Selbst wenn´s ein Low-Key-Ergebnis werden soll.
Für den Sensor gibt´s keine dunklen Bildbereiche, sondern nur Bereiche wo das Rauschen darauf lauert, das Signal zu überdecken. :)
Und oben ist dann der Bereich, wo das Signal die maximale Stärke erreicht hat und nicht mehr variiert.
Ein Signal je Sensel.
Übrigens: In der Nacht in der Stadt mit all den warmen Lichtern kommen die Sensel dann zuerst zu kurz, die hinter einem blauen Filter sitzen. Die hinter den roten Filtern drohen hingegen zu viel zu bekommen.
Das Auge bzw. das Gehirn "sieht" auch bei Kerzenlicht ein weißes Blatt Papier noch weiß, der Sensor bzw. die Software tut sich da schon erheblich schwerer.
Antwort von Bruno Peter:
roki100 hat geschrieben:
Also eigentlich ist mehr nach rechts belichten, immer besser. Zumindest mit Fairchild habe ich dann ein sauberes Bild und mit ISO1600 (statt nativ 800) auch mehr DR.
Wenn ich in S-Log aufnehmen, dann ebenfalls mit einer Rechtsverschiebung.
Bei sonnigen Tagen stelle ich die Belichtungskorrektur auf +1 ein.
Bei HDR(HLG3) Aufnahmen stelle ich die Belichtungskorrektur auf "0" ein.
Antwort von roki100:
iasi hat geschrieben:
Im letzten Satz widersprichst du dir doch selbst.
Nein :) ISO 1600 nicht um damit ETTR zu belichten.
Antwort von iasi:
"Bruno Peter" hat geschrieben:
roki100 hat geschrieben:
Also eigentlich ist mehr nach rechts belichten, immer besser. Zumindest mit Fairchild habe ich dann ein sauberes Bild und mit ISO1600 (statt nativ 800) auch mehr DR.
Wenn ich in S-Log aufnehmen, dann ebenfalls mit einer Rechtsverschiebung.
Bei sonnigen Tagen stelle ich die Belichtungskorrektur auf +1 ein.
Bei HDR(HLG3) Aufnahmen stelle ich die Belichtungskorrektur auf "0" ein.
Wenn roki100 mit ISO1600 statt den nativen 800 belichtet, dann belichtet er 1 Blendenstufe knapper.
Antwort von roki100:
iasi, Du verstehst es nicht...ISO1600 bei Fairchild (OG BMPCC), weil bisschen mehr DR ;) Es gibt irgendwo im Netz einen der den DR der OG BMPCC professionell misst, und das wird da auch bestätigt.
ich benutze ISO nie für ETTR.
Und mit S5, siehe zB hier: viewtopic.php?p=1183195#p1183195
Antwort von dienstag_01:
Normalerweise wird ISO nicht zum Pushen nach ETTR benutzt. Warum, weil man Dynamic verliert.
Allerdings gilt das nicht mehr für iso-invariante Sensoren, was eigentlich alle modernen Sensoren sind. Hier wird die ISO-Anhebung erst auf das schon digital gewandelte Signal angewandt, der Dynamikumfang bleibt erhalten. Das ist dann allerdings genau so, als würde man das in der Post machen, und das bedeutet auch, dass man es genausogut in der Post machen kann und nicht in der Kamera. Bringt nicht mehr ;)
Antwort von Darth Schneider:
@roki
Dazu zählt auch die S5 Mark1, ich empfinde das mindestens so
.
Bis ISO 6400 (wahrscheinlich geht das auch noch viel höher) nur mit interner Aufnahme, sind zu viel Rauschen, sonst was störendes im Bild oder bei den Farben. Und auch Dual Native ISO, für mich überhaupt gar kein Thema mehr.
Man sollte sich einfach bei relativ „Low Light“,,(sprich ohne viel vorhandenes Licht, ganz ohne eigenes Licht zu setzen), besser gar nicht auf VLog setzen.
Da sind die anderen internen Panasonic Bildprofile, nämlich natürlich nur in 10 Bit, viel, viel effektiver.
Und es bleibt auch immer noch Spielraum zum etwas colorgraden…
Dann brauchst du gar kein RAW und auch gar kein Ninja 5.;)
Ich jedenfalls brauche gar kein externes Recording für die S5…
Gruss Boris
Antwort von iasi:
roki100 hat geschrieben:
iasi, Du verstehst es nicht...ISO1600 bei Fairchild (OG BMPCC), weil bisschen mehr DR ;) Es gibt irgendwo im Netz einen der den DR der OG BMPCC professionell misst, und das wird da auch bestätigt.
ich benutze ISO nie für ETTR.
Und mit S5, siehe zB hier: viewtopic.php?p=1183195#p1183195
Wenn du mit ISO1600 statt ISO800 belichtest, dann halbierst du die Lichtmenge, die den Sensor trifft.
Bei ISO800 hast du z.B. laut ETTR Blende 5.6
Bei ISO1600 sagt die dein Belichtungsmesser: Nimm Blende 8.
Dann aber machst du eine Unterbelichtung und verschenkst in den Lichtern 1 Blende.
Wobei das bei der OG BMPCC scheinbar etwas komplizierter ist: :)
Dass du mehr DR bei Belichtung nach ISO1600 erhältst, kann ich mir nicht vorstellen, denn dies ist unlogisch.
Antwort von Darth Schneider:
Bei der 4K Pocket zusammen mit BRAW ist es durchaus sinnvoll nur bei den nativen Iso Werten zu blieben…Das wird bei der 10 Jahre alten Original Pocket ganz bestimmt nicht anders sein.;)
MFT Sensor…System bedingt.…
Bei der GH6 geht das bestimmt auch höher, aber auch nicht viel.
Gruss Boris
Antwort von roki100:
iasi hat geschrieben:
Dass du mehr DR bei Belichtung nach ISO1600 erhältst, kann ich mir nicht vorstellen, denn dies ist unlogisch.
ISO1600 ergibt mehr Blendenstufen in den Lichtern, so wie auch bei ALEV/Arri Alexa:

Antwort von roki100:
"Darth Schneider" hat geschrieben:
Bei der 4K Pocket zusammen mit BRAW ist es durchaus sinnvoll nur bei den nativen Iso Werten zu blieben…Das wird bei der 10 Jahre alten Original Pocket ganz bestimmt nicht anders sein.;)
DualISO Sensor:

Antwort von roki100:
"Darth Schneider" hat geschrieben:
Dann brauchst du gar kein RAW und auch gar kein Ninja 5.;)
Doch, schon. ;)
Wie Du an diesen Beispiel (ganz unten, letzte Bild und den Text drüber bitte beachten) sehen kannst, kannst Du bis EV +3 belichten (und nochmal extra für dich: NICHT über die native ISOs höher belichten):
RAW bedeutet also auch, bisschen mehr DR bzw auch mehr blendenstuffen in den Highlights, denn die Details in den Highlights sind bei EV +3 noch vorhanden und da ETTR logischerweise auch weniger Noise in Schattenbereich.
Bei intern VLOG eigentlich auch gut (bei EV +2) und zwar, wenn Du bei ersten native ISO640 bleibst. Das liegt aber tatsächlich an sehr gutes VLOG. Mit höhere ISO Wert (zweite native ISO 4000, geht auch 6400), hast Du weniger DR (so auch bei deiner P4K, P6K...und alle DualISO Sensoren).
Bei ProRes RAW passiert etwas in den Highlights - so wie es aussieht ist da HR dabei, wie zB. auch bei RED IPP2 (und höchstwahrscheinlich auch bei intern "HLG" - zumidnest scheint das bei Panasonic so zu sein, muss ich noch genauer testen). Das heißt, Du hast mindestens +1 blende in den Highlights mit RAW.
Antwort von Darth Schneider:
@roki
Das weiss ich doch auch,
ein Tick mehr DR mit ProRes RAW, als mit VLog, und dafür aber noch besseres Rauschverhalten In eher Low Light Szenarien, mit Cineleike D 2…
Ich habe das ja auch mit nem Ninja ausprobiert.
Das sieht man aber am Schluss so gut wie gar nicht, den ProRes RAW Vorteil, beziehungsweise nur mit pixelpeepen.
Ich persönlich aber finde gerade darum bei der S5 die Bildqualitäts Unterschiede zwischen ProRes RAW und V Log und auch den anderen Bildprofilen sind eigentlich absolut zu vernachlässigen.
Die internen Bildprofile gleichen den DR Nachteil wieder ganz locker mit besserem Rauschverhalten aus. Was man am Schluss auch ohne „fix it in Post“ deutlich sieht….
Was die 4K Pocket und ihr ISO verhalten und BRaw anbelangt, ich kenne die Kamera inzwischen in und auswendig….
Und meine persönlichen Erfahrungen damit sind, ich bleibe nur bei ISO 400 und 3200…
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
@roki
Das weiss ich doch auch ein Tick mehr DR mit ProRes RAW, ich habe das ja auch mit nem Ninja ausprobiert.
Ich persönlich aber dennoch finde gerade bei der S5 die Unterschiede zwischen ProRes RAW und V Log sind zu vernachlässigen.
Die internen Bildprofile gleichenden;DR Nachteil wieder aus..;)
Du musst das als ganzes sehen; RAW bedeutet also mehr DR und mehr Bit (und zB für S5 bedeutet das auch, 6K RAW bis 30p, 4.1K und 3.5K/anamorphic RAW 60P...kein RecLimit...ist aber eine andere Thema).
Was die 4K Pocket und ihr ISO verhalten und BRaw anbelangt, ich kenne die Kamera inzwischen in und auswendig….
Und meine persönlichen Erfahrungen damit sind, ich bleibe nur bei ISO 400 und 3200…
Ja, ist auch richtig so, hat keiner etwas anderes behauptet.
Antwort von Darth Schneider:
@roki
Klar weiss ich inzwischen was Raw im Fall der S5 bedeutet, das bedeutet eigentlich das Hobbyfilmer wie wir beide das sind , zu 99% gar nicht benötigen.
Bei der 4K Pocket jedoch sieht das ganz anders aus, ich denke diese Kamera ergibt mit BRaw erst überhaupt richtig Sinn…;)
Aber das ist natürlich nur meine ganz persönliche Meinung.
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
@roki
Klar weiss ich inzwischen was Raw im Fall der S5 bedeutet, das bedeutet eigentlich das Hobbyfilmer wie wir beide das sind zu 99% gar nicht benötigen…
Du nicht, andere vll. schon. So zB. HDR grading (also auch Looks verpassen), 10bit intern und ich hatte banding...Mit ProRes RAW alles sauber (nicht nur ohne banding, sondern auch mehr details in den highlights usw. ).
Antwort von Darth Schneider:
HDR geht mit der S5 (wenn man dann das brauchen sollte), iauch super auch mit VLog, CineLikeD 2 und manchen anderen internen Bildprofilen…
Probier es mal aus.;)
Ende meinerseits der Debatte diesbezüglich mit dir,
weil wir sind diesbezüglich ob Raw bei der S5 nötig ist oder nicht, einfach gar nicht ein und der selben Meinung..
Ich hoffe du kannst das so einfach mal ausnahmsweise mal im SlashCAM Raum stehen lassen, ohne mit zig Gegenargumenten zu kommen die ich ja auch schon längst kenne und,
ohne mich als möchte gern Professor zu bezeichnen..
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Probier es mal aus.;)
Habe ich, sonst würde ich dir davon nix schreiben (hab das auch sehr fair getan, freundlich und nett)... Ist aber soweiso alles nur deine Meinung und das andere nur meine Erfahrung....
HDR geht mit der S5 (wenn man dann das brauchen sollte), iauch super auch mit VLog
Habe ich auch nicht behauptet das das mit inten VLOG nicht super geht.
CineLikeD 2 und manchen anderen internen Bildprofilen…
Soweit ich weiß nur noch HLG. Das andere ist SDR Color Space (Rec709).
Ich weiß, dass nur wenige hier von HDR begeistert sind, ich finde es ehrlich gesagt gut, aber nur interessant, wenn man HDR auch wirklich sehen kann. Ich verwende gerne auch FilmConvert (FilmConvert und auch Dehancer konvertieren nach Rec709) und es gibt einen Trick (hier für FilmConvert) und zwar, wenn man unter Camera Profil, ganz normal die Kamera auswählt und "LOG" (zB VLOG) statt Rec709, dann den Schieberegler "Cineon to print Film" auf 0 setzt und noch exposure, temp, tint(die beiden regler sind danach "empfindlicher" als sonst) und "Levels" korrigiert... dann passt der ausgewählte Look, nur halt alles in HDR. Natürlich muss man vor FilmConvert Node noch weitere korrekturen unter HDR Color Wheels, WB usw. machen. Und sowieso Project Settings > Color Managment auf HDR umstellen usw.
FilmConvert empfiehlt noch ACES Transform (nach FilmConvert-Node, zwei weitere Nodes und dann innerhalb von ACES zu graden/korrigieren), aber ich habe da keine Vorteile gesehen (vll. ein bisschen in HDR Farben). Für mich reicht eigentlich die og Schritte...bin aber noch am forschen. :)
Am Ende zählt für mich nur das Ergebnis und das was ich sehe, sieht einfach clean aus, keine Artefakte nix, alles sauber.