Beitrag
von andieymi » Do 13 Jan, 2022 15:14
Alles Spekulation, aber eine gute Fragestellung.
Mich hat es neulich erstaunt, als ich die erste Staffel von House wieder mal gesehen hab. Das soll TV-Serie sein? TV der 90er und frühen 2000er war doch auch alles hell und bunt.
In Wirklichkeit, 1. Staffel House ist extrem moody. Harte Backlights, aber extrem viel Abfall in die Schatten - ja, so sieht halt Film aus, der nicht wie digitale Sensoren, die jedes bisschen Licht irgendwo noch aufsaugen, einfach abfällt. So sieht Film aus wenn man nicht weich leuchtet, sondern hart und auf Fill verzichtet. Das ist aber gar nicht so weit weg, von einem Look der heute modern ist, nur dass nicht mehr hart geleuchtet wird und Fill mehr als Blackfill eine Rolle spielt.
Ich stimme mit keinem genannten Grund 100% überein, aber ein paar interessante Teil-Gründe liefert Vox:
- Matrix war tatsächlich stilprägend für Kinofilme der Jahre danach bis heute. Auch wenn's das schon länger gab (Bladerunner, der Alte würde mich auf ein nicht ganz anderes Spektrum fallen), hat Matrix die heute so beliebte technisch-futuristische Dystopie (man schaue auf Streamingdienst XYZ) in diesem Stil quasi begründet.
- VFX spielen sicher eine Rolle
- Und das Gegensteuern zu Digitalbildern, von Kameras, die aus jedem noch so schwachen Lichtimpuls ein Signal generieren wollen wo Film einfach nicht reagiert hätte, ist glaub ich der größte Grund.
Hört man Hollywood-DPs ein wenig zu, beklagt jeder einzelne den ständig drohenden Kontrollverlust über die Vision eines Films. Niemand dort sitzt mit den Coloristen über die ganze Zeit der Color-Post, meist geht sich nicht mehr als das Senden von ein paar Referenz-Bildern aus. Geschweige denn gemeinsame Grading-Tage bis -Wochen. Und gleichzeitig lassen gut belichtete digitale Bilder jeden möglichen Look zu. Liefern DPs jetzt am besten noch ETR-Bilder an die Post, bedeutet das Kontrollverlust ohne Ende. Gleichzeitig sind viele Kameras so gut, dass ETTR heute nicht mehr wirklich notwendig ist um ein passables Resultat zu erzielen.
Egal welcher Cine-Podcast mit Größen der Branche das ist, jeder versucht den Look so gut es geht in camera zu bekommen, weil es dort passiert oder gar nicht in der Post. Und kaum jemand, kann ernsthaft aus dunkel hell machen. Wo umgekehrt kein Problem darstellt, ist grenzwertiges Belichten quasi die Norm, wenn kein Einfluss in der Postproduktion mehr vorhanden ist. Und in Hollywood wird mit dem immensen Möglichkeiten am Set nach wie vor alles Wichtige außer extreme Highlights und tiefste Schatten innerhalb von 6-7 Blenden geleuchtet. Das ist der Zuschauer gewohnt, das ist der kontrollierte Hollywood-Look - nämlich nicht das Ausnutzen von 14 Blenden um dann alles in möglichst viele Abstufungen zu graden. Da wird für alles wichtige versucht eine konstante 7 Blenden von Kamera - Ausgabemedium Dynamik versucht zu halten und selbst Spitzlichter sitzen im Idealfall nicht am obersten Ende der Dynamik.
Letztendlich ist es wohl auch ein Überkompensieren das von der digialen Anfangszeit übrig geblieben ist. Arri hat immer versucht digital nach Film aussehen zu lassen, mit weichem Highlight-Roll Off. Sony hat bis zur Venice eher ein naturalistisches Bild geboten, wie auch Red weitestgehend, auch die werden immer filmischer mit jeder Generation. Denkt man an Sony F65-Zeiten zurück, war der damals(!) schon von 8K downgesamplete Sensor so scharf, dass das quasi niemand das Bild schön fand wenn der Vergleich Alexa oder halt 35mm war. In dieser Phase ist ja auch hart Leuchten schon quasi verloren gegangen, weil die damalige Dynamik (ausnahme Alexa, bestes Beispiel F900) es kaum erlaubt hätte, blonden Personen überhaupt eine Spitze zu setzen, ohne dass die eine ausgefressen weiße Krone aufhaben (oder schwarz im Gesicht sind).
In der Zeit hat dann weich leuchten richtig angefangen und digitale Sensoren sind aber mit jeder Generation lichtempfindlicher geworden, was die nächsten Probleme bringt: Auf einmal ist das Umgebungslichtlevel am Tag quasi überall so hoch, dass sich Fill fast erledigt hat und wenn der Gesichtskontrast bei den üblichen 3-1,5 Blenden liegen soll, eher Blackfill angesagt ist, wenn nicht alles nach Sitcom aussehen soll.
Und irgendwo auf diesem Weg weg von hart leuchten zu weich und dafür Blackfill überall ist dann vielleicht in Summe etwas zu viel davon übrig geblieben. Weil heutige Kameras tatsächlich mit hartem Licht wieder klarkommen und tatsächlich wohl mittlerweile mehr Dynamik bieten als Film - v.a. wenn man nicht nur auf die Highlights sondern auf Nutzbare Dynamik im den Schatten schaut, da hat sich im Vergleich zu Film schon extrem viel getan.
Nicht zu vergessen, auch Monitore sind immer heller und dynamischer geworden. SDR-R709 hat ein definiertes Peak Luma von 100Nit. Kino gar nur 48. Setzt Du da die Skintones auf die unteren Mitten, sieht am hellichten Tag vor der Glotze niemand mehr auch nur ein Gesicht. In der kontrollierten Post-Umgebung, reichen die 100 Nit aber leicht aus und das Bild wirkt weder dunkel noch matt. Hat dein TV jetzt aber 1000 Nit, wieso sollte man die Skintones einer düsteren Szene auf die Daylight Exterior-ähnlichen höheren Midtones legen, wenn das auch naturalistisch keinen Sinn macht. Und der TV auf einmal selbst für die Schatten so viele Abstufungen hat wie in SDR für die gesamte Range. Nicht vergessen, der wenigste szenische Content wird für volles HDR produziert oder soll nach HDR-aussehen. Die 6-7 Blenden gelten immer noch, jetzt in größeren Bandbreiten bei der Wiedergabe.
Aber bis zum Grading spielt HDR tatsächlich selbst am höchsten Level glaub ich absolut keine Rolle. HDR-Monitoring am Set gibt es quasi nicht, Arri sagt "Wir waren immer schon HDR-fähig" (was mit LogC und 14 Blenden auch stimmt) und weder TV noch Kino (oder Heimkino dergleichen) haben für die Wiedergabe besondere Ansprüche an HDR gestellt, bis die Streamer das jetzt tun.
Spannendes Thema jedenfalls.