Logo
///  >

Grundlagen : Was ist ETTR und wann macht es Sinn?

von Di, 17.Dezember 2019 | 4 Seiten (Artikel auf einer Seite)


Ist ETTR nicht einfach Zebra-Belichtung?
Mehr Dynamik = größerer Entscheidungsspielraum
RAW und Log
ETTR - den Belichtungsspielraum voll ausreizen
Heller = weniger Rauschen = höhere Qualität



ETTR steht als Abkürzung für "Exposure To The Right". Gemeint ist damit, ein Motiv immer so zu belichten, dass sich seine Tonwerte möglichst weit rechts im Histogramm ansammeln. Einfach gesprochen soll man bei ETTR also immer soweit überbelichten, bis die hellsten Pixel im Bild kurz vor der Clipping Grenze stehen.





Ist ETTR nicht einfach Zebra-Belichtung?



Das klingt erst einmal ganz und gar nicht neu, sondern erinnert doch sehr stark das Konzept der Zebra-Belichtung, das man schon seit den Camcordern in der 90er Jahren kennt. Doch beim "Zebra" ging es ursprünglich um etwas anderes. Zu der Zeit als das Zebra-Muster als Belichtungskontrolle eingeführt wurde, hatten die CCDs der Videokameras für Videoaufnahmen einen typischen Dynamikumfang von ca. 6 Blendenstufen. Daher gab es faktisch überhaupt keinen Belichtungsspielraum beim Motiv. Schon wenn ein Motiv einigermaßen gut abgebildet wurde, rissen regelmäßig die Lichter aus, weil der Sensor so schnell clippte. Man wählte über das Zebrapattern letztlich nur, wie viel Clipping man in der Aufnahme haben wollte. So wurde (bis auf wenige Ausnahmen) praktisch jede Belichtung durch das frühe Clipping quasi von oben festgelegt.

Heutige Kameras bieten dank der großen Sensel und fortgeschrittener Sensortechnik dagegen typischerweise 10-14 Blendenstufen. Sie erlauben damit bei vielen Motiven einen Belichtungsspielraum von mehreren Blendenstufen, innerhalb derer der Kameramann über seine Belichtung frei entscheiden kann. Dies ist möglich, weil für die Betrachtung an einem SDR-Sichtgerät (wie der Monitor oder Fernseher, typischerweise mit REC.709 bzw. sRGB) das Motiv nachträglich auf ca. 7 Blendenstufen zusammengefasst werden muss. Wer also nicht HDR produziert, muss sich immer entscheiden wie er sein Motiv letztlich in den 7 Blendenstufen abbilden will.



Mehr Dynamik = größerer Entscheidungsspielraum



Je größer die Dynamik des Sensors, desto größer ist damit auch der Entscheidungsspielraum des Kameramanns. Das relevante ist nun, dass man diese Entscheidung nicht unbedingt bei der Aufnahme fällen muss. So kann man die Blendenstufen entweder in der Nachbearbeitung (Postproduktion) zusammenstauchen oder schon in der Kamera. Letzteres passiert notgedrungen und mehr oder weniger automatisch, wenn man in einem (Standard)profil in einen 8 Bit Codec aufzeichnet.

Bildprofile sind in erster Linie dazu da, die hohe Sensordynamik nach typischen Sehgewohnheiten auf eine geringere Dynamik zusammenzufassen. Darum gibt es meist auch spezielle Profile (beispielsweise für Landschaft, Nachtaufnahmen, Portrait oder Feuerwerk) bei denen die Sensordynamik anders verteilt wird als im Standardprofil.



RAW und Log



Als Gegenkonzept gibt es die RAW-Aufzeichnung. Diese erlaubt es faktisch die gesamte Sensordynamik aufzuzeichnen und erst in der Postproduktion das Bild zu entwickeln, also in der Nachbearbeitung auf eine geringere Dynamik wie Rec709 oder sRGB abzubilden.

In der Mitte steht noch die Log-Aufzeichnung. Hier wird die Sensordynamik über eine logarithmische Kurve leicht zusammengefasst aufgezeichnet und vor der "Entwicklung" wieder entstaucht, was in Praxis meist nahe die Möglichkeiten von RAW heranreicht. Allerdings nur, wenn die Log-Aufzeichnung auch genügend Tonwertabstufungen bereit hält.

Wird Log in 8 Bit aufgezeichnet, so können nur sehr wenig Tonwertabstufungen pro Blendenstufe aufgezeichnet werden, was in sichtbaren Farbtreppen (Posterisation) resultieren kann. Zur Erinnerung: In 8 Bit kann man maximal 256 Helligkeitswerte speichern, was bei 14 Blendenstufen nur ca. 19 Helligkeitswerten pro Blendenstufe entspricht. Bei 10 Bit Aufzeichnung stehen dagegen schon über 70 Helligkeitswerte pro Blendenstufe zur Verfügung.

Wer also in einen 8 Bit Codec (oder ein 8 Bit-JPEG) abspeichert, tut gut daran, die Verteilung der Sensordaten schon vor der Speicherung in der Kamera berechnen zu lassen. Was nicht prinzipiell schlecht aussehen muss. Denn um die Dynamik einer SDR-Anzeige (Monitor/Fernseher ohne HDR) zu "füttern" reichen die 8 Bit ja prinzipiell gut aus.

Wer jedoch mit den Profilen in der Kamera nicht zufrieden ist oder tiefer in die Entwicklung (also Zusammenfassung der Sensordaten) eingreifen möchte, kann dies auch nachträglich tun, solange man in 10 Bit Log oder RAW aufgezeichnet hat. Denn mit diesen Formaten hält man sich einen großen Entwicklungsspielraum für die Nachbearbeitung offen.



ETTR - den Belichtungsspielraum voll ausreizen



Und hier schließt sich endlich der Kreis zu ETTR. Denn wenn man seine Entwicklung vom Kameraprofil in die Postproduktion verlegt, sollte man sich natürlich fragen, wie man den Sensor ab besten belichten sollte, um nachher noch den größtmöglichen Spielraum zu haben.

Natürlich kann man den Sensor einfach weiterhin wie in 8 Bit mit einem Bildprofil "korrekt" belichten. Durch Log/RAW hat man bereits in diesem Fall noch größere Korrekturmöglichkeiten. Die größte Qualität erzielt man jedoch, wenn man den Sensor so knapp wie möglich unterm Clipping überbelichtet (oder vielleicht sogar ein paar clippende Highlights in Kauf nimmt).

Der Grund hierfür liegt in der Art, wie ein Sensor Helligkeit aufnimmt - nämlich linear. Das Auge dagegen nimmt Helligkeit logarithmisch war. So kann ein Auge klar einen Unterschied zwischen keiner und einer Kerze wahrnehmen. Und auch den Unterschied zwischen 2 und 4 Kerzen, sowie einen Unterschied zwischen 64 und 128 Kerzen wird man deutlich erkennen, weil man diese Unterschiede als ziemlich genau doppelt so hell wahrnimmt. Diese Beispiele entsprechen übrigens immer dem Helligkeits-Unterschied von einer Blendenstufe. Oder von einem zusätzlichen Bit. (Grundlagen hierzu gibt es unter anderem im Artikel Einfach Erklärt: Sensor-Dynamik, Blendenstufen und Bits - und Kerzen.)

Den Unterschied zwischen 127 und 128 Kerzen wird man dagegen kaum wahrnehmen. Und noch weniger den Unterschied zwischen 254 und 255 Kerzen. Ein Sensor-Pixel (übrigens eindeutiger als Sensel bezeichnet), sammelt und zählt Licht (also Photonen) wie Kerzen. Je mehr Lichteinheiten es aufsammelt, desto mehr negativ geladene Elektronen (e-) gibt es ab. Der Zusammenhang zwischen eintreffenden Photonen und abgegebenem Strom ist linear. Oder einfach gesagt: Ein Sensor zählt jede Kerze.

Um die Dynamik einer einzigen Blendenstufe aufzuzeichnen, braucht man nur 1 Bit. Es gibt nur hell oder dunkel. Um acht Blendenstufen linear aufzuzeichnen, benötigt man folglich 8 Bit, bzw ein Byte. Ein 12Bit Sensor kann in einer optimalen Situation 12 Blendenstufen messen. Und ein heute typischer 14 Bit Sensor folglich 14 lineare Blendenstufen.

Sieht man sich nun einen Sensor mit 14 Blendenstufen näher an, so kann dieser die meisten Werte in der hellsten Blendenstufe 14 aufnehmen. Exakter: Es findet sich die Hälfte aller möglichen Messwerte in der hellsten Blendenstufe 14. In der Blendenstufe 13 darunter liegt die Anzahl der möglichen Blendenwerte schon nur noch bei einem Viertel aller möglichen Werte. In der Blendenstufe 12 ist es nur noch ein Achtel (12,5%). Und in der Blendenstufe 11 liegen nur noch 6,25% aller Messwerte. Es klingt unglaublich, aber bei einem 14 Bit Sensor liegen somit 93,75% aller möglichen Messwerte in den Blendenstufen 11-14!



Heller = weniger Rauschen = höhere Qualität



Doch eine Blendenstufe ist nicht gleich Blendenstufe: Nicht nur, dass die niedrigeren Blendenstufen weitaus weniger Tonwertabstufungen haben - sie sind noch mit einem anderen Problem belastet: Wenn eine Blendenstufe nur wenige Abstufungen hat, sind diese viel anfälliger für Fehlmessungen, die wir mal salopp als Rauschen bezeichnen wollen. Denn je weniger Messwerte eine Blendenstufe aufweist, desto mehr fällt ein einzelnes falsch gemessenes Elektron auf.

Deswegen ist eine Blendenstufe im Sensor in der Regel sauberer, je höher sie in der Helligkeit liegt. Auch ohne diesen theoretischen Background dürfte es für die meisten Filmer nachvollziehbar sein, dass man in den dunklen Bereichen eines Motivs (also in den tieferen Blenstufen) meistens ein deutliches Rauschen wahrnehmen kann, welches man in den hellen Bildbereichen in der Regel nicht findet.

Und genau darum macht es Sinn sein Motiv möglichst in den qualitativ besten (= hellsten) Blendenstufen aufzuzeichnen und diese in der Nachbearbeitung "tiefer zu legen". Nur dies garantiert den Sensor wirklich mit bester Qualität auszureizen.

Wichtig ist hierfür allerdings auch ein funktionierendes Color-Management in der Nachbearbeitung. Denn nur allzu leicht verändern sich die Farben beim Absenken der Helligkeit. Nur ein korrekt eingerichteter Farbworkflow kann für konstante Farben sorgen und nur dann macht ETTR auch wirklich Sinn. Hier einmal ein Beispiel, wie sich ETTR auf den Waverform-Monitor eines Motivs auswirkt:



Das linke Bild wurde mit ETTR überbelichtet und dann wieder auf eine normale Belichtung "zurückhgeholt", während das rechte Bild schon in der Kamera korrekt belichtet wurde. Man sieht dabei im Waverform-Monitor sehr klar, wie positiv sich ETTR auf das Rauschen auswirkt. Mehr zu diesem Testaufbau gibt es hier bei uns nachzulesen: Ursa Mini 4.6K korrekt belichten: Zebra, False Color….

Abschließend sollte man nicht unerwähnt lassen, dass sich Zebra und ETTR in der Praxis gut ergänzen, jedoch gleichzeitig eine beliebte Fehlerquelle darstellen. Denn das Zebra in der Kamera ist oft darauf eingestellt, die Überbelichtung für 8 Bit/Rec709 Farbräume anzuzeigen. In solchen Fällen zeigt es dann bei der Log/RAW-Aufzeichnung eine Überbelichtung an, obwohl man sich noch weit von der eigentlichen RAW-Clipping-Grenze befindet.

Wer mit ETTR filmen will, sollte daher vorher die Kamera so einstellen, dass in Zebra, Histogramm und/oder Waveform-Monitor der Clipping Punkt auch wirklich zuverlässig für eine Log- oder RAW-Aufnahme dargestellt wird.


  

[43 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
Paralkar    15:37 am 21.12.2019
Du verlierst aufjedenfall kein Dynamikumfang durch ne ETTR Belichtung, klar kriegste nicht alles rein sobald das Motiv ein höheren Konstrast hat, als die Kamera aufzeichnen kann...weiterlesen
Huitzilopochtli    12:08 am 20.12.2019
Ja, das meine ich. Technisch klingt das alles toll und logisch, ein schönes Bild hab ich von ihm aber noch nicht gesehen. Is auch kein Problem, da diese Empfehlungen generell...weiterlesen
Axel    11:52 am 20.12.2019
Die von Alistair Chapman veranstalteten Tests mit Graukarte und allem möglichen Gedöns beziehen sich nach meiner Erinnerung in erster Linie auf 8-bit und ab welcher...weiterlesen
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Grundlagen: Warum braucht(e) man eine Videoschnittkarte? Do, 28.November 2019
Was bringt eigentlich eine dedizierte Capture/Wiedergabe-Karte in der heutigen Zeit? Um dies zu erklären hilft vor allem ein Blick in die Geschichte der Videobearbeitung am PC und Mac.
Grundlagen: Die Philosophie des Editings - Typische Schritte des Filmschnitts Do, 19.Juli 2018
Wir wollen in diesem Artikel nicht auf konkrete Schnitttechniken eingehen, sondern einmal einen klassifizierenden Blick auf das ganze "Drumherum" des Schnitts werfen. Bei genauerer Betrachtung gibt es viele Methoden, die wohl praktisch jeder Cutter instinktiv beherzigt...
Grundlagen: Rigkomponenten: Schärfezieheinrichtung (Follow Focus) Teil 2 Di, 18.August 2015
Im zweiten Teil unserer Grundlagenserie zum Thema Rigkomponenten wollen wir noch stärker auf Details von Schärfezieheinrichtungen fokussieren. Hier geht es um Übersetzungsverhältnisse, Umkehrgetriebe, Anschlagspunkte, Qualitätskriterien u.a. ...
Grundlagen: Rigkomponenten: Schärfezieheinrichtung (Follow Focus) Teil 1 Di, 4.August 2015
In unserer Grundlagenserie zum Thema Rigkomponenten wollen wir diesmal einen Blick auf Schärfezieheinrichtungen (oder engl. auch Follow Focus) werfen: In welchem Zusammenhang machen sie Sinn, wie unterscheiden sie sich und worauf gilt es bei der Auswahl zu achten?
Grundlagen: Mikrofone Fr, 5.Juli 2013
Grundlagen: Was unterscheidet Cine-Optiken von Foto-Objektiven? Hier: Auflagemaße – wer passt zu wem? Mo, 1.Juli 2013
Grundlagen: Stereoskopisches 3D Glossar Mo, 11.Oktober 2010
Grundlagen: In den Tiefen der Farben Fr, 20.Juli 2007
Grundlagen: 25p mit Full-True-HD oder wie man Marketing-Buzzwords entschlüsselt Mo, 19.Februar 2007
News: DeOldify: Schwarz-Weiß Photos und Videos per KI kolorieren Do, 23.Januar 2020
Kurztest: slashCHECK / Nachgereicht - Günstige SATA-SSDs an der Sigma fp Teil 2 Mi, 15.Januar 2020
Editorials: slashCAM Highlights 2019: Videoschnitt-Hardware und Software Mo, 30.Dezember 2019


[nach oben]


[nach oben]
















passende Forenbeiträge zum Thema
Matrox:
Matrox MXO2 Le Max unter Win 10
mehr Beiträge zum Thema Matrox


Specialsschraeg
20. Februar - 1. März / Berlin
Berlinale
22-27. Februar /
Berlinale Talents
11-18. März / Regensburg
Internationale Kurzfilmwoche Regensburg
18-22. März / Hofheim
Naturfilmfestival im Taunus
alle Termine und Einreichfristen


update am 29.Januar 2020 - 10:09
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*