Logo
///  >

Grundlagen : Was ist ETTR und wann macht es Sinn?

von Di, 17.Dezember 2019 | 4 Seiten | diesen Artikel auf einer Seite lesen

  Einleitung
  Ist ETTR nicht einfach Zebra-Belichtung?
  Mehr Dynamik = größerer Entscheidungsspielraum
  RAW und Log
  ETTR - den Belichtungsspielraum voll ausreizen
  Heller = weniger Rauschen = höhere Qualität



RAW und Log



Als Gegenkonzept gibt es die RAW-Aufzeichnung. Diese erlaubt es faktisch die gesamte Sensordynamik aufzuzeichnen und erst in der Postproduktion das Bild zu entwickeln, also in der Nachbearbeitung auf eine geringere Dynamik wie Rec709 oder sRGB abzubilden.

In der Mitte steht noch die Log-Aufzeichnung. Hier wird die Sensordynamik über eine logarithmische Kurve leicht zusammengefasst aufgezeichnet und vor der "Entwicklung" wieder entstaucht, was in Praxis meist nahe die Möglichkeiten von RAW heranreicht. Allerdings nur, wenn die Log-Aufzeichnung auch genügend Tonwertabstufungen bereit hält.

Wird Log in 8 Bit aufgezeichnet, so können nur sehr wenig Tonwertabstufungen pro Blendenstufe aufgezeichnet werden, was in sichtbaren Farbtreppen (Posterisation) resultieren kann. Zur Erinnerung: In 8 Bit kann man maximal 256 Helligkeitswerte speichern, was bei 14 Blendenstufen nur ca. 19 Helligkeitswerten pro Blendenstufe entspricht. Bei 10 Bit Aufzeichnung stehen dagegen schon über 70 Helligkeitswerte pro Blendenstufe zur Verfügung.

Wer also in einen 8 Bit Codec (oder ein 8 Bit-JPEG) abspeichert, tut gut daran, die Verteilung der Sensordaten schon vor der Speicherung in der Kamera berechnen zu lassen. Was nicht prinzipiell schlecht aussehen muss. Denn um die Dynamik einer SDR-Anzeige (Monitor/Fernseher ohne HDR) zu "füttern" reichen die 8 Bit ja prinzipiell gut aus.

Wer jedoch mit den Profilen in der Kamera nicht zufrieden ist oder tiefer in die Entwicklung (also Zusammenfassung der Sensordaten) eingreifen möchte, kann dies auch nachträglich tun, solange man in 10 Bit Log oder RAW aufgezeichnet hat. Denn mit diesen Formaten hält man sich einen großen Entwicklungsspielraum für die Nachbearbeitung offen.



ETTR - den Belichtungsspielraum voll ausreizen



Und hier schließt sich endlich der Kreis zu ETTR. Denn wenn man seine Entwicklung vom Kameraprofil in die Postproduktion verlegt, sollte man sich natürlich fragen, wie man den Sensor ab besten belichten sollte, um nachher noch den größtmöglichen Spielraum zu haben.

Natürlich kann man den Sensor einfach weiterhin wie in 8 Bit mit einem Bildprofil "korrekt" belichten. Durch Log/RAW hat man bereits in diesem Fall noch größere Korrekturmöglichkeiten. Die größte Qualität erzielt man jedoch, wenn man den Sensor so knapp wie möglich unterm Clipping überbelichtet (oder vielleicht sogar ein paar clippende Highlights in Kauf nimmt).

Der Grund hierfür liegt in der Art, wie ein Sensor Helligkeit aufnimmt - nämlich linear. Das Auge dagegen nimmt Helligkeit logarithmisch war. So kann ein Auge klar einen Unterschied zwischen keiner und einer Kerze wahrnehmen. Und auch den Unterschied zwischen 2 und 4 Kerzen, sowie einen Unterschied zwischen 64 und 128 Kerzen wird man deutlich erkennen, weil man diese Unterschiede als ziemlich genau doppelt so hell wahrnimmt. Diese Beispiele entsprechen übrigens immer dem Helligkeits-Unterschied von einer Blendenstufe. Oder von einem zusätzlichen Bit. (Grundlagen hierzu gibt es unter anderem im Artikel Einfach Erklärt: Sensor-Dynamik, Blendenstufen und Bits - und Kerzen.)

Den Unterschied zwischen 127 und 128 Kerzen wird man dagegen kaum wahrnehmen. Und noch weniger den Unterschied zwischen 254 und 255 Kerzen. Ein Sensor-Pixel (übrigens eindeutiger als Sensel bezeichnet), sammelt und zählt Licht (also Photonen) wie Kerzen. Je mehr Lichteinheiten es aufsammelt, desto mehr negativ geladene Elektronen (e-) gibt es ab. Der Zusammenhang zwischen eintreffenden Photonen und abgegebenem Strom ist linear. Oder einfach gesagt: Ein Sensor zählt jede Kerze.

Um die Dynamik einer einzigen Blendenstufe aufzuzeichnen, braucht man nur 1 Bit. Es gibt nur hell oder dunkel. Um acht Blendenstufen linear aufzuzeichnen, benötigt man folglich 8 Bit, bzw ein Byte. Ein 12Bit Sensor kann in einer optimalen Situation 12 Blendenstufen messen. Und ein heute typischer 14 Bit Sensor folglich 14 lineare Blendenstufen.

Sieht man sich nun einen Sensor mit 14 Blendenstufen näher an, so kann dieser die meisten Werte in der hellsten Blendenstufe 14 aufnehmen. Exakter: Es findet sich die Hälfte aller möglichen Messwerte in der hellsten Blendenstufe 14. In der Blendenstufe 13 darunter liegt die Anzahl der möglichen Blendenwerte schon nur noch bei einem Viertel aller möglichen Werte. In der Blendenstufe 12 ist es nur noch ein Achtel (12,5%). Und in der Blendenstufe 11 liegen nur noch 6,25% aller Messwerte. Es klingt unglaublich, aber bei einem 14 Bit Sensor liegen somit 93,75% aller möglichen Messwerte in den Blendenstufen 11-14!

Einleitung / Ist ETTR nicht einfach Zebra-Belichtung? / Mehr Dynamik = größerer Entscheidungsspielraum
Heller = weniger Rauschen = höhere Qualität


4 Seiten:
Einleitung / Ist ETTR nicht einfach Zebra-Belichtung? / Mehr Dynamik = größerer Entscheidungsspielraum
RAW und Log / ETTR - den Belichtungsspielraum voll ausreizen
Heller = weniger Rauschen = höhere Qualität
  

[43 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
Paralkar    15:37 am 21.12.2019
Du verlierst aufjedenfall kein Dynamikumfang durch ne ETTR Belichtung, klar kriegste nicht alles rein sobald das Motiv ein höheren Konstrast hat, als die Kamera aufzeichnen kann...weiterlesen
Huitzilopochtli    12:08 am 20.12.2019
Ja, das meine ich. Technisch klingt das alles toll und logisch, ein schönes Bild hab ich von ihm aber noch nicht gesehen. Is auch kein Problem, da diese Empfehlungen generell...weiterlesen
Axel    11:52 am 20.12.2019
Die von Alistair Chapman veranstalteten Tests mit Graukarte und allem möglichen Gedöns beziehen sich nach meiner Erinnerung in erster Linie auf 8-bit und ab welcher...weiterlesen
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Grundlagen: Richtig satt - Was bei der Sättigung eines Video-Clips falsch laufen kann Di, 21.Juli 2020
Wir werfen einen kritischen Blick auf die Sättigungsfunktion in Videoschnittprogrammen und zeigen einen Ansatz, wie man die Sättigung nach persönlichen Präferenzen anpassen kann...
Grundlagen: Warum man Camcorder/Kameras nicht einfach als Webcams nutzen kann Di, 14.April 2020
Viele Camcorder oder Kameras sind Webcams qualitativ überlegen, doch fürs Streaming oder Videokonferenzen ist deren Nutzung nicht trivial zu realisieren...
Grundlagen: Warum braucht(e) man eine Videoschnittkarte? Do, 28.November 2019
Was bringt eigentlich eine dedizierte Capture/Wiedergabe-Karte in der heutigen Zeit? Um dies zu erklären hilft vor allem ein Blick in die Geschichte der Videobearbeitung am PC und Mac.
Grundlagen: Die Philosophie des Editings - Typische Schritte des Filmschnitts Do, 19.Juli 2018
Wir wollen in diesem Artikel nicht auf konkrete Schnitttechniken eingehen, sondern einmal einen klassifizierenden Blick auf das ganze "Drumherum" des Schnitts werfen. Bei genauerer Betrachtung gibt es viele Methoden, die wohl praktisch jeder Cutter instinktiv beherzigt...
Grundlagen: Rigkomponenten: Schärfezieheinrichtung (Follow Focus) Teil 2 Di, 18.August 2015
Grundlagen: Rigkomponenten: Schärfezieheinrichtung (Follow Focus) Teil 1 Di, 4.August 2015
Grundlagen: Mikrofone Fr, 5.Juli 2013
Grundlagen: Was unterscheidet Cine-Optiken von Foto-Objektiven? Hier: Auflagemaße – wer passt zu wem? Mo, 1.Juli 2013
Grundlagen: Stereoskopisches 3D Glossar Mo, 11.Oktober 2010
Grundlagen: In den Tiefen der Farben Fr, 20.Juli 2007
Grundlagen: 25p mit Full-True-HD oder wie man Marketing-Buzzwords entschlüsselt Mo, 19.Februar 2007
News: Aktuelle Black Friday, Cyber Monday und andere Rabatt-Angebote für Filmer 2020 Do, 26.November 2020


[nach oben]


[nach oben]















Artikel-Übersicht



Artikel-Kategorien:



update am 28.November 2020 - 08:02
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*