Egal, welche Kamera oder welches Smartphone man nutzt, das Gerät meldet immer den ISO-Wert, der für die Aufnahme verwendet wurde. Obwohl der Begriff „ISO“ allgegenwärtig ist, bedeutet er nicht unbedingt das, was man denkt. Schlimmer noch, er kann die Kamera ausbremsen, sowohl bei ihrer Bildqualität als auch bei ihrer Funktionalität. Und damit möglicherweise auch die eigene Fotografie. Das Problem liegt zum Teil darin, dass „ISO“ so vertraut klingt.
Auf den ersten Blick scheinen die ISO-Einstellungen einfach den Empfindlichkeitswerten von Filmen zu entsprechen (so sehr, dass manche Leute immer noch von ASA sprechen, dem US-amerikanischen Standard, der in den ISO-Standard für Filme übernommen wurde). Aber ISO in der Digitalfotografie ist nicht dasselbe wie bei Film. Es ist in Wirklichkeit eine Metapher [bzw. Analogie] für die Empfindlichkeit von chemischen Filmen nach der Laborentwicklung. Und das ist ein Problem.
ISO stiftet Verwirrung
Die scheinbare Vertrautheit und Einfachheit der ISO-Einstellung führt zu einer Reihe gängiger Missverständnisse. Was auch immer man gehört oder gelesen hat, das Ändern der ISO-Einstellung der Kamera ändert nicht deren Lichtempfindlichkeit.
ISO ändert die Helligkeit des fertigen Bildes, aber nicht die grundlegende Lichtempfindlichkeit des Sensors. Es ist auch kein Indikator für eine Signalverstärkung (gain): Obwohl viele Kameras die Gain-Verstärkung mit zunehmender ISO-Einstellung erhöhen, ist dies nicht immer der Fall.
"Warum kann ich im Log-Modus nicht ISO 100 nutzen?" Die Antwort lautet, dass eine Log-Gammakurve so flach ist, dass nur sehr wenig Licht benötigt wird, um Mittelgrau zu erreichen, weshalb Log-Gamma mit einem hohen ISO-Wert gleichgesetzt wird. Streng genommen kann man für Log jedoch gar keinen ISO-Wert berechnen, da der Standard auf einem anderen Farbraum und einer anderen [sRGB-] Gamma-Kurve basiert. Ähnliches gilt für Raw.
Das mag vielleicht wie semantische Haarspalterei klingen, führt aber zu vielen Missverständnissen. Es wird allgemein angenommen, dass das zusätzliche Rauschen in Bildern mit hoher ISO-Empfindlichkeit vom „Hintergrundrauschen“ der Signalverstärker des Sensors stammt. Das fühlt sich plausibel an: Wir alle haben schon einmal mehr Rauschen gehört, wenn wir die Lautstärke eines Audioverstärkers erhöht haben. Leider stimmt das nicht: Das meiste Rauschen kommt tatsächlich vom Licht selbst, das man einfängt [=Photonenrauschen/shot noise], weshalb es hauptsächlich von der Verschlusszeit und der Blende abhängt.
Der ISO-Standard schreibt weder vor, dass eine Gain-Verstärkung verwendet werden muss, noch legt er fest, was mit der Raw-Datei passiert. Er setzt lediglich die Eingangsbelichtung in Beziehung zur Helligkeit des resultierenden JPEG, unabhängig davon, mit welchen Mitteln letztere erreicht wird. Das Einzige, was man auf Raw-Ebene mit Sicherheit sagen kann, ist, dass eine Erhöhung des ISO-Werts zu einer Verringerung der Belichtung führt, wodurch [bei höherem ISO-Wert] weniger Licht eingefangen wird und somit mehr Rauschen in den einzelnen Tonwerten des Motivs zu sehen ist. [...]
ISO führt zu suboptimaler Belichtung
ISO gibt nicht nur ein falsches Gefühl der Einfachheit. Durch den im Lauf der Zeit immer fragwürdigeren Versuch, analoge Filmempfindlichkeit zu simulieren, führt es auch zu einer schlechten Ausnutzung der tatsächlichen Sensorempfindlichkeit von Kameras.
Film (insbesondere Negativfilm) hat eine sehr charakteristische Empfindlichkeitskurve, die viel Spielraum für die Erhaltung extrem heller Spitzlichter bietet. Digital ist das ganz anders: Es bietet eine viel linearere Empfindlichkeit, aber mit einem harten, nicht wiederherstellbaren Clipping-Punkt in den Spitzlichtern. Und nein, eure Lieblingssoftware kann komplett geclippte Spitzlichter nicht wirklich aus euren Raw-Dateien retten.

[Diese Grafik zeigt den Signal-Rausch-Abstand (=je höher, desto weniger Rauschanteil) bei verschiedenen Helligkeitsstufen von Film und Digital. Die Empfindlichkeit von chemischem Film erreicht erst einen Spitzenwert und nimmt dann allmählich ab, wobei auf der rechten Seite der Kurve viel Spielraum für die Erhaltung der Spitzlichter bleibt. Die digitale Empfindlichkeit steigt auf viel höhere Werte als die des Films und bricht dann abrupt ab. Warum also sollte man diese beiden Medien auf die gleiche Weise belichten?]
Und trotz dieser Unterschiede basiert der digitale ISO-Standard auf der „korrekten“ Belichtung von JPEG-Mitteltönen. Eine Aktualisierung des Standards im Jahr 2006 gab den Herstellern etwas mehr Flexibilität hinsichtlich der Anzahl der Blendenstufen, die sie in ihren JPEGs über dem Mittelgrau verwenden wollten, aber es wird weiterhin eine Belichtung auf Basis der Mitteltöne mit einer festgelegten Anzahl von Blendenstufen darüber für die Spitzlichter empfohlen.
Das ist nicht die optimale Methode für die Belichtung digitaler Bilder. Die besten Ergebnisse erzielt man, indem man so viel Belichtung wie möglich zulässt, ohne die hellsten Tonwerte, die einem wichtig sind, zu clippen: ein Verfahren, das auch „Belichtung nach rechts“ („expose to the right“, ETTR) genannt wird. Dadurch wird die Lichtmenge und damit das Signal maximiert, was wiederum den Signal-Rausch-Abstand erhöht (oder vereinfacht gesagt: den Grad des Bildrauschens vermindert).
Da sich Kameras [bei ihrer Belichtungsmessung] aber nur um das mittlere Grau des JPEG-Outputs kümmern, geben sie jedem Bild die gleiche Anzahl an Blendenstufen für die Spitzlichter, auch wenn das in Szenen mit geringem Dynamikumfang Verschwendung ist (= der Bereich für die Spitzlichter wird nicht voll ausgenutzt, so dass eine suboptimale Belichtung resultiert) bzw. in Szenen mit hohem Motiv-Dynamikumfang nicht ausreicht: Die schönen Farben des Sonnenuntergangs, den man fotografiert, gehen dadurch unwiederbringlich durch Sensor-Clipping verloren.
[...]
Dieses Problem lässt sich nicht so einfach lösen: Manchmal führt eine ETTR-Belichtung zu mehr Rauschen in den Mitteltönen, als man möchte. In solchen Fällen muss man die Spitzlichter [dem Clipping] opfern. Es ist jedoch nicht sinnvoll, sich [bei der Belichtung] kategorisch auf die JPEG-Mitteltöne zu versteifen.
ISO behindert die Kameraentwicklung
Das bringt uns zum größten Problem bei der Verwendung der schiefen Metapher der Filmempfindlichkeit als Methode der Bestimmung von Bildhelligkeit in der Digitalfotografie: Unsere Kameras geben uns nicht die geeigneten Werkzeuge, um unsere Sensoren optimal zu belichten.
ISO vermischt letztendlich die Effekte der (Gain-) Verstärkung und der (Gamma-) Tonwertkurve, sodass man selbst herausfinden muss, was die Kamera hinter den Kulissen macht und wie man sie am besten belichtet.
Das Vorschaubild, das die [Foto-/Hybrid-]Kamera anzeigt, die Histogramme, die sie zeichnet, und die Belichtungsmesser und -hilfen, die sie anbietet, basieren alle auf der [sRGB-]JPEG-Ausgabe und deren Mitteltönen, weil [die] ISO [-Norm] sagt, dass nur dies zählt. Das bedeutet, dass uns die grundlegendsten Werkzeuge fehlen, die wir brauchen: Raw-Histogramme oder Raw-Clipping-Warnungen, die bei der Optimierung der Belichtung helfen würden. [Anm.: die Ausnahme sind Cinekameras, z.B. von Blackmagic.] Es bedeutet, dass keine Weiterentwicklungen stattgefunden haben, um ausgefeiltere Werkzeuge zu schaffen, mit denen man die Auswirkung von ETTR-Belichtung auf die Bildqualität beurteilen und entscheiden kann, wann man die Spitzlichter dem Sensor-Clipping opfern sollte und wann nicht.
Kurz gesagt: ISO ist eine zunehmend schiefe Metapher, die Missverständnisse fördert, die Funktionsweise der Kamera verschleiert und uns die Werkzeuge vorenthält, die wir brauchen, um das Beste aus unseren Kameras herauszuholen. Ist es nicht Zeit für etwas Besseres?