Logo Logo
///  >

Grundlagen : Warum der digitale Videopegel relevant ist.

von Fr, 28.April 2017 | 3 Seiten (Artikel auf einer Seite)


Worum geht’s?
Wenn null mehr als schwarz ist
Was kann passieren?



Gerade unter jungen Profis sind Begriffe wie Studio Swing, Video-Level oder Schwarzwert nicht immer geläufig, vor allem weil sie in der digitalen Signalverarbeitung eigentlich keine Rolle mehr spielen müssten. Tun sie aber bisweilen doch noch und die Hintergründe zu kennen ist sicherlich nicht verkehrt, besonders wenn mal wieder etwas scheinbar unerklärliches im Bild passiert...



Worum geht’s?



Die Wurzel des Problems stammt eigentlich aus der analogen Videobearbeitung. Denn hier mussten im analogen Signal Schwellenwerte festgesetzt werden, die den dunkelsten und den hellsten Bereich eines Bildes definieren. Bereiche unter oder über diesem Signal-Pegel nennt man "illegale" Farben oder man spricht von Superschwarz und/oder Weiß-Überpegel. Wer sich näher für diesen analogen Problembereich interessiert sollte sich dazu unbedingt unseren Klassiker Der Canopus Unterschied von Holger Scheel zu Gemüte führen. Heute ist dieses Wissen vor allem noch wichtig, wenn man analoge Dateien digital speichert (captured).

Im rein digitalen Umfeld sollten diese Probleme dann eigentlich gar nicht mehr vorhanden sein, da man in der digitalen Bilddarstellung von Anfang an definiert hat, dass der kleinste Wert (also 0) schwarz entspricht und der größte Wert (255 bei 8 Bit, 1023 bei 10 Bit) eben weiß ist. Ja, so einfach ist es in der Regel bei RGB-Formaten, jedoch leider nicht in der digitalen Videowelt...



Wenn null mehr als schwarz ist



Denn in der digitalen Videowelt sind die analogen Pegel immer noch vorhanden. Der Grund dafür ist unter anderem in der Übergangszeit zwischen analoger und digtaler Videoaufzeichung und Wiedergabe zu suchen.

So liegt der digitale Schwarzwert bei einer normgerechten Rec709-Codierung korrekt bei 16 und der maximale Weißwert bei 235. Werte unter 16 werden nicht "schwärzer" wiedergegeben und Werte über 235 auch nicht heller. Und sollte sich auch beispielsweise ein Monitor verhalten, wenn er korrekt Rec709-Material wiedergibt.



Nun gab es aber schon zu MiniDV-Zeiten Kameras, die trotzdem Werte über 235 aufgezeichnet haben. Diese wurden bei einer normgerechten Wiedergabe dann einfach abgeschnitten. Gerade für den Broadcast-Bereich war ein korrekter Pegel immer das A und O, damit beim Heimfernseher ein korrektes Signal garantiert werden konnte. Und deshalb kam es zu Begriffen wie “sendefähige Farben” (alles innerhalb von 16 und 235) oder “illegale Farben (= Signale außerhalb von 16...235).

Auf der anderen Seite ist es offensichtlich Verschwendung, wenn man die mögliche Bandbreite des digitalen Signals nicht nutzt. Zumal auf einem 8 Bit Computermonitor der dunkelste Punkt eben dem Wert 0 entspricht und der hellste Wert bei 255 liegt. Und so bieten auch viele digitalen Kameras heute die Möglichkeit die brachliegenden Bereiche bei der Aufzeichnung zu nutzen. Panasonic nennt dabei die Wertebereiche beim Namen (0...255, 16...255 oder 16...235), Sony bietet oft Bildprofile mit einem 109% Wertebereich. Andere Hersteller erlauben bei der Aufzeichnung zwischen RGB und Rec709 zu wählen.

Doch jede Aufzeichnung außerhalb der Rec709-Pegel bringt zahlreiche potentielle Probleme mit sich. Wenn beispielsweise ein H.264-Codec für Rec709 optimiert ist, dann werden diese "unerwarteten Werte" eventuell nicht so effektiv behandelt weil die Quantiserungstabellen für Rec709 berechnet wurden. Dies fällt vielleicht bei den meisten Motiven gar nicht stark auf, ist aber ein latentes Problem für alle Log-Profile. Allerdings geht dieses Problem an dieser Stelle schon weit über das Thema hinaus.
Sichtbar wird das Problem hingegen immer, wenn eine Kamera Werte außerhalb von 16 bis 235 schreibt, jedoch den Clip im Container als Rec 709 kennzeichnet.



Was kann passieren?



Ein Schnittprogramm muss immer eine Interpretation des Datenstroms vornehmen. Und es arbeitet selber auch in einem Farbraum, den es dazu auf der Programmoberfläche anzeigen muss. Kommt nun ein Datenstrom ins Programm, der als Rec709 gekennzeichnet ist und arbeitet das Schnittprogramm im RGB-Farbraum dann muss es das Signal strecken. Es streckt also die Werte vor der Anzeige (und bei der Berechnung von Effekten): Der Bereich von 16...235 wird auf einen Bereich von 0...255 aufgeblasen. Werte die in der Aufzeichnung außerhalb des Bereichs von 16...235 lagen fallen dabei gnadenlos weg. Gab es hier noch Zeichnung in den Lichtern oder Details in den Schatten, so werden diese durch die Umwandlung bei der Darstellung einfach abgeschnitten.

Umgekehrt kann in einem Programm (oft auch unter verschiedenen Punkten!) eingestellt werden, diese Umwandlung nicht vorzunehmen, weshalb man in unserem Beispiel bei einer normgerechten REC709-Aufzeichnung dann ein flaches Bild mit zu hellen Schwarz-Tönen und zu dunklen Weißtönen sehen würde.

Die großen Probleme entstehen jedoch durch das Mischen von verschiedenen Clips und Materialien (z.B. Titel oder Standbilder) und die vielen Schnittstellen in einer Wiedergabe-Kette. Denn moderne Videoschnittprogramme arbeiten oft auch schon in der Timeline mit einem Rec709-Wertebereich von 16...235. Gleichzeitig verlässt man sich bei der Wiedergabe im Vorschau-Fenster auf Routinen vom Betriebssystem die das Videosignal in ein Fester einbetten. Und diese Routinen setzen wiederum oft auf die beschleunigte Wiedergabe durch die GPU der Grafikkarte. So durchläuft ein Clip meistens von der Festplatte zur Wiedergabe im Vorschaufenster mindestens 3 Schnittstellen, die alle das Signal richtig interpretieren müssen und es auch teilweise aufblasen und dann wieder an der nächsten Schnittstelle eindampfen. Und die Schalter für die richtige Interpretation des Signals sind nicht an einer einheitlichen Stelle zu finden.

Die Monitorvorschau kann man meistens in der Grafikkarten-Treibern einstellen, jedoch muss man dort erst einmal wissen, ob das Schnittprogramm per DirectX, OpenGL oder anderen Direct Stream-Schnittstellen auf das Vorschaufenster zugreift. Mit einer dezidierten Vorschaukarte kann man zwar einen Teil dieser Probleme umgehen, jedoch muss man auch hierfür wissen in welchem Format die Timeline selbst arbeitet. Und erst wenn man dies weiß, kann man mit Gewissheit den Codec für den Export einstellen. Und das natürlich auch erst, wenn man weiß für welche Wiedergabegeräte man exportieren will. Was vielleicht dann wieder die berechtigte Frage aufwirft, in welchem Wertebereich man überhaupt bei Youtube hochladen sollte...

Wie ihr seht, lässt sich dies alles nur dann wirklich korrekt handhaben, wenn man selber versteht, was im Programm bei der Videobearbeitung vor sich geht. Und aus diesem Grund wollen wir diesem Artikel einen Praxis-Artikel folgen lassen, der einmal konkret zeigt, wie und wo der Videopegel in einem Workflow beeinflusst werden kann. Aber dafür brauchen wir noch etwas mehr Zeit...


  

[7 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
Anonymous    15:20 am 29.4.2017
Wie soll man das denn bitte einfach abschaffen?? 16-235 gibt es ja nicht ohne Grund, und der hat sich leider bis heute nicht geändert. Es ist der verdammte Job eines Editors auf...weiterlesen
WoWu    14:30 am 29.4.2017
Eigentlich war 709 der Standard für Video und FR für Grafik. Der Wertebereich für 709 hat ja einen Grund und ist nicht willkürlich angelegt worden. Die Gründe bestehen aber...weiterlesen
cantsin    06:39 am 29.4.2017
Alles, was ich mir für die Zukunft wünsche, ist, dass dieser Mist endlich auf dem Müllhaufen der Geschichte landet. Die verschiedenen Levels mögen ja standardisiert sein, nur...weiterlesen
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Grundlagen: Smartphone-Filmen: Die Krux mit der variablen Framerate Mo, 5.März 2018
Wer öfter mit dem Handy filmt, hat meist schon schon einen Workaround, doch wer mit der Smartphone-Filmerei beginnt stolpert fast hundertprozentig darüber: Die variable Framerate der aufgezeichneten Videos.
Grundlagen: Denoising 1x1 Mo, 29.Februar 2016
Der Begriff Denoising (auch Noise Reduction, kurz NR) bedeutet "Entrauschen" und ebendiese Funktion nutzen viele Anwender in letzter Zeit immer häufiger. Doch wann macht der Einsatz eines Denoisers überhaupt Sinn? (Sponsored by SAE)
Grundlagen: OpenCL- CUDA- Stream -Welche GPU fürs Editing? Fr, 6.November 2009
Eine Frage, die sich momentan viele Anwender stellen, beschäftigte gerade auch uns in der Redaktion. Welche Grafikkarte macht eigentlich gerade für Editing-Aufgaben besonderen Sinn?
Grundlagen: Pixelverhältnisse und woher sie kommen Do, 5.Juni 2003
Angeregt durch eine aktuelle Diskussion zur Schnittsoftware Vegas ist unser Autor Holger Scheel dem Thema "Pixelverhältnisse" auf den Grund gegangen. Wie immer gibt es hier viel zu lernen über Video und Computer, nicht einfach, aber sehr lesenswert.
Grundlagen: RAID Mo, 20.Mai 2002
Test: Blackmagic DaVinci Resolve Speed Editor - Schneller Schneiden ohne Maus und Tastatur Di, 22.Dezember 2020
Test: Das MacBook Pro 13" M1 im 4K, 5K, 8K und 12K Performance-Test mit ARRI, RED, Canon uva. ... Do, 26.November 2020
Tips: 10 Bit HDR Dolby Vision Videofiles von iPhone 12 auf Mac/PC übertragen Mo, 16.November 2020
Tips: Panasonic S1H und ProRes Raw: Metadaten-Felder wie ISO, Belichtung, WB ... in FCPX anzeigen Do, 12.November 2020
Test: Videovorschau in 4K - Blackmagic DeckLink 4K Extreme 12G Mo, 2.Dezember 2019
Erfahrungsberichte: Mit angezogener Handbremse: H.265/HEVC Decoding und Scrubbing im Jahre 2019 Di, 2.Juli 2019
Test: Loupedeck+ Steuerpult u.a. für Premiere Pro CC - flexibel und ungezähmt Di, 30.April 2019


[nach oben]


[nach oben]















Artikel-Übersicht



Artikel-Kategorien:

Specialsschraeg
1. April - 30. September / Düsseldorf
Young Film Lab
9-20. Juni / Berlin
Berlinale Summer Special
19-30. Juni / Düsseldorf
24h to take
1-10. Juli / München
Filmfest München
alle Termine und Einreichfristen


update am 17.Juni 2021 - 15:39
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*