Logo
///  >

Grundlagen : 4K - Von RAW bis 4:2:0

von Mo, 17.Februar 2014


Mit der Ankündigung der ersten erschwinglichen 4K-Kameras wird auch die Frage des Chroma-Subsamplings wieder einmal neu aufgekocht. Dabei scheint klar: RAW, 4:4:44:4:4 im Glossar erklärt und 4:2:24:2:2 im Glossar erklärt sind professionell, 4:2:04:2:0 im Glossar erklärt bleibt für die Amateure. Doch wenn man genau hinsieht, liegt bei 4K die Sache etwas anders...

Zu FullHD-Zeiten bekamen Kameras von ihren Bildwandlern meist mehr Pixel-Informationen geliefert, als das finale Videobild an Auflösung zur Verfügung hatte. Entweder besaßen die Kameras (wie bei Panasonics Semi/Pro Liga) gleich drei über ein Prisma getrennte Sensoren mit der nativen HD-Auflösung. Oder es gab eben nur einen CMOS-Bildwandler, der über ein Bayer-Pattern die Luma- und Chroma-Werte für das Debayering zur Verfügung stellte.

Ein nahezu perfektes Beispiel für diese Art der Bildberechnung stellt die Canon C100/300 dar: So hat der Sensor genau die doppelte Anzahl an Horizontal- und Vertikal-Pixeln der FullHD-Auflösung. Dadurch kann jedes RGB-Pixel im Videobild aus exakt vier Bayer-Pixeln zusammengesetzt werden. Also einem R(ot)-, einem B(lau)- und zwei G(rün)-Pixeln.

Bei allen aktuellen 4K-Kameras sieht die Sensor-Situation jedoch überraschenderweise kaum anders aus: So stehen als Grundlage gerade NICHT für jedes fertige 4K-Video-Pixel 4 Bayer-Pixel-Verfügung. Hierfür müsste der Sensor eine Horizontal-Auflösung von 8.000 Bayer-Pixeln bieten. Das schaffen momentan nicht einmal Vollformat-DSLRs.

Stattdessen steht bei 4K vielmehr für die Berechnung eines Pixels nur entweder dessen Rot-, Grün ODER Blau-Wert fest, die fehlenden Werte müssen aus den Nachbarpixeln interpoliert werden. Oder anders betrachtet: Es lässt sich die LuminanzLuminanz im Glossar erklärt jedes einzelnen Pixels relativ gut durch sich allein bestimmen, die ChrominanzChrominanz im Glossar erklärt jedoch nur durch mindestens 2 zusätzliche Nachbar-Pixel abschätzen d.h. interpolieren.

Sieht man sich in diesem Wikipedia-Eintrag zum Chroma-Subsampling einmal die Abtastpositionen an, so wird deutlich, dass bei einem 4K-Bayer Sensor für die RGB-Interpretation eigentlich auch nicht mehr Farbinformationen zur Verfügung stehen, als bei einer Y´CbCr 4:2:0-Farbunterabtastung. Jeweils 4 PixelPixel im Glossar erklärt müssen sich hier die Farbinformation teilen, also ähnlich einem Bayer-Sensor mit RGGB-Filtern, bei dem die RGB-Farbinformation auch erst durch 4 Sensor-Pixel zustandekommen kann.

Nun kann man diese Sicht der Dinge durch entsprechende Interpolations-Interpretationen beim Debayering sicherlich noch etwas in die eine oder andere Richtung drücken, aber Fakt ist, dass man aus einem 4K Sensor mit 4K Bayer-Pattern niemals die Information einer 4K-4:4:4-Farbabtastung bekommen kann, weil einfach zu wenig gesamplete Farbinformationen pro PixelPixel im Glossar erklärt zur Verfügung stehen. Und selbst eine 4:2:2-Speicherung besteht in den aktuellen 4K-Kameras (im Vergleich zu einer eigentlich nativen 4:2:04:2:0 im Glossar erklärt Speicherung) größtenteils aus interpolierten Werten, die man auch in der Postproduktion errechnen könnte.

So gesehen, dürfte eine saubere, uninterpolierte 4:2:04:2:0 im Glossar erklärt Speicherung bei einem Sensor mit 4K-Bayer-Auflösung kaum messbare Verluste gegenüber RAW, 4:4:44:4:4 im Glossar erklärt oder 4:2:24:2:2 im Glossar erklärt aufweisen. Was natürlich nicht den Verlust an Dynamik durch 8 BitBit im Glossar erklärt oder sonstige Kompressionsartefakte berührt.

Im Gegenzug bedeutet dies allerdings auch, dass man durch sorgfältiges Downsampling aus einem 8 BitBit im Glossar erklärt 4:2:04:2:0 im Glossar erklärt 4K Signal ein 10 BitBit im Glossar erklärt 4:4:44:4:4 im Glossar erklärt FullHD/2K-Signal errechnen kann. Also noch weitaus mehr, als Canon gerade mit der C300 aus einem ähnlichen Sensor herausgibt (8 BitBit im Glossar erklärt 4:2:2). Diese Diskussion stößt gerade auch Andrew Reid von EOS HD an.

Wir finden jedoch bemerkenswerter, dass 4K-RAW eigentlich kaum mehr Bildinformationen bereithält, als eine 4:2:04:2:0 im Glossar erklärt Aufzeichnung mit selber Auflösung. Nur eben mit 14 BitBit im Glossar erklärt Dynamik und ohne sonstige Kompression...

[UPADTE]

Nachdem der Nebensatz zum Herunterskalieren von 4K 4:2:04:2:0 im Glossar erklärt 8 BitBit im Glossar erklärt nach 2K 4:4:44:4:4 im Glossar erklärt 10 BitBit im Glossar erklärt im Forum eine Menge Diskussionen verursacht hat, auf wollten wir einfach mal ganz pragmatisch testen, ob die Theorie stimmen kann (wovon wir bisher immer gutgläubig ausgegangen sind). Daher haben wir folgenden Kurz-Test ausprobiert:

1. Wir erstellen in Photoshop einen 8 BitBit im Glossar erklärt Verlauf diagonal von weiß nach schwarz, der logischerweise 256 verschiedene Grauwerte enthält.

2. Dieses 8 BitBit im Glossar erklärt BMP importieren wir in After Effects. Damit kann man gegenüber einer synthetischen Erzeugung in After Effects sichergehen, dass das Input-File garantiert maximal 8 BitBit im Glossar erklärt hat.

3. Dann skalieren wir das Bild auf genau 50 Prozent, wodurch After Effects für jedes Output PixelPixel im Glossar erklärt nun 4 Input PixelPixel im Glossar erklärt verwendet. Es berechnet also seine Helligkeits- und Farbinformation aus 4 x 8 BitBit im Glossar erklärt Pixeln.

4. Zuerst bleiben wir in den After Effects Projekt-Einstellungen bei 8 BitBit im Glossar erklärt, d.h. das so berechnete Bild ist auch in der Ausgabe 8 Bit. Anschließend wenden wir eine starke Gradationskurve auf das Material an und es passiert genau das, was man in diesem Fall erwarten würde: Deutlich sichtbares Banding:


Input: 8 BitBit im Glossar erklärt -> 50 Prozent skaliert -> Output: 8 BitBit im Glossar erklärt



5. Wenn man nun in After Effects auf 16 oder 32 BitBit im Glossar erklärt Verarbeitung schaltet, dann kann After Effects im dritten Schritt bei der Skalierung auch PixelPixel im Glossar erklärt mit mehr als 8 BitBit im Glossar erklärt Farbtiefe erzeugen. Das Banding sollte hierdurch deutlich geringer werden, weil nun aus den 4 x 8 BitBit im Glossar erklärt Ursprungspixeln mit je 256 Graustufen im Mix theoretisch deutlich mehr verschiedene Graustufen errechnet werden können. Aus (256, 256, 256, 255) kann im 16/32 BitBit im Glossar erklärt Modus jetzt auch 255,75 errechnet (und gespeichert )werden. Und eben nicht nur 256, wie in 8 Bit.

Und tatsächlich wird das Banding schon im 16 Bit-Modus deutlich reduziert, bzw in der 100 Prozent-Ansicht vollständig elimiert:


Input8 BitBit im Glossar erklärt -> 50 Prozent skaliert -> Output: 16 Bit



Und das obwohl das Ausgangsmaterial garantiert nur 8 BitBit im Glossar erklärt ist. Durch diesen pragmatischen Test steht für uns fest, dass auch die Farbtiefe bei einer Pixelzusammenlegung steigt, sofern man höhere Farbtiefen in der Bearbeitung zulässt...

Die 8 BitBit im Glossar erklärt auf 10 BitBit im Glossar erklärt Skalierung ist also sehr wahrscheinlich keine Mär, zumal wir auch nicht David Newman von Cineform für einen kompletten Idioten halten, der so etwas einfach unhinterfragt aus dem Bauch heraus behaupten würde. Vielmehr steht für uns persönlich nach wie vor fest, dass man durch eine saubere Herunterskalierung von 4K 8 BitBit im Glossar erklärt 4:2:04:2:0 im Glossar erklärt auf 2K tatsächlich in 10 BitBit im Glossar erklärt 4:4:44:4:4 im Glossar erklärt Regionen landen kann. Aber darum ging es in diesem Artikel ja eigentlich nur am Rande...


    

[105 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
WoWu    17:16 am 27.2.2014
Das sind die, die es eigentlich betreiben. Deshalb brauchen sie ja auch die FARC, so wie die USA die Terroristen brauchen. Irgend jemandem muss man es ja in die Schuhe schieben...weiterlesen
domain    17:12 am 27.2.2014
Na also, doch was Interessantes und die sind natürlich überhaupt nicht involviert in das Drogengeschäft ....
WoWu    15:27 am 27.2.2014
Wobei das auch eintönig wird, immer die gleichen Flüge zu irgendwelchen Jungle-Camps, wo sie dann pressewirksam von den Kleinbauern die Labore in die Luft sprengen und in...weiterlesen
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Grundlagen: RAW, ProRES oder H.264/HEVC - Welcher Codec bei der Aufnahme? Do, 13.Juli 2017
Zwischen RAW und H.264-Aufzeichnung gibt es zahlreiche Varianten, die man als Filmemacher zumindest grob kennen sollte. Wir versuchen uns an einer einfachen Einordnung...
Editorials: Sind 12 Bit ohne Rauschen nur 8 Bit? Di, 23.Mai 2017
Kurztest: Der neue ProRes-Decoder für Windows in DaVinci Resolve Mi, 17.August 2016
Ratgeber: Sind die Quicktime-Sicherheitslücken für Windows-Videoanwendungen relevant? Fr, 15.April 2016
Ratgeber: 4K 10 Bit 422 Intraframe Codec Performance Vergleich Do, 2.April 2015
Kurztest: 4K Editing: ProRES-Codec mit PC-Bremse - Mythos oder Wahrheit? Mo, 16.März 2015
Scoop: Das perfekte Lossless-Taschenmesser? Der neue UT-Codec Fr, 6.November 2009
Erfahrungsberichte: RAID 0 Ersatz für Arme – Ein Gedankenspiel aus dem slashCAM-Labor Mi, 12.September 2007


[nach oben]


[nach oben]


















update am 20.Oktober 2018 - 15:00
slashCAM
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*