Logo
///  >

Grundlagen : 4K 4:2:0 8 Bit = 2K 4:4:4 10 Bit?

von Fr, 28.Februar 2014 | 2 Seiten | diesen Artikel auf einer Seite lesen

  Einleitung
  Der Aufbau
  Die Ergebnisse
  Fazit
  Addendum: Code

In der Diskussion dieses Artikels ging es in unserem Forum hoch her (und nicht nur bei uns). Dabei wurde gar nicht um die Ursprungsintention des Artikels gestritten, sondern es ging viel mehr um eine Randbemerkung. Nämlich, dass u.a. David Newman von Cineform/GoPro behauptet hat, durch Herunterskalieren auf geviertelte Auflösung von 8 BitBit im Glossar erklärt 4:2:0-Material enstünde 10 BitBit im Glossar erklärt 4:4:44:4:4 im Glossar erklärt Material.

Gegner dieser Position behaupten, dass aus einem 8 BitBit im Glossar erklärt Sample niemals mehr Information zurückgewonnen werden kann. Folglich könne auch aus der Zusammenfassung mehrerer 8 BitBit im Glossar erklärt Werte niemals mehr die Werte zwischen den Sample-Punkten wiedergewonnen werden. Ein Ergebnis müsse immer eine künstliche Interpolation sein, die mit dem Original nichts mehr zu tun habe.

Befürworter sehen dagegen in der Zusammenfassung der vier PixelPixel im Glossar erklärt durchaus einen Mehrgewinn an Farbtiefe und können diese auch durch spezielle Beispielfälle in der Praxis vor Augen führen.



Der Aufbau



Bei näherer Betrachtung des Problems fiel uns auf, dass die Formel wohl für einige Fälle gilt und für andere nicht. Also liegt es nahe, einmal einen statistischen Blick auf das Problem zu werfen. Hierfür haben wir unserem slashCAM-Elfenbeinturm einmal ein schönes Gedanken-Experiment aufgebaut (und in sehr krudem C/C++ wegen der Nachvollziehbarkeit nachgehackt).

Wir nehmen einen Sensor ohne Bayer Pattern Filter an, der nur Helligkeits-Signale aufzeichnen kann: In unserem Gedankenexperiment liefert jedes PixelPixel im Glossar erklärt lineare 14 BitBit im Glossar erklärt Sensorwerte zwischen 0 und 16383.

Sehen wir uns nun 4 Sensorpixel a, b, c, d an:



Als erstes weisem wir jedem PixelPixel im Glossar erklärt einen 14 BitBit im Glossar erklärt Zufallscode zu:


a = rand() % 16384 ;
b = rand() % 16384 ;
c = rand() % 16384 ;
d = rand() % 16384 ;


Diese Werte sind sozusagen das Abbild, das unser Sensor von der Realität messen kann. Anschließend erfassen wir den Wert jedes Pixels mit 10 BitBit im Glossar erklärt Auflösung:


a_10 = a/16;
b_10 = b/16;
c_10 = c/16;
d_10 = d/16;


Die 10 BitBit im Glossar erklärt Pixelwerte a_10, b_10, c_10 und d_10 unseres Sensors fassen wir nun zu einem 10 BitBit im Glossar erklärt Wert für die vier PixelPixel im Glossar erklärt zusammen (all_10).


all_10 = (a_10+ b_10+ c_10+ d_10)/4;


"all_10" verhält sich also so wie eine "echte" 10 Bit-Kamera, die beim Downsampling vier 10 Bit-Pixel einfach zusammenfasst. Diese sehen wir als Referenz für echtes 10 BitBit im Glossar erklärt Sampling.

Anschließend nehmen wir die selben 14 BitBit im Glossar erklärt Sensorwerte, und speichern diese jedoch nur mit 8 BitBit im Glossar erklärt pro Pixel:


a_8 = a/64;
b_8 = b/64;
c_8 = c/64;
d_8 = d/64;


Und jetzt kommt die Ketzerei. Wir generieren ein 10 BitBit im Glossar erklärt Sample aus der einfachen Addition von vier 8 Bit-Werten:


all_8 = (a_8 + b_8 + c_8 + d_8);


"all_8" ist also eine 8 Bit-Kamera die beim Downsampling ihre Werte auf einer 10 Bit-Summe belässt, anstatt das Ergebnis abschließend wieder nach 8 BitBit im Glossar erklärt zu runden.

Um diese Simulation für jede erdenkliche 2 x 2 14 BitBit im Glossar erklärt Kombination zu berechnen, wären 163844 = 72.057.594.037.927.936 Durchläufe nötig. Geschätzt bräuchte ein 4 GHZ- Core i7 dafür über 2 Jahre. Doch glücklicherweise gibt es einige Hinweise, die uns diese Rechenarbeit ersparen können:

Mit 12 Bit-Input brauchte unser Rechnner nur weniger als einen Tag, um alle möglichen Fälle tatsächlich durchzurechnen. Mit der selben Ergebnis-Verteilung, die sich bei einer statistischen Zufalls-Auswahl von wenigen 10.000 Samples auch schon deutlich abzeichnet. Und die genau die gleiche Verteilung zeigt sich statistisch auch bei 14 BitBit im Glossar erklärt Genauigkeit.

Die Ergebnisse / Fazit / Addendum: Code


2 Seiten:
Einleitung / Der Aufbau
Die Ergebnisse / Fazit / Addendum: Code
    

[47 Leserkommentare] [Kommentar schreiben]   Letzte Kommentare:
VideoUndFotoFan    10:33 am 14.4.2014
http://www.fcp.co/forum/4-final-cut-pro ... ores#44144 Analog müßte das für alle NLEs gelten - also auch beispielsweise auch mit VEGAS PRO in einem 32bit-Projekt. Man hätte...weiterlesen
motiongroup    10:22 am 14.4.2014
http://www.eoshd.com/comments/topic/542 ... 0-bit-444/
prophet    01:00 am 2.3.2014
WoWu, das ist ja der Punkt. Ich verstehe, was Dither(ing) bedeutet, und es findet in dieser Diskussion nirgends Anwendung. Keine Ahnung an welchem Punkt wir an einander vorbeireden...weiterlesen
[ Alle Kommentare ganz lesen]

Weitere Artikel:


Grundlagen: Wie funktioniert Live Streaming? Grundwissen und Basis-Setup Mi, 28.März 2018
War Live Streaming früher noch eine Sache spezialisierter Server, ist es heute dank großer Webanbieter für jedermann in professioneller Qualität erschwinglich geworden. Wir zeigen in diesem Artikel, was es alles bedarf, um gutaussehendes Video Live zu produzieren und im Netz einem großen Publikum zugänglich zu machen.
Grundlagen: Versteckte Dynamik Reserven durch Highlight Recovery herauskitzeln Do, 15.März 2018
Nicht nur in den Schatten, sondern auch in den Lichtern ist die Grenze der Bilddynamik gar nicht so eindeutig, wie es scheint. Willkommen in der Welt der Highlight Recovery...
Grundlagen: Smartphone-Filmen: Die Krux mit der variablen Framerate Mo, 5.März 2018
Wer öfter mit dem Handy filmt, hat meist schon schon einen Workaround, doch wer mit der Smartphone-Filmerei beginnt stolpert fast hundertprozentig darüber: Die variable Framerate der aufgezeichneten Videos.
Grundlagen: HDR Basics Teil 2 - die Standards HDR10, HLG und Dolby Vision, und was ist eigentlich EOTF? Do, 4.Januar 2018
Im zweiten Teil unserer HDR Basics wollen wir einmal die wichtigsten Formate möglichst erhellend darstellen und müssen auch hierfür noch einmal etwas ausholen... und zum Beispiel klären, ab wann man überhaupt von HDR sprechen kann.
Grundlagen: HDR Basics Teil 1 - Film vs. Foto, LED vs. OLED, und was sind eigentlich Nits? Di, 2.Januar 2018
Grundlagen: RAW, ProRES oder H.264/HEVC - Welcher Codec bei der Aufnahme? Do, 13.Juli 2017
Grundlagen: Warum der digitale Videopegel relevant ist. Fr, 28.April 2017
Grundlagen: USB-C, der verwirrende Universalanschluß -- Thunderbolt 3 und/oder USB 3.1? Fr, 18.November 2016
Grundlagen: M.2, SATA, AHCI und NVMe - SSD Anschlüssmöglichkeiten erklärt Mi, 14.September 2016
Grundlagen: Farbkorrektur -- Heller, aber wie bitte? Do, 28.Juli 2016
Grundlagen: Was bedeutet Log beim Filmen? Do, 23.Juni 2016
Grundlagen: Wie deutet man die 4K-Testbilder aus der 4K-Datenbank richtig? Mi, 11.Mai 2016


[nach oben]


[nach oben]
















passende Forenbeiträge zum Thema
Bücher:
HP ZBook Studio x360 G5 Convertible Workstation mit 4K und 600 nits // NAB 2018
Filmmaking & Facebook - Wie nutzt ihr die Plattform (noch)?
Intel: Core i9 CPU mit 6 Kernen für High-End Notebooks: Leistungssprung für Videoschnitt?
Notebook als Recorder
Oscar Drehbücher 2018 als englische PDFs zum Download
Vimeo Live streamt parallel zu YouTube, Facebook und Periscope
Welches Notebook wird es denn nu?
mehr Beiträge zum Thema Bücher




update am 26.April 2018 - 15:00
slashCAM
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*