Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Infoseite // Paar grundsätzliche Fragen zu Codecs



Frage von Fader8:


Hallo Leute,

In dieser Zeit liest man viel über die einzelnen Codecs der Kameras und wie wichtig sie später für das Grading und die Qualiät sind. Nun für mich ist das ganze doch etwas arg abstrakt und ich kann mir das ganze nicht so wirklich vorstellen. Ich bitte deshalb um simple Erklärungen und nicht Umformulierungen;

-Der Unterschied von 4:2:0 (compressed) und 4:2:2 und wieso das so ein Unterschied macht? (ich nehme an 4:4:4 ist dan RAW?!)

- Was sind die Unterschiede von All-I / IPB-Codec / H.264 / ProRes --> wie zeichnen sich diese später aus? Wieso sind gewisse optimaler für Bearbeitung?

- was ist der Gamma Log (kommt ja bei der neuen C100 vor) ?

Vielen Dank für die Antworten und mein Verständnis zu erweitern.

Liebe Grüsse

Space


Antwort von HT:

Hallo Leute,

In dieser Zeit liest man viel über die einzelnen Codecs der Kameras und wie wichtig sie später für das Grading und die Qualiät sind. Nun für mich ist das ganze doch etwas arg abstrakt und ich kann mir das ganze nicht so wirklich vorstellen. Ich bitte deshalb um simple Erklärungen und nicht Umformulierungen;

-Der Unterschied von 4:2:0 (compressed) und 4:2:2 und wieso das so ein Unterschied macht? (ich nehme an 4:4:4 ist dan RAW?!) Erstmal: Der folgende Text ist verkürzt, vereinfacht und manchmal ist auch leicht die Kausalität nicht eingehalten; er soll vor allem die Farge beantworten und weniger eine exakte Abhandlung darstellen
Um das genau zu erklären muss man ersteinmal ein klein bisschen Farblehre machen. Jeder kennt den RGB-Farbraum. Also aus Rot-grün und Blau lassen sich die verschiedensten Farben mischen. So werden die Computermonitore angesteuert und so nehmen Kameras auf. Nun wissen wir alle dass fernsehen vor nicht allzulanger Zeit schwarz-weiß war, also nur die Helligkeit des Bildes zeigte (Fachwort: Luminanz). Als man auf Farbe umstieg wollte man nicht alle bisherigen Fernseher unbrauchbar werden lassen, daher dachte man sich, man kann ja Farben auch durch ihre Helligkeit und den zwei weitere Farbkomponenten kodieren. (Die Details sind da schon etwas schwieriger zu verstehen weil man hier Differnenzen bildet, einfach mal nach YUV schauen, da gibt es im Netz ganz schöne Beispiele). Wie auch immer, statt Rot- Grün und Blauanteil hat man nun, Helligkeit - Farbdifferenz 1 und 2. Der vorteil ist nun: s/w-Fernseher können haben weiterhin ihren Helligkeitskanal und die Farbfernseher dazu noch die Farbe.
Aber, das ganze hatte noch einen weietren Vorteil: Der Mensch nimmt Helligkeitunterscheide eher war als Farbunterschiede. Klasse, dann können wir ja einen Farbkanal streichen und den anderen nur zur Hälte übertragen, also:
1*Helligkeit : 0.5*Farb1 : 0.5*Farb2

Dementsprechend sind nun nur 1/4 der Farbanteile enthalten.
daher schreibt man:
4:2:0, das bedeutet: wenn man vier Helligkeitswerte speichert, dann speichert man nur für ein Viertel davon die Helligkeit (Farbe besteht ja aus zwei Werten) , also (2/2)/4=0.25


Sieht man aber nicht. AUSSER man dreht viel an den Farben rum, ändert den Weissabgleich und ähnliches, dann sieht das Bild plötzlich farbärmer aus, da die anderen Farben ja nicht gespeichert wurden.

Daher verwendet man heute gern 4:2:2 um _leichte_ Korrekturen vorzunehmen und 4:4:4 wenn viel an den farben geändert werden muss. Amateure und SemiPros wissen aber dass man auch mit 4:2:0 einiges an Änderungen vornehmen kann bevor es auffällt.

RAW hat damit erstmal nichts zu tun, sondern sagt nur aus, dass das Material so gespeichert wird wie es der Sensor liefert, man hat daher also die maximale Bildqualität die die Kamera liefern kann.
- Was sind die Unterschiede von All-I / IPB-Codec / H.264 / ProRes --> wie zeichnen sich diese später aus? Wieso sind gewisse optimaler für Bearbeitung? Also mal ein bisschen auseinandernehmen: H.264 und ProRes sind Codecs, also grobe Anleitungen wie man Dinge platzsparend speichern kann.
All-I, also Codecs die nur mit Intraframes arbeiten, sind viele komprimierte Bilder hintereinander, als würde man lauter JPEGs (wegen mir auch pngs) schnell ancheinader anzeigen.
Anders ist es bei IPB-Codecs, hier wird ab und zu ein komprimiertes Bild gespeichert, die bilder dazwischen sind aber keine echten Bidler sondern sagen nur wie sich das Bild im Vergleich zu den Vorgänger, dem Nachfolger verändert hat (etwa: Auto ist 3 Pixel nach vornen gefahren). Dadurch spart man Platz, allerdings müssen die Bilder zwischen den richtigen bildern erst errechnet werden -> Rechenzeit. Das ist vor allem für die Nachbearbeitung interessant: Müssen die Bilder selbst erst groß errechnet werden fehlt evtl. rechenpower für die Effekte.

- was ist der Gamma Log (kommt ja bei der neuen C100 vor) ? So, erste farge: Wie gut erinnerst du dich an Mathe? Vlt. kennst du noch die log Funktion (Alternativ auch ln). Diese zeichnet sich dadurch aus, dass sie am Anfang sehr stark steigt (bei lim->+null sogar lim->+unendlich) und später immer langsamer. Die Steigung gibt in diesm Fall an wie Genau die Helligkeits/Farbinformationen bei dieser Halligekit gespeichert werden. Je höher die Steigung desto höher die Genauigkeit. Durch logkurven ist es also möglichbestimmt Bereiche sehr genau zu speichern und denoch auch sehr hellen Bereichen noch unterzubringen (wenn auch nicht so Genau).
Sonst hilft wie immer: Das Internet, hier zum Beispiel Canon bei der anhand der von dir beschrieben Canon C 300:
http://www.learn.usa.canon.com/resource ... amma.htmlp



Space


Antwort von dienstag_01:

4:2:0 heisst nicht, dass ein Farb(-differenz)kanal gestrichen wird (sähe nicht wirklich gut aus), sondern dass die beiden Kanäle zeilenweise alternierend abgespeichert werden. Die Unterschiede der verschiedenen Farbsampling-Standards sind nicht wirklich mit Mathematik abbildbar.

Ansonsten aber interessante Erklärung.

Space


Antwort von Debonnaire:

Danke HT, das war echt mal hilfreich! :-)

Space


Antwort von nic:

RAW ist nicht 4:4:4, sondern RAW. Die (Farb)Auflösung wird durch den Sensor vorgegeben (Bayer, RGB, ...).

Space


Antwort von deti:

RAW ist nicht 4:4:4, sondern RAW. Die (Farb)Auflösung wird durch den Sensor vorgegeben (Bayer, RGB, ...). Da oben steht doch: RAW hat damit erstmal nichts zu tun, sondern sagt nur aus, dass das Material so gespeichert wird wie es der Sensor liefert, ist daher auch 4:4:4 und nicht komprimiert. ... und das steht doch in keinem Widerspruch.

Deti

Space


Antwort von Debonnaire:

Doch, könnte schon im Widerspruch stehen, denn RAW heisst nicht automatisch auch 4:4:4, ausser eben der Sensor würde das so aufzeichnen und die Kamera es speichern können. Das ist bei Kameras unterhalb einer Arri Alexa aber wohl kaum je gegeben...

Space


Antwort von HT:

Doch, könnte schon im Widerspruch stehen, denn RAW heisst nicht automatisch auch 4:4:4, Stimmt. s/w - Sensoren liefern auch kein 4:4:4. Zudem arbeiten Bayer-Sensoren ja auch im RGB-Farbraum, da wirds mit einer Farbunterabtastung schwieriger. Wenn man einmal versucht es einfach zu erklären, erklärt man es ziemlich schnell falsch. 4:2:0 heisst nicht, dass ein Farb(-differenz)kanal gestrichen wird (sähe nicht wirklich gut aus), sondern dass die beiden Kanäle zeilenweise alternierend abgespeichert werden. Ist natürlich richtig. Ebenfalls ist meine Verkürzung 4:2:0 steht für Helligkeit : Farbdifferenz 1 : Farbifferenz 2 natürlich nicht exakt. Andererseits: Das ganze wird ziemlich schnell sehr komplex, wenn man dann noch die Richtung der Farbabtastung berücksichtigt. Werde trotzdem mal versuchen das oben richtig zu editieren.

Space


Antwort von Fader8:

Danke HT für deine ausführliche verständliche Antwort!

Space



Space


Antwort von deti:

Doch, könnte schon im Widerspruch stehen, denn RAW heisst nicht automatisch auch 4:4:4, Stimmt. s/w - Sensoren liefern auch kein 4:4:4. Zudem arbeiten Bayer-Sensoren ja auch im RGB-Farbraum, da wirds mit einer Farbunterabtastung schwieriger. Wenn man einmal versucht es einfach zu erklären, erklärt man es ziemlich schnell falsch. Nunja, es hängt ja nur von davon ab, ob sich mit dem Bayer-Muster ein Oversampling gegenüber der Zielauflösung ergibt oder nicht.

Beispiel: Ein einzelner Sensor mit 1920x1080, der im Bayer-Muster organisiert ist, kann logischerweise keine 1920x1080 = 2073600 farbige Pixel erzeugen, die voneinander unabhängig sind. Die Abhängigkeit ergibt sich ja aus dem jeweiligen Muster (in der Regel 2G, B, R). Grob könnte man daher annehmen, dass ein Sensor ab 1920*4x1080=8294400 Pixeln die nötige Auflösung für eine Vollabtastung liefert. Trotzdem leidet durch das Bayermuster die Farb-Ortsbestimmung, wenngleich diese in der Regel durch immer kleinere Pixel in der geringeren Abbildungsschärfe der vorgeschalteten Optik untergeht. Daher genügen auch etwa 30% mehr Pixel, um eine Vollabtastung zu erreichen.

Werden drei Sensoren mit jeweils mindestens 1920x1080 für die drei Grundfarben Rot, Grün und Blau eingesetzt, so ergibt sich in der Regel eine 4:4:4 Abtastung (abgesehen von der Rauschunterdrückung und die Bad-Pixel-Compensation).

Deti

Space


Antwort von nic:

Stimmt. s/w - Sensoren liefern auch kein 4:4:4. Zudem arbeiten Bayer-Sensoren ja auch im RGB-Farbraum, da wirds mit einer Farbunterabtastung schwieriger. Wenn man einmal versucht es einfach zu erklären, erklärt man es ziemlich schnell falsch. Nunja, es hängt ja nur von davon ab, ob sich mit dem Bayer-Muster ein Oversampling gegenüber der Zielauflösung ergibt oder nicht. Dann ist es allerdings kein RAW mehr.

Space


Antwort von Fader8:

hab dies noch gefunden:

http://www.hdvideopro.com/technique/mis ... ained.html

Space


Antwort von fubal147:

http://de.wikipedia.org/wiki/Containerformat

http://de.wikipedia.org/wiki/Codec

http://de.wikipedia.org/wiki/Videokompression

http://de.wikipedia.org/wiki/Bildkompression

http://www.netzwelt.de/news/81356-video ... ndeln.html

http://www.netzwelt.de/news/81134-beste ... muxen.html

http://www.netzwelt.de/news/80575-netzw ... rmate.html


gruß

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen //


Neue DJI Osmo Action 4 - ein paar Fragen dazu.
Ein paar FCP / MacOS - Tricks
Ich mach heut noch ein paar Portraits
Ein paar Resolve-Tricks
Sony FS700 schaltet sich nach ein paar Sekunden ab
Vegas Pro Update: Unterstützung von ProRes Codecs, Sprache-zu-Text (beta)
Ablauf / Konvertierung / Codecs
AMD Alveo MA35D: FPGA-Beschleuniger für AV1-, H.265- und H.264-Codecs
macOS 14 kann wieder externe Codecs einbinden - bald BRAW-Support durch MediaExtension-Framework?
Codecs
All-Intra Codecs
Fujifilm GFX Eterna: Sensor, Codecs und Modi der kommenden Cinema-Kamera
Sammelthread Fragen // Sony Creative Pro Night - powered by slashCAM
Fragen zur Website Vimeo.com...
Fragen zu diesem Effekt...
Panasonic G9 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
Fragen zum guten Ton
S1 4k50 Fragen an S1 User mit VLOG Upgrade




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash