Frage von Fader8:Hallo Leute,
In dieser Zeit liest man viel über die einzelnen Codecs der Kameras und wie wichtig sie später für das Grading und die Qualiät sind. Nun für mich ist das ganze doch etwas arg abstrakt und ich kann mir das ganze nicht so wirklich vorstellen. Ich bitte deshalb um simple Erklärungen und nicht Umformulierungen;
-Der Unterschied von 4:2:0 (compressed) und 4:2:2 und wieso das so ein Unterschied macht? (ich nehme an 4:4:4 ist dan RAW?!)
- Was sind die Unterschiede von All-I / IPB-Codec / H.264 / ProRes --> wie zeichnen sich diese später aus? Wieso sind gewisse optimaler für Bearbeitung?
- was ist der Gamma Log (kommt ja bei der neuen C100 vor) ?
Vielen Dank für die Antworten und mein Verständnis zu erweitern.
Liebe Grüsse
Antwort von HT:
Hallo Leute,
In dieser Zeit liest man viel über die einzelnen Codecs der Kameras und wie wichtig sie später für das Grading und die Qualiät sind. Nun für mich ist das ganze doch etwas arg abstrakt und ich kann mir das ganze nicht so wirklich vorstellen. Ich bitte deshalb um simple Erklärungen und nicht Umformulierungen;
-Der Unterschied von 4:2:0 (compressed) und 4:2:2 und wieso das so ein Unterschied macht? (ich nehme an 4:4:4 ist dan RAW?!)
Erstmal: Der folgende Text ist verkürzt, vereinfacht und manchmal ist auch leicht die Kausalität nicht eingehalten; er soll vor allem die Farge beantworten und weniger eine exakte Abhandlung darstellen
Um das genau zu erklären muss man ersteinmal ein klein bisschen Farblehre machen. Jeder kennt den RGB-Farbraum. Also aus Rot-grün und Blau lassen sich die verschiedensten Farben mischen. So werden die Computermonitore angesteuert und so nehmen Kameras auf. Nun wissen wir alle dass fernsehen vor nicht allzulanger Zeit schwarz-weiß war, also nur die Helligkeit des Bildes zeigte (Fachwort: Luminanz). Als man auf Farbe umstieg wollte man nicht alle bisherigen Fernseher unbrauchbar werden lassen, daher dachte man sich, man kann ja Farben auch durch ihre Helligkeit und den zwei weitere Farbkomponenten kodieren. (Die Details sind da schon etwas schwieriger zu verstehen weil man hier Differnenzen bildet, einfach mal nach YUV schauen, da gibt es im Netz ganz schöne Beispiele). Wie auch immer, statt Rot- Grün und Blauanteil hat man nun, Helligkeit - Farbdifferenz 1 und 2. Der vorteil ist nun: s/w-Fernseher können haben weiterhin ihren Helligkeitskanal und die Farbfernseher dazu noch die Farbe.
Aber, das ganze hatte noch einen weietren Vorteil: Der Mensch nimmt Helligkeitunterscheide eher war als Farbunterschiede. Klasse, dann können wir ja einen Farbkanal streichen und den anderen nur zur Hälte übertragen, also:
1*Helligkeit : 0.5*Farb1 : 0.5*Farb2
Dementsprechend sind nun nur 1/4 der Farbanteile enthalten.
daher schreibt man:
4:2:0, das bedeutet: wenn man vier Helligkeitswerte speichert, dann speichert man nur für ein Viertel davon die Helligkeit (Farbe besteht ja aus zwei Werten) , also (2/2)/4=0.25
Sieht man aber nicht. AUSSER man dreht viel an den Farben rum, ändert den Weissabgleich und ähnliches, dann sieht das Bild plötzlich farbärmer aus, da die anderen Farben ja nicht gespeichert wurden.
Daher verwendet man heute gern 4:2:2 um _leichte_ Korrekturen vorzunehmen und 4:4:4 wenn viel an den farben geändert werden muss. Amateure und SemiPros wissen aber dass man auch mit 4:2:0 einiges an Änderungen vornehmen kann bevor es auffällt.
RAW hat damit erstmal nichts zu tun, sondern sagt nur aus, dass das Material so gespeichert wird wie es der Sensor liefert, man hat daher also die maximale Bildqualität die die Kamera liefern kann.
- Was sind die Unterschiede von All-I / IPB-Codec / H.264 / ProRes --> wie zeichnen sich diese später aus? Wieso sind gewisse optimaler für Bearbeitung?
Also mal ein bisschen auseinandernehmen: H.264 und ProRes sind Codecs, also grobe Anleitungen wie man Dinge platzsparend speichern kann.
All-I, also Codecs die nur mit Intraframes arbeiten, sind viele komprimierte Bilder hintereinander, als würde man lauter JPEGs (wegen mir auch pngs) schnell ancheinader anzeigen.
Anders ist es bei IPB-Codecs, hier wird ab und zu ein komprimiertes Bild gespeichert, die bilder dazwischen sind aber keine echten Bidler sondern sagen nur wie sich das Bild im Vergleich zu den Vorgänger, dem Nachfolger verändert hat (etwa: Auto ist 3 Pixel nach vornen gefahren). Dadurch spart man Platz, allerdings müssen die Bilder zwischen den richtigen bildern erst errechnet werden -> Rechenzeit. Das ist vor allem für die Nachbearbeitung interessant: Müssen die Bilder selbst erst groß errechnet werden fehlt evtl. rechenpower für die Effekte.
- was ist der Gamma Log (kommt ja bei der neuen C100 vor) ?
So, erste farge: Wie gut erinnerst du dich an Mathe? Vlt. kennst du noch die log Funktion (Alternativ auch ln). Diese zeichnet sich dadurch aus, dass sie am Anfang sehr stark steigt (bei lim->+null sogar lim->+unendlich) und später immer langsamer. Die Steigung gibt in diesm Fall an wie Genau die Helligkeits/Farbinformationen bei dieser Halligekit gespeichert werden. Je höher die Steigung desto höher die Genauigkeit. Durch logkurven ist es also möglichbestimmt Bereiche sehr genau zu speichern und denoch auch sehr hellen Bereichen noch unterzubringen (wenn auch nicht so Genau).
Sonst hilft wie immer: Das Internet, hier zum Beispiel Canon bei der anhand der von dir beschrieben Canon C 300:
http://www.learn.usa.canon.com/resource ... amma.htmlp
Antwort von dienstag_01:
4:2:0 heisst nicht, dass ein Farb(-differenz)kanal gestrichen wird (sähe nicht wirklich gut aus), sondern dass die beiden Kanäle zeilenweise alternierend abgespeichert werden. Die Unterschiede der verschiedenen Farbsampling-Standards sind nicht wirklich mit Mathematik abbildbar.
Ansonsten aber interessante Erklärung.
Antwort von Debonnaire:
Danke HT, das war echt mal hilfreich! :-)
Antwort von nic:
RAW ist nicht 4:4:4, sondern RAW. Die (Farb)Auflösung wird durch den Sensor vorgegeben (Bayer, RGB, ...).
Antwort von deti:
RAW ist nicht 4:4:4, sondern RAW. Die (Farb)Auflösung wird durch den Sensor vorgegeben (Bayer, RGB, ...).
Da oben steht doch:
RAW hat damit erstmal nichts zu tun, sondern sagt nur aus, dass das Material so gespeichert wird wie es der Sensor liefert, ist daher auch 4:4:4 und nicht komprimiert.
... und das steht doch in keinem Widerspruch.
Deti
Antwort von Debonnaire:
Doch, könnte schon im Widerspruch stehen, denn RAW heisst nicht automatisch auch 4:4:4, ausser eben der Sensor würde das so aufzeichnen und die Kamera es speichern können. Das ist bei Kameras unterhalb einer Arri Alexa aber wohl kaum je gegeben...
Antwort von HT:
Doch, könnte schon im Widerspruch stehen, denn RAW heisst nicht automatisch auch 4:4:4,
Stimmt. s/w - Sensoren liefern auch kein 4:4:4. Zudem arbeiten Bayer-Sensoren ja auch im RGB-Farbraum, da wirds mit einer Farbunterabtastung schwieriger. Wenn man einmal versucht es einfach zu erklären, erklärt man es ziemlich schnell falsch.
4:2:0 heisst nicht, dass ein Farb(-differenz)kanal gestrichen wird (sähe nicht wirklich gut aus), sondern dass die beiden Kanäle zeilenweise alternierend abgespeichert werden.
Ist natürlich richtig. Ebenfalls ist meine Verkürzung 4:2:0 steht für Helligkeit : Farbdifferenz 1 : Farbifferenz 2 natürlich nicht exakt. Andererseits: Das ganze wird ziemlich schnell sehr komplex, wenn man dann noch die Richtung der Farbabtastung berücksichtigt. Werde trotzdem mal versuchen das oben richtig zu editieren.
Antwort von Fader8:
Danke HT für deine ausführliche verständliche Antwort!
Antwort von deti:
Doch, könnte schon im Widerspruch stehen, denn RAW heisst nicht automatisch auch 4:4:4,
Stimmt. s/w - Sensoren liefern auch kein 4:4:4. Zudem arbeiten Bayer-Sensoren ja auch im RGB-Farbraum, da wirds mit einer Farbunterabtastung schwieriger. Wenn man einmal versucht es einfach zu erklären, erklärt man es ziemlich schnell falsch.
Nunja, es hängt ja nur von davon ab, ob sich mit dem Bayer-Muster ein Oversampling gegenüber der Zielauflösung ergibt oder nicht.
Beispiel: Ein einzelner Sensor mit 1920x1080, der im Bayer-Muster organisiert ist, kann logischerweise keine 1920x1080 = 2073600 farbige Pixel erzeugen, die voneinander unabhängig sind. Die Abhängigkeit ergibt sich ja aus dem jeweiligen Muster (in der Regel 2G, B, R). Grob könnte man daher annehmen, dass ein Sensor ab 1920*4x1080=8294400 Pixeln die nötige Auflösung für eine Vollabtastung liefert. Trotzdem leidet durch das Bayermuster die Farb-Ortsbestimmung, wenngleich diese in der Regel durch immer kleinere Pixel in der geringeren Abbildungsschärfe der vorgeschalteten Optik untergeht. Daher genügen auch etwa 30% mehr Pixel, um eine Vollabtastung zu erreichen.
Werden drei Sensoren mit jeweils mindestens 1920x1080 für die drei Grundfarben Rot, Grün und Blau eingesetzt, so ergibt sich in der Regel eine 4:4:4 Abtastung (abgesehen von der Rauschunterdrückung und die Bad-Pixel-Compensation).
Deti
Antwort von nic:
Stimmt. s/w - Sensoren liefern auch kein 4:4:4. Zudem arbeiten Bayer-Sensoren ja auch im RGB-Farbraum, da wirds mit einer Farbunterabtastung schwieriger. Wenn man einmal versucht es einfach zu erklären, erklärt man es ziemlich schnell falsch.
Nunja, es hängt ja nur von davon ab, ob sich mit dem Bayer-Muster ein Oversampling gegenüber der Zielauflösung ergibt oder nicht.
Dann ist es allerdings kein RAW mehr.
Antwort von Fader8:
hab dies noch gefunden:
http://www.hdvideopro.com/technique/mis ... ained.html
Antwort von fubal147:
http://de.wikipedia.org/wiki/Containerformat
http://de.wikipedia.org/wiki/Codec
http://de.wikipedia.org/wiki/Videokompression
http://de.wikipedia.org/wiki/Bildkompression
http://www.netzwelt.de/news/81356-video ... ndeln.html
http://www.netzwelt.de/news/81134-beste ... muxen.html
http://www.netzwelt.de/news/80575-netzw ... rmate.html
gruß