Frage von Olaf Leonhard:Hier eine Frage, die sich vielleicht nicht jeder bisher gestellt hat.
Gecapturetes Videomaterial hat gelegentlich (unsaubere) Ränder.
Andererseits wird Video beim Codieren zu DV in kleine Quadrate von (meines Wissens) 16 Pixeln zerlegt.
Will mann nun jeweils 8 Pixel an jedem Rand kappen so liegen horizontal und auch vertikal die Kanten der ehemaligen Quadrate. Codiere ich nun neu und zelegt dieser Codec ein einzelnes Bild wieder in Bereiche von 16 Pixel, so erwarte ich das die Kanten-Artefakte der ersten Kompression sich bei erneuter Compression stark ungünstig auswirken.
Welche Lösungen gibt es?
Benutzt DV wirklich eine 16x16 Quadrate?
Welche Bereichsgrößen werden von MPEG2, MPEG4, Xvid, Dvix und H.264 benutzt?
http://www.olaf-leonhard.de
Antwort von Marco:
: Benutzt DV wirklich eine 16x16 Quadrate?
Nein, das ist Unsinn.
Für die Analyse eines Videos benutzt DV u.a. 8x8 Pixel Matrixen. Aber eben nur für eine Analyse.
Marco
Antwort von videofreak1:
übrigens arbeiten m.w. alle modernen codecs mit einer sogenannten ortsfrequenzanalyse, d.h., es gehen sowieso informationen im bild verloren. und das bezieht sich auf den wegzulassenen luma-anteil, dessen zugehörigen chroma-anteil man anschleißend ebenfalls wegläßt. so stellt die codierung sicher, daß man die festgelegten bandbreiten von pal/ntsc nicht überschreitet.
Antwort von wolfgang:
: Richtig Marco, ohne jetzt extra nachzuschauen, genauso ist es, ich meine Lead, Pic Vic
: und Morgan haben solche Codecs im Angebot. Dabei kann man dann auch 4:4:4 auswählen.
Wobei sich immer die Frage stellt, ob man wirklich *verlustfrei* komprimieren muß - der PIC mjepg codec liefert auch etwa in den Qualitätseinstellungen 17 oder 18 (eine Stufe unter dem bestmöglichen Wert) sehr gute Ergebnisse, bei den morgan codec ists nicht anders. Ich verwende diese codecs zum capturen eines hochwertigen SVHS Signals aus einem digitalen Sat-receiver, und stehe auch mit einer nicht verlustfreien Einstellung (Kompressionsverhältnis 7:1) dort dann eher an der Qualität des (aber sehr sauberen) SVHS Signals an. Reicht für meine Zwecke völlig aus, ist auf einem normalen 72 cm TV optisch kaum mehr von einer Kauf-DVD zu unterscheiden.
Antwort von wolfgang:
: Streitet Euch doch nicht.
Marco, laß sie doch streiten! So ein wenig Vor-Weihnachtstimmung ist doch immer was tolles, entspannt, beruhigt die Nerven ...
Aber wehe ihr macht das bei uns!
:-))))))
Antwort von wolfgang:
Super Posting, Stefan - danke!
Antwort von Stefan:
Du hast Recht, das "Chromasubsampling" hat mit der unterschiedlichen Empfindlichkeit des Auges für Helligkeits- und Farbinformationen zu tun.
Optimal würde man ein Feld von 4 Punkten mit der Helligkeits- und Farbinformation jedes einzelnen Punkts beschreiben. Das wäre ein 4:4:4 Subsampling. An Speicher bräuchtest Du
im RGB Farbraum
4 Stellen für Farbinfo1 der vier Punkte +
4 Stellen für Farbinfo2 der vier Punkte +
4 Stellen für Farbinfo3 der vier Punkte
oder im YUV Farbraum, in dem aus der Helligkeit und zwei Farbinformationen die dritte Farbinformation zusammengerechnet werden kann
4 Stellen für Helligkeit der vier Punkte +
4 Stellen für Farbinfo1 der vier Punkte +
4 Stellen für Farbinfo2 der vier Punkte
Aber es geht auch, wenn man die Helligkeit jedes Punktes aufzeichnet und die gemittelte Farbinformation von mehreren z.B. zwei oder vier Punkten. Dadurch spart man Platz.
4 Stellen für Helligkeit der vier Punkte +
1 Stellen für Farbinfo1 der vier Punkte +
1 Stellen für Farbinfo2 der vier Punkte
Damit wärst Du beim 4:2:0 Subsampling. Frag' jetzt aber nicht wieso es 4:2:0 heisst und nicht 4:1:1 ;)
Interpolieren kann man jetzt zwischen zwei (oder mehr) solcher Vierpunkthaufen. Stell Dir einen roten und einen blauen Haufen nebeneinander vor
RR BB
RR BB
Ungeschickt interpoliert könntest Du z.B. auf ein neues Muster mit der Mischfarbe Lila kommen
RL LB
RL LB
Geschickt interpoliert kommt vielleicht so was wie
Rr bB
Rr bB
mit einem bläulicheren Rot (r) und einem rötlicheren Blau (b) besser.
Um diese neue Farbinformation in dem Bild für weitere Berechnungen unterzubringen, muss man mit einem genaueren Chroma Subsampling arbeiten. Du brauchst an Speicher
4 Stellen für Helligkeit der vier Punkte +
1 Stellen für Farbinfo1 der zwei R-Punkte +
1 Stellen für Farbinfo2 der zwei R-Punkte
1 Stellen für Farbinfo1 der zwei r-Punkte +
1 Stellen für Farbinfo2 der zwei r-Punkte
Damit wärst Du beim 4:2:2 Subsampling.
Gruss
Stefan
Antwort von wolfgang:
: Es ist meines Erachtens nicht das 4:2:2-Sampling, was dabei etwas glattbügelt, denn
: 4:2:2-Sampling hat einfach nichts mit einer Interpolation zu tun.
Ich habe davon ja wirklich nicht viel Ahnung, aber wenn ich mich recht erinnere, wird ja bei 4:2:2 einfach eine Farbinformation weggelassen - die das menschliche Auge im Regefall kaum wahrnimmt. Kann mir irgendwie nicht vorstelle, wie eine somit fehlende Information neuerlich reinkommen sollte - durch Interpolation von was?
Antwort von Stefan:
Das mit dem Chroma-Smoothing sehe ich genauso wie Marco.
Bei
http://www.adamwilt.com/SteppyEdges.htm ... Edges.html ist der Hinweis, dass der Avid DV Codec das macht und der Matrox DV Codec auf Wunsch auch. Wobei danach der Matrox zusätzlich auch Interpolation kann. Interessanter Aspekt...
Nützlich wird das Upsampling, wenn nicht-4:2:0-Material also z.B. Grafiken mit DV Material zusammen verarbeitet wird. Hierbei macht es Sinn die Zwischenberechnungen genauer zu halten und erst ganz am Schluss wieder auf DV Material runterzubrechen. Auch wenn das zunächst mal heisst, für das DV Material speicherseitig mehr Platz zu verbraten.
Gruss
Stefan
Antwort von Stefan:
Naja ich kann da nicht helfen. Mein Halbwissen habe ich aus den verschiedenen Netzquellen. Etliche Leute haben bereits gute Artikel und Bücher z.B. über das Sampling und Kompressionsverfahren geschrieben. Und bzgl. der Eigenarten der verschiedenen Codecs habe ich auch nur angelesenes Wissen Bei meinem Videorechner halte ich mich an die Maxime "Never change a running system" und überlasse Codec-Experimente anderen.
Gruss
Stefan
Antwort von Olaf Leonhard:
Da dieses nun Frage hier bereits allgemeine Munterkeit erzeugt hat, würde ich gerne gemeinsam mit Euch allen eine kurze knappe Antwort in tabellarischer Form für die FAQ-Liste formulieren, etwa so
Kantenefeckt Farbsampling | Kanteneffekt Makroblock
Codec x 4x4 Blöcke 8x8 Blöcke
Codec y 4x4 Blöcke 16x16 Blöcke
Codec z - Blöcke - Blöcke
wobei das 4:2:0 Farbsampling wegen der für die einzelnen Komponenten versetzen 4x4 Blöcke sicherlich noch einer Bemerkung bedarf.
Olaf
Antwort von Marco:
: mein posting, was ich meine, war am 14.dezember um 09:50 uhr. oben nachsehen und
: staunen.
Schon klar, aber darauf hatte ich mich ja gar nicht bezogen, sondern auf die Aussage, dass durch "nachträgliche Interpolation auf 4:2:2" etwas glattgebügelt werden könnte.
Wenn wir das Gleiche meinen, ist ja alles bestens.
Marco
Antwort von videofreak1:
: marco, das habe ich weiter oben auch schon GENAU SO hingeschrieben. ich wollte nur
: nicht nochmal alles wiederkäuen, daher die kurzfassung! natürlich ist das kein
: bestandteil von 4:2:2, aber manche codecs könnes es und tun es auch (zusätzlich).
: lest doch bitte mal genauer, was ich weiter oben geschrieben habe. du hast dich da echt
: in was verrannt!
mein posting, was ich meine, war am 14.dezember um 09:50 uhr. oben nachsehen und staunen.
Antwort von videofreak1:
: In diesem Punkt werden wir uns nicht einig ;-)
: Es ist meines Erachtens nicht das 4:2:2-Sampling, was dabei etwas glattbügelt, denn
: 4:2:2-Sampling hat einfach nichts mit einer Interpolation zu tun. Und so manche
: Systeme, die mit 4:2:2 rendern, zeigen dabei tatsächlich keinerlei Optimierungen
: solcher verunstalteter Kanten. Soweit ich weiß ist diese Kantenglättung eine
: ZUSÄTZLICHE Maßnahme, die manche Systementwickler automatisch mit dem
: 4:2:2-Rendering koppeln.
marco, das habe ich weiter oben auch schon GENAU SO hingeschrieben. ich wollte nur nicht nochmal alles wiederkäuen, daher die kurzfassung! natürlich ist das kein bestandteil von 4:2:2, aber manche codecs könnes es und tun es auch (zusätzlich).
lest doch bitte mal genauer, was ich weiter oben geschrieben habe. du hast dich da echt in was verrannt!
Antwort von Marco:
: sie wars, sie wars!
: hrmhrm... er wars, er wars!
: ist hier etwa weibsvolk anwesend?
Hehehe, etwas Monty Phyton zur Vorweihnachtszeit hat noch nie geschadet ... ;-)
:
: ... und nur noch
: durch nachträgliche interpolation auf 4:2:2 im rechner "glattgebügelt"
: werden können.
In diesem Punkt werden wir uns nicht einig ;-)
Es ist meines Erachtens nicht das 4:2:2-Sampling, was dabei etwas glattbügelt, denn 4:2:2-Sampling hat einfach nichts mit einer Interpolation zu tun. Und so manche Systeme, die mit 4:2:2 rendern, zeigen dabei tatsächlich keinerlei Optimierungen solcher verunstalteter Kanten. Soweit ich weiß ist diese Kantenglättung eine ZUSÄTZLICHE Maßnahme, die manche Systementwickler automatisch mit dem 4:2:2-Rendering koppeln. Damit hat's für den Anwender den Anschein, das würde durch das 4:2:2-Sampling entstehen, hat aber dennoch nichts damit zu tun. Ich glaube, was da getan wird, ist nichts weiter als ein sogenanntes Chroma-Smoothing. Das hat zur Folge, dass an bestimmten Farbkanten in Abhängigkeit von dem Kontrast die Farbinformation dort in einem eng begrenzten Bereich interpoliert wird und zudem - ähnlich vielleicht wie bei einem Dithering - eine ganz leichte Streuung stattfindet. Diesen Effekt kann man durchaus auch ohne 4:2:2-Sampling haben, um ein DV-Video an Farbkanten, wo solch unschöne Kanten auftreten, zu optimieren.
Marco
Antwort von videofreak1:
sie wars, sie wars!
hrmhrm... er wars, er wars!
ist hier etwa weibsvolk anwesend?
ich habe auch geschrieben: "gibt es m.w. nicht". dieses "m.w." heißt "meines wissens". das war also keine absolute aussage, sondern eine antwort nach meinem wissenstand. aber wie gesagt, das ändert schon nix an der komprimierung und reduktion in der kamera. ursprünglich ging es ja um artefakte bzw. ränder im bild (wegen keyen etc.). und da tritfft m.e. zu, daß diese bereits durch die dv-kompression (stichwort 4:2:0) in der dv-kamera entstanden sind und nur noch durch nachträgliche interpolation auf 4:2:2 im rechner "glattgebügelt" werden können.
Antwort von Stefan:
Antwort von Marco:
Streitet Euch doch nicht.
Eine 8x8-Matrix ist allerdings noch kein Makroblock. Ich weiß es jetzt momentan so aus dem Kopf nicht genau, aber ein Makro-Block besteht wiederum aus 4 oder 6 solcher 8x8-Blöcke.
Marco
Antwort von Stefan:
: Videofreak,da soll es ja auch Leute geben, die auch durchgängig unkomprimiert capturen
: und danach evtl. komprimieren. Marco hat richtigerweise aufgezeigt, das dv 8X8
: Makroblöcke verwendet.
Das stimmt nicht. Marco hat aufgezeigt, dass zur Analyse bei DV 8x8 Pixel verwendet werden. Mit Macroblöcken hat das nix zu tun.
:
: Und keine Antwort ist immer noch besser als "ganz sicher" falsche. Dieses
: Forum wird möglicherweise von Leuten gelesen, die ganz neu im Metier sind. Wenn man
: nicht hundertprozentig sicher ist, dann besser vorsichtig mit irgendwelchem
: Statements. Im übrigen, wie gesagt, es gibt nicht nur einen sondern viele völlig
: verlustfreie Codecs.
Dann halte Dich auch daran, Olaf
:
: Nichts für ungut, jeder kann noch durch lesen was dazu lernen, deswegen sind wir ja
: hier. Olaf
Nö. Zumindestens ich nicht.
Stefan
Antwort von videofreak1:
: Videofreak,da soll es ja auch Leute geben, die auch durchgängig unkomprimiert capturen
: und danach evtl. komprimieren.
nochmal, ganz langsam zum mitschreiben: die kompression findet bereits in der kamera statt! beim capturen wird der dv-datenstrom überhaupt nicht angetastet!!!
solltest du einen dv-datenstrom z.b. über einen komponenten-eingang unkomprimiert capturen, würde es außer einer unglaublichen aufblähung der datenmenge im pc keine positiven auswirkungen haben, denn s.o.: die kompression findet vorher schon statt.
Antwort von Olaf Leonhard:
: jetzt tu mal nicht so überheblich! :-/ basiswissen für bildbearbeitung ist mehr als
: genug vorhanden, das kannste mir glauben. bloß, weil ich nicht jeden verfügbaren
: codec kenne, heißt es nicht, daß ich keine ahnung vom thema habe. also: nicht so
: extrem rumstrunxen, sonst wirst du bei fragen bald gar keine antworten mehr
: bekommen. ich hab nämlich noch was besseres zu tun, als mich von dir anmaulen zu
: lassen. das klingt vielleicht etwas hart, ist aber nicht böse gemeint.
:
: zurück zum thema: wie ich bereits mehrfach angemerkt habe, ist ja bereits in der
: dv-kamera ein hardware-dv-codec integriert, der die ganzen probleme bereits
: verursacht. da kannste dir 100 verlustfreie codecs für 1000$ kaufen, es wird nicht
: besser.
Videofreak,da soll es ja auch Leute geben, die auch durchgängig unkomprimiert capturen und danach evtl. komprimieren. Marco hat richtigerweise aufgezeigt, das dv 8X8 Makroblöcke verwendet.
Und keine Antwort ist immer noch besser als "ganz sicher" falsche. Dieses Forum wird möglicherweise von Leuten gelesen, die ganz neu im Metier sind. Wenn man nicht hundertprozentig sicher ist, dann besser vorsichtig mit irgendwelchem Statements. Im übrigen, wie gesagt, es gibt nicht nur einen sondern viele völlig verlustfreie Codecs.
Nichts für ungut, jeder kann noch durch lesen was dazu lernen, deswegen sind wir ja hier. Olaf
Antwort von videofreak1:
: Richtig Marco, ohne jetzt extra nachzuschauen, genauso ist es, ich meine Lead, Pic Vic
: und Morgan haben solche Codecs im Angebot. Dabei kann man dann auch 4:4:4 auswählen.
:
: Mister Videofreak, auf Deinen Hosenboden, :-), ganz sicher.... doch, geh einfach auf
: ein paar Codec Seiten und les ein bisschen. Minimal Voraussetzung für gute Filme ist
: ja auch Basiswissen Bildbearbeitung, les da doch auch noch ein bisschen, da wirst D
: dan auch lernen, das es auch dort verlustfreie Jpeg Kompressionen gibt, z. B. auch
: von Lead, kostet halt 1000$, geben tut es soetwas aber schon lange.
jetzt tu mal nicht so überheblich! :-/ basiswissen für bildbearbeitung ist mehr als genug vorhanden, das kannste mir glauben. bloß, weil ich nicht jeden verfügbaren codec kenne, heißt es nicht, daß ich keine ahnung vom thema habe. also: nicht so extrem rumstrunxen, sonst wirst du bei fragen bald gar keine antworten mehr bekommen. ich hab nämlich noch was besseres zu tun, als mich von dir anmaulen zu lassen. das klingt vielleicht etwas hart, ist aber nicht böse gemeint.
zurück zum thema: wie ich bereits mehrfach angemerkt habe, ist ja bereits in der dv-kamera ein hardware-dv-codec integriert, der die ganzen probleme bereits verursacht. da kannste dir 100 verlustfreie codecs für 1000$ kaufen, es wird nicht besser.
Antwort von Olaf Leonhard:
: Vergessen: Fast gleich kann es übrigens durchaus bei M-JPEG sein. Es gibt für die
: M-JPEG Komprimierung einen sogenannten "lossless"-Modus. Auch hier besteht
: die Komprimierung dann nur noch aus einem wiederherstellbaren Packvorgang. Ich weiß
: allerdings nicht, ob es hierfür auch die Möglichkeit gibt, ganz ohne Farbreduktion
: zu arbeiten. Abgesehen von der Farbreduktion ist hier aber auch M-JPEG tatsächlich
: verlustfrei. Allerdings ist hier die Komprimierung dann recht uneffektiv, Faktor
: 1,2:1.
:
: Marco
Richtig Marco, ohne jetzt extra nachzuschauen, genauso ist es, ich meine Lead, Pic Vic und Morgan haben solche Codecs im Angebot. Dabei kann man dann auch 4:4:4 auswählen.
Mister Videofreak, auf Deinen Hosenboden, :-), ganz sicher.... doch, geh einfach auf ein paar Codec Seiten und les ein bisschen. Minimal Voraussetzung für gute Filme ist ja auch Basiswissen Bildbearbeitung, les da doch auch noch ein bisschen, da wirst D dan auch lernen, das es auch dort verlustfreie Jpeg Kompressionen gibt, z. B. auch von Lead, kostet halt 1000$, geben tut es soetwas aber schon lange.
Antwort von Marco:
: Geht etwas arg vom eigentlich Thema ab. Aber es gibt durchaus die Möglichkeit, ein
: Video ohne Farbreduktion zu komprimieren. Eine Möglichkeit wäre beispielsweise, das
: Quicktime-Format zu verwenden, dabei TIFF auswählen und hier "pack bits"
: bzw. LZW als Packmethode auszuwählen. Dann bleiben die Bilddaten vollkommen
: unverändert und werden einfach nur - ähnlich wie im ZIP-Verfahrung -
: zusammengepackt.
Vergessen: Fast gleich kann es übrigens durchaus bei M-JPEG sein. Es gibt für die M-JPEG Komprimierung einen sogenannten "lossless"-Modus. Auch hier besteht die Komprimierung dann nur noch aus einem wiederherstellbaren Packvorgang. Ich weiß allerdings nicht, ob es hierfür auch die Möglichkeit gibt, ganz ohne Farbreduktion zu arbeiten. Abgesehen von der Farbreduktion ist hier aber auch M-JPEG tatsächlich verlustfrei. Allerdings ist hier die Komprimierung dann recht uneffektiv, Faktor 1,2:1.
Marco
Antwort von Marco:
Geht etwas arg vom eigentlich Thema ab. Aber es gibt durchaus die Möglichkeit, ein Video ohne Farbreduktion zu komprimieren. Eine Möglichkeit wäre beispielsweise, das Quicktime-Format zu verwenden, dabei TIFF auswählen und hier "pack bits" bzw. LZW als Packmethode auszuwählen. Dann bleiben die Bilddaten vollkommen unverändert und werden einfach nur - ähnlich wie im ZIP-Verfahrung - zusammengepackt.
Marco
Antwort von videofreak1:
: Solche verlustfreien gibt es viele, zum Beispiel Bitjazz und viele Mjpeg CODECS. Sie
: bieten sogar die Wahl, welches Farbsampling Du benutzen möchtest. Das ist natürlich
: keine Freeware und somit nicht unbedingt was für jeden.
im angesprochenen sinne veroustfrei sind m.e. auch diese nicht (mjpeg ganz sicher nicht), denn bitgleiche ausgangsbilder wie das unkomprimierte signal erreichen auch diese codecs nicht zurück. selbst wenn sie 4:4:4 machen, reduzieren die übrigen im codec verwendeten verfahren intern die datenmenge. übrigens ist dv eine abwandlung von mjpeg.
aber eigentlich ist es müßig, so weit einzusteigen. im endeffekt ist nur wichtig, daß die kantenunreinheiten bei vielen dv-codecs von der 4:2:0-abtastung herrühren, einige wenige dv-codecs interpolieren das material beim einlesen nach 4:2:2, um so keine harten sprünge beim keyen zu erzeugen.
tests mit sehr guten kameras und ms-dv-codec vs. canopus-dv-codec beweisen das eindrucksvoll. zu diesem thema gibt es auch auf
http://www.hackermovies.com" einige diskussionen mit beispielbildern, die das deutlich zeigen.
Antwort von Olaf Leonhard:
: tja, da gibt es ein definitionsproblem. von vielen experten wird selbst dv als
: verlustfrei bezeichnet, obwohl erwiesenermaßen ein teil der info flöten geht. das
: liegt einfach daran, daß man wohl heutzutage davon ausgeht, daß, wenn ein bild bis
: zu soundsoviel prozent wieder errechnet werden kann, man es noch als verlustfrei
: bezeichnet (jaja, darüber hab ich mich auch schon aufgeregt und lange diskussionen
: geführt). wirklich verlustfrei sind dem sinne des wortes nur verfahren, welche das
: farbsampling auch in frieden lassen und die ganze zeit 4:4:4 arbeiten würden und
: nach decrompression bitgleiche ausgangsbilder zurückerhalten. sowas gibts m.w.
: nicht.
Solche verlustfreien gibt es viele, zum Beispiel Bitjazz und viele Mjpeg CODECS. Sie bieten sogar die Wahl, welches Farbsampling Du benutzen möchtest. Das ist natürlich keine Freeware und somit nicht unbedingt was für jeden.
Antwort von videofreak1:
: Machen wir uns doch mal eines klar 4
:x:x Sampling ist der einer der erste Schritte, der
: beim Kodieren stattfindet. Sozusagen einen Umwandlung von 24Bit auf 16 Bit bspw.
:
: Dies gilt für die meisten Codecs, auch für die, die bei weiteren Schritten VERLUSTFREI
: arbeiten. Reduziert man die Diskussion nun auf 4
:x:x Sampling, so reduziert man die
: Diskussion auf VERLUSTFREIE Codecs.
:
: Sprechen wir nun über VERLUSTBEHAFTETE Kompression, so müssen wir mal ein paar mehr
: Aspekte auf den Tisch legen, wie eben Makroblöcke oder Fehlerkorrekturen, die erst
: in diesen weiterem Schritten eingeführt werden
tja, da gibt es ein definitionsproblem. von vielen experten wird selbst dv als verlustfrei bezeichnet, obwohl erwiesenermaßen ein teil der info flöten geht. das liegt einfach daran, daß man wohl heutzutage davon ausgeht, daß, wenn ein bild bis zu soundsoviel prozent wieder errechnet werden kann, man es noch als verlustfrei bezeichnet (jaja, darüber hab ich mich auch schon aufgeregt und lange diskussionen geführt). wirklich verlustfrei sind dem sinne des wortes nur verfahren, welche das farbsampling auch in frieden lassen und die ganze zeit 4:4:4 arbeiten würden und nach decrompression bitgleiche ausgangsbilder zurückerhalten. sowas gibts m.w. nicht.
Antwort von Olaf Leonhard:
: Der letzte Beitrag bezog sich natürlich nur auf die Motivation zum Croppen. Wenn solch
: eine Unsharp Mask in Cameras eingesetzt wird, kann mann ja vielleicht auch erwarten,
: das dies vor der Kompression entsteht.
Machen wir uns doch mal eines klar 4
:x:x Sampling ist der einer der erste Schritte, der beim Kodieren stattfindet. Sozusagen einen Umwandlung von 24Bit auf 16 Bit bspw.
Dies gilt für die meisten Codecs, auch für die, die bei weiteren Schritten VERLUSTFREI arbeiten. Reduziert man die Diskussion nun auf 4
:x:x Sampling, so reduziert man die Diskussion auf VERLUSTFREIE Codecs.
Sprechen wir nun über VERLUSTBEHAFTETE Kompression, so müssen wir mal ein paar mehr Aspekte auf den Tisch legen, wie eben Makroblöcke oder Fehlerkorrekturen, die erst in diesen weiterem Schritten eingeführt werden
Olaf
Antwort von Olaf Leonhard:
: Videofreak
:
: was Du schreibst, ist natürlich die allseitsbekannte "Unsharp Mask", die
: wirkt sich aber über sämtliche Kante innerhal des Bildes aus, ist also etwas völlig
: anderes.
:
: Das gecapture Material sitzt aber einfach "verschoben" im Bildschrim, un
: daher fehlt natürlich am Rand etwas.
Der letzte Beitrag bezog sich natürlich nur auf die Motivation zum Croppen. Wenn solch eine Unsharp Mask in Cameras eingesetzt wird, kann mann ja vielleicht auch erwarten, das dies vor der Kompression entsteht.
Antwort von Olaf Leonhard:
: das liegt an der kamerainternen kantenanhebung bei vielen kameras. so wird subjektiv
: das bild schärfer, in wirklichkeit wird nur der kontrast an harten kanten erhöht.
: das hat aber nur indirekt mit problemen beim keying zu tun, denn bei manchen
: dv-kameras kann man die kantenanhebung abschalten und selbst dort hat man beim keyen
: probleme, wenn man nicht den canopus-dv-codec nutzt (oder codecs, die es ähnlich
: praktizieren).
Videofreak
was Du schreibst, ist natürlich die allseitsbekannte "Unsharp Mask", die wirkt sich aber über sämtliche Kante innerhal des Bildes aus, ist also etwas völlig anderes.
Das gecapture Material sitzt aber einfach "verschoben" im Bildschrim, un daher fehlt natürlich am Rand etwas.
Antwort von videofreak1:
: Den Grund für die Ränder sehe ich bei mir ursächlich in einer schlecht eingestellten
: Spur analog aufgenommen Hi8-Video. Dieses wurde dann mit einer D8-Kamera
: digitalisiert. Allerdings waren, wenn auch weniger stark, ebenfalls Ränder bei
: orginal mit der D8 Kamera aufgenommen Videos festzustellen.
das liegt an der kamerainternen kantenanhebung bei vielen kameras. so wird subjektiv das bild schärfer, in wirklichkeit wird nur der kontrast an harten kanten erhöht. das hat aber nur indirekt mit problemen beim keying zu tun, denn bei manchen dv-kameras kann man die kantenanhebung abschalten und selbst dort hat man beim keyen probleme, wenn man nicht den canopus-dv-codec nutzt (oder codecs, die es ähnlich praktizieren).
Antwort von Olaf Leonhard:
: durch die interpolation von 4:2:0 nach 4:2:2 entstehen an den pixeln nicht nur
: "farbe nicht vorhanden"- und "farbe vorhanden"-werte, sondern
: auch werte dazwischen. deshalb gibt es wohl weniger harte sprünge beim keyen.
Den Grund für die Ränder sehe ich bei mir ursächlich in einer schlecht eingestellten Spur analog aufgenommen Hi8-Video. Dieses wurde dann mit einer D8-Kamera digitalisiert. Allerdings waren, wenn auch weniger stark, ebenfalls Ränder bei orginal mit der D8 Kamera aufgenommen Videos festzustellen.
Die Sache mit dem 4:2:2 oder wie auchh immer gesampelt wird ist natürlich klar und allseits gut dokumentiert. Und genauso klar: Wo keine Information ist, da kann man sie natürlich auch nicht wieder hinzaubern.
Betrachtet man nun den H.264 Codec, so werden under anderem für die Luminanzkomponente 16x16 Bildpunkt- Blöcke gebildet und für die Chrominanz 8x8 Blöcke. Wen es interessiert, der kann es in CT 6/2003 Seite 267 nachlesen.
Insofern war mir nun nicht klar, ob es für DV, MPEG, DVIX und XVID nur die relativ bekannte 4
:x:x Samplings gibt oder auch noch was anders.
Wie siehts denn aus? Wer weiss denn was zu den anderen Codecs, DV, MPEG, DVIX und XVID?
Antwort von videofreak1:
: Wenn diese Art der Interpolation ein ausgewiesenes Merkmal eines solchen
: 4:2:2-Samplings wäre, würde mir das ja noch einleuchten. Ist es aber meines Wissens
: nicht. Zumindest konnte ich bisher noch nie irgendwo einen Nachweis finden, der
: "Schwarz auf Weiß" besagt, 4:2:2-Sampling wäre gleichbedeutend mit einer
: Farbinterpolation. Und es findet wohl auch keine Anwendung bei dem bloßen Rendering
: eines DV-Signals, sondern bestenfalls nur dann, wenn ein neues Bild durch
: Komposition von 2 anderen Bildern entsteht.
ich habe ja auch nicht geschrieben, daß es grundsätzlich teil der umwandlung nach 4:2:2 wäre, bzw., daß 4:2:2 immer farbinterpoliertes material wär! es gibt ja kameras, die sowieso im 4:2:2-modus arbeiten (digibeta etc.), da sind die farbinfos vorhanden.
bei dv und den angesprochenen speziellen codecs denke ich eher, daß die farbinterpolation im gleichen schritt geschieht, in dem nachfolgend nach 4:2:2 interpoliert wird.
Antwort von Marco:
: durch die interpolation von 4:2:0 nach 4:2:2 entstehen an den pixeln nicht nur
: "farbe nicht vorhanden"- und "farbe vorhanden"-werte, sondern
: auch werte dazwischen. deshalb gibt es wohl weniger harte sprünge beim keyen.
Wenn diese Art der Interpolation ein ausgewiesenes Merkmal eines solchen 4:2:2-Samplings wäre, würde mir das ja noch einleuchten. Ist es aber meines Wissens nicht. Zumindest konnte ich bisher noch nie irgendwo einen Nachweis finden, der "Schwarz auf Weiß" besagt, 4:2:2-Sampling wäre gleichbedeutend mit einer Farbinterpolation. Und es findet wohl auch keine Anwendung bei dem bloßen Rendering eines DV-Signals, sondern bestenfalls nur dann, wenn ein neues Bild durch Komposition von 2 anderen Bildern entsteht.
Also soweit ich z.B. PremierePro testen konnte - das soll angeblich intern in YUV arbeiten, aber von einer sochen Interpolation konnte ich dort nichts spüren. Konträr dazu kenne ich dieses Verhalten einer Interpolation an Farbkanten tatsächlich von einem System wie CineStream. Ob das nun aber wirklich ein typisches Merkmal von Systemen ist, die im YUV-Farbraum arbeiten, das wage ich solange zu bezweifeln, bis mir dazu ein Nachweis untergekommen ist.
Marco
Antwort von videofreak1:
: Aber eine Verbesserung unsauberer Kanten, die ohnhin schon auf einem DV-Signal
: vorhanden sind, durch eine interne 4:2:2-Verarbeitung und anschließendem Resampling
: auf 4:2:0, das leuchtet mir nicht ein. Kann mir das jemand genauer erklären?
durch die interpolation von 4:2:0 nach 4:2:2 entstehen an den pixeln nicht nur "farbe nicht vorhanden"- und "farbe vorhanden"-werte, sondern auch werte dazwischen. deshalb gibt es wohl weniger harte sprünge beim keyen.
Antwort von Marco:
: canopus hingegen wandelt intern alles in 4:2:2 um, so daß solche artefakte stark reduziert werden.
Das ist allerdings etwas, was mir bisher noch kein Mensch erklären konnte. Bei PAL-DV fehlt an irgendeiner Stelle etwas von der Farbinformation aufgrund des 4:2:0-Samplings. Soweit klar. Aber diese 4:2:0-Farbreduktion ist nicht wieder rückgängig zu machen. Dort, wo keine Farbinformation vorhanden ist, wird sie auch nicht dadurch wiederhergestellt, dass sie mit 4:2:2 gesampelt wird. Vielmehr ist meines Wissens der Vorteil von Canopus-Systemen, bzw. des Canopus-DV-Codecs, dass hier der Farbraumumfang des YUV-Signals nicht auf den RGB-Farbraumumfang umgerechnet werden muss. Das hat aber nichts mit 4:2:0 oder 4:2:2 zu tun. Auch das 4:2:0-Signal ist ein YUV-Signal. Und auch Systeme, die in RGB rendern, können den Farbraumumfang eines YUV-Signals korrekt übernehmen, ist eben nur die Frage, wie dabei umgerechnet wird.
Aber eine Verbesserung unsauberer Kanten, die ohnhin schon auf einem DV-Signal vorhanden sind, durch eine interne 4:2:2-Verarbeitung und anschließendem Resampling auf 4:2:0, das leuchtet mir nicht ein. Kann mir das jemand genauer erklären?
Marco
Antwort von videofreak1:
: Nein, das ist Unsinn.
:
: Für die Analyse eines Videos benutzt DV u.a. 8x8 Pixel Matrixen. Aber eben nur für eine
: Analyse.
eben. wenn die kanten bei dv unsauber werden, dann liegt das an der 4:2:0 abtastung von pal-dv. canopus hingegen wandelt intern alles in 4:2:2 um, so daß solche artefakte stark reduziert werden. bei der ausgabe wird natürlich wieder in 4:2:0 zurückgewandelt.