Hallo,Axel hat geschrieben:laßt die blöden Witze, das kann doch gar nicht gehen
SD und HD (auch HDV ist HD) haben komplett unterschiedliche Farbräume. Die Kamera muß das so machen sonst wäre sie ausser der Norm. Die Schnittsoftware sollte das aber berücksichten. Bei Premiere weiß ich das nicht EDIUS Pro 4 und AvidExpress tuen das automatisch.fleshmann hat geschrieben:Nun ja, sei´s drum - ich nehme an, daß der kamerainterne DV-Converter der HC1 dafür verantwortlich zeichnet. Wundern würde mich auch nicht, wenn Sony an dieser Stelle vorsätzlich leichte Bildunterschiede "eingebaut" hat, um die Formate möglichst inkompatibel zu halten und so den DV-Markt nicht unnötig am Leben zu erhalten..
Vielen Dank schonmal und viele Grüße
Genau so ist es. Was mich nur wundert ist der Umstand, dass man in dieser "Mischverarbeitung" offenbar händisch die Eigenschaften des HDV2 Quellmaterials einstellen muss. Ok, die Erkennungsfähigkeit gerade bei der Halbbildfolge ist halt immer eine beschränkte - in verschiedenen NLEs.Wiro hat geschrieben:Wenn das Projekt DV = unteres Halbbild ist und ich ein Footage mit oberem Halbbild einfüge, muß ein Algorithmus dafür sorgen, daß die jeweils zeitlich früher aufgenommenen Zeilen in der richtigen zeitlichen Reihenfolge abgespielt (gerendert) werden.
So richtig das ist, das ist Willie sicherlich bewußt. Die NLE braucht ja auch nur die richtigen Eigenschaften des Quellmaterials zu kennen - und dann hat sie autark die richigen Berechnungen usw durchzuführen.TheBubble hat geschrieben:Leider kann man nicht einfach alle graden und ungraden Zeilen vertauschen, um die Halbbildreihenfolge zu ändern. Dies liegt daran, dass sich die Zeilen neben dem zeitlichen Versatz auch in ihrer räumlichen Position unterscheiden.
Doch, hat es - zumindest im Kontext dieses Threads. Und zwar deshalb, weil das Mischen von DV-avi und HDV1/HDV2 auch das Mischen von Material in verschiedenen Farbräumen ist. Genauso, wie die NLE eigentlich erkennen muss, dass das Material in unterschiedlicher Halbildfolge vorliegt, muss die NLE auch erkennen, dass das Material in unterschiedlichen Farbräumen vorliegt. Und in Folge hat die NLE die Farbräume korrekt zu berücksichtigen, sonst hast du (vor allem im Rotbereich) Farbraumverschiebungen.TheBubble hat geschrieben: Mit Farbräumen hat dies nichts zu tun.
Worauf ich mit hinaus wollte: Es gibt leider nicht immer einen "richtigen" Weg, unterschiedliche Software kann sich verschieden verhalten.wolfgang hat geschrieben:und dann hat sie autark die richigen Berechnungen usw durchzuführen.
Zur Umwandlung, bzw. dem Mischen ist vielleicht noch zu sagen, dass nicht jedes Videoformat den gesamten RGB-Bereich verwendet, den ein PC darstellen kann und hier eventuelle leichte Unterschiede auftreten können.Anonymous hat geschrieben: Ich bezog mich nur auf das Vertauschen von Halbbildern, hierbei spielt der Farbraum, bzw. der zur Anwendung kommende Teil, keine Rolle.
Zum Ersten: ja, verschiedene NLEs interpretieren fallweise Material aus diversen Quellen falsch - Vegas etwa hatte manchmal mit Canopus Material Probleme. In diesem Fall sprechen wir aber von "stinknormalen" HDV2 Material. Warum dort die Halbbildfolge nicht erkannt wird - was ja bei mpegs nicht soo problematisch wie bei avis ist - das wissen nur die Götter (und die Entwickler...).Anonymous hat geschrieben: Worauf ich mit hinaus wollte: Es gibt leider nicht immer einen "richtigen" Weg, unterschiedliche Software kann sich verschieden verhalten.
Ich bezog mich nur auf das Vertauschen von Halbbildern, hierbei spielt der Farbraum, bzw. der zur Anwendung kommende Teil, keine Rolle.
Es geht leider nicht nur um das Erkennen der Halbbildanordnung des jeweiligen Films, auch wenn die Reihenfolge einmal richtig erkannt wurde, sie jedoch für die Ausgabedatei umgedreht werden muss, kann man dieses Umdrehen mit verschiedenen Verfahren bewerkstelligen.wolfgang hat geschrieben: Zum Ersten: ja, verschiedene NLEs interpretieren fallweise Material aus diversen Quellen falsch
So schwer dürfte es nicht werden, da meistens dir richtige Reihenfolge in der Datei eingebettet sein dürfte und nur wenn diese Information fehlt oder falsch ist nachgeholfen werden muss.wolfgang hat geschrieben: Lästig ist die Sache in jedem Fall - man stelle sich nur ein größeres Projekt mit ein paar 100 clips vor, wo man bei jedem Clip die Halbbildfolge händisch ändern muss??
Ich nehem an, Du meinst mit Farbraum die Untermenge der RGB-Farben, die z.B. vom Fernsehn (PAL) verwendet werden und die vom Umfang kleiner ist, als beispielsweise der von PC-Grafikkarten verwendete Bereich?wolfgang hat geschrieben: Man kann nur hoffen, dass die Mischung von SD und HDV Material hier keine Probleme bereitet. Die Halbbildfolge kann man ja offenbar noch händisch umstellen, Farbräume vermutlich kaum.
Die Helligkeitsunterschiede haben was mit unterschiedlichen Luma und Chroma Samplingraten zu tun. SD hat da andere Frequenzen als HD. Wenn die Schnittsoftware das nicht berücksichtigt kommt es zu Helligkeitsschwankungen wenn man SD und HD (auch HDV) auf einer Timeline mixed. Das hat nichts mit RGB oder YUV zu tun. Video ist immer YUV.TheBubble hat geschrieben: Ich nehem an, Du meinst mit Farbraum die Untermenge der RGB-Farben, die z.B. vom Fernsehn (PAL) verwendet werden und die vom Umfang kleiner ist, als beispielsweise der von PC-Grafikkarten verwendete Bereich?
Mit den Abtastraten hat das nichts zu tun, im YUV/YCrCb Farbmodell (sowie anderen ähnlichen Farbmodellen) trägt nur der Luminanz-Kanal die Helligkeitsinformationen. Kleine Differenzen bei der Umrechnung RGB->YCrCb->RGB können nur durch Rundungsfehler und unterschiedliche Interpolation/Approximation der fehlenden, da in Bezug auf die Helligkeit unterabgetasteten, Farbdifferenzwerte entstehen. Der einzige Unterschied kann sonst nur noch darin bstehen, dass MPEG-2 die Chroma-Werte an anderen geringfügig Positionen abtastet, als bei anderen 4:2:2 Formaten der Fall ist. Ohne das jetzt genau untersucht zu haben, gehe ich aber davon aus, das dies vernachlässigt werden kann.Stephan Kexel hat geschrieben: Die Helligkeitsunterschiede haben was mit unterschiedlichen Luma und Chroma Samplingraten zu tun.
Kann man so nicht pauschal sagen, dass ist eine vom Übertragungsverfahren oder verwendeten Codec abhängige Sache. Eine Software ist auf der "sicheren" Seite, wenn sie RGB-Daten verarbeitet und die Umrechnungen möglichst dem jeweiligen Codec oder der sonstigen Datenquelle überlässt.Stephan Kexel hat geschrieben: Video ist immer YUV.
Stephan hat dir die wesentliche Antwort geschrieben - nämlich, dass HDV in 709, SD in 601er Farbraum vorliegt. Vermischt man daher HDV uns SD clips in einem Projekt, dann muss die NLE dies beim Encoden des Materials berücksichtigen.Stephan Kexel hat geschrieben: Kurze Erklärung zur ITU 709 (HD) und 601 (SD) http://www.pcmag.com/encyclopedia_term/ ... 512,00.asp
Widersprichts Du dich nicht selbst?TheBubble hat geschrieben:Mit den Abtastraten hat das nichts zu tun, im YUV/YCrCb Farbmodell (sowie anderen ähnlichen Farbmodellen) trägt nur der Luminanz-Kanal die Helligkeitsinformationen. Kleine Differenzen bei der Umrechnung RGB->YCrCb->RGB können nur durch Rundungsfehler und unterschiedliche Interpolation/Approximation der fehlenden, da in Bezug auf die Helligkeit unterabgetasteten, Farbdifferenzwerte entstehen. Der einzige Unterschied kann sonst nur noch darin bstehen, dass MPEG-2 die Chroma-Werte an anderen geringfügig Positionen abtastet, als bei anderen 4:2:2 Formaten der Fall ist. Ohne das jetzt genau untersucht zu haben, gehe ich aber davon aus, das dies vernachlässigt werden kann.Stephan Kexel hat geschrieben: Die Helligkeitsunterschiede haben was mit unterschiedlichen Luma und Chroma Samplingraten zu tun.
Ich rede oben über Video und nicht über Dateien. Und da kann man das ganz pauschal sagen!!! (Es gibt spezielle RGB Kamera's, ich gehe aber hier nicht davon aus das die jemenad hier nutzt.)TheBubble hat geschrieben:Kann man so nicht pauschal sagen, dass ist eine vom Übertragungsverfahren oder verwendeten Codec abhängige Sache. Eine Software ist auf der "sicheren" Seite, wenn sie RGB-Daten verarbeitet und die Umrechnungen möglichst dem jeweiligen Codec oder der sonstigen Datenquelle überlässt.Stephan Kexel hat geschrieben: Video ist immer YUV.
Über dieses Thema gibt es schon seit Jahren Grundsatzdiskussionen die man sich erstmal durchlesen sollte bevor man obige Aussage macht.TheBubble hat geschrieben:
Eine Software ist auf der "sicheren" Seite, wenn sie RGB-Daten verarbeitet und die Umrechnungen möglichst dem jeweiligen Codec oder der sonstigen Datenquelle überlässt.
Nicht aufregen. Alle Fernseher sind RGB, was von den Kameras aufgenommen wird, ist es auch. Auch beim analogen Video existiert YUV nur intern. Egal wie das Signal intern verarbeitet wird, interessant ist das, was wieder herauskommt. Und es ging um Schnittsoftware: Diese arbeitet nunmal nicht mit analogen YUV Signalen, sondern mit Dateien.Stephan Kexel hat geschrieben:Ich rede oben über Video und nicht über Dateien. Und da kann man das ganz pauschal sagen!!! (Es gibt spezielle RGB Kamera's, ich gehe aber hier nicht davon aus das die jemenad hier nutzt.)
Wow, was für ne Weißheit. Da schreib ich jetzt lieber nichts zu.TheBubble hat geschrieben:Nicht aufregen. Alle Fernseher sind RGB, was von den Kameras aufgenommen wird, ist es auch. Auch beim analogen Video existiert YUV nur intern. Egal wie das Signal intern verarbeitet wird, interessant ist das, was wieder herauskommt. Und es ging um Schnittsoftware: Diese arbeitet nunmal nicht mit analogen YUV Signalen, sondern mit Dateien.Stephan Kexel hat geschrieben:Ich rede oben über Video und nicht über Dateien. Und da kann man das ganz pauschal sagen!!! (Es gibt spezielle RGB Kamera's, ich gehe aber hier nicht davon aus das die jemenad hier nutzt.)
Ich bin ja da nun kein Experte, sondern Anwender? Aber gabs nicht sehr wohl Diskussionen, ob Effekte im RGB oder YUV berechnet werden? Das machte wohl einen gewissen Unterschied. Und die Datein müssen ja wohl in Farbräumen berechnet werden - würde ich mal vermuten.TheBubble hat geschrieben:Und es ging um Schnittsoftware: Diese arbeitet nunmal nicht mit analogen YUV Signalen, sondern mit Dateien.
Deswegen sagte ich ja auchwolfgang hat geschrieben:Ich bin ja da nun kein Experte, sondern Anwender? Aber gabs nicht sehr wohl Diskussionen, ob Effekte im RGB oder YUV berechnet werden?
Es ist richtig, dass Programme, die ihre Effekte mit möglichst wenig Rechenaufwand anwenden wollen (um besonders schnell fertig zu sein), dies teilweise ohne vorherige Rückkonvertierung der Farben nach RGB (durch den Codec) tun, um auf den Rechenaufwand zu verzichten.thebubble hat geschrieben: Eine Software ist auf der "sicheren" Seite, wenn sie RGB-Daten verarbeitet und die Umrechnungen möglichst dem jeweiligen Codec oder der sonstigen Datenquelle überlässt.
Ich interessiere mich aber für Theorie und technische Details :)wolfgang hat geschrieben:Nee, die Sache ist nicht soo komplex - solange man sich nicht ins technische Detail verliert.