Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Infoseite // Konvertierungsfrage



Frage von blueplanet:


Hallo Forum: Kann jemand eine verlässlich bzw. technisch korrekte Antwort auf folgende Promblemstellung geben.

Als Quellmaterial dient ein AVCHD-File mit 1920x1080 Pixel, 50 fps und 28Mbit/s der in Adobe Premiere CS6 geschnitten wurde.

Die Ausgabe soll als H264 erfolgen. Als Rendereinstellungen habe dem Medienencoder in Premiere erneut 1920x1080 Pixel, 50 fps und 28Mbit/s vorgegeben. Daraus wird automatisch in Premiere ein sogn. "Level 4.2" ermittelt.

Fragen: Was bedeutet dieses "Level" für das Ausgabeformat bzw. für was ist es relavant? Ist es eine Spezifikation?

Wären für diese Projekteinstellungen die 28Mbit/s (wie sie die Kamera liefert) der Idealwert? Oder spielt das qualitativ für den fertigen Film keine Rolle? B.z.w. würde eine Veringerung der Datenmenge eine Verschlechterung der sichbaren Qualität zur Folge haben und im umgekehrten Sinne (beispielsweise 40Mbit/s) neben der natürlich wesentlich größeren Endgrößer der Datei, das qualitativ zum Vorteil reichen? Oder hat das am Ende nur auf das Streamingverhalten oder die Kompression der Datei einen Einfluss?

Nach Begutachtung von diversen Testfiles konnte ich augenscheinlich erst mal keinen Unterschied am TV zwischen den Mbit/s über den FANTEC-Mediaplayer erkennen - aber nichts Genaues weiss man(n) - eben.

Ich danke Euch im Vorraus und ein schönes Osterfest
Jens

Space


Antwort von Mylenium:

Ist es eine Spezifikation? Ja. MPEG Level definieren Standardauflösungen, Datenraten usw. Inwiefern die relevant sind, hängt von der weiteren Verwendung ab - für nur mal zu Hause auf'm PC anguggen isses wurscht. Zum Rest gibt's nur zu sagen, dass du dir unnötig das Hirn zermarterst - komprimiertes Material wird nichts an Qualität gewinnen, wenn man es nochmal komprimiert. Natürlich werden niedrigere Datenraten noch mehr Schaden machen als hohe, aber auch bei hohen Datenraten und dem smartesten (Trans-)kodierungstool werden z.B. Blenden komplett neu berechnet und die darum liegenden Bereiche neu im Stream angeordnet. MPEG ist nun mal eine verlustbehaftete Komprimierung...

Mylenium

Space


Antwort von blueplanet:

Vielen Dank "Mylenium" für Deine Antwort.

Das ich mir ein wenig zu sehr ;)) das Hirn zermattere, hat einen fast zum Haare raufen technischen Hintergrund und ich wundere mich ehrlich gesagt darüber, dass es so wenige User gibt, die anscheinend damit ein Problem haben...

Das besagte "Level 4.2." ist zum Beispiel (laut dem CS6-Medienencoder) die erste Möglichkeit überhaupt, H264-Dateien mit einer Auflösung von 1920x1080 bei 50 fps zu erzeugen (was dem Original-AVCHD-Ausgabeformat meiner Videocamera entpricht). Oder mit anderen Worten: Nur so ist es überhaupt möglich, diese Qualität (annähern) nach der Postproduktion wieder auszugeben.

Alle anderen Spezifikationen (MPEG2, Blu ray ect.) "stolpern" bei Vollbildausgabe spätestens an der 50 fps-Hürde (der MPEG2-Standart schließt 50 fsp völlig aus und die Blu ray muss für die Vollbildausgabe mit 50 fps von Full-HD auf den 720p-Standart bzw. mit deutlich (!!) sichbaren Komprimierungsartefakten heruntergerechnet werden). Ja und das schaut, da geb' ich Dir recht, dann sehr nach verlustbehafteter Neu-Komprimierung bzw. Konvertierung aus.

Deshalb war in diesem Zusammenhang mein Gedanke bzw. mein bereits nächstes Problem: Wenn ich schon die Dateien neu berechnen/rendern muss, dann vielleicht mit einer höheren Datenraten. Weil: Höhere Datenrate (z.B. 40 statt 24 Mbyt/s = weniger Kompremierung?????) Und dies wiederum würde sich positiv auf die Performance diverser H264-Hardware- oder Softwareplayer auswirken???

Wie gesagt, für mein dafürhalten ist es nach wie vor fast unmöglich die Ursprungsqualität der hochpreisigen Consumer-Cameras über die Postproduktion auf eine Endausgabe "zu retten".

Ergo: Irgendein "brennbares" Medium (CD, DVD, Blu ray-Format) schließt sich von vorn herein aus. Einen Hardware-Player zu finden, der das Containerformat MP4 mit einem H264-Codec, Level 4.2 bei 50 fps und voller Auflösung ruckelfrei ausgibt, ist fast unmöglich. (einer der es praktisch könnte ist der FANTEC 3DFHDL, aber der stolpert über sein eigenes nur nervig zu bedienendes und mit Abstürzen behaftetes Betriebssystem).

Bleibt also nur Rechenpower für Workstation oder Laptop? High-End-Hürde: Die Komponenten Grafikkarte + Softwareplayer und HDMI-Ausgang, welche das Bild sauber an den TV ausgeben...

Oder hab' ich noch etwas übersehen? Über Hinweise, Alternativen und Vorschläge zur Problembewältigung wäre ich sehr dankbar...

beste Grüße
Jens

Space


Antwort von Reiner M:

Wie gesagt, für mein dafürhalten ist es nach wie vor fast unmöglich die Ursprungsqualität der hochpreisigen Consumer-Cameras über die Postproduktion auf eine Endausgabe "zu retten". Es kommt darauf an, was Du unter "Qualität" verstehst.
Premiere Pro übernimmt jedenfalls die in der Aufnahme vorliegende Qualität vollständig (Dank 32bpc-Verarbeitung). Mit geeigneten Maßnahmen ist es möglich, die "Qualität" der Aufnahme zu steigern.

Die Vorstellung, dass eine komprimierte Quelle bem Export noch einmal komprimiert wird und deshalb an Qualität verliert, ist zu kurz gedacht.

Die Quelldatei wird vollständig dekomprimiert, dann bearbeitet (u. a. mit dem Ziel, Fehler zu korrigieren und die Qualität zu verbessern). In jedem Fall wird beim Export das voll aufgelöste Ergebnis der Bearbeitung komprimiert. Nicht die Quelle.

Daher bin ich der Meinung: Die Qualität kann in Premiere Pro problemlos in die Post gerettet werden, dort sicherlich u. U. auch gesteigert werden. Beim Export kann man selbstverständlich von Spitzenklasse bis Müll alles produzieren.

Grundsätzlich ja: Höhere Datenraten bringen qualitative Vorteile. Aber andere Parameter wirken sich auch aus (CBR/VBR-1,2-Pass; Keyframeabstand).
Die Aufgabe besteht nicht darin, ein absolut hochwertiges Video zu erzeugen (das wäre ein Fall für Losless-Codecs und fertig), sondern für ein bestimmtes Zielmedium ein abspielbares, möglichst hochwertiges Video zu produzieren. Da unterscheiden sich eben TV, PC, Web, Smartphones, Blu-Ray und Media-Player. Für unterschiedliche Datenträger und Zielmedien produziert man also unterschiedliche Versionen - wenns gut werden soll.

Beste Grüße,
Reiner

Space


Antwort von VideoUndFotoFan:

@blueplanet
Deine Frage läßt sich ganz einfach beantworten: Ja, du machst das richtig (Level 4.2 ist AVCHD 1080p50 und auch die 28Mbit/s sind richtig (mehr ist für AVCHD nicht definiert)).

Quellmaterial AVCHD-1080p50 wird am besten nach AVCHD-1080p50-Level 4.2 mit 28Mbit/s gerendert - damit hast du die geringsten Verluste und das beste Abspielergebnis (der Film ist von den Original-Clips so gut wie nicht zu unterscheiden).

Daß das nicht Blu-ray konform ist steht dann wieder auf einem Blatt (BD ist nur mal nur bis 1080i50 definiert).
Für 1080p50 nimmt man dann eben einen Media-Player.
Z.B. DUNE 3 (in seinen Varianten) oder NETGEAR 500 oder ...

Und mit MPEG hat das alles sowieso nichts zu tun.

Space


Antwort von WoWu:

Mit geeigneten Maßnahmen ist es möglich, die "Qualität" der Aufnahme zu steigern. Das ist zweifellos der falsche Ausdruck. Es ist sicher möglich, das Bild geschmacklich zu verändern, ganz sicher aber nicht, es zu verbessern.

Insofern stimme ich mit Reiner nicht so ganz überein.

Auch die 32bpc Berechnung ist bei AVC nicht von Vorteil, weil die IDCT, anders als bisherige Codierverfahren, die noch mit Floatingpoint gearbeitet haben, benutzt die AVC– Technik eine ganzzahlige neue 4x 4 Integre-Transformation.
Bleibt man in dem Verfahren, entstehen keine Rundungsfehler mehr in der Verarbeitung und führt zu erheblich verbesserte Vorhersage von Bildteilen.
32bpc Berechnung ist daher für AVC basierte Codecs kontraproduktiv.
Wenn man natürlich "weiche" Farbübergänge als Bildverbesserung versteht, dann erklären sich solche Effekte von selbst.

Das ist aber Ansichtssache. Ich halte die möglichst naturgetreue Wiedergabe des Ausgangsmaterials als Codecaufgabe und nicht die eigenständige Veränderung.

Mit dem Level 4.2 hast Du in der Tat das erste AVCHD Level, das 1080p/50 zulässt. Es ist zwar bis 40 Mbit/s definiert aber eine Erhöhung der Datenrate bringt nur Verbesserungen, wenn das Material, das ausgegeben wird, besser ist, als das, was Du vorliegen hast. In deinem Fall 28Mbit/s. Du wirst also keine Verbesserung erreichen.

Space


Antwort von blueplanet:

@Reiner M

...in Punkto Adobe Premiere fällt Deine Erklärung bei mir auf fruchtbaren und verständigen Boden ;)), denn ich gehe im Allgemeinen sogar noch einen Schritt weiter.

Bevor ich die Files in Premiere importiere, convertiere ich diese mit dem Cineform-Codec (soll laut Aussage des Herstellers ein Losless-Codec sein) in den erweiterten Farbraum YUV 4:2:2 - was u.a. ein genaueres Postprozessing ermöglicht und die Ausgabe erfolgt dann natürlich im 2-Pass-Verfahren (....welchen Einfluss hat der Keyframeabstand auf die Qualität und gibt es empfehlenswerte Vorgaben?)

@VideoUndFotoFan

....nutzt Du selbst einen solchen Mediaplayer? Bist Du mit der Qualität und er Performance (einschließlich der 50 fps-Option!!) zu frieden?

Danke an Euch
beste Grüé
Jens

Space


Antwort von Reiner M:

Mit geeigneten Maßnahmen ist es möglich, die "Qualität" der Aufnahme zu steigern. Das ist zweifellos der falsche Ausdruck. Es ist sicher möglich, das Bild geschmacklich zu verändern, ganz sicher aber nicht, es zu verbessern. Wie ich geschrieben habe: Bestimme bitte "Qualität". ;)

Wer mit Rollig-Shutter, Wackel-Cam, blassen Farben, Ausbrennungen, zu dunkel/zu hell, Kontrastschwäche usw, zufrieden ist ... - bitte schön! Ich korrigiere es und erziele definitiv eine Verbesserung der Aufnahme. Im wahrsten Sinne des Wortes. Die Möglichkeiten sind vielfältig.

Das hat durchaus auch was mit Geschmack zu tun, aber längst nicht allein und vor allem nicht vordergründig. Die Aufnahme ist eine extrem reduzierte Wiedergabe einer realen Situation - völlig unnatürlich! Illusion, nichts weiter. Ein Eingriff in die Aufnahme bedeutet daher nicht per se, das etwas schlechter wird. Ansonsten hätten viele Berufe ausgedient.
Wer davon überzeugt ist, er könne in der Post seine Aufnahmen nur verschlechtern - sollte es lassen. ;)

Und die 32bpc-Verarbeitung ist definitiv von Vorteil. Beispielsweise bei der Konvertierung aus YUV nach RGB kommt es häufig zwangsweise zu Clipping, was in einem 32bpc-Farbraum eben nicht unrettbar geclippt, sondern erhalten wird und somit für das Bild genutzt werden kann. Wenn man will. In einem 8bit-Farbraum hat man keine Chance: umgerechnet, abgeschnitten, weg ist es.

Beste Grüße,
Reiner

Space


Antwort von WoWu:

Bildverbesserungen mögen ja gut und schön sein, aber Du erzielst keine Werteverbesserungen (im Sinne der Bildqualität) bei einer Datenratenerhöhung.
Und was Du bei einer Interpolation in ein anderes Farbmodell erreichst, ist genau das, was ich beschrieben habe. Eine Interpolation.
Die bekommt man auch mit einem "Smoother" hin.
Du bringst da wieder die Rundungsfehler rein, die AVC gegenüber MPEG2 mühsam beseitigt hat.
Aber manche mögen nun mal weiche, schmierige Farbsäume ... Es ist alles eine Frage des Geschmacks.
Fragt sich aber auch, was passiert, wenn Du anschliessend wieder nach AVCHD, also in Dein altes Farbmodell wandelst.
Dann hast Du jedenfalls alles Andere als Dein Ausgangsmaterial.
Und YUV hast Du gar nicht mehr. Du kommst von Rec70 in AVC, bist also schon im RGB Farbraum.

Auch der Wandel in 4:2:2 bringt ausser Artefakten absolut nichts, weil 4:2:0 bereits ein Interpolationsprodukt ist, das sich bei dem Roundtrip lediglich verschlechtert.

Aber es ist, wie gesagt, alles eine Frage des Geschmacks.
Aber wenn ich solche Roundtrips (sogar über andere Codecs), wie der TS vorhabe, frage ich eigentlich nicht mehr nach dem Erhalt des Ausgangsmaterials sondern eher nach der Vermeidung.
Ich hatte das so verstanden, dass die Aufnahme bereits gut sei und durch die Überspielung nicht verändert werden sollte.
Aber dann hab ich da wohl was falsch verstanden.

Space



Space


Antwort von Reiner M:

Bevor ich die Files in Premiere importiere, convertiere ich diese mit dem Cineform-Codec (soll laut Aussage des Herstellers ein Losless-Codec sein) in den erweiterten Farbraum YUV 4:2:2 - was u.a. ein genaueres Postprozessing ermöglicht und die Ausgabe erfolgt dann natürlich im 2-Pass-Verfahren (....welchen Einfluss hat der Keyframeabstand auf die Qualität und gibt es empfehlenswerte Vorgaben?) Ich kenne den Cineform nicht aus Erfahrung und mag dazu nichts sagen.

Nur soviel: Mir ist die 32bit-Verarbeitung von Premiere Pro sehr viel wert! Die möchte ich nicht missen und nicht schmälern! Wenn ein Video direkt aus Cam kommt, kann ich die Informationen, die im Video-File stecken, voll nutzen - eben Dank 32bpc - und auch Dank direkter YUV-Verarbeitung in Premiere Pro.
Schicke ich sie erst durch einen Konverter, gehen diese Vorteile mit hoher Wahrscheinlichkeit verloren. Die 4:2:2-Umwandlung führt dabei zu nichts.

Vorsicht: VBR 2-Pass ist nicht automatisch von Vorteil! Es gibt Videos, die kommen mit CBR besser. Welches Verfahren für ein bestimmtes Video besser geeignet ist, muss man ggf. testen. Die Unterschiede fallen stärker ins Gewicht, wenn die Kompression hoch, also die Datenrate gering ist, wie z. B. für Web-Videos. VBR empfiehlt sich oft, wenn das Bild ungleich ist, wenn es Ecken mit vielen Details und Bereiche mit gleichmäßigen Flachen gibt. Die differenzierte Komprimierung ermöglicht es, in den Details genauer, in den Flächen ungenauer zu arbeiten, um ein ausgewogenes Bild zu bekommen. CBR komprimiert alle Bildblöcke gleich, ist also gut, wenn die Details sehr gleichmäßig vorhanden sind.
Wenn Artefakte in Flächen "springen" oder kanten (Schriften) unschön aussehen, sollte man mal die andere Methode probieren.

Ähnliches für den Keyframe-Abstand. Lässt sich nicht allgemein formulieren. Hängt stark vom Video ab. Keyframe sind Vollbilder, von allen übrigen Frames werden nur Änderungen gegenüber dem Vollbild gespeichert. Ein geringer Keyframe-Abstand speichert also mehr originale Information, erfordert aber auch grundsätzlich eine höhere Datenrate. Im Prinzip wäre der Keyframe-Abstand von 1 ein Losless-Codec. Ein enger Abstand kann bei stark bewegten Szenen gut sein. Ein sehr weiter Keyframe-Abstand ist gut, wenn die Bilder statisch sind, sehr wenig und langsame Bewegung beinhalten. Man stellt einen Kompromiss ein. Immer mit dem Ziel, eine Datenrate zu erreichen, die zum Zielmedium passt. Falsch gesetzt sind die Keyframes dann, wenn das Bild regelmäßig unmotiviert "springt".

Eine hohe Datenrate mit engem Keyframe-Abstand und VBR 2-Pass ist oft gut (viel Bildinformation, viel originale Information, saubere Kanten und schöne Details), aber nicht der Weisheit letzter Schluss.

Beste Grüße,
Reiner

Space


Antwort von Reiner M:

@WoWu

Wolfgang, ich denke wir sind zienlich nah beieinander. Qualitativ verbessern kann man nichts, wenn damit eine nachträgliche Transformation von 4:2:0 nach 4:2:2 oder von 8bit nach 10bit gemeint ist, oder das Neuabspeichern mit einer höheren Datenrate.

Aber zwischen Import und Export passiert was. Das ist für mich entscheidend. Und da findet per se keine qualitative Verschlechterung statt. Ich vermisse z. B. auch nicht die Möglichkeit des Smart Redering, die ja Premiere Pro nicht bietet. Wer sein Videos unbearbeitet, nativ aus der Cam vorführbereit hält - bitteschön. Es mag Gründe geben. Ich mache das gemeinhin nicht.

Die Verbesserung findet statt, weil ich Bildinhalte modifiziere - Du nennst es geschmackliche Veränderung, ich nenne es Verbesserung, weil Cam, Objektiv und Codec bereits eine verhunzte Darstellung der Realität abliefern. Die Verbesserung findet aber auch statt, weil ich mit 32bpc Bildinhalte auswerten kann, an die ich mit 8- oder 16bit nicht herankommen könnte. Usw.

Beste Grüße,
Reiner

Space


Antwort von Bergspetzl:

Nur mal so als Zwischenfrage:

Wenn ich als ein sauber aufgenommenes 28Mbit Material in Premiere einlade "dekomprimiert" Premiere es sozusagen in eine Art ALL-I Format für interne Verarbeitung...? Oder in irgendetwas "in die Richtung", um programmintern damit arbeiten zu können. Was auch immer das sein mag. Und natürlich ohne Qualitätsgewinn....

Wende ich jetzt zb eine leichte (!) Farbkorrektur an, schärfe vllt hier und da etwas etc, nix übertriebenes eben (so das es zb Fernsehtauglich ist, keine Kunst oder Unerfahrenheit) - was ist jetzt weiter sinnvoll?

Meines Verständnisses nach ist doch jetzt mehr Info vorhanden. Und auch dadurch das ich wahrscheinlich mit einem Schnitt vllt nicht immer auf einem Keyframe treffe wird ja später für den entgültigen Film eine Neukomprimierung notwendig, sprich die Informationen müssen neu berechnet werden.

Dazu kommt das Farbkorrektur etc ja Extra-Information bedeuten kann an manchen Stellen. Das alles kann doch dazu führen das der ürsprüngliche Komprimer-Rythmus nicht mehr getroffen wird oder Sinn macht, da neue (oder andere) Informationen pro Pixel verarbeitet werden müssen.

Macht es da Sinn eine höhere Datenrate anzubieten? zb. 35 Mbit, damit ein Headspace vorhanden ist? Nicht um das Material zu verbessern, im vergleich zum Ausgang, aber um eben bei der Neukomrprimierung nicht zu früh "fesseln" an das Material zu geben und dadurch Material zu bekommen, welches eben "gegraded" ist, aber noch nahezu dem Ausgangsmaterial enspricht (qualitativ)...

Hoffentlich jetzt nachvollziehbar formuliert...

lg

Space


Antwort von WoWu:

@Reiner

Wir stimmen weitestgehend überein. Ich hatte nur verstanden, dass der TS sein Ausgangsmaterial möglichst 1:1 rüberbringen will.
Ich bin völlig bei Dir, wenn eine Bearbeitung das Produkt verbessert .... alles klar.
Bei den 32bps bin ich nicht so ganz bei Dir, weil das, wie ich finde, eine ungewollte Veränderung des Signals ist .... aber wenn's geschmacklich passt, alles klar. Nur spricht das eben gegen die 1:1 Vorgabe, wenn irgend ein Algorithmus mein Bild verändert.

Aber, wie gesagt, ich hatte den TS da eingangs anders verstanden, aber es sieht so aus, als ob er nach Verbesserungstools fragt und nicht nach dem technischen Vorgang, etwas möglichst verlustfrei rüber zu bringen.
Übrigens, AVC greift bei der Neukodierung auch auf alle verwertbaren Koeffizienten zurück, und durchläuft keine komplette Neukodierung. Es wird nur ein neuer Multiplex und ein angepasstes Timing vorgenommen, um offene GoPs zu schliessen.
Insofern ist man schon ziemlich nah am Original.
Und was VBR betrifft, so ist die Spitzenqualität nicht besser als bei CBR, weil lediglich die Energie, die dem DCT-Koeffizienten entspricht und im Fehler-Frame enthalten ist, variiert, je nach Komplexität der Details sowie der Bewegung innerhalb der Frames.
Folglich hängt die Anzahl der für die Codierung der einzelnen Frames einer Sequenz erforderlichen Bits jeweils von der Komplexität des Frames ab, wirkt sich aber nur in geringer Datenrate einfacher Frames aus, weil die Wertespitze im Standard gedeckelt ist.

Auch die Frage nach den I-Frames ist eigentlich überflüssig, weil 4.2 maximal nur 4 _I-Frames zulässt, muss man auch mal nach dem Effekt fragen.
Obwohl I-Frames im Durchschnitt 2,15 Mal so viele Bits benötigen wie P-Frames, verbessert sich ihre Qualität (als PSNR ausgedrückt) nur um den Faktor 1,07.

Space


Antwort von WoWu:

@Bergspezl Meines Verständnisses nach ist doch jetzt mehr Info vorhanden. Und auch dadurch das ich wahrscheinlich mit einem Schnitt vllt nicht immer auf einem Keyframe treffe wird ja später für den entgültigen Film eine Neukomprimierung notwendig, sprich die Informationen müssen neu berechnet werden. Sofern Du in einen andern Codec gehst, wird sowieso alles 2xneu errechnet (rein in den Intermediäre- und wieder raus), wobei Du im ersten Schritt von 4x4 Pixel grossen Makroblöcken auf 8x8 bzw. 16x16 umkodierst.
Du verlierst eine sehr feine Bildstrukturierung und erhebliche Bewegungskoeffizienten.
Da du von einer IDCT in eine DCT wechselst, fällt auch der Störabstand und bei jedem Rendern schaukeln sich die Fehler weiter auf.
Selbst wenn Du anschliessend wieder in AVC zurückcodierst, wird aus der relativ groben Auflösung keine feinere mehr .... Diese Verfahren sind alle verlustbehaftet und Dein Endprodukt ist (@Reiner-technisch gesehen) nur so gut, wie das schlechteste Glied in der Kette.
(U.A. hat man ja gerade deswegen in AVC eine andere DCT gewählt. Fehler schaukeln sich dort nicht mehr auf.)
Wenn Du aber beispielsweise eine 10 Bit Grafik in einem Intermediate von 10 Bit auf einem Content, der ursprünglich 8 Bit hatte, aufsetzt und möchtest, dass die Grafikqualität erhalten bleibt, wirst Du in 10 Bit bleiben müssen und hast dann selbstverständlich höhere Datenraten-Anforderungen.
Ansonsten erhältst Du durch Nachbearbeitung keine zusätzlichen Informationen, die nicht schon im Basismaterial codiert worden wären. Du veränderst lediglich die Werte, gewinnst aber keinen einzigen zusätzlich.

Space


Antwort von VideoUndFotoFan:

@VideoUndFotoFan
....nutzt Du selbst einen solchen Mediaplayer? Bist Du mit der Qualität und er Performance (einschließlich der 50 fps-Option!!) zufrieden? Ja, es gibt kein besseres Gerät als den DUNE 3 (in seinen verschiedenen Varianten).
Er spielt nicht nur bis 1080p50 (oder auch 60p) sauber ab, sondern das auch von allen Medien-Trägern (einschließlich NTFS-formatierten Platten und einschließlich von Linux-basierten NAS per NFS).
Und als Highlight: Er spielt auch Blu-ray-ISOs mit Menü, Kapitel, usw., wie eine Scheibe ab.
Und nicht nur bis 1080i50 (i60), sondern auch selbsterstellte 1080p50-Blu-ray-ISOs (mit Menü, Kapiteln, usw.).
Und auch das von beliebigen Datenträgern und auch das sogar von Linux-basierten NAS per NFS.

Hinweis: Eine 1080p50-Blu-ray-ISO ist für mich die Krönung - volle progressive Qualität einschließlich BD-Steuerung.

Hinweis: Der DUNE 3 hat auch eine BD-J-Lizenz - daher kann er das alles.

Und vielleicht noch ein Hinweis: Der DUNE Smart D1 beispielsweise hat auch zusätzlich eine USB-Buchse, über die die interne Platte von PC aus wie eine externe USB-Platte geladen werden kann.
Und alle internen Platten der DUNE 3 können auch über's Netzwerk angesprochen werden (alle DUNE 3 sind somit auch Netzwerk-Platten).

Und das schöne: Das alles funktioniert tatsächlich und ohne Probeleme.

Space


Antwort von Reiner M:

Was auch immer das sein mag. Und natürlich ohne Qualitätsgewinn.... Aber auch ohne nennenswerte Qualitätsverluste, die ich z. B. mit einem reinen 8bit-Workflow hätte oder mir spätestens beim Export (Zwischenkonvertierung) einhandle.

Ein Beispiel: Bei der Umwandlung in den RGB-Farbraum kann Premiere Pro aus Luminanzen und Chrominanzen Farben größer "1.0" (32bpc ~ 255 bei 8bpc) speichern. Im 8bit-Farbraum würde das zu Werten größer 255 führen, was nicht geht. Premiere Pro kann also Bildinformationen sichtbar machen, die im Signal enthalten sind, aber wegen der Farbraum-Spezifikationen weggeschnitten werden (Clipping). Eine einfache Korrektur der Luminazkurve genügt. Das ist dann zwar ein heftiger Eingriff in die Aufnahme, aber für mich sowohl technisch wie auch optisch eine Verbesserung des Ergebnisses gegenüber der Speicherung in der Cam.

Meine Empfehlung daher (und die bezieht sich nur auf Premiere Pro): AVCHD direkt aus der CAM verarbeiten, Effekte nutzen die 32bpc und direkte YUV-Verarbeitung unterstützen (sind entsprechend markiert).

(In After Effects gilt Ähnliches. Dann muss allerdings das Projekt manuell auf 32bit gestellt werden).
Macht es da Sinn eine höhere Datenrate anzubieten? Ja. Das direkt vor dem Export im Speicher liegende Bild ist eine völlige Neukomposition der Bildinhalte. Sie wird aus dem dekomprimierten Material plus aller Modifikationen gewonnen, nicht aus dem komprimierten Material. Das komprimierte Material stellte zwar die Basis dar, aber abhängig von dem, was alles unterwegs passiert ist, hat es u. U. damit nicht mehr viel zu tun.

Beste Grüße,
Reiner

Space


Antwort von Bergspetzl:

ok wowu,

also das mit der DCT holt mich doch immer wieder ein...die bösen Geister des Studiums :D


wenn ich die beiden Thread Antworten zusammenfasse komme ich dazu:

die Bitrate innerhalb eines Workflows des selben Codecs ist ist für die Qualität dann egal, wenn sie mindestens der Bitrate des Eingangsmaterials entspricht. Durch Colorgrading und sonstigen Manipulationen, die aus dem bestehenden Material heraus angewendet werden, entstehen keine neuen Informationen, die durch die Zielbitrate beschränkt werden können, da es faktisch zu keinem Informationsgewinn kommt.

Es findet auch keine Informationsverschiebung durch Schnitte oder Bildbearbeitung statt, die dazu führen kann, das bei der Neucodierung des Materials eine andere Bitrate zu einem potentiell besseren Ergebniss führen würde.


Ein Beispiel:

Auf einem Jahrmarkt:

Ich drehe Einzelclips: z.B. in AVC einen rotierenden Farbkreis, in einem Flat Picture Look von mir aus, einer flachen Gammakurve, recht Farbentsättigt. und das mit 10 bit in 4:2:2 50 Mbits.

Jetzt drehe ich in der Post Farbe rein, mache es so richtig knallig, soweit es das Material eben zulässt, bevor mir das Bild zerfällt, ziehe den Schwarzwert an und Schärfe etwas nach oder was mir sonst sinnvolles einfällt. Auf einmal lebt der Jahrmarkt. Das Ganze wird jetzt in eine Abfolge solcher Bilder zu einer Sequenz geschnitten, wo auch verschiedene Motive aufeinander folgen, die nicht voneinander herleitbar sind. Ein kahler Baum mit Ästen, eine Bunte Achterbahn, Closeups von bunten Auslagen, bewegte Menschenmengen zwischen den Wägen, etc.

Es wäre jetzt nicht Sinnvoll für das fertige Produkt eine höhere Datenraten anzubieten, nicht um das Material zu "verbessern", sondern die Möglichkeit zu bieten alle Änderungen die stattgefunden haben, sowie das nun neue Aufeinanderfolgen von Szenen, was oft neue Keyframes bedeutet, entsprechend berechnen und einbetten zu können. So das mein verändertes 60Mbit Material Qualitativ dem 50Mbit Ausgangsmaterial entspricht, und nicht ggf. plötzlich Kompressionsartefakte auftauchen oder so, weil die Zielrate - 50Mbit auf einmal "Andere" Infos verarbeiten muss und es nun zu neuen Peaks kommen kann. Was bei der Berechnung in der Kamera in 50Mbit gepresst wurde kann doch verändert nach mehr als 50Mbit verlangen, nur um später immer noch auszusehen wie 50Mbit...und ansonsten "schlechter" aussehen... Oder braucht ein Farbentsättiger 10bit Farbkreis die gleiche "Leistung" wie ein farbenfroher 10 Bit Farbkreis bei der Codierung?

Space


Antwort von WoWu:

@Reiner

Aber Reiner.... Du gewinnst keinen einzigen Wert und kein einziges Pixel zusätzlich. Woher nimmst Du also die Werte für eine zusätzliche Datenrate.
Mal ganz abgesehen davon, dass der Datenwust ohnehin in der Bewegung entsteht.
Du darfst nicht vergessen, Du überträgst die Bild Daten (bis auf die I-Frames) gar nicht sondern lediglich den Restbildfehler und solange Du nicht statt 8, dann 10 Bit überträgst und auf ein (in Sachen Bewegung) auf ein Video zurückgreifst, woher sollen die zusätzlich zu übertragenden Abweichungen also kommen.
Es sei denn, Du hast Deinen Störabstand so in den Keller gewirtschaftet, dass die Rauschanteile einen signifikanten Beitrag leisten.
Dann allerdings brauchst Du auch eine höhere Datenrate.
Allerdings kann es auch sein, dass die Bildschärfe (speziell an den Farbkanten) durch den Roundtrip so nachgelassen hat, dass auch diese Bewegungsprädiktion schwieriger geworden ist.
Dann brauchst Du allerdings auch mehr Daten. Aber nicht, um ein ordentliches Bild zu überragen.

Space



Space


Antwort von Reiner M:

@WoWu

Wolfgang, Du erklärst das wunderbar - wenn auch nicht unbedingt leicht verständlich. ;)

Mir geht es im Summe meiner Beiträge immer eher darum, das Augenmerk auf einen vernünftigen Workflow zu richten, der von der Quelle zum Ziel führt. Dabei sind Fragen bestimmter technischer Merkmale oft sekundär. Der Weg, die Schritte, das Zusammenspiel der Tools und Funktionen ist viel wichtiger.
Ich liefere z.B. sehr oft Videos in 720p30 mit 10MB/s ab, die auf 10m breiten Leinwänden gezeigt werden. Qualität ist super! Kunde, Zuschauer und ich hochzufrieden! Aber nicht, weil die Datenrate so "hoch" ist ... ;)


VBR:
Das stimmt schon. Nur: VBR und CBR sind zwei völlig verschiedene Kompressionsverfahren. Die Datenrate ist für mich dabei sekundär. Maßgeblich ist, das bei CBR der Frame in gleiche Blöcke geschnitten wird, die identisch komprimiert werden, bei VBR in ungleiche, die sich an kontrastreichen Kanten orientieren. Sie werden unterschiedlich bedient. Dass die Spitzenqualität nicht besser als bei CBR ist, mag richtig sein. Die Auswirkungen sind deutlich sichtbar. Je nach Video-Inhalten nutze ich CBR oder VBR.

Beste Grüße,
Reiner

Space


Antwort von WoWu:

@Bergspetzl

Im Grunde hast Du es erfasse.
Was also in Deine 50 Mbit/s passt, passt wird auch in den 60 Mbit/s nicht besser.
Ausnahme:
Wie ich oben schon geschrieben habe: Wenn Du in Deinem Intermediate ordentlich viele Kopien anfertigst und ständig neu berechnest, dann steigt Das Rauschen an ... das ergibt zusätzliche Bewegung .... liegt die Bewegung, die ohnehin bereits im Bild ist so hoch, dass das die Encodingzeit für eine Zuordnung in die Makroblöcke nicht reicht, dann führt das zu Artefakten.
Die Anzahl der Makroblöcke (pro Bild und damit auch pro Film) ändert sich aber nicht.
Auch ändert sich nicht die Menge der Farbwerte, denn Farben werden ohnehin nicht übertragen. Du hast pro Pixel nur einen Limawert, egal welche Farbe der hinterher auf dem Monitor ansteuert. Machst Du ihn nun heller oder dunkler in der Post, steht eben statt 192 irgend ein anderer Wert drin, 070. Damit hat der Wert für den Monitor sich geändert, die Menge der übertragenen Daten ist aber gleich geblieben.
Auch gibt es einen Unterschied in Bezug auf die Bewegung. In MPEG2 (und vermutlich auch in Deinem Intermediate) werden in Schwenkt noch soviele Köffizienten übertragen, wie es Pixels/Bild gibt. In AVC nur noch ein Köffizient, weil sich alle Pixels quasi gleichförmig verändern. Die Datenrate besteht also aus wenigen Bit/s.
Ich bin jetzt überfragt, ob das in 264 bei einer Blende auch gilt ... in 265 gilt es aber analog dazu auch. Kontinuierliche Werteveränderungen werden dort gleichfalls zusammengefasst.
Noch ein Unterschied .... In MPEG2 wurden immer die Gesamtunterschiede im Bild übertragen weil es nur eine Referenz (I-Frame) pro GoP gab.
In AVC hast Du bis zu 16 I-Frames im Speicher (AVCHD 4 I-Frames) und das Bild wird in Splices aufgeteilt (zusammengestellt) , die sich (z.B.) nur um die Bewegung (wenig Pixels) bewegen.
Der Decoder sucht sich aus den (bis zu) 16 I-Frames das best passendste um das Bild zu reproduzieren.
Soll heissen: die Datenrate ist in den meisten Fällen weit unter der, die für das Profile festgelegt worden ist.
Die Firmen nutzen überwiegend diese MPEG Festlegungen und es muss schon sehr dicke kommen, wenn die mal nicht mehr stimmen. Und das ändert sich in der Post in keiner Weise.

Space


Antwort von Bergspetzl:

:) Danke

Space


Antwort von Reiner M:

@Reiner

Aber Reiner.... Du gewinnst keinen einzigen Wert und kein einziges Pixel zusätzlich. Woher nimmst Du also die Werte für eine zusätzliche Datenrate. Im Eifer des Gefechts (in einem anderen Thread) habe ich das fast überlesen.

Wolfgang, das meine ich nicht. Es geht nicht um zusätzliche Pixel und so.
Der Export, das neue Kodieren, wird aus einer dekomprimierten und modifizierten Bilddatei erzeugt. Nicht aus der Quelle. Es gelingt mir jedenfalls nie, mit einem neuen Export das selbe Ergebnis zu erzielen, wie es die einst aus der Cam kam. U. a. beeinflusst die Datenrate das Ergebnis deutlich. Aber auch VBR/CBR, Keyframe-Abstand. Leicht zu erkennen, wenn man verschiedene Exporte Side-by-Side Frame-by-Frame vergleicht.

Beste Grüße,
Reiner

Space


Antwort von WoWu:

@Reiner
Ich schliesse ja nicht aus, dass sich aufgrund der Verarbeitung optische Veränderungen ergeben habe. Aber die führen nicht zwangsläufig zu einer Datenratenerhöhung.

Also, für mich zum Verständnis:

Du nimmst Content aus einer AVCHD Kamera mit 28 Mbit/s
Das lädst Du in Dein NLE.
Da gibt es dann zwei Möglichkeiten.
Entweder kannst Du es nativ bearbeiten und wieder ausgeben oder, was bei den meisten NLEs noch wahrscheilich ist, Du importierst es und es wird in einen Intermediat Codec umgewandelt.

Damit verlierst Du zunächst einmal die 4x4 Makroblockstruktur und damit eine hohe Bewegungsauflösung sowie die andern Effizienzen, sodass selbst bei gleicher GoP schon mal etwa Faktor 3 mehr erforderlicher Datenrate rauskommt, um in dem IC einen identischen Bildeindruck zu generieren.
Also rd. 70-90 Mbit/s.
Dazu wird es noch in All-I gewandelt.
Nochmal Faktor 2,7, also bist Du jetzt bei rd. 200-300 Mbit/s, hast gröbere Makroblöcke und Floatingpoint implementierte DCT.
Du renderst also munter Deine Rundungsfehler und man kann noch nicht von einem besseren Bild sprechen, weil Codecs keine Bilder (inhaltlich) veränder können.
Nun bearbeitest Du.
Anschliessend musst Du den Content ja wieder ausspielen ....
Gehen wir mal davon aus, Du machst wieder ein AVCHD in 4.2 mit 28 Mbit/s daraus.
Der Encoder sieht also Bewegungen, wie die Kamera sie schon gesehen. Denn dem Encoder ist es egal, ob der Datenstrom von einem Sensor oder einem NLE kommt.
Eventuell mit einem schlechteren Störabstand durch die Kumulation des Rundungsfehlers.
Der Encoder wird also, identisch gute Implementierung voraus gesetzt, ein quasi identisches File erzeugen, weil sich weder an den Bewegungen im Bild, noch an der Anzahl der Lumawerte oder anderer Koeffizienten etwas geändert hat.
Es ist keine Bewegung dazu gekommen, noch hat sich die Aspekt Ratio geändert, also die Buffergrösse pro Bild, noch hat es mehr oder weniger Bilder gegeben ... Und der Encoder zerlegt die groben Makroblöcke wieder in feine Blöcke, wobei sie jetzt keine unterschiedlichen Inhalte mehr haben, sondern identische.
Die Anforderung an die Bewegungsprädiktion ist also eher kleiner, als grösser geworden.
Die Anzahl der entstandenen Makroblöcke ist aber identisch mit dem Original AVCHD File.
Woher also, ausser vom unschärferen Bild und ggf. aufgekommenes Rauschen soll der Bedarf für mehr Datenrate kommen ?

Erklär mir das doch bitte noch einmal.

Und wenn das mit der 32 bps zu tun haben sollte, dann reden wir anschliessend auch über die daraus resultierenden Effekte.

Zugegeben wird ein Unterschied zwischen VBR und CBR möglicherweise in kritischen Phasen zu erkennen sein, weil dem Steueralgorithmus nur mittlere Werte zugewiesen werden.
Dadurch werden die I-Frames schwächer als P-Frames und die wiederum schwächer als B- Frames quantisiert.
Dadurch sind die Rferenz-Bilder schwächer und der Fehler setzt sich in kritischen Stellen fort.
Da räume ich einen erkennbaren (optischen) Unterschied durchaus ein, der sich durch heraufsetzen der mittleren Datenratenzuweisung verändern lässt.
Nur sollten diese Artefakte, sofern das Original CBR ist, bereits im Originalmaterial enthalten sein. Also nicht wahrscheinlich, dass man sie an dieser Stelle durch mehr Datenrate überdeckt. (Beseitigen ohnehin nicht).

Aber das wars dann aus technischer Sicht auch so ziemlich.

Andere Vorzüge im Bild können nur noch subjektiver Natur sein, was ich durchaus nachvollziehen kann, aber dass sie eine höhere Datenrate erforderlich machen, kann ich objektiv nicht nachvollziehen (und übrigens auch noch nie beobachtet, obwohl wir täglich Endfertigungen machen.

Würde mich also wirklich interessieren, wie Deine Beobachtung zustande kommt.

Space


Antwort von Tiefflieger:

@WoWu

.... Aber zwischen Import und Export passiert was. Das ist für mich entscheidend. Und da findet per se keine qualitative Verschlechterung statt. Ich vermisse z. B. auch nicht die Möglichkeit des Smart Redering, die ja Premiere Pro nicht bietet. Wer sein Videos unbearbeitet, nativ aus der Cam vorführbereit hält - bitteschön. Es mag Gründe geben. Ich mache das gemeinhin nicht....

Beste Grüße,
Reiner Unverändert ist insofern zutreffend, wenn inhaltlich im Bild keine Änderung vorgenommen wird (native inkl. Datenrate).
Mit Smartrendering kann ich Szenen kürzen GOP oder Frame genau, und neu anordnen sowie die Tonspuren ändern.
Es findet keine sichtbare Bildveränderung statt.

(Ich mache nur für mich private Videos)
Ich habe in einem Test Szenen 6x zerwürfelt und neu zusammengesetzt und keine Veränderung des Bildinhaltes festgestellt.
Da ich im 8 bit Farbraum bleibe und die Farbpalette in der Kamera optimal genutzt wird, habe ich kein sichtbares Banding.
Einzelframes habe ich Testweise Gamma verändert (helle und dunkle Bereiche) und nur mit extremen Gamma-Einstellungen werden ggf. Artefakte sichtbar. Ein guter FlatTV zeigt auch extreme Kontrastunterschiede ohne dass es flau wirkt.
(Aufnahme bis Darstellung bleibt weitestgehend nativ, Formatwandlungen erfolgen ggf. durch die "HW" ohne zusätzliche Bandbreitenbeschränkung)

Gruss Tiefflieger

Space


Antwort von blueplanet:

Hallo @ Reiner, hallo @ Wolfgang, hallo @ VideoUndFotoFan – ich bin’s der die Post eröffnet hat ;)). Da hab" ich wohl eine Art Pixelschlacht losgetreten, aber trotzdem vielen Dank für Eure sehr aufschlussreichen Beiträge, die mich ein gutes Stück vorangebracht haben.

Mit dem offensichtlich umfangreichen, wissenschaftlichen Hintergrundwissen kann ich allerdings nicht mithalten, deshalb wage ich eine für mich verständliche Zusammenfassung.

Der Kurz-Weg um die rein TECHNISCHE Ausgangsqualität zu erhalten (Ausgangsmaterial: AVCHD, 50 fps, 28 Mbyt/s):
1. Das Material direkt und ohne den Umweg über die Konvertierung in einen Intermediat Codec (beispielsweise von Cineform) und der damit u.a. entstehenden fast dreifachen Datenmenge importieren.
2. Dort nach optischen Geschmack bearbeiten (Weißabgleich, Schärfen, Noisereduktion, Blenden etc.)
3. Bei größerer Bearbeitung auch mal "Zwischenrendern" bzw. den Clip mit der Optionen "Sequenzeinstellungen beibehalten" als neuen File anlegen?????
4. Das wieder ins Projekt importieren
5. Schließlich den fertigen Film aus der Timeline und unter Verwendung des H264 Codec mit Level 4.2., 50 fps, 28 Mbyt/s und dem von Premiere automatisch vorgegebenen Frameabstand sowie VBR 2-Pass ausgeben
6. Einen entsprechenden Hardware-Medienplayer verwenden, um die TECHNISCHE Qualität anschaubar zu machen
7. Haben fertig ;))

beste Grüße
Jens

Space


Antwort von Reiner M:

Jens, ich würde es so angehen:

zu 1) Genau. Das Material direkt und ohne Umwege in Premiere Pro importieren und dort verarbeiten.
zu 2) Nach Bedarf.
zu 3 + 4) Würde ich nur mit einem Losless-Codec machen (und dies auch erst, nachdem ggf. nötige Luminanz- und Farbkorrekturen durchgeführt wurden).
zu 5) Ja. Du erhältst ein von den technischen Spezifikationen quasi gleiches Ergebnis, von den Inhalten nicht, meine ich.
zu 6) Natürlich brauchst Du ein geeignetes Zielmedium in der Kombi Abspieler/Anzeige.
zu 7) Du solltest das Projekt vor Beendigung mit allen Quellen über den Projektmanager sichern. Es könnte sein, dass Du eine weitere Version, inhaltlich geändert oder für ein anderes Zielmedium angepasst, benötigst. Die solltest Du aus dem Ursprungsprojekt erstellen können, nicht aus der H.264-Ergebnisdatei produzieren müssen. Das wäre schlecht. - Dann erst fertig.

Beste Grüße,
Reiner

Space


Antwort von Reiner M:

@Wowu

Wolfgang, ist es nicht so, dass die Parameter Datenrate, Variabel/Konstant und Keyframe-Abstand die Kompression signifikant beeinflussen? Passiert das nicht auch oberhalb der Datenrate, die die Quelle mitbringt? Oder sind ab dann alle Ausgabeergenisse identisch, egal was ich was ich einstelle? Ist also ein Frame, den ich mit 28 Mbit/s ausgebe, identisch mit einem, der mit 50 Mbit/s aus der selben Quelle produziert wurde?

Beste Grüße,
Reiner

Space



Space


Antwort von blueplanet:

Danke Reiner,

"....zu 3 + 4) Würde ich nur mit einem Losless-Codec machen (und dies auch erst, nachdem ggf. nötige Luminanz- und Farbkorrekturen durchgeführt wurden)."

...vielleicht dumme Frage?!: Was verstehst Du denn in Premiere explizit unter dem Bergriff Losless-Codec? Ich gehe doch davon aus, wenn die Option "Sequenzeinstellung übernehmen" gewählt ist, das Premiere immer den Ursprungscodec verwendet und technisch-qualitativ somit keine (wenig) Verluste entstehen?

Oder doch für diesen Zweck den "angeblich" Losless-Codec von Cineform (siehe auch: http://cineform.com/products/gopro-cine ... io-premium) mit all den "Konvertierungs-Problemen" wie z.B. in einen höheren Farbraum etc.?

Oder gibt es konkret und tatsächlich einen Losless-Codec der in Premiere extra für DIESE Zwecke eingebunden werden könnte?? (Name, Adresse, Kosten ;))

beste Grüße
Jens

Space


Antwort von Reiner M:

Z. B. ein AVI Uncompressed. Ist in den Export-Einstellungen zu finden.
Z. B. Lagarith (such mal danach).
oder andere nach Bedarf. Gerne auch Cineform, wenn sie was haben, usw.

Du must zwischen Export und Import unterscheiden.
Ich empfehle nur, die AVCHD-Files aus Cams vor dem Import in Premiere Pro weder zu konvertieren noch durch Drittprogramme sonstwie zu bearbeiten. Das geht nicht immer.
In der Ausgabe sollte ein Codec samt Einstellungen gewählt werden, der zur Aufgabe, zum Zielmedium passt. Für die Aufgabe "Zwischenergebnis", das weiter verarbeitet werden soll, würde ich immer einen sehr hochwertigen Kodierer bevorzugen.

Codecs, die nach den API-Regeln hergestellt sind, findest Du automatisch in den Export-Einstellungen (am richtigen Ort), sobald sie auf Betriebssystemebene installiert wurden und bekannt sind. Lagarith würde z. B. unter der AVI-Gruppe zu finden sein (und dort unter Video-Codec, nicht unter Vorgabe!).

Nein, mit "Sequenz-Einstellungen übernehmen" werden die Parameter der Sequenz für den Export eingestellt (heißt ja auch so), nicht die der Quelle! Also z. B. auch der Vorschau-Codec samt Timeline-Parametern. Das willst Du i. d. R. sicher nicht produzieren.

Beste Grüße,
Reiner

Space


Antwort von blueplanet:

@ Reiner, super ich danke Dir sehr für das aufgezeigte Workflow und jetzt sollten alle Unklarheiten - klar sein😃!
Beste Grüsse
Jens

Space


Antwort von WoWu:

Moin Reiner.
Ich will das Thema nicht neu auflegen, nur kurz noch auf Deine Frage antworten.
@Wowu

Wolfgang, ist es nicht so, dass die Parameter Datenrate, Variabel/Konstant und Keyframe-Abstand die Kompression signifikant beeinflussen? Passiert das nicht auch oberhalb der Datenrate, die die Quelle mitbringt? Oder sind ab dann alle Ausgabeergenisse identisch, egal was ich was ich einstelle? Ist also ein Frame, den ich mit 28 Mbit/s ausgebe, identisch mit einem, der mit 50 Mbit/s aus der selben Quelle produziert wurde?

Beste Grüße,
Reiner Die Datentate richtet sich nach der Menge zu übertragener Daten.
Hast Du mehr I-Frames, dann hast Du auch mehr Daten. Hast Du mehr Bewegung, dann hast Du ebenfalls mehr Daten. Hast Du mehr Quantisierungsschritte, dann hast Du auch mehr Daten.
Aber immer nur, wenn Du mehr hast, nicht, wenn Du nur andere Werte hast.
Es ist dem Encoder egal, ob Du in einem Sample den Wert 200 oder 125 überträgst. Deinem Auge aber nicht, weil es eine andere Farbe ergibt.
Die Menge der Grunddaten richtet sich danach, welche Tools im Encoding jeweils eingesetzt werden.
In AVC ist es so, dass von QCIF 15 Frames bis 5.1 (4k-120 Frames) die Maximalen Datenraten von 46 kBit/s bis 240Mbit/s festgelegt sind. Für bestimmt Profiles High10 z.B. die erforderliche Datenrate 3x gebraucht wird, für High 4:2:2 und 4:4:4 ... 4-fach.

Wenn Du nun von AVCHD 4.2 über irgend einen Intermediate wieder nach AVC 4.2 encodierst, überträgst Du keinen einzigen Wert zusätzlich.

Für die zusätzlichen I-Frames in Deinem Intermediate hast Du ja schon mit 200-400 MBit/s gearbeitet.
Dass in den Bildern auch nicht mehr Informationen stecken, als aus der Kamera gekommen sind, ist klar.
Die 400 MBit/s brauchst Du nur, um dem schwachen Rechner entgegen zu kommen.

Insofern hast Du alles berücksichtigt, was dein Encoding beeinflusst.
Dass die maximale Datenrate nicht durchgehend erreicht wird und die Vorteile einer zusätzlichen Datenreduktion in der VBR genutzt wird, beeinflusst aber nicht die Inhalte sondern führt lediglich dazu, dass der Speicherbedarf kleiner wird.
Insofern sitzt Du da einem Placebo auf. Der reine Roundtrip macht das Bild nicht besser, sondern schlechter (PSNR).
Wenn es Dir optisch besser gefällt... kein Problem, nur zu aber aus technischer Sicht ist das Produkt objektiv schlechter geworden.

@Jens
Sorry, dass ein paar Dinge auf den technischen Charakter zurückgeführt werden mussten, aber oft werden subjektive Eindrücke mit der Funktion der Technik begründet oder schlechte Bilder leicht mal auf das Versagen der Technik zurückgeführt, sind aber manchmal in ungeschickten Workflows begründet.

Space


Antwort von blueplanet:

@Wolfgang: ....Wenn Du nun von AVCHD 4.2 über irgend einen Intermediate wieder nach AVC 4.2 encodierst, überträgst Du keinen einzigen Wert zusätzlich.

...ups, obwohl und wie gesagt ich nur ein Bruchteil davon verstehe, was Ihr ganz locker aus dem Wissensärmel schüttelt ;)) - stellt sich mir nun doch noch mal eine Frage im Zusammenhang mit dem Intermediate-Codec von Cineform.

Ich entnehme aus deiner Antwort folgendes (?!): Ein Intermediate-Codec ist dann doch nicht verkehrt, so lange er losless ist, weil er das System rechentechnisch bei der Postproduktion entlastet. (ist auch mein subjektiver Eindruck)

Oder doch nicht? Aber irgendwo in Richtung Vorteil müssen doch die Kosten z.B. von ca. 250€ für den Cineform-Codec stecken? Zieht man zudem in Betracht, dass es angeblich gute losless-Encoder kostenlos gibt, scheint mir das alles noch mehr suspekt??

Also ein reines und sogar in Sachen Qualität kontraproduktives Placebo für viel Geld?

beste Grüße
Jens

Space


Antwort von Reiner M:

Hallo Wolfgang,

dankeschön für die Erläuterungen. Die technischen Zusammenhänge sind mir weitgehend klar (und werden immer klarer). Wir liegen auch gar nicht so weit auseinander, meine ich. Meine Frage hast Du aber so richtig nicht beantwortet.

Schau mal die Bilder.
Bild 1 zeigt einen Frame aus der Panasonic X909. Ich habe das Video mit unterschiedlichen Verfahren ausgegeben. Angeschaut habe ich dann einen beliebigen Bereich in Vergrößerung, im großen Frame ungefähr mit dem roten Rahmen markiert.

Das zweite Bild zeigt die vergrößerten Ausschnitte jeweils der gleichen Frames.

- Links oben: Das Original, wie es von einem hochwertigen Vorschaucodec im Vorschaumonitor von Premiere Pro angezeigt wird.
- Rechts oben: Die Ausgabe mittels Losless - kein augenscheinlicher Unterschied.
- Die beiden mittleren Bilder unterscheiden bereits deutlich voneinander, technisch aber ausschließlich im Keyframe-Abstand beim Export. Und kein Vergleich zur oberen Reihe.
- Die beiden unteren Bilder vergleichen einerseits VBR und CBR bei sonst gleichen Datenraten, andereseits ist das Ergebnis mit dem Bild Links mitte vergleichbar (unterschiedliche Datenraten).

Nun kann es ja sein, das da technisch kein Unterschied vorliegt. Der aber springt geradezu ins Auge, oder? Daran orientiere ich mich.

Ich werde deshalb niemanden empfehlen, die Datenrate ohne Not abzusenken. Zumal gerade ungeübte Anwender sich damit wertvolle Arbeiten zerstören können (wenn sie sie z. B. für Weiterverarbeitung nutzen). Es empfiehlt sich, oberhalb der Quelldatenrate zu bleiben und sich die resultierenden Unterschiede aus VBR/CBR und Keyframe-Abstand anzusehen, wenns drauf ankommt.

Mit Blick auf die Praxis formuliere ich es genauer (wie schon oben mehrfach): Es empfiehlt sich immer, an der Obergrenze der Tech-Specs des Zielmediums zu bleiben. Der Rest ist Theorie.
Für Web gehe ich z. B. bis 5Mbit/s, für unbekannte Notebooks bis 10 Mbit/s, für Mediaplayer ca. 35 Mbit/s.

Beste Grüße,
Reiner

Space


Antwort von WoWu:

@ Reiner

Hallo Reiner,

Gib mir mal einen Tag Zeit, die Bilder auf einem (ordentlichen) Monitor anzuschauen, den ich derzeit (in der Sonne) nicht habe.
Aber mit der Datenrate hast Du mich wohl falsch verstanden ... ich stimme Dir da absolut zu, mit der Datenrate nicht unter das Original-medium zu gehen. Also, eine Verringerung der Datenrate würde ich ebensowenig empfehlen und wenn Dein Datenkanal gross genug ist, spricht auch nichts dagegen, die Datenrate zu vergrössern, nur findet sich dann mehr "Stuffing" darin.
Aber Bildverbesserungen (technisch) ergeben nicht nicht aus irgend einer Transcodierung ... im Gegenteil.
Wenn der Intermediat zufällig das Bild so verarbeitet, dass bereits eine Bildänderung entsteht, ist das zunächst mal nichts Gutes, weil ein guter Codec das nicht sollte. Gefällt Dir diese Veränderung, dann hast Du Glück gehabt, es spricht aber nicht für den Codec, denn nicht jedem muss so ein selbsttätiger Eingriff in den Content gut finden.
Aber ich schau mir die Bilder mal in Ruhe an und versuche mal zu verstehen, was da passiert.

@Jens
ich kenne den Cineform Codec nicht und weiss nicht genau genug, was er macht, um über dieses spezielle Produkt belastbare Aussagen zu machen.

Grundsätzlich aber ist es zunächst mal so, dass jede Firma mit ihren Produkten versucht, Geld zu verdienen und wenn jemand 200 $ für ein Produkt ausgibt, dann heisst das zunächst einmal nur, dass sie ein gutes Marketing betrieben haben aber noch nicht, dass sie den Content damit verbessert haben.
Es gilt also jetzt zu erkennen, was der Codec mit dem Content macht.
Grundsätzlich aber werden Bilder (technisch) nicht durch eine Transcodierung besser, ganz im Gegenteil. Jede Transcodierung eines bestehenden, verlustbehafteten Codecs in einen andern Codec verschlechtert das Produkt.
Selbst wenn beispielsweise Kooeffizienten aus MPEG4 nach MPEG2 übernommen werden. Selbst bei "eng verwandten" Codecs, wie derzeit H.264 und H.265 wird für die H.265 Implementierung empfohlen, nicht auf H.264 Koeffizienten zurück zu greifen.
Solche Empfehlungen gibt MPEG nicht, wenn sich nichts negatives an der Qualität des Zielcodecs daraus ergeben würde.
Solche Änderungen mögen marginal sein und mancheiner mag sie verwerfen, weil ihm die Ausgangsqualität ausreicht, aber es ändert nichts an den Fakten, dass die (technische) Qualität schlechter wird (z.B. PSNR).
Ein Intermediate-Codec ist dann doch nicht verkehrt, so lange er losless ist, weil er das System rechentechnisch bei der Postproduktion entlastet. (ist auch mein subjektiver Eindruck)

Oder doch nicht?
Sagen wir es anders:
Ein Intermediate ist oft unumgänglich, weil Dein NLE die neuen Codecs aus dem AVC Framework nicht unterstützt. Der Grund dafür könnte sein:
1) Das NLE leistet die Software/Hardware Architektur nicht, die dafür erforderlich wäre.
2) Der NLE Hersteller will die Lizenskosten für die Originalcodecs nicht übernehmen.
3) Die Rechnerarchitektur ist nicht ausreichend, um solche verteilten Prozesse zu unterstützen.

Das Letztere ist seit einiger Zeit immer weniger der Fall, weil mit ausreichen grossem RAM und verteilter Therads es heutzutage kein Hexenwerk mehr ist.

Bleiben also nur 1 und/oder 2 Also ein reines und sogar in Sachen Qualität kontraproduktives Placebo für viel Geld? Warum nicht ... es sind schon Anwender auf ganz andere Sachen hereingefallen.
Codecs sind eine sehr "empfindliche" Sache und der Umgang mit Daten ... und besonders mit schnellen Daten, bei denen kaum Zeit für Fehlerkorrekturen bleibt, ganz besonders.
Daraus folgt, dass es eine gute Implementierung sehr schwer ist.
MPEG hat aus der Erfahrung der miserablen Implementierungen der DV und MPEG2 Codecs eine Lehre gezogen und die Implementierungsvorschriften von H.264 (und auch H.265) deutlich enger gefasst. Das macht die Sache für eine "quick & dirty" Implementierung fast unmöglich. Firmen müssen sich also Mühe geben und einwenig Manpower investieren.
Das mögen einige Firmen nicht und stecken die Mittel lieber in ihr Marketing und preisen ihre Intermediates lieber verbal zum Himmel.

Also, wenn Du keine ausreichende Hardware hast, kommst Du um so einen Intermediate gar nicht herum, wenn Du halbwegs flüssig arbeiten willst.
Wenn Du kein NLE hast, das Dir die native Bearbeitung zulässt, auch nicht.
Wenn Du mit der Qualität, wie sie ist, zufrieden bist, musst Du auch nichts ändern.
Aber Du solltest nicht davon ausgehen, dass eine Transcodierung Dir die technische Qualität Deines Contents verbessert.

Space


Antwort von Reiner M:

Aber Bildverbesserungen (technisch) ergeben nicht nicht aus irgend einer Transcodierung ... im Gegenteil. Wolfgang, da hast Du mich wohl falsch verstanden, oder ich mich mißverständlich ausgedrückt. Es ist klar, dass das Bild gegenüber der Aufnahme nicht verbessert werden kann. Es leidet beim Export sogar heftig, wie man sieht. Das muss ich in Kauf nehmen. Die Phase davor ist interessant. Da kann ich durch einen ungünstigen Workflow mehr Schaden anrichten, als nötig wäre. Der Export würde noch schlimmer ausfallen.

Mit "verbessern", was ich weiter oben angesprochen hatte, meinte ich was anderes, nämlich im Zusammenhang mit der 32bpc-Geschichte:

Bei der Umrechnung vom YUV in den RGB-Farbraum kann* es zu Wertunter- und -überschreitungen kommen. Um negative Schwarzwerte zu verhindern, werden Offsets angewendet, die dann dafür sorgen, dass das Ergebnis nach oben rausschießt. In einem 8bit-Frabraum wäre ein reguläres Umwandlungsergebnis aufgrund der Formeln, Offsets und Faktoren z. B. der Wert 257. Das geht aber nicht. Der Wert wird auf den nächst gültigen Wert beschnitten - 255 - Clipping. Die Info ist weg, obwohl sie in der Cam noch da war! Findet das in allen drei Kanälen im selben Pixel statt, ergibt das eine Ausbrennung. Findet das nur in einem Kanal statt, fällts kaum auf.

Wenn nun dieses Ergebnis so im Speicher liegt - 255,255,255 - und dann neu kodiert wird, wird auf den Speicher zugegriffen. Nicht auf die Quelle. Die Folge: In der exportierten Kopie ist das Clipping gefixt. Die Bildinformation ist weggeschnitten.

Anders, wenn man (wie es Premiere Pro automatisch macht) im 32bpc-Farbraum arbeitet. Da entstehen im Speicher Werte größer "1.0" (~ 255) und bleiben erhalten! Für folgende Berechnungen nutzbar! Durch eine Korrektur der Luminanzkurve kann ich sie unter "1.0" drücken und somit die bis dahin verborgenen Details sichtbar machen. Wenn ich dann exportiere wird wieder aus "1.0" zunächst eine 255, aber der Export stützt sich auf den korrigierten Speicherinhalt. Alles gut.

Das ist es, was ich gegenüber der 8bit-Verarbeitung die Chance zur Verbesserung des Videos genannt habe. In der 8bit-Verarbeitung kann ich das selbe Ergebnis nicht produzieren.

Das ist auch der Grund, warum ich empfehle, originale Cam-Files nach Premiere Pro zu importieren. Wenn ich sie vorher konvertiere, kann es sein, dass mir der Konverter Informationen aus dem Cam-File dauerhaft clippt. Wäre schade.
Und das ist der Grund, warum ich geschrieben habe, dass vor der Erstellung eines Zwischenergebnisses die Luminaz- und Farbkorrekturen (nicht das Geschmacks-Grading, der Look!) ausgeführt sein sollten.

Das kann übrigens jeder selbst nachvollziehen:
Cam-File laden, Effekt "Luminanzkurve" drauf. Kontrolle im Waveform-Monitor: Gibt es Bereiche oberhalb 1? Mit dem Waverform-Monitor absenken, sich über das Ergebnis freuen. Geht besonders gut mit Videos, die augenscheinlich große, ausgebrannte Flächen (Wolken z. B.) enthalten.

Ja, richtig: Mit der Luminanzkorrektur habe ich eigentlich den Luminanzraum gestaucht, also irgendwie die Sache verschlechtert. Die RGB-Kanäle belohnen das mit einer Kontrastanhebung (Qualität = Sehempfinden?) und vor allem mit Details, wo vorher keine waren. Dem Video kommt das zu Gute. Definitiv eine Verbesserung.

*bleibt anzumerken: geht nicht mit Cams, die in einen spezifizierten Farbraum speichern, die Werte klammern, und solche Wertüberschreitungen von vorherein beschneiden, wie z. B. Canon DSLRs.


Beste Grüße,
Reiner

Space


Antwort von WoWu:

@Reiner

Es macht überhaupt keinen Sinn aus 709 in ein anderes Farbmodell zu transformieren, genau weil dann solche (unnötigen) Fehler passieren.
Da sitzt der Hauptfehler nämlich 70cm vor dem Bildschirm, wie hier jemand im Forum so treffen geschrieben hat.
Davon ganz abgesehen, gibt es Mappingvorschriften, die die vorhandenen Werte (wenn schon) auf die neue Tabelle übertragen, ohne dass solche Rundungsfehler entstehen.

Nur besser ist es eben, solche Experimente erst gar nicht zu machen, denn durch das andere Farbmodell entsteht kein einziger zusätzlicher Farbwert, wohl aber ein Haufen Interpolationen. (Mit den bekannten Folgen)
Und meine Erfahrung ist auch, dass man solche, von Dir angesprochenen Feinheiten, auch in einer Farbverarbeitung heraus bekommt, denn eine Transformation kann auch nicht zaubern sondern nur das darstellen, was sich im Signal ohnehin befindet.

Space



Space


Antwort von Reiner M:

Stimmt, Wolfgang.
Jetzt verstehe ich aber nicht, worauf Du hinaus willst. Ich habe nirgends was von 709 geschrieben.

Nun, ich mache meine Experimente. Und ich schaue mir die Ergebnisse an. Ich will verstehen, wie mein System arbeitet. Gerade damit ich den Workflow optimieren kann. Effizienz in der Arbeit und gute Ergebnisse sind die Folge.

Beste Grüße,
Reiner

Space


Antwort von WoWu:

Aber das ist doch der ganze Vorgang, wenn Du aus einem kleineren Wertebereich in den vollen Wertebereich umrechnest. Und AVCHD liegt nun mal in 709.

Space


Antwort von Reiner M:

Wieso klein?
AVCHD nutzt Rec.709 full range: 0-255
Premiere Pro nutzt sRGB IEC61966-2.1 (0-255 resp. 32bpc-Äquivalent).
Passt wunderbar.
REC.709 studio range (luma adjustment 16-235) muss in der Post besorgt werden.

Beste Grüße,
Reiner

Space


Antwort von blueplanet:

@ Reiner Sagen wir es anders:
Ein Intermediate ist oft unumgänglich, weil Dein NLE die neuen Codecs aus dem AVC Framework nicht unterstützt. Der Grund dafür könnte sein:
1) Das NLE leistet die Software/Hardware Architektur nicht, die dafür erforderlich wäre.
2) Der NLE Hersteller will die Lizenskosten für die Originalcodecs nicht übernehmen.
3) Die Rechnerarchitektur ist nicht ausreichend, um solche verteilten Prozesse zu unterstützen.
Alles klar!: Da ich alle drei von Dir genannten Punkte mit einem klaren "Nein" beantworten kann, werde ich in Zukunft auf die Umrechnung der Files vor dem Import nach Premiere verzichten und bedanke mich noch einmal ausdrücklich für die wirklich informativen Informationen ;))

beste Grüße
Jens

Space


Antwort von WoWu:

Wieso klein?
AVCHD nutzt Rec.709 full range: 0-255
Premiere Pro nutzt sRGB IEC61966-2.1 (0-255 resp. 32bpc-Äquivalent).
Passt wunderbar.
REC.709 studio range (luma adjustment 16-235) muss in der Post besorgt werden.

Beste Grüße,
Reiner Es gibt keinen Unterschied in der definition von REC709, also kein "full range" oder "studio range".
http://en.wikipedia.org/wiki/Rec._709
Die beiden Wertebereiche sind immer für Über- bzw. "Unterschwinger" vorgesehen.
Und wenn man sich ein AVCHD Kamerasignal mal anschaut, werden die Bereiche auch dafür gebraucht, weil die Signale in der Verarbeitung eben nicht besser sind, als in Consumerkameras so üblich. (Anlage)
AVCHD nutzt 709 (so kommt das auch aus den Kameras) (Anlage)
Siehe Werte (700 mV)
Da kommt nix in 0-255 raus.
Was hast Du denn für eine Kamera ? Vermutlich eine Canon, denn die machen wirklich 0-255 sRGB.
Lediglich Kameras, die x.v.YCC machen, belegen den vollen Wertebereich.
Aber dann ist es eben nicht 709 sondern x.v.YCC.
Ich bin aber im Augenblick auch überfragt, ob das irgendwo in den AVCHD Specs. festgelegt ist, weil das ja lediglich eine Marketingprodukt ist und keine Norm.
Vielleicht kann ja jeder Hersteller den Wertebereich nach Gusto benutzen. Allerdings hört das bei HDMI dann schon wieder auf, weil der volle Wertebereich per Metadaten signalisiert werden muss und ansonsten auf 709 (Default) fällt.
Geht doch nichts über eine Norm. :-)

Space


Antwort von Reiner M:

Wolfgang,
wir kommen mal wieder vom Hölzchen aufs Stöckchen, und alles bleibt dann wieder ungeklärt und offen. ;) Jetzt sind wir schon beim REC.709 Standard ... - wieso eigentlich?


Wichtig ist, dass man versteht, der Weg von YUV in die RGB-Darstellung funktioniert nicht 1:1. Die Umrechnung hat Folgen. Und 32bpc federt das ab.

In Premiere Pro heißt das für die Praxis (als Tipps):
- Bevorzuge Effekte, die direkt auf YUV wirken, also vor der Umrechnung greifen. Das reduziert Umrechnungsfehler, erzeugt bessere Ergebnisse.
- Bevorzuge Effekte, die 32bpc-fähig sind.
Genügt. Mehr muss man nicht wissen.

Was solls. Ich habe meine Hinweise zu einem zielgerichteten Workflow erläutert. Niemand muss sie annehmen.

Dabei kann das von jedermann ganz einfach nachvollzogen werden. Einfach mal machen. ;)

Ich habe konkret aufgezeigt:
- Es ist erkennbar, dass eine höhere Datenrate, auch über die Datenrate der Quelle hinaus (!) signifikant das Ergebnis verbessert (sonst bräuchte man ja auch keine Losless Codecs.). Die Aussage, das eine höhere Datenrate als die der Quelle kein besseres Ergebnis bringt, ist in diesem Fall falsch.

- Es ist erkennbar, das VBR und CBR zwei völlig verschiedene Kompressionsalgorithmen beeinhalten müssen, die zu unterschiedlichen Ergebnissen führen - Einsparung der Datenrate ist eher ein Nebeneffekt. Tun sie übrigens auch. Unterschiedliche Verfahren liegen dahinter.

- Es ist erkennbar, dass der Keyframe-Abstand signifikant das Kompressionsergebnis beeinflusst.

- Es ist für jeden nachprüfbar, dass die 32bpc-Verarbeitung Vorteile bringt, und zwar vom Import an während der gesamten Aufbereitung für den abschließenden Export, z. B. auch in Sachen Clipping.

- Videoinhalte (still, bewegt, detailreich, flächig usw.) sind in der Praxis die Gegenspieler zu Datenrate, VBR/CBR und Keyframe-Abstand. Damit zu jonglieren ist die Kunst.

Alles Dinge, die für die praktische Arbeit und die daraus resultierende Qualität eines Videos unglaublich bedeutsam sind. Ich nutze das aus.

Bitte bedenke: Zwischen Cam und Export befindet sich was. Ein NLE. Und es passieren Dinge, die teilweise automatisch ablaufen (z. B. YUV->RGB, 8bit, 32bit, maximale Bittiefe usw.) oder die der Anwender auslöst (Effekte). Das erste ist immer da, kann er aber beeinflussen, das zweite nach Bedarf anwenden. Das alles kann er richtig oder falsch machen, gut oder besser. Ich plädiere nur einfach für richtig und besser. ;)

In diesem Sinne.

Beste Grüße,
Reiner

Edit: Sorry... mal wieder zu lang....

Space


Antwort von WoWu:

@ Reiner
Vielen Dank für die Hinweise, aber ich habe wahrscheinlich genauer gelesen, als Du vermutest:
Rec. 709 coding uses "studio-swing" levels where reference black is defined as 8-bit interface code 16 and reference white is defined as 8-bit interface code 235. Interface codes 0 and 255 are used for synchronization, and are prohibited from video data. Eight-bit codes between 1 and 15 provide footroom, and can be used to accommodate transient signal content such as filter undershoots. Eight-bit interface codes 236 through 254 provide headroom, and can be used to accommodate transient signal content such as filter overshoots and specular highlights. Transienten .... das ist genau das, was eben kein wirkliches Video mehr ist, sondern Unzulänglichkeiten des Prozessweges (Überschwinger), die eigentlich in einem anständigen Signalweg gar nichts zu suchen haben.
Aber Consumer Kameras machen das nun eben nicht besser.
Solche Transienten siehst Du im Videobild auch eigentlich gar nicht, weil ihre Anstiegszeiten meistens viel zu kurz sind. Aber elektrisch richten sie natürlich Schaden an, weil Wandler sie noch erkennen.
Daher ist der Raum für Videosignale eigentlich tabu.

Du benutzt vermutlich ein Farbprofil aus der Grafik, das im Consumerbereich x.v.YCC vorbehalten ist und das die Werte oberhalb von 235 bereits drastisch abflacht.
Kameras, die x.v.YCC benutzen haben in der Tat eine weitere Farbspreizung.
Dafür spricht auch, dass Du oben von negativen Werten gesprochen hast denn die opto– elektrische Transferkurve, wie sie in xvYCC definiert ist, läst Werte über 1 im elektrischen Signal und unter 0 zu.

Insofern ergeben sich auch die vermeintlichen Vorzüge einer besseren Darstellung.
Nur Kameras, die kein x.v.YCC machen, werden bei einer korrekten Transformation von REC 709, das (jedenfalls bei uns) aus AVCHD Signalen rauskommt, diese Vorzüge nicht haben.

Insofern steht noch die Frage im Raum, welches Signal Du eigentlich benutzt?
Eine Canon sRGB Format ? Oder ein Sony x.v.YCC ?
Frage ist also, ob Jens, aus seiner Kamera überhaupt solche Signale bekommt.

Aber lasen wir es dabei.
Jens scheint sich ein Bild machen zu können, obwohl ein paar Sachen für ihn sicher noch nicht so ganz klar geworden sind.
Aber so ist das nun mal mit der Videotechnik.

Space


Antwort von Tiefflieger:

Ich kann definitiv sagen, dass 0..255 Werte in AVCHD Level 4.2 sind.
Um als Beispiel zu zeigen, welche Bereiche clippen habe ich zwei Bilder mit Histogramm gemacht.

/ (click)

Das 1. Frame ist unverändert ab Kamera, mit "weisser" Pinguin Brust (Schwarzwert 5 haben 2 Pixel)
Das 2. ist Gamma 0.01 Korrigiert. Weiss ist 255,255,255, alles andere zeigt hohe RGB Werte (Mischfarben)

Was ich feststelle:
Heutige Flachbildschirme können beide Farbräume sRGB und REC.709 anzeigen.
Wirklich true color und kleinere Banding Gefahr besteht mit sRGB.
Aber ich kann nicht für Distribution und für alle Systeme sprechen.

Gruss Tiefflieger

Space


Antwort von Reiner M:

@WoWu

Wolfgang, wenn Du magst: schick mir mal bitte eine Mail.
Ich würde gerne ein Thema ansprechen, das hier anknüpft, aber deutlich OT ist. Es geht mir um eine fachliche Beurteilung. Nur, wenn Du Lust hast. Eilt auch nicht.

Beste Grüße,
Reiner

Space



Space


Antwort von WoWu:

@ Tiefflieger

Auch hier wieder ... welche Kamera, denn das Signal, was ich oben abgebildet habe, hab ich kurz mal aus der GH2 genommen, also stink normales AVCHD und die Canon Signale sollte man (erklärter Massen) über 5ToRGB importieren, die die Spreiszung korrekt reproduziert.
Es geht ja nicht nur darum, die Werte voll zu stopfen sondern auch die Quantisierung muss stimmen denn diese Farbprofile sind deutlich in Richtung Cyan und Grün gespreizt. Ausserdem läuft YCbCr anders als RGB, von der Mitte aus. Das bedeutet, dass die Monitore gänzlich anders arbeiten müssen. dazu ist eben die HDMI-Signalisierung da, um dem Monitor mitzuteilen, was da eigentlich ankommt. Wenn also weder der Camcorder es signalisiert noch das NLE oder der Monitor es versteht, wird das mit der Übertragung ohnehin Kauderwelsch.

Es reicht also nicht, einfach nur zu schaun, ob der Monitor es kann und alles ausser Originalbilder des Camcorders ist ohnehin "Schall & Rauch".
Schau also mal das Waveform Format Deines Camcorders (ohne irgendwas dazwischen) an. Wenn Du da 700 mV hast, hast Du auch kein sRGB.

Space


Antwort von Tiefflieger:

@WoWu
Danke, ich werde ein Tool runter laden und die Signale analysieren.

Space


Antwort von blueplanet:

@ Reiner

Frage ist also, ob Jens, aus seiner Kamera überhaupt solche Signale bekommt.

Aber lassen wir es dabei.
Jens scheint sich ein Bild machen zu können, obwohl ein paar Sachen für ihn sicher noch nicht so ganz klar geworden sind.
Aber so ist das nun mal mit der Videotechnik. ...Jens filmt mit einer Panasonic AG AC90 ;)) und möchte doch nur seinen in wochenlangem Postprozessing entstandenen Reisebericht in der höchstmöglichen, technischen Qualität (dem "aufgewerteten" / nicht verbesserten Bildmaterial;) an den Mann bzw. die Frau bringen.

Und ja, mir sind die aus meiner Sicht hochkomplizierten Hintergründe nicht ganz klar, trotzdem habt Ihr eine tolle Erklärarbeit geleistet.

beste Grüße
Jens

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum



slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash