Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Adobe Premiere Pro / Elements / SpeedGrade / Creative Cloud CC-Forum

Infoseite // Gibt es eine gute Alternative zum h.264 Codec?



Frage von yoshi 226:


Hallo zusammen,

ich habe einen Camcorder (Sony CX900) der im XAVC-S format aufnimmt. Die Videos bearbeite ich mit Premiere Pro und rendere sie mit dem herkömmlichen h.264 Format.

Entspricht XAVC-S dem h.264 Format oder ist das nochmal ein ganz eigener Codec?

Denn wenn ich die Videos selbst mit gleichhoher Bitrate (50Mbit/s) rendere, sieht man doch deutliche Verpixelungen und das Bild wirkt etwas unschärfer als das Original.

Gibt es eine bessere Ausgabemöglichkeit als das h.264 Format?

Space


Antwort von cantsin:

XAVC-S ist h264. h264 an sich ist prima, nur empfiehlt es sich, mit höchster Qualitätseinstellung und, bei einem Master, höherer Bitrate (z.B. rund 150Mbit/s bei 1080p und 24-30fps) zu rendern.

Space


Antwort von blueplanet:

...wenn das mal nicht wieder eine Halbweisheit ist ;)

Was sollen denn die 150Mbit/s bei einem Original von 50Mbit/s bringen?
Adobe empfiehlt z.B. 10 bis 20 Prozent als Codecreserve.

Also bei z.B. 28Mbyt/s im Original und in Hinsicht Masterband, stellt man 2Pass VBR minmal 28Mbyt/s und als maximale Bitrate ca. 33Mbyt/s ein. Das sollte genügen.
Viel wichtiger ist wohl, dass während des Projekts möglichst mit einem verlustfreinen Codec gearbeitet/zwischengerendert wird...

Oder gibt es neuere Erkenntnisse?

LG

Space


Antwort von Goldwingfahrer:

Viel wichtiger ist wohl, dass während des Projekts möglichst mit einem verlustfreinen Codec gearbeitet/zwischengerendert wird... ja,allerdings...wobei das Wort "möglichst" zu ersetzen ist mit "nur"
Ganz brutal gesagt....intermediate oder in x264 mit crf=0

Kenne jetzt den Originalstream nicht,wenn aber da mit "open-GOP"s" gespeichert wurde dann gibts eh Aerger.

--open-gop
Erlaubt offene GOPs, d.h. B-Frames dürfen direkt vor I-Frames stehen. Da ein solches B-Frame auf das I-Frame referenziert, können wir an der Grenze zwischen offenen GOPs den Film nicht schneiden.


kann man aber alles hier nachlesen oder im Selurs Wiki.
http://encodingwissen.de/x264/referenz

Space


Antwort von Jörg:

Also bei z.B. 28Mbyt/s im Original und in Hinsicht Masterband, stellt man 2Pass VBR minmal 28Mbyt/s und als maximale Bitrate ca. 33Mbyt/s ein. Das sollte genügen. Die 2pass kann man sich im Prinzip sparen, außer man will ein bestimmtes,
vorgegebenes Maß (DVD/BR) bis aufs Letzte ausquetschen.
Die 150 von cantsin würde ich auch erst mal am Player ansehen wollen, wenns denn einer abspielt, mir reichen deutlich niedrigere Werte, wenn der Keyframeabstand verkürzt wird.
Und der von Goldi immer wieder ins Spiel gebrachte x264 macht hier mehr Probleme als jeder andere codec, zumindest in der Handbrakeversion.

Ganz wichtig ist der tip, eine intraframecodec als Zwischenexport zu nutzen,
aus diesem dann die Endformate zu generieren.

Space


Antwort von cantsin:

150Mbit/s muss ich in der Tat relativieren - die scheinen mir nur dann sinnvoll, wenn zusätzliche Dinge (z.B. Animationen und künstliches Filmkorn) reingerendert werden.

Space


Antwort von blueplanet:

Die 2pass kann man sich im Prinzip sparen, außer man will ein bestimmtes,
vorgegebenes Maß (DVD/BR) bis aufs Letzte ausquetschen.
...Achtung, möglicherweise Halbwissen: bei der 2Pass-Geschichte geht es nicht nur um Datenreduzierung. Vielmehr geht es in erster Linie um eine Optimierung der Kompression. Insofern ist 2Pass also nicht zu unterschätzen!

Frage an die Experten (bitte ohne wissenschaftlichen Rundumschlag ;): Idealerweise würde man als Beispiel mit dem AVC-intra-Codec von Panasonic filmen, das Material anschließen in Premiere bearbeiten und dann x-beliebig ausgeben.

Ideal gibt aber selten ;): Ich filme also mit AVCHD bzw. in einer anderen x-beliebigen h264-Codec-Variation. Spiele das nach Premiere aus und verwende zum Zwischenrendern einen intermediate-Codec, z.B. den AVC-intra 100 oder ProRes. Ergo wird alles bis zur finalen Ausgabe (Blenden, Effecte etc.) "verlustfrei" gehalten. So weit so gut.

Doch was geschieht mit dem Ausgangsmaterial? Das wird doch bei der "Wandlung" von h264 zu AVC-intra auf jeden Fall in die Zange genommen - oder? Ganz zu schweigen von der finalen Ausgabe (vorzugsweise erneut h264 bzw. neumodisch h265)

Space


Antwort von blueplanet:

Worin liegen die Unterschiede zwischen XAVC und AVCHD?

Das XAVC-Format unterstützt verschiedene Abtastraten (4K/HD, 4:4:4/4:2:2/4:2:0 und 12/10/8-Bit), die eine Vielzahl an Anwendungen für Endkunden und den professionellen Einsatz abdecken: von 4K-Produktionen bis hin zum Online-Streaming und Bildgebungsanwendungen für den Endverbraucher.

Im Gegensatz dazu ist AVCHD auf 24 Mbit/s (1.080 50i/50i) bzw. 28 Mbit/s (1.080 50p/60p) mit 4:2:0-8-Bit-Abtastrate beschränkt und vollständig mit dem Blu-ray-Format kompatibel.

Was ist XAVC S?

XAVC S ist ein Unterformat, das viele der hochwertigen Methoden und Technologien von XAVC nutzt, jedoch für Consumer-Produkte und -Workflows gedacht ist. Es unterstützt ausschließlich die 3.840 x 2.160-Pixelversion von 4K, die als Quad Full HD, QFHD, UltraHDTV oder UHDTV bekannt ist. XAVC S ist ein „leichterer“ Codec mit Long GOP-Komprimierung und relativ kleinen Dateigrößen. XAVC S nutzt ebenfalls den .MP4-Wrapper, um höhere Kompatibilität bei Consumer-Workflows zu bieten.

XAVC und AVCHD verwenden die gleiche Komprimierungstechnologie (MPEG-4 AVC/H.264); sie sind jedoch nicht untereinander kompatibel.

Space


Antwort von Goldwingfahrer:

Zitat von Jörg Und der von Goldi immer wieder ins Spiel gebrachte x264 macht hier mehr Probleme als jeder andere codec, zumindest in der Handbrakeversion. Moment mal Junge...ich spreche immer nur von der x264 Version vom Entwickler Selur und sicher nicht von einer Software wie Handbrake.
Handbrake ist eine ganz andere Baustelle als Hybrid.
Bitte sei so freundlich unterscheide in Zukunft und differenziere.
Vielmehr geht es in erster Linie um eine Optimierung der Kompression. Insofern ist 2Pass also nicht zu unterschätzen! ja....eine "Stillscene" im Stream braucht viel weniger Bitrate als eine "Actionsscene]

Space



Space


Antwort von Jörg:

Zitat von Jörg Zitat:
Und der von Goldi immer wieder ins Spiel gebrachte x264 macht hier mehr Probleme als jeder andere codec, zumindest in der Handbrakeversion.

ist doch wohl Differenzierung genug?? ;-))

Space


Antwort von TomStg:

...und verwende zum Zwischenrendern einen intermediate-Codec, z.B. den AVC-intra 100 oder ProRes. Ergo wird alles bis zur finalen Ausgabe (Blenden, Effecte etc.) "verlustfrei" gehalten. So weit so gut. Achtung, Nicht-Wissen:
Weder AVC-Intra noch ProRes sind verlustfrei.

Space


Antwort von WoWu:

x264 benutzt andere Librarys als H.264 und es stehen in x264 nicht alle Tools von H.264 zur Verfügung. Insofern ist x264 ein abgemagertes Derivat.

In XAVC kommen Tooös aus dem AVC Framework zum Einsatz, die nicht von allen Playern gelesen werden und die nicht Teil der Referenzimplementoerung (also nicht mandatory) sind, wohl aber Teil des Stamdards
Daher ist XAVC nur standardconformes, aber nicht unbedingt kompatibel mit Stamdardimplerungen. Meistens werden dieses Erweiterungen daher von Plug-Ins abgestreiften, um das Format wieder mit Stamdardplayern lesen zu können.
Das Anstreifen ist verlustfrei, es gehen aber dadurch die, von Sony erwarteten Vorteile damit auch verloren.

Intermediate nach ProRes ist immer verlustbehaftete, weil ProRes ein Derivat von MPEG 2 ist und alle Vorzüge nach MPEG4 (z.B. erweiterte Farb- und Bewegungsauflösung) damit verloren gehen.
Wer ProRes als Intermediate vorhat, kann sich höherwertige Codecs wie H.264 gleich sparen und MPEG 2 machen.

Space


Antwort von mash_gh4:

x264 benutzt andere Librarys als H.264 und es stehen in x264 nicht alle Tools von H.264 zur Verfügung. Insofern ist x264 ein abgemagertes Derivat. geh! -- das ist doch wieder einmal ziemlicher quatsch!

die x264 ist eine implementierung des H.264 standards.

https://www.videolan.org/developers/x264.html
https://de.wikipedia.org/wiki/X264

die qualität der damit komprimierten files gilt allgemein als ausgesprochen gut.
man kann dabei aber natürlich auch völlig untaugliche optionen verwenden, um das zu verhindern. ;)

Space


Antwort von WoWu:

mit der freien Implementierung hast Du Recht, ansonsten erkundige Dich mal etwas genauer.

Space


Antwort von Goldwingfahrer:

ansonsten erkundige Dich mal etwas genauer. da kannst sicher sein,ich werde...
Intermediate nach ProRes ist immer verlustbehaftete, weil ProRes ein Derivat von MPEG 2 ist und alle Vorzüge nach MPEG4 (z.B. erweiterte Farb- und Bewegungsauflösung) damit verloren gehen. wer sprach oder schrieb hier denn was von Prores...
...ich schrieb von Intermediate..nannte aber ganz sicher nicht Prores.

Space


Antwort von mash_gh4:

mit der freien Implementierung hast Du Recht, ansonsten erkundige Dich mal etwas genauer. schau ma einmal, ob dir noch jemand hier glauben schenkt?!:)

Space


Antwort von Jott:

Herrlich.

Space


Antwort von yoshi 226:

Also es gibt da ja noch die Ausgabemöglichkeit "MXF OP1a" und dann die Wahlmöglichkeiten zwischen AVC-Intra, XAVC-Intra. Hat das jetzt was mit dem XAVC-S Codec zu tun?

Wenn ich Dateien damit rendere werden diese leider riesig.

Space



Space


Antwort von blueplanet:

...Fach-Männers, bitte nicht schon wieder alles in Kleinstteile zerbröseln. ;)

Macht doch mal auch für "Halbwissende" Codec-Varianten mit Köpfen, bringt Licht ins Wirrwarrrr - bitte, bitte!

Also: 1. Ausgangsmaterial ist AVCHD und landet in der Timline (über Sequenz erstellen) von Premiere.
Dort sollen Effecte, Blenden, Animationen etc. hinzukommen, um dann in einem Zwischenarbeitsschritt gerendert zu werden.
Mit dem Ergebnis geht es anschließend (z.B. colorgrading) in der Timeline weiter.

WELCHEN (möglichst) VERLUSTFREIEN (effectiven) und nicht zusammengefrickelten CODEC würdet Ihr (außer vielleicht Full-Frame AVI) empfehlen??

2. Ausgangsmaterial ist MP4 (Mov) IPB und landet....
WELCHEN:

3. Ausgangsmaterial ist MP4 (Mov) All-Intra und landet...
WELCHEN:

4. Ausgangsmaterial ist XAVC-S und landet...
WELCHEN:

5. Ausgangsmaterial ist ProRes und landet...
WELCHEN:

Vielen Dank für Eure Bemühungen im Voraus!!

PS.: im Anhang ein Screenshot von den Codecs die z.B. mir zur Verfügung stehen - wenn ich als .AVI ausgeben möchte.

Space


Antwort von WoWu:

@Goldwinfahrer
Das mit dem PR bezog sich auch nicht auf Dein Posting.
Der TS hatte PR und AVC nur in einem Athemzug als Intermediate genannt aber wenn man schon nach Unterschieden fragt, sind das sicher die allergrößten.

@mash gh4
Im Gegensatz zu Dir, muss ich solche Dinge nicht "glauben", denn Fakten kann man nachlesen.

Space


Antwort von dienstag_01:

Also: 1. Ausgangsmaterial ist AVCHD und landet in der Timline (über Sequenz erstellen) von Premiere.
Dort sollen Effecte, Blenden, Animationen etc. hinzukommen, um dann in einem Zwischenarbeitsschritt gerendert zu werden.
Mit dem Ergebnis geht es anschließend (z.B. colorgrading) in der Timeline weiter.
Welchen Grund gibt es denn, das finale Rendering nicht mit dem Quellmaterial zu machen?

Space


Antwort von Angry_C:

...und verwende zum Zwischenrendern einen intermediate-Codec, z.B. den AVC-intra 100 oder ProRes. Ergo wird alles bis zur finalen Ausgabe (Blenden, Effecte etc.) "verlustfrei" gehalten. So weit so gut. Achtung, Nicht-Wissen:
Weder AVC-Intra noch ProRes sind verlustfrei. *Klugschietermodusan*

Ich glaube, deshalb schrieb er verlustfrei in Anführungszeichen.

Einigen wir uns auf visual lossless? :-)

*Klugschietermodusaus*

Space


Antwort von blueplanet:

Welchen Grund gibt es denn, das finale Rendering nicht mit dem Quellmaterial zu machen? 1....manchmal entstehen hochverschachtelte Spur-Schnittsequenzen, die ich einfach "retten" möchte bzw. mir es dann "sicherer" ist, diese als eine Sequenz (Spur) zu händeln. (ist wohl auch diversen Abstürzen von Premiere geschuldet bzw. habe ich bereits einiges Lehrgeld gezahlt)

2. hängt das mit meiner persönlichen Arbeitsweise in Premiere zusammen.
Ich füge gern die fertigen Schlüsselsequenzen nacheinander zusammen. D.h., ist ein Abschnitt fertig, fange ich den Nächsten an usw. Am Ende des Projekts kommt dann das finale Zusammenfügen der Einzelsequenzen, die Tonmischung, das finale Grading.

und 3. - bei Verwendung verschiedener Plugins, wie Neat, Boris FX etc. macht es sich vom Workflow einfach besser, fertige Sequenzen ins Projekt wieder zu reimportieren.

Jetzt könnte einer sagen - dann mach' doch alles uncompress. Hmm - trotz mächtigem Arbeitstier gerät bei .avi uncompress die Performance mächtig aus dem Tritt. Und erst recht bei großen (langen) Projekten. Das macht keinen wirklichen Spass - vom Platzbedarf mal ganz abgesehen...

Space


Antwort von WoWu:

Eigentlich gibt es zwei grobe Richtlinien für eine solche Auswahl.
1) Die Performanz Deines Rechners.
Davon ist abhängig, welchen Speicher er benutzen kann, wie die Architektur des Codecs (auch durch das NLE) unterstützt wird
und
2) Das Toolset, dass die Datenreduktion benutzt.

Es bringt nichts, eine sehr hohe Bewegungsauflösung im Aquisitionscpdec zu unterstützen, wenn nicht der Intermediate Codec mindestens auf die gleichen Tools zugreifen kann, denn eine Datenreduktion besteht aus einem Set unterschiedlicher Tools, die, je nach Gegebenheit eingesetzt werden.

Daher sollte Deine erste Regel sein, möglichst den technischen Stand der Datenreduktion nicht zu unterschreiten. Das geling dadurch, dass Du bei einem AVC Akquisitionscodec nicht auf einen Wavelet oder MPEG2 Codec überspielst.

Wenn Dein Rechner keine GOP zeitnah verarbeiten kann oder den Codec, den die Kamera benutzt, nicht unterstützt, dann bleib zumindest in der "Familie der Tools" , also im AVC Umfeld und nutz einen AVCI Codec, der entweder kürzere GOPs hat oder eben nur I-Frames.
Die höhere Datenrate sagt meistens nichts über die Qualität dabei aus, weil sie für die Erstellung der Bilder genutzt wird.
Die Biödqualitäten hängen viel mehr an den benutzten Tools und nicht zuletzt an der Qualität der Implementoerung des Codecs.

Nicht alle Formen erzielen da gleichgute Ergebnisse, obwohl dasselbe draufsteht.

aLso, nimm für einen AVC Kameracodec auch ein AVC Intermediate, mit verkürztem Referenzbild oder bei einem ganz schwachen Rechmer eben I Frames only.
Schau, was Dein NLE unterstützt und vergleich mit dem Original, wie gut die Qualität ist.
Vorzug würde ich immer einer variabel eingestellten Bitrate geben.
Eine Umcodierung innerhalb der identischen Toolbpx ist relativ unproblematisch und sollte, solange kein Fehler gemacht wird, oder eine schlechte Implementierung vorliegt, ziemlich verlustfrei erfolgen und nicht sichtbar sein.

Space


Antwort von yoshi 226:

Ich fürche hier dreht sich alles im Kreis .. Ich habe bis jetzt noch keine hilfreiche Antwort auf meine Frage bekommen. Statdessen wird hier mit Klugscheißereien gestritten aus denen ich auch nicht Schlau werde, aber das scheint wohl die meisten Foren auszumachen ..

Ich versuche mein Problem nochmal deutlich darzustellen:

Mein Camcorder nimmt im XAVC-S Format (1080p50, 50Mbit/s) auf. Ich weiß, dass es irgendwo zu h.264 gehört aber das ist ja im Moment egal. Rendere ich ein Video nun im Format h.264 (1080p50, 50Mbit/s, Maximale Renderquali/Bittiefe) bekomme ich nachher ein deutlich schlechteres Ergebnis als die Originalaufnahmen. Vor allem bei schnellen Bewegungen scheint einem ich hätte mit einer Verschlusszeit 25 aufgenommen, also verstärkte Bewegungsunschärfe. Das kommt durch die etwas mehr verpixelte Bild.

Gibt es vielleicht eine effizientere/n Möglichkeit/Codec (vllt. auch außerhalb von Premiere Pro) die Videos zu rendern? Ich könnte die Videos auch lossless (AVI unkomprimiert) ausgeben und mit einer anderen Software rendern, wenn es denn eine gibt die da bessere Ergebnisse erzielt?

Space


Antwort von WoWu:

Welche Einstellung wählst Du denn beim Umcodieren ? Profile ? Level ?
Auf welcher Software vergleichst Du denn ? Welcher Player Speziell der, der XAVC abspielt ?
Vielleicht hast Du ja auch mal ein Beispiel, wie sowas aussieht. .. ist es nun verpixelt oder mit Bewegungsunschärfe behaftet ?

Du musst uns schon einwenig Informationen geben, nur "wünsch Dir was" reicht nicht. Das ist übrigens auch alles gleich in allen Foren.
Die Antworten sind immer nur so gut, wie die Voraussetzungen, sie zu geben.
Und wenn Du schon von XAVC nach AVC wandelst und es schlecht aussieht, dann muss man den Fehler finden und der findet sich nur allzu oft in einer falschen Einstellung.

Space


Antwort von dienstag_01:

@blueplanet
Ich würde mal testen, ob der Workflow nicht in die Richtung zu wenden ist, dass man eher mit einer Art Proxies arbeitet, also Zwischenschrittwe zwar rendert, die finale Ausgabe aber mit dem Quellmaterial macht.

@WoWu
Mal ganz explizit: du sagst also, dass eine Ausgabe in DNxHD 185 schlechter ist als bspw. AVC-I-100? Ich meine jetzt wirklich vom Ergebnis her, nicht welcher Codec besser oder schlechter ist.

Space



Space


Antwort von WoWu:

Das ist so, wenn Du aus einem AVC Codec kommst denn allein die Bewegungsprädiktion und Farbauflösung werden zurückgeführt.
Bei schlichtem Material wahrscheinlich nicht wahrnehmbar aber bei kritischem Material schon.
(Und noch ein paar andere Punkte) Die beiden Sachen hab ich hier mal nur exemplarisch aufgeführt.
Genausowenig macht es Sinn, aus gemeinsamen Bewegungsvektoren wieder individuelle zu machen, die nur die Bandbreite drastisch erhöhen und jede Menge Fehler produzieren usw. usw.

Space


Antwort von yoshi 226:

Hier ein Standbild aus einem Video, einfach mal beide runterladen, auf den Bereich mit den schwenkenden Ästen zoomen, dann die beiden Fotos hin- und herswitchen:

Original:
http://www.fotos-hochladen.net/uploads/ ... oc2rq4.jpg
Gerendert:
http://www.fotos-hochladen.net/uploads/ ... k1x3si.jpg

Hier meine Settings:
http://www.fotos-hochladen.net/uploads/15szquoc1nk.jpg
http://www.fotos-hochladen.net/uploads/2ojcy4ad9hi.jpg
http://www.fotos-hochladen.net/uploads/3qpisvcymhe.jpg

Space


Antwort von TheBubble:

Bei den Frames handelt es sich aber nicht um eine reine Neukompression, es wurde an der Helligkeit/dem Kontrast und eventuell auch der Farbe gearbeitet.

Das dabei nach der erneuten verlustbehafteten Kompression etwas leicht anderes rauskommt, ist nicht verwunderlich. Ich halte die Artefakte im Rahmen des Erwartbaren und nicht für eine technische Fehlfunktion. Vermutlich würde ein Aussenstehender auch nichts ungewöhnliches bemerken, da ihm einerseits der direkte Vergleich zwischen den beiden Frames fehlt und er andererseits auch nicht jeden Frame einzeln untersucht.

Wenn das während der eigenen Verarbeitungskette weitgehend vermieden werden soll, dann muss man entweder einen nur sehr leicht verlustbehafteten Intermediate verwenden, der mehr Details speichern kann (bei entsprechend hoher Datenrate), oder einen verlustlos komprimierenden Intermediate (was in vielen Fällen aber auch wieder übertrieben sein dürfte und die Datenrate noch stärker in die Höhe treibt).

Aber selbst wenn alle Zwischenschritte mit einem verlustlos arbeitenden Intermediate abgewickelt werden: Am Anfang der Verarbeitungskette steht immer die Kompression der Kamera und am Ende die für das Ausgabeformat erforderliche neue Kompression.

Space


Antwort von blueplanet:

@yoshi

...ich sehe als "gravierendsten" Unterschied im Renderbild mehr Kontrast als im Original und einen ticken mehr Unschärfe. Wobei diese bei der generellen Unschärfe (Wischeffekt) der Äste wirklich zu vernachlässigen ist.

Aus der Kalten würde ich eher auf eine zu niedrige Verschlusszeit (50/25) der Camera tippen. Also immer auf das fsp zur doppelten Verschlusszeit (50/100) achten. In der Regel dürften die Äste dann nicht mehr unscharf wirken (es sei denn, es wäre ein Orkan oder es ist kreative Absicht ;)

Bei den Settings würde ich wie gesagt auf VBR 2(!!)Pass (min. 50 max. 60) gehen. Das wird eine riesen h264-Datei!! (im Vergleich, für youtube benötigst du höchstens 16MB/s). Mehr also auf keinen Fall.

Space


Antwort von Goldwingfahrer:

@yoshi

...ich sehe als "gravierendsten" Unterschied im Renderbild mehr Kontrast als im Original und einen ticken mehr Unschärfe. Wobei diese bei der generellen Unschärfe (Wischeffekt) der Äste wirklich zu vernachlässigen ist. Ja,so sehe ich das hier auch genauso.
Geöffnet in Edius sehe ich dass im Vectorscop/Wellenformmonitor
bei IRE 100 einfach abgeschnitten wurde,mal etwas mehr mal etwas weniger.
Bei den beiden Bildern.
Der Farbwertebereich,blödes Wort,ist etwas nach oben verschoben.

Space


Antwort von Alf_300:

@ Wobei diese bei der generellen Unschärfe (Wischeffekt) der Äste wirklich zu vernachlässigen ist.

Für mich schaut das nicht wie Wischeffekt aus, sondern eher wie Dreck suf der Linse, denn das ganze linke untere Viertel ist unsccharf.

Space


Antwort von WoWu:

Jedenfalls halte ich da auch die Suche im Codecbereich für vertane Zeit.

Space


Antwort von TomStg:

...hängt das mit meiner persönlichen Arbeitsweise in Premiere zusammen. Ändere als Erstes Deine suboptimale Arbeitsweise:
Entweder benutzt Du für einige Teile Deines Projekts einen - nicht nur visuell sondern tatsächlich - verlustfreien Codec (zB Lagarith oder Uncompressed UYVY bzw keinen Codec = None) oder Du renderst das gesamte Projekt erst ganz am Ende des Workflows für die Ausgabe. Zwei Mal mit Verlust zu rendern, funktioniert nicht - selbst bei optimalen Codec-Einstellungen nicht, die hier offenbar noch gar nicht gewählt sind. Und Speicherplatz ist gar kein Argument gegen verlustfreie Ausgabe.

Space


Antwort von Goldwingfahrer:

...hängt das mit meiner persönlichen Arbeitsweise in Premiere zusammen. Ändere als Erstes Deine suboptimale Arbeitsweise:
Entweder benutzt Du für einige Teile Deines Projekts einen - nicht nur visuell sondern tatsächlich - verlustfreien Codec (zB Lagarith oder Uncompressed UYVY bzw keinen Codec = None) oder Du renderst das gesamte Projekt erst ganz am Ende des Workflows für die Ausgabe. Zwei Mal mit Verlust zu rendern, funktioniert nicht - selbst bei optimalen Codec-Einstellungen nicht, die hier offenbar noch gar nicht gewählt sind. Und Speicherplatz ist gar kein Argument gegen verlustfreie Ausgabe. Statt Lagarith,das ich zwar auch einsetze aber nur für urspr.Analoges,würde ich hier eher auf den Canopus HQ setzen.
Den gibts ja seit einem Jahr auch kostenlos.Für Win + Mac.
Da einfach die Settings richtig setzen.

Space



Space


Antwort von Jott:

Was jetzt: sind professionelle Intermediate Codecs nun Teufelszeug oder gar doch die ganz normale und überall in der realen Welt gängige Lösung des Problems? :-)

Space


Antwort von Goldwingfahrer:

professionelle Intermediate Codecs da gehört doch nebst Prores ja auch der Canopus HQ dazu.
Interessant wurde es ja als er nicht nur für Edius Anwender frei zur Verfügung stand sondern seit geraumer Zeit auch kostenlos zu haben ist.

Warum wohl senden die Transponder Streams in Canopus HQ

Space


Antwort von blueplanet:

@Goldwingfahrer

Ganz herzlichen Dank für Deine Tips und da bald Weihnachten ist ;)...
vielleicht könntest Du evtl. noch ein bisschen aus dem Nähkästchen preisgeben bzw. mir die typischen Einstellungen für beide Codecs (HQX und Lagarith) verraten (siehe angehangene Screenshots). Das wäre super, denn mit den für mich kryptischen Bezeichnungen, kann ich nicht viel anfangen.

@TomStg

...ja, ich werde in mich gehen und den workflow gezielter abstimmen. Wenn man nicht losless ;) filmt, gibt es nur die Alternative zum Verlust, dass die Zwischenschritte optimiert werden. Im schlimmsten/kritischen Fall müssen halt diverse Szenen bis zur entgültigen Ausgabe uncompressed bleiben - das leuchtet mir so weit ein. Alles andere ist mal mehr oder weniger ein zufriedenstellender Kompromiss.

LG

Space


Antwort von dienstag_01:

Das ist so, wenn Du aus einem AVC Codec kommst denn allein die Bewegungsprädiktion und Farbauflösung werden zurückgeführt.
Bei schlichtem Material wahrscheinlich nicht wahrnehmbar aber bei kritischem Material schon.
(Und noch ein paar andere Punkte) Die beiden Sachen hab ich hier mal nur exemplarisch aufgeführt.
Genausowenig macht es Sinn, aus gemeinsamen Bewegungsvektoren wieder individuelle zu machen, die nur die Bandbreite drastisch erhöhen und jede Menge Fehler produzieren usw. usw. Wieso wird die Farbauflösung zurückgeführt?

Angenommen, ich habe DNxHD als Intermediate um damit Effekte zu berechnen: Du sprichst von Fehlern, die bei der Umwandlung von AVCHD nach DNxHD zu erwarten sind. Sind diese Fehler nicht genauso zu erwarten, wenn ich meine Effekte auf das AVCHD Material direkt anwende?
Wenn nicht, warum nicht?

Mir erscheint dieser Verweis auf Fehler eher polemisch, da Fehler natürlich bei jeder Umwandlung/Berechnung entstehen können. Aber Berechnen muss ich ja.

Space


Antwort von Goldwingfahrer:

@Goldwingfahrer

Ganz herzlichen Dank für Deine Tips und da bald Weihnachten ist ;)...
vielleicht könntest Du evtl. noch ein bisschen aus dem Nähkästchen preisgeben bzw. mir die typischen Einstellungen für beide Codecs (HQX und Lagarith) verraten (siehe angehangene Screenshots). Das wäre super, denn mit den für mich kryptischen Bezeichnungen, kann ich nicht viel anfangen.
sorry,hab ja noch ein Leben nebst den PCs.

Lagarith setze ich nur ein bei urspr.Analogem und in Interlaced vorliegend.
In Deinem Falle würde ich den HQ oder den HXQ einsetzen und auf Maximal fahren.
"Custom"......und bei "max size min" den Schieber ganz nach rechts ziehen,das wars.

Space


Antwort von WoWu:

@dienstag
Es gibt keine dynamischen Makroblockgrössen in MPEG2, anders als in H.264, wo die Makroblockgrössen dem Bildinhalt entsprechend fein angepasst werden.
Oder hast Du schon mal in einem der angesprochenen Intermediates etwas Anderes als 16x16 gesehen.
Die Konsequent ist klar ... überführt man eine solche feine Bewegungsauflösung in eine grobe Blockstruktur, verändern sich die Resultate entsprechend zum negativen und sind auch nicht mehr reproduzierbar.

was die Berechnung angeht, geht es weniger im die Rechenfehler die der Rechner verursacht sondern um die Fehler aus unterschiedlichen Algorithmen, beispielsweise in der DCT.
Eine Berechnung, die nur aus Additionen und Shifts besteht ist absolut reproduzierbar, anders als Algorithmen mit entsprechend vielen Rotationswinkeln.
Es geht im Unterschied um die Rückführungsgenauigkeit in den Frequenzbereich und wenn ich im Footage diese Möglichkeit durch Benutzung der entsprechenden DCT habe, sie aber bei der Umcodierung in eine DCT mit Rotation aufgebe, steigen damit die Fehler entsprechend an.
Es geht also nicht um die Rechenfehler die der Computer hinzufügt.
Aber die Unterschiede zwischen den Verfahren sind natürlich nicht auf diese kurzen Beispiele beschränkt ....

Space


Antwort von dienstag_01:

Für die Anzeige des Videos werden die Streams ja auch wieder bis auf Einzelbildebene dekodiert, weshalb sollte das nicht für die Umwandlung in einen anderen Codec funktionieren.

Space


Antwort von Jörg:

dank Wolfgang sind ein paar Details klarer geworden, prima, danke dafür.

Nun zur erforderlichen Quintessenz:
Welcher codec ist dann als intermediate geeignet, wenn die Quelle xavcs
ist, um die Grundlage für für die Erstellung von weiteren Distributionsformaten zu schaffen?
Bisher habe ich lagarith verwendet.

Space


Antwort von WoWu:

@dienstag
Einzelbild bezieht sich ja nur auf das Frameformat, hat aber nichts mit den darunter liegenden Verarbeitungsschicht zu tun.
Es ist eine Frage der Transformationsverluste.
Wenn Du in H.264 Makroblockgrössen von 4x4 hast und im Zielkodec nur noch 16x16 kannst, dann verändert sich die Auflösung des Codecs, also die Perfprmanz. (nicht zu verwechseln mit der spatialen Bildauflösung).

Hier geht es ja um Transcodierung, also um die Differenzen und die Fehler, die bei der Überführung eines Codecs in einen andern entstehen.
Das muss nicht immer auf den Codec zutreffen, wenn er als Sourcecodec benutzt wird und viele Codecs warten mit unterschiedlichen Vorteilen auf.
Nur bezieht sich das meistens darauf, dass solche Codecs auch ganz vorne benutzt werden denn meistens relativieren sich solche Vorteile, wenn bereits ein anderer Codec vorgelagert wurde.
Man muss also immer beide Codecs im Verhältnis zueinander sehen, um die Auswirkung der Kombination abschätzen zu können.

@Jörg
Das bezieht sich auch auf den von Dir angewandten Codec.
Der Codec allein erfüllt bestimmte Parameter.
In Verbindung mit einem andern Vorcodec können aber völlig andere Ergebnisse dabei herauskommen.

Daher auch immer wieder der Hinweis, wenn möglich im Originalcodec bis zum Endprodukt zu bleiben.
Ob nun Fehler -mehr oder weniger- sichtbar sind, stellt sich sowieso erst auf dem TV des Zuschauers heraus und nur selten auf dem Monitor des NLEs, nur können wir solchen Fehlern nur dadurch entgegenwirken, dass wir alles vermeiden, was und zusätzliche Mängel in der Kette generiert.
Und ein Mangel ... das steht glaube ich außer Frage und das wird wohl auch hier als Konsenz gehandelt, ist, dass Transkodierungen mit absoluter Sicherheit mit Nachteilen behaftet sind und wenn es irgendwie zu vermeiden ist, auch vermieden werden sollte.
Und wenn die Rechnerkapazität nicht wirklich ausreicht, man wenigstens einen Intermeditat Codec nutzt, der in der Entwicklung auf dem Stand ist, den der Akquisitionscodec hat.
Also irgend ein AVC -I Frame only. Damit ist man (heutzutage) immer am dichtesten am Original. Kommt nun drauf an, welcher Codec im NLE implementiert ist, also arbeitsfähig und nicht nur im Player zum Import.

Space



Space


Antwort von TomStg:

... und das wird wohl auch hier als Konsenz gehandelt, ist, dass Transkodierungen mit absoluter Sicherheit mit Nachteilen behaftet sind und wenn es irgendwie zu vermeiden ist, auch vermieden werden sollte.
Und wenn die Rechnerkapazität nicht wirklich ausreicht, man wenigstens einen Intermeditat Codec nutzt, der in der Entwicklung auf dem Stand ist, den der Akquisitionscodec hat. Es ist zu hoffen, dass diese klare Ansage dazu führt, dass der hier so sehr verbreitete Transkodierungswahn zumindest etwas gebremst wird. Denn manchmal bekommt man hier den Eindruck, dass irgendeine Transkodierung einfach zum guten Ton gehört und ohne eine solche gar nicht gearbeitet werden könnte. 4K in Raw oder Mega-Motion-Design klappt eben nicht mit einem Billig-Rechner. Das ist zwar völlig trivial, scheint aber trotzdem der Phantasie keine Grenzen zu setzen, so dass selbst bei einfachsten Full-HD-Projekten wahre Klimmzüge für Transkodierungen gemacht werden.

Space


Antwort von Goldwingfahrer:

Denn manchmal bekommt man hier den Eindruck, dass irgendeine Transkodierung einfach zum guten Ton gehört da bist Du aber fast der Einzige der das so sieht.
Die Meisten sehen das als Alternative wenns denn mal sein muss.

Space


Antwort von dienstag_01:

@WoWu
Klar, Transformationsverluste gibt es immer, muss es geben.
Wenn ich aber einen Intermediate verwende, dann mach ich das hauptsächlich aus Performancegründen. Und das bedeutet Vereinfachung, immer, denn sonst würde sich nicht die Performance verbessern.
Und da bin ich der Meinung, dass bei der Überführung komplexer Algorithmen in einfache die Qualität durch höhere Datenrate beibehalten wird.

Aber man hat ja immer mehrere Möglichkeiten ;)
Da wäre als nächstes zu klären, ob ein AVC-Intra, den ich ja auch verwenden kann (und der schon mal Performance-Gewinn gegenüber einem GOP-basiertem Codec bringt) genauso stabil über mehrere Generationen hinweg ist, wie z.B. DNxHD. Dass GOP-basierte Codecs das nicht sind, ist ja Konsens, oder.

Space


Antwort von WoWu:

... und das wird wohl auch hier als Konsenz gehandelt, ist, dass Transkodierungen mit absoluter Sicherheit mit Nachteilen behaftet sind und wenn es irgendwie zu vermeiden ist, auch vermieden werden sollte.
Und wenn die Rechnerkapazität nicht wirklich ausreicht, man wenigstens einen Intermeditat Codec nutzt, der in der Entwicklung auf dem Stand ist, den der Akquisitionscodec hat. Es ist zu hoffen, dass diese klare Ansage dazu führt, dass der hier so sehr verbreitete Transkodierungswahn zumindest etwas gebremst wird. Denn manchmal bekommt man hier den Eindruck, dass irgendeine Transkodierung einfach zum guten Ton gehört und ohne eine solche gar nicht gearbeitet werden könnte. 4K in Raw oder Mega-Motion-Design klappt eben nicht mit einem Billig-Rechner. Das ist zwar völlig trivial, scheint aber trotzdem der Phantasie keine Grenzen zu setzen, so dass selbst bei einfachsten Full-HD-Projekten wahre Klimmzüge für Transkodierungen gemacht werden. Das scheint mir auch manchmal so. Da bist Du in der Annahme nicht ganz so allein.

Space


Antwort von WoWu:

@WoWu
Klar, Transformationsverluste gibt es immer, muss es geben.
Wenn ich aber einen Intermediate verwende, dann mach ich das hauptsächlich aus Performancegründen. Und das bedeutet Vereinfachung, immer, denn sonst würde sich nicht die Performance verbessern.
Und da bin ich der Meinung, dass bei der Überführung komplexer Algorithmen in einfache die Qualität durch höhere Datenrate beibehalten wird.

Aber man hat ja immer mehrere Möglichkeiten ;)
Da wäre als nächstes zu klären, ob ein AVC-Intra, den ich ja auch verwenden kann (und der schon mal Performance-Gewinn gegenüber einem GOP-basiertem Codec bringt) genauso stabil über mehrere Generationen hinweg ist, wie z.B. DNxHD. Dass GOP-basierte Codecs das nicht sind, ist ja Konsens, oder. Nein, das ist nicht so ganz richtig, denn bei schlichten MPEG2 gab es eigentlich keine Notwendigkeit, weil die Ergebnisse auch eher holzschnittartig waren. Der Leistungsbedarf entstand erst mit ausgefeilteren Algprithmen und anderer Anforderung an die Architektur.
Aber man darf den Cpdec nicht für die Schwäche der Rechner und der Software verantwortlich machen.
Es gibt nun mal die Balance zwischen Echtzeitanforderung und Rechnerleistung und entweder entscheidet man sich für einen guten Codec und muss, wenn man die Echtzeitfähigkeit nutzen möchte, am Rechner drehen, oder man entscheidet sich für einen schwachen Rechner und muss an der Echtzeitfähigkeit drehen ... oder eben, die Ergebnisleistung reduzieren und auf einen schwächeren Codec zurückgreifen.
Jeder nach seiner Wahl und seinen Möglichleiten.
Insofern besteht durchaus keine Notwendigkeit der Transcodierung, da gebe ich Tom völlig Recht.

Und was die Stabilität betrifft, solange Du nicht 50 oder mehr Kopien machst, halten GOP basierte Codecs durchaus mit und ob das nun 2 oder 3 dB weniger Störabstand sind, .... da mag man nun streiten, ob man das sieht.

Space


Antwort von dienstag_01:

Nein, das ist nicht so ganz richtig, denn bei schlichten MPEG2 gab es eigentlich keine Notwendigkeit, weil die Ergebnisse auch eher holzschnittartig waren. Der Leistungsbedarf entstand erst mit ausgefeilteren Algprithmen und anderer Anforderung an die Architektur.
Aber man darf den Cpdec nicht für die Schwäche der Rechner und der Software verantwortlich machen.
Es gibt nun mal die Balance zwischen Echtzeitanforderung und Rechnerleistung und entweder entscheidet man sich für einen guten Codec und muss, wenn man die Echtzeitfähigkeit nutzen möchte, am Rechner drehen, oder man entscheidet sich für einen schwachen Rechner und muss an der Echtzeitfähigkeit drehen ... oder eben, die Ergebnisleistung reduzieren und auf einen schwächeren Codec zurückgreifen.
Jeder nach seiner Wahl und seinen Möglichleiten.
Insofern besteht durchaus keine Notwendigkeit der Transcodierung, da gebe ich Tom völlig Recht. Ja, mach dirs mal schön einfach ;)
Avid z.B. bietet mir nur die Möglichkeit, zur Weiterverarbeitung (Encoding) über DNxHD rauszugehen (Ich kann noch Quicktime h264 mit Keyframe jedes Bild wählen, damit hab ich aber noch keine Erfahrung - und neuerdings geht auch DNxHR, fehlt mir ebenfalls die Erfahrung). Ich MUSS also in DNxHD wandeln - wenn ich nicht direkt zum TV will (da geht auch anderes).
Hat also nichts mit dieser simplen Gleichung Performance vs Qualität zu tun.
Der Beitrag hat auch sonst eher alle Fragen offen gelassen ;)

Space


Antwort von srone:

imho wäre es wohl sinnvoller den intermediate durch einen proxy zu ersetzen und final das original auszuspielen.

btw. ich schliesse mich der meinung von tomstg und wowu an, daß wird hier nicht immer gänzlich verstanden.

lg

srone

Space


Antwort von dienstag_01:

ich schliesse mich der meinung von tomstg und wowu an, daß wird hier nicht immer gänzlich verstanden. Also VERSTEHEN tut man das schon, dass du derselben Meinung bist. Nur interessiert das hier nicht, es geht nämlich nicht um Meinungen, hier wird nicht abgestimmt. Wenn du es mit Fakten versuchen würdest... ;)

Space


Antwort von srone:

wenn die fakten, der nicht zitierte teil meines posts, derart übergangen werden, frage ich mich was du eigentlich willst, ausser trollen?

lg

srone

Space



Space


Antwort von dienstag_01:

wenn die fakten, der nicht zitierte teil meines posts, Der Teil ist nicht zitierFÄHIG, oder hast du jetzt Ahnung von Avid ;)
(und komm jetzt nicht mit Resolve)

Hier gings ja eigentlich um Fakten zur Umwandlung und nicht darum, welcher Workflow besser oder schlechter ist. Aber klar, für Leute die dazu nichts zu sagen haben, aber trotzdem ihren Quark dazu geben möchten, bitte weiter ;)

Ansonsten würde mich weiter interessieren, wieso eine Dekodierung bist zu Einzelbild bei der Anzeige fehlerfreier sein soll, als eine Dekodierung bis zum Einzelbild zur Umwandlung mit nachfolgender Neukodierung in einen anderen Codec.

Space


Antwort von WoWu:

Weil das Bild bei der zweiten Codierung mit einem weniger präzisen Codec geschieht und damit eine schlechtere Qualität aufweist als das Bild mit der Ursprungscodierung.

Space


Antwort von srone:

Weil das Bild bei der zweiten Codierung mit einem weniger präzisen Codec geschieht und damit eine schlechtere Qualität aufweist als das Bild mit der Ursprungscodierung. damit ist wohl alles gesagt.

lg

srone

Space


Antwort von dienstag_01:

Weil das Bild bei der zweiten Codierung mit einem weniger präzisen Codec geschieht und damit eine schlechtere Qualität aufweist als das Bild mit der Ursprungscodierung. Wenn du sagst, dass der Codec weniger präzise als h264 ist, ist das ja eine generelle Aussage über den Codec. Gilt allgemein. Auch für Kameras, die mit diesem Codec aufzeichnen. Wie z.B. eine Alexa.
???

Dann geht es letztlich gar nicht um die Umkodierung, sondern um den Codec an sich, der nicht gut ist?

Space


Antwort von Frank Glencairn:

Ein Intermediate Codec ist IMHO immer unkomprimiert (oder wenigstens lossless), alles andere ist ein fauler Kompromiss mit Verschlimmbesserung.

Das nächst beste ist Cineform. Log GOP geht eigentlich gar nicht bei der Aufzeichnung und als Intermediate.

Space


Antwort von dienstag_01:

Wir reden hier speziell von DNxHD.

Space


Antwort von Goldwingfahrer:

Ein Intermediate Codec ist IMHO immer unkomprimiert der Canopus HQ zum Bsp.kann die Komprimierung steuern,maximal ist 2:1.
Lossless wäre der Canopus lossless.
Wir reden hier speziell von DNxHD. aber erst in den letzten paar Beiträgen.
Ich habe mich noch gar nicht grossartig mit dem befasst.

Space


Antwort von Jott:

Gibt's ja auch erst seit 11 Jahren ...

"Das Institut für Rundfunktechnik (IRT) hat den DNxHD-Codec neben weiteren Codecs (AVC-Intra, Apple ProRes, HDCAM SR) für den Einsatz bei hochauflösenden Premium-Produktionen von ARD, ZDF, ORF und SRG zugelassen und bescheinigt ihm selbst bei niederen Datenraten ein gutes Multigenerationsverhalten."

Da sind ja alle minderwertigen Codecs versammelt bei den Premium-Produktionen! :-)

Space


Antwort von Jörg:

dienstag schreibt
oder hast du jetzt Ahnung von Avid ;) seitwann muss man denn Ahnung von Programmen haben, um hier Unsinn zu schreiben???
Das beweist du doch mit tausenden Beiträgen zu Premiere, von dem du ja auch null Ahnung hast ;-((

srone schreibt
damit ist wohl alles gesagt. für die meisten schon, aber dann kommen die Wochentage.

Space



Space


Antwort von dienstag_01:

@Goldwingfahrer
DNxHD soll hier für eine bestimmte Art der Intermediate Codecs stehen. ProRes ist m.W. ja ähnlich, Canopus kenne ich nicht.

WoWu ist in seiner Aussage/Ablehnung je generell gegen diese Art von Codecs, man muss das mit der Beschränkung auf DNxHD nicht so auf die Goldwaage legen. Es geht aber definitiv nicht um Lossless Codecs.

Space


Antwort von WoWu:

Doch, es geht zunächst einmal NUR (generell) um Codecs, denn, egal ob MPEG 2 oder irgendein MPEG4, findet zunächst einmal (um bei den hier verwendeten Beispielen zu bleiben), die Überführung in Makroblöcke statt.
Dabei ist es eben auch egal, ob es sich bei dem nachgelagerten Übertragungsverfahren, um ein I-Frame Format handelt, oder ob nur der Fehler zwischen den Bildern übertragen wird. In einem I-Frame Verfahren, steckt der Fehler dann eben in jedem Bild und die Datenmenge wird allgemein größer, in einem GOP Verfahren werden dann eben nur die Fehler (in kleiner Datenmenge) übertragen, und das restliche, unveränderte Bild wird dann aus dem Speicher genommen und mit dem Fehlersignal zu einem Gesamtbild verrechnet.
Es ist also mehr Rechenaufwand erforderlich.
Wer also GOP (geht gar nicht) mit Bildqualität verwechselt, hat die Funktion noch nicht begriffen.
Die Qualität hängt nämlich davon ab, welche Tools ich verwende. Und wenn meine Akquisitionstools eine bestimmte Güte (in verschiedenen Hinsichten) haben, und meine Intermeditae Tools dahinter zurück bleiben, ist mein Bild nach der Transkodierung nur noch so gut, wie das schlechteste Tool in der Kette und wenn ich meine Bewegungen in der Alquisition sehr präzise auflöse, und im Folgecodec nur noch mit weniger Präzision, dann ist mein Bild nur noch so gut. wie die neue Codierung es zulässt, anzüglich evtl bereits verminderter Qualitätsdifferenzen aus der Ursprungskodierung.
Diese Differenzen fallen weg, wenn ich gleich den Intermediate Codec als Akquisitionscodec verwende, aber auch die Vorteile besserer Tools. Dann hat man gleich die schlechtere Encodingqualität, aber immernoch besser als die, nach einer Transcodierung.
Man muss mal aufhören, nur mit Schlagworten (GOP, Lossöess, usw.) zu argumentieren, weil sie wenig mit dem hier eigentlich Diskutiertem zu tun haben, zumal solche Bezeichnungen wie Lossless viel zu relativ sind ... denn deren Definition ist viel zu wenig definiert.
In diesem Thread geht es ja darum, ob eine Transcodierung mit Nachteilen behaftet ist ... oder nicht und da spielen ausschließlich die verwendeten Codier und Reduktionsverfahren eine Rolle und welche Bildanteiöe bei welchem Verfahren verloren gehen, bzw. bereitsverloren sind denn auch ein Lossless Codec ist nur dann Lossless, wenn er auf ein analoges Bild zugreifen kann und der Verlust nicht schon im Vorcodec entstanden ist.
Dann ist auch Lossless ziemlich unnütz.

Space


Antwort von maxx miliano:

Servus WoWu!
Wenn wir also in der jeweiligen Kette, die Rechenleistung und die
sagen wir Kompressionsgrösse, stärke senken ( schnelle Chips, Software,
ssd, Speicher kosten nun auch nur noch einen Sch()..) dann würden wir da
ja schön am Rad drehen. Bevor aber die Hersteller das tun ( oder abhängig von Preisgruppen und Einsatzderivaten) wird auf des schöne Maultier 8k ge
setzt, also wäre der Zugewinn an all dem neuen schnellen ( in der Holzklasse, 2.te Klasse mal also wir oft, im realen Investleben) Dingen, wieder nur da stehen bleiben müssen, wo wir eh schon waren.
Außerdem, stell Dir vor, da ist einer der ist zu gut!
Wie kann der nur, und was hätte es für Marktauswirkungen?
Wobei, so tranquil sie sind, des Smartphone schleicht sich dem Körper ( des jeweiligen Vorstandes/Techdepartements) hoch.. und jetz lötens und forschens halt mit Wasser bis zur Arschkante.. Noch brennen die Kessel, noch spielt die Band..noch.
Noch leistet sich Sony zb drei unabhängige Departements.. was ja toll aber auch wahnsinnig ist, Der Mann mit den drei Füßen halt... :)

Space


Antwort von Jott:

Der arme Threadstarter.

Fassen wir mal zusammen: Editing via Intermediate Codec ist überall üblich, vom simplen Webfilmchen bis hin zu Hochglanzwerbung und Hollywood. Die meisten üblichen verdächtigen NLEs haben dazu eine bewährte Bordlösung:

AVID - DNxHD
Edius - Canopus
fcp - ProRes

Nur Adobe hat nichts Eigenes, da muss man selber schauen, wo man bleibt.

ProRes dürfte mit Abstand am verbreitetsten sein, ist längst aus fcp herausgewachsen und wird inzwischen auch von allen professionellen Kameraherstellern als Akquisitionscodec angeboten. Gefolgt von DNxHD, das sich ebenfalls in diversen Kameras findet.

Es ist auch Konsens, dass es sehr viel Sinn macht, wackelige Long GoP-Kameracodecs wie AVCHD zu ProRes und Konsorten zu überführen, bevor man mit der heute wohl unerlässlichen Effekt- und Gradingorgie loslegt.

Außerdem verschwimmen die Bezeichnungen: ProRes und DNxHD sind inzwischen gar keine Intermediates mehr, sondern auch als Mastercodecs üblich. adstream zum Beispiel, europaweit führendes Upload-Portal für TV-Content, verlangt vorzugsweise ProRes.

Nun gibt es da den wowu, der seit vielen Jahren unermüdlich mit den immer gleichen Sätzen gegen ProRes kämpft (gegen das exakt gleich angelegte DNxHD von AVID komischerweise nicht, ein Versäumnis). Früher waren es die angeblich weichen Bilder wegen Wavelet, die ihn virtuell aufgeregt hatten, dann hat er den Irrtum irgendwann bemerkt und wettert jetzt wegen angeblich riesiger Makroblöcke wie bei MPEG 2. Beides konnte er natürlich nie zeigen, auch andere sehen so was nicht - dabei müssten die bösen Artefakte doch überall, auch in TV und Kino, ständig präsent sein, allein schon wegen der Alexa.

Egal. wowu plädiert vehement für irgend einen Intracodec auf AVC-Basis statt ProRes oder DNxHD, wenn der Kameracodec H.264-basiert war.

Wer schneidet mit AVC Intra oder XAVC Intra als Intermediate Codec? Hand hoch und berichten!

Space


Antwort von dienstag_01:

Ich, AVC Intra, kommt so aus der Kamera. Damit komme ich aber nicht so ohne weiteres aus dem Avid.

Space


Antwort von Jott:

Wo ist eigentlich die von Panasonic schon lange angekündigte neue AVC Ultra-Codecfamilie abgeblieben? In der Panasonic seinen alten AVC Intra 100 nur noch im unteren Mittelfeld sieht.

Space


Antwort von TomStg:

Fassen wir mal zusammen: Editing via Intermediate Codec ist überall üblich, vom simplen Webfilmchen bis hin zu Hochglanzwerbung und Hollywood. Die meisten üblichen verdächtigen NLEs haben dazu eine bewährte Bordlösung:

AVID - DNxHD
Edius - Canopus
fcp - ProRes

Nur Adobe hat nichts Eigenes, da muss man selber schauen, wo man bleibt...

Wer schneidet mit AVC Intra oder XAVC Intra als Intermediate Codec? Hand hoch und berichten! Ich bleibe bei Premiere CC2015 einfach dort, wo man sein sollte, um Zeit zu sparen und Fehler zu vermeiden: nativ mit XAVC Intra auf der Timeline - kommt so aus meiner FS7.

Du begibst Dich auf ziemliches Glatteis, indem Du einen Workflow postulierst, bei dem Intermediate Codecs stets üblich und Adobe-Anwender arme Schweine seien. Das mag zutreffen bei nicht-performanter Hard-/Software, aber nicht bei aktueller Ausstattung. Bei mir gehen AVCHD, XAVC Long und besonders XAVC Intra jedenfalls sehr schnell und sehr easy auf der Timeline - ohne irgendein Transcodierungsgefummel.

Mir scheint, dass Deine Ausführungen eher vom Motto "Haben wir schon immer so gemacht." geprägt sind und weniger von der Akzeptanz, dass es heutzutage auch wesentlich besser gehen kann - dh einfacher, sicherer, schneller und ohne zusätzliche Qualitätsverluste.

Space


Antwort von Jott:

Klar, geht auch in fcp ohne Transcodierungsgefummel. Die Zeiten sind vorbei. Wenn's besonders flott gehen soll, ist ProRes aber immer von Vorteil. Kann man nebenher im Hintergrund erstellen lassen (daher auch ohne Zeitverlust) und dann bei Bedarf hin- und herschalten. So merkt man den Unterschied, auch auf aktueller Hardware. Liegt vielleicht daran, dass ProRes als Schnittcodec für Multiprozessor-Verarbeitung optimiert wurde, was bei Kameracodecs nicht der Fall ist, wozu auch. Als ebenfalls FS7-Besitzer lote ich so was gerne aus und lerne daraus - eben ohne Scheuklappen. Macht natürlich auch Spaß, zu provozieren.

Was würdest du dem Threadstarter denn raten, der mit AVCHD in Adobe eben nicht klar kommt? Also von Import bis Export. Den Workflow ändern und vielleicht mal DNxHD probieren? Neuen Rechner kaufen?

Space


Antwort von dienstag_01:

Der TO sucht einen Codec für den Export, da geht es eigentlich nicht um Intermediate. Und seine Aussagen hinsichtlich h264 wurden auch schon relativiert. Zu recht ;)

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Adobe Premiere Pro / Elements / SpeedGrade / Creative Cloud CC-Forum

Antworten zu ähnlichen Fragen //


Touch ID Magic Keyboard - Gibt es eine Alternative?
H.264 codec
Neue LTO-10 Generation mit 30 TB - eine Alternative zum Festplattenarchiv?
Warum wird bei eingestellten H.264 eine AVC Coding Datei exportiert
Ist Canon C200 eine gute Wahl für narratives Filmmalking?
Ist die 1dx iii noch eine gute Videooption?
Sigma FP ist eine sehr gute cinema Kamera
Alternative zum Apple Studio Display
Rode NTH-50 - Alternative zum Sennheiser HD-25?
Stockphoto-Portal Shutterstock integriert KI-Bilder und gibt eine Antwort auf die Gretchenfrage
Gibt es für Actioncams eine Art Anti-Fisheye Linse?
Vidiu Teradek X: Kompakter Streaming H.264-Encoder
HEVC vs. H.264 Dateigröße
H.264 ruckelt bei Wiedergabe
Neue Blackmagic HyperDeck Studio Rekorder nehmen H.264-, ProRes- und DNx auf
Teradek Prism Flex: H.264/H.265-Encoding/Decoding und Streaming in 4K HDR
AJA HELO Plus: Professionelles H.264 Recording und duales Streaming




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash