Frage von div4o:für viele ist sicher das Thema längst gegessen, für Nichtswisser wie ich nach wie vor nicht durchschaubar.
Vor 6 Monate habe ich angefangen mit der 7D zu drehen. Und schon in den ersten Tutorials, die ich damals gegoogelt habe, empfiehlt man das Umwandeln des "bad" Canon Codec.
was ich verstehe:
- ein Codec wie AVID DNxHD sorgt für flotterer Schnitt (benutze PP)
- unter anderem soll in einen 4:2:2 erhalten mit 10bit
was ich nicht verstehe:
- also wenn die Kamera in 4:2:0 mit 8Bit aufnimmt, sind also Bildinformationen verloren gegangen, also wieso bemühe ich mich die wieder einzubauen, wo die nicht da sind
. und macht der Schritt überhaupt einen Sinn, wenn das Zielplattform eher Vimeo und YouTube ist?
Antwort von Axel:
Wenn du es nativ schneiden kannst (Performance des Systems, Unterstützung durch die Software) hat das Umwandeln wenig Sinn.
Das 10-bit ist von Vorteil bei der Ausgabe, wenn du farbkorrigierst (siehe Nachbarthread "Flat Picture Style"), also etwa für einen Master. Auch, wenn du bloß für's Web schneidest, ist das Ergebnis dann besser.
Bist du mit nativem Schnitt und Ausgabe qualitativ voll zufrieden, vergiss das Thema.
Antwort von div4o:
eben nicht, denn ich tue gern Farbbearbeitung usw. aber ich merke, dass die Kunst darin, nicht das aufsetzen eines Plugin und das hin und her verschieben von irgendwelche slider, sondern das ordentliche Ausgangsmaterial und das Wissen über Farbkorrekturen :)
Edit:
okey langsam begreife ich was, es geht also nicht bei der Umwandlung darum, irgendwas hinzuzufügen, sondern darum, mehr "Spielraum" bei der Farbbearbeitung zu haben.
Antwort von Axel:
Edit:
okey langsam begreife ich was, es geht also nicht bei der Umwandlung darum, irgendwas hinzuzufügen, sondern darum, mehr "Spielraum" bei der Farbbearbeitung zu haben.
Die einen sagen nun, warum schon zum Schnitt umwandeln, wenn der nativ flutscht. Reicht ja dann, die finale Berechnung, den Export, in dem Codec zu machen, was man früher "Intermediäre" nannte. Quasi als Ersatz für den verlustfreien Export.
Es gibt aber auch Leute, die mit Intermediäre im alten Sinn bei sehr aufwändiger Postpro (beispielsweise Compositing) noch deutliche Performanzsteigerung wahrnehmen.
Jedem das Seine.
Antwort von div4o:
mir geht es vor allem darum, ob ich durch die Umwandlung ein qualitativ besseres Material habe, welches sich zwangsläufig auf das Endprodukt auswirkt...die meist gelesen Antwort hier lautet: ja
ich wollte erfahren, was der Grund dafür ist :)
Antwort von Axel:
mir geht es vor allem darum, ob ich durch die Umwandlung ein qualitativ besseres Material habe, welches sich zwangsläufig auf das Endprodukt auswirkt...die meist gelesen Antwort hier lautet: ja
ich wollte erfahren, was der Grund dafür ist :)
So gesagt stimmt das nicht. Das qualitativ beste Material ist das Original. Wenn sich alle Berechnungen auf dieses Material beziehen, ist das gut. Nur sollte man den Encoder nicht zwingen, gleichzeitig eine möglichst genaue Berechnung (es geht um größere Genauigkeit als die 256 8-bit-Stufen, die erst
im letzten Schritt abgerundet werden)
und eine platzsparende Kompression durchzuführen.
Das Umwandeln von H.264 in DNxHD ist nicht verlustfrei. Es ist sehr verlustarm, "visuell verlustfrei".
Antwort von Auf Achse:
Nur sollte man den Encoder nicht zwingen, gleichzeitig eine möglichst genaue Berechnung (es geht um größere Genauigkeit als die 256 8-bit-Stufen, die erst
im letzten Schritt abgerundet werden)
und eine platzsparende Kompression durchzuführen.
Servus!
Heißt das im Klartext man soll zuerst ins andere Format mit hoher Bitrate codieren und dann nochmals in die platzsparende Kompression codieren?
In meinem Fall zB. mpeg (HDV) auf H.264 mit hoher Datenrate und dann H.264 mit geringer Datenrate für zB. youTube.
Danke für die Info,
Auf Achse
Antwort von dienstag_01:
Heißt das im Klartext man soll zuerst ins andere Format mit hoher Bitrate codieren und dann nochmals in die platzsparende Kompression codieren?
In meinem Fall zB. mpeg (HDV) auf H.264 mit hoher Datenrate und dann H.264 mit geringer Datenrate für zB. youTube.
Nein.
Jede Wandlung bedeutet letztendlich Qualitätsverlust.
Der Workflow mit den Arbeitscodecs bringt eigentlich nur einen Performancegewinn beim Arbeiten, keinen Qualitätsgewinn.
Und einen Umweg gehen über einen h264 Codec ist letztendlich kontraproduktiv.
Antwort von B.DeKid:
Das heisst ...
entweder man wandelt einmal und arbeitet dann bis zum Schluss mit ProRes / DNxHD / Cineform ....
oder aber man lässt es sein und arbeitet halt nur mit dem H.264
Rendern muss man am Schluss eh alles.
............
Ich plediere fuer das einmalige umwandeln.
MfG
B.DeKid
Antwort von Auf Achse:
Ich glaub ihr habt mich falsch verstanden ... schneiden natürlich immer im Originalformat (HDV) und neben einem Master (HDV) soll auch eine komprimierte Version (H.264) für zB youTube entstehen.
Soll die komprimierte Version in EINEM Durchgang gewandelt UND komprimiert oder zuerst in hoher Qualität gewandelt und in einem zweiten Durchgang komprimiert werden.
Grüße,
Auf Achse
Antwort von dustdancer:
besonders wenn man eine farbkorrektur durchführt, lohnt sich das umwandeln in dnxhd oder proress. ansonsten kann es schnell passieren, das die farben irgendwann ausbrechen:
hier mal ein beispiel mit dem, was ich meine:
leider offline
ist keine saubere farbkorrektur, sondern einfach die farben ein wenig auf die spitze getrieben. wie man sieht, bilden die gelb/orangewerte beim h264 viel mehr artefakte als beim avidcodec. auf beide wurden die selben effekte angewendet.
Antwort von div4o:
@dustdancer danke für die vergleichsvideos :)
Antwort von dienstag_01:
@dustdancer
Mit welchem NLE sind die Videos produziert?
Ich denke, da könnte es auch unterschiede geben.
Antwort von B.DeKid:
Der NLE ist da fast egal ... wie ich heute schon mal zum Thema auf DSLR Forum schrieb
Vergleicht das nen bissel wie
RAW vs JPEG
...................
DNxHD (&Co) sind das RAW
H.264 quasi das jpeg
...................
MfG
B.DeKid
Antwort von dienstag_01:
Der NLE ist da fast egal
Gibt es da keine Unterschiede, wie genau die intern rechnen?
Antwort von Axel:
Die Berechnung von sehr drastischen Änderungen sollte immer in sehr guter Qualität durchgeführt werden. Eine Überblendung, ein paar Splitscreens, Titel oder Geschwindigkeitsänderungen gehören nicht dazu. In der H.264-Datei ist jede Pixelposition und -Farbe exakt beschrieben.
Alles, was Farbe oder Helligkeit verändert, wird von gescheiter Software in höherer Farbtiefe berechnet. Die Ausgabe in DNxHD wäre dann sinnvoll. Für den Distributionscodec kann man dann wieder H.264 und sogar in extrem kleiner Datenrate nehmen. Der DNxHD-Master ist jetzt für den Encoder wie eine frische Aufnahme, und bis eine wirklich zu kleine Datenrate Artefakte zeigt, dauert lange.
Antwort von B.DeKid:
Der NLE ist da fast egal
Gibt es da keine Unterschiede, wie genau die intern rechnen?
Klar gibt es da gewisse Unterschiede - allein schon bzgl der Boardmittel. Aber ich denke es geht hier doch nun erstmal um das Thema " Wandeln Ja oder NEIN"
Jetzt noch auf die eigenArten eines NLE einzugehen verwässert doch die Grundsatz Diskussion.
.........................
Es gibt eh nur ne Handvoll NLE die mit den Codecs ( DNxHD / ProRes/ Cineform) klar kommen.
************************************************************
@ Axel
Genau! Ob man später aus der Version nen Kino Print oder MäuseKino (Trailer) für das Handy errechnen lässt - is doch egal. ( Und steht auf nem andern Blatt ,welches sich RENDERN nennt!)
Man hat zwar nur 4:2:0 8Bit als Orginal vorliegen , da kitzelt man mit nem Codec der 4:2:2 10 Bit rausrechnet zwar nichts mehr an Details raus ( sieht man zB an GreenscreenAufnahmen 4:2:0 vs: 4:2:2 in Kombie mit nicht fein ausgeläuchteter Wand ) ....
Aber auch dies sprengt nun den Rahmen.
Was man aber sagen kann - das gewandeltete Material lässt sich krasser "verschlimmbessern"!
H.264 neigt da eher zu Fehlern - wobei man bis man an diese Grenzen stösst , schon mehr macht als nen " UrlaubsVideo" mit nem 0815 Look .
..................................
MfG
B.DeKid
Ps: Ach ja und Effekte macht man am besten mit Tif Sequenzen - wenn wir schon ins OT abrutschen wollen ;-)
Antwort von dustdancer:
ist aus ae rausgerendert. war eine simple cc bei der die gelb / orangewerte geboostet wurden.
dnxhd = 185 10-bit
Antwort von dienstag_01:
Ps: Ach ja und Effekte macht man am besten mit Tif Sequenzen - wenn wir schon ins OT abrutschen wollen ;-)
WENN man dazu eine andere Anwendung benötigt, also bspw. von Avid nach AE portieren muss.
Antwort von B.DeKid:
Ps: Ach ja und Effekte macht man am besten mit Tif Sequenzen - wenn wir schon ins OT abrutschen wollen ;-)
WENN man dazu eine andere Anwendung benötigt, also bspw. von Avid nach AE portieren muss.
Nee , eher wenn man aufwendige Partikel 3D FX einbinden will ;-))
* Aber klar kann schon sein wenn AVID nicht so an AE weiter reichen kann - dann halt Tif - das immer gut;-)*
MfG
B.DeKid
Antwort von soan:
Wenn man glaubt (und weitererzählt) das das Wandeln eines 8Bit 4:2:0 Clips in einen 4:2:2 10Bit -Codec eine bessere Bearbeitungsgrundlage für eine Farbkorrektur bietet, der glaubt auch an ARAL Ultimate Sprit oder hat Aktien von irgendwelchen Festplattenherstellern im Tresor.
Es ist einfach ausgemachter Unsinn. Ich bin gerne bereit mir den "Vorteil" von 4:2:2 10 Bit Clips hier belegen zu lassen. Also her mit den Screenshots - bis dahin kreide ich diese Aussage als Dummlaberei an ;-)
Antwort von -paleface-:
@Axel
Damals wurde alles umgewandelt weil Premiere und die anderen Schnittprogramme nicht so gut mit dem Original Codec klar gekommen sind.
HEUTE brauch man es NICHT mehr wandeln. Du kannst alles nahtlos schneiden.
Zur Farbkorrektur, da brauchst du auch nicht wandeln.
Sinnvoll es in einer höheren Bitstufe rauszuhauen ist es auch nur WENN...
Du ein 8Bit Video hast aber dort zB. einen 16Bit Farbverlauf drüber haust.
Dann exportierst du dein File einfach etwas hochwertiger.
Wenn dus dann irgendwo hochlädst oder nochmal unkonvertierst DANN wird eh wieder 8Bit genommen.
ABER dein Verlauf war von vornerein etwas feiner und wird so bei der erneuten Umwandlung nicht so belastet als wenn er vorher schon durch 8Bit kriselig wird.
Dein Film selbst, da holst du damit nich wirklich was raus.
Korregiert mich wenn ich falsch liege...
Antwort von Axel:
Das Umwandeln
vor der Bearbeitung ist eine Frage der klassischen Intermediate-Funktion, den Rechner zu entlasten (wo dies noch nötig ist). Ohne Zweifel stößt auch eine Mercury Engine oder eine Beschleunigerkarte bei aufwändiger Postpro (Compositing, evtl. inkl. Keying plus Farbkorrektur) an Grenzen, und der Intermediate-Workflow lässt sich begründen. Richtig: Die 10-bit 422 Kopie wird nicht besser als das Original. Falsch: Die Qualität verschlechtert sich sichtlich.
Der
Direkt-Export nach der o.g. aufwändigen Postpro in H.264, d.h. die Berechnung in diesem Codec, ist völliger Blödsinn. Was jeder weiß und sieht, der es selbst probiert hat.
Antwort von olja:
Was ist eigentlich hier dran ?
When Neo Scene detects 4:2:0 chroma it properly interpolates the source chroma to 4:2:2 for more accurate color processing during editing and effects work.
Hat das jemand mal getestet ?
Antwort von div4o:
die Diskussion lässt hier mit Argumenten anscheinend nicht wirklich lösen. Deswegen meiner Vorschlag:
Ich werde demnächst einen Test mit meinen vorhanden "Fähigkeiten und Kenntnis" durchführen und beide Varianten mit einfachen mitteln ausreizen:
Test Workflow Vorbereitung:
- Videoaufnahme: einer mit Canon 7D: Shutter 1/50, Blende 5,6, ISO 200, Tonwertpriorität an, 1080p, CinceStyle
- Bild: stille Nahaufnahme einer Spielkiste: keine Bewegung, viele Farben
- Weißabgleich mit Graukarte
http://www.amazon.de/Lastolite-Ezybalan ... 91&sr=8-10
- Erzeugen einer Datei mit DNxHD 4:2:2 10Bit
Test Durchführung (arbeite in PP CS5.5)
1. Grastuffen Test:
- Schwarz & Weiß Filter auf beide Clips
- Schnelle Farbkorrektur
- die Spitzen bei 0 und 255 ausreizen, Grauwert bleib bei 1
- mit den gleichen Werten rausrendern in mp4, h2.64, 2-Pass, Zielbitrate: 5 Maxbitrate: 7, Qualität 100
2. Farbreiz Test:
- RGB Kuren
- einzelne Kanäle R,G,B ausreizen
- Datei wie oben rausrendern
Falls Verbesserungsvorschläge zum Test bitte melden, ich werde diesen eher erst nächste Woche realisieren können, oder einer der gelernte Profis übernimmt die Testdurchführung.
Antwort von dustdancer:
@axel:
soll jetzt nicht provozierent sein, da ich meine, das du wahrscheinlich mehr von cc verstehst als ich. aber, wieso sollte man nach diesen ergebnissen nicht vorher umwandeln:
alles clips würden in ae erstellt und sowohl in einer 8-bit. 16-bit und 32-bit
einstellung getestet. mit, soweit ich es beurteilen kann, identischen ergebnissen.
kannst du mir erklären, wieso das wandeln nichts bringen soll? bitte versuche es mit einfachen worten, damit jeder es nachvollziehen kann. möchte gern noch was lernen, wenn möglich.
Antwort von Axel:
Nene, ich hab bestimmt nicht mehr Ahnung. Ich habe früher ohne nachzudenken einfach im normalen Codec, DV und später HDV, ausgegeben. Dabei habe ich allerdings gemerkt, dass früher oder später Schluss mit Lustig ist.
Ich bin durch folgende Dinge belehrt worden: Erstens durch diesen Artikel. Dann las ich etwas später Stu Maschwitz' DV Rebel. Darin sagt er, nach der Komprimierung durch den Aufnahmecodec dürfe der Qualitätsbewusste niemals eine erneute Komprimierung zulassen: NO RECOMPRESSION. Allerdings beschreibt er als Workflow das Arbeiten mit DV in Premiere und das Onlinen (Endausgabe) aus After Effects heraus als Unkomprimiert. Das ist kein Intermediate-Workflow.
In FCP konnte ich H.264 und AVCHD gar nicht nativ bearbeiten und musste es beim Import zu ProRes wandeln. Natürlich gab ich es ebenfalls zunächst als ProRes aus, bevor ich es für DVD oder Web kleinrechnete. Dabei stellte ich fest, dass meine Bilder besser aussahen als die meines Premiere-Kumpels. Ich schob es auf Premiere, aber das war falsch. Ich kann aus Premiere als mp4 oder als ProRes ausgeben, auch wenn ich mit dem Original schneide. Ich glaube, die Ausgabe macht den Unterschied. Ich habe auch AVC-Intra 100 probiert. Auch sehr gut.
After Effects (und Motion und ...) kann mit Interframe-Ausgangsmaterial Keyframes verschlucken. Das ist notorisch und ein Argument für einen Arbeitscodec. Compositing mit H.264? Dann Daumen drücken!
Die Logik ist die, dass eine Kompression im Falle von Mpeg4 sowohl bildintern als auch zeitlich Informationen rundet. Wenn ich ein 720p-Video in 3 Mbit/s berechne, weil ich es so irgendwo hochladen möchte, habe ich - wen wundert's? - alles voller Artefakte. Bei 20 Mbit/s schon kaum noch. Um wieviel besser muss also ein intraframe-10-bit-Codec als Master sein? In diesem Beitrag geht's um eine Abblendung in 720p bei 3 Mbit/s. Möglich dadurch, dass der Master in ProRes war (eine sehr hohe H.264 Datenrate hätte es in dem Fall vermutlich auch noch getan). Es ist einfach bescheuert, stundenlang an der Nachbearbeitung zu sitzen und dann mit einem schlechten Master alles zu verschenken. Im Grunde sollte man alles in Animation oder Tiff-Sequenzen rendern, denn je besser, desto besser.
Antwort von dustdancer:
ach ja, ich hatte mich vorhin auch falsch ausgedrückt:
rausgerendert habe ich immer in den selben codeceinstellungen, lediglich das quellmaterial hatte ich vorher durch den entsprechenden codec ausgetauscht. also im ersten fall mit dem canon h264codec, im zweitenfall mit den cineform gopro und im drittenfall dem avid dnxhd codec.
das mit no recompression machte zu hdv und dv zeiten auch sinn. nur sehe ich bei den canoncodecs durchaus einen sinn entweder wie bd sagte mit tiffs zu arbeiten oder eben den dnxhd zu nehmen. gerade wenn man auch mit sachen wie dynamik link etc arbeitet scheint mir eine reconvertierung durchaus sinn zu machen.
Antwort von dienstag_01:
@dustdancer
Ist dein h264_roh clip direkt aus der Kamera oder schon mal irgendwie geschnitten/gewandelt?
Antwort von dustdancer:
rohclips prem importiert, aneinandergereiht und per dynlink an ae.
Antwort von dienstag_01:
Hätte ich auch selber drauf kommen können, sind ja Schnitte drin.
Hab jedenfalls mit dem Material mal bissel rumgespielt, auf deine Ergebnisse komme ich nicht (Hab aber auch nicht soviel Zeichnung im Material, daher meine Frage nach der Umwandlung). Bei gleichen Effekten sind die Artefakte gleich.
Noch ne Frage: ist das Material vom Mac?
Antwort von dustdancer:
ich hab dich auch falsch verstanden. das "rohmaterial" ist nicht das naive sondern nochmals als h264 ausgegeben. das originale kann ich leider noch nicht rausgeben, sollte nur als anschauung dafür gelten, was ich durchgeführt habe.
Antwort von Axel:
Ein Test zur Interpretation für euch: dustdancers "roh", einmal umgewandelt zu ProRes, in AAEs Color Finesse schrill gegradet und gerendert als H.264 mit 2 mbps Zielrate und 3 mbps Höchstrate.
Zum zweiten das Original importiert, denselben gesicherten Grade angewendet und mit denselben Einstellungen exportiert.
Zuletzt das Original importiert, als "Verlustfrei" (= Animation, 435 mbps, 599 MB Dateigröße!) exportiert und mit x264 zu mp4 gewandelt (trotz gleicher Einstellungen etwas kleiner).
Mein Fazit: Entscheidend ist vielleicht doch, ob das Programm in 32bit rendern kann und wie gut der Encoder ist. Der Workflow scheint *relativ* egal zu sein.
Antwort von dienstag_01:
Hab auch noch mal einen Test gemacht, mit etwas höherer Bitrate (2mbit für 1920 erscheinen mir doch etwas klein, könnte sein, dass der Encoder da soviel komprimiert, dass das Ergebnis da verfälscht wird). Target: 6mbit, höchste: 10mbit.
Im Ergebnis kann ich die Vorteile der Wandlung nicht erkennen.
Edit: Hochladen ging gerade nicht.
Antwort von Axel:
Hab auch noch mal einen Test gemacht, mit etwas höherer Bitrate (2mbit für 1920 erscheinen mir doch etwas klein, könnte sein, dass der Encoder da soviel komprimiert, dass das Ergebnis da verfälscht wird).
Hat zwei Hintergründe: Erstens muss ich unter dem Upload-Limit für Attachments bleiben. Zweitens würden sich Unterschiede ja vor allem bei minimalen Datenraten zeigen, oder?
Im Ergebnis kann ich die Vorteile der Wandlung nicht erkennen.
Scheint so.
Antwort von B.DeKid:
....
Test Workflow Vorbereitung:
- Videoaufnahme: einer mit Canon 7D: Shutter 1/50, Blende 5,6, ISO 200, Tonwertpriorität an, 1080p, CinceStyle
......
Lass Tonwertpriorität besser aus !
MfG
B.DeKid
Antwort von div4o:
Lass Tonwertpriorität besser aus !
MfG
B.DeKid
gibt es eine besondere Grund dafür, es wird doch immer gepriesen, dass man bei Videoaufnahmen mit Canons DSLRs, die eingeschaltet werden soll, weil sie die dunklen Bereichen noch ein Stück anhebt. Oder meist du, das Bild verrauscht so leicht in den dunklen Ecken?
Antwort von B.DeKid:
Also ich hab davon noch nie gehört das man den anlassen sollte . Es gab auch Tests (Foto) die deutlich zeugten bei , es war damals mal so nen Ami Truck mit viel Chrom - das das einfach Murks ist.
Sah gekünstelt aus und liess sich in der Nachbearbeitung nicht mehr weg rechnen.
Ich bin da kein Freund von sollchen Sachen , das kann man wenn man das will alles im Nachhinein erarbeiten - wenns aber einmal drin ist im Bild ist es halt drin.
MfG
B.DeKid
Antwort von div4o:
das mit der Tonwertpriorität habe ich mal irgendwann bei philip bloom mitbekommen, wenn aber dem Blog hier Glauben schenken darf, selbst er macht es mittlerweile aus
http://colorbyjorg.wordpress.com/2011/0 ... and-noise/
also AUS damit
Antwort von div4o:
ich habe mal ein Test zum Tonwertpriorität im zusammenhanf mit native ISO bei Canons Cameras gefunden...echt ich mache das Ding nie wieder an...es ist krass wie das Bild verschlechtert wird
http://www.cinema5d.com/viewtopic.php?f ... hyalinejim