Logo Logo
/// 

Wozu h.264 in ProRes umwandeln?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Frage von Benny92:


Hallo,
ich habe jetzt bereits des öfteren gelesen dass man vor der Postproduktion h.264 Clips in zB. ProResProRes im Glossar erklärt umcodieren sollte. Wozu ist das gut? Man kann die komprimierten Aufnahmen doch nicht in ihrer Qualität steigern, oder doch?

grüße Benny



Antwort von dienstag_01:

Man kann die komprimierten Aufnahmen doch nicht in ihrer Qualität steigern, oder doch?
Nö, kann man nicht.
Aber manchmal bietet es sich für den Workflow an, auf einen sogenannten Intermediate-Codec zu wechseln (sind z.B. nicht so prozessorintensiv)



Antwort von Benny92:

Danke für die schnelle Antwort :-)

Stimmt es denn auch dass ProResProRes im Glossar erklärt "verlustfreieres" bearbeiten ermöglicht?

Wie codiert man am besten um? Einfach nativ in zB. FCPX importieren und dann in ProResProRes im Glossar erklärt exportieren?








Antwort von dienstag_01:

Stimmt es denn auch dass ProResProRes im Glossar erklärt "verlustfreieres" bearbeiten ermöglicht?
Nein.
Wie codiert man am besten um? Einfach nativ in zB. FCPX importieren und dann in ProResProRes im Glossar erklärt exportieren?
Würde ich vermuten, kenne mich aber mit FCPX nicht aus.



Antwort von fmgraphix:

Clips auswählen und unter Abage "Medien umcodiern" in "optimierte Medien"



Antwort von WoWu:

Stimmt es denn auch dass ProResProRes im Glossar erklärt "verlustfreieres" bearbeiten ermöglicht?
Ganz im Gegenteil.
Durch das Transcodieren hast Du die Nachteile BEIDER Verfahren in Deinem Bild und verlierst die Vorteile die H.264 gegenüber H.262, dessen Codierschema ProREs zugrunde liegt, mit sich bringt.
Solche Intermediate CodecsIntermediate Codecs im Glossar erklärt bieten nur Vorteile auf schwachen Rechnersystemen, die es heutzutage aber nicht mehr allzuoft geben dürfte.

Wenn Du also einen halbwegs zeitgemäßen Rechner hast und Dein NLE natives H.264 unterstützt, lass die Finger von Transcodierungen.



Antwort von Benny92:

Damit dürfte sich das Thema für mich erledigt haben. Vielen Dank für die Informationen!



Antwort von blueplanet:

Wenn Du also einen halbwegs zeitgemäßen Rechner hast und Dein NLE natives H.264 unterstützt, lass die Finger von Transcodierungen. Hallo Wolfgang - und was ist beispielsweise mit DNxHD(Codec)+MXF OP1a(Container)?

Hier unterstützt doch Premiere das "intelligente Rendern", was ja soviel bedeutet: alles was keine Veränderungen aufweist, wird nicht "angefasst" - nur die Effekte (z.B. Blenden). Wobei ich festgestellt habe (nur anhand der Rendergeschwindigkeit), dass selbst grading und scalieren "durch zu rutschen" scheinen. Aber das kann natürlich auch am schnellen Rechner ;) liegen bzw. bei diesem CodecCodec im Glossar erklärt wird ja nicht mehr groß "ein- und ausgepackt" - oder?

Was ich eigentlich sagen will ;) - ich habe das Gefühl, dass die Bildqualität (insbesonder das branding in den Himmelsstrukturen bei 8Bit-Material, ganz extrem bei der Gopro 4) in den Generationen mit Verwendung (Reiter Mediaencoder: "Sequenzeinstellung beibehalten") des h.264 wesentlich schneller "kippt" als bei den Generationen von der Kombi DNxHDMXF OP1a. (sch. Schachtelsatz, sorry)

Sehe ;) ich das falsch oder könnte das ein Argument sein, gleich z.B. nach DNxHDMXF OP1a zu transcodieren und erst am Ende wieder einen h.246-File zu erstellen?!

beste Grüße
Jens



Antwort von WoWu:

Moin Jens

Da sitzen jetzt mehrer Fragen verschachtelt ineinander.

Du sprichst "intelligentes Rendering" an. Dabei legt der Rechner -vereinfacht gesprochen- alle Effekte und Bearbeitungen quasi in einer Liste ab und führt das RendernRendern im Glossar erklärt erst auf der Basis des URsprungs,steriles aus, wenn das final Rendering ausgeführt wird.
Dadurch werden Rundungsfehler, die bei Zwischenrendering auftreten und so von Renderprozess zu Renderprozess sich vergrößern, vermieden.

Das Andere ist das "smart Rendering", dabei werden unveränderte Teile des Originalmatrials nur im Multiplex eingefügt.
Das funktioniert ab nur mit Strukturen, die eine gleichmäßige GOP aufweisen, also MPEG2MPEG2 im Glossar erklärt basiertes Material.
In MPEG4 Material gibt es solche konstanten Strukturen genau genommen nicht mehr, weil es die klassische GOP gar nicht mehr gibt und I Frames auch nicht mehr den Stellenwert haben, wie in MPEG2.
Dazu kommt, dass alle Werte, sofern sie nicht verändert wurden, ohnehin in einem Render nicht verändert werden, also Smart Rendering ziemlich überflüssig ist. Das ist eigentlich auch ein Relikt aus der Zeit, als Rechner noch schwach auf der Brust waren und man ständig zwischen gerendertgerendert im Glossar erklärt hat, um Content überhaupt sichtbar zu machen.
Heutzutage können Rechner das 'on fly' wobei jedes Zwischenrendern sowieso überflüssig ist und "intelligentes Rendern" dem Rechnung trägt.

Was das Banding betrifft, bist Du mit 8Bit Material sowieso immer im kritischen Bereich, sobald Du Veränderungen am Material vornimmst denn Banding entsteht, wenn Werte im Postprozessing zusammengefasst oder gespreizt werden.
Bei 8Bit Material sollten die Aufnahmen möglichst so gemacht werden, wie sie hinterher auch ohne viel Bearbeitung aussehen sollten.
Das liegt in der Natur von 8Bit.

Was MXFMXF im Glossar erklärt OP1 angeht ... das ist lediglich ein Container und 1a ist ein "delivery" Container, also das Einfachste, was man sich vorstellen kann und auch eigentlich nur geeignet, um eine Videospur und ein Stereopärchen Audio von A nach B zu übertragen.
Mehr kann der Container nicht.



Antwort von blueplanet:

Da sitzen jetzt mehrer Fragen verschachtelt ineinander. ...habe ich mir doch beinah gedacht, trotzdem danke! :)
Du sprichst "intelligentes Rendering" an. Dabei legt der Rechner -vereinfacht gesprochen- alle Effekte und Bearbeitungen quasi in einer Liste ab und führt das RendernRendern im Glossar erklärt erst auf der Basis des URsprungs,steriles aus, wenn das final Rendering ausgeführt wird.
Dadurch werden Rundungsfehler, die bei Zwischenrendering auftreten und so von Renderprozess zu Renderprozess sich vergrößern, vermieden. ...das klingt doch interessant. Das würde ja bedeuten, dass ich einen zu rendernden File von Premiere unter Verwendung dieses Codecs+dem Einfachcontainer ;) an den Mediaencoder übergebe, um es anschließend erneut als DNxHDMXF OP1a auszugeben, alles beim "alten" bleibt und erst wenn ich final rendernrendern im Glossar erklärt möchte (z.B. in .h264), die eigentliche Kodierung beginnt?! Klingt doch gut?!

D.h. ich könnte (und ich habe das Gefühl, ich kann ;) x-beliebige Zwischenergebnisse produzieren ohne das eigentliche Material anzufassen? Ergo, habe ich keine Transcodierverluste (bis zum Ende der Schnittorgie). Also eine Art Proxy für den CodecCodec im Glossar erklärt - oder ist es gar richtiges Proxy??

Um es nochmal für mich auf den Punkt zu bringen: dann bleibt ja h.264 im Grunde IMMER h.264. Das beschäftigt mich sehr, denn es würde sich mit meinen Erfahrungen decken.

Bis jetzt habe ich auf den cineform-Codec für "Zwischenlösungen" geschworen. Aber nachdem ich jetzt viel Gopro-Material verarbeiten musste, war bereits nach der 2. Render-Generation unter dem cineform in den Flächen (Himmel) eine deutliche Verschlechterung in Form von Artefakten zu sehen. Mache ich das in "neuer" besagter Variante, kann ich das nicht feststellen.

Nun könnte es generell an Unterschieden/Qualitäten von den verwendeten Codecs liegen (wobei der cineform, nicht der ist, den es frei zu downloaden gibt - also auf einem echten broadcast-Industriestandart beruht) und der DNxHDDNxHD im Glossar erklärt ja auch nicht von schlechten Eltern stammt ;).

Oder - h.264 ist nicht gleich h.264 bzw. machen die Hersteller kameraseitig noch ihre eigenen Parameter "dazu" (fängt ja schon mit der Bit-Rate an). Kommen gewisse "Umstände" dann zusammen - schwupps, ist es Essig mit der heilen h.264-Generations-Welt.

Was das Banding betrifft, bist Du mit 8Bit Material sowieso immer im kritischen Bereich, sobald Du Veränderungen am Material vornimmst denn Banding entsteht, wenn Werte im Postprozessing zusammengefasst oder gespreizt werden.
Bei 8Bit Material sollten die Aufnahmen möglichst so gemacht werden, wie sie hinterher auch ohne viel Bearbeitung aussehen sollten.
Das liegt in der Natur von 8Bit. ..das kann ich inzwischen 100% unterschreiben. Bisher wusste ich nur nicht, woher die Fehler kamen. Habe es auf alles mögliche geschoben, bis slashcam den interessanten und heiß diskutierten Artikel herausgebrachte, der 8Bit und 10Bit an hand von Bildern verglichen hat. Selbst wenn da noch das eine oder andere auslegungswürdig gewesen ist - aber die Grundrichtung stimmte auf jeden fall...



Antwort von WoWu:

Da liegst Du im Augenblick völlig Richtig, zumal bei Cineform noch erschwerend hinzu kommt, dass ein völlig anderes Transformationsverfahren zur Anwendung kommt und in der Kombination aus DCTDCT im Glossar erklärt und DWT nicht nur unterschiedlich ArtefakteArtefakte im Glossar erklärt entstehen sondern auch Bildelemente (speziell in der DWT) immer "weicher" werden, was am Ende einer Bearbeitung dann zu einem ziemlich merkwürdigen Bild führt.
Viele schwören ja auf so einen weichen Charakter und solange man in Wavelet bleibt mag das auch alles noch prima aussehen, aber wenn dann die DCTDCT im Glossar erklärt ArtefakteArtefakte im Glossar erklärt hinzu kommen, also nach MPEGMPEG im Glossar erklärt transcodiert wird, dann ist das, wie Du schon gesagt hast, nicht mehr lustig.
Eine DWT funktioniert wirklich prima, wenn man in hohen Datenraten bleibt, aber wehe, wenn das runter geht.

Und was den H.264 angeht ... Ein CodecCodec im Glossar erklärt ist immer nur so gut wie die Implementierung durch den Hersteller. MPEGMPEG im Glossar erklärt gibt ja nur das Schema vor und definiert den Bitstream und stellt so etwas wie einen "Werkzeugkasten" bereit.
Wie solche Werkzeuge allerdings eingesetzt werden, wie die Speicher und Verfahren genutzt werden, entscheidet allein der Hersteller bei der Implementierung.
Also, nicht jede H.264 Implementierung ist gleich gut.
Ist sie gut gemacht, ist das Ergebnis deutlich besser, als alles, was wir zuvor an Codecs gehabt haben, was z.B. bei HEVC noch lange nicht so weit ist.

Und was man bei der ganzen Transcodierung, auch hin zu I-Frame Intermediates nicht vergessen darf .... Die sind nur gut, solange man nicht von oder nach GoP orientierten Varianten transcodiert, denn auch I-Frame Codecs sind (wenn auch leicht) komprimiert, aber mit dem Schwerpunkt auf statischen Bildelementen, wohingegen GoPs ihren Schwerpunkt auf dynamischen Elementen haben.
Mischt man sie, hat man beide Elemente verschlechtert
Bleibt man innerhalb eines Schemas, begrenzt sich die Degenerieren des Bildes.
Man darf also auf sowas wie "lossless" nicht reinfallen ... das gilt nur, wenn kein anderer CodecCodec im Glossar erklärt oder anderes Codierschema im Spiel ist.



Antwort von dienstag_01:

Ich will euch ja in eurer Lila-Wunderwelt nicht stören, aber bei Adobe ist intelligentes RendernRendern im Glossar erklärt genau Smart Rendern.

Material mehrmals zu RendernRendern im Glossar erklärt und zu glauben, dass diese Rendergenerationen keine Rolle im Ergebnis spielen, ist schon fast maßlos mutig ;)








Antwort von WoWu:

Smart RendernRendern im Glossar erklärt beruht immer auf einer festen GOP Struktur, die es in H.264 gar nicht mehr gibt.
Ansonsten erklär mal, wie beispielsweise ein H.264 Slice ohne das Restbild in einen Multiplex "smart" übernommen den kann.
Außerdem ist in H.264 Eine vorwärts Prädiktion möglich.
Was macht ein Smart Renderereignissen da?
Fängt er an zu raten ?

Und was die Bilddegeneration angeht, hängt das immer von den Fehlern ab, die zwischen den Renderereignissen entstehen.
Deshalb hat H.264 ja auch eine ICT bekommen, die ohne Rundungsfehler und nur noch mit Additionen und Shifts arbeitet.



Antwort von dienstag_01:

Aber bemerkst du nicht, dass Blueplanet merkwürdigste Schlüsse aus deinen Posts zieht. Der scheint zu glauben, bei intelligentem RendernRendern im Glossar erklärt kann er machen was er will ;)
Gibts aber so gar nicht z.B. bei Adobe ;)



Antwort von WoWu:

Ich habe daraus nur gelesen, dass er erkannt hat, woher die Fehler kommen und keineswegs, dass er machen kann, was er will.
Und wenn er "intelligentes Rendern" nutzt, dann ist das mehr als vernünftig und wird ihm das Bild deutlich weniger "anfassen".
Wir haben das vor 10 Jahren im Quantel schon benutzt. Nur hatte es da keinen so werbewirksamen Namen sondern Du musstest Zwischenrenderprozesse extra einleiten, was auf's Selbe hinausläuft.
Und es ist eben ein Unterschied, ob ein NLE auf neu hergestellte Inserts zugreift oder nur auf die Filter und Intents.



Antwort von dienstag_01:

Weil dein Quantel das schon vor 10 Jahren konnte, kannst du doch nicht ernsthaft annehmen, dass das jetzt in jedem NLE so ist.
Und das intelligentes RendernRendern im Glossar erklärt in Premiere was anderes bedeutet, sollte auch langsam angekommen sein.



Antwort von WoWu:

Na dann erklär doch mal, wie das in H.264 funktioniert.
Lass uns doch nicht so dumm sterben.
Oben stehen ja 2 konkrete Beispiele.



Antwort von dienstag_01:

Niemand hat hier geschrieben, dass es mit h264 Material funktioniert. Hier steht nur, dass Adobe smart RendernRendern im Glossar erklärt intelligentes RendernRendern im Glossar erklärt nennt. Oder nicht *nennt*, sondern *übersetzt*?! Vielleicht, nur mal so, möglicherweise... ;)



Antwort von Alf_300:

Ich komme mit Smartrendern überrhaupt nicht Klar.

Angezeigt wird dann statt dem I-Frame ein IDR-Frame und mein Blu Ray Authoring Programm kann damit nichts anfangen



Antwort von blueplanet:

...boaah Jungs, ich will nicht machen, was ich will - ich möchte es richtig machen und es wäre toll, wenn ich dafür eine begreifbare Erklärung bekomme.

Meine Versuche und Ergebnisse habe ich ja bereits geschildert und was Wolfgang dazu informiert, ist für mich im Ansatz nachvollziehbar. Dabei ist mir völlig klar, dass ich selbst beim "intelligentesten Rendern" (wie ich es nach Wolfgangs Ausführung entnehme) nicht unendliche Möglichkeiten haben werde. Nur scheint es trotzdem mehr Reserven zu beinhalten, als wenn ich mich in einem komplett anderen CodecCodec im Glossar erklärt (cineform) und nicht dem intelligent-gerenderten kameraseitigen h.264 bewege.

Um es zusammen zu fassen:
-ist smart rendering nun die engl. Übersetzung für intelligentes Rendern?
-wenn ja, dann funktioniert es doch in meinen Beispielen prima
-wenn nein, wann rendere ich "smart" und an welcher Stelle "intelligent"?
-ist die Option im Mediaencoder "entspricht Sequenzeinstellung" smart-rendering oder ist das intelligentes RendernRendern im Glossar erklärt incognito oder nehme ich doch lieber 100 Gramm Leberwurst ;))?

be cool und beste Grüße
Jens



Antwort von Alf_300:

Smart gerendertgerendert im Glossar erklärt wird eigentlich nur vom Schnittpunkt bis zum ersten I-Frame, von da an wird kopiert ;-)








Antwort von dienstag_01:

-ist smart rendering nun die engl. Übersetzung für intelligentes Rendern?
Nein. Intelligentes RendernRendern im Glossar erklärt ist die deutsche Übersetzung von Smart Rendering (bei Adobe).
-wenn ja, dann funktioniert es doch in meinen Beispielen prima

Ist möglich. Aber nicht, wenn eine FarbkorrekturFarbkorrektur im Glossar erklärt auf dem Clip liegt oder irgendeine andere Transformation stattfindet.



Antwort von Jott:

Wie codiert man am besten um? Einfach nativ in zB. FCPX importieren und dann in ProResProRes im Glossar erklärt exportieren? H.264 rein in fcp x und schneiden, dann ausgeben, wozu du Lust hast.

Sollte sich der Rechner langsam anfühlen (was bei aktuellen nicht der Fall ist), dann das Material im Hintergrund zu ProResProRes im Glossar erklärt ("optimierte Medien") wandeln lassen, das beschleunigt je nach Rechner erheblich. Du kannst dann jederzeit misstrauisch hin und herschalten zwischen Original und ProResProRes im Glossar erklärt - und wenn du einen Unterschied findest, darfst du ihn behalten.



Antwort von blueplanet:

Nein. Intelligentes RendernRendern im Glossar erklärt ist die deutsche Übersetzung von Smart Rendering (bei Adobe). hmmm...wenn das so ist, dann wäre es bei mpeg4 -laut Wolfgang- im Prinzip nicht empfehlenswert anwendbar. Also nur bei mpeg2-Projekten.

Wie gesagt - ich kann bei smart Gerendertem mit h.264 über mindestens 2 Generationen hinweg nichts Nachteiliges (augenscheinlich!) erkennen.

Das mit den Farbkorrekturen und Tranformationen erscheint mir schleierhaft. Wenn es deiner Aussage nach neu berechnet werden MUSS, wird es doch komplett gemacht (angefasst) und es wird nicht nur das "Mäntelchen" darüber in die Färberei gegeben. Somit wäre das Smart-Rendern außen vor. Dem wiederum steht die Schnelligkeit des "angeblichen" Neuberechnens bei dieser Methode gegenüber.

Ganz anders, wenn ich h.264-Material mit FarbkorrekturFarbkorrektur im Glossar erklärt und Transformation wieder in h.264 rendernrendern im Glossar erklärt lasse (die Option Smart-Rendern ist erst gar nicht vorhanden). Da liegen zudem zeitlich Welten zwischen - vom beschriebenen Verlusten über Generationen hinweg ganz zu schweigen.



Antwort von dienstag_01:

Bei h264 Material gibt es kein smart Rendering. Aussnahme AVC-Intra.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Einsteigerfragen-Forum

Antworten zu ähnlichen Fragen:
Wozu h.264 in ProRes umwandeln?
BMPCC Prores Codec umwandeln für Vegas
h.264 in DNxHD umwandeln?
RAW, ProRES oder H.264/HEVC - Welcher Codec bei der Aufnahme?
Wozu Kapitelmarken in PP 2020
DVD-Ripp-/ Kopierprogramme? Wozu?
Wozu cassette memory (CM) bei MiniDV ???
5 Minuten ohne Schnitt - wozu denn
Unterschied zwischen ProRes 422 und ProRes 422HQ in der Praxis
Fujifilm GFX-100 wozu Macro Objektive...
Wozu ND Filter, wenn man doch einfach die Blende "dunkler" stelle
Windows ProRes - neuer ProRes Encoder für Windows
h.264 Bitrate
h.264 or mpeg 4 or 263
PP2020 - h.264 Export
Blackmagic H.264 Pro
H.264 für Linux
HEVC vs. H.264 Dateigröße
H.264 TV Aufnahmen eindampfen
H.264 --> als DVD brennen
Hardware-Digitalisierung in MPEG2 / H.264
Umrechnungsfaktor Bitrate MPEG2 -> H.264?
Edius 9.4 keine H.264 400Mbit/s.
Welche sinnvolle H.264 DirectShow-Komponente?
Gammaprobleme beim Codieren mit h.264
H.264 / H265 Codec in Da Vinci Resolve

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom