ja - YT bügelt alle Unterschiede glatt. :)Frank Glencairn hat geschrieben: ↑Fr 08 Feb, 2019 12:50 ... und nachdem YT nochmal drüber gewalzt ist ...
Weil der CPU-Codec nicht einfach über die Grafikkarte kodiert wird, sondern dafür der "fest" verdrahtete Encoder von Nvidia in der GPU verwendet wird.... also nicht der selbe Code. Würde der CPU-Code 1:1 auf CUDA umgemünzt, wäre das visuelle Ergebnis am Ende das Selbe wie bei der CPU, nur halt mit der Beschleunigung durch die GPU. Vermutlich wäre da die Performance etwas schlechter und Adobe müsste selbst mehr Arbeit investieren.
Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.MK hat geschrieben: ↑Fr 08 Feb, 2019 13:13Weil der CPU-Codec nicht einfach über die Grafikkarte kodiert wird, sondern dafür der "fest" verdrahtete Encoder von Nvidia in der GPU verwendet wird.... also nicht der selbe Code. Würde der CPU-Code 1:1 auf CUDA umgemünzt, wäre das visuelle Ergebnis am Ende das Selbe wie bei der CPU, nur halt mit der Beschleunigung durch die GPU. Vermutlich wäre da die Performance etwas schlechter und Adobe müsste selbst mehr Arbeit investieren.
Falsch verstanden... Adobe müsste den eigenen CPU-Code auf CUDA portieren um ihn auf der Grafikkarte beschleunigt zu berechnen. Das Ergebnis wäre bei korrekter Portierung 1:1 mit der CPU-Kodierung identisch.dienstag_01 hat geschrieben: ↑Fr 08 Feb, 2019 13:42 Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.
Ja, als feste Encoder/Decodereinheit auf der Karte, aber natürlich könnte auch jeder beliebige Codec von den Softwareherstellern auf CUDA (oder auch Open CL, etc.) portiert werden sofern das geschwindigkeitsmäßig noch Vorteile bringt. Die verbauten Einheiten werden halt als "Schmankerl" mitgenommen weil sowieso vorhanden, für eigene Portierungen scheint der Aufwand zu groß zu sein.Alf_300 hat geschrieben: ↑Fr 08 Feb, 2019 14:43 Bei Mainconcept gibts eine Tabelle, aus der ersichtlich ist,
welche Grafikkarte was unterstützt.
https://developer.nvidia.com/video-enco ... ort-matrix
Kann mit X265 (10 bit Profil - wichtig!) 4K DCI 2.39 aspect ratio auf 7 Mbit ohne sichtbare Artefakte runterrechnen. Graining und low-contrast Texturen bleiben auch zum grossen Teil erhalten. Bei der Bitrate produziert NVENC auch bei H265 nur Brei mit periodischem Flackern (keinerlei B-Frame-Support)Jörg hat geschrieben: ↑Fr 08 Feb, 2019 17:23ich mache jetzt allererste Versuche mit Handbrake per X265 10 Bit H265, (Ausgangsbasis uncompressed aus Resolve),Wenn ich als DNXHR HQX rausgehe und mithilfe von Handbrake per X265 10 Bit H265-Videodateien erstelle, sehen diese bei gleicher Dateigroesse um Welten besser aus.
schon die noch lange nicht aussagekräftigen Ergebnisse sind allerfeinst, selbst mit lächerlich kleinen bitraten.
Die Renderzeit ist allerdings bei den höheren bitraten astronomisch, das wird man feintunen müssen.
20 min FHD benötigen 1:30 h bei Encoder preset slow und Quality 7.
ich denke, du solltest auf eine nVidia umsteigen.Fuer 95 Minuten Film dauert das ganze gut 10 Stunden auf meinem Rechner mit einem Intel 8700K und 32GB RAM.
Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.MK hat geschrieben: ↑Fr 08 Feb, 2019 14:32Falsch verstanden... Adobe müsste den eigenen CPU-Code auf CUDA portieren um ihn auf der Grafikkarte beschleunigt zu berechnen. Das Ergebnis wäre bei korrekter Portierung 1:1 mit der CPU-Kodierung identisch.dienstag_01 hat geschrieben: ↑Fr 08 Feb, 2019 13:42 Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.
Die Frage ist nun ob Adobe den eigenen Code (bzw. eigentlich ist der Encoder sowieso von Mainconcept zugekauft) auf die GPU portiert, aber halt nicht 1:1 identisch, oder bei Grafikkarten mit z.B. fest verdrahtetem NVENC (wobei da noch die Frage ist ob das wirklich reine Hardware ist oder ob Nvidia da per Treiber Code nachrüsten kann), diesen nutzt und somit einen komplett anderen Encoder. Zumindest heißt der entsprechende Menüpunkt GPU-Beschleunigung (CUDA), wobei das nicht nur die GPU-unterstützten Codecs umfasst sondern dann auch Bildtransformationen über die GPU berechnet werden...
Kann sowohl in Resolve als auch in Handbrake NVENC (1080 Ti) auswaehlen.
Im Media Encoder gibt es schon seit Ewigkeiten unter dem Hauptfenster wo die Jobs drin liegen ein Dropdown-Menü mit zwei Einträgen (auf einem System ohne Quicksync aber mit Nvidia-Grafikkarte):dienstag_01 hat geschrieben: ↑Fr 08 Feb, 2019 19:53 Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.
Ja, gibt's, hat aber eben nichts mit dem Encoding zu tun. Damit werden die Cuda-fähigen Effekte berechnet.MK hat geschrieben: ↑Fr 08 Feb, 2019 20:20Im Media Encoder gibt es schon seit Ewigkeiten unter dem Hauptfenster wo die Jobs drin liegen ein Dropdown-Menü mit zwei Einträgen (auf einem System ohne Quicksync aber mit Nvidia-Grafikkarte):dienstag_01 hat geschrieben: ↑Fr 08 Feb, 2019 19:53 Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.
Mercury Playback Engine - Nur Software
Mercury Playback Engine - GPU-Beschleunigung (CUDA)
Selbiges bei Premiere wenn man ein neues Projekt anlegt.
Ob das bei anderer Hardwareausstattung variiert (Quicksync) vermag ich nicht zu sagen...
Klar werden die hardwarebeschleunigten Codecs wie H.264 da auch über die Grafikkarte berechnet... in Premiere fehlt beim AME-Exportdialog das Dropdown-Menü, aber es wird die Projekteinstellung übernommen. Im AME direkt lässt es sich einstellen. Dass dem so ist lässt sich einfach über die Encodingzeiten nachvollziehen...dienstag_01 hat geschrieben: ↑Fr 08 Feb, 2019 20:40 Ja, gibt's, hat aber eben nichts mit dem Encoding zu tun. Damit werden die Cuda-fähigen Effekte berechnet.
Handbrake ist dafür das falsche Programm. Es lässt unter NVEnc momentan noch nicht die Zugriffe zu, die Nvidia selbst anbietet.
Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.MK hat geschrieben: ↑Fr 08 Feb, 2019 20:51 Klar werden die hardwarebeschleunigten Codecs wie H.264 da auch über die Grafikkarte berechnet... in Premiere fehlt beim AME-Exportdialog das Dropdown-Menü, aber es wird die Projekteinstellung übernommen. Im AME direkt lässt es sich einstellen. Dass dem so ist lässt sich einfach über die Encodingzeiten nachvollziehen...
Ich habe kein Quicksync, wie wird das dann bei mir beschleunigt? Durch die Heinzelmännchen?Jost hat geschrieben: ↑Fr 08 Feb, 2019 21:05 Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.
https://www.golem.de/news/adobe-premier ... 34637.html
Bau einen AMD-Prozessor ein und dann ist Schluss mit lustig.
Render einfach mal in 4h/H.265/10-Bit aus. Dann weiß Du, ob Du Hardware-Beschleunigung hast oder nicht.MK hat geschrieben: ↑Fr 08 Feb, 2019 21:10Ich habe kein Quicksync, wie wird das dann bei mir beschleunigt? Durch die Heinzelmännchen?Jost hat geschrieben: ↑Fr 08 Feb, 2019 21:05 Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.
https://www.golem.de/news/adobe-premier ... 34637.html
Bau einen AMD-Prozessor ein und dann ist Schluss mit lustig.
Ich mache das ja nicht erst seit gestern... mit aktiviertem GPU-Rendering verringert sich die Zeit bei AVI unkomprimiert zu H.264 um ca. 1/3, und das ist für mich eine relevante Zeitersparnis.
Wer weiss was das ist, aber dass es Encoding ist, wäre ich mehr als skeptisch ;)MK hat geschrieben: ↑Fr 08 Feb, 2019 21:36Ich mache das ja nicht erst seit gestern... mit aktiviertem GPU-Rendering verringert sich die Zeit bei AVI unkomprimiert zu H.264 um ca. 1/3, und das ist für mich eine relevante Zeitersparnis.
Die Adobe Texte zu dem Thema sind mir auch bekannt und auch dass da nichts vom Beschleunigen des Encodings über die GPU mit CUDA drin steht. Ziemlich merkwürdig.