Das ist ein guter Rat. Ob sich viel ändert, ist freilich unklar. Die 770 stammt aus Mai 2013 und gehörte zur erste Nvidia-Baureihe, die überhaupt Hardware-Decoding konnte.
Das sollte keine Rolle spielen, auf einer Workstation hier, läuft das aktuelle Resolve auf einem Win7 auch wie Butter.
Keine gute Idee. Davinci bindet zum Decodieren nur Nvidia und die Intel-GPUs ein. Kaufst Du eine AMD-Karte, hast Du keinerlei Hardwardware-Beschleunigung.
Aehm, stimmt so nicht, aber ok.
Nee, mit 14 kam NVDec, mit 15 kam Quicksync zum Decodieren. Mit 15.2 kamen NVEnc und Quicksync zum Encodieren. Kannst Du alles in den Release-Notes nachlesen. OpenCL (AMD) wird weder zum Decodieren noch zum Encodieren angesprochen.
verstehe ich nicht:
Es gibt keine BM Grafikkarten, und die I/O Karten beschleunigen gar nix, die schieben nur das Signal durch.
In der alten Win7 Kiste? Da ist eine GTX 980 drin.
Was ist denn das für ein Satz?
stimmt!Frank Glencairn hat geschrieben: ↑Sa 02 Feb, 2019 10:39
Es gibt keine BM Grafikkarten, und die I/O Karten beschleunigen gar nix, die schieben nur das Signal durch.
da gehen die Begriffe oft durcheinander:Frank Glencairn hat geschrieben: ↑Sa 02 Feb, 2019 10:46Was ist denn das für ein Satz?
Du kannst nicht nur, du mußt sogar irgendein Zielformat beim rausrendern angeben.
Müssig, Rendern und Encoden ist unter H.264/5 nicht getrennt. Das stellte unter H.264 1080p auch nie ein Problem dar. Selbst ein oller Vierkerner schafft ja Echtzeit. Die Probleme gingen erst los, als der Wechsel auf 4K kam, sich aber die Datenmenge nicht vervierfachte, sondern nur stärker komprimiert wurde. Wird dann von 30 auf 60 Bilder gewechselt, wird noch stärker komprimiert.
Ja, beim Mac erledigt das Decodieren die Intel-GPU. Meines Wissens können H.265 aber auch nur die jüngsten Mac-Modelle, die über eine Intel-GPU verfügen.Frank Glencairn hat geschrieben: ↑Sa 02 Feb, 2019 10:57 Achso, aber da sind auch nur AMDs drin, bringt also beim H265 Encoding auch nix.
Die externen Kisten sind eigentlich nur was für Leute, die gezwungen sind, auf schwachbrüstigen Laptops zu arbeiten, vor allem Macs, deshalb mußten sie ja auch AMD nehmen.
Für eine stabile GPU- Unterstützung würde ich auf mehr Speicher setzen.
ich weiß, dass es oft als Synonym benutzt wird (steht sogar in Produktbeschreibungen manchmal so drin),
womit wir nach einem Zirkel-Diskurs wieder im Thema wären:Die Probleme gingen erst los, als der Wechsel auf 4K kam, sich aber die Datenmenge nicht vervierfachte, sondern nur stärker komprimiert wurde. Wird dann von 30 auf 60 Bilder gewechselt, wird noch stärker komprimiert....
AMD-GPU heißt einfach, dass die CPU das De- und Encodieren übernehmen muss. Und das funktioniert nun mal mehr schlecht als recht.
EIndeutig die RTX, weil Resolve jetzt schon die neue Turing Tensor Architektur (AI) teilweise unterstützt, und das in Zukunft noch stärker ausbauen wird.
Du kannst jetzt also ein paar Euro sparen, und ne 1080TI kaufen, dann bleiben dir aber alle Neuerungen hinsichtlich der Turing Architektur verschlossen.'Blackmagic DaVinci Resolve: World’s *** color-grading application, using Turing Tensor Cores in Resolve 15 to accelerate AI inferencing for graphics enhancement.'
AMD hat ein eigenes System zum De- und Encodieren. Die Video Coding Engine. Und das funktioniert auch ganz prächtig, wie AMD-Prozessoren mit eingebauter GPU beweisen. Threadripper und die großen Ryzan haben jedoch keine eigene GPU.dosaris hat geschrieben: ↑Sa 02 Feb, 2019 12:07ich weiß, dass es oft als Synonym benutzt wird (steht sogar in Produktbeschreibungen manchmal so drin),
aber H.264|5 hat mit rendern nix zu tun.
Es stimmt aber, dass Rendern und Encoden in cutter-progs meist nicht getrennt erkennbar ist.womit wir nach einem Zirkel-Diskurs wieder im Thema wären:Die Probleme gingen erst los, als der Wechsel auf 4K kam, sich aber die Datenmenge nicht vervierfachte, sondern nur stärker komprimiert wurde. Wird dann von 30 auf 60 Bilder gewechselt, wird noch stärker komprimiert....
AMD-GPU heißt einfach, dass die CPU das De- und Encodieren übernehmen muss. Und das funktioniert nun mal mehr schlecht als recht.
Laut Datenblatt kann meine AMD-Grafik durchaus h.264|5 in 4k de-/encoden.
OpenCL u OpenGL spielt auch (verifiziert).
Aber warum nutzt Resolve das dann nicht?!
Deren Doku gibt dazu keinen Aufschluss.
Zumal ja (laut Franks Aussage) in BM's eGPU ebenfalls AMD drin steckt.
Die HW Beschleunigung wird natürlich schon seit Ewigkeiten von Dritten genutzt, in den einschlägigen Playern. Oder was glaubst du, warum AMD die verbaut?!Jost hat geschrieben:Ich lasse mich gern eines Besseren belehren, aber ich sehe noch nicht einmal ermutigende Hinweise, dass Dritte auf AMD bei der Hardware-Beschleunigung setzen könnten. Wenn selbst die Nerds von Handbrake scheitern, ist das kein gutes Zeichen.
Wobei die große Frage ist, welche Vorteile das sind? Auch die RTX wird von Haus aus kein 4:2:2 und somit kein echtes HDR können.Frank Glencairn hat geschrieben: ↑Sa 02 Feb, 2019 13:30EIndeutig die RTX, weil Resolve jetzt schon die neue Turing Tensor Architektur (AI) teilweise unterstützt, und das in Zukunft noch stärker ausbauen wird.
Das wird sich auch bei Sachen wie Noise Reduction deutlich bemerkbar machen.
Du kannst jetzt also ein paar Euro sparen, und ne 1080TI kaufen, dann bleiben dir aber alle Neuerungen hinsichtlich der Turing Architektur verschlossen.'Blackmagic DaVinci Resolve: World’s *** color-grading application, using Turing Tensor Cores in Resolve 15 to accelerate AI inferencing for graphics enhancement.'
Handbrake und Davinci sind aber nun mal keine Player.dienstag_01 hat geschrieben: ↑Sa 02 Feb, 2019 13:59Die HW Beschleunigung wird natürlich schon seit Ewigkeiten von Dritten genutzt, in den einschlägigen Playern. Oder was glaubst du, warum AMD die verbaut?!Jost hat geschrieben:Ich lasse mich gern eines Besseren belehren, aber ich sehe noch nicht einmal ermutigende Hinweise, dass Dritte auf AMD bei der Hardware-Beschleunigung setzen könnten. Wenn selbst die Nerds von Handbrake scheitern, ist das kein gutes Zeichen.
Nö, aber wenn du von Dritten schreibst, ist das eben falsch.Jost hat geschrieben: ↑Sa 02 Feb, 2019 14:12Handbrake und Davinci sind aber nun mal keine Player.dienstag_01 hat geschrieben: ↑Sa 02 Feb, 2019 13:59
Die HW Beschleunigung wird natürlich schon seit Ewigkeiten von Dritten genutzt, in den einschlägigen Playern. Oder was glaubst du, warum AMD die verbaut?!
Kannst du das näher erläutern wie du das meinst? Irgendwie steh ich am Schlauch.
Eher Anfang/Mitte der 90er als keine CPU schnell genug war die ersten MPEG- und MJPEG-Formate flüssig zu dekodieren/encodieren und man sich für teuer Geld entsprechende Grafikkarten mit De-/Encoder bzw. Zusatzkarten kaufen konnte, irgendwann wurde die Hardwarebeschleunigung dann von schnelleren CPUs überholt, und diese Karten verschwanden dann wieder in der Versenkung.dienstag_01 hat geschrieben: ↑Sa 02 Feb, 2019 12:48 Dass Videobearbeitungsprogramme auf die De- und Encoder der GPUs zurückgreifen, ist ein Paradigmenwechsel und der hat eigentlich erst richtig im letzten Jahr begonnen.
Sowie Du beginnst, Dich ein wenig mit Fusion zu beschäftigen, langen die 4GB eben nicht mehr weit. Wenn der Speicher voll ist, stürzt Resolve ab.Frank Glencairn hat geschrieben: ↑Sa 02 Feb, 2019 13:30 P.S. Die 8GB langen locker, selbst für 4k. Ich hab sogar auf meiner alten 980 mit 4GB keine Probleme mit 4k.
Ja, du hast recht. Ich meinte aber mit Paradigmenwechsel den Zugriff auf die seit Jahren in der GPU verbauten Standardkomponenten fürs Decoding (+ Encoding),MK hat geschrieben: ↑Sa 02 Feb, 2019 14:44Eher Anfang/Mitte der 90er als keine CPU schnell genug war die ersten MPEG- und MJPEG-Formate flüssig zu dekodieren/encodieren und man sich für teuer Geld entsprechende Grafikkarten mit De-/Encoder bzw. Zusatzkarten kaufen konnte, irgendwann wurde die Hardwarebeschleunigung dann von schnelleren CPUs überholt, und diese Karten verschwanden dann wieder in der Versenkung.dienstag_01 hat geschrieben: ↑Sa 02 Feb, 2019 12:48 Dass Videobearbeitungsprogramme auf die De- und Encoder der GPUs zurückgreifen, ist ein Paradigmenwechsel und der hat eigentlich erst richtig im letzten Jahr begonnen.
Bei den neueren resourcenhungrigeren Codecs beginnt das nun wieder von vorne, wobei der Weg ja auch wieder dahin geht alles über die CPU laufen zu lassen... bis dann die nächsten Codecs kommen die noch mehr Leistung benötigen und diese wieder zuerst über die GPU bereitgestellt wird.
Quasi ein natürlicher technischer Kreislauf.
Erinnert sich noch jemand an die ersten H.264 Hardwarebeschleunigerkarten (SpursEngine) bzw. die Realmagic Wiedergabekarten von Sigma Design? :D
HDR ist unter H.265, vom Farbraum mal abgesehen, mit 10 Bit und 4:2:2 definiert. Die Nvidia kann alles davon, aber kein 4:2:2.Frank Glencairn hat geschrieben: ↑Sa 02 Feb, 2019 14:24Kannst du das näher erläutern wie du das meinst? Irgendwie steh ich am Schlauch.