Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Ein Rechner Davinci Resolve 15 Studio mit AMD Radeon VII



Frage von myrteye:


Hallo in die Runde,
ich habe letztes Jahr schon mal wegen eines Rechners für DR 15 gefragt und viele sehr gute Anregungen bekommen. Daraufhin habe ich das ganze auf 2019 verschoben und habe mir jetzt dieses Paket bei Mindfactory zusammengestellt siehe Anhang. Was haltet ihr davon? Die Grafikkarte Radeon VII ist in dieser Zusammenstellung noch nicht mit drin, da sie erst morgen gelistet wird.
Beste Grüße
Martin Myrt-Rechner.PNG

Space


Antwort von dosaris:

das hängt auch vom OS ab:

zB gab's für meine vorgesehene AMD-GraKa RX5* keinen Treiber unter WIN-8,
ich hatte dann eine parallele Baureihe RX4* gewählt, dafür gibt's passende Treiber

Solltest Du also zuvor checken!

Für AMD-GraKa gibt es natürlich kein CUDA, aber Resolve kann ja auch OpenCL.

Du brauchst natürlich noch einen "richtigen" Kühler.
Die beiden SSDs sind wohl als Alternativ-Posten zu sehen?

Wenn dies Preise für einen fertig montierten PC mit Funktionsgarantie sind,
dann ist es wohl fast üblich.
Ansonsten sind einige Komponenten-Preise fast 50% höher als bei Alternate.

Space


Antwort von Frank Glencairn:

RAM würde ich welches nehmen, das speziell für die Threadripper zertifiziert ist, wie G.Skill Flare X - wird natürlich mit andrem RAM auch irgendwie laufen, aber wenn dann irgendwelche diffuse, nicht reproduzierbare Probleme oder scheinbar zufällige Abstürze/Aufhänger auftreten macht dich das meschugge. Das isses nicht wert.

Finger weg von AMD Grafikkarten, wenn du mit Resolve arbeiten willst.

CPU Kühler auf jeden Fall einen Noctura, speziell für die Threadripper.

Space


Antwort von DeeZiD:

"Frank Glencairn" hat geschrieben:
Finger weg von AMD Grafikkarten, wenn du mit Resolve arbeiten willst.
Wieso?
https://www.pugetsystems.com/labs/artic ... ance-1238/

Falls die Vega VII von der Performance sich zwischen der RTX2080 und 2080 Ti aber mit 16GB Vram fuer nur 699 Euro einordnen sollte, sehe ich das Problem nicht?

Space


Antwort von dosaris:

DeeZiD hat geschrieben:
Falls die Vega VII von der Performance sich zwischen der RTX2080 und 2080 Ti aber mit 16GB Vram fuer nur 699 Euro einordnen sollte, sehe ich das Problem nicht?
Dir ist aber schon klar, dass Nvidia nicht von AMD kommt?

Wie schon dargestellt (Mi 06 Feb, 2019 13:58 ) spielen nicht alle Baureihen von AMD-GPUs mit allen
HW-/SW-Permutationen zusammen.

Es ist nicht allein ein Performance-Problem.

Meine AMD-GPU mag VpX wohl sehr gern (per OpenCL). Selbst SplitScreen mit 3 Quellen
und je mehreren Effekten/Filtern drauf läuft bei FHD im preview ruckelfrei ohne Proxy u
ohne prerendering. Aber mit Resolve zusammen ist das keine dicke Freundschaft, da humpelt's.
Es ist da eher ein Problem, dass Resolve die vorhandene HW-Leistung einiger AMD-GPUs nicht nutzt.
CPU u GPU langweilen sich dann manchmal mit den genannten Konsequenzen.

Vielleicht muss ich mich nochmals tiefer in die config knien.

Space


Antwort von DeeZiD:

dosaris hat geschrieben:
DeeZiD hat geschrieben:
Falls die Vega VII von der Performance sich zwischen der RTX2080 und 2080 Ti aber mit 16GB Vram fuer nur 699 Euro einordnen sollte, sehe ich das Problem nicht?
Dir ist aber schon klar, dass Nvidia nicht von AMD kommt?

Wie schon dargestellt (Mi 06 Feb, 2019 13:58 ) spielen nicht alle Baureihen von AMD-GPUs mit allen
HW-/SW-Permutationen zusammen.

Es ist nicht allein ein Performance-Problem.

Meine AMD-GPU mag VpX wohl sehr gern (per OpenCL). Selbst SplitScreen mit 3 Quellen
und je mehreren Effekten/Filtern drauf läuft bei FHD im preview ruckelfrei ohne Proxy u
ohne prerendering. Aber mit Resolve zusammen ist das keine dicke Freundschaft, da humpelt's.
Es ist da eher ein Problem, dass Resolve die vorhandene HW-Leistung nicht nutzt.
CPU u GPU langweilen sich dann manchmal mit den genannten Konsequenzen.

Vielleicht muss ich mich nochmals tiefer in die config knien.
Soweit ich weiss, wird Windows 8 nicht mehr offiziell unterstuezt, wuerde da eher auf Unvertraeglichkeit mit dem OS tippen.

Habe Resolve Studio gar unter Linux schon mit einer Vega 64 performant laufen sehen (hier ebenfalls Linux, aber mit einer 1080Ti).
Unter Windows 10 laeuft auch die "billige" RX580 bei einem Kollegen bestens in Kombination mit einem aelteren 8-core Xeon.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:

Finger weg von AMD Grafikkarten, wenn du mit Resolve arbeiten willst.

CPU Kühler auf jeden Fall einen Noctura, speziell für die Threadripper.
Oha - da ist man also derart unflexibel mit Resolve?

Selbst ein anderer Kühler würde also Probleme bereiten. :)

Bitte nicht ganz so sehr pauschalieren.
Ich hab auch einen Rechner mit AMD-Grafikkarte - und damit läuft Resolve problemlos.

Für Red-Raw sollte es jedoch eine Karte von Nvidia sein, denn nur die bringt richtig Schwung in die Arbeit mit R3D.

Space


Antwort von Jost:

myrteye hat geschrieben:
Hallo in die Runde,
ich habe letztes Jahr schon mal wegen eines Rechners für DR 15 gefragt und viele sehr gute Anregungen bekommen. Daraufhin habe ich das ganze auf 2019 verschoben und habe mir jetzt dieses Paket bei Mindfactory zusammengestellt siehe Anhang. Was haltet ihr davon? Die Grafikkarte Radeon VII ist in dieser Zusammenstellung noch nicht mit drin, da sie erst morgen gelistet wird.
Beste Grüße
Martin
Myrt-Rechner.PNG
Falsches Ram. Für einen Ryzan wäre das vollkommen ok. Der Threadripper ist jedoch eine Quad-Channel-CPU. Es werden nicht 2, wie beim Ryzan, sondern 4 Ram-Riegel gleichzeitig angesprochen. Verbaust Du nur 2 Ram-Riegel, kastrierst Du den Threadripper in seiner Leistungsfähigkeit. PCGH spricht von etwa 20 Prozent.
Außerdem unterstützt der Threadripper von Haus aus nur 2666er Ram. Wird schnelleres Ram verbaut, wird über das XMG-Profil das Ram übertaktet. Man weiß immer nicht, ob die Billig-Mainboards das klaglos mitmachen.
Außerdem ist bei gleicher Takt-Geschwindigkeit Dual-Rank-Ram deutlich schneller als Single-Rank-Ram. Dein Ram ist Single-Rank. Der optische Unterschied ist: Bei Dual-Rank sind die Ram-Bausteine auf beiden Seiten der Platine verbaut, bei Single-Rank nur auf einer Seite.
Ich habe Dir hier mal eine Suchmatrix angelegt, um bei Geizhals eine Übersicht zu erhalten, welche Quad-Konfiguration mit Takt 2666 und Dual-Rank auf dem Markt ist:
https://geizhals.de/?cat=ramddr3&xf=101 ... ~5831_DIMM

Meiner Ansicht nach ist eine AMD-GPU ein völliger Fehlgriff. Nicht dass sie in der Bearbeitung irgendwelche Schwächen hätte. Die hat sie nicht. 16 GB Ram sind ein Wort. Ich habe mit meiner 980M aber noch nie mehr als 7GB gesehen.
Das Problem ist, dass Davinci nur zwei Möglichkeiten der Hardward-Beschleunigung für das Decodieren und Encodieren in H.265 anbietet.
Entweder über eine Intel-Grafikkarte, die zum Beispiel in einer 8700K-CPU verbaut ist.
Oder über eine Nvidia-Grafikkarte der Generation 10 und 20.
Du hättest beides nicht, wenn Du einen AMD-Prozessor und eine AMD-GPU verbaust. Das heißt in der Praxis: Davinci ermöglicht Dir kein Ausrendern in H.265.
Dadurch wird es zur Pflicht, in einem Zwischencodec aus Davinci auszurendern und dann mit einem Programm wie Handbrake oder Hybrid in X.265 zu wandeln. Nur diese Programme ermöglichen es, die CPU zum Wandeln in x.265 zu nutzen. Davinci ermöglicht es nicht.
Und das hat auch gute Gründe: Das Wandeln per CPU ist unglaublich rechenintensiv. PCGH hat auch das getestet: Wird mit dem Preset Apple UHD/H.265//10-Bit/60p in Handbrake gewandelt, kommt ein 1950x auf 5 Bilder die Sekunde. 30 Mal langsamer als Echtzeit. Kannst Du Dir ja ausrechnen, welche Zeit ein 3-Minuten-Clip benötigt.

Der ideale Workflow mit Davinci sieht so aus (wollte mir nämlich auch einen Rechner mit 1950x zusammenbauen):
Ausrendern im Zwischencodec wie DNxHR HQX. Rein damit in Hybrid und per Nvidia-Grafikkarte und FFmpeg in X.265 wandeln lassen. Das geht deutlich schneller als per 16-Kern-CPU. Und man kann sogar ganz normal die Qualität bestimmen. Auch 4:2:2 geht.

Die Sache hat noch einen Pferdefuß: Nvidia kann noch keine B-Frames für H.264/5. Das kommt erst noch. Die Treiber für die Nvidia-GPUs der Generation 20 sind zwar schon auf dem Markt, aber es gibt noch keine SDK, um B-Frame-Unterstützung in Schnittprogrammen verfügbar zu machen. B-Frame-Unterstützung sorgt für kleinere Dateien bei besserer Qualität.

Kannst Dich hier mal in die Materie einlesen (Blackmagic ist übrigens Entwicklungspartner von Nvidia, steht da auch drin):
https://developer.nvidia.com/nvidia-video-codec-sdk

Am Ende habe ich das 1950x-Projekt komplett verworfen. Wäre teurer Quatsch geworden. Zu oft hätte ich mich vom günstigen Mainstream-Angebot entfernen müssen.

Mein Plan ist: Ich warte darauf, das Nvidia die neue SDK veröffentlicht und das in Hybrid oder Handbrake umgesetzt wird. Es ist unklar, ob Davinci den Zugriff auf B-Frame-Einstellungen erlauben wird. Eher nicht. Es wird nur ein Preset geben.
In den PC-Mittelpunkt stelle ich darum eine fette Nvidia der 20er Reihe. 2080 oder TI. Das Decodieren von H.264/5 macht die Nvidia mit Links. Weil ich erster Linie mit CDng 4,6K filme, wandele ich in DNxHR LT oder SQ als Optimized Media für den Schnitt um. Das macht aber schon ein 6700K richtig schnell. Mit einem 6- oder 8-Kerner wird das sogar überflüssig sein. Dafür benötigt man keinen 16-Kerner.
Anschließend geht es in Original-Auflösung vom Quell-Clip in DNxHR HQX aus Davinci raus und in Hybrid mit der Nvidia-Hardware-Beschleunigung und FFmpeg rein.
Der 1950x würde das Umrechnen in DNxHR zwar beschleunigen. Aber das macht den Kohl nicht richtig fett. Flaschenhälse unter Davinci sind heute nicht mehr die CPUs, sondern die GPUs. Davinci ist nicht Premiere, das neuerdings auch Intels Quicksync für das Ausrendern nutzt.
Egal, was Du von AMD einbaust, am Ende wird es unter Davinci immer schlechter laufen, als eine fette Nvidia der 20er Reihe.

Space


Antwort von srone:

at jost

endlich einer der die pudget-tests komplett versteht und auch in unteren preisregionen umzusetzen vermag.

lg

srone

Space



Space


Antwort von Jost:

srone hat geschrieben:
at jost

endlich einer der die pudget-tests komplett versteht und auch in unteren preisregionen umzusetzen vermag.

lg

srone
Richtig viel billiger wird es auch nicht. Die neue AMD-GPU wird nur den Preisdruck auf die 2080 verstärken. Die TI, stärkste Mainstream-Grafikkarte der Welt, wird kaum unter die 1000-Euro-Marke fallen.
Frank hat bei einer ähnlichen Diskussion angeführt, dass Davinci die Tensor-Cores - exklusiv bei Nvidia der 20er Reihe - schon nutzt.
Das ist der Ausfluss dessen, dass Blackmagic Entwicklungspartner von Nvidia ist.
Bin selbst AMD-Fan, habe sogar zwei Rechner mit AMD-CPUs, und die Preisgestaltung von Nvidia finde ich - gelinde gesagt - nicht gut.
Aber die Konkurrenz für Nvidia wird bei Video mittelfristig nicht mehr von AMD kommen, sondern im nächsten Jahr von Intel. Die GPUs werden QuickSync richtig aufbohren. Intel arbeitet mit VLC zusammen und das wird ermöglichen, X.265 von QuickSync aus zu beschleunigen.

Wie es zurzeit um AMD bestellt ist, kannst Du hier nachlesen:
https://handbrake.fr/docs/en/latest/tec ... o-vce.html

Space


Antwort von Darth Schneider:

Warum ist das Zusammenstellen eines Rechners für dieses Gratisprogramm eigentlich so komplex ? Und warum gibt es tausend verschiedene Meinungen darüber ?
Das ganze ist schon etwas verwirrend für Leute die einfach überhaupt keinen Bock haben darauf sich mit Grafikkarten oder RAM Baustenen auseinandersetzen. Ich bin halt schon etwas verwöhnt von den Äpfeln.
Final Cut Pro X oder IMovie herunterladen, auf irgendeinem 4 bis 5 Jahre alten Mac installieren....und los schneiden, so geht das.
So sollte das doch auch mit Resolve sein....Wir leben doch im Jahr 2019.
Ich bin wirklich überhaupt kein Apple Nerd, aber das geht halt auch so einfach...
Da muss sich niemand eine Workstation bauen und es läuft ja dann ja auch ganz einfach wie Butter.
Ich würde mir auch sehr gerne mal einen PC kaufen, habe aber jetzt schon Angst davor, das falsche zu kaufen....Scheinbar gibt es da zu viele mögliche Fehlerquellen.
Gruss Boris

Space


Antwort von Alf_300:

Ein AMD 2950X sollte es schon sein wenn der Rechner ein paar Jahre aushalten soll.

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Warum ist das Zusammenstellen eines Rechners für dieses Gratisprogramm eigentlich so komplex ? Und warum gibt es tausend verschiedene Meinungen darüber ?
Weil jeder denkt, er muss etwas dazu sagen.

So komplex ist es doch gar nicht.
Ordentliche CPU, Grafikkarte mit reichlich Speicher, schnelle Drives fürs Datenschaufeln und eben noch genügend Arbeitsspeicher.
Gut - Red und Nvidia haben nun eine flotte R3D-Bearbeitung programmiert, aber ansonsten dürfte auch die Radeon VII mit ihren 16GB gute Dienste leisten.

Wer denkt, er müsse heute für die nächsten Jahre etwas zusammenstellen, der wacht morgen auf und ist enttäuscht, weil seine Zusammenstellung veraltet ist.

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:

Oha - da ist man also derart unflexibel mit Resolve?
Was heißt unflexibel? Nvidia wird halt besser unterstützt, warum soll man sich da ne künstliche Bremse einbauen?
iasi hat geschrieben:

Selbst ein anderer Kühler würde also Probleme bereiten. :)
Der Noctura kühlt den TR halt besser, als andere - wenn mich einer nach optimalen Komponenten fragt, bekommt er halt die entsprechende Antwort.
iasi hat geschrieben:

Ich hab auch einen Rechner mit AMD-Grafikkarte - und damit läuft Resolve problemlos.
Problemlos - ja sicher, aber nicht optimal performant, weil sie halt nicht alle Funktionen von Resolve unterstützt - wurde oben ja schon diskutiert.

Space


Antwort von Frank Glencairn:

DeeZiD hat geschrieben:

Soweit ich weiss, wird Windows 8 nicht mehr offiziell unterstuezt, wuerde da eher auf Unvertraeglichkeit mit dem OS tippen.
"nicht unterstützt" bedeutet nur, daß es nicht mehr auf Win8 und älter getestet wird.
Im richtigen Leben läuft Resolve hier auf Win7 und Win 8.1 nicht ganz wunderbar, und ohne irgendwelche Einschränkungen.

Space


Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:

Das ganze ist schon etwas verwirrend für Leute die einfach überhaupt keinen Bock haben darauf sich mit Grafikkarten oder RAM Baustenen auseinandersetzen. Ich bin halt schon etwas verwöhnt von den Äpfeln.
Final Cut Pro X oder IMovie herunterladen, auf irgendeinem 4 bis 5 Jahre alten Mac installieren....und los schneiden, so geht das.
In dem Moment, wo du Resolve benutzen willst, hilft dir dein verwöhnt sein auch nix mehr - da mußt du dich dann auch bei nem Apple Rechner mit solchen Sachen auseinander setzen.

Das Problem ist, daß du bei Apple keine Wahl hast, wenn du dir keinen Hackintosh bauen willst - sprich, performancemäßig bist du da halt gezwungen am unteren Ende der Fahnenstange rumzumachen, und kannst nicht mal was dagegen tun. Wenn dir das reicht, ist ja alles okay.
pic_disp.jpg

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:

Was heißt unflexibel? Nvidia wird halt besser unterstützt, warum soll man sich da ne künstliche Bremse einbauen?


Problemlos - ja sicher, aber nicht optimal performant, weil sie halt nicht alle Funktionen von Resolve unterstützt - wurde oben ja schon diskutiert.
Die Rechenleistung der Radeon VII ist sicherlich ausreichend - der große Pluspunkt ist der schnell angebundene, große Speicher.

So schlecht schlägt sich ja schon die Vega 64 nicht. Die VII legt nochmal einige Schippen mit auf.

Es geht eben auch immer um das Preis-Leistungs-Verhältnis - auch im Profi-Bereich.
Sonst würden wohl alle Filme nur noch mit einer Alexa65 gedreht. :)

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:

In dem Moment, wo du Resolve benutzen willst, hilft dir dein verwöhnt sein auch nix mehr - da mußt du dich dann auch bei nem Apple Rechner mit solchen Sachen auseinander setzen.

Das Problem ist, daß du bei Apple keine Wahl hast, wenn du dir keinen Hackintosh bauen willst - sprich, performancemäßig bist du da halt gezwungen am unteren Ende der Fahnenstange rumzumachen, und kannst nicht mal was dagegen tun. Wenn dir das reicht, ist ja alles okay.
Nun - BMD könnte auch einfach dafür sorgen, dass AMD-Grafikkarten besser unterstützt werden. Deren Potential ist nicht voll ausgeschöpft.

Es ist wie mit der Diskussion über die R3D-Beschleunigung bei Nvidia-Karten. Red muss sich von den Apple-Usern eben auch die Frage gefallen lassen, weshalb nur Nvidia-Karten unterstützt werden.
Die Schuld auf Apple zu schieben, ist schon frech:
Windows only as Apple has ( for now ) decided not to support Nvidia on it's current OS.
Denn: ...we are doing with NVIDIA for GPU decoding ...
http://www.reduser.net/forum/showthread ... ish)-Build

Letztlich werden Red und BMD nicht drum herum kommen, auch AMD-Hardware besser auszureizen, denn Apple ist eine andere Nummer und wird sich nicht bewegen.

Space



Space


Antwort von Frank Glencairn:

Für manche ist das H264/65 De/Encoding ein riesen Thema, da geht mit AMD halt garnix.
Außerdem macht Resolve immer mehr von den Tensor Cores Gebrauch, auch da ist bei AMD Fehlanzeige.

Muß halt jeder selbst wissen was ihm wichtig ist.
Da ich in Resolve zu über 90% mit raw Material (RED/Arri/BM) rein gehe, und am Ende ein unkomprimiertes Master rausrendere, spielt für mich H264/65 quasi kaum ne Rolle, bestenfalls wenn ich mal irgendwelches Drohnenmaterial bekomme, wobei selbst das mittlerweile immer öfter DNG ist.

Da hat halt jeder so seine eigenen Anforderungen - deshalb kann man eben auch keine Pauschalantwort geben, wenn es um "die Optimale Resolve Maschine" geht. Hängt immer von Budget, Material, Workflow und persönlichen Präferenzen ab.
iasi hat geschrieben:

Es ist wie mit der Diskussion über die R3D-Beschleunigung bei Nvidia-Karten. Red muss sich von den Apple-Usern eben auch die Frage gefallen lassen, weshalb nur Nvidia-Karten unterstützt werden.
Aktuell hab ich eher den Eindruck, daß sich Apple von Apple-Usern die Frage gefallen lassen muß, warum Nvidia nicht unterstützt wird :D

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
Für manche ist das H264/65 De/Encoding ein riesen Thema, da geht mit AMD halt garnix.
Außerdem macht Resolve immer mehr von den Tensor Cores Gebrauch, auch da ist bei AMD Fehlanzeige.
Nur schlummert in einer AMD-Karte eben wohl weit mehr Potential als in einer Nvidia:

https://www.heise.de/forum/heise-online ... 1759/show/

BMD muss sich eben auch ein wenig bewegen, sonst werden u.a. die Apple-User ihren Unmut gegen die Programmierer richten.

Letztlich wird auch die BMD-Programmierer bei den kommenden Updates mit Leistungssteigerungen durch Ausreizung der AMD-Karten punkten wollen.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:

Es ist wie mit der Diskussion über die R3D-Beschleunigung bei Nvidia-Karten. Red muss sich von den Apple-Usern eben auch die Frage gefallen lassen, weshalb nur Nvidia-Karten unterstützt werden.
Aktuell hab ich eher den Eindruck, daß sich Apple von Apple-Usern die Frage gefallen lassen muß, warum Nvidia nicht unterstützt wird :D
Ja - noch ist das so. Aber es gibt schon erste Stimmen, die fragen, warum alle, die nicht Nvidia-Karten nutzen, von Red ausgeschlossen werden.

Space


Antwort von Frank Glencairn:

Ich versteh zuwenig vom Programmieren um das beantworten zu können.
Allerdings gehe ich davon aus, daß man sich bei RED beide Systeme genau angeschaut hat, und sich dann aus gutem Grund für Nvidia entschieden hat - und das obwohl RED-User, zum größten Teil auch Apple User sein dürften.

Space


Antwort von Jost:

iasi hat geschrieben:
"Frank Glencairn" hat geschrieben:

Letztlich werden Red und BMD nicht drum herum kommen, auch AMD-Hardware besser auszureizen, denn Apple ist eine andere Nummer und wird sich nicht bewegen.
Du hast es noch nicht kapiert: Es gibt momentan nur zwei funktionierende Verfahren in Schnittprogrammen, um das De- und Encoding per Hardware zu beschleunigen.
Weil Apple keine Nvidias verbaut, gibt es von dieser Seite keine Unterstützung. Stattdessen setzt Apple auf das zweite Verfahren - Intel QuickSync. Schließlich verbaut Apple nur Intel-Prozessoren.
Das Betriebssystem - ob Windows oder Apple - ist davon völlig unabhängig. Ist im Mac eine Intel-GPU verbaut, die zum Beispiel kein Encodieren in H.265 kann, gibt es auch unter Apple keine Hardware-Beschleunigung. Da flutscht dann auch nichts mehr.

BMD fährt zurzeit zweigleisig:
Seit Davinci 15.2, also seit November 2018, sind QuickSync und Nvidia unter Windows vollständig integriert:

Support for hardware accelerated encoding of H.264 and H.265 using specific NVIDIA GPUs on DaVinci Resolve Studio; Windows and Linux only
Support for hardware accelerated encoding of H.264 and H.265 using Intel Quick Sync on supported hardware on DaVinci Resolve Studio; Windows only

Andererseits wurde BRAW eingeführt, das von Nvidia, Intel und AMD Hardware-beschleunigt decodiert wird. Beim Encodieren in H.264/5 geht es dann aber nur mit Intel oder Nvidia weiter.

Warum um alles in der Welt sollte BM auf AMD setzen? Es gibt noch keine befriedigend funktionierende Lösung, um das Encodieren samt aller damit verbundenen Prozessen auf einer AMD-Grafikkarte zu beschleunigen.
https://handbrake.fr/docs/en/latest/tec ... o-vce.html

Das liegt auch nicht an BM. AMD muss eine SDK zur Verfügung stellen, die Entwickler anleitet, wie sie das De- und Encodieren unter AMD ins Schnittprogramm integrieren. Das machen Nvidia und Intel schließlich auch.
AMD macht es jedoch nicht. Warum um alles in der Welt sollte BM kostenlos die Entwicklungsarbeit von AMD übernehmen?
Und die Früchte der Arbeit, so es überhaupt Früchte gibt, mit der Davinci-kostenlos-Version unter das Volk bringen?

Space


Antwort von dosaris:

"Frank Glencairn" hat geschrieben:
Ich versteh zuwenig vom Programmieren um das beantworten zu können.
Allerdings gehe ich davon aus, daß man sich bei RED beide Systeme genau angeschaut hat, und sich dann aus gutem Grund für Nvidia entschieden hat - und das obwohl RED-User, zum größten Teil auch Apple User sein dürften.
ich hatte früher programmiert in Fortran, Algol, C, Pascal, PERL und div Assembler.
Aber dies hilft überhaupt nicht weiter, da die heutigen Programme so gut wie nicht
(nach außen) dokumentiert sind. Die werden einfach nur als Blackbox verkauft,
irgendwas ist da drin, irgendwas geht - oder auch nicht. Aber darüber hinaus
steht man völlig im Dunkeln. mE ist da Apple am schlimmsten, die adressieren aber eben auch
das untere IT-Qualifikations-Niveau. Deswegen lässt sich dort auch am meisten Profit abschöpfen.

Ich gehe daher aus jahrzehnte-langer Erfahrung in der Branche eher davon aus, dass die Entscheidung
für NVidia aus Marketing- oder Management-Gründen gefallen ist. Techn Gründe spielen eher eine
unter geordnete Rolle.

Aber auch dies ist von außen nie genau nachvollziehbar.

Space


Antwort von Frank Glencairn:

Wenn die eigene (RED) Userbase weitgehend mit Apple arbeitet, welche "Marketing oder Management Gründe" könnten das denn sein?

Space


Antwort von dosaris:

Jost hat geschrieben:
...
Das liegt auch nicht an BM. AMD muss eine SDK zur Verfügung stellen, die Entwickler anleitet, wie sie das De- und Encodieren unter AMD ins Schnittprogramm integrieren. Das machen Nvidia und Intel schließlich auch.
AMD macht es jedoch nicht.
da fehlt noch irgendwas:

die math. Funktionen der Computergrafik-Spiele und der cutter-/compositing-Programme sind intern
zum großen Teil identisch/ähnlich (bis auf h.26*-Codec). Und bei Computer-Spielen ist AMD mW garnicht
schlecht (ich spiele sowas selber nicht)!? Also müssen die ja irgendwas substantielles raus gegeben haben,
wenn sie die Spiele nicht selber schreiben (tun die aber wohl nicht?).

Wenn sie also nicht selber Anwendungsprogramme verkaufen wollen wird für deren GraKa-Absatz doch
ein evidentes Eigen-Interesse bestehen, die Schnittstellen offen zu legen?

Mit dem beigelegten AMD-CCC ist OpenCL includiert und mit Magix spielt das (zumindest hier)
problemlos zusammen.
Also wo klemmt's bei BM?

Ich gehe davon aus, dass die kostenlose Resolve-Version zum anfüttern für Schnitt-Controller-Absatz
und deren Cams dient. Das steckt also in deren Werbe-/Marketing-Etat.

Space


Antwort von Frank Glencairn:

Anders herum. Resolve gabs zuerst, danach hat BM Kameras gebaut, mit deren Material man in Resolve auch wirklich was anfangen kann, bevor es auseinander fällt. Bei dir ist immer alles "Marketing" - technische Gründe kann und darf es in deiner Welt offensichtlich nicht geben.

Space



Space


Antwort von dosaris:

"Frank Glencairn" hat geschrieben:
Bei dir ist immer alles "Marketing" - technische Gründe kann und darf es in deiner Welt offensichtlich nicht geben
im Gegentum:
als Ing. in diesem Bereich hätte ich sehr gern viel mehr technische Gründe als Entscheidungsbasis.
Leider zeigt die Realität, dass es oft nicht so ist.

Klassisches Beispiel 1. PC-Generation:
aus technisch völlig unerklärlichen Gründen setzte IBM (damals Marktführer bei PCs ) auf den 8088-proc
von Intel. Originalton B.Gates (Betriebssystem MSDOS-Lieferant für IBM):
no one will ever need more than 640KB RAM. (Marketing-Brüller!)
Gleichzeitig setzte APPLE auf den ebenfalls verfügbaren 68000 von Motorola, der mehr als eine
CPU-Generation weiter entwickelt war. Erst ab 80386 war INTEL wieder technisch zum 68000 aufgeschlossen.
Aber da war's für IBM-PCs schon fast zu spät.
IBM-PC: RIP!

Space


Antwort von klusterdegenerierung:

"Frank Glencairn" hat geschrieben:
Ich versteh zuwenig vom Programmieren um das beantworten zu können.
Allerdings gehe ich davon aus, daß man sich bei RED beide Systeme genau angeschaut hat, und sich dann aus gutem Grund für Nvidia entschieden hat - und das obwohl RED-User, zum größten Teil auch Apple User sein dürften.
Früher hat Apple ja auch noch auf Intel und Nvidia gesetzt, warum man das dran gegeben hat, verstehe ich bis Heute nicht, denn unteranderem konnte man damit auch seinen Vorsprung sichern.

Ich habs vor Jahren mal ne Zeit lang mit AMD versucht, nur Theater, ob Photoshop oder h264 und mögen die 3x preiswerter und potenter sein, mir kommts nicht mehr in die Hütte.

Space


Antwort von Alf_300:

Früher als noch in Assembler programmiert wurde gabs öfter - Dieses Progranmm erfordert einen Intel-Prozessor.

Man soll aber nicht nachtragend sein;

Heutzutage gibts andere Unannehmlichkeiten

Win10
Internetzwang
Abo

;-((

Space


Antwort von klusterdegenerierung:

Alf_300 hat geschrieben:
Heutzutage gibts andere Unannehmlichkeiten

Win10
Internetzwang
Abo
Win10 nein
Internetzwang nein
Abo nein

Space


Antwort von Jost:

Wir entfernen uns von der Ursprungsfrage: Ist es schlau, eine AMD-Grafikkarte zu verbauen, wenn man schon einen AMD-Prozessor hat?
Von der AMD-GPU kann man sagen: Tolle GPU in der Bearbeitung, 16 GB-Ram und auch noch superschnell angebunden.

Die andere Frage ist: Hilft mir eine AMD-GPU, wenn ich in X/H.265 ausrendern will?
Unter Davinci laute die klare Antwort: Nein!
Das geht nur mit Intel QuickSync oder mit Nvidia.
Mit AMD-CPU und -GPU hat man nur den einfachen Nutzen: In der Bearbeitung ist die AMD-GPU voll da, aber nicht beim Ausrendern. Unter Davinci gibt es mit AMD-CPU und AMD-GPU kein H.265.

Was im Grunde nicht schlimm ist. Wer an Qualität interessiert ist, rendert ohnehin nicht per Davinci aus. Stattdessen wird in einem Zwischencodec ausgerendert und per Handbrake/Hybrid und NVEnc/FFmpeg in X.265 ausgerendert.

Wer eine AMD-Grafikkarte verbaut, ist jedoch auf das Software-Encoding per CPU angewiesen. Was elend langsam ist. Selbst mit einem AMD-16-Kerner.

Die große Frage lautet nun: Geht Hardware-Beschleunigung für H.265 mit AMD-GPU überhaupt?
Ja, es geht:

zum Bild


Welches Programm erlaubt mir den Zugriff auf die AMD-GPU-Hardware-Beschleunigung, um in H.265 zu wandeln?
So ein Programm gibt es tatsächlich. Es nennt sich Cyberlink MediaExpresso (~40 Euro).
Angesprochen werden vom aktuellen MediaExpresso 7.5 auf Seiten von AMD:

zum Bild


Gibt es einen Pferdefuß? JA!

MediaExpresso erlaubt nur den Import von:

zum Bild

Heißt: Man muss unter Davinci nach der Bearbeitung in H.264/5 oder Derivate ausrendern, was Wandlungsverluste heißt und unter Davinci per AMD ohne Hardware-Beschleunigung erfolgt. H.265 geht ohnehin aus Davinci per AMD nicht.
Um dann am Ende erneut per AMD-Hardware-Beschleunigung in H.264/5 ausrendern zu können.

Das ist Quatsch und liegt daran, dass MediaExpresso keine Zwischencodecs aus Davinci akzeptiert.

Es bleibt dabei: Wer AMD/AMD verbaut, wählt in jedem Fall die schlechteste Kombination, die man unter Davinci nur wählen kann.

Was bei Davinci zurzeit bei Arbeiten unter CDng noch fehlt, ist die Möglichkeit, für Optimized Media H.264 auszuwählen und das per Hardware-Beschleunigung per Nvidia oder Quicksync umrechnen zu lassen. Das sollte deutlich schneller gehen, als per CPU in DNxHR LT zu wandeln.

Space


Antwort von Frank Glencairn:

Jost hat geschrieben:

Das ist Quatsch und liegt daran, dass MediaExpresso keine Zwischencodecs aus Davinci akzeptiert.
Wieso? AVI steht doch auf der Liste.
Da Resolve ein unkomprimiertes AVI ausgeben kann, ist das ein gangbarer und verlustfreier Weg.
Die Master, mit denen ich in Handbrake rein gehe, sind immer unkomprimierte 10bit AVI aus Resolve.

Space


Antwort von Frank Glencairn:

Jost hat geschrieben:

Was bei Davinci zurzeit bei Arbeiten unter CDng noch fehlt, ist die Möglichkeit, für Optimized Media H.264 auszuwählen und das per Hardware-Beschleunigung per Nvidia oder Quicksync umrechnen zu lassen. Das sollte deutlich schneller gehen, als per CPU in DNxHR LT zu wandeln.
CDNG läuft selbst auf schwachbrüstigen Rechnern wie Butter, warum sollte das jemand umwandeln wollen?

Space


Antwort von iasi:

Ich hab"s zwar noch nicht bei Resolve getestet, aber bei Premiere gibt es sichtbare Unterschiede beim Rendern zwischen GPU und reiner CPU.

BMD, Red usw. werden die AMD-Unterstützung sicherlich auch irgendwann nachschieben.

Das war mit CUDA zu Beginn auch nicht anders: Um die GPU-Power überhaupt das erste Mal nutzen nutzen zu können, musste es Nvidia sein. Und heute - oh Wunder: Es geht eben doch auch mit AMD und Intel.

Nun kommt eben noch dazu, dass das Schwergewicht Apple Nvidias proprietäre Lösung nicht möchte.

Space


Antwort von Frank Glencairn:

Hab kürzlich ein H265 via Nvidia Unterstützung aus Resolve raus gerechnet.

Extrem schnell (ca 85 fps) und qualitativ nicht wirklich schlechter als das selbe Material aus Handbrake (nach dem hochladen, und nachdem YT nochmal drüber gewalzt ist, ist visuell kein Unterschied mehr sichtbar) - die Datenrate ist bei Handbrake (bei ungefähr gleicher Qualität) aber deutlich geringer.

Ich kann mir jetzt also aussuchen, ob ich lieber auf Handbrake warte, oder darauf daß der Clip mit höherer Datenrate aus Resolve hoch geladen wird.

Space



Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
... und nachdem YT nochmal drüber gewalzt ist ...
ja - YT bügelt alle Unterschiede glatt. :)

Space


Antwort von MK:

iasi hat geschrieben:
Ich hab"s zwar noch nicht bei Resolve getestet, aber bei Premiere gibt es sichtbare Unterschiede beim Rendern zwischen GPU und reiner CPU.
Weil der CPU-Codec nicht einfach über die Grafikkarte kodiert wird, sondern dafür der "fest" verdrahtete Encoder von Nvidia in der GPU verwendet wird.... also nicht der selbe Code. Würde der CPU-Code 1:1 auf CUDA umgemünzt, wäre das visuelle Ergebnis am Ende das Selbe wie bei der CPU, nur halt mit der Beschleunigung durch die GPU. Vermutlich wäre da die Performance etwas schlechter und Adobe müsste selbst mehr Arbeit investieren.

Space


Antwort von dienstag_01:

MK hat geschrieben:
iasi hat geschrieben:
Ich hab"s zwar noch nicht bei Resolve getestet, aber bei Premiere gibt es sichtbare Unterschiede beim Rendern zwischen GPU und reiner CPU.
Weil der CPU-Codec nicht einfach über die Grafikkarte kodiert wird, sondern dafür der "fest" verdrahtete Encoder von Nvidia in der GPU verwendet wird.... also nicht der selbe Code. Würde der CPU-Code 1:1 auf CUDA umgemünzt, wäre das visuelle Ergebnis am Ende das Selbe wie bei der CPU, nur halt mit der Beschleunigung durch die GPU. Vermutlich wäre da die Performance etwas schlechter und Adobe müsste selbst mehr Arbeit investieren.
Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.

Prinzipiell verwendet man Hardware De-/Encoder vor allem wegen ihrer Effizienz (Geschwindigkeit), wenn es rein um Qualität geht sind flexible Anwendungen zielführender. Und die flexibelsten sind reine Softwareanwendungen ;)

Space


Antwort von MK:

dienstag_01 hat geschrieben:
Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.
Falsch verstanden... Adobe müsste den eigenen CPU-Code auf CUDA portieren um ihn auf der Grafikkarte beschleunigt zu berechnen. Das Ergebnis wäre bei korrekter Portierung 1:1 mit der CPU-Kodierung identisch.

Die Frage ist nun ob Adobe den eigenen Code (bzw. eigentlich ist der Encoder sowieso von Mainconcept zugekauft) auf die GPU portiert, aber halt nicht 1:1 identisch, oder bei Grafikkarten mit z.B. fest verdrahtetem NVENC (wobei da noch die Frage ist ob das wirklich reine Hardware ist oder ob Nvidia da per Treiber Code nachrüsten kann), diesen nutzt und somit einen komplett anderen Encoder. Zumindest heißt der entsprechende Menüpunkt GPU-Beschleunigung (CUDA), wobei das nicht nur die GPU-unterstützten Codecs umfasst sondern dann auch Bildtransformationen über die GPU berechnet werden...

Space


Antwort von Alf_300:

Bei Mainconcept gibts eine Tabelle, aus der ersichtlich ist,
welche Grafikkarte was unterstützt.

https://developer.nvidia.com/video-enco ... ort-matrix

Space


Antwort von MK:

Alf_300 hat geschrieben:
Bei Mainconcept gibts eine Tabelle, aus der ersichtlich ist,
welche Grafikkarte was unterstützt.

https://developer.nvidia.com/video-enco ... ort-matrix
Ja, als feste Encoder/Decodereinheit auf der Karte, aber natürlich könnte auch jeder beliebige Codec von den Softwareherstellern auf CUDA (oder auch Open CL, etc.) portiert werden sofern das geschwindigkeitsmäßig noch Vorteile bringt. Die verbauten Einheiten werden halt als "Schmankerl" mitgenommen weil sowieso vorhanden, für eigene Portierungen scheint der Aufwand zu groß zu sein.

Space


Antwort von DeeZiD:

Also wenn NVENC hier das einzige Argument pro NVIDIA ist, kann ich mir deren Karten sparen.
Zumindest bei meiner 1080 Ti ist dieser unbrauchbar schlecht, man sieht jeden Interframe und Graining sowie low contrast-Texturen werden gnadenlos weggebuegelt.

Wenn ich als DNXHR HQX rausgehe und mithilfe von Handbrake per X265 10 Bit H265-Videodateien erstelle, sehen diese bei gleicher Dateigroesse um Welten besser aus.

Bin gespannt wie sich die 16GB Vram(welcher deutlich schneller als der meiner 1080 Ti ist) in Resolve auf 4K- oder gar 8K-Timelines machen werden, bei denen NeatVideo eingesetzt wird, was derzeit absolut grenzwertig ist und zumindest unter Windows 10 haeufig mit Abstuerzen (nach dem obligatoischen "GPU memory full") endet - unter Linux laeuft das ganze bisher deutlich stabiler und auch schneller.

Space


Antwort von Jörg:

gelöscht_falscher Beitrag

Space


Antwort von DeeZiD:

Jörg hat geschrieben:
Wenn ich als DNXHR HQX rausgehe und mithilfe von Handbrake per X265 10 Bit H265-Videodateien erstelle, sehen diese bei gleicher Dateigroesse um Welten besser aus. ich mache jetzt allererste Versuche mit Handbrake per X265 10 Bit H265, (Ausgangsbasis uncompressed aus Resolve),
schon die noch lange nicht aussagekräftigen Ergebnisse sind allerfeinst, selbst mit lächerlich kleinen bitraten.
Die Renderzeit ist allerdings bei den höheren bitraten astronomisch, das wird man feintunen müssen.
20 min FHD benötigen 1:30 h bei Encoder preset slow und Quality 7.
Kann mit X265 (10 bit Profil - wichtig!) 4K DCI 2.39 aspect ratio auf 7 Mbit ohne sichtbare Artefakte runterrechnen. Graining und low-contrast Texturen bleiben auch zum grossen Teil erhalten. Bei der Bitrate produziert NVENC auch bei H265 nur Brei mit periodischem Flackern (keinerlei B-Frame-Support)

Fuer 95 Minuten Film dauert das ganze gut 10 Stunden auf meinem Rechner mit einem Intel 8700K und 32GB RAM.

Abends einschalten und frueh morgens ist die Datei fertig. So passt immerhin alles in mein 5GB max.-Fenster auf Vimeo Plus. ;)

Space



Space


Antwort von Jörg:

Fuer 95 Minuten Film dauert das ganze gut 10 Stunden auf meinem Rechner mit einem Intel 8700K und 32GB RAM. ich denke, du solltest auf eine nVidia umsteigen.
Ab der 10er habe ich Renderzeiten von unter RT angesagt bekommen...

Space


Antwort von dienstag_01:

MK hat geschrieben:
dienstag_01 hat geschrieben:
Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.
Falsch verstanden... Adobe müsste den eigenen CPU-Code auf CUDA portieren um ihn auf der Grafikkarte beschleunigt zu berechnen. Das Ergebnis wäre bei korrekter Portierung 1:1 mit der CPU-Kodierung identisch.

Die Frage ist nun ob Adobe den eigenen Code (bzw. eigentlich ist der Encoder sowieso von Mainconcept zugekauft) auf die GPU portiert, aber halt nicht 1:1 identisch, oder bei Grafikkarten mit z.B. fest verdrahtetem NVENC (wobei da noch die Frage ist ob das wirklich reine Hardware ist oder ob Nvidia da per Treiber Code nachrüsten kann), diesen nutzt und somit einen komplett anderen Encoder. Zumindest heißt der entsprechende Menüpunkt GPU-Beschleunigung (CUDA), wobei das nicht nur die GPU-unterstützten Codecs umfasst sondern dann auch Bildtransformationen über die GPU berechnet werden...
Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.

Space


Antwort von DeeZiD:

Jörg hat geschrieben:
Fuer 95 Minuten Film dauert das ganze gut 10 Stunden auf meinem Rechner mit einem Intel 8700K und 32GB RAM. ich denke, du solltest auf eine nVidia umsteigen.
Ab der 10er habe ich Renderzeiten von unter RT angesagt bekommen...
Kann sowohl in Resolve als auch in Handbrake NVENC (1080 Ti) auswaehlen.
Qualitativ absolut unterirdisch, aber immerhin schnell ist es...

Ich lass X265 ueber Nacht laufen und gut ist. Der Output ist einfach um Welten besser.
4K DCI sieht selbst bei nur 7 Mbit noch klasse aus.

Space


Antwort von MK:

dienstag_01 hat geschrieben:
Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.
Im Media Encoder gibt es schon seit Ewigkeiten unter dem Hauptfenster wo die Jobs drin liegen ein Dropdown-Menü mit zwei Einträgen (auf einem System ohne Quicksync aber mit Nvidia-Grafikkarte):

Mercury Playback Engine - Nur Software
Mercury Playback Engine - GPU-Beschleunigung (CUDA)

Selbiges bei Premiere wenn man ein neues Projekt anlegt.

Ob das bei anderer Hardwareausstattung variiert (Quicksync) vermag ich nicht zu sagen...

Space


Antwort von dienstag_01:

MK hat geschrieben:
dienstag_01 hat geschrieben:
Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.
Im Media Encoder gibt es schon seit Ewigkeiten unter dem Hauptfenster wo die Jobs drin liegen ein Dropdown-Menü mit zwei Einträgen (auf einem System ohne Quicksync aber mit Nvidia-Grafikkarte):

Mercury Playback Engine - Nur Software
Mercury Playback Engine - GPU-Beschleunigung (CUDA)

Selbiges bei Premiere wenn man ein neues Projekt anlegt.

Ob das bei anderer Hardwareausstattung variiert (Quicksync) vermag ich nicht zu sagen...
Ja, gibt's, hat aber eben nichts mit dem Encoding zu tun. Damit werden die Cuda-fähigen Effekte berechnet.

Space


Antwort von MK:

dienstag_01 hat geschrieben:
Ja, gibt's, hat aber eben nichts mit dem Encoding zu tun. Damit werden die Cuda-fähigen Effekte berechnet.
Klar werden die hardwarebeschleunigten Codecs wie H.264 da auch über die Grafikkarte berechnet... in Premiere fehlt beim AME-Exportdialog das Dropdown-Menü, aber es wird die Projekteinstellung übernommen. Im AME direkt lässt es sich einstellen. Dass dem so ist lässt sich einfach über die Encodingzeiten nachvollziehen...

Space


Antwort von Jost:

DeeZiD hat geschrieben:
Wenn ich als DNXHR HQX rausgehe und mithilfe von Handbrake per X265 10 Bit H265-Videodateien erstelle, sehen diese bei gleicher Dateigroesse um Welten besser aus.
Handbrake ist dafür das falsche Programm. Es lässt unter NVEnc momentan noch nicht die Zugriffe zu, die Nvidia selbst anbietet.
Du kannst zum Beispiel nicht wählen, ob Du im Modus "Performance" oder "Quality" ausrendern möchtest.
Die weitere Limitierung ist: kein 4:2:2.

Unter Hybrid sieht es dann schon anders aus. Dort wird Dir NVEnc in zweifacher Form angeboten.
Einmal nach dem Muster "Nvidia NVEnc"
Und: "NVEnc (FFmpeg)"

zum Bild


FFmpeg und Libav sind wie Blackmagic Entwicklungspartner von Nvidia.

Öffnest Du "NVEnc (FFmpeg)" siehst Du das:

zum Bild


Sollte Dir bestens bekannt sein.
Die Nvidia-Limitierung, dass kein 4:2:2 funktioniert, ist aufgehoben. Codec ist jetzt auch Libav-X.265. Nur dass jetzt nicht per langsamer CPU gerechnet wird, sondern von der schnellen Nvidia-Grafikkarte.

Geblieben ist freilich: keine B-Frame-Unterstützung. Wenn Du per MediaInfo eine NVEnc-Datei öffnest, heißt es bislang immer - B-Frame: 1
Normalerweise wird mit der Voreinstellung "3-B-Frames" ausgerendert. Kleinere Datei - bessere Qualität.
Das weiß man natürlich auch bei Nvidia.
Für die Turing-GPUs ist darum angekündigt:

zum Bild

Die Linux-Beta-Treiber dafür gibt es bereits, aber noch keine SDK, um die Goodies für Schnittprogramme verfügbar zu machen.
https://devtalk.nvidia.com/default/topi ... dec-sdk-9/

Space


Antwort von Jost:

MK hat geschrieben:
Klar werden die hardwarebeschleunigten Codecs wie H.264 da auch über die Grafikkarte berechnet... in Premiere fehlt beim AME-Exportdialog das Dropdown-Menü, aber es wird die Projekteinstellung übernommen. Im AME direkt lässt es sich einstellen. Dass dem so ist lässt sich einfach über die Encodingzeiten nachvollziehen...
Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.
https://www.golem.de/news/adobe-premier ... 34637.html

Bau einen AMD-Prozessor ein und dann ist Schluss mit lustig.

Space


Antwort von MK:

Jost hat geschrieben:
Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.
https://www.golem.de/news/adobe-premier ... 34637.html

Bau einen AMD-Prozessor ein und dann ist Schluss mit lustig.
Ich habe kein Quicksync, wie wird das dann bei mir beschleunigt? Durch die Heinzelmännchen?

Space



Space


Antwort von Jost:

MK hat geschrieben:
Jost hat geschrieben:
Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.
https://www.golem.de/news/adobe-premier ... 34637.html

Bau einen AMD-Prozessor ein und dann ist Schluss mit lustig.
Ich habe kein Quicksync, wie wird das dann bei mir beschleunigt? Durch die Heinzelmännchen?
Render einfach mal in 4h/H.265/10-Bit aus. Dann weiß Du, ob Du Hardware-Beschleunigung hast oder nicht.
Für FullHD und H.264 benötigt man keine Hardware-Beschleunigung.

Space


Antwort von MK:

Jost hat geschrieben:
Render einfach mal in 4h/H.265/10-Bit aus. Dann weiß Du, ob Du Hardware-Beschleunigung hast oder nicht.
Für FullHD und H.264 benötigt man keine Hardware-Beschleunigung.
Ich mache das ja nicht erst seit gestern... mit aktiviertem GPU-Rendering verringert sich die Zeit bei AVI unkomprimiert zu H.264 um ca. 1/3, und das ist für mich eine relevante Zeitersparnis.

Die Adobe Texte zu dem Thema sind mir auch bekannt und auch dass da nichts vom Beschleunigen des Encodings über die GPU mit CUDA drin steht. Ziemlich merkwürdig.

Space


Antwort von dienstag_01:

MK hat geschrieben:
Jost hat geschrieben:
Render einfach mal in 4h/H.265/10-Bit aus. Dann weiß Du, ob Du Hardware-Beschleunigung hast oder nicht.
Für FullHD und H.264 benötigt man keine Hardware-Beschleunigung.
Ich mache das ja nicht erst seit gestern... mit aktiviertem GPU-Rendering verringert sich die Zeit bei AVI unkomprimiert zu H.264 um ca. 1/3, und das ist für mich eine relevante Zeitersparnis.

Die Adobe Texte zu dem Thema sind mir auch bekannt und auch dass da nichts vom Beschleunigen des Encodings über die GPU mit CUDA drin steht. Ziemlich merkwürdig.
Wer weiss was das ist, aber dass es Encoding ist, wäre ich mehr als skeptisch ;)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


AMD Radeon VII - der DaVinci Resolve Afterburner
DaVinci Resolve 9 und ATI Radeon??
Apple HEVC H.265 mit Resolve Studio auf Windows
Resolve Studio 17.1 ist final: Support für Apple M1 und H.265 Hardware En- und Dekodierung
Resolve Studio 16 for free !
Resolve Studio Probleme mit der Stabilität
Von Resolve zu Resolve Studio?
Resolve 15 Studio - unbegrenzt Updates?
Installation von DaVinciResolve Studio 18
Re: Ab wann in DaVinci Resolve Studio investieren?
Ab wann in DaVinci Resolve Studio investieren?
DaVinci Resolve Studio 17 Public Beta 6
Apple Mac Pro: Neue Grafikkarten-Module mit bis zu 4 AMD Radeon Pro W6800X GPUs mit 128 GB VRAM
Macbook Pro 16 Zoll mit interessanter AMD GPU - Radeon Pro 5600M
AMD mit neuen Mittelklasse GPUs - Radeon RX 7700 XT und die RX 7800 XT
AMD liefert 7nm GPUs und CPUs aus: Radeon 5700(XT) und Ryzen 3xxx Serie
Günstige Video GPUs: AMD Radeon RX 5500 und Nvidia GeForce GTX 1660 SUPER
AMD XFX Radeon RX 5600 XT Grafikkarte - Durchschnittliche Mittelklasse
Neue Mittelklasse GPU von AMD - Radeon RX 6700XT
Radeon RX 7950 XTX und XT - AMD verrät versehentlich RTX 4090 Konkurrent
AMD Radeon RX 7900 GRE
Zwei neue günstige Workstation-Grafikkarten von AMD - Radeon PRO W7600 und W7500
Suche Low Budget Rechner für DaVinci Resolve 15 - 16
Sony RX100 VII mit Mikrofoneingang und Autofokusverbesserungen vorgestellt
Jetzt offiziell: Sony Xperia PRO-I mit RX100 VII Sensor, 4K120p und Micro-SDXC
KI-beschleunigte Effekte in DaVinci Resolve 18.6 mit AMD Grafikkarten




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash