Logo Logo
/// 

Ein Rechner Davinci Resolve 15 Studio mit AMD Radeon VII



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten und mehr-Forum

Frage von myrteye:


Hallo in die Runde,
ich habe letztes Jahr schon mal wegen eines Rechners für DR 15 gefragt und viele sehr gute Anregungen bekommen. Daraufhin habe ich das ganze auf 2019 verschoben und habe mir jetzt dieses Paket bei Mindfactory zusammengestellt siehe Anhang. Was haltet ihr davon? Die Grafikkarte Radeon VII ist in dieser Zusammenstellung noch nicht mit drin, da sie erst morgen gelistet wird.
Beste Grüße
Martin
Myrt-Rechner.PNG



Antwort von dosaris:

das hängt auch vom OS ab:

zB gab's für meine vorgesehene AMD-GraKa RX5* keinen Treiber unter WIN-8,
ich hatte dann eine parallele Baureihe RX4* gewählt, dafür gibt's passende Treiber

Solltest Du also zuvor checken!

Für AMD-GraKa gibt es natürlich kein CUDA, aber Resolve kann ja auch OpenCL.

Du brauchst natürlich noch einen "richtigen" Kühler.
Die beiden SSDs sind wohl als Alternativ-Posten zu sehen?

Wenn dies Preise für einen fertig montierten PC mit Funktionsgarantie sind,
dann ist es wohl fast üblich.
Ansonsten sind einige Komponenten-Preise fast 50% höher als bei Alternate.



Antwort von Frank Glencairn:

RAM würde ich welches nehmen, das speziell für die Threadripper zertifiziert ist, wie G.Skill Flare X - wird natürlich mit andrem RAM auch irgendwie laufen, aber wenn dann irgendwelche diffuse, nicht reproduzierbare Probleme oder scheinbar zufällige Abstürze/Aufhänger auftreten macht dich das meschugge. Das isses nicht wert.

Finger weg von AMD Grafikkarten, wenn du mit Resolve arbeiten willst.

CPU Kühler auf jeden Fall einen Noctura, speziell für die Threadripper.





Antwort von DeeZiD:


Finger weg von AMD Grafikkarten, wenn du mit Resolve arbeiten willst.

Wieso?
https://www.pugetsystems.com/labs/artic ... ance-1238/

Falls die Vega VII von der Performance sich zwischen der RTX2080 und 2080 Ti aber mit 16GB Vram fuer nur 699 Euro einordnen sollte, sehe ich das Problem nicht?



Antwort von dosaris:


Falls die Vega VII von der Performance sich zwischen der RTX2080 und 2080 Ti aber mit 16GB Vram fuer nur 699 Euro einordnen sollte, sehe ich das Problem nicht?

Dir ist aber schon klar, dass Nvidia nicht von AMD kommt?

Wie schon dargestellt (Mi 06 Feb, 2019 13:58 ) spielen nicht alle Baureihen von AMD-GPUs mit allen
HW-/SW-Permutationen zusammen.

Es ist nicht allein ein Performance-Problem.

Meine AMD-GPU mag VpX wohl sehr gern (per OpenCL). Selbst SplitScreen mit 3 Quellen
und je mehreren Effekten/Filtern drauf läuft bei FHD im preview ruckelfrei ohne Proxy u
ohne prerendering. Aber mit Resolve zusammen ist das keine dicke Freundschaft, da humpelt's.
Es ist da eher ein Problem, dass Resolve die vorhandene HW-Leistung einiger AMD-GPUs nicht nutzt.
CPU u GPU langweilen sich dann manchmal mit den genannten Konsequenzen.

Vielleicht muss ich mich nochmals tiefer in die config knien.



Antwort von DeeZiD:



Falls die Vega VII von der Performance sich zwischen der RTX2080 und 2080 Ti aber mit 16GB Vram fuer nur 699 Euro einordnen sollte, sehe ich das Problem nicht?

Dir ist aber schon klar, dass Nvidia nicht von AMD kommt?

Wie schon dargestellt (Mi 06 Feb, 2019 13:58 ) spielen nicht alle Baureihen von AMD-GPUs mit allen
HW-/SW-Permutationen zusammen.

Es ist nicht allein ein Performance-Problem.

Meine AMD-GPU mag VpX wohl sehr gern (per OpenCL). Selbst SplitScreen mit 3 Quellen
und je mehreren Effekten/Filtern drauf läuft bei FHD im preview ruckelfrei ohne Proxy u
ohne prerendering. Aber mit Resolve zusammen ist das keine dicke Freundschaft, da humpelt's.
Es ist da eher ein Problem, dass Resolve die vorhandene HW-Leistung nicht nutzt.
CPU u GPU langweilen sich dann manchmal mit den genannten Konsequenzen.

Vielleicht muss ich mich nochmals tiefer in die config knien.

Soweit ich weiss, wird Windows 8 nicht mehr offiziell unterstuezt, wuerde da eher auf Unvertraeglichkeit mit dem OS tippen.

Habe Resolve Studio gar unter Linux schon mit einer Vega 64 performant laufen sehen (hier ebenfalls Linux, aber mit einer 1080Ti).
Unter Windows 10 laeuft auch die "billige" RX580 bei einem Kollegen bestens in Kombination mit einem aelteren 8-core Xeon.



Antwort von iasi:



Finger weg von AMD Grafikkarten, wenn du mit Resolve arbeiten willst.

CPU Kühler auf jeden Fall einen Noctura, speziell für die Threadripper.

Oha - da ist man also derart unflexibel mit Resolve?

Selbst ein anderer Kühler würde also Probleme bereiten. :)

Bitte nicht ganz so sehr pauschalieren.
Ich hab auch einen Rechner mit AMD-Grafikkarte - und damit läuft Resolve problemlos.

Für Red-Raw sollte es jedoch eine Karte von Nvidia sein, denn nur die bringt richtig Schwung in die Arbeit mit R3D.



Antwort von Jost:


Hallo in die Runde,
ich habe letztes Jahr schon mal wegen eines Rechners für DR 15 gefragt und viele sehr gute Anregungen bekommen. Daraufhin habe ich das ganze auf 2019 verschoben und habe mir jetzt dieses Paket bei Mindfactory zusammengestellt siehe Anhang. Was haltet ihr davon? Die Grafikkarte Radeon VII ist in dieser Zusammenstellung noch nicht mit drin, da sie erst morgen gelistet wird.
Beste Grüße
Martin
Myrt-Rechner.PNG

Falsches Ram. Für einen Ryzan wäre das vollkommen ok. Der Threadripper ist jedoch eine Quad-Channel-CPU. Es werden nicht 2, wie beim Ryzan, sondern 4 Ram-Riegel gleichzeitig angesprochen. Verbaust Du nur 2 Ram-Riegel, kastrierst Du den Threadripper in seiner Leistungsfähigkeit. PCGH spricht von etwa 20 Prozent.
Außerdem unterstützt der Threadripper von Haus aus nur 2666er Ram. Wird schnelleres Ram verbaut, wird über das XMG-Profil das Ram übertaktet. Man weiß immer nicht, ob die Billig-Mainboards das klaglos mitmachen.
Außerdem ist bei gleicher Takt-Geschwindigkeit Dual-Rank-Ram deutlich schneller als Single-Rank-Ram. Dein Ram ist Single-Rank. Der optische Unterschied ist: Bei Dual-Rank sind die Ram-Bausteine auf beiden Seiten der Platine verbaut, bei Single-Rank nur auf einer Seite.
Ich habe Dir hier mal eine Suchmatrix angelegt, um bei Geizhals eine Übersicht zu erhalten, welche Quad-Konfiguration mit Takt 2666 und Dual-Rank auf dem Markt ist:
https://geizhals.de/?cat=ramddr3&xf=101 ... ~5831_DIMM

Meiner Ansicht nach ist eine AMD-GPU ein völliger Fehlgriff. Nicht dass sie in der Bearbeitung irgendwelche Schwächen hätte. Die hat sie nicht. 16 GB Ram sind ein Wort. Ich habe mit meiner 980M aber noch nie mehr als 7GB gesehen.
Das Problem ist, dass Davinci nur zwei Möglichkeiten der Hardward-Beschleunigung für das Decodieren und Encodieren in H.265 anbietet.
Entweder über eine Intel-Grafikkarte, die zum Beispiel in einer 8700K-CPU verbaut ist.
Oder über eine Nvidia-Grafikkarte der Generation 10 und 20.
Du hättest beides nicht, wenn Du einen AMD-Prozessor und eine AMD-GPU verbaust. Das heißt in der Praxis: Davinci ermöglicht Dir kein Ausrendern in H.265.
Dadurch wird es zur Pflicht, in einem Zwischencodec aus Davinci auszurendern und dann mit einem Programm wie Handbrake oder Hybrid in X.265 zu wandeln. Nur diese Programme ermöglichen es, die CPU zum Wandeln in x.265 zu nutzen. Davinci ermöglicht es nicht.
Und das hat auch gute Gründe: Das Wandeln per CPU ist unglaublich rechenintensiv. PCGH hat auch das getestet: Wird mit dem Preset Apple UHD/H.265//10-Bit/60p in Handbrake gewandelt, kommt ein 1950x auf 5 Bilder die Sekunde. 30 Mal langsamer als Echtzeit. Kannst Du Dir ja ausrechnen, welche Zeit ein 3-Minuten-Clip benötigt.

Der ideale Workflow mit Davinci sieht so aus (wollte mir nämlich auch einen Rechner mit 1950x zusammenbauen):
Ausrendern im Zwischencodec wie DNxHR HQX. Rein damit in Hybrid und per Nvidia-Grafikkarte und FFmpeg in X.265 wandeln lassen. Das geht deutlich schneller als per 16-Kern-CPU. Und man kann sogar ganz normal die Qualität bestimmen. Auch 4:2:24:2:2 im Glossar erklärt geht.

Die Sache hat noch einen Pferdefuß: Nvidia kann noch keine B-Frames für H.264/5. Das kommt erst noch. Die Treiber für die Nvidia-GPUs der Generation 20 sind zwar schon auf dem Markt, aber es gibt noch keine SDK, um B-Frame-Unterstützung in Schnittprogrammen verfügbar zu machen. B-Frame-Unterstützung sorgt für kleinere Dateien bei besserer Qualität.

Kannst Dich hier mal in die Materie einlesen (Blackmagic ist übrigens Entwicklungspartner von Nvidia, steht da auch drin):
https://developer.nvidia.com/nvidia-video-codec-sdk

Am Ende habe ich das 1950x-Projekt komplett verworfen. Wäre teurer Quatsch geworden. Zu oft hätte ich mich vom günstigen Mainstream-Angebot entfernen müssen.

Mein Plan ist: Ich warte darauf, das Nvidia die neue SDK veröffentlicht und das in Hybrid oder Handbrake umgesetzt wird. Es ist unklar, ob Davinci den Zugriff auf B-Frame-Einstellungen erlauben wird. Eher nicht. Es wird nur ein Preset geben.
In den PC-Mittelpunkt stelle ich darum eine fette Nvidia der 20er Reihe. 2080 oder TI. Das Decodieren von H.264/5 macht die Nvidia mit Links. Weil ich erster Linie mit CDng 4,6K filme, wandele ich in DNxHR LT oder SQ als Optimized Media für den Schnitt um. Das macht aber schon ein 6700K richtig schnell. Mit einem 6- oder 8-Kerner wird das sogar überflüssig sein. Dafür benötigt man keinen 16-Kerner.
Anschließend geht es in Original-Auflösung vom Quell-Clip in DNxHR HQX aus Davinci raus und in Hybrid mit der Nvidia-Hardware-Beschleunigung und FFmpeg rein.
Der 1950x würde das Umrechnen in DNxHR zwar beschleunigen. Aber das macht den Kohl nicht richtig fett. Flaschenhälse unter Davinci sind heute nicht mehr die CPUs, sondern die GPUs. Davinci ist nicht Premiere, das neuerdings auch Intels Quicksync für das Ausrendern nutzt.
Egal, was Du von AMD einbaust, am Ende wird es unter Davinci immer schlechter laufen, als eine fette Nvidia der 20er Reihe.



Antwort von srone:

at jost

endlich einer der die pudget-tests komplett versteht und auch in unteren preisregionen umzusetzen vermag.

lg

srone



Antwort von Jost:


at jost

endlich einer der die pudget-tests komplett versteht und auch in unteren preisregionen umzusetzen vermag.

lg

srone

Richtig viel billiger wird es auch nicht. Die neue AMD-GPU wird nur den Preisdruck auf die 2080 verstärken. Die TI, stärkste Mainstream-Grafikkarte der Welt, wird kaum unter die 1000-Euro-Marke fallen.
Frank hat bei einer ähnlichen Diskussion angeführt, dass Davinci die Tensor-Cores - exklusiv bei Nvidia der 20er Reihe - schon nutzt.
Das ist der Ausfluss dessen, dass Blackmagic Entwicklungspartner von Nvidia ist.
Bin selbst AMD-Fan, habe sogar zwei Rechner mit AMD-CPUs, und die Preisgestaltung von Nvidia finde ich - gelinde gesagt - nicht gut.
Aber die Konkurrenz für Nvidia wird bei Video mittelfristig nicht mehr von AMD kommen, sondern im nächsten Jahr von Intel. Die GPUs werden QuickSync richtig aufbohren. Intel arbeitet mit VLC zusammen und das wird ermöglichen, X.265 von QuickSync aus zu beschleunigen.

Wie es zurzeit um AMD bestellt ist, kannst Du hier nachlesen:
https://handbrake.fr/docs/en/latest/tec ... o-vce.html



Antwort von Darth Schneider:

Warum ist das Zusammenstellen eines Rechners für dieses Gratisprogramm eigentlich so komplex ? Und warum gibt es tausend verschiedene Meinungen darüber ?
Das ganze ist schon etwas verwirrend für Leute die einfach überhaupt keinen Bock haben darauf sich mit Grafikkarten oder RAM Baustenen auseinandersetzen. Ich bin halt schon etwas verwöhnt von den Äpfeln.
Final Cut Pro X oder IMovie herunterladen, auf irgendeinem 4 bis 5 Jahre alten Mac installieren....und los schneiden, so geht das.
So sollte das doch auch mit Resolve sein....Wir leben doch im Jahr 2019.
Ich bin wirklich überhaupt kein Apple Nerd, aber das geht halt auch so einfach...
Da muss sich niemand eine Workstation bauen und es läuft ja dann ja auch ganz einfach wie Butter.
Ich würde mir auch sehr gerne mal einen PC kaufen, habe aber jetzt schon Angst davor, das falsche zu kaufen....Scheinbar gibt es da zu viele mögliche Fehlerquellen.
Gruss Boris



Antwort von Alf_300:

Ein AMD 2950X sollte es schon sein wenn der Rechner ein paar Jahre aushalten soll.



Antwort von iasi:


Warum ist das Zusammenstellen eines Rechners für dieses Gratisprogramm eigentlich so komplex ? Und warum gibt es tausend verschiedene Meinungen darüber ?

Weil jeder denkt, er muss etwas dazu sagen.

So komplex ist es doch gar nicht.
Ordentliche CPU, Grafikkarte mit reichlich Speicher, schnelle Drives fürs Datenschaufeln und eben noch genügend Arbeitsspeicher.
Gut - Red und Nvidia haben nun eine flotte R3D-Bearbeitung programmiert, aber ansonsten dürfte auch die Radeon VII mit ihren 16GB gute Dienste leisten.

Wer denkt, er müsse heute für die nächsten Jahre etwas zusammenstellen, der wacht morgen auf und ist enttäuscht, weil seine Zusammenstellung veraltet ist.



Antwort von Frank Glencairn:



Oha - da ist man also derart unflexibel mit Resolve?

Was heißt unflexibel? Nvidia wird halt besser unterstützt, warum soll man sich da ne künstliche Bremse einbauen?

Selbst ein anderer Kühler würde also Probleme bereiten. :)

Der Noctura kühlt den TR halt besser, als andere - wenn mich einer nach optimalen Komponenten fragt, bekommt er halt die entsprechende Antwort.

Ich hab auch einen Rechner mit AMD-Grafikkarte - und damit läuft Resolve problemlos.

Problemlos - ja sicher, aber nicht optimal performant, weil sie halt nicht alle Funktionen von Resolve unterstützt - wurde oben ja schon diskutiert.



Antwort von Frank Glencairn:



Soweit ich weiss, wird Windows 8 nicht mehr offiziell unterstuezt, wuerde da eher auf Unvertraeglichkeit mit dem OS tippen.

"nicht unterstützt" bedeutet nur, daß es nicht mehr auf Win8 und älter getestet wird.
Im richtigen Leben läuft Resolve hier auf Win7 und Win 8.1 nicht ganz wunderbar, und ohne irgendwelche Einschränkungen.



Antwort von Frank Glencairn:



Das ganze ist schon etwas verwirrend für Leute die einfach überhaupt keinen Bock haben darauf sich mit Grafikkarten oder RAM Baustenen auseinandersetzen. Ich bin halt schon etwas verwöhnt von den Äpfeln.
Final Cut Pro X oder IMovie herunterladen, auf irgendeinem 4 bis 5 Jahre alten Mac installieren....und los schneiden, so geht das.

In dem Moment, wo du Resolve benutzen willst, hilft dir dein verwöhnt sein auch nix mehr - da mußt du dich dann auch bei nem Apple Rechner mit solchen Sachen auseinander setzen.

Das Problem ist, daß du bei Apple keine Wahl hast, wenn du dir keinen Hackintosh bauen willst - sprich, performancemäßig bist du da halt gezwungen am unteren Ende der Fahnenstange rumzumachen, und kannst nicht mal was dagegen tun. Wenn dir das reicht, ist ja alles okay.

pic_disp.jpg



Antwort von iasi:



Was heißt unflexibel? Nvidia wird halt besser unterstützt, warum soll man sich da ne künstliche Bremse einbauen?

Problemlos - ja sicher, aber nicht optimal performant, weil sie halt nicht alle Funktionen von Resolve unterstützt - wurde oben ja schon diskutiert.

Die Rechenleistung der Radeon VII ist sicherlich ausreichend - der große Pluspunkt ist der schnell angebundene, große Speicher.

So schlecht schlägt sich ja schon die Vega 64 nicht. Die VII legt nochmal einige Schippen mit auf.

Es geht eben auch immer um das Preis-Leistungs-Verhältnis - auch im Profi-Bereich.
Sonst würden wohl alle Filme nur noch mit einer Alexa65 gedreht. :)



Antwort von iasi:



In dem Moment, wo du Resolve benutzen willst, hilft dir dein verwöhnt sein auch nix mehr - da mußt du dich dann auch bei nem Apple Rechner mit solchen Sachen auseinander setzen.

Das Problem ist, daß du bei Apple keine Wahl hast, wenn du dir keinen Hackintosh bauen willst - sprich, performancemäßig bist du da halt gezwungen am unteren Ende der Fahnenstange rumzumachen, und kannst nicht mal was dagegen tun. Wenn dir das reicht, ist ja alles okay.

Nun - BMD könnte auch einfach dafür sorgen, dass AMD-Grafikkarten besser unterstützt werden. Deren Potential ist nicht voll ausgeschöpft.

Es ist wie mit der Diskussion über die R3D-Beschleunigung bei Nvidia-Karten. Red muss sich von den Apple-Usern eben auch die Frage gefallen lassen, weshalb nur Nvidia-Karten unterstützt werden.
Die Schuld auf Apple zu schieben, ist schon frech:
Windows only as Apple has ( for now ) decided not to support Nvidia on it's current OS.
Denn: ...we are doing with NVIDIA for GPU decoding ...
http://www.reduser.net/forum/showthread ... ish)-Build

Letztlich werden Red und BMD nicht drum herum kommen, auch AMD-Hardware besser auszureizen, denn Apple ist eine andere Nummer und wird sich nicht bewegen.



Antwort von Frank Glencairn:

Für manche ist das H264/65 De/Encoding ein riesen Thema, da geht mit AMD halt garnix.
Außerdem macht Resolve immer mehr von den Tensor Cores Gebrauch, auch da ist bei AMD Fehlanzeige.

Muß halt jeder selbst wissen was ihm wichtig ist.
Da ich in Resolve zu über 90% mit raw Material (RED/Arri/BM) rein gehe, und am Ende ein unkomprimiertes Master rausrendere, spielt für mich H264/65 quasi kaum ne Rolle, bestenfalls wenn ich mal irgendwelches Drohnenmaterial bekomme, wobei selbst das mittlerweile immer öfter DNG ist.

Da hat halt jeder so seine eigenen Anforderungen - deshalb kann man eben auch keine Pauschalantwort geben, wenn es um "die Optimale Resolve Maschine" geht. Hängt immer von Budget, Material, Workflow und persönlichen Präferenzen ab.

Es ist wie mit der Diskussion über die R3D-Beschleunigung bei Nvidia-Karten. Red muss sich von den Apple-Usern eben auch die Frage gefallen lassen, weshalb nur Nvidia-Karten unterstützt werden.

Aktuell hab ich eher den Eindruck, daß sich Apple von Apple-Usern die Frage gefallen lassen muß, warum Nvidia nicht unterstützt wird :D



Antwort von iasi:


Für manche ist das H264/65 De/Encoding ein riesen Thema, da geht mit AMD halt garnix.
Außerdem macht Resolve immer mehr von den Tensor Cores Gebrauch, auch da ist bei AMD Fehlanzeige.

Nur schlummert in einer AMD-Karte eben wohl weit mehr Potential als in einer Nvidia:

https://www.heise.de/forum/heise-online ... 1759/show/

BMD muss sich eben auch ein wenig bewegen, sonst werden u.a. die Apple-User ihren Unmut gegen die Programmierer richten.

Letztlich wird auch die BMD-Programmierer bei den kommenden Updates mit Leistungssteigerungen durch Ausreizung der AMD-Karten punkten wollen.



Antwort von iasi:



Es ist wie mit der Diskussion über die R3D-Beschleunigung bei Nvidia-Karten. Red muss sich von den Apple-Usern eben auch die Frage gefallen lassen, weshalb nur Nvidia-Karten unterstützt werden.

Aktuell hab ich eher den Eindruck, daß sich Apple von Apple-Usern die Frage gefallen lassen muß, warum Nvidia nicht unterstützt wird :D

Ja - noch ist das so. Aber es gibt schon erste Stimmen, die fragen, warum alle, die nicht Nvidia-Karten nutzen, von Red ausgeschlossen werden.



Antwort von Frank Glencairn:

Ich versteh zuwenig vom Programmieren um das beantworten zu können.
Allerdings gehe ich davon aus, daß man sich bei RED beide Systeme genau angeschaut hat, und sich dann aus gutem Grund für Nvidia entschieden hat - und das obwohl RED-User, zum größten Teil auch Apple User sein dürften.



Antwort von Jost:



Letztlich werden Red und BMD nicht drum herum kommen, auch AMD-Hardware besser auszureizen, denn Apple ist eine andere Nummer und wird sich nicht bewegen.

Du hast es noch nicht kapiert: Es gibt momentan nur zwei funktionierende Verfahren in Schnittprogrammen, um das De- und Encoding per Hardware zu beschleunigen.
Weil Apple keine Nvidias verbaut, gibt es von dieser Seite keine Unterstützung. Stattdessen setzt Apple auf das zweite Verfahren - Intel QuickSync. Schließlich verbaut Apple nur Intel-Prozessoren.
Das Betriebssystem - ob Windows oder Apple - ist davon völlig unabhängig. Ist im Mac eine Intel-GPU verbaut, die zum Beispiel kein Encodieren in H.265 kann, gibt es auch unter Apple keine Hardware-Beschleunigung. Da flutscht dann auch nichts mehr.

BMD fährt zurzeit zweigleisig:
Seit Davinci 15.2, also seit November 2018, sind QuickSync und Nvidia unter Windows vollständig integriert:

Support for hardware accelerated encoding of H.264 and H.265 using specific NVIDIA GPUs on DaVinci Resolve Studio; Windows and Linux only
Support for hardware accelerated encoding of H.264 and H.265 using Intel Quick Sync on supported hardware on DaVinci Resolve Studio; Windows only

Andererseits wurde BRAW eingeführt, das von Nvidia, Intel und AMD Hardware-beschleunigt decodiert wird. Beim Encodieren in H.264/5 geht es dann aber nur mit Intel oder Nvidia weiter.

Warum um alles in der Welt sollte BM auf AMD setzen? Es gibt noch keine befriedigend funktionierende Lösung, um das Encodieren samt aller damit verbundenen Prozessen auf einer AMD-Grafikkarte zu beschleunigen.
https://handbrake.fr/docs/en/latest/tec ... o-vce.html

Das liegt auch nicht an BM. AMD muss eine SDK zur Verfügung stellen, die Entwickler anleitet, wie sie das De- und Encodieren unter AMD ins Schnittprogramm integrieren. Das machen Nvidia und Intel schließlich auch.
AMD macht es jedoch nicht. Warum um alles in der Welt sollte BM kostenlos die Entwicklungsarbeit von AMD übernehmen?
Und die Früchte der Arbeit, so es überhaupt Früchte gibt, mit der Davinci-kostenlos-Version unter das Volk bringen?



Antwort von dosaris:


Ich versteh zuwenig vom Programmieren um das beantworten zu können.
Allerdings gehe ich davon aus, daß man sich bei RED beide Systeme genau angeschaut hat, und sich dann aus gutem Grund für Nvidia entschieden hat - und das obwohl RED-User, zum größten Teil auch Apple User sein dürften.

ich hatte früher programmiert in Fortran, Algol, C, Pascal, PERL und div Assembler.
Aber dies hilft überhaupt nicht weiter, da die heutigen Programme so gut wie nicht
(nach außen) dokumentiert sind. Die werden einfach nur als Blackbox verkauft,
irgendwas ist da drin, irgendwas geht - oder auch nicht. Aber darüber hinaus
steht man völlig im Dunkeln. mE ist da Apple am schlimmsten, die adressieren aber eben auch
das untere IT-Qualifikations-Niveau. Deswegen lässt sich dort auch am meisten Profit abschöpfen.

Ich gehe daher aus jahrzehnte-langer Erfahrung in der Branche eher davon aus, dass die Entscheidung
für NVidia aus Marketing- oder Management-Gründen gefallen ist. Techn Gründe spielen eher eine
unter geordnete Rolle.

Aber auch dies ist von außen nie genau nachvollziehbar.



Antwort von Frank Glencairn:

Wenn die eigene (RED) Userbase weitgehend mit Apple arbeitet, welche "Marketing oder Management Gründe" könnten das denn sein?



Antwort von dosaris:


...
Das liegt auch nicht an BM. AMD muss eine SDK zur Verfügung stellen, die Entwickler anleitet, wie sie das De- und Encodieren unter AMD ins Schnittprogramm integrieren. Das machen Nvidia und Intel schließlich auch.
AMD macht es jedoch nicht.

da fehlt noch irgendwas:

die math. Funktionen der Computergrafik-Spiele und der cutter-/compositing-Programme sind intern
zum großen Teil identisch/ähnlich (bis auf h.26*-Codec). Und bei Computer-Spielen ist AMD mW garnicht
schlecht (ich spiele sowas selber nicht)!? Also müssen die ja irgendwas substantielles raus gegeben haben,
wenn sie die Spiele nicht selber schreiben (tun die aber wohl nicht?).

Wenn sie also nicht selber Anwendungsprogramme verkaufen wollen wird für deren GraKa-Absatz doch
ein evidentes Eigen-Interesse bestehen, die Schnittstellen offen zu legen?

Mit dem beigelegten AMD-CCC ist OpenCL includiert und mit Magix spielt das (zumindest hier)
problemlos zusammen.
Also wo klemmt's bei BM?

Ich gehe davon aus, dass die kostenlose Resolve-Version zum anfüttern für Schnitt-Controller-Absatz
und deren Cams dient. Das steckt also in deren Werbe-/Marketing-Etat.



Antwort von Frank Glencairn:

Anders herum. Resolve gabs zuerst, danach hat BM Kameras gebaut, mit deren Material man in Resolve auch wirklich was anfangen kann, bevor es auseinander fällt. Bei dir ist immer alles "Marketing" - technische Gründe kann und darf es in deiner Welt offensichtlich nicht geben.



Antwort von dosaris:


Bei dir ist immer alles "Marketing" - technische Gründe kann und darf es in deiner Welt offensichtlich nicht geben

im Gegentum:
als Ing. in diesem Bereich hätte ich sehr gern viel mehr technische Gründe als Entscheidungsbasis.
Leider zeigt die Realität, dass es oft nicht so ist.

Klassisches Beispiel 1. PC-Generation:
aus technisch völlig unerklärlichen Gründen setzte IBM (damals Marktführer bei PCs ) auf den 8088-proc
von Intel. Originalton B.Gates (Betriebssystem MSDOS-Lieferant für IBM):
no one will ever need more than 640KB RAM. (Marketing-Brüller!)
Gleichzeitig setzte APPLE auf den ebenfalls verfügbaren 68000 von Motorola, der mehr als eine
CPU-Generation weiter entwickelt war. Erst ab 80386 war INTEL wieder technisch zum 68000 aufgeschlossen.
Aber da war's für IBM-PCs schon fast zu spät.
IBM-PC: RIP!



Antwort von klusterdegenerierung:


Ich versteh zuwenig vom Programmieren um das beantworten zu können.
Allerdings gehe ich davon aus, daß man sich bei RED beide Systeme genau angeschaut hat, und sich dann aus gutem Grund für Nvidia entschieden hat - und das obwohl RED-User, zum größten Teil auch Apple User sein dürften.

Früher hat Apple ja auch noch auf Intel und Nvidia gesetzt, warum man das dran gegeben hat, verstehe ich bis Heute nicht, denn unteranderem konnte man damit auch seinen Vorsprung sichern.

Ich habs vor Jahren mal ne Zeit lang mit AMD versucht, nur Theater, ob Photoshop oder h264 und mögen die 3x preiswerter und potenter sein, mir kommts nicht mehr in die Hütte.



Antwort von Alf_300:

Früher als noch in Assembler programmiert wurde gabs öfter - Dieses Progranmm erfordert einen Intel-Prozessor.

Man soll aber nicht nachtragend sein;

Heutzutage gibts andere Unannehmlichkeiten

Win10
Internetzwang
Abo

;-((



Antwort von klusterdegenerierung:


Heutzutage gibts andere Unannehmlichkeiten

Win10
Internetzwang
Abo

Win10 nein
Internetzwang nein
Abo nein



Antwort von Jost:

Wir entfernen uns von der Ursprungsfrage: Ist es schlau, eine AMD-Grafikkarte zu verbauen, wenn man schon einen AMD-Prozessor hat?
Von der AMD-GPU kann man sagen: Tolle GPU in der Bearbeitung, 16 GB-Ram und auch noch superschnell angebunden.

Die andere Frage ist: Hilft mir eine AMD-GPU, wenn ich in X/H.265 ausrendern will?
Unter Davinci laute die klare Antwort: Nein!
Das geht nur mit Intel QuickSync oder mit Nvidia.
Mit AMD-CPU und -GPU hat man nur den einfachen Nutzen: In der Bearbeitung ist die AMD-GPU voll da, aber nicht beim Ausrendern. Unter Davinci gibt es mit AMD-CPU und AMD-GPU kein H.265.

Was im Grunde nicht schlimm ist. Wer an Qualität interessiert ist, rendert ohnehin nicht per Davinci aus. Stattdessen wird in einem Zwischencodec ausgerendert und per Handbrake/Hybrid und NVEnc/FFmpeg in X.265 ausgerendert.

Wer eine AMD-Grafikkarte verbaut, ist jedoch auf das Software-Encoding per CPU angewiesen. Was elend langsam ist. Selbst mit einem AMD-16-Kerner.

Die große Frage lautet nun: Geht Hardware-Beschleunigung für H.265 mit AMD-GPU überhaupt?
Ja, es geht:
zum Bild https://s16.directupload.net/images/190208/yyduv2b4.jpg

Welches Programm erlaubt mir den Zugriff auf die AMD-GPU-Hardware-Beschleunigung, um in H.265 zu wandeln?
So ein Programm gibt es tatsächlich. Es nennt sich Cyberlink MediaExpresso (~40 Euro).
Angesprochen werden vom aktuellen MediaExpresso 7.5 auf Seiten von AMD:
zum Bild https://s16.directupload.net/images/190207/cijllsl6.jpg

Gibt es einen Pferdefuß? JA!

MediaExpresso erlaubt nur den Import von:
zum Bild https://s16.directupload.net/images/190208/2f2x4okf.jpg
Heißt: Man muss unter Davinci nach der Bearbeitung in H.264/5 oder Derivate ausrendern, was Wandlungsverluste heißt und unter Davinci per AMD ohne Hardware-Beschleunigung erfolgt. H.265 geht ohnehin aus Davinci per AMD nicht.
Um dann am Ende erneut per AMD-Hardware-Beschleunigung in H.264/5 ausrendern zu können.

Das ist Quatsch und liegt daran, dass MediaExpresso keine Zwischencodecs aus Davinci akzeptiert.

Es bleibt dabei: Wer AMD/AMD verbaut, wählt in jedem Fall die schlechteste Kombination, die man unter Davinci nur wählen kann.

Was bei Davinci zurzeit bei Arbeiten unter CDng noch fehlt, ist die Möglichkeit, für Optimized Media H.264 auszuwählen und das per Hardware-Beschleunigung per Nvidia oder Quicksync umrechnen zu lassen. Das sollte deutlich schneller gehen, als per CPU in DNxHR LT zu wandeln.



Antwort von Frank Glencairn:



Das ist Quatsch und liegt daran, dass MediaExpresso keine Zwischencodecs aus Davinci akzeptiert.

Wieso? AVIAVI im Glossar erklärt steht doch auf der Liste.
Da Resolve ein unkomprimiertes AVIAVI im Glossar erklärt ausgeben kann, ist das ein gangbarer und verlustfreier Weg.
Die Master, mit denen ich in Handbrake rein gehe, sind immer unkomprimierte 10bit AVIAVI im Glossar erklärt aus Resolve.



Antwort von Frank Glencairn:



Was bei Davinci zurzeit bei Arbeiten unter CDng noch fehlt, ist die Möglichkeit, für Optimized Media H.264 auszuwählen und das per Hardware-Beschleunigung per Nvidia oder Quicksync umrechnen zu lassen. Das sollte deutlich schneller gehen, als per CPU in DNxHR LT zu wandeln.

CDNG läuft selbst auf schwachbrüstigen Rechnern wie Butter, warum sollte das jemand umwandeln wollen?



Antwort von iasi:

Ich hab"s zwar noch nicht bei Resolve getestet, aber bei Premiere gibt es sichtbare Unterschiede beim RendernRendern im Glossar erklärt zwischen GPU und reiner CPU.

BMD, Red usw. werden die AMD-Unterstützung sicherlich auch irgendwann nachschieben.

Das war mit CUDA zu Beginn auch nicht anders: Um die GPU-Power überhaupt das erste Mal nutzen nutzen zu können, musste es Nvidia sein. Und heute - oh Wunder: Es geht eben doch auch mit AMD und Intel.

Nun kommt eben noch dazu, dass das Schwergewicht Apple Nvidias proprietäre Lösung nicht möchte.



Antwort von Frank Glencairn:

Hab kürzlich ein H265 via Nvidia Unterstützung aus Resolve raus gerechnet.

Extrem schnell (ca 85 fps) und qualitativ nicht wirklich schlechter als das selbe Material aus Handbrake (nach dem hochladen, und nachdem YT nochmal drüber gewalzt ist, ist visuell kein Unterschied mehr sichtbar) - die DatenrateDatenrate im Glossar erklärt ist bei Handbrake (bei ungefähr gleicher Qualität) aber deutlich geringer.

Ich kann mir jetzt also aussuchen, ob ich lieber auf Handbrake warte, oder darauf daß der Clip mit höherer DatenrateDatenrate im Glossar erklärt aus Resolve hoch geladen wird.



Antwort von iasi:


... und nachdem YT nochmal drüber gewalzt ist ...

ja - YT bügelt alle Unterschiede glatt. :)



Antwort von MK:


Ich hab"s zwar noch nicht bei Resolve getestet, aber bei Premiere gibt es sichtbare Unterschiede beim RendernRendern im Glossar erklärt zwischen GPU und reiner CPU.

Weil der CPU-Codec nicht einfach über die Grafikkarte kodiert wird, sondern dafür der "fest" verdrahtete Encoder von Nvidia in der GPU verwendet wird.... also nicht der selbe Code. Würde der CPU-Code 1:1 auf CUDA umgemünzt, wäre das visuelle Ergebnis am Ende das Selbe wie bei der CPU, nur halt mit der Beschleunigung durch die GPU. Vermutlich wäre da die Performance etwas schlechter und Adobe müsste selbst mehr Arbeit investieren.



Antwort von dienstag_01:



Ich hab"s zwar noch nicht bei Resolve getestet, aber bei Premiere gibt es sichtbare Unterschiede beim RendernRendern im Glossar erklärt zwischen GPU und reiner CPU.

Weil der CPU-Codec nicht einfach über die Grafikkarte kodiert wird, sondern dafür der "fest" verdrahtete Encoder von Nvidia in der GPU verwendet wird.... also nicht der selbe Code. Würde der CPU-Code 1:1 auf CUDA umgemünzt, wäre das visuelle Ergebnis am Ende das Selbe wie bei der CPU, nur halt mit der Beschleunigung durch die GPU. Vermutlich wäre da die Performance etwas schlechter und Adobe müsste selbst mehr Arbeit investieren.

Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.

Prinzipiell verwendet man Hardware De-/Encoder vor allem wegen ihrer Effizienz (Geschwindigkeit), wenn es rein um Qualität geht sind flexible Anwendungen zielführender. Und die flexibelsten sind reine Softwareanwendungen ;)



Antwort von MK:


Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.

Falsch verstanden... Adobe müsste den eigenen CPU-Code auf CUDA portieren um ihn auf der Grafikkarte beschleunigt zu berechnen. Das Ergebnis wäre bei korrekter Portierung 1:1 mit der CPU-Kodierung identisch.

Die Frage ist nun ob Adobe den eigenen Code (bzw. eigentlich ist der Encoder sowieso von Mainconcept zugekauft) auf die GPU portiert, aber halt nicht 1:1 identisch, oder bei Grafikkarten mit z.B. fest verdrahtetem NVENC (wobei da noch die Frage ist ob das wirklich reine Hardware ist oder ob Nvidia da per Treiber Code nachrüsten kann), diesen nutzt und somit einen komplett anderen Encoder. Zumindest heißt der entsprechende Menüpunkt GPU-Beschleunigung (CUDA), wobei das nicht nur die GPU-unterstützten Codecs umfasst sondern dann auch Bildtransformationen über die GPU berechnet werden...



Antwort von Alf_300:

Bei Mainconcept gibts eine Tabelle, aus der ersichtlich ist,
welche Grafikkarte was unterstützt.

https://developer.nvidia.com/video-enco ... ort-matrix



Antwort von MK:


Bei Mainconcept gibts eine Tabelle, aus der ersichtlich ist,
welche Grafikkarte was unterstützt.

https://developer.nvidia.com/video-enco ... ort-matrix

Ja, als feste Encoder/Decodereinheit auf der Karte, aber natürlich könnte auch jeder beliebige CodecCodec im Glossar erklärt von den Softwareherstellern auf CUDA (oder auch Open CL, etc.) portiert werden sofern das geschwindigkeitsmäßig noch Vorteile bringt. Die verbauten Einheiten werden halt als "Schmankerl" mitgenommen weil sowieso vorhanden, für eigene Portierungen scheint der Aufwand zu groß zu sein.



Antwort von DeeZiD:

Also wenn NVENC hier das einzige Argument pro NVIDIA ist, kann ich mir deren Karten sparen.
Zumindest bei meiner 1080 Ti ist dieser unbrauchbar schlecht, man sieht jeden Interframe und Graining sowie low contrast-Texturen werden gnadenlos weggebuegelt.

Wenn ich als DNXHR HQX rausgehe und mithilfe von Handbrake per X265 10 BitBit im Glossar erklärt H265-Videodateien erstelle, sehen diese bei gleicher Dateigroesse um Welten besser aus.

Bin gespannt wie sich die 16GB Vram(welcher deutlich schneller als der meiner 1080 Ti ist) in Resolve auf 4K- oder gar 8K-Timelines machen werden, bei denen NeatVideo eingesetzt wird, was derzeit absolut grenzwertig ist und zumindest unter Windows 10 haeufig mit Abstuerzen (nach dem obligatoischen "GPU memory full") endet - unter Linux laeuft das ganze bisher deutlich stabiler und auch schneller.



Antwort von Jörg:

gelöscht_falscher Beitrag



Antwort von DeeZiD:


Wenn ich als DNXHR HQX rausgehe und mithilfe von Handbrake per X265 10 BitBit im Glossar erklärt H265-Videodateien erstelle, sehen diese bei gleicher Dateigroesse um Welten besser aus.

ich mache jetzt allererste Versuche mit Handbrake per X265 10 BitBit im Glossar erklärt H265, (Ausgangsbasis uncompressed aus Resolve),
schon die noch lange nicht aussagekräftigen Ergebnisse sind allerfeinst, selbst mit lächerlich kleinen bitraten.
Die Renderzeit ist allerdings bei den höheren bitraten astronomisch, das wird man feintunen müssen.
20 min FHD benötigen 1:30 h bei Encoder preset slow und Quality 7.

Kann mit X265 (10 bit Profil - wichtig!) 4K DCI 2.39 aspect ratio auf 7 Mbit ohne sichtbare ArtefakteArtefakte im Glossar erklärt runterrechnen. Graining und low-contrast Texturen bleiben auch zum grossen Teil erhalten. Bei der Bitrate produziert NVENC auch bei H265 nur Brei mit periodischem Flackern (keinerlei B-Frame-Support)

Fuer 95 Minuten Film dauert das ganze gut 10 Stunden auf meinem Rechner mit einem Intel 8700K und 32GB RAM.

Abends einschalten und frueh morgens ist die Datei fertig. So passt immerhin alles in mein 5GB max.-Fenster auf Vimeo Plus. ;)



Antwort von Jörg:

Fuer 95 Minuten Film dauert das ganze gut 10 Stunden auf meinem Rechner mit einem Intel 8700K und 32GB RAM.

ich denke, du solltest auf eine nVidia umsteigen.
Ab der 10er habe ich Renderzeiten von unter RT angesagt bekommen...



Antwort von dienstag_01:



Vermutlich liegst du falsch, weil das nichts mit CUDA zu tun hat, sondern mit Quicksync.

Falsch verstanden... Adobe müsste den eigenen CPU-Code auf CUDA portieren um ihn auf der Grafikkarte beschleunigt zu berechnen. Das Ergebnis wäre bei korrekter Portierung 1:1 mit der CPU-Kodierung identisch.

Die Frage ist nun ob Adobe den eigenen Code (bzw. eigentlich ist der Encoder sowieso von Mainconcept zugekauft) auf die GPU portiert, aber halt nicht 1:1 identisch, oder bei Grafikkarten mit z.B. fest verdrahtetem NVENC (wobei da noch die Frage ist ob das wirklich reine Hardware ist oder ob Nvidia da per Treiber Code nachrüsten kann), diesen nutzt und somit einen komplett anderen Encoder. Zumindest heißt der entsprechende Menüpunkt GPU-Beschleunigung (CUDA), wobei das nicht nur die GPU-unterstützten Codecs umfasst sondern dann auch Bildtransformationen über die GPU berechnet werden...

Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.



Antwort von DeeZiD:


Fuer 95 Minuten Film dauert das ganze gut 10 Stunden auf meinem Rechner mit einem Intel 8700K und 32GB RAM.

ich denke, du solltest auf eine nVidia umsteigen.
Ab der 10er habe ich Renderzeiten von unter RT angesagt bekommen...

Kann sowohl in Resolve als auch in Handbrake NVENC (1080 Ti) auswaehlen.
Qualitativ absolut unterirdisch, aber immerhin schnell ist es...

Ich lass X265 ueber Nacht laufen und gut ist. Der Output ist einfach um Welten besser.
4K DCI sieht selbst bei nur 7 Mbit noch klasse aus.



Antwort von MK:


Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.

Im Media Encoder gibt es schon seit Ewigkeiten unter dem Hauptfenster wo die Jobs drin liegen ein Dropdown-Menü mit zwei Einträgen (auf einem System ohne Quicksync aber mit Nvidia-Grafikkarte):

Mercury Playback Engine - Nur Software
Mercury Playback Engine - GPU-Beschleunigung (CUDA)

Selbiges bei Premiere wenn man ein neues Projekt anlegt.

Ob das bei anderer Hardwareausstattung variiert (Quicksync) vermag ich nicht zu sagen...



Antwort von dienstag_01:



Ich verstehe nicht, wieso du immer von CUDA im Zusammenhang mit dem Encoding sprichst. Heisst denn der entsprechende Menüpunkt in Premiere so? Wäre neu.

Im Media Encoder gibt es schon seit Ewigkeiten unter dem Hauptfenster wo die Jobs drin liegen ein Dropdown-Menü mit zwei Einträgen (auf einem System ohne Quicksync aber mit Nvidia-Grafikkarte):

Mercury Playback Engine - Nur Software
Mercury Playback Engine - GPU-Beschleunigung (CUDA)

Selbiges bei Premiere wenn man ein neues Projekt anlegt.

Ob das bei anderer Hardwareausstattung variiert (Quicksync) vermag ich nicht zu sagen...

Ja, gibt's, hat aber eben nichts mit dem Encoding zu tun. Damit werden die Cuda-fähigen Effekte berechnet.



Antwort von MK:


Ja, gibt's, hat aber eben nichts mit dem Encoding zu tun. Damit werden die Cuda-fähigen Effekte berechnet.

Klar werden die hardwarebeschleunigten Codecs wie H.264 da auch über die Grafikkarte berechnet... in Premiere fehlt beim AME-Exportdialog das Dropdown-Menü, aber es wird die Projekteinstellung übernommen. Im AME direkt lässt es sich einstellen. Dass dem so ist lässt sich einfach über die Encodingzeiten nachvollziehen...



Antwort von Jost:


Wenn ich als DNXHR HQX rausgehe und mithilfe von Handbrake per X265 10 BitBit im Glossar erklärt H265-Videodateien erstelle, sehen diese bei gleicher Dateigroesse um Welten besser aus.

Handbrake ist dafür das falsche Programm. Es lässt unter NVEnc momentan noch nicht die Zugriffe zu, die Nvidia selbst anbietet.
Du kannst zum Beispiel nicht wählen, ob Du im Modus "Performance" oder "Quality" ausrendern möchtest.
Die weitere Limitierung ist: kein 4:2:2.

Unter Hybrid sieht es dann schon anders aus. Dort wird Dir NVEnc in zweifacher Form angeboten.
Einmal nach dem Muster "Nvidia NVEnc"
Und: "NVEnc (FFmpeg)"
zum Bild https://s16.directupload.net/images/190208/cgeuqn2f.jpg

FFmpeg und Libav sind wie Blackmagic Entwicklungspartner von Nvidia.

Öffnest Du "NVEnc (FFmpeg)" siehst Du das:
zum Bild https://s16.directupload.net/images/190208/lnm8cu7t.jpg

Sollte Dir bestens bekannt sein.
Die Nvidia-Limitierung, dass kein 4:2:24:2:2 im Glossar erklärt funktioniert, ist aufgehoben. CodecCodec im Glossar erklärt ist jetzt auch Libav-X.265. Nur dass jetzt nicht per langsamer CPU gerechnet wird, sondern von der schnellen Nvidia-Grafikkarte.

Geblieben ist freilich: keine B-Frame-Unterstützung. Wenn Du per MediaInfo eine NVEnc-Datei öffnest, heißt es bislang immer - B-Frame: 1
Normalerweise wird mit der Voreinstellung "3-B-Frames" ausgerendert. Kleinere Datei - bessere Qualität.
Das weiß man natürlich auch bei Nvidia.
Für die Turing-GPUs ist darum angekündigt:
zum Bild https://s16.directupload.net/images/190208/oqtgop4j.jpg
Die Linux-Beta-Treiber dafür gibt es bereits, aber noch keine SDK, um die Goodies für Schnittprogramme verfügbar zu machen.
https://devtalk.nvidia.com/default/topi ... dec-sdk-9/



Antwort von Jost:


Klar werden die hardwarebeschleunigten Codecs wie H.264 da auch über die Grafikkarte berechnet... in Premiere fehlt beim AME-Exportdialog das Dropdown-Menü, aber es wird die Projekteinstellung übernommen. Im AME direkt lässt es sich einstellen. Dass dem so ist lässt sich einfach über die Encodingzeiten nachvollziehen...

Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.
https://www.golem.de/news/adobe-premier ... 34637.html

Bau einen AMD-Prozessor ein und dann ist Schluss mit lustig.



Antwort von MK:


Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.
https://www.golem.de/news/adobe-premier ... 34637.html

Bau einen AMD-Prozessor ein und dann ist Schluss mit lustig.

Ich habe kein Quicksync, wie wird das dann bei mir beschleunigt? Durch die Heinzelmännchen?



Antwort von Jost:



Ja, aber erst seit Mitte 2018. Und auch nicht über AMD oder Nvidia, sondern über Intel QuickSync.
https://www.golem.de/news/adobe-premier ... 34637.html

Bau einen AMD-Prozessor ein und dann ist Schluss mit lustig.

Ich habe kein Quicksync, wie wird das dann bei mir beschleunigt? Durch die Heinzelmännchen?

Render einfach mal in 4h/H.265/10-Bit aus. Dann weiß Du, ob Du Hardware-Beschleunigung hast oder nicht.
Für FullHDFullHD im Glossar erklärt und H.264 benötigt man keine Hardware-Beschleunigung.



Antwort von MK:


Render einfach mal in 4h/H.265/10-Bit aus. Dann weiß Du, ob Du Hardware-Beschleunigung hast oder nicht.
Für FullHDFullHD im Glossar erklärt und H.264 benötigt man keine Hardware-Beschleunigung.

Ich mache das ja nicht erst seit gestern... mit aktiviertem GPU-Rendering verringert sich die Zeit bei AVIAVI im Glossar erklärt unkomprimiert zu H.264 um ca. 1/3, und das ist für mich eine relevante Zeitersparnis.

Die Adobe Texte zu dem Thema sind mir auch bekannt und auch dass da nichts vom Beschleunigen des Encodings über die GPU mit CUDA drin steht. Ziemlich merkwürdig.



Antwort von dienstag_01:



Render einfach mal in 4h/H.265/10-Bit aus. Dann weiß Du, ob Du Hardware-Beschleunigung hast oder nicht.
Für FullHDFullHD im Glossar erklärt und H.264 benötigt man keine Hardware-Beschleunigung.

Ich mache das ja nicht erst seit gestern... mit aktiviertem GPU-Rendering verringert sich die Zeit bei AVIAVI im Glossar erklärt unkomprimiert zu H.264 um ca. 1/3, und das ist für mich eine relevante Zeitersparnis.

Die Adobe Texte zu dem Thema sind mir auch bekannt und auch dass da nichts vom Beschleunigen des Encodings über die GPU mit CUDA drin steht. Ziemlich merkwürdig.

Wer weiss was das ist, aber dass es Encoding ist, wäre ich mehr als skeptisch ;)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten und mehr-Forum

Antworten zu ähnlichen Fragen:
AMD Radeon VII - der DaVinci Resolve Afterburner
Welcher Rechner für Blackmagic Davinci Resolve 15 Studio ?
AMD: Radeon Pro SSG mit 1TB PCIe-SSD und neue Radeon Pro WX GPUs
Auf Augenhöhe mit (Ti)tanen - AMD Vega 56 unter DaVinci Resolve 14
DaVinci Resolve (Studio) 12.2 und Fusion 8 Studio Beta sind da
AMDs Radeon VII Grafikkarte - Neuer Geheimtipp für Videobearbeitung?
Radeon R9 295X2 - AMD mit GPU-Kampfpreis?
Frame.io Integration jetzt auch mit DaVinci Resolve Studio, Kyno, Silverstack ua. via öffentlicher API // NAB 2019
AMD RX Vega 56 unter DaVinci Resolve - erste Messwerte
AMD oder NVidia GPU für Photoshop/DaVinci Resolve?
AMD bringt neue Radeon Pro Duo GPU mit 32 GB RAM // NAB 2017
Davinci Resolve 14 Studio kaufen
AMD Radeon Pro SSG Grafikkarte mit integrierter 2TB SSD für 7.000 Dollar
AMD bringt Dual Fury Radeon Pro Duo mit 16 TERAFLOPs für 1.500 Dollar
DaVinci Resolve 12.5 auf meinem Rechner kein Ton, auf anderen ja - was tun?
DaVinci Resolve 15 Studio Public-Beta 3 verfügbar
DaVinci Resolve Studio nur noch 499 Euro?
Blackmagic warnt vor gefälschten DaVinci Resolve Studio Dongles
Dell Precision 2-in-1 5530 Convertible Workstation mit Intel Kaby Lake-G und AMD Radeon Pro WX Vega M GL // IFA 2018
Messevideo: DaVinci Resolve 14: 10 x schneller? Free vs Studio-Version uvm ... // NAB 2017
Blackmagic DaVinci Resolve 14 bekommt noch ein Update
AMD zeigt Radeon RX 470 und RX 460
AMD Radeon Pro WX7100 - Polaris im Workstation-Gewand
Noch mehr Infos zur AMD Radeon R9 Nano
Kurznews: AMD senkt Preise für Radeon R9 290(x)
AMD RADEON R9 380X- Interessant für die Videobearbeitung?

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
22-23. Juni / Düsseldorf
24h To Take
27. Juni - 6. Juli / München
Filmfest München
11-14. Juli / Ludwigsburg
NaturVision Filmfestival
8-12. August / Weiterstadt
Open Air Filmfest Weiterstadt
alle Termine und Einreichfristen