Test Der Preis der zusätzlichen Leistung - Zwei und mehr GPUs unter DaVinci Resolve

Der Preis der zusätzlichen Leistung - Zwei und mehr GPUs unter DaVinci Resolve

Viel bringt bekanntlich viel. Doch gilt das auch uneingeschränkt für den Betrieb von mehreren Grafikkarten unter Blackmagics DaVinci Resolve? Wir haben es mal wieder ausprobiert...

// 09:58 Mo, 5. Aug 2019von

Nachdem sich in unserer Redaktion wieder einmal für kurze Zeit sehr viele Grafikkarten befanden, wollten wir uns wieder einmal den Spaß nicht nehmen lassen, Dual-GPU Setups auszuprobieren. Auch wenn diese zwischen unterschiedlichen Chipsatz-Familien nicht offiziell empfohlen werden. Dennoch: Sowohl mit AMD als auch mit Nvidia funktioniert es grundsätzlich. Für unsere Erkenntnisse konnten wir einmal die RTX 2080Ti mit der GTX 1080Ti und einmal die AMD Radeon VII mit einer Vega 56 testen.



Die Frage nach einer Dual GPU-Lösung ist insofern interessant, weil man in Resolve durch zusätzliche GPUs die Rechenleistung auf dem Papier nahezu verdoppeln kann. Im optimalen Fall und bei sehr speziellen Effekten können zwei identische Karten dabei auch wirklich fast doppelt so schnell rechnen. In der Praxis gibt es jedoch einige "Problemchen", die den Einsatz mehrerer GPUs in unseren Augen nur in den wenigsten Fällen empfehlenswert machen.





Hoher Platz- und Strombedarf

Hat man zwei Karten verbaut, so steigert sich nicht nur die Rechenleistung in einigen Disziplinen. Auch der Lärm der Lüfter und das Spulenrasseln nehmen drastisch zu. In den Werkseinstellungen heulen leistungsfähige Karten schon bei kurzer Belastung sehr schnell auf. Das Netzteil spielt deswegen eine wichtige Rolle: Auch wenn die Gesamtlast unseres Testsystems im optimierten Zustand laut Powermeter niemals 650 W überschritt, sind kurzfristige Spitzenpegel ein Problem: Nachdem wir die GPUs nur mit jeweils einem Powerstrang aus unserem 1000W LEPA MaxBron versorgt hatten, kam es unter hoher Belastung immer wieder zu kompletten Abstürzen des Systems. Diese verschwanden jedoch vollständig, als wir jeder Karte noch Energie aus einem dritten Strang zuführten. Es reicht also nicht, das Netzteil nach der TDP der Karten auszuwählen, sondern man sollte noch gehörig Spiel nach oben einplanen. Das gilt umsomehr für die Nutzung von noch mehr Karten.



Der Preis der zusätzlichen Leistung - Zwei und mehr GPUs unter DaVinci Resolve : MultiGPU


Resolve unterstützt in der aktuellen Version bis zu 8 GPUs. Einen Ausbau auf mehr als vier Karten behindert jedoch in der Regel das Mainboard mit entsprechenden freien Steckplätzen. Für eine Mehrfachbestückung dürfen die Karten dabei höchstens als Dual-Slot Design vorliegen, damit sie überhaupt mechanisch nebeneinander passen. Ist das Gehäuse breiter blockiert es mit seinem Lüfter-Überbau fast immer den nächsten schnellen PCIe-Slot.



Und auch die Lüfter selbst müssen möglichst so ausgelegt sein, dass sie ihre kühle Luft nicht von der Seite beziehen. Denn zwischen den Karten gibt es bei mehreren dicht gesteckten GPUs in der Workstation keine "frische Luft" zu holen. Bei Multi-GPU-Systemen ist die Kühlung daher ebenfalls eine zentrale Design-Frage des gesamten Systems. Jedes System mit mehr als zwei starken GPUs kommt daher um eine explizite Planung der Kühlung praktisch kaum herum.






Alte GPUs mit nutzen?

Wie schon erwähnt müssen die eingebauten GPUs nicht zwingend aus der gleichen Serie stammen, jedoch sollten (und können unter Windows) Hersteller (also AMD oder Nvidia) nicht unter Resolve gemixt werden. Dennoch darf man auf die Idee kommen eine alte GPU des gleichen Herstellers nach einer Neuanschaffung weiter zu nutzen, um die Systemleistung zu erhöhen. Das klappt auch tatsächlich, hat jedoch ein paar praktische Haken:



Wenn die Karten nicht eine identische Speicherausstattung besitzen, kann Resolve nur maximal die Speichermenge der kleinsten Karte im System ansprechen bzw. nutzen. Hat eine Neuanschaffung mehr RAM, so schneidet man dieses im dualen Betrieb virtuell von der Nutzung unter Resolve ab.



Der Hinweis, dass man für DaVinci eine eigene Grafikkarte zur Oberflächendarstellung nutzen kann ist nach unserer Erfahrung kaum noch relevant. Eine zusätzliche dedizierte GUI-GPU beschleunigt durch freie Ressourcen auf der Haupt-GPU die Effekte -wenn überhaupt- kaum spürbar und ist den zusätzlichen Hardwareplatz nicht wert. Meist gibt es sogar einen Geschwindigkeitseinbruch, weil der gerenderte Output noch einmal komplett über den Systemspeicher zur zweiten GPU verschoben werden muss. Die nötige Rechenleistung für die GUI ist bei modernen GPUs dagegen fast immer vernachlässigbar. Relevante Mehrleistung gibt es daher nur durch den Voll-Ausbau der freien PCI-Slots mit möglichst potenten Karten, von denen dann eine das GUI darstellt UND auch noch mitrechnet.




Was bringts?

Noch einmal vorneweg: Grundsätzlich kann Resolve seine Leistung am effektivsten verteilen, wenn es identische GPUs mit gleich viel und gleich schnellem RAM vorfindet. Und wenn diese am besten auch aus der gleichen Prozessorserie stammen. Kurz gesagt, wenn es sich um gleiche Karten handelt. Einen solches Setup hatten wir beispielsweise eine Weile mit zwei AMD Vega 56 GPUs im Einsatz.



Für die aktuellen Betrachtungen hatten wir eine eine RTX 2080 Ti mit einer GTX 1080 Ti im Verbund. Und einmal eine Radeon VII mit einer Vega 56:



Desktop 8K, Resolve 16 Beta 4 (032)
Modelle50 Curved CC NodesMotion BlurBlur im Glossar erklärtBetter,Large,30.0Spatial NR,small,50,50Spatial NR,small,100,100Temp NR 1 Faster Small 50 50 50Temp NR 2 better large 50 50 50

RTX 2080Ti + GTX 1080Ti (aus Resolve 15.3)

2418,5246,5249,5

Radeon VII + Vega 56

161617,56248,5
Einzel Performance

RTX 2080 Ti

17

15

226,52011

Radeon VII

11,51714,542413,5

GTX 1080 Ti

11,510,512,53,514,58

Vega 56

(HBM 1055 MHz)

8,51111,5315,57,5


Alle Benchmarks gemessen mit der Beta Version 16 von DaVinci Resolve Studio. Alle Werte stellen die Wiedergabe in fps dar und wurden ohne aktive Scopes sowie ohne eine aktive Vorschaukarte ermittelt.



Wie man sieht, gewinnt in unserem neuen 8K Projekt vor allem das Stacking von Farbkorrektur-Nodes sowie die spatiale Noise Reduction durch eine weitere Karte. Die Zugewinne bei der Temporalen Noise Reduction sind jedoch eher bescheiden, teilweise sogar negativ. Doch warum werden einige Effekte durch eine zweite GPU sogar langsamer?



Eine Erklärung hierfür dürfte sich in der PCI Übertragung finden lassen: Die Kommunikation zwischen den GPUs verschlingt in so einem Fall mehr Performance, als die Aufteilung auf zwei GPUs bringt. Verbesserung könnte hier in Zukunft eine schnellere Verbindung wie das kommende PCIe 4.0-Interface bringen. Und auch AMDs Infinity Fabric Link, das unter anderem in den neuen Mac Pros zum Einsatz kommen wird, sollte hier messbare Vorteile bringen.



Grundsätzlich profitieren vor allem Effekte von mehreren GPUs, die keine benachbarten Frames zur Berechnung erfordern. Viele (meist externe) OpenFX PlugIns sind dagegen nach wie vor auf eine GPU ausgelegt und lassen zusätzliche Grafikkarten unberührt links liegen.





Erhöhte GUI-Latenz

Bei diesem Testaufbau nahm zudem die die Latenz des Interfaces durch eine zweite Karte zu. Einstellungen an Parametern werden also immer erst mit einer leichten Verzögerung sichtbar. In unserem Setup potenzierte sich zudem bei AMD noch einmal das im Test erwähnte Cache Problem, weshalb die Arbeit hiermit wirklich zu einer zähen Angelegenheit wurde. Doch auch unter Nvidia verliert man mit einer weiteren GPU etwas von der unmittelbaren Interface-Snappiness. Allerdings muss man auch erwähnen, dass dieser Verlust bei früheren Tests noch deutlich stärker ausfiel, als im aktuellen Setup. Vielleicht verliert sich diese Latenz ja mit kommenden Versionen.





Fazit

Für uns ist jedoch das Thema Dual GPU wieder bis auf weiteres gegessen. Denn der Aufwand für den zusätzlichen Strom- und Kühlbedarf lässt sich nur in wenigen Effekten wirklich gewinnbringend nutzen. Dennoch bleibt die Technologie natürlich interessant. Und wenn Rechner und Netzteil mitspielen, können zwei oder drei günstige GPUs tatsächlich auch in speziellen Workflows mehr Leistung auf den Desktop zaubern, als eine Hochleistungskarte. Wenn die Latenz weiter abnimmt und die Applikationsunterstützung weiter zunimmt, ist dies vielleicht in Zukunft noch einmal eine Betrachtung wert.



Man sollte jedoch auch nicht aus den Augen verlieren, dass wir hier 8K-Projekte vermessen und die GPU Leistung für 4K-Projekte in der Regel schon von einem einzigen Spitzenmodell der letzten Generation gut gestemmt werden kann. Dazu bringt in den meisten Projekten ein gut konfigurierter Rendercache und ein darauf abgestimmter Workflow in der Regel weitaus mehr als übertrieben hoch getunte GPU-Leistung.



Ähnliche Artikel //
Umfrage
    Welche Streaming-Dienste nutzt Du?













    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash