Alte GPUs mit nutzen?
Wie schon erwähnt müssen die eingebauten GPUs nicht zwingend aus der gleichen Serie stammen, jedoch sollten (und können unter Windows) Hersteller (also AMD oder Nvidia) nicht unter Resolve gemixt werden. Dennoch darf man auf die Idee kommen eine alte GPU des gleichen Herstellers nach einer Neuanschaffung weiter zu nutzen, um die Systemleistung zu erhöhen. Das klappt auch tatsächlich, hat jedoch ein paar praktische Haken:
Wenn die Karten nicht eine identische Speicherausstattung besitzen, kann Resolve nur maximal die Speichermenge der kleinsten Karte im System ansprechen bzw. nutzen. Hat eine Neuanschaffung mehr RAM, so schneidet man dieses im dualen Betrieb virtuell von der Nutzung unter Resolve ab.
Der Hinweis, dass man für DaVinci eine eigene Grafikkarte zur Oberflächendarstellung nutzen kann ist nach unserer Erfahrung kaum noch relevant. Eine zusätzliche dedizierte GUI-GPU beschleunigt durch freie Ressourcen auf der Haupt-GPU die Effekte -wenn überhaupt- kaum spürbar und ist den zusätzlichen Hardwareplatz nicht wert. Meist gibt es sogar einen Geschwindigkeitseinbruch, weil der gerenderte Output noch einmal komplett über den Systemspeicher zur zweiten GPU verschoben werden muss. Die nötige Rechenleistung für die GUI ist bei modernen GPUs dagegen fast immer vernachlässigbar. Relevante Mehrleistung gibt es daher nur durch den Voll-Ausbau der freien PCI-Slots mit möglichst potenten Karten, von denen dann eine das GUI darstellt UND auch noch mitrechnet.
Was bringts?
Noch einmal vorneweg: Grundsätzlich kann Resolve seine Leistung am effektivsten verteilen, wenn es identische GPUs mit gleich viel und gleich schnellem RAM vorfindet. Und wenn diese am besten auch aus der gleichen Prozessorserie stammen. Kurz gesagt, wenn es sich um gleiche Karten handelt. Einen solches Setup hatten wir beispielsweise eine Weile mit zwei AMD Vega 56 GPUs im Einsatz.
Für die aktuellen Betrachtungen hatten wir eine eine RTX 2080 Ti mit einer GTX 1080 Ti im Verbund. Und einmal eine Radeon VII mit einer Vega 56:
Desktop 8K, Resolve 16 Beta 4 (032) | ||||||
Modelle | 50 Curved CC Nodes | Motion Blur![]() | Spatial NR,small,50,50 | Spatial NR,small,100,100 | Temp NR 1 Faster Small 50 50 50 | Temp NR 2 better large 50 50 50 |
---|---|---|---|---|---|---|
RTX 2080Ti + GTX 1080Ti (aus Resolve 15.3) | 24 | 18,5 | 24 | 6,5 | 24 | 9,5 |
Radeon VII + Vega 56 | 16 | 16 | 17,5 | 6 | 24 | 8,5 |
Einzel Performance | ||||||
RTX 2080 Ti | 17 | 15 | 22 | 6,5 | 20 | 11 |
Radeon VII | 11,5 | 17 | 14,5 | 4 | 24 | 13,5 |
GTX 1080 Ti | 11,5 | 10,5 | 12,5 | 3,5 | 14,5 | 8 |
Vega 56 (HBM 1055 MHz) | 8,5 | 11 | 11,5 | 3 | 15,5 | 7,5 |
Alle Benchmarks gemessen mit der Beta Version 16 von DaVinci Resolve Studio. Alle Werte stellen die Wiedergabe in fps dar und wurden ohne aktive Scopes sowie ohne eine aktive Vorschaukarte ermittelt.
Wie man sieht, gewinnt in unserem neuen 8K Projekt vor allem das Stacking von Farbkorrektur-Nodes sowie die spatiale Noise Reduction durch eine weitere Karte. Die Zugewinne bei der Temporalen Noise Reduction sind jedoch eher bescheiden, teilweise sogar negativ. Doch warum werden einige Effekte durch eine zweite GPU sogar langsamer?
Eine Erklärung hierfür dürfte sich in der PCI Übertragung finden lassen: Die Kommunikation zwischen den GPUs verschlingt in so einem Fall mehr Performance, als die Aufteilung auf zwei GPUs bringt. Verbesserung könnte hier in Zukunft eine schnellere Verbindung wie das kommende PCIe 4.0-Interface bringen. Und auch AMDs Infinity Fabric Link, das unter anderem in den neuen Mac Pros zum Einsatz kommen wird, sollte hier messbare Vorteile bringen.
Grundsätzlich profitieren vor allem Effekte von mehreren GPUs, die keine benachbarten Frames zur Berechnung erfordern. Viele (meist externe) OpenFX PlugIns sind dagegen nach wie vor auf eine GPU ausgelegt und lassen zusätzliche Grafikkarten unberührt links liegen.