Nachdem uns AMDs Auftritt mit der neuen GPU-Serie grundsätzlich nicht schlecht gefallen hat, jedoch von einigen Stolper-Hürden begleitet wurde, gingen wir eigentlich davon aus, dass der Test der neuen GTX 1070 ohne große Überraschungen über die Bühne gehen würde. Doch Karte aus der neuen Nvidia Pascal-Serie breitete uns ebenfalls ein paar Probleme und Kopfzerbrechen…
Warum 8GB RAM?
Für unseren Test stand uns eine Gainward GeForce GTX 1070, 8GB GDDR5 zur Verfügung, die nicht dem Referenzdesign (Founders Edition) von Nvidia entspricht. Sie gehört aktuell zu den günstigsten 1070-Karten (ab ca. 420 Euro).
Selbst die allerbilligsten 1070-Karten kosten aktuell (September 2016) kaum weniger als 400 Euro. Unter dieser Preisgrenze erhält man von Nvidia keine Grafikkarte mit 8 GB Speicher. Bei AMD gibt es dagegen schon 8GB-Karten für 240 Euro (RX470). Wir betonen dies deswegen, weil Resolve in seinem aktuellen Configuration Guide die GPU-Speicheranforderungen weiter erhöht hat:
"For Processing UHD or 4K-DCI images we recommend 8GB or more of GPU memory (RAM). For some operations 4GB will be sufficient, 2 GB is not recommended".
Wir sprachen auch auf der Photokina mit Peter Chamberlain, dem Product Manager von Resolve, der ebenfalls betonte, dass mehr GPU-RAM für die kommenden Resolve Versionen immer wichtiger werden wird, da die Zahl der integrierten GPU-Effekte immer weiter zunimmt. Mindestens 8GB seien somit für 4K-Bearbeitung unter Resolve definitiv empfehlenswert.
Einbau, Installation und Eindrücke
Nach dem Einbau der Karte funktionierte erst einmal alles wie gehabt. Die Treiber-Installation läuft absolut problemlos und die Karte ist bei wenig Last praktisch unhörbar. Auch unter Volllast bleibt die Karte noch relativ leise, auch wenn die Lüfter dann schon hörbar auf sich aufmerksam machen. Sowohl das Spulenrasseln als auch die Lüfterrauschen waren bei unserer RX480 AMD-Karte unter Vollast jedoch weitaus deutlicher zu vernehmen.
Bei den ersten Messungen unter CUDA fingen die “Seltsamkeiten” jedoch an. So konnte die Karte zwar bis zu 18 Nodes in unserem Test stapeln, jedoch waren deutliche Mikroruckler in der Vorschau zu sehen. Diese waren teilweise auch noch bei 14 Nodes zu bemerken, obwohl Davinci eine ruckelfreie Wiedergabe mit der grünen Ampel signalisierte. Dies deutet wohl darauf hin, dass sich hier bei den CUDA-Treibern unter der Haube etwas verändert hat.
Dies bestätigte uns indirekt auch Peter Chamberlain, der zwar Nvidia nicht beim Namen nennen wollte, jedoch deutlich zu verstehen gab, dass Blackmagic an der internen Ansprache der GPUs nichts verändert hat, sondern “jemand anders”. Dies betrifft nicht nur die Mikroruckler unter Last, sondern ein größeres Phänomen, das uns seit einigen Resolve Versionen in der Redaktion schon länger beschäftigt. Und zwar die beliebige Kombination von Nvidia GPUs. War es früher problemlos möglich bei uns eine NVidia Quadro K5200 und eine GTX 770 zusammen zu betreiben, so will dies seit einiger Zeit nicht mehr richtig rund funktionieren. So hatten wir schon vor dem Einbau der neuen Grafikkarten gemerkt, dass sich die Karten-Performance nicht mehr wie früher addierte. Und auch das Zusammenspiel der K5200 mit der GTX 1070 ist aktuell kaum sinnvoll, obwohl beide Karten 8GB Speicher besitzen. Denn die zu erwartende, zusätzliche Performance zeigt sich schlicht nicht.
Fairerweise muss man vorweg schicken, dass Blackmagic schon immer empfohlen hat, nur identische Karten zu poolen, jedoch war es früher immer problemlos möglich ältere Karten mitrechnen zu lassen. In unserem aktuellen Test-Setup ist nun die Quadro K5200 zur reinen GUI-GPU verdammt, was kaum mehr Performance bringt und längerfristig unnötig viel Strom kostet. Ein parallel-Betrieb unter CUDA, bei dem die Quadro mitrechnet will dagegen nicht klappen. Dies funktioniert jedoch interessanterweise, wenn man die Open CL-Treiber von Nvidia nutzt, bringt jedoch unterm Strich selbst in Summe weniger Performance.
Das führt uns dann auch mal direkt zu unseren Messergebnissen: