Test Luxus oder Arbeitstier? Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super

Luxus oder Arbeitstier? Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super

Bei schnellen Videoeffekten stellt Nvidia in der Regel die Referenz unter PC-Grafikkarten dar. Allerdings konnte Apple in den letzten Jahren mit erstaunlich konkurrenzfähigen SoCs viele Videobearbeiter für seine Macs mit M-Prozessoren gewinnen.

// 09:57 Di, 14. Mai 2024von

Zugegeben, bei Nvidia spielt im Rampenlicht der künstlichen Intelligenz (KI) die beschleunigte Videobearbeitung aktuell nur eine marginale Nebenrolle. Doch nachdem sich KI jetzt auch unaufhaltsam in die Schnittprogramme einnistet, bleibt eine schnelle Grafikkarte (GPU) auch weiterhin die wichtigste Komponente in einem Rechner zur Videobearbeitung.



Zudem ist es sehr wahrscheinlich, dass in Zukunft kurze, aber rechenintensive KI-Effekt-Clips eher in der Cloud berechnet werden - Adobe hat diesen Weg gerade indirekt mit seiner Sora-, Runway- und Pika-Integration angedeutet. Dennoch dürfte für viele Effekte eine lokale, integrierte GPU bis auf weiteres noch die effizientere Workflow-Wahl bleiben.





Speicherflüsse ausgetrocknet, KI-Welle vor der Tür

Da Nvidias Rechenkerne mit jeder Generation immer leistungsfähiger wurden und AMD bei der Design-Rationalisierung mitzog, "verengte" sich zuletzt die Speicherbandbreite bei vielen Mittelklasse-GPUs von ursprünglich 256 auf 192 oder sogar nur noch 128 Bit. Da die Speicherchips jedoch in derselben Zeitspanne nicht doppelt so schnell wurden, besitzen heutige Mittelklasse- GPUs meist eine langsamere Speicherschnittstelle als ihre (Vor-)Vorgänger-Modelle. Dies ist insofern relevant, weil für viele GPU-basierte Video-Effekte der Speicherdurchsatz immer noch das Nadelöhr bei der Berechnung darstellt. Ältere GPUs mit mehr Speicherdurchsatz können darum einige Videoeffekte immer noch schneller berechnen, als preislich vergleichbare, aktuelle Modelle. Allerdings gilt auch umgekehrt: Je komplexer ein Video-Effekt ist, desto weniger trägt der Speicherdurchsatz zur Performance bei. Zu solch komplexen Effekten gehören beispielsweise eine spatiale Noise Reduction oder auch Deep-Learning KI-Modelle welche mit vielen KI-Schichten pixelübergreifend arbeiten.



Bei den am häufigsten eingesetzten "Brot-und Butter-Effekten" eines Schnittprogrammes wie Überblendungen oder Farbkorrektur müssen dagegen vor allem viele Daten verschoben und kaum intensive Berechnungen pro Pixel durchgeführt werden. Da gerade diese Effekte jedoch beim täglichen Schnitt besonders häufig genutzt werden, betrachten wir den Speicherdurchsatz dennoch als wichtiges Kaufkriterium für eine GPU. Erst wenn speicherdurchsatz-limitierte Effekte auch auf einem neuen Modell "schnell genug" berechnet werden können, lohnt sich in unseren Augen ein GPU-Upgrade. Vor allem, weil hiermit dann auch besagte KI-Effekte deutlich schneller ausgeführt werden können.



Mittlerweile sind die Hersteller dazu übergegangen, beliebte KI-Funktionen speziell auf die KI-Eigenschaften der GPUs zu optimieren. Derart speziell optimierte Funktionen (wie in Resolve z.B. Person Mask oder Depth Map) laufen aktuell auf Nvidia Karten ca. 2 -3 mal schneller als auf vergleichbaren AMD Modellen. Allerdings ändert sich der Optimierungs-Status noch im Monatsrhythmus, was einen vergleichenden Test über einen längeren Zeitraum bislang nicht sonderlich aussagekräftig machte. Zuletzt hat beispielsweise AMD sein Magic Mask Tracking optimiert und wieder auf Augenhöhe mit Nvidia gebracht. Und mit der gerade frisch vorgestellten Beta 19 von Resolve, dürften die Karten sowieso ein weiteres Mal neu gemischt werden.






Das Konkurrenzumfeld im Markt

Bei der Speicherfrage sehen wir 16GB GPU-Speicher aktuell als ein absolutes zukunftsfähiges Minimum. Dies ist nicht nur für einen 8K-Timeline ohne Speicherüberläufe angesagt. Auch kommende KI-Effekte werden sowieso garantiert unter chronischer Speicherarmurt leiden. Denn selbst für generative Standbilder in höheren Auflösungen als HD sind heute bereits 16GB äußerst knapp bemessen.



Um eine neue Grafikkarte mit 16 GB an einem 256 Bit Speicherinterface zu erwerben, muss man aktuell bei Intel mindestens 350 Euro (A770), bei AMD ca. 500 Euro (RX 7800 XT) und bei Nvidia ca. 850 Euro (RTX 4070 Ti SUPER) investieren (Stand Anfang Mai 2024). Wie man sieht, lässt sich Nvidia also eine ähnliche "technische Grundausstattung" weitaus teurer bezahlen als die Konkurrenz. Was natürlich die Frage aufwirft, inwieweit sich dieser Aufpreis dann auch für Videoanwendungen lohnt.



Wir haben für unseren Test von Nvidia eine GeForce RTX 4080 Super zur Verfügung gestellt bekommen, die mit ihren 16GB GDDR6X RAM an 256bit sogar einen Speicherdurchsatz von 736 GB/​s erzielen kann. Für aktuell ca. 1050 Euro stellt diese Karte (rein technisch gesehen) aktuell das zweitbeste Nvidia Modell dar - deutlich hinter einer RTX 4090, die jedoch auch preislich noch einmal in einer anderen Liga spielt (ab ca. 1750 Euro).



Üppig fallen nicht nur die Ausmaße der RTX 4080 Super aus
Üppig fallen nicht nur die Ausmaße der RTX 4080 Super aus




Gegenüber einer RTX 4070 Ti SUPER rechnet sie maximal 17 Prozent schneller (52.22 vs. 44.61 FP32-TFLOPS) und kann maximal 10 Prozent schneller auf ihren Speicher zugreifen (672 vs. 736GB/​s).


Die von uns kürzlich getestete AMD Radeon RX 7900 GRE rechnet zwar in einer ähnlichen Liga (46.96 FP32-TFLOPS) bindet ihre 16 GB Speicher jedoch rund 18 Prozent langsamer als eine RTX 4070 Ti SUPER an (576 GB/s vs. 672 GB/s). Und sogar rund 28 Prozent langsamer als die hier getestete RTX 4080 SUPER (576 vs. 736GB/​s). Mal sehen, ob sich diese Verhältnisse auch in unseren Messwerten wiederfinden lassen...





Blackmagic RAW Benchmark - Nvidia GeForce RTX 4080 Super

Betrachten wir hierfür zuerst einmal die nackten Werte im Blackmagic RAW Benchmark. Während AMDs RX 7900 in diesem Teil unseres Test-Parcours mit einem Treiber Problem zu kämpfen hatte, kommt die Nvidia RTX 4080 SUPER mit diesem Benchmark problemlos klar:



Luxus oder Arbeitstier? Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super : SpeedTest


In unserer lose geführten Vergleichstabelle fallen dabei drei Dinge besonders auf:



Die Nvidia RTX 4080 Super agiert hier "nur " genauso schnell wie eine Intel ARC 770 Karte. Das heißt, die 256 Bit Speicheranbindung scheint in diesem Test der limitierende Faktor zu sein. Ältere Nvidia-Karten mit 352/384 Bit Speicheranbindung lieferten hier seinerzeit deutlich bessere Ergebnisse.


Auch Apples Vorteil des Shared Memory ist in diesem Test deutlich sichtbar. Selbst ein M1 Pro Prozessor ist hier noch schneller als jede von uns getestete PC-GPU.


AMDs GPUs schlagen sich in Intel Macs oder Hackintosh-Modellen extrem gut. Offensichtlich gelingt es AMD/Blackmagic jedoch nicht, diese Performance unter Windows abzurufen.





Benchmarks in Resolve 8K - Nvidia GeForce RTX 4080 Super

Das führt uns auch schon in die Tiefen der einzelnen Test-Disziplinen unter Resolve. Und damit zu unserer Tabelle mit den aktuellen 8K-Testwerten:



Workstation 8K Benchmark, Resolve 17 /18
MODELL50 Curved CC Nodes 24pMotion Blur Better,Large,30.0Spatial NR, small, 50,50Spatial NR, large,100,100Temp NR 1 faster small 50 50 50Temp NR 2 better large 50 50 50

iPad Pro M2

8,53,52,50,55,52,5

iMac M3 24GB

6,53,55,751,54,52,5

MacBook  M1 Pro

11,563,5194,5

Lenovo Legion Y540 17IRH RTX 2060

487,52,510,54,5

Lenovo Yoga 9i mobile RTX 4070

7,258,513,25412,56,5

MSI Z17 RTX 3070 Ti

6,51115,54,515,58,5

Desktop Intel Arc 770

10,258,520,56,513,56,5

Desktop RTX 2080 Ti

10,513216,51710

MacBook Pro M1 Max 32GB (Messung 2023)

231221,56,25189,75

MacBook Pro 2023 M2 Max

2414,58,52,2520,511,5

MacBook Pro 2023 M3 Max 128GB

2413,25246,519,510,5

AMD RX 7900 GRE

12,7517,518,55,52414,5

Nvidia RTX 4080 Super (Desktop)

15,2522,25249,52416,5

Alle Benchmarks unter Version 17.4-/18.x von DaVinci Resolve Studio. Alle Spalten beschreiben die Wiedergabe in fps. Die Messungen wurden ohne aktive Scopes sowie ohne eine aktive Vorschaukarte ermittelt.



In diesen Tests setzt sich die RTX 4080 Super souverän vor alle anderen PC-GPU-Mitstreiter. Allerdings: Im einfachen Node Stacking gewinnt auch hier die Shared Memory Architektur der Macs deutlich.


In rechenintensiven Effekten, bei denen der Speicherdurchsatz in den Hintergrund tritt, lässt die Nvidia-Karte dagegen das MacBook Pro 2023 M3 Max 128GB sowie die AMD RX 7900 GRE deutlich hinter sich.







Sonstiges

Nvidias GPUs besitzen (wie auch AMDs GPUs) nach wie vor keine Hardwarebeschleunigung für das 10 Bit 4:2:2-Decoding. Da dieses Format gerade bei vielen DSLMs und fast allen (semi-)professionellen Kameras besonders gerne im Zusammenspiel mit Log genutzt wird, sorgen entsprechende Hardware-Decoder für eine besonders flüssige Wiedergabe auf der Timeline. Auf PCs mit AMD- oder Nvidia-Grafikkarten bleibt diese Aufgabe der CPU überlassen, was unnötige Last auf dem Prozessor erzeugt. Apple unterstützt dagegen die Hardware-Dekodierung vorbildlich und bietet so selbst auf leichtungsschwachen Systemen einen butterweichen Schnitt in der Resolve Timeline.



Was allerdings ebenso bemerkenswert ist, ist die ansonsten vorbildliche Integration von Nvidia Karten unter DaVinci Resolve. Während wir bei AMD- und Intel-GPUs immer wieder kleine Cache-Pausen während eines Raumwechsels oder nach einem Clip Import zu spüren bekamen, lief die Nvidia Karte unter Resolve einfach absolut problemlos.





Fazit

Uns ist klar, dass man mittlerweile unter Resolve noch mehr unterschiedliche Effekte in die Performance-Betrachtungen einbeziehen sollte - was wir in Zukunft auch machen wollen. Unter diesem Aspekt ist dieser Test hier ein Ende und zugleich ein Neuanfang. So wollten wir zuerst noch einmal einen groben, aber dafür vergleichbaren Überblick über drei aktuelle GPU-Modelle von AMD, Intel und Nvidia unter Resolve bekommen. Und unser Bild ist hiermit nun grundsätzlich "komplett".



Luxus oder Arbeitstier? Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super : RTX4080 header


So kann man der RTX 4080 Super auf jeden Fall attestieren, unter Resolve eine sehr gute Performance zu liefern. Das Preis- Leistungsverhältnis für Standard-Schnitt-Anforderungen ist zwar schlechter als bei aktuellen AMD- oder Intel-Modellen - und sogar gegenüber älteren Karten mit breiterem Speicherbus aus dem eigenen Hause. Doch zugleich darf man die "Reibungslosigkeit" der Karte unter Resolve auch nicht unerwähnt lassen: Dass mit dieser Karte einfach wirklich jeder Klick flutscht und an keiner Stelle unter Resolve nervige Wartepausen (wie aktuell bei AMD und Intel) zu bemerken sind, stellt in unseren Augen einen durchaus "geldwerten" Komfort dar.



Nutzt man unter Resolve schon heute viele der GPU-beschleunigten KI-Effekte, so ist die Leistung der Nvidia Karte sogar preislich attraktiv - denn viele dieser speziellen Effekte werden mit Nvidias Optimierungen signifikant schneller berechnet als bei der Konkurrenz. Doch diesen Aspekt werden wir in einem weiteren Artikel noch einmal detaillierter beleuchten - sobald Resolve 19 hierfür eine gewisse Reife erlangt hat.


Ähnliche Artikel //
Umfrage
    Welche Streaming-Dienste nutzt Du?













    Ergebnis ansehen

slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash