Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // 2023 Schnitt- und Gradingrechner



Frage von iasi:


Da hab ich mich wohl schon zu lange nicht mehr mit Computer-Hardware befasst und schon die CPU-Core-Zahlen überraschen mich: 18, 20, 24, 28 Kerne.

16 Core sollten aber doch wohl genügen?
Zumal sowohl Intel, wie auch AMD bezahlbare Modelle anbieten.
z.B.
AMD Ryzen 9 7950X, 16C/32T, 4.50-5.70GHz
Intel Core i9-13900KF, 8C+16c/32T, 3.00-5.80GHz

Aber schon mit den Mainboards geht es weiter.
Das hier scheint z.B. recht üppig ausgestattet zu sein:
https://www.heise.de/preisvergleich/asu ... at&hloc=de

Oder braucht es doch noch mehr PCIe-Lanes?

Wobei bei den Preisen für Grafikkarten mehr als eine kaum vertretbar ist.
Die Frage des Preis-Leistungsverhältnisses stellt sich hier sowieso ganz besonders.

Dann noch der richtige Arbeitsspeicher. Welcher ist das?

Ordenlicher Luft- oder doch gleich einen Wasserkühler?
Da die CPU auch mal über längere Zeit belastet wird, dürfte die Kühlung wohl besonders wichtig sein.

Dann sind wir beim Netzteil.
Wirkungsgrad, Belastbarkeit und Preis ... ?

Sinnlos viel Geld in die aktuell beste und leistungsfähigste Hardware zu versenken, muss nicht sein. Die Halbwertszeit ist sowieso schon kurz genug.

Wie würdet ihr denn aktuell einen neuen Rechner konfigurieren?

Space


Antwort von Jörg:

ich würde lediglich parts aufrüsten müssen, die peripherie ist immer noch aktuell,
so sähe mein update aus:

Asus ProArt Z690-Creator WiFi 570.-
Intel® Core™ i7-13700K 460.-
Corsair DIMM 2 x 64 GB DDR5-5200 Kit 500.-
be quiet! Dark Rock Pro 4, Kühler 100.-

Netzteil, Platten etc bleiben.

Space


Antwort von Frank Glencairn:

Wie immer bei solchen Fragen - es kommt halt drauf an.

Welche Codecs du hauptsächlich bearbeitest ist entscheidend für die CPU Wahl.
Außerdem: nur Video, oder auch 3D?

Das Motherboard hängt davon ab wie viele PCI Lanes und externe Anschlüsse du tatsächlich brauchst - keine internen Karten außer der GPU, oder I/O Karte und RAID? Brauchst du Thunderbolt oder langt USB?

IMHO ist ein guter Lüfter immer besser als ne WaKü.

Die Art des RAM ist eigentlich eher zweitrangig, da wirst du keinen signifikanten Unterschied in der Performance sehen.
Am besten richtest du dich da nach der Liste des Board Herstellers, und nimmst irgendwas aus dem Mittelfeld.

Für das Netzteil gibt's online Rechner, die deinen tatsächlichen Bedarf an Watt ausspucken, dann würde ich da mindestens nochmal 50% drauf legen.

Grafik eigentlich nur Nvidia, und da die zweitbeste - wenn das Budget das hergibt.

Ohne deine tatsächlichen Anforderungen zu kennen ist das schwierig.

Space


Antwort von AndySeeon:

iasi hat geschrieben:
Wie würdet ihr denn aktuell einen neuen Rechner konfigurieren?
Ehrlich gesagt schaue ich im Falle eines Rechnerkaufs immer auf Pugetsystems nach der aktuellen Empfehlung und stelle mir danach meinen Rechner zusammen:
https://www.pugetsystems.com/solutions/ ... i-resolve/

Gruß, Andreas

Space


Antwort von Frank Glencairn:

Das ist wirklich ein guter Rat - jedenfalls findest du da immer nen soliden Startpunkt für deinen Bau.

Space


Antwort von iasi:

Jörg hat geschrieben:
ich würde lediglich parts aufrüsten müssen, die peripherie ist immer noch aktuell,
so sähe mein update aus:

Asus ProArt Z690-Creator WiFi 570.-
Intel® Core™ i7-13700K 460.-
Corsair DIMM 2 x 64 GB DDR5-5200 Kit 500.-
be quiet! Dark Rock Pro 4, Kühler 100.-

Netzteil, Platten etc bleiben.
Gibt"s denn nicht schon beim Netzteil Kompatibilitätsprobleme?

Lohnt es sich zudem, einen Rechner so stark auszuweiden?
Wäre es nicht besser einen kompletten Rechner aufzubaue und dann zwei Computer zu haben?

Was spricht denn für das Asus ProArt Z690-Creator im Vergleich zum halb so teuren ASUS TUF Gaming H770-Pro WIFI?

Lohnt sich der Aufpreis zum
Intel Core i9-13900KF, 8C+16c/32T, 3.00-5.80GHz
nicht?

128 GB Ram?
Welche Anwendungen profitieren von solch üppiger Ausstattung?

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
Wie immer bei solchen Fragen - es kommt halt drauf an.

Welche Codecs du hauptsächlich bearbeitest ist entscheidend für die CPU Wahl.
Außerdem: nur Video, oder auch 3D?
Da würde ich von 4k/HFR als Ausgabe und maximal den aktuellen 8k-Raw-Formaten ausgehen.
"Frank Glencairn" hat geschrieben:
Das Motherboard hängt davon ab wie viele PCI Lanes und externe Anschlüsse du tatsächlich brauchst - keine internen Karten außer der GPU, oder I/O Karte und RAID? Brauchst du Thunderbolt oder langt USB?
Neue USB-Standards und Thunderbolt dürften sich in der Praxis nicht viel schenken.
Dir ist ja selbst bewußt, dass hier aber kein Nagelöhr geben sollte.

Bei den PCI-Lance bin ich mir unschlüssig.
PCI 4.0 oder gar 5.0 bieten mehr als reichlich Bandbreite.
Selbst x4 sollten für I/O Karte und RAID ausreichen. ?
Mehrere Grafikkarten bedeuten einen Preissprung, denn dies erfordert dann auch Workstation-CPUs. Ist dies wirlich erforderlich?
"Frank Glencairn" hat geschrieben:
IMHO ist ein guter Lüfter immer besser als ne WaKü.
Das erstaunt mich jetzt.
Ich hatte zwar auch immer auf Luftkühler gesetzt, aber war immer davon ausgegangen, dass WaKü die Krone ziert.

"Frank Glencairn" hat geschrieben:
Die Art des RAM ist eigentlich eher zweitrangig, da wirst du keinen signifikanten Unterschied in der Performance sehen.
Am besten richtest du dich da nach der Liste des Board Herstellers, und nimmst irgendwas aus dem Mittelfeld.
Auch hier hatte ich immer den Eindruck, dass der Ram-Performance gerade bei Schnitt- und Grading eine große Bedeutung zugemessen wird.
"Frank Glencairn" hat geschrieben:
Für das Netzteil gibt's online Rechner, die deinen tatsächlichen Bedarf an Watt ausspucken, dann würde ich da mindestens nochmal 50% drauf legen.

Grafik eigentlich nur Nvidia, und da die zweitbeste - wenn das Budget das hergibt.

Ohne deine tatsächlichen Anforderungen zu kennen ist das schwierig.
Ja - Nvidia spielt am besten mit Premiere, Resolve & Co. zusammen.
Wobei dieses Ergebnis dann doch etwas anderes sagt:
https://www.pugetsystems.com/labs/artic ... lve_Studio

The final area we wanted to look at is RAW debayering for RED and BRAW footage .. These tests were a big surprise to us, as the RTX 40 Series show some issues compared to the previous generation. ... the Radeon 7900 XTX beating even the RTX 4090 by a solid 14%. This issue with RAW footage is likely due to a driver or application bug and will likely be resolved in the future, but either way, the 7900 XTX is a solid GPU for RAW workflows in DaVinci Resolve.

Aktuell wäre die zweitbeste die RTX 4080 für knapp 1300€.
Braucht es die in der Praxis dann auch wirklich?

Mehrere Spuren mit Raw-Material ohne NR in der 4k-Timeline sollten auch bei 50fps abgespielt werden können - möglichst ohne Cache-Rendern.

Das Rendern am Ende inkl. NR ist mir eigentlich egal, denn dabei muss ich nicht vor dem Rechner sitzen.

Space


Antwort von Clemens Schiesko:

iasi hat geschrieben:
Aktuell wäre die zweitbeste die RTX 4080 für knapp 1300€.
Braucht es die in der Praxis dann auch wirklich?
Sofern Du in Zukunft z.B. mit dem AV1 Codec arbeiten möchtest, ist eine RTX 40... unabdingbar.
Und auch so: seitdem bei mir eine RTX 4090 werkelt ist das Arbeiten in Resolve ein Träumchen. Jedoch verstehe ich, das der Preis natürlich ordentlich Überwindung kostet.



Space


Antwort von Frank Glencairn:

iasi hat geschrieben:

Neue USB-Standards und Thunderbolt dürften sich in der Praxis nicht viel schenken.
Dir ist ja selbst bewußt, dass hier aber kein Nagelöhr geben sollte.
Ich hab TB eigentlich eher wegen möglicher externer I/O erwähnt, bei allem anderen ist nicht viel um.
iasi hat geschrieben:


Bei den PCI-Lance bin ich mir unschlüssig.
PCI 4.0 oder gar 5.0 bieten mehr als reichlich Bandbreite.
Selbst x4 sollten für I/O Karte und RAID ausreichen. ?
Mehrere Grafikkarten bedeuten einen Preissprung, denn dies erfordert dann auch Workstation-CPUs. Ist dies wirlich erforderlich?
Der Unterschied zwischen 4 und 5 ist zu vernachlässigen, meistens schaffst du es nicht mal 4 auszureizen.
Das hat aber nix mit der Anzahl der Lanes zu tun, die sind von der CPU abhängig.
Mehr Lanes = mehr PCI Karten, externe Anschlüsse etc. bis zu einem gewissen Grad auch mehr Geschwindigkeit, wenn sich Komponenten irgendwelche Lanes nicht teilen müssen.
iasi hat geschrieben:


Das erstaunt mich jetzt.
Ich hatte zwar auch immer auf Luftkühler gesetzt, aber war immer davon ausgegangen, dass WaKü die Krone ziert.
Wasserkühlung wird gerne überschätzt.
iasi hat geschrieben:


Auch hier hatte ich immer den Eindruck, dass der Ram-Performance gerade bei Schnitt- und Grading eine große Bedeutung zugemessen wird.
Die aktuellen Module sind mittlerweile mehr als schnell genug für alles.
iasi hat geschrieben:


Aktuell wäre die zweitbeste die RTX 4080 für knapp 1300€.
Braucht es die in der Praxis dann auch wirklich?
Nicht zwingend: eine gebrauchte 3090/3090 Ti langt unterm Strich locker für das meiste.

Space



Space


Antwort von markusG:

iasi hat geschrieben:
Mehrere Grafikkarten bedeuten einen Preissprung, denn dies erfordert dann auch Workstation-CPUs. Ist dies wirlich erforderlich?
Wenn du nicht mehr als 2 Gpus verwendest oder zig Nvmes verwendest sollte das dicke genügen, was es so im Konsumentenbereich gibt. Da solltest du nur darauf achten, dass das Mainboard auch möglichst viele der Lanes "mitbringt", also nicht am falsche Ende (Chipsatz) sparen…

https://www.cgdirector.com/guide-to-pcie-lanes/
Das erstaunt mich jetzt.
Ich hatte zwar auch immer auf Luftkühler gesetzt, aber war immer davon ausgegangen, dass WaKü die Krone ziert. Bei einem guten Custom Loop mag das für lange Rendersessions gelten, aber im Alltag sind die Nachteile eher zugunsten einer ordentlichen Luftkühlung. Renderboxes zB bietet in einigen Systemen Wasserkühlung an, was aber afaik hauptsächlich aufgrund der Bauweise/Kompaktheit geschuldet ist. Übliche Consumer–Kühllösungen sind bei Multi–Gpu–Systemen nicht immer sinnvoll. Das sind aber vermutlich Anwendungen die für dich irrelevant sind.
https://www.golem.de/news/luft-oder-was ... 71934.html

Space


Antwort von iasi:

"Clemens Schiesko" hat geschrieben:
iasi hat geschrieben:
Aktuell wäre die zweitbeste die RTX 4080 für knapp 1300€.
Braucht es die in der Praxis dann auch wirklich?
Sofern Du in Zukunft z.B. mit dem AV1 Codec arbeiten möchtest, ist eine RTX 40... unabdingbar.
Und auch so: seitdem bei mir eine RTX 4090 werkelt ist das Arbeiten in Resolve ein Träumchen. Jedoch verstehe ich, das der Preis natürlich ordentlich Überwindung kostet.

Von welcher Karte bist du denn gekommen?

Dass die RTX 4090 ein Träumchen ist, glaube ich gern.

Da ich ein Raw-Mensch bin, sind mir die unterstützten Codecs nicht besonders wichtig.
Wie lange am Ende das Rendern dauert, juckt mich auch nicht so sehr.

Während dem Arbeiten sollte es jedoch rund laufen.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:

Neue USB-Standards und Thunderbolt dürften sich in der Praxis nicht viel schenken.
Dir ist ja selbst bewußt, dass hier aber kein Nagelöhr geben sollte.
Ich hab TB eigentlich eher wegen möglicher externer I/O erwähnt, bei allem anderen ist nicht viel um.
iasi hat geschrieben:


Bei den PCI-Lance bin ich mir unschlüssig.
PCI 4.0 oder gar 5.0 bieten mehr als reichlich Bandbreite.
Selbst x4 sollten für I/O Karte und RAID ausreichen. ?
Mehrere Grafikkarten bedeuten einen Preissprung, denn dies erfordert dann auch Workstation-CPUs. Ist dies wirlich erforderlich?
Der Unterschied zwischen 4 und 5 ist zu vernachlässigen, meistens schaffst du es nicht mal 4 auszureizen.
Das hat aber nix mit der Anzahl der Lanes zu tun, die sind von der CPU abhängig.
Mehr Lanes = mehr PCI Karten, externe Anschlüsse etc. bis zu einem gewissen Grad auch mehr Geschwindigkeit, wenn sich Komponenten irgendwelche Lanes nicht teilen müssen.
Es ist insofern vielleicht wichtig, dass bei PCI 5.0 er parallele Betrieb zweier Grafikkarten mit x8/x8 noch akzeptabel laufen könnte.
Ansonsten wäre, wie schon erwähnt, eine Workstation-CPU nötig.

Aber dann stellt sich sowieso die Frage nach den Leistungs- und Preisklassen:
Desktop CPU und eine Grafikkarte
oder
Workstation CPU mit mehreren Grafikkarte.

Ich denke mal, dass eine 16/24core-CPU und eine aktuelle GPU für flüssiges Arbeiten auch mit 8k-Raw reichen sollten, wenn nicht gerade NR in Echtzeit laufen müssen.
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:


Das erstaunt mich jetzt.
Ich hatte zwar auch immer auf Luftkühler gesetzt, aber war immer davon ausgegangen, dass WaKü die Krone ziert.
Wasserkühlung wird gerne überschätzt.
iasi hat geschrieben:


Auch hier hatte ich immer den Eindruck, dass der Ram-Performance gerade bei Schnitt- und Grading eine große Bedeutung zugemessen wird.
Die aktuellen Module sind mittlerweile mehr als schnell genug für alles.
iasi hat geschrieben:


Aktuell wäre die zweitbeste die RTX 4080 für knapp 1300€.
Braucht es die in der Praxis dann auch wirklich?
Nicht zwingend: eine gebrauchte 3090/3090 Ti langt unterm Strich locker für das meiste.
Sollten sie auch, da die neuen 4er mit den aktuellen Treibern bei Raw in Resolve nicht schneller sind.
https://www.pugetsystems.com/labs/artic ... lve_Studio

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Mehrere Grafikkarten bedeuten einen Preissprung, denn dies erfordert dann auch Workstation-CPUs. Ist dies wirlich erforderlich?
Wenn du nicht mehr als 2 Gpus verwendest oder zig Nvmes verwendest sollte das dicke genügen, was es so im Konsumentenbereich gibt. Da solltest du nur darauf achten, dass das Mainboard auch möglichst viele der Lanes „mitbringt“, also nicht am falsche Ende (Chipsatz) sparen…
Es ist eben immer die Frage, ob der Leistungsunterschied dann in der Praxis wirklich den höheren Preis rechtfertigt.

Geht man nach solchen Tests

https://www.pugetsystems.com/labs/artic ... t_Creation

kann man mit entsprechenden Investitionen immer noch etwas mehr herauskitzeln.

Space


Antwort von markusG:

iasi hat geschrieben:

Es ist eben immer die Frage, ob der Leistungsunterschied dann in der Praxis wirklich den höheren Preis rechtfertigt.
Nun, bei den Pugetbench Ergebnissen führt zumindest in DR jedenfalls kein HEDT–Prozessor ;)

Wenn du dir diese Frage stellen musst behaupte ich mal, dass dir ein Threadripper nichts bringt. Die P/L dürfte im Vergleich ziemlich grottig sein, es kommen ja teure Boards&RAM dazu…

Space


Antwort von Clemens Schiesko:

iasi hat geschrieben:
"Clemens Schiesko" hat geschrieben:


Sofern Du in Zukunft z.B. mit dem AV1 Codec arbeiten möchtest, ist eine RTX 40... unabdingbar.
Und auch so: seitdem bei mir eine RTX 4090 werkelt ist das Arbeiten in Resolve ein Träumchen. Jedoch verstehe ich, das der Preis natürlich ordentlich Überwindung kostet.

Von welcher Karte bist du denn gekommen?

Dass die RTX 4090 ein Träumchen ist, glaube ich gern.

Da ich ein Raw-Mensch bin, sind mir die unterstützten Codecs nicht besonders wichtig.
Wie lange am Ende das Rendern dauert, juckt mich auch nicht so sehr.

Während dem Arbeiten sollte es jedoch rund laufen.
Vorher hatte ich die Asus RTX 2070 Super OC mit 8GB. Grundsätzlich auch flott was die Renderzeiten anging, aber der "geringe" Arbeitsspeicher kam immer öfter an seine Grenzen, was auf Dauer gerade bei größeren Projekten dann doch ziemlich genervt hat. Und bei Formaten über 4k - gerade im HEVC Codec - war eine dauerhaft flüssige Wiedergabe ohne Proxys dann nicht mehr möglich. Und nun auch noch das 6K OG BRAW der Z Cam oder das 8K Raw der Canon - da wollte ich auf längere Zeit Ruhe haben. Letztendlich sollte man wie bei allem anderen auch in der gesamten Verabeitungskette nicht sparen, um die Qualität bis zum Schluss aufrecht zu erhalten und vor allem Zeit und Nerven zu sparen. Die Preispolitik ist aber dennoch absurd.

Zwecks AV1: decodieren können diesen Codec ja im Grunde schon viele Geräte und er wird ja teilweise schon von Netflix und Co eingesetzt. Jedoch können ihn bisher nur die wenigsten Karten auch encodieren. Gerade bei der Archivierung ist solch ein effizienter Codec von Vorteil. Und da er sicher immer mehr Raum einnehmen wird und HEVC auf lange Sicht vermutlich auch verdrängen wird, ist es zu mindestens kein Nachteil den Encoder für die Zukunft schon mit an Board zu haben. Also das nur als zusätzliche Info für die Kaufentscheidung.

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:

Es ist eben immer die Frage, ob der Leistungsunterschied dann in der Praxis wirklich den höheren Preis rechtfertigt.
Nun, bei den Pugetbench Ergebnissen führt zumindest in DR jedenfalls kein HEDT–Prozessor ;)

Wenn du dir diese Frage stellen musst behaupte ich mal, dass dir ein Threadripper nichts bringt. Die P/L dürfte im Vergleich ziemlich grottig sein, es kommen ja teure Boards&RAM dazu…
Die Frage muss man sich immer stellen.
Ein Schwerlastkran kann natürlich eine Palette anheben, aber ist die Investition in so ein Teil deshalb gerechtfertigt?

Nicht der Threadripper sondern mehrere Grafikkarten, die dieser erst ermöglicht, müssten betrachtet werden.

Auch wenn du als Selbstständiger dein Geld damit verdienst, solltest du dich fragen, ob eine Workstation mit Threadripper, mehreren GPUs und 8 Speicherriegeln dir die Zeitersparnis und höhere Produktivität verschafft, die die hohe Investition auch rechtfertigt.

Mein Problem:
Was sagt mir solch ein Test denn nun genau aus?

https://www.pugetsystems.com/labs/artic ... lve_Studio

Space


Antwort von iasi:

"Clemens Schiesko" hat geschrieben:
iasi hat geschrieben:


Von welcher Karte bist du denn gekommen?

Dass die RTX 4090 ein Träumchen ist, glaube ich gern.

Da ich ein Raw-Mensch bin, sind mir die unterstützten Codecs nicht besonders wichtig.
Wie lange am Ende das Rendern dauert, juckt mich auch nicht so sehr.

Während dem Arbeiten sollte es jedoch rund laufen.
Vorher hatte ich die Asus RTX 2070 Super OC mit 8GB. Grundsätzlich auch flott was die Renderzeiten anging, aber der "geringe" Arbeitsspeicher kam immer öfter an seine Grenzen, was auf Dauer gerade bei größeren Projekten dann doch ziemlich genervt hat. Und bei Formaten über 4k - gerade im HEVC Codec - war eine dauerhaft flüssige Wiedergabe ohne Proxys dann nicht mehr möglich. Und nun auch noch das 6K OG BRAW der Z Cam oder das 8K Raw der Canon - da wollte ich auf längere Zeit Ruhe haben. Letztendlich sollte man wie bei allem anderen auch in der gesamten Verabeitungskette nicht sparen, um die Qualität bis zum Schluss aufrecht zu erhalten und vor allem Zeit und Nerven zu sparen. Die Preispolitik ist aber dennoch absurd.
Interessant. Danke.
Das ist ein hilfreicher Ansatzpunkt.
Mehr als eine RTX 2070 Super OC sollte es also sein.

Das hier habe ich nun auch ausgegraben:
https://www.pugetsystems.com/wp-content ... esults.png
"Clemens Schiesko" hat geschrieben:
Zwecks AV1: decodieren können diesen Codec ja im Grunde schon viele Geräte und er wird ja teilweise schon von Netflix und Co eingesetzt. Jedoch können ihn bisher nur die wenigsten Karten auch encodieren. Gerade bei der Archivierung ist solch ein effizienter Codec von Vorteil. Und da er sicher immer mehr Raum einnehmen wird und HEVC auf lange Sicht vermutlich auch verdrängen wird, ist es zu mindestens kein Nachteil den Encoder für die Zukunft schon mit an Board zu haben. Also das nur als zusätzliche Info für die Kaufentscheidung.
Klar. Ein Nachteil ist es natürlich nicht und man nimmt es auch gern mit. Ausschlaggebend wäre es für mich jedoch nicht.
Zumal z.B. in Premiere das CPU-Rendern "genauer" erfolgt, als mit GPU.

Space


Antwort von markusG:

iasi hat geschrieben:
Nicht der Threadripper sondern mehrere Grafikkarten, die dieser erst ermöglicht, müssten betrachtet werden.
Wenn dir die Investitionssumme für mehr als 2 Grafikkarten bereits zu unsicher sind, wird es die Threadripperplattform wohl erst recht (hinsichtlich ROI). Und Benchmarks gibt es ja zur Leistungseinschätzung.

Aber Intel bringt demnächst ja einen HEDT refresh, der in deinen Anwendungsfall passen könnte (geringerer CPU Anteil bzgl Kosten):

https://www.heise.de/news/Sapphire-Rapi ... 16604.html

Bei den Consumerplattformen hast du halt im Zweifel den Vorteil, nicht viel Kohle verballert zu haben, solltest du an die "Schallgrenze" bei den GPUs geraten, und die GPUs kannst du ja in beide Richtungen weiterverwenden. Und solltest du diese Diskrepanz finanziell nicht stemmen können, wirst du das gleiche Problem beim Threadripper haben, wenn du verstehst wie ich das meine.
iasi hat geschrieben:
Zumal z.B. in Premiere das CPU-Rendern "genauer" erfolgt, als mit GPU.
Wäre das das NLE deiner Wahl?

Space



Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Nicht der Threadripper sondern mehrere Grafikkarten, die dieser erst ermöglicht, müssten betrachtet werden.
Wenn dir die Investitionssumme für mehr als 2 Grafikkarten bereits zu unsicher sind, wird es die Threadripperplattform wohl erst recht (hinsichtlich ROI). Und Benchmarks gibt es ja zur Leistungseinschätzung.

Aber Intel bringt demnächst ja einen HEDT refresh, der in deinen Anwendungsfall passen könnte (geringerer CPU Anteil bzgl Kosten):

https://www.heise.de/news/Sapphire-Rapi ... 16604.html

Bei den Consumerplattformen hast du halt im Zweifel den Vorteil, nicht viel Kohle verballert zu haben, solltest du an die "Schallgrenze" bei den GPUs geraten, und die GPUs kannst du ja in beide Richtungen weiterverwenden. Und solltest du diese Diskrepanz finanziell nicht stemmen können, wirst du das gleiche Problem beim Threadripper haben, wenn du verstehst wie ich das meine.
iasi hat geschrieben:
Zumal z.B. in Premiere das CPU-Rendern "genauer" erfolgt, als mit GPU.
Wäre das das NLE deiner Wahl?
Hast du dir die Preise für Grafikkarten mal angesehen?
Da spielt der Aufpreis für einen Threadripper samt Board keine große Rolle mehr. :)

Eine "Schallgrenze" kann man mit jedem System erreichen. Die Frage ist nur, mit welcher man noch leben kann.

Es geht auch nicht um die Frage, ob man etwas finanziell stemmen kann, sondern ob man es sollte - sprich, ob die Investition überhaupt rentabel ist.


Wobei ich es schon auch interessant findet, wie heftig Nvidia selbst im Vergleich zu AMD zulangt.
Zumal z.B. gerade bei Braw und RedRaw beim PugetBench for Resolve die 4090 eher langsamer ist, als die 7900 XTX.

Space


Antwort von markusG:

iasi hat geschrieben:
Hast du dir die Preise für Grafikkarten mal angesehen?
Da spielt der Aufpreis für einen Threadripper samt Board keine große Rolle mehr. :)
Dann hol dir doch einfach den Threadripper und taste dich Grafikkarte für Grafikkarte heran, wenn du meinst dass der Aufpreis für dich irrelevant ist. Musst ja nicht gleich 5xRTX4090 holen, eine reicht ja erstmal, vllt sogar eine RTX3090, die sind ja dann doch im Preis gefallen :)
Und wenn du die Schallgrenze merkst, kaufst dir ne zweite dazu. Oder ne dritte. Ist ja das schöne an der Plattform :)

Zum Thema Radeon - würde ich persönlich ignorieren. Erstaunlicherweise haben auch die Qualitätsmängel der Treiber seit inzwischen in Jahrzehnten irgendwie gehalten^^

https://www.heise.de/news/AMD-Adrenalin ... 18073.html

Will nicht behaupten noch nie Probleme mit Nvidia Treibern gehabt zu haben (in der Regel mit Adobe...), aber zerschossen hab ich mir damit noch nie etwas, und ich benutze Nvidia seit der GeForce 2 Generation (also nun knapp 23 Jahre)...

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Hast du dir die Preise für Grafikkarten mal angesehen?
Da spielt der Aufpreis für einen Threadripper samt Board keine große Rolle mehr. :)
Dann hol dir doch einfach den Threadripper und taste dich Grafikkarte für Grafikkarte heran, wenn du meinst dass der Aufpreis für dich irrelevant ist. Musst ja nicht gleich 5xRTX4090 holen, eine reicht ja erstmal, vllt sogar eine RTX3090, die sind ja dann doch im Preis gefallen :)
Und wenn du die Schallgrenze merkst, kaufst dir ne zweite dazu. Oder ne dritte. Ist ja das schöne an der Plattform :)
Du meinst also, ich soll mal "auf Vorrat" in einen Threadripper und ein 2000W-Netzteil investieren, da ich in Zukunft vielleicht mehrere 4090 brauche?

Die Schallgrenze bemerke ich dann schon, wenn ich Temporal NR nutze.
Man muss abwägen, ob man sich mit einer Schallgrenze arrangieren kann.

Mit solch einem System mit 3x4090 dürfte die Schallgrenze natürlich nur in extremen Fällen erreicht werden:
https://www.pugetsystems.com/labs/artic ... lve_Studio

Aber schon eine grobe Schätzung der Preisregion zeigt mir, dass sich das für mich nicht lohnt.

Space


Antwort von markusG:

iasi hat geschrieben:
Du meinst also, ich soll mal "auf Vorrat" in einen Threadripper und ein 2000W-Netzteil investieren, da ich in Zukunft vielleicht mehrere 4090 brauche?
Netzteil kannst du ja immer noch aufrüsten. Wie gesagt ist es nicht meine Empfehlung, und TR nicht die erste Wahl zumindest bei DR.
Aber schon eine grobe Schätzung der Preisregion zeigt mir, dass sich das für mich nicht lohnt. Eben dies. Du dürftest zB mit einer einzigen RTX4090 (mitsamt zB i9) schon sehr weit kommen (nach deinen obigen Angaben zu urteilen), und im Zweifel problemlos eine zweite dazu holen können, wenn es sich für dich denn rentiert. Das kannst am Ende nur du wissen, keine Ahnung was du für Projekte du bedienst bzgl. Gage.

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Du meinst also, ich soll mal "auf Vorrat" in einen Threadripper und ein 2000W-Netzteil investieren, da ich in Zukunft vielleicht mehrere 4090 brauche?
Netzteil kannst du ja immer noch aufrüsten. Wie gesagt ist es nicht meine Empfehlung, und TR nicht die erste Wahl zumindest bei DR.
Aber schon eine grobe Schätzung der Preisregion zeigt mir, dass sich das für mich nicht lohnt. Eben dies. Du dürftest zB mit einer einzigen RTX4090 (mitsamt zB i9) schon sehr weit kommen (nach deinen obigen Angaben zu urteilen), und im Zweifel problemlos eine zweite dazu holen können, wenn es sich für dich denn rentiert. Das kannst am Ende nur du wissen, keine Ahnung was du für Projekte du bedienst bzgl. Gage.
Nun - wenn eine Threadripper-3x4090-Workstation täglich nur eine Zeitersparnis von einer Minute bringt, ist die höhere Investition nur bei wenigen Leuten sinnvoll.
Denn eine Gage von täglich 3000€ haben nicht viele - Urlaubs-, Feier- und Krankheitstage nicht eingerechnet. :)

Wenn du mit solch einer Workstation eine große Zeitersparnis erreichst (also höhere Produktivität) lohnt sich für dich die Investition natürlich schon eher - abhängig von deiner Auslastung und Gage.

Daher ist es ja auch wichtig abschätzen zu können, welche Mehrleistung und somit Zeitersparnis verschiedene Konfigurationen bringen.

Space


Antwort von Frank Glencairn:

"Clemens Schiesko" hat geschrieben:


Vorher hatte ich die Asus RTX 2070 Super OC mit 8GB. Grundsätzlich auch flott was die Renderzeiten anging, aber der "geringe" Arbeitsspeicher kam immer öfter an seine Grenzen, was auf Dauer gerade bei größeren Projekten dann doch ziemlich genervt hat.
Können wir vielleicht mal endlich mit dem Mythos aufräumen, daß ein größeres Projekt mehr VRAM braucht?

Und wie sind wir hier von "ist das denn wirklich alles nötig" auf "ich brauch mindestens 2 GPUs" gekommen?

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
"Clemens Schiesko" hat geschrieben:


Vorher hatte ich die Asus RTX 2070 Super OC mit 8GB. Grundsätzlich auch flott was die Renderzeiten anging, aber der "geringe" Arbeitsspeicher kam immer öfter an seine Grenzen, was auf Dauer gerade bei größeren Projekten dann doch ziemlich genervt hat.
Können wir vielleicht mal endlich mit dem Mythos aufräumen, daß ein größeres Projekt mehr VRAM braucht?

Und wie sind wir hier von "ist das denn wirklich alles nötig" auf "ich brauch mindestens 2 GPUs" gekommen?
Es ist kein Mythos.
Schau dir mal die Testergebnisse an.
Da liefert dann die Karte mit schnellerer GPU 3060TI schlechtere Leistung in DR als die 3060-Karte. Unterschied: 8GB vs. 12GB
Und wenn du eine komplexere Timeline hast, stößt du auch an die 8GB-Grenze, wenn du mit 6k- oder 8k-Material arbeitest.


Eine RTX4090 gehört aktuell zur Spitze - braucht man mehr Leistung, geht dies nur über 2 oder gar 3 GPUs.
https://www.pugetsystems.com/labs/artic ... lve_Studio

Space


Antwort von pillepalle:

Kauf Dir doch erstmal eine Graka und schaue wie weit Du damit kommst. Wenn es dann mehr braucht kannst Du immer noch nachrüsten. Für meinen 4K Kram reicht meine zweieinhalb Jahre alte 2060 Super immer noch aus. Wenn ich irgendwann mehr brauchen sollte, weil ich vielleicht auch mit höheren Auflösungen arbeite oder mehr rechenintensive Sachen machen muss, hole ich mir eben eine bessere, bzw. vielleicht auch einen besseren Rechner. Aber im vorauseilendem Gehorsam werde ich erstmal nicht aufrüsten.

VG

Space


Antwort von Jörg:

Kauf Dir doch erstmal eine Graka und schaue wie weit Du damit kommst. genau der richtige tip.
nachdem ich meine 2080er an eine covidleidende crew verschenkt habe, habe ich 2 Jahre auf der alten
970er rumgehampelt.
War schon frustig, allerdings habe die explodierenden Kartenpreise diese freiwillige Askese unzerstützt.
Die proxyoptionen der NLEs hat die Leiden gemildert.
Jetzt, mit einer 3080 im Rechner, ist der Druck zur Aufrüstung gewichen, jetzt warte ich auf die von
slashcam angekündigten Preisstürze....:-))

Space



Space


Antwort von pillepalle:

@ Jörg

Ja, als ich mir den neuen Rechner gebaut hatte ging gerade die Grafikkartenknappheit mit dem Mining los. Eigentlich wollte ich eine 2070 Super nehmen, aber die gab's da schon nicht mehr. Dachte ja das dauert maximal drei Monate und dann regulieren sich die Preise wieder :) Das beste was man zur Zeit machen kann, ist die Füße still halten, sofern man nicht wirklich dringend was braucht.

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
Kauf Dir doch erstmal eine Graka und schaue wie weit Du damit kommst. Wenn es dann mehr braucht kannst Du immer noch nachrüsten. Für meinen 4K Kram reicht meine zweieinhalb Jahre alte 2060 Super immer noch aus. Wenn ich irgendwann mehr brauchen sollte, weil ich vielleicht auch mit höheren Auflösungen arbeite oder mehr rechenintensive Sachen machen muss, hole ich mir eben eine bessere, bzw. vielleicht auch einen besseren Rechner. Aber im vorauseilendem Gehorsam werde ich erstmal nicht aufrüsten.

VG
Daran hatte ich auch gedacht.
Aber ich muss dann aufpassen, dass ich nicht in eine Einbahnstraße gerate und z.B. abschließend den Prozessor auswechsle. Am Ende kämpfe ich dann gegen immer neue Nadelöhre. :)

Aber aktuell beobachte ich wirklich den Grafikkartenmarkt.
Leider sind die Preise noch immer sehr hoch.
Nvidia kann jedenfalls die 4090 behalten.
Eine AMD 7900 ist momentan sogar bei Raw unter Resolve flotter als eine 4090 - wahrscheinlich treiberbedingt.
https://www.pugetsystems.com/wp-content ... 00-XTX.png

Ich will nun aber auch nicht einfach blind, das Topmodell kaufen und anschließend feststellen, dass die GPU nicht ausgelastet wird.

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:


Es ist kein Mythos.
Schau dir mal die Testergebnisse an.
Da liefert dann die Karte mit schnellerer GPU 3060TI schlechtere Leistung in DR als die 3060-Karte. Unterschied: 8GB vs. 12GB
Es ging um die Länge der Timeline - bei dem Test ist die Timeline aber immer die selbe.

iasi hat geschrieben:


Eine RTX4090 gehört aktuell zur Spitze - braucht man mehr Leistung, geht dies nur über 2 oder gar 3 GPUs.
Der Test bezieht sich nur auf GPU Effekte.

Mal zum Vergleich:

Ich rechne gerade ein Spielfilm DCP (2K DCI Scope) - Timeline Länge ist 120 Minuten.
Material ein Mix aus Red, BRAW, CDNG, H264. Im Schnitt so um die 8 Nodes.

Das Ganze braucht momentan 3,3 GB VRAM, die GPU dümpelt bei 68% rum die CPU bei 89%.
Und ja - wenn das Material nicht von einer externen USB 3 kommen würde, hätte ich wahrscheinlich ne etwas bessere Auslastung).

Wir reden dabei von einer uralten 4GB GTX 980 und einem noch älteren Intel Core i7 980@3,33 GHz.

Space


Antwort von markusG:

pillepalle hat geschrieben:
Kauf Dir doch erstmal eine Graka und schaue wie weit Du damit kommst. Wenn es dann mehr braucht kannst Du immer noch nachrüsten.
und dafür "reicht" imho eine Consumer-CPU a la i9 13900k, das stellt ja idR mit das Optimum aktuell dar, wenn es um CPU-Leistung in DR/Premiere geht.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:


Es ist kein Mythos.
Schau dir mal die Testergebnisse an.
Da liefert dann die Karte mit schnellerer GPU 3060TI schlechtere Leistung in DR als die 3060-Karte. Unterschied: 8GB vs. 12GB
Es ging um die Länge der Timeline - bei dem Test ist die Timeline aber immer die selbe.
Das hattest du nur so interpretiert.
Nicht nur das Material hat sich von 4k auf 8k vergrößert, auch der Funktionsumfang von Resolve ist gewachsen. Wenn nun mehrere Bilder für z.B. eine NR herangezogen werden und du mehrere Spuren übereinander auf der Timeline hast, wächst der Speicherbedarf.
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:


Eine RTX4090 gehört aktuell zur Spitze - braucht man mehr Leistung, geht dies nur über 2 oder gar 3 GPUs.
Mal zum Vergleich:

Ich rechne gerade ein Spielfilm DCP (2K DCI Scope) - Timeline Länge ist 120 Minuten.
Material ein Mix aus Red, BRAW, CDNG, H264. Im Schnitt so um die 8 Nodes.

Das Ganze braucht momentan 3,3 GB VRAM, die GPU dümpelt bei 68% rum die CPU bei 89%.
Und ja - wenn das Material nicht von einer externen USB 3 kommen würde, hätte ich wahrscheinlich ne etwas bessere Auslastung).

Wir reden dabei von einer uralten 4GB GTX 980 und einem noch älteren Intel Core i7 980@3,33 GHz.
Der Test bezieht sich nur auf GPU Effekte.
Es gibt auch Tests zu RedRaw und Braw.
Nur wenn H264 oder H265 ins Spiel kommen, liegen Nvidia-Karten vorn.

Eine 2k-Timeline ist natürlich keine so große Herausforderung.
Und - wie du richtig sagst - spielt die Länge keine Rolle.
Was hingegen eine Rolle spielt, sind die Effekte, die du auf die Clips anwendest und die Art der Nodes.
Dann kommt noch hinzu, wieviele Clips du übereinander hast.

Ich hab z.B. gerade fünf 6k-Clips übereinander, wobei einer gekeyt und 3 beschnitten sind. Das ist mit meiner Mühle eine Plage.

Mit 4GB kamen bei mir zudem schon früher selbst mit 4k-Material in einer 4k-Timeline Meldungen, dass nichts mehr geht, weil der Grafikkartenspeicher nicht mehr ausreicht.

Ich brauch kein 8k-Material in einer 8k-Timeline. Aber etwas Luft hätte ich bei 6k/50fps in der 4k-Timeline schon gerne.
Mit OpticalFlow und NR muss es ja gar nicht mal flüssig laufen. Hierfür müsste ich wohl wirklich eine Workstation mit drei Grafikkarten haben.

Space


Antwort von markusG:

iasi hat geschrieben:
Nur wenn H264 oder H265 ins Spiel kommen, liegen Nvidia-Karten vorn.
Nochmal: Finger weg von AMD (leider!)

https://www.youtube.com/watch?v=BtZXb5UpqGo

Ist jetzt auch nur exemplarisch. Aber was nützen dir beim rendern ein paar Prozentchen, wenn du ständig Downtime hast wegen fehlerhaften Treibern?

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Nur wenn H264 oder H265 ins Spiel kommen, liegen Nvidia-Karten vorn.
Nochmal: Finger weg von AMD (leider!)

https://www.youtube.com/watch?v=BtZXb5UpqGo

Ist jetzt auch nur exemplarisch. Aber was nützen dir beim rendern ein paar Prozentchen, wenn du ständig Downtime hast wegen fehlerhaften Treibern?
Probleme gab es mit dem System auch schon vor dem Einbau der AMD-Karte.
Also dürfte der Grund vielleicht auch woanders liegen und tritt nun nur verstärkt hervor.

https://youtu.be/BtZXb5UpqGo?t=403

Space


Antwort von markusG:

Ich schrieb nicht umsonst exemplarisch. Anderen hat es das gesamte System zerschossen, siehe Link weiter oben.

Aber gönn dir ruhig den Ritt auf der Kanonenkugel. Ist ja dein Geld bzw. möglicher Arbeitsausfall ;)

Space


Antwort von iasi:

markusG hat geschrieben:
Ich schrieb nicht umsonst exemplarisch. Anderen hat es das gesamte System zerschossen, siehe Link weiter oben.

Aber gönn dir ruhig den Ritt auf der Kanonenkugel. Ist ja dein Geld bzw. möglicher Arbeitsausfall ;)
Welcher Link?

Space



Space


Antwort von markusG:

Den ich hier gepostet habe.

Übrigens schreibt Pugetsystem bzgl. der Performance-Anomalie, dass sie einen Bug vermuten:
. Given how close many of these GPUs perform for this task, that allows AMD to take the firm lead for this task, with the Radeon 7900 XTX beating even the RTX 4090 by a solid 14%. This issue with RAW footage is likely due to a driver or application bug and will likely be resolved in the future, but either way, the 7900 XTX is a solid GPU for RAW workflows in DaVinci Resolve. Würde da also nicht allzu viel auf den minimalen Vorteil setzen, zumal es bei Premiere anders ausschaut: Premiere-Pro-Benchmark-NVIDIA-GeForce-RTX-40-Series-vs-30-Series-vs-AMD-Radeon-RX-H264-RED-RAW-Score.png und du immer noch nicht geschrieben hast, ob du nun Premiere nutzt oder nicht (es aber erwähnt hattest)...

Space


Antwort von iasi:

Nun hab ich das hier gefunden:

https://youtu.be/_2ggdOyzpYQ?t=891

Sollte es wirklich zutreffen, bedeutet dies wohl, dass man noch abwarten sollte.

Space


Antwort von markusG:

iasi hat geschrieben:
Sollte es wirklich zutreffen, bedeutet dies wohl, dass man noch abwarten sollte.
Binsenweisheit: wenn du etwas nicht brauchst, kauf es nicht.

Space


Antwort von Frank Glencairn:

markusG hat geschrieben:

Würde da also nicht allzu viel auf den minimalen Vorteil setzen...
Vor allem weil das RAW Material ja auch auf Nvidia völlig normal läuft.

Space


Antwort von MK:

Mich würde mal die Leistung Performance vs. Efficient Cores bei den neueren Intel Prozessoren interessieren.

Denn entsprechend den Passmark Benchmarks wundert mich folgendes ein bisschen:

Intel i9 13900k: 24 Cores / 32 Threads, 253 Watt, Gesamtleistung 60028 Punkte, Single Core Leistung 4682 Punkte

AMD Ryzen 9 7950X: 16 Cores / 32 Threads, 170 Watt, Gesamtleistung 63428 Punkte, Single Core Leistung 4313 Punkte


Also trotz 8 Kernen mehr ist der Intel in der Gesamtleistung dem AMD geringfügig unterlegen, der Intel hat aber eine höhere Leistung Pro Core, was vermutlich daher kommt dass in den Single Core Benchmarks die Performance Cores gemessen werden.

Wenn man davon ausgeht dass die 8 Performance-Cores im Single Core Benchmark jeweils 4682 Punkte erreichen, liegen die 16 Efficient Cores bei ca. 1410 Punkten pro Kern.


Die Single-Core Performance beschleunigt vor allem Prozesse die keine Vorteile aus mehreren Kernen ziehen können, oder schlecht darauf optimiert sind bzw. sich schlecht darauf optimieren lassen. Das betrifft auch ältere Programme oder so Geschichten wie AVIsynth wo viele Scripte kein MT unterstützen.


Der AMD scheint mir da besser die Waage zu halten zwischen etwas geringerer synthetischer Singlecore Performance und allgemeiner Leistung über 16 Kerne da jeder Kern die selbe Leistung bringt.

Muss mal schauen wie die in x264 / x265 Benchmarks gegeneinander abschneiden.


Was PCIe-Lanes angeht schenken die beiden sich nicht viel, der Intel hat 20 der AMD 24, weitere Lanes kommen von den Chipsätzen noch dazu, weswegen sich der Flaschenhals in Grenzen halten sollte sofern überhaupt vorhanden.

Allerdings sind beide CPUs auch so preisgünstig dass es sich nicht lohnt da auf Jahre im voraus zu planen, selbst mit Board und Speicher dazu. Die Threadripper und Xeons haben zwar viele Kerne, die haben dafür aber auch eine wesentlich niedrigere Single Core Leistung. Da nützen mir auch PCIe-Lanes im 3-stelligen Bereich nichts.

Für den mindestens 4-fachen Preis für die selbe Leistung kann ich mir auch 4 Consumer CPUs kaufen und einen Rechner fürs Schneiden und einen fürs Encoding oder Renderjobs hinstellen, etc.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
markusG hat geschrieben:

Würde da also nicht allzu viel auf den minimalen Vorteil setzen...
Vor allem weil das RAW Material ja auch auf Nvidia völlig normal läuft.
Nur bin ich eben ein Prinzipienreiter.
Und eine meiner Prinzipien lautet: Preistreiberei wird nicht belohnt.
;) :)

Space


Antwort von markusG:

wenn du dir den Gebrauchtmarkt anschaust – da wird für eine 7900xtx (die noch kaum Angeboten wird) mind. 37% mehr verlangt als für eine RTX3090, für 8% mehr Leistung in den einem Szenario…

kannst du dir alls zurechtbiegen wie du willst. wenn du Prinzipienreiter bist dann hol dir was Gebrauchtes, alles andere schmeisst den Konzernen Geld in den Rachen :P

Da du ja scheinbar doch keinen Handlungsbedarf hast und lieber bis zum Sankt Nimmerleinstag warten möchtest kann der Thread eigentlich auch wieder geschlossen werden. Beim nächsten mal ist dann Nvidia bei dem einen Test vorn und die Diskussion geht erneut los…:P

Space


Antwort von iasi:

markusG hat geschrieben:
wenn du dir den Gebrauchtmarkt anschaust – da wird für eine 7900xtx (die noch kaum Angeboten wird) mind. 37% mehr verlangt als für eine RTX3090, für 8% mehr Leistung in den einem Szenario…

kannst du dir alls zurechtbiegen wie du willst. wenn du Prinzipienreiter bist dann hol dir was Gebrauchtes, alles andere schmeisst den Konzernen Geld in den Rachen :P

Da du ja scheinbar doch keinen Handlungsbedarf hast und lieber bis zum Sankt Nimmerleinstag warten möchtest kann der Thread eigentlich auch wieder geschlossen werden. Beim nächsten mal ist dann Nvidia bei dem einen Test vorn und die Diskussion geht erneut los…:P
Gebrauchtmarkt?
7900xtx ist wann herausgekommen?
Die gebrauchten Nivdias sind auch gebraucht entsprechend hochpreisig.

Die Nvidia-Karten sind überteuert.
Mehr Leistung bringen sie zudem vor allem bei H264/265, was ich beides nicht nutze.

Es ist doch auch interessant, dass die neuen 40er-Nivdias bei Raw sogar noch langsamer sind als die 30er.

Eine gebrauchte GeForce RTX 3080 Ti kostet mehr als eine neue 6900XT.
Schneller ist sie aber trotzdem nicht.

Space


Antwort von markusG:

iasi hat geschrieben:
Gebrauchtmarkt?
7900xtx ist wann herausgekommen?
Eben. Wenn es dir ums Arbeiten geht und nicht um akademische Diskussionen, stellst du halt Vergleiche an wie ich sie oben aufgestellt habe. Und da kostet eine gebrauchte RTX3090 deutlich weniger als jede verfügbare 7900XTX... Und wenn du Premiere (welches übrigens du ins Spiel gebracht hattest!) nutzt ist letztere in raw auch deutlich langsamer als eine RTX...

Entweder suchst du was zum damit zu arbeiten, oder nur um darüber zu schreiben. Auch es dir aus.

Und die Treiberproblematik ignorierst du nach wie vor...

Space



Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Gebrauchtmarkt?
7900xtx ist wann herausgekommen?
Eben. Wenn es dir ums Arbeiten geht und nicht um akademische Diskussionen, stellst du halt Vergleiche an wie ich sie oben aufgestellt habe. Und da kostet eine gebrauchte RTX3090 deutlich weniger als jede verfügbare 7900XTX... Und wenn du Premiere (welches übrigens du ins Spiel gebracht hattest!) nutzt ist letztere in raw auch deutlich langsamer als eine RTX...

Entweder suchst du was zum damit zu arbeiten, oder nur um darüber zu schreiben. Auch es dir aus.

Und die Treiberproblematik ignorierst du nach wie vor...
Die Nvidia-Treiberprobleme, die die 40er bei Raw in Resolve langsamer machen als die 30er?
:)

Aber ernsthaft:
Ich denke über eine 6900XT nach. Neu.

Space


Antwort von markusG:

iasi hat geschrieben:
Die Nvidia-Treiberprobleme, die die 40er bei Raw in Resolve langsamer machen als die 30er?
:)
Nein, die Radeon Treiber, die dein System zerschießen. Aber solange du nur nachdenkst kann nichts passieren ;)denkerweb3.gif

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Die Nvidia-Treiberprobleme, die die 40er bei Raw in Resolve langsamer machen als die 30er?
:)
Nein, die Radeon Treiber, die dein System zerschießen. Aber solange du nur nachdenkst kann nichts passieren ;)denkerweb3.gif
Ich hatte schon viele Radeon und keine Treiberprobleme.

Es soll natürlich Leute geben, die zu den ersten Updatern gehören müssen und sich als Tester anbieten.
Ich warte immer ein wenig und nutze ausgereiftes Zeug.

Wer über Inflation und hohe Preise klagt, sollte seinen Nachfrage-Hebel nutzen, wenn ein Hersteller zu gierig wird.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


VFX-Updates: Mocha Pro 2023 und Silhouette 2023 erschienen
Macbook (Air) ca 500€ für FullHD Schnitt FCPX
Magix Video deluxe 2021 erschienen, unterstützt 8K-Schnitt
Neuer Schnitt PC
Wiedereinsteiger, welches System für Schnitt?
Effizienz Timeline Schnitt FCPX
Apple Mac Book Pro- Reicht das Teil den Schnitt
Frame.io Camera to Cloud: Cloud-basierter Echtzeit-Workflow von der Kamera bis zum Schnitt
Schnitt- und Compositing-Trends 2030 - Videoanwendungen im nächsten Jahrzehnt
MSI Prestige PS341WU 34" 5120x2160 für Schnitt?
Frame.io startet Cloud-basierten Echtzeit-Workflow von der Kamera bis zum Schnitt
exFAT auf Schnitt-Festplatte?
Adobe Performance: Premiere Pro Beta für Apple M1 im Schnitt 77% schneller
DaVinci Resolve: Schnitt deutlich beschleunigen
FERNSEHER für den Schnitt gesucht
Hedge Postlab for Media Composer ermöglicht Team-Schnitt in der Cloud für Avid Editoren
Kaufberatung Schnitt/Animations-PC für 2500 -3200€
Wieviel Rechner für Topgun Schnitt




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash