Ehrlich gesagt schaue ich im Falle eines Rechnerkaufs immer auf Pugetsystems nach der aktuellen Empfehlung und stelle mir danach meinen Rechner zusammen:
Gibt´s denn nicht schon beim Netzteil Kompatibilitätsprobleme?Jörg hat geschrieben: ↑Sa 18 Feb, 2023 12:55 ich würde lediglich parts aufrüsten müssen, die peripherie ist immer noch aktuell,
so sähe mein update aus:
Asus ProArt Z690-Creator WiFi 570.-
Intel® Core™ i7-13700K 460.-
Corsair DIMM 2 x 64 GB DDR5-5200 Kit 500.-
be quiet! Dark Rock Pro 4, Kühler 100.-
Netzteil, Platten etc bleiben.
Da würde ich von 4k/HFR als Ausgabe und maximal den aktuellen 8k-Raw-Formaten ausgehen.Frank Glencairn hat geschrieben: ↑Sa 18 Feb, 2023 13:32 Wie immer bei solchen Fragen - es kommt halt drauf an.
Welche Codecs du hauptsächlich bearbeitest ist entscheidend für die CPU Wahl.
Außerdem: nur Video, oder auch 3D?
Neue USB-Standards und Thunderbolt dürften sich in der Praxis nicht viel schenken.Frank Glencairn hat geschrieben: ↑Sa 18 Feb, 2023 13:32 Das Motherboard hängt davon ab wie viele PCI Lanes und externe Anschlüsse du tatsächlich brauchst - keine internen Karten außer der GPU, oder I/O Karte und RAID? Brauchst du Thunderbolt oder langt USB?
Das erstaunt mich jetzt.Frank Glencairn hat geschrieben: ↑Sa 18 Feb, 2023 13:32 IMHO ist ein guter Lüfter immer besser als ne WaKü.
Auch hier hatte ich immer den Eindruck, dass der Ram-Performance gerade bei Schnitt- und Grading eine große Bedeutung zugemessen wird.Frank Glencairn hat geschrieben: ↑Sa 18 Feb, 2023 13:32 Die Art des RAM ist eigentlich eher zweitrangig, da wirst du keinen signifikanten Unterschied in der Performance sehen.
Am besten richtest du dich da nach der Liste des Board Herstellers, und nimmst irgendwas aus dem Mittelfeld.
Ja - Nvidia spielt am besten mit Premiere, Resolve & Co. zusammen.Frank Glencairn hat geschrieben: ↑Sa 18 Feb, 2023 13:32 Für das Netzteil gibt's online Rechner, die deinen tatsächlichen Bedarf an Watt ausspucken, dann würde ich da mindestens nochmal 50% drauf legen.
Grafik eigentlich nur Nvidia, und da die zweitbeste - wenn das Budget das hergibt.
Ohne deine tatsächlichen Anforderungen zu kennen ist das schwierig.
Sofern Du in Zukunft z.B. mit dem AV1 Codec arbeiten möchtest, ist eine RTX 40... unabdingbar.
Ich hab TB eigentlich eher wegen möglicher externer I/O erwähnt, bei allem anderen ist nicht viel um.
Der Unterschied zwischen 4 und 5 ist zu vernachlässigen, meistens schaffst du es nicht mal 4 auszureizen.iasi hat geschrieben: ↑Sa 18 Feb, 2023 14:55
Bei den PCI-Lance bin ich mir unschlüssig.
PCI 4.0 oder gar 5.0 bieten mehr als reichlich Bandbreite.
Selbst x4 sollten für I/O Karte und RAID ausreichen. ?
Mehrere Grafikkarten bedeuten einen Preissprung, denn dies erfordert dann auch Workstation-CPUs. Ist dies wirlich erforderlich?
Wasserkühlung wird gerne überschätzt.
Die aktuellen Module sind mittlerweile mehr als schnell genug für alles.
Nicht zwingend: eine gebrauchte 3090/3090 Ti langt unterm Strich locker für das meiste.
Wenn du nicht mehr als 2 Gpus verwendest oder zig Nvmes verwendest sollte das dicke genügen, was es so im Konsumentenbereich gibt. Da solltest du nur darauf achten, dass das Mainboard auch möglichst viele der Lanes „mitbringt“, also nicht am falsche Ende (Chipsatz) sparen…
Bei einem guten Custom Loop mag das für lange Rendersessions gelten, aber im Alltag sind die Nachteile eher zugunsten einer ordentlichen Luftkühlung. Renderboxes zB bietet in einigen Systemen Wasserkühlung an, was aber afaik hauptsächlich aufgrund der Bauweise/Kompaktheit geschuldet ist. Übliche Consumer–Kühllösungen sind bei Multi–Gpu–Systemen nicht immer sinnvoll. Das sind aber vermutlich Anwendungen die für dich irrelevant sind.iasi hat geschrieben: Das erstaunt mich jetzt.
Ich hatte zwar auch immer auf Luftkühler gesetzt, aber war immer davon ausgegangen, dass WaKü die Krone ziert.
Von welcher Karte bist du denn gekommen?Clemens Schiesko hat geschrieben: ↑Sa 18 Feb, 2023 15:23Sofern Du in Zukunft z.B. mit dem AV1 Codec arbeiten möchtest, ist eine RTX 40... unabdingbar.
Und auch so: seitdem bei mir eine RTX 4090 werkelt ist das Arbeiten in Resolve ein Träumchen. Jedoch verstehe ich, das der Preis natürlich ordentlich Überwindung kostet.
Es ist insofern vielleicht wichtig, dass bei PCI 5.0 er parallele Betrieb zweier Grafikkarten mit x8/x8 noch akzeptabel laufen könnte.Frank Glencairn hat geschrieben: ↑Sa 18 Feb, 2023 15:44Ich hab TB eigentlich eher wegen möglicher externer I/O erwähnt, bei allem anderen ist nicht viel um.
Der Unterschied zwischen 4 und 5 ist zu vernachlässigen, meistens schaffst du es nicht mal 4 auszureizen.iasi hat geschrieben: ↑Sa 18 Feb, 2023 14:55
Bei den PCI-Lance bin ich mir unschlüssig.
PCI 4.0 oder gar 5.0 bieten mehr als reichlich Bandbreite.
Selbst x4 sollten für I/O Karte und RAID ausreichen. ?
Mehrere Grafikkarten bedeuten einen Preissprung, denn dies erfordert dann auch Workstation-CPUs. Ist dies wirlich erforderlich?
Das hat aber nix mit der Anzahl der Lanes zu tun, die sind von der CPU abhängig.
Mehr Lanes = mehr PCI Karten, externe Anschlüsse etc. bis zu einem gewissen Grad auch mehr Geschwindigkeit, wenn sich Komponenten irgendwelche Lanes nicht teilen müssen.
Sollten sie auch, da die neuen 4er mit den aktuellen Treibern bei Raw in Resolve nicht schneller sind.Frank Glencairn hat geschrieben: ↑Sa 18 Feb, 2023 15:44Wasserkühlung wird gerne überschätzt.
Die aktuellen Module sind mittlerweile mehr als schnell genug für alles.
Nicht zwingend: eine gebrauchte 3090/3090 Ti langt unterm Strich locker für das meiste.
Es ist eben immer die Frage, ob der Leistungsunterschied dann in der Praxis wirklich den höheren Preis rechtfertigt.markusG hat geschrieben: ↑Sa 18 Feb, 2023 16:03Wenn du nicht mehr als 2 Gpus verwendest oder zig Nvmes verwendest sollte das dicke genügen, was es so im Konsumentenbereich gibt. Da solltest du nur darauf achten, dass das Mainboard auch möglichst viele der Lanes „mitbringt“, also nicht am falsche Ende (Chipsatz) sparen…
Nun, bei den Pugetbench Ergebnissen führt zumindest in DR jedenfalls kein HEDT–Prozessor ;)
Vorher hatte ich die Asus RTX 2070 Super OC mit 8GB. Grundsätzlich auch flott was die Renderzeiten anging, aber der "geringe" Arbeitsspeicher kam immer öfter an seine Grenzen, was auf Dauer gerade bei größeren Projekten dann doch ziemlich genervt hat. Und bei Formaten über 4k - gerade im HEVC Codec - war eine dauerhaft flüssige Wiedergabe ohne Proxys dann nicht mehr möglich. Und nun auch noch das 6K OG BRAW der Z Cam oder das 8K Raw der Canon - da wollte ich auf längere Zeit Ruhe haben. Letztendlich sollte man wie bei allem anderen auch in der gesamten Verabeitungskette nicht sparen, um die Qualität bis zum Schluss aufrecht zu erhalten und vor allem Zeit und Nerven zu sparen. Die Preispolitik ist aber dennoch absurd.iasi hat geschrieben: ↑Sa 18 Feb, 2023 16:20Von welcher Karte bist du denn gekommen?Clemens Schiesko hat geschrieben: ↑Sa 18 Feb, 2023 15:23
Sofern Du in Zukunft z.B. mit dem AV1 Codec arbeiten möchtest, ist eine RTX 40... unabdingbar.
Und auch so: seitdem bei mir eine RTX 4090 werkelt ist das Arbeiten in Resolve ein Träumchen. Jedoch verstehe ich, das der Preis natürlich ordentlich Überwindung kostet.
Dass die RTX 4090 ein Träumchen ist, glaube ich gern.
Da ich ein Raw-Mensch bin, sind mir die unterstützten Codecs nicht besonders wichtig.
Wie lange am Ende das Rendern dauert, juckt mich auch nicht so sehr.
Während dem Arbeiten sollte es jedoch rund laufen.
Die Frage muss man sich immer stellen.markusG hat geschrieben: ↑Sa 18 Feb, 2023 16:56Nun, bei den Pugetbench Ergebnissen führt zumindest in DR jedenfalls kein HEDT–Prozessor ;)
Wenn du dir diese Frage stellen musst behaupte ich mal, dass dir ein Threadripper nichts bringt. Die P/L dürfte im Vergleich ziemlich grottig sein, es kommen ja teure Boards&RAM dazu…
Interessant. Danke.Clemens Schiesko hat geschrieben: ↑Sa 18 Feb, 2023 17:16Vorher hatte ich die Asus RTX 2070 Super OC mit 8GB. Grundsätzlich auch flott was die Renderzeiten anging, aber der "geringe" Arbeitsspeicher kam immer öfter an seine Grenzen, was auf Dauer gerade bei größeren Projekten dann doch ziemlich genervt hat. Und bei Formaten über 4k - gerade im HEVC Codec - war eine dauerhaft flüssige Wiedergabe ohne Proxys dann nicht mehr möglich. Und nun auch noch das 6K OG BRAW der Z Cam oder das 8K Raw der Canon - da wollte ich auf längere Zeit Ruhe haben. Letztendlich sollte man wie bei allem anderen auch in der gesamten Verabeitungskette nicht sparen, um die Qualität bis zum Schluss aufrecht zu erhalten und vor allem Zeit und Nerven zu sparen. Die Preispolitik ist aber dennoch absurd.iasi hat geschrieben: ↑Sa 18 Feb, 2023 16:20
Von welcher Karte bist du denn gekommen?
Dass die RTX 4090 ein Träumchen ist, glaube ich gern.
Da ich ein Raw-Mensch bin, sind mir die unterstützten Codecs nicht besonders wichtig.
Wie lange am Ende das Rendern dauert, juckt mich auch nicht so sehr.
Während dem Arbeiten sollte es jedoch rund laufen.
Klar. Ein Nachteil ist es natürlich nicht und man nimmt es auch gern mit. Ausschlaggebend wäre es für mich jedoch nicht.Clemens Schiesko hat geschrieben: ↑Sa 18 Feb, 2023 17:16 Zwecks AV1: decodieren können diesen Codec ja im Grunde schon viele Geräte und er wird ja teilweise schon von Netflix und Co eingesetzt. Jedoch können ihn bisher nur die wenigsten Karten auch encodieren. Gerade bei der Archivierung ist solch ein effizienter Codec von Vorteil. Und da er sicher immer mehr Raum einnehmen wird und HEVC auf lange Sicht vermutlich auch verdrängen wird, ist es zu mindestens kein Nachteil den Encoder für die Zukunft schon mit an Board zu haben. Also das nur als zusätzliche Info für die Kaufentscheidung.
Wenn dir die Investitionssumme für mehr als 2 Grafikkarten bereits zu unsicher sind, wird es die Threadripperplattform wohl erst recht (hinsichtlich ROI). Und Benchmarks gibt es ja zur Leistungseinschätzung.
Wäre das das NLE deiner Wahl?
Hast du dir die Preise für Grafikkarten mal angesehen?markusG hat geschrieben: ↑So 19 Feb, 2023 12:25Wenn dir die Investitionssumme für mehr als 2 Grafikkarten bereits zu unsicher sind, wird es die Threadripperplattform wohl erst recht (hinsichtlich ROI). Und Benchmarks gibt es ja zur Leistungseinschätzung.
Aber Intel bringt demnächst ja einen HEDT refresh, der in deinen Anwendungsfall passen könnte (geringerer CPU Anteil bzgl Kosten):
https://www.heise.de/news/Sapphire-Rapi ... 16604.html
Bei den Consumerplattformen hast du halt im Zweifel den Vorteil, nicht viel Kohle verballert zu haben, solltest du an die "Schallgrenze" bei den GPUs geraten, und die GPUs kannst du ja in beide Richtungen weiterverwenden. Und solltest du diese Diskrepanz finanziell nicht stemmen können, wirst du das gleiche Problem beim Threadripper haben, wenn du verstehst wie ich das meine.
Wäre das das NLE deiner Wahl?
Dann hol dir doch einfach den Threadripper und taste dich Grafikkarte für Grafikkarte heran, wenn du meinst dass der Aufpreis für dich irrelevant ist. Musst ja nicht gleich 5xRTX4090 holen, eine reicht ja erstmal, vllt sogar eine RTX3090, die sind ja dann doch im Preis gefallen :)
Du meinst also, ich soll mal "auf Vorrat" in einen Threadripper und ein 2000W-Netzteil investieren, da ich in Zukunft vielleicht mehrere 4090 brauche?markusG hat geschrieben: ↑So 19 Feb, 2023 22:36Dann hol dir doch einfach den Threadripper und taste dich Grafikkarte für Grafikkarte heran, wenn du meinst dass der Aufpreis für dich irrelevant ist. Musst ja nicht gleich 5xRTX4090 holen, eine reicht ja erstmal, vllt sogar eine RTX3090, die sind ja dann doch im Preis gefallen :)
Und wenn du die Schallgrenze merkst, kaufst dir ne zweite dazu. Oder ne dritte. Ist ja das schöne an der Plattform :)
Netzteil kannst du ja immer noch aufrüsten. Wie gesagt ist es nicht meine Empfehlung, und TR nicht die erste Wahl zumindest bei DR.
Eben dies. Du dürftest zB mit einer einzigen RTX4090 (mitsamt zB i9) schon sehr weit kommen (nach deinen obigen Angaben zu urteilen), und im Zweifel problemlos eine zweite dazu holen können, wenn es sich für dich denn rentiert. Das kannst am Ende nur du wissen, keine Ahnung was du für Projekte du bedienst bzgl. Gage.Aber schon eine grobe Schätzung der Preisregion zeigt mir, dass sich das für mich nicht lohnt.
Nun - wenn eine Threadripper-3x4090-Workstation täglich nur eine Zeitersparnis von einer Minute bringt, ist die höhere Investition nur bei wenigen Leuten sinnvoll.markusG hat geschrieben: ↑Mo 20 Feb, 2023 00:01Netzteil kannst du ja immer noch aufrüsten. Wie gesagt ist es nicht meine Empfehlung, und TR nicht die erste Wahl zumindest bei DR.
Eben dies. Du dürftest zB mit einer einzigen RTX4090 (mitsamt zB i9) schon sehr weit kommen (nach deinen obigen Angaben zu urteilen), und im Zweifel problemlos eine zweite dazu holen können, wenn es sich für dich denn rentiert. Das kannst am Ende nur du wissen, keine Ahnung was du für Projekte du bedienst bzgl. Gage.Aber schon eine grobe Schätzung der Preisregion zeigt mir, dass sich das für mich nicht lohnt.
Können wir vielleicht mal endlich mit dem Mythos aufräumen, daß ein größeres Projekt mehr VRAM braucht?Clemens Schiesko hat geschrieben: ↑Sa 18 Feb, 2023 17:16
Vorher hatte ich die Asus RTX 2070 Super OC mit 8GB. Grundsätzlich auch flott was die Renderzeiten anging, aber der "geringe" Arbeitsspeicher kam immer öfter an seine Grenzen, was auf Dauer gerade bei größeren Projekten dann doch ziemlich genervt hat.
Es ist kein Mythos.Frank Glencairn hat geschrieben: ↑Mo 20 Feb, 2023 09:12Können wir vielleicht mal endlich mit dem Mythos aufräumen, daß ein größeres Projekt mehr VRAM braucht?Clemens Schiesko hat geschrieben: ↑Sa 18 Feb, 2023 17:16
Vorher hatte ich die Asus RTX 2070 Super OC mit 8GB. Grundsätzlich auch flott was die Renderzeiten anging, aber der "geringe" Arbeitsspeicher kam immer öfter an seine Grenzen, was auf Dauer gerade bei größeren Projekten dann doch ziemlich genervt hat.
Und wie sind wir hier von "ist das denn wirklich alles nötig" auf "ich brauch mindestens 2 GPUs" gekommen?
genau der richtige tip.Kauf Dir doch erstmal eine Graka und schaue wie weit Du damit kommst.
Daran hatte ich auch gedacht.pillepalle hat geschrieben: ↑Mo 20 Feb, 2023 09:49 Kauf Dir doch erstmal eine Graka und schaue wie weit Du damit kommst. Wenn es dann mehr braucht kannst Du immer noch nachrüsten. Für meinen 4K Kram reicht meine zweieinhalb Jahre alte 2060 Super immer noch aus. Wenn ich irgendwann mehr brauchen sollte, weil ich vielleicht auch mit höheren Auflösungen arbeite oder mehr rechenintensive Sachen machen muss, hole ich mir eben eine bessere, bzw. vielleicht auch einen besseren Rechner. Aber im vorauseilendem Gehorsam werde ich erstmal nicht aufrüsten.
VG
Es ging um die Länge der Timeline - bei dem Test ist die Timeline aber immer die selbe.
Der Test bezieht sich nur auf GPU Effekte.
und dafür "reicht" imho eine Consumer-CPU a la i9 13900k, das stellt ja idR mit das Optimum aktuell dar, wenn es um CPU-Leistung in DR/Premiere geht.pillepalle hat geschrieben: ↑Mo 20 Feb, 2023 09:49 Kauf Dir doch erstmal eine Graka und schaue wie weit Du damit kommst. Wenn es dann mehr braucht kannst Du immer noch nachrüsten.
Das hattest du nur so interpretiert.Frank Glencairn hat geschrieben: ↑Mo 20 Feb, 2023 10:23Es ging um die Länge der Timeline - bei dem Test ist die Timeline aber immer die selbe.
Der Test bezieht sich nur auf GPU Effekte.Frank Glencairn hat geschrieben: ↑Mo 20 Feb, 2023 10:23Mal zum Vergleich:
Ich rechne gerade ein Spielfilm DCP (2K DCI Scope) - Timeline Länge ist 120 Minuten.
Material ein Mix aus Red, BRAW, CDNG, H264. Im Schnitt so um die 8 Nodes.
Das Ganze braucht momentan 3,3 GB VRAM, die GPU dümpelt bei 68% rum die CPU bei 89%.
Und ja - wenn das Material nicht von einer externen USB 3 kommen würde, hätte ich wahrscheinlich ne etwas bessere Auslastung).
Wir reden dabei von einer uralten 4GB GTX 980 und einem noch älteren Intel Core i7 980@3,33 GHz.
Nochmal: Finger weg von AMD (leider!)
Probleme gab es mit dem System auch schon vor dem Einbau der AMD-Karte.