Logo Logo
/// 

Neue Nvidia RTX 6000 Profi-Grafikkarte: 48 GB VRAM und 18.176 CUDA Cores



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Zusammen mit den ersten Modellen der neuen RTX 40 Serie hat Nvidia auch die nächste Generation der RTX 6000 Grafikkarte vorgestellt, welche sich speziell an Kreativprofis...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neue Nvidia RTX 6000 Profi-Grafikkarte: 48 GB VRAM und 18.176 CUDA Cores




Antwort von bennik88:

Das schreit förmlich nach einem Vergleich zwischen der RTX 6000 und RTX 4090 (ggf. demnächst ti) in DaVinci Resolve. Bin gespannt. Spannende auch wenn teure Zeiten für Hardware Acceleration.



Antwort von patfish:

Ich finde es zu den Preisen nicht spannend :D ...bin so froh vor 2,5 Jahren eine RTX 3090 um 1500€ ergattern zu können. Bei der 5090 (mit hoffentlich wesentlich mehr effizient (unter 400Watt!)werde ich wieder interessierter ;-)








Antwort von Frank Glencairn:

patfish hat geschrieben:
Ich finde es zu den Preisen nicht spannend :D ...bin so froh vor 2,5 Jahren eine RTX 3090 um 1500€ ergattern zu können.
Mehr als doppelt so schnell wie ne 3090, plus aktuelle Architektur mit den ganze Vorteilen für nur 400,- mehr?
Klingt für mich jetzt nicht gerade nach nem schlechten Deal.



Antwort von roki100:

Um ehrlich zu sein, wenn ich mir die Preise für Nvidia, CPU & Co. anschaue und ich doch damit "nur" Video&Grafiken bearbeiten soll, dann beantwortet sich (ohne viel zu überlegen) in mir direkt automatisch; hol dir doch den verdammten Apple M1/M2 und gut ist! ;)

Anders wenn man mit Maya oder ähnliches arbeitet, dann okay...



Antwort von patfish:

1) Um den Preis musst du sie erst mal bekommen! ...War ja damals bei der 3090 auch so, dass du wesentlich höhere Preise zahlen misstest wenn du sie haben wolltest.

2)Sorry, Ich hab die Karte ja schon 2,5 Jahre in Betrieb ...da macht es keinen Sinn alte Preise mit neuen zu vergleichen :D

3)Die immer mehr Watt muss man sich erst auch mal leisten wollen. Ist ja bei mir schon nicht ohne.

4) Doppelt so schnell - Am Papier sicher! in der Praxis sicher nicht :-)



Antwort von patfish:

Bei der 5090 werd lch dann wieder schauen ...hoffe es geht mit den Preisen und den Watt nicht so weiter :-/



Antwort von patfish:

roki100 hat geschrieben:
...hol dir doch den verdammten Apple M1/M2 und gut ist! ;)

Anders wenn man mit Maya oder ähnliches arbeitet, dann okay...
Klar, wenn du nur ein paar Youtube-Videos schneidest und Logos bastelst - bin ich voll bei Dir!. Die 24GB RAM sollte man sich nur dann kaufen wenn man weiß warum - oder Geld überhaupt keine Rolle spielt ;-)



Antwort von roki100:

patfish hat geschrieben:
roki100 hat geschrieben:
...hol dir doch den verdammten Apple M1/M2 und gut ist! ;)

Anders wenn man mit Maya oder ähnliches arbeitet, dann okay...
Klar, wenn du nur ein paar Youtube-Videos schneidest und Logos bastelst - bin ich voll bei Dir!. Die 24GB RAM sollte man sich nur dann kaufen wenn man weiß warum - oder Geld überhaupt keine Rolle spielt ;-)
ah, ich mache da schon mehr, Fusion, Blender usw. alles kein Problem, kann auch 5 Minuten länger warten bzw. statt eine Tasse Kaffee, nehme ich gern noch ne zweite... ;)



Antwort von markusG:

roki100 hat geschrieben:
Anders wenn man mit Maya oder ähnliches arbeitet, dann okay...
Die RTX 6000 richtet sich nicht so wirklich an Cutter ;)

Zum Thema Preisgestaltung:
RTX-4000-Grafikkarten: Nvidia, wen wollt Ihr veralbern? - Ein Kommentar
https://www.heise.de/meinung/Kommentar- ... 73912.html

*edit:
Lieber neue Mainboards statt GPU-Hebebühnen und -Heckspoiler
https://www.golem.de/news/pcie-anschlus ... 68488.html



Antwort von MIIIK:

patfish hat geschrieben:
Klar, wenn du nur ein paar Youtube-Videos schneidest ...
Wenn ich sowas schon lese. Ich mach den Job jetzt 9 Jahre im SoMe Bereich und find es echt nervig das sowas immer noch nicht ernst genommen wird.

Warum sind Online Medien immer "nur Youtube"? Mittlerweile wird so viel nur für das Medium Internet produziert und dennoch wird die sparte immer klein geredet. Warum ?

// Das die GPU Unnötig für 95% aller Cutter is, sollte klar sein. Wenn man auf nem M1 Max und co mehrere 8k Streams schneiden kann braucht man kaum was größeres



Antwort von Frank Glencairn:

MIIIK hat geschrieben:

Das die GPU Unnötig für 95% aller Cutter is, sollte klar sein. Wenn man auf nem M1 Max und co mehrere 8k Streams schneiden kann braucht man kaum was größeres
Wir reden hier von Leuten die diese Leistung aus irgendeinem Grund tatsächlich wollen/brauchen, und die deshalb auch kein Problem mit dem Preis haben - für alle anderen gibt's ja genug Alternativen.

Wenn sich jemand nen Lamborghini kauft, sagt ich ihm ja auch nicht, daß der für 95% aller Autofahrer unnötig ist.

markusG hat geschrieben:

Zum Thema Preisgestaltung:
RTX-4000-Grafikkarten: Nvidia, wen wollt Ihr veralbern? - Ein Kommentar
https://www.heise.de/meinung/Kommentar- ... 73912.html

*edit:
Lieber neue Mainboards statt GPU-Hebebühnen und -Heckspoiler
https://www.golem.de/news/pcie-anschlus ... 68488.html
Das ist aber schon ziemliches Mimimimi...

Wer nicht in der Lage ist, die jeweiligen Specs vor dem Kauf zu lesen, dem ist wirklich nicht mehr zu helfen.

Und was die "Hebebühnen" betrifft - einerseits permanent nach immer mehr Leistung schreien, und wenn die Kühlkörper dann auch dementsprechend dimensioniert werden müssen, rumjammern daß das Ganze halt ab nem gewissen Punkt auch ne adequate Befestigung braucht.








Antwort von markusG:

"Frank Glencairn" hat geschrieben:
Das ist aber schon ziemliches Mimimimi...
Naja, finde ich persönlich nun auch nicht so dramatisch, aber kann trotzdem dieses "Mogelpackung" Argument nachvollziehen - Nvidia ist da ja kein Kind von Unschuld (GTX970...). Aber am Ende des Tages glaub ich nicht dass sich die Hauptzielgruppe - Gamer - da leichtgläubig verarschen lässt^^

Aber zusammen mit der Geschäftspraxis - siehe Ausstieg von EVGA - ein weiterer uncooler Move.

Mit den Hebebühnen hast du wohl nicht vollständig gelesen, oder? Es geht weniger um die Notwendigkeit, und vielmehr um die mangelhafte Lösung.



Antwort von freezer:

Die RTX 6000 hat nun auch 3 NVENC Chips statt 1 bei der RTX A6000 und 3 NVDEC Chips statt 2.
https://developer.nvidia.com/video-enco ... matrix-new

RTX A6000 / RTX 6000
628 mm² / 608.4 mm²
8nm Samsung / 4nm TSMC
28,3 Mrd Transistoren / 76.3 Mrd Transistoren
Base Clock 1410 MHz / 2355 MHz ?
Boost Clock 1800 MHz / 2625 MHz ?
Memory Clock 2000 MHz / 2000 MHz
10.752 Cuda Cores (38.7 TFLOPS) / 18.176 Cuda Cores (95.42 TFLOPS ?) <- mind. Faktor 1,7 (Faktor 2 lt. NVIDIA)
336 Tensor Cores (309.7 TFLOPS) / 568 Tensor Cores <- mind. Faktor 1,7 (Faktor 2 lt. NVIDIA)
84 RT Cores 75.6 TFLOPS) / 142 RT Cores <- mind. Faktor 1,7 (Faktor 2 lt. NVIDIA)
48 GB GDDR6 mit ECC / 48 GB GDDR6 mit ECC
384-bit Speicherschnittstelle / 384-bit Speicherschnittstelle
768 GB/s Speicherdurchsatz / 768 GB/s Speicherdurchsatz

Zusammengetragen von:
https://www.techpowerup.com/gpu-specs/r ... -ada.c3933
https://www.pny.com/nvidia-rtx-6000-ada
https://www.nvidia.com/de-de/design-vis ... -graphics/

Ich werde wohl auf länger Sicht meine RTX A6000 noch nicht ersetzen.



Antwort von Frank Glencairn:

markusG hat geschrieben:


Mit den Hebebühnen hast du wohl nicht vollständig gelesen, oder? Es geht weniger um die Notwendigkeit, und vielmehr um die mangelhafte Lösung.
Die Frage ist: Funktioniert so eine Lösung oder nicht?
Anscheinend schon, sonst würden die Marktfürer das Zeug ja nicht einbauen.
Mit der RTX-4000-Serie hat die Industrie aber offenbar den Punkt erreicht, an dem dies kein optionales Zubehör mehr zu sein scheint, sondern zwingend notwendiger Bestandteil, der direkt mit der Karte ausgeliefert wird. Einige Hersteller wie HP, Dell oder Lenovo verbauen derartiges Equipment konsequent in ihren Profi-Serien.
Solche Konstruktionen hab ich schon vor über 20 Jahren in HighEnd Workstations mit irgendwelchen Spezialanwendungskarten gesehen, die auch ziemliches Gewicht hatten.

Also von "mangelhaft" würde ich da jetzt nicht sprechen - rein technisch ist das ganze jetzt ja auch eher trivial.

Wäre die Befestigung an den Löchern eleganter?
Womöglich - hängt vielleicht auch davon ab wie viel "Design und Bling" man in seinem Rechner meint haben zu müssen.
Aber die reine Funktion - abseits irgendwelcher Designwünsche - ist mit den Stützen genau so gut gegeben.



Antwort von markusG:

"Frank Glencairn" hat geschrieben:
Die Frage ist: Funktioniert so eine Lösung oder nicht?
Nein das ist nicht die Frage (gewesen). Zumindest nicht nur. Es geht z.B. um fehlende Standards, und dass die Lösungen halt etwas lächerlich/improvisiert wirken (es wird auch von Schnüren geschrieben!).
"Frank Glencairn" hat geschrieben:
Solche Konstruktionen hab ich schon vor über 20 Jahren in HighEnd Workstations mit irgendwelchen Spezialanwendungskarten gesehen, die auch ziemliches Gewicht hatten.
Steht ja im Artikel:
"Golem.de"] Einige Hersteller wie HP, Dell oder Lenovo verbauen derartiges Equipment konsequent in ihren Profi-Serien.
[quote="Frank Glencairn" hat geschrieben:
Wäre die Befestigung an den Löchern eleganter?
Womöglich - hängt vielleicht auch davon ab wie viel "Design und Bling" man in seinem Rechner meint haben zu müssen.
Aber die reine Funktion - abseits irgendwelcher Designwünsche - ist mit den Stützen genau so gut gegeben. Ich finde zB die Lösung vom 2019er Mac Pro ganz chic (verwechsel Design mal nicht mit Aussehen ;) ). Die Krux bei PCs ist halt das ganze zu standarisieren. Apple hat ja die Bequemlichtkeit eine Boutique-Lösung durchzuboxen, bei PCs wäre es halt nett wenn alles miteinander kompatibel ist und man nicht bei GPU Wechsel direkt das Gehäuse, Mainboard etc. wechseln muss.

p.s.: gerade wenn die chose mal verschickt werden muss bin ich froh wenn was festgeschraubt werden kann statt bloß "aufzuliegen" (wie bei einigen 3rd Party Lösungen)....



Antwort von DKPost:

So ein Teil war schon bei meiner 3080 von Asus dabei:

https://www.asus.com/Motherboards-Compo ... GA-Holder/

Und ehrlich gesagt bin ich da auch ganz froh weil die Karte wirklich massiv viel wiegt. Die Schiene wird in die gleichen Löcher wie die Karte selbst geschraubt, man hat also nicht einmal zusätzliche Schrauben. Der Einbau dauert 5 Sekunden und seitdem habe ich das Ding nie wieder gesehen. Das ist für mich nun wirklich kein Aufreger.



Antwort von markusG:

DKPost hat geschrieben:
Das ist für mich nun wirklich kein Aufreger.
Ist halt wieder
a) eine (semi) Custom-Lösung
b) hinderlich bei MultiGPU Lösungen.
Immerhin verschraubt und nicht gestellt marke "Hebebühne"^^

Warum nicht standarisierte Brackets verwenden? Gibt es ja.
AMD-Threadripper-PRO-and-Lenovo.009.jpg



Antwort von DKPost:

markusG hat geschrieben:
DKPost hat geschrieben:
Das ist für mich nun wirklich kein Aufreger.
Ist halt wieder
a) eine (semi) Custom-Lösung
b) hinderlich bei MultiGPU Lösungen.
Immerhin verschraubt und nicht gestellt marke "Hebebühne"^^

Warum nicht standarisierte Brackets verwenden? Gibt es ja.

AMD-Threadripper-PRO-and-Lenovo.009.jpg
Weil ich keine 2 GPUs habe und das Teil umsonst bei der Karte dabei war. Warum was anderes verwenden?



Antwort von markusG:

DKPost hat geschrieben:
Weil ich keine 2 GPUs habe und das Teil umsonst bei der Karte dabei war. Warum was anderes verwenden?
Das war nicht an dich gerichtet, sondern eine rhetorische Frage.

Würden es alle Hersteller so handeln, gäbe es nicht den Zubehörmarkt - und einen Heise- /Golemartikel (oder yt videos...) weniger :P



Antwort von MIIIK:

"Frank Glencairn" hat geschrieben:
Wir reden hier von Leuten die diese Leistung aus irgendeinem Grund tatsächlich wollen/brauchen, und die deshalb auch kein Problem mit dem Preis haben - für alle anderen gibt's ja genug Alternativen.
Ganz genau. Ich hab mich nur über die Aussage aufgeregt das man mit nem M1 / M2 zufrieden sein kann wenn man "nur Youtube" macht. Das impliziert eben unterschwellig "Die GPU is für Leute die nen echten Job haben".

Ich behaupte mal das hier im Forum kaum jemand ist der sich nen Rack von den 6000ern kauft. Die News is spannend und das Produkt is ja auch echt nicht schlecht. Ging mir nur um den Punkt das man Online Medien immer noch so klein redet.

Und da hattest du ja nix mit am Hut mit der Aussage :)








Antwort von patfish:

MIIIK hat geschrieben:

Ganz genau. Ich hab mich nur über die Aussage aufgeregt das man mit nem M1 / M2 zufrieden sein kann wenn man "nur Youtube" macht.
Noch mal. Für Youtub-Videoschnitt würde ich mir wahrscheinlich keine 3090 oder jetzt eben 4090 kaufen. Auch für Games braucht man noch keine 24GB RAM. Wenn du aber 3D Simulationen/VFX, Virtual Production, machst, Neurale Netwerke trainierst oder professionelles Color Grading mit RAW Material in Danvinci Resolve machst, dann schaut die Welt schon ganz anders aus ...aber dann reden wir hald auch nicht von 5 Minuten/einer Tasse Kaffe sondern oftmals 100 und mehr Tassen :D



Antwort von MIIIK:

patfish hat geschrieben:
MIIIK hat geschrieben:

Ganz genau. Ich hab mich nur über die Aussage aufgeregt das man mit nem M1 / M2 zufrieden sein kann wenn man "nur Youtube" macht.
Noch mal. Für Youtub-Videoschnitt würde ich mir wahrscheinlich keine 3090 oder jetzt eben 4090 kaufen. Auch für Games braucht man noch keine 24GB RAM. Wenn du aber 3D Simulationen/VFX, Virtual Production, machst, Neurale Netwerke trainierst oder professionelles Color Grading mit RAW Material in Danvinci Resolve machst, dann schaut die Welt schon ganz anders aus ...aber dann reden wir hald auch nicht von 5 Minuten/einer Tasse Kaffe sondern oftmals 100 und mehr Tassen :D
Absolut richtig, war nur sehr ungünstig Formuliert mit "YouTube oder Logos". Ich würde mal sagen selbst ARD/ZDF Dokus und alles was RTL und co raus hauen sowieso sind auch auf nem M1 / M2 möglich (Wenn die nicht noch auf ihren AVID Workstations hängen? Aber da bin ich raus). Solche GPUs sind vermutlich eher schon in unserem Düsseldorfer Medienhafen und seiner Werbeindustrie gut aufgehoben als sonst wo im TV.

Wenn ich überlege wie so ne GPU mein Studium im 3D und VFX Bereich erleichtert hätte ... Wobei 3D Sim ja zumindest in Houdini noch CPU gebunden ist wenn ich mich recht erinnere.

Aber allein die Möglichkeit via Ray oder Octane einen Render irgend wann in FPSeconds und nicht in FPHours zu berechnen, ist schon echt ne verrückte Sache



Antwort von roki100:

MIIIK hat geschrieben:
...
// Das die GPU Unnötig für 95% aller Cutter is, sollte klar sein. Wenn man auf nem M1 Max und co mehrere 8k Streams schneiden kann braucht man kaum was größeres
genau das meinte ich... ;)



Antwort von Blackbox:

Übergeordnet interessant finde ich die Ankündigung bzw. Auffassung von Nvidia, dass das Moorsche Gesetz für ihr Grafiksegment fortan keine Gültigkeit mehr habe.
Der Plan scheint offenbar zu sein die aktuellen und kommenden Leistungszuwächse mehr oder weniger linear in Preiserhöhungen umsetzen zu können?
Wenn die einzig verbliebene Konkurrenz auf diesen Zug aufspringt wird es spannend inwieweit der Absatzmarkt auf diesen 'Affront' reagieren wird, bzw. reagieren kann, denn gegen ein gut eingespieltes global agierendes Duopol ist derzeit - angesichts der enormen Kosten überhaupt nur am Spieltisch Platz nehmen zu dürfen - wohl kein Kraut gewachsen.
Sollte es dann mal chinesische Konkurrenz geben wird diese wohl recht einfach weg zu sanktionieren sein (siehe Huawei).



Antwort von cantsin:

Blackbox hat geschrieben:
Übergeordnet interessant finde ich die Ankündigung bzw. Auffassung von Nvidia, dass das Moorsche Gesetz für ihr Grafiksegment fortan keine Gültigkeit mehr habe.
Der Plan scheint offenbar zu sein die aktuellen und kommenden Leistungszuwächse mehr oder weniger linear in Preiserhöhungen umsetzen zu können?
Ich sehe da momentan nur Apple und in der Zukunft vielleicht noch andere SoC-Entwickler als ernsthaften Gegenspieler. Wenn SoCs wie die M1/M2 zumindest für Kreativanwendungen eine ernsthafte (d.h. ausreichend performante & dazu noch preiswertere und stromsparendere) Alternative zu den Nvidia-Strom- und Geldfressern werden, könnten Grafikkarten irgendwann einmal so enden wie früher Soundblaster-Karten.



Antwort von Blackbox:

Ich überlege auch schon beim nächsten Wechsel die beiden Dual-xeon HP's gegen DEUTLICH energieeffizientere apple-Kisten oder macbooks auszutauschen.
Für diesen - und vielleicht den nächten - Winter allerdings ist 'dual use' als Schnittrechner und Heizlüfter noch recht praktisch.

p.s.:
Ja.
Das mag auch, neben den Perspektiven des künftigen Automobilmarktes, einer der Gründe gewesen sein für Nvidias (behördlich gescheiterten) Versuch ARM aufzukaufen?



Antwort von pillepalle:

Ich sehe es schon kommen... bald sind die Apple Rechner die 'Billigware' und der Desktoprechner mit dezidierter Grafikkarte wird zum Luxusobjekt 🙃

VG



Antwort von Frank Glencairn:

Wenn du, sagen wir mal so 5000,- Öcken rum in einen Rechner investierst, bekommst du aktuell bei Apple so ungefähr die selbe Leistung wie bei einem PC für's gleiche Geld.



Inwiefern sich das Verhältnis in Zukunft dahin verschiebt, daß Apple zum Billigrechner wird, hängt hauptsächlich von der Entwicklung der GPU Preise ab, da die GPU meistens der teuerste Teil eines PCs ist.



Antwort von Darth Schneider:

Den M1 gibt es ja in zig Varianten.
Und bei Apple ist nicht zwangsläufig dann nur die CPU teuer…
Sondern vor allem auch der Ssd Speicher und auch Ram, natürlich neben dem M1 Pro/Max und was es noch alles für Varianten mit mehr Kernen und Grafik Power gibt…
Also billiger als mit PCs wird es bei Apple nicht wirklich.
Sobald man mehr als 16gb Ram will und ne grosse ssd möchte, dann wird’s dann schnell wirklich teuer, bei Apple…

(Ausser mit kauft sich gleich nur ein Mac Mini, oder gleich zwei davon..;)))
Der ist dann aber entspr. dem tiefen Preis auch wieder langsamer, und nicht so gut bestückt….
Gruss Boris








Antwort von Frank Glencairn:

Wer Speicher (nicht RAM - da geht's ja leider nicht mehr anders) bei Apple kauft, dem ist sowieso nicht mehr zu helfen.
Ist doch völlig wurscht, ob der Speicher jetzt intern oder extern ist.

Die Workstations hier haben ja auch nur 6-8 GB internes RAID, die eigentlichen Projektdaten liegen immer auf den externen RAIDs, was den Vorteil hat, daß man selbst riesige Datenmengen einfach durch umstöpseln - in no time - von einem Rechner auf den anderen bekommt. Warum sollte man das beim Mac anders machen?



Antwort von freezer:

"Frank Glencairn" hat geschrieben:
Wenn du, sagen wir mal so 5000,- Öcken rum in einen Rechner investierst, bekommst du aktuell bei Apple so ungefähr die selbe Leistung wie bei einem PC für's gleiche Geld.



Inwiefern sich das Verhältnis in Zukunft dahin verschiebt, daß Apple zum Billigrechner wird, hängt hauptsächlich von der Entwicklung der GPU Preise ab, da die GPU meistens der teuerste Teil eines PCs ist.
Wobei in diesem Video der Youtuber 30p 25p und 50p Material in eine 24fps Timeline gibt, was schon mal ziemlich sinnlos ist - und vermutlich hat er in der Edit Page auch nicht "Show All Video Frames" aktiviert, was dann die ruckelige Wiedergabe erklären würde - die hatte ich hier an meinem PC deswegen auch, trotz Ryzen 9 5900X / 128 GB Ram und RTX A6000. Ist die Option aktiviert, dann läuft alles glatt.



Antwort von Frank Glencairn:

Ja, dieser Test ist in einigen Belangen etwas fishy, aber mir gings eigentlich mehr darum daß man für 5000,- mittlerweile so ungefähr ne ähnliche Leistung bekommt - sprich bereits jetzt nicht mehr viel um ist, wenn man den selben Betrag ausgibt.



Antwort von freezer:

"Frank Glencairn" hat geschrieben:
Ja, dieser Test ist in einigen Belangen etwas fishy, aber mir gings eigentlich mehr darum daß man für 5000,- mittlerweile so ungefähr ne ähnliche Leistung bekommt - sprich bereits jetzt nicht mehr viel um ist, wenn man den selben Betrag ausgibt.
Da hast Du recht.
Mein aktueller PostPro PC liegt eher im 10.000 Euro Bereich - da wäre ein Mac auch kein Problem gewesen.
Und schaut man beim PC-Bau ein bisschen auf die Qualität der Komponenten sind 2500,- auch schnell ausgegeben - noch ohne Highend Grafikkarte und Monitore.



Antwort von cantsin:

freezer hat geschrieben:
Und schaut man beim PC-Bau ein bisschen auf die Qualität der Komponenten sind 2500,- auch schnell ausgegeben - noch ohne Highend Grafikkarte und Monitore.
Die eigentliche Geldersparnis (und auch bessere Nachhaltigkeit/Umweltbilanz) von PCs liegt darin, dass man sie nicht alle paar Jahre komplett austauscht, sondern je nach Bedarf nur Mainboard/CPU/RAM und/oder GPU wechselt.

Mein letztes Upgrade von einem i7 5820K 6-Core + 32GB auf einen Ryzen 3900x 12-Core + 64GB inkl. neuem Kühler und stärkerem Netzteil kostete mich ganze 1350 EUR. Davor lief die (ursprünglich für HD CinemaDNG ausgelegte + Resolve) Intel i7-Konfiguration 5 Jahre lang, mit einem zwischenzeitlichen GPU-Upgrade.

Und alle ausgemusterten/ersetzten Komponenten konnte ich für ein paar Hunderter weiterverkaufen, und sie laufen immer noch beim Käufer.

Während ein nichtaufrüstbarer Komplettrechner mich unter dem Strich wahrscheinlich mehr als das doppelte gekostet hätte und in seiner ersten Version schlimmstenfalls im Schrotthaldenviertel von Accra/Ghana gelandet wäre.



Antwort von markusG:

"Frank Glencairn" hat geschrieben:
Wenn du, sagen wir mal so 5000,- Öcken rum in einen Rechner investierst, bekommst du aktuell bei Apple so ungefähr die selbe Leistung wie bei einem PC für's gleiche Geld.
Kommt halt darauf an. Idr bei allem was rohe GPU Power ohne jegliche Optimierung auskommen muss (im Sinne von dedizierten Decoder-Chips usw) sind die Systeme nicht wirklich vergleichbar, zumal man beim PC je nach Anwendung skalieren kann. Für 5000€ kriegt man inzwischen locker ein potentes System mit 2x3090er. Und je nach Anwendung ist Apple Silicon noch Jahre entfernt aufzuholen - n hat sich zwar inzwischen einiges getan, aber nicht überall (genug), siehe Blender, Unreal Engine, VR & Co.

https://9to5mac.com/2022/03/31/m1-ultra ... th-nvidia/

Das mag die meisten hier vlt nicht tangieren, aber vermutlich diejenigen aus der Zielgruppe einer RTX6000.



Antwort von vaio:

markusG hat geschrieben:
"Frank Glencairn" hat geschrieben:
Die Frage ist: Funktioniert so eine Lösung oder nicht?
Nein das ist nicht die Frage (gewesen). Zumindest nicht nur. Es geht z.B. um fehlende Standards, und dass die Lösungen halt etwas lächerlich/improvisiert wirken (es wird auch von Schnüren geschrieben!).
Da die Produkte nicht für den Massenmarkt und private Endverbraucher bestimmt sind, ist das mit den "fehlenden Standards" nicht weiter tragisch. Darüberhinaus nörgeln überwiegend die Leute rum, für die diese Karten a) nicht bestimmt sind (>Zielgruppe) und b) die diese Produkte letztendlich auch nie kaufen werden.
Zu den Preisen möchte ich anmerken, dass die EZB für 2022 mit einer Inflation > 8% in der Eurozone rechnet.



Antwort von markusG:

vaio hat geschrieben:
Da die Produkte nicht für den Massenmarkt und private Endverbraucher bestimmt sind
Für wen denn sonst?



Antwort von roki100:

für Spezialisten...








Antwort von vaio:

markusG hat geschrieben:
vaio hat geschrieben:
Da die Produkte nicht für den Massenmarkt und private Endverbraucher bestimmt sind
Für wen denn sonst?
https://www.nvidia.com/en-us/design-vis ... /rtx-6000/

("... NVIDIA RTX 6000-basierte Workstations bieten das, was Sie brauchen, um in der heutigen ultra herausfordernden Geschäftsumgebung erfolgreich zu sein.")



Antwort von roki100:

Die meisten die ich kenne, benutzen für fertige Projekte, externe Rendermaschinen - laden auf Cloudsysteme hoch, die im Hintergrund viel schneller rendern als irgendeine Nvidia GraKa auf eigene teuere Workstations...

Was nicht bedeutet, dass RTX6000 nicht etwas ist, was man sich nicht wünscht.... ;)



Antwort von markusG:

vaio hat geschrieben:
markusG hat geschrieben:

Für wen denn sonst?
https://www.nvidia.com/en-us/design-vis ... /rtx-6000/

("... NVIDIA RTX 6000-basierte Workstations bieten das, was Sie brauchen, um in der heutigen ultra herausfordernden Geschäftsumgebung erfolgreich zu sein.")
Hä? In dem obigen Zitat ging es überhaupt nicht um die RTX6000...

Frank hat doch geschrieben, dass es im Profiumfeld seit Jahrzehnten längst "gelöst" ist, und im Artikel auf den sich das ganze bezog wurde das auch gezeigt. Um Profiungebungen ging es in dem Artikel wohl eher nicht..



Antwort von vaio:

roki100 hat geschrieben:
Die meisten die ich kenne, benutzen für fertige Projekte, externe Rendermaschine - laden auf Cloudsysteme hoch die im Hintergrund viel schneller rendern als irgendeine Nvidia GraKa auf eigene teuere Workstations...
Das wird wohl daran liegen, dass die Leute aus einem ähnlichen "Dunstkreis" sind. Interessant wäre dabei, um wieviel Leute es sich handelt, was sie beruflich machen und aus welchen sozialen Bereich sie kommen. Ich möchte es aber nicht wissen... :-)

Fakt ist, dass die 6000er Serie nicht auf Cutter, bzw. dem Videobereich abzielt, sondern eher auf den wissenschaftlichen Bereich inklusive Medizin.



Antwort von vaio:

markusG hat geschrieben:
vaio hat geschrieben:


https://www.nvidia.com/en-us/design-vis ... /rtx-6000/

("... NVIDIA RTX 6000-basierte Workstations bieten das, was Sie brauchen, um in der heutigen ultra herausfordernden Geschäftsumgebung erfolgreich zu sein.")
Hä? In dem obigen Zitat ging es überhaupt nicht um die RTX6000...

Frank hat doch geschrieben, dass es im Profiumfeld seit Jahrzehnten längst "gelöst" ist, und im Artikel auf den sich das ganze bezog wurde das auch gezeigt. Um Profiungebungen ging es in dem Artikel wohl eher nicht...
Sorry, dann seid ihr aber falsch... Schaut mal oben im Threadtitel nach. 😉



Antwort von roki100:

was sie beruflich machen und aus welchen sozialen Bereich sie kommen.
3D Modellieren/VFX/Compositing...die machen Filme ;)
vaio hat geschrieben:
Fakt ist, dass die 6000er Serie nicht auf Cutter, bzw. dem Videobereich abzielt, sondern eher auf wissenschaftlichen Bereich inklusive der Medizin.
...oder eben in diese Rendermaschinenen, mehrere davon.... ;)



Antwort von DKPost:

vaio hat geschrieben:
roki100 hat geschrieben:
Die meisten die ich kenne, benutzen für fertige Projekte, externe Rendermaschine - laden auf Cloudsysteme hoch die im Hintergrund viel schneller rendern als irgendeine Nvidia GraKa auf eigene teuere Workstations...
Das wird wohl daran liegen, dass die Leute aus einem ähnlichen "Dunstkreis" sind. Interessant wäre dabei, um wieviel Leute es sich handelt, was sie beruflich machen und aus welchen sozialen Bereich sie kommen. Ich möchte es aber nicht wissen... :-)

Fakt ist, dass die 6000er Serie nicht auf Cutter, bzw. dem Videobereich abzielt, sondern eher auf wissenschaftlichen Bereich inklusive der Medizin.
Würde mich auch interessieren. Ich wüsste niemanden aus meinem beruflichen Umfeld der so einen Worklflow hat. Das könnte ich mir maximal für 3D-Projekte vorstellen. Alles was mit Realbild zu tun hat, hat in der Regel so große Datenmengen, dass ein Upload in irgendeine Cloud meistens mehrere Tage dauern würde. Von der Datensicherheit mal ganz abgesehen. So gut wie alle Verträge die ich kenne erlauben das sowieso nicht. Da darf nicht eine einzige Datei weitergegeben werden ohne NDAs. In eine Cloud schon gleich garnicht.



Antwort von roki100:

DKPost hat geschrieben:
vaio hat geschrieben:


Das wird wohl daran liegen, dass die Leute aus einem ähnlichen "Dunstkreis" sind. Interessant wäre dabei, um wieviel Leute es sich handelt, was sie beruflich machen und aus welchen sozialen Bereich sie kommen. Ich möchte es aber nicht wissen... :-)

Fakt ist, dass die 6000er Serie nicht auf Cutter, bzw. dem Videobereich abzielt, sondern eher auf wissenschaftlichen Bereich inklusive der Medizin.
Würde mich auch interessieren. Ich wüsste niemanden aus meinem beruflichen Umfeld der so einen Worklflow hat. Das könnte ich mir maximal für 3D-Projekte vorstellen.
u.a. ja.



Antwort von markusG:

vaio hat geschrieben:
Sorry, dann seid ihr aber falsch... Schaut mal oben im Threadtitel nach. 😉
Das ganze Thema ist imho "falsch" (Zielgruppe und so) - und trotzdem hat es ja verschiedene weitere Diskussionen angeregt. Daher alles fein :)








Antwort von vaio:

markusG hat geschrieben:
vaio hat geschrieben:
Sorry, dann seid ihr aber falsch... Schaut mal oben im Threadtitel nach. 😉
Das ganze Thema ist imho "falsch" (Zielgruppe und so) - und trotzdem hat es ja verschiedene weitere Diskussionen angeregt. Daher alles fein :)
Entschuldige, ich hatte den Verlauf nicht komplett gelesen.



Antwort von freezer:

cantsin hat geschrieben:
freezer hat geschrieben:
Und schaut man beim PC-Bau ein bisschen auf die Qualität der Komponenten sind 2500,- auch schnell ausgegeben - noch ohne Highend Grafikkarte und Monitore.
Die eigentliche Geldersparnis (und auch bessere Nachhaltigkeit/Umweltbilanz) von PCs liegt darin, dass man sie nicht alle paar Jahre komplett austauscht, sondern je nach Bedarf nur Mainboard/CPU/RAM und/oder GPU wechselt.
Das gilt zB schon mal nicht für das Firmenumfeld. Dort werden fertige Systeme mit Wartungsvertrag gekauft und am Ende der Abschreibung abgestoßen und neue Systeme gekauft.
Im Privatbereich kenne ich das so: egal welches System, der Durchschnittsanwender benutzt es bis es auseinanderfällt - was mittlerweile oft 10 Jahre oder länger sein kann. Daneben gibt es dann noch die Gamer und Poweruser - die rüsteten regelmäßig auf - was sich bei den Grafikkarten aufgrund der Cryptoblase dann auch etwas aufgehört hat.
cantsin hat geschrieben:
Mein letztes Upgrade von einem i7 5820K 6-Core + 32GB auf einen Ryzen 3900x 12-Core + 64GB inkl. neuem Kühler und stärkerem Netzteil kostete mich ganze 1350 EUR. Davor lief die (ursprünglich für HD CinemaDNG ausgelegte + Resolve) Intel i7-Konfiguration 5 Jahre lang, mit einem zwischenzeitlichen GPU-Upgrade.
Es hängt halt sehr stark davon ab, zu welchem Zeitpunkt Du aufrüstest. Ich habe für eine Freundin einen neuen Schnitt-PC gebaut, der 12 Jahre alte hatte noch DDR2 Ram, altes Chieftec Gehäuse, altes Netzteil. Da braucht man gar nichts mehr weiterverwenden.



Antwort von patfish:

MIIIK hat geschrieben:

Wenn ich überlege wie so ne GPU mein Studium im 3D und VFX Bereich erleichtert hätte ... Wobei 3D Sim ja zumindest in Houdini noch CPU gebunden ist wenn ich mich recht erinnere.

Aber allein die Möglichkeit via Ray oder Octane einen Render irgend wann in FPSeconds und nicht in FPHours zu berechnen, ist schon echt ne verrückte Sache
Falls du Mantra meinst? ja, der ist noch rein CPU basierend... aber du kannst in Houdini ja fast jeden anderen Renderer wie VRay, Arnold, Redshift, Octan usw. nutzen. Sender nützen schon auch Workstations. Es geht hier zwar nicht um so aufwendige Tasks, aber dafür um so mehr um den Faktor Zeit. Es kann durchaus sein, dass da noch einige (historisch bedingt) auf Avid-Workstations setzen. Da hab ich leider nicht ganz so den Einblick :-)



Antwort von patfish:

"Frank Glencairn" hat geschrieben:
Wenn du, sagen wir mal so 5000,- Öcken rum in einen Rechner investierst, bekommst du aktuell bei Apple so ungefähr die selbe Leistung wie bei einem PC für's gleiche Geld.
What??? Ich würde sagen für 5000 € bekommst du aktuell bei Apple (Mac Pro) nichts, was das Wort Leistung überhaupt so wirklich verdienen würde :D ...bei einem PC aber schon. Ich behaupte sogar, dass man fast die doppelte Leistung fürs gleiche Geld bekommt. Würde mich freuen, wenn es nicht so ist...




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Neue Nvidia RTX 6000 Profi-Grafikkarte: 48 GB VRAM und 18.176 CUDA Cores
Neue Asus Profi-Notebooks: StudioBook Pro One mit Quadro RTX 6000 mit 24GB VRAM: // IFA 2019
Nvidia bringt neue Profi-Grafikkarten für Workstations: RTX A5000 und RTX A4000
Blackmagic DaVinci Resolve Update 16.2.7 bringt Unterstützung für neue Nvidia RTX 3080, RTX 3090 und RTX 3070 GPUs
Neue Nvidia RTX 4090: Doppelt so schnell wie RTX 3090 Ti - aber 1.949 Euro teuer
Neue Nvidia RTX 3080 Ti und 3070 Ti Grafikkarten - Verfügbarkeit spannend
Nvidia RTX 2070 Turing-Variationen und Probleme mit RTX 2080 Ti?
MSI: Laptop Update bringt Nvidia GeForce RTX Super GPUs und neue Intel CPUs
Neue MSI Notebooks mit Intel Core i9-12900H, NVIDIA RTX 3080 Ti, 64 GB RAM und Thunderbolt 4
Vier neue mobile Workstations von MSI mit 8-Kern i9 CPUs und Nvidia RTX 5000
Razer Blade 15 Studio: Mobile Workstation mit Quadro RTX 5000 GPU und 16 GB VRAM
Nvidia stellt neue RTX 2080 (ti) vor
Zahlreiche neue Workstation GPUs von Nvidia - u.a. RTX A5500
Nvidia RTX A2000: Neue kompakte GPU für professionelle Anwender
Neue RTX 3070 Ti 16GB und RTX 3080 12GB Gerüchte
Profitierung von Nvidia RTX-Serie in Adobe Anwendungen? (in diesem Fall RTX 2070 in Premiere CS6)
Grafikkartenpreise fallen immer weiter - jetzt zuschlagen oder auf neue Nvidia RTX 4000 GPUs warten?
MSI: Neue CreatorPro Workstations mit neuer Nvidia RTX A5500 mit 16 GB
Nvidia stoppt CUDA-Support für macOS
Neue Nvidia GPUs für Notebooks ab 800 Euro: GeForce RTX 3050/3050 Ti
Nvidia's GTX 1070 und RTX 3080Ti parallel?
Neues Spitzenmodell Nvidia Titan RTX: 24 GB für 2.700 Euro und 8K Editing in Echtzeit
Aldi: Neuer High-End PC mit Nvidia RTX 3090 und Intel Core i9-11900KF
Gigabyte AERO 15 OLED: 8 Kerne CPU, Nvidia RTX 2080 und 100% DCI-P3 Farbraumabdeckung
AMD RX6/7 Intel Arc und Nvidia RTX 4 - Kommt jetzt die GPU-Schwemme?
Dell Precision 7865: Workstation mit 64 Core Threadripper Pro 5995WX, 1 TB RAM und 48 GB Nvidia RTX A6000

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom