Das sind doch mal Infos, die auch hilfreich sind.
„Schneller“ - da ist wieder dieses Wort. Iasi will ja wohl nicht Rudi Cerne bis 18 Uhr vom Hintergrund TV-Latrine befreien und für 45 Sekunden in‘s virtuelle Studio beamen. Er will Lawrence 2 - jetzt erst recht drehen, um uns Ungläubige ein für alle Mal zum Schweigen zu bringen bevor er die Hocke macht. Jeder Frame ein Gemälde.
Wir reden hier von einer Differenz von grob 1200 Euro zwischen 4060Ti und 4090, wenn mann voll auf die Kacke haut bzw. 800 Euro wenn man maximal zur 4080 greift. Ich rechne mit einer Nutzungsdauer von rund 2 oder 3 Jahren, also 33-50 oder 22-33 Euro Mehrkosten pro Monat - Peanuts. Demgegenüber stehen aber Projekte, die mit kleinerer Karte nicht realisierbar sind oder zusätzlichen Stress und (mitunter massivste) Probleme bedeuten können. Da würde ich nicht knausern - okay, ich arbeite prinzipiell nur für Werbung, TV Trailer etc., muss ich einschränkend sagen.iasi hat geschrieben: ↑Sa 24 Jun, 2023 20:06 Einfach das Teuerste kaufen, was der Gaming-Grafikkartenmarkt bietet.
Das ist die Logik derer, die in Geld schwimmen oder mit dem Geld anderer hantieren. :)
Jedenfalls versuche ich dann doch etwas betriebswirtschaftlicher vorzugehen und bei Investitionen auch ein wenig die Rentabilität zu berücksichtigen.
Das ist genau der Punkt:pillepalle hat geschrieben: ↑Sa 24 Jun, 2023 21:43 Aber wenige kaufen sich eine Grafikkarte nur für ein ganz spezielles Feature. Meist spielen ja viele Faktoren eine Rolle. In welchen Codecs und Auflösungen möchte ich arbeiten, lässt sich damit flüssig editieren, auch mit einigen Effekten, rendern, usw. Da gilt es eben einen guten Kompromiss zu finden. Deshalb kauft auch nicht jeder das teuerste ;)
Die Grafikkartenpreise sind extemen Schwankungen unterworfen (wie wir in den letzten Jahren gemerkt haben) und was vor einen Jahr galt, gilt heute bereits nicht mehr. Und es kommen ohnehin gefühlt alle 6 Monate neue Karten auf den Markt. Da macht es überhaupt keinen Sinn sich jetzt für etwas zu informieren, wenn ein Kauf nicht wirklich akut ansteht. Und wenn es soweit ist, dann ist es meist ganz einfach und konkret. Es reduziert sich nämlich auf die Fragen, was kann ich mir leisten, und was ist noch sinnvoll?
VG
Nun. Aber wenn nun die 4090 keinen echten Mehrwert in der Nutzung im Vergleich mit einer 4080 bietet, kann die Preisdifferenz eben bedeuten, dass man nach 2 und nicht nach 3 Jahren die Karte austauschen kann.macaw hat geschrieben: ↑Sa 24 Jun, 2023 22:10Wir reden hier von einer Differenz von grob 1200 Euro zwischen 4060Ti und 4090, wenn mann voll auf die Kacke haut bzw. 800 Euro wenn man maximal zur 4080 greift. Ich rechne mit einer Nutzungsdauer von rund 2 oder 3 Jahren, also 33-50 oder 22-33 Euro Mehrkosten pro Monat - Peanuts. Demgegenüber stehen aber Projekte, die mit kleinerer Karte nicht realisierbar sind oder zusätzlichen Stress und (mitunter massivste) Probleme bedeuten können. Da würde ich nicht knausern.iasi hat geschrieben: ↑Sa 24 Jun, 2023 20:06 Einfach das Teuerste kaufen, was der Gaming-Grafikkartenmarkt bietet.
Das ist die Logik derer, die in Geld schwimmen oder mit dem Geld anderer hantieren. :)
Jedenfalls versuche ich dann doch etwas betriebswirtschaftlicher vorzugehen und bei Investitionen auch ein wenig die Rentabilität zu berücksichtigen.
Stimmt zwar, in meinem Fall kommen dann aber noch zahlreiche andere Programme in 2D (After Effects+Plugins, Mocha Pro) und 3D (Blender, Houdini) hinzu, wo die Performancegewinne absolut mit steigender Rechenleistung und wachsendem Speicher korreliert. Streng genommen hatte bei mir bereits ein einziger 3D Job, den ich noch mit meiner vorherigen Maschine gestartet habe, bereits jede Preisdifferenz ausgeglichen, weil ich sonst extern hätte rendern müssen, was mich schon in der Vorbereitungsphase hunderte Euro gekostet hatte. Ich habe daher seit dem 14.04.2021 ein Guthaben von 230 Euro bei Rebus Render (damals für die Testläufe vorausgezahlt), weil ich die seitdem nicht mehr nutzen musste... :-D
Klar. Wenn sich bei dir ein Mehrwert der 4090 gegenüber der 4080 einstellt, ist die Investition sicherlich sinnvoll.macaw hat geschrieben: ↑Sa 24 Jun, 2023 22:38Stimmt zwar, in meinem Fall kommen dann aber noch zahlreiche andere Programme in 2D (After Effects+Plugins, Mocha Pro) und 3D (Blender, Houdini) hinzu, wo die Performancegewinne absolut mit steigender Rechenleistung und wachsendem Speicher korreliert. Streng genommen hatte bei mir bereits ein einziger 3D Job, den ich noch mit meiner vorherigen Maschine gestartet habe, bereits jede Preisdifferenz ausgeglichen, weil ich sonst extern hätte rendern müssen, was mich schon in der Vorbereitungsphase hunderte Euro gekostet hatte. Ich habe daher seit dem 14.04.2021 ein Guthaben von 230 Euro bei Rebus Render (damals für die Testläufe vorausgezahlt), weil ich die seitdem nicht mehr nutzen musste... :-D
Ich wäre liebend gerne auf AMD/ATI umgestiegen, nachdem ich die Intel-Pest los war - ich bin nach der Ryzen 1800X nun auf der 5950X und wechsle evtl. dieses Jahr auf 7950X. Aber Nvidia ist in diversen Bereichen einfach noch viel zu weit vorn und fürchte, daß sich das auch nicht wirklich in meinen Bereichen ändern wird.iasi hat geschrieben: ↑Sa 24 Jun, 2023 23:21 Klar. Wenn sich bei dir ein Mehrwert der 4090 gegenüber der 4080 einstellt, ist die Investition sicherlich sinnvoll.
Die 4090 ist aktuell die schnellste Karte im Gaming-Bereich - da gibt es keinen Zweifel.
Ich hab etwas Bauchschmerzen, wenn eine 12GB-Karte ebenso viel kostet, wie eine 20GB-Karte.
Daher auch mein Interesse an einer 7900 XT. Aber sie sollte bei konkreten Anwendungen wie z.B. MagicMask nicht hinter einer preislich vergleichbaren Nvidia zurückbleiben.
Ich halte Nvidia für Preistreiber - die Frima kann aber immerhin ihre Aktionäre glücklich machen.macaw hat geschrieben: ↑So 25 Jun, 2023 00:07Ich wäre liebend gerne auf AMD/ATI umgestiegen, nachdem ich die Intel-Pest los war - ich bin nach der Ryzen 1800X nun auf der 5950X und wechsle evtl. dieses Jahr auf 7950X. Aber Nvidia ist in diversen Bereichen einfach noch viel zu weit vorn und fürchte, daß sich das auch nicht wirklich in meinen Bereichen ändern wird.iasi hat geschrieben: ↑Sa 24 Jun, 2023 23:21 Klar. Wenn sich bei dir ein Mehrwert der 4090 gegenüber der 4080 einstellt, ist die Investition sicherlich sinnvoll.
Die 4090 ist aktuell die schnellste Karte im Gaming-Bereich - da gibt es keinen Zweifel.
Ich hab etwas Bauchschmerzen, wenn eine 12GB-Karte ebenso viel kostet, wie eine 20GB-Karte.
Daher auch mein Interesse an einer 7900 XT. Aber sie sollte bei konkreten Anwendungen wie z.B. MagicMask nicht hinter einer preislich vergleichbaren Nvidia zurückbleiben.
Ideologische Kaufentscheidungen unter einer persönlichen Agenda sind immer problematisch, vor allem wenn sie mit Selbstermächtigungs-Phanatasien verbunden sind ;-)
Man kann über Inflation und hohe Preise jammernFrank Glencairn hat geschrieben: ↑So 25 Jun, 2023 08:10Ideologische Kaufentscheidungen unter einer persönlichen Agenda sind immer problematisch, vor allem wenn sie mit Großmacht-Phanatasien verbunden sind ;-)
Wie so oft - völlig falsche Prämisse, womit dann auch alle Schlußfolgerungen die daraus gezogen werden invalide sind.
Deine Schlußfolgerungen sind falsch, denn du erkennst nicht einmal, dass der Rückgang der Inflation auf diesen Nachfragerückgang zurückzuführen ist.Frank Glencairn hat geschrieben: ↑So 25 Jun, 2023 09:32Wie so oft - völlig falsche Prämisse, womit dann auch alle Schlußfolgerungen die daraus gezogen werden invalide sind.
image_2023-06-25_011342783.png
..und ein Post später
Okay wir haben gerade den Boden jeder sinnvollen Diskussion komplett verlassen - ich bin raus.
6,1% im Mai 2023.
Du warst doch schon lange "raus". :)Frank Glencairn hat geschrieben: ↑So 25 Jun, 2023 10:58..und ein Post später
Okay wir haben gerade den Boden jeder sinnvollen Diskussion komplett verlassen - ich bin raus.
Vielleicht fragst du beim nächsten mal einfach so lange ChatGPT, bis sie dir rät deine geliebte AMD Karte zu kaufen, um damit endlich Nvidia zu zeigen wo der Hammer hängt, indem du mit deinem Kauf ihre Marktposition zerstörst.
Facepalm ...
Die Auslastung sagt ja nur, dass die Karte auch ausgereizt wird.MK hat geschrieben: ↑So 25 Jun, 2023 10:18 Die 4090 ist in statischen Benchmarks bei GPU Compute über 50% schneller als die 7900 XT.
Wenn Resolve bei der Maskenerstellung auf der 4070 96% Auslastung erzeugt würde ich davon ausgehen dass man diese Ergebnisse 1:1 übertragen kann und die 4090 mit der 7900 XT den Boden aufwischt.
Ich hatte vor Jahren die Meldungen über mangelnden V-Ram und rüstete von 4GB auf 8GB auf.pillepalle hat geschrieben: ↑So 25 Jun, 2023 12:37 @ iasi
Die Wahrscheinlichkeit das die Nutzer den Unterschied der Karten im V-RAM ignorieren und trotzdem die 'scheinbar' teurere Kaufen, sollte Dir allerdings zu denken geben. Das ist kein geheimes Insiderwissen ;)
VG
Ich kann NR während der Arbeit auch deaktivieren, wodurch ich dadurch nicht ausgebremst werden.pillepalle hat geschrieben: ↑Sa 24 Jun, 2023 21:43 Aber wenige kaufen sich eine Grafikkarte nur für ein ganz spezielles Feature. Meist spielen ja viele Faktoren eine Rolle. In welchen Codecs und Auflösungen möchte ich arbeiten, lässt sich damit flüssig editieren, auch mit einigen Effekten, rendern, usw. Da gilt es eben einen guten Kompromiss zu finden. Deshalb kauft auch nicht jeder das teuerste ;)
Die Grafikkartenpreise sind extemen Schwankungen unterworfen (wie wir in den letzten Jahren gemerkt haben) und was vor einen Jahr galt, gilt heute bereits nicht mehr. Und es kommen ohnehin gefühlt alle 6 Monate neue Karten auf den Markt. Da macht es überhaupt keinen Sinn sich jetzt für etwas zu informieren, wenn ein Kauf nicht wirklich akut ansteht. Und wenn es soweit ist, dann ist es meist ganz einfach und konkret. Es reduziert sich nämlich auf die Fragen, was kann ich mir leisten, und was ist noch sinnvoll?
VG
Ich habe jetzt auf die Schnelle den konkreten Benchmark nicht gefunden, aber das ist ja wohl eine Operation die stark von der CPU abhängig ist da von der GPU nur das H264 Decoding kommt, DNxHR läuft auf der CPU.
Die RT-Cores sind in der dritten Generation bei den 4xxx Modellen doppelt so schnell wie bei der 3xxx Serie... keine Ahnung was wie wann wo von Resolve konkret genutzt wird, aber Topaz profitiert z.B. explizit davon.
Nun - immerhin reicht die Geschwindigkeit bei den Grafikkarten hier von 155fps bis 336fps.MK hat geschrieben: ↑So 25 Jun, 2023 14:31Ich habe jetzt auf die Schnelle den konkreten Benchmark nicht gefunden, aber das ist ja wohl eine Operation die stark von der CPU abhängig ist da von der GPU nur das H264 Decoding kommt, DNxHR läuft auf der CPU.
Das ist meiner Meinung nach eines der größten Mankos des Puget Benchmarks dass bei den Teilergebnissen nicht streng zwischen reinen CPU, GPU und Mixed-Ergebnissen abgegrenzt wird.
Eigentlich müsste man für eine definitive Aussage auf dem selben System beide Karten gegeneinander testen, selbst wenn man im Result Browser die selbe CPU GPU etc heraussucht weichen die Benchmark-Ergebnisse teilweise deutlich voneinander ab.
Leider wahr.