Aber die Grafikkartenpreise sind absurdum schnell explodiert.MrMeeseeks hat geschrieben: ↑Mo 05 Dez, 2022 14:10 @Teichomad
Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.Gabriel_Natas hat geschrieben: ↑Mo 05 Dez, 2022 14:27Aber die Grafikkartenpreise sind absurdum schnell explodiert.MrMeeseeks hat geschrieben: ↑Mo 05 Dez, 2022 14:10 @Teichomad
Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
Eine GTX 780 TI hat damals (2013) 650€ gekostet. Die wohl damals beste Grafikkarte auf dem Markt.
Für 650€ kriegt man heute ja kaum eine RTX 3060, also bestenfalls Mittelklasse.
Und Inflationsbereinigt wären 650€ in 2013 heute 730€.
Also selbst inflationsbereinigt sind die Grafikkartenpreise mehr als verdoppelt worden.
Meine GTX 1080 gab es damals für unter 500€. Wenn ich die heute ersetzen wollen würde, würde ich mehr bezahlen als den Neupreis meines PC Systems. Das ist doch Wahnsinn.
Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.DKPost hat geschrieben: ↑Mo 05 Dez, 2022 15:02 Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Die Meinung würdest Du ggfs. ändern, wenn Du mal 4K-h265-Material in der Timeline hattest, oder auch anspruchsloseres Material wie ProRes, und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung "Your GPU Memory Is Full" ausspuckt...dienstag_01 hat geschrieben: ↑Mo 05 Dez, 2022 14:58 Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Das kannst du ja so sehen. Deine Definition von Leistung ist aber falsch. Du bekommst massiv mehr Leistung für das gleiche Geld. Gleichzeitig verlangen Spiele aber auch nach wesentlich mehr Power. Dafür können aber die Grafikkartenhersteller nur bedingt etwas.Gabriel_Natas hat geschrieben: ↑Mo 05 Dez, 2022 15:13Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.DKPost hat geschrieben: ↑Mo 05 Dez, 2022 15:02 Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.
Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Die Meldung kenne ich von meiner 2GB Karte. Jetzt, mit einer 3050 mit 8GB hatte ich sie noch nicht wieder.cantsin hat geschrieben: ↑Mo 05 Dez, 2022 15:17Die Meinung würdest Du ggfs. ändern, wenn Du mal 4K-h265-Material in der Timeline hattest, oder auch anspruchsloseres Material wie ProRes, und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung "Your GPU Memory Is Full" ausspuckt...dienstag_01 hat geschrieben: ↑Mo 05 Dez, 2022 14:58 Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
1900€ für eine Gaming GPU sind eindeutig zu viel.MrMeeseeks hat geschrieben: ↑Mo 05 Dez, 2022 14:10 @Teichomad
Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
Das ware doch zu Zeiten der 780 genau so. Alles neu, kleinere Fertigung etc.DKPost hat geschrieben: ↑Mo 05 Dez, 2022 15:02Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.Gabriel_Natas hat geschrieben: ↑Mo 05 Dez, 2022 14:27
Aber die Grafikkartenpreise sind absurdum schnell explodiert.
Eine GTX 780 TI hat damals (2013) 650€ gekostet. Die wohl damals beste Grafikkarte auf dem Markt.
Für 650€ kriegt man heute ja kaum eine RTX 3060, also bestenfalls Mittelklasse.
Und Inflationsbereinigt wären 650€ in 2013 heute 730€.
Also selbst inflationsbereinigt sind die Grafikkartenpreise mehr als verdoppelt worden.
Meine GTX 1080 gab es damals für unter 500€. Wenn ich die heute ersetzen wollen würde, würde ich mehr bezahlen als den Neupreis meines PC Systems. Das ist doch Wahnsinn.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Was war denn da genauso? Alleine schon 3GB gegen 24GB ist ein massiver Preisunterschied in der Fertigung.teichomad hat geschrieben: ↑Mo 05 Dez, 2022 15:38Das ware doch zu Zeiten der 780 genau so. Alles neu, kleinere Fertigung etc.DKPost hat geschrieben: ↑Mo 05 Dez, 2022 15:02
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Erschreckend wie leicht sich viele diesen Wucherpreisen beugen.
Du checkst das einfach nicht. Seit dem Iphone 4 hat sich der Preis auch einfach verdoppelt. Ein Smartphone, eine GPU oder Ähnliches wird veröffentlicht und hat die aktuellste und beste Leistung, um also Neuerungen im nächsten Produkt zu verbauen brauch es einfach viel Geld an Forschung und Materialkosten. Eine neue GPU würde niemand kaufen wenn das teuerste Modell nur 10% mehr Leistung bietet als das vorherige, es brauch also immense Kosten um die gewünschten Sprünge zu erreichen die für den Endkunden interessant sind.Gabriel_Natas hat geschrieben: ↑Mo 05 Dez, 2022 15:13Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.DKPost hat geschrieben: ↑Mo 05 Dez, 2022 15:02 Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.
Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Nö totaler Quatsch. Das ist die schnellste und modernste GPU die Nvidia aktuell anbietet, die können verlangen was sie wollen und jeder mit entsprechend viel Geld sollte in der Lage sein das selber beurteilen zu können. Ich besitze Objektive die gefühlt 5% Schärfer sind als andere Modelle und dennoch 300% teurer waren aber auch hier gibt es eine Zielgruppe dafür.teichomad hat geschrieben: ↑Mo 05 Dez, 2022 15:351900€ für eine Gaming GPU sind eindeutig zu viel.MrMeeseeks hat geschrieben: ↑Mo 05 Dez, 2022 14:10 @Teichomad
Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
MrMeeseeks hat geschrieben: ↑Mo 05 Dez, 2022 15:55Du checkst das einfach nicht. Seit dem Iphone 4 hat sich der Preis auch einfach verdoppelt. Ein Smartphone, eine GPU oder Ähnliches wird veröffentlicht und hat die aktuellste und beste Leistung, um also Neuerungen im nächsten Produkt zu verbauen brauch es einfach viel Geld an Forschung und Materialkosten. Eine neue GPU würde niemand kaufen wenn das teuerste Modell nur 10% mehr Leistung bietet als das vorherige, es brauch also immense Kosten um die gewünschten Sprünge zu erreichen die für den Endkunden interessant sind.Gabriel_Natas hat geschrieben: ↑Mo 05 Dez, 2022 15:13
Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.
Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Dein Vergleich mit dem Neuwagen hinkt in absolut allen Bereichen. Der Aufbau eines Chips einer neuen GPU Generation enthält so viele Veränderungen wie alle Autos der letzten 50 Jahre zusammen.
Nö totaler Quatsch. Das ist die schnellste und modernste GPU die Nvidia aktuell anbietet, die können verlangen was sie wollen und jeder mit entsprechend viel Geld sollte in der Lage sein das selber beurteilen zu können. Ich besitze Objektive die gefühlt 5% Schärfer sind als andere Modelle und dennoch 300% teurer waren aber auch hier gibt es eine Zielgruppe dafür.
Nur weil irgendwelche Gamer, die finanziell aus dem letzten Loch pfeifen und seit 2 Jahren ständig über die Preise weinen, meinen sie verdienen das beste zu den günstigsten Preise, muss Nvidia da noch lange nicht ihr Zeug verschleudern.
Grafikkarten sind kein Wasser und kein Brot sondern reine Luxusartikel. Wer meint er brauch die Leistung einer RTX 4090 hat genau 2 Möglichkeiten...das Ding kaufen oder den Schnabel halten. Der Markt regelt sich dann selber.
Klar, die absurden Milliardengewinne von Nvidia in den letzten Jahren haben sicher gaaar nichts mit überhöhten Preisen zu tun ;)MrMeeseeks hat geschrieben: ↑Mo 05 Dez, 2022 15:55...muss Nvidia da noch lange nicht ihr Zeug verschleudern.
Jepp und das passiert ja auch gerade, siehe Slashcam-News und oder hier:
diese Warnmeldung war ständiger Begleiter.und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung
"Your GPU Memory Is Full" ausspuckt...
Genau und gerade die 40xx-Serie hat wieder einige krasse Optimierungen für Resolve und kann nun damit am M1 Max/Ultra vorbeiziehen. Es wird also wieder spannend.DKPost hat geschrieben: ↑Mo 05 Dez, 2022 16:15 Für Leute die ernsthaft damit arbeiten und die Power auch ausnutzen können stellen sich Fragen nach dem Preis und den Vergleichen zu irgendwelchen 10 Jahre alten Karten doch garnicht.
Wenn die Karte doppelt so schnell rendert wie eine alte hat man den Preis doch innerhalb von wenigen Tagen wieder drin. Doppelt so schnell ist hier natürlich nur ein Beispiel.
Das sind doch die wenigstens. Die Profis, die damit Geld verdienen sind doch nur ein paar % des Grafikkartenmarktes.DKPost hat geschrieben: ↑Mo 05 Dez, 2022 16:15 Für Leute die ernsthaft damit arbeiten und die Power auch ausnutzen können stellen sich Fragen nach dem Preis und den Vergleichen zu irgendwelchen 10 Jahre alten Karten doch garnicht.
Wenn die Karte doppelt so schnell rendert wie eine alte hat man den Preis doch innerhalb von wenigen Tagen wieder drin. Doppelt so schnell ist hier natürlich nur ein Beispiel.
Laut Moore's Law (das ja noch weitgehend gültig zu sein scheint), nachdem sich die Anzahl der Transistoren auf einem Chip alle zwei Jahre verdoppelt, müsste sich bei Grafikkarten seit 1999 die Transistorenzahl bzw. die Komplexität knapp um den Faktor 2 hoch 12=4096 erhöht haben, ohne dass es zu signifikaten Kostensteigerungen gekommen ist. 1999 kam die Geforce 256 auf den Markt, die erste Grafikkarte, die als "GPU" beworben wurde. Die hatte 17 Millionen Transitoren, während eine heutige RTX 4090 76,3 Milliarden Transistoren hat, was also ziemlich genau dem genannten Faktor entspricht. Der RAM hat sich mit 24 GB ggü. 32 MB übrigens "nur" um den Faktor 750 vergrößert.MK hat geschrieben: ↑Mo 05 Dez, 2022 17:57 Highend-Grafikkarten waren um 1999 für 500 - 600 Mark zu haben... Inflationsbereinigt sind das heute 360 bis 430 EUR.
Allerdings hatten die damals auch nur 32 bis 64 Megabyte Speicher, recht einfache Kühlsysteme, kaum Stromverbrauch und nur eine handvoll Bauteile.
Kannst du das kurz erläutern? Bezieht sich der letzte Satz auf die Warnmeldung oder den "Spaß"?Jörg hat geschrieben: ↑Mo 05 Dez, 2022 16:09 cantsin schreibt
diese Warnmeldung war ständiger Begleiter.und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung
"Your GPU Memory Is Full" ausspuckt...
seitdem hier eine 3080 werkelt ist sie verschwunden, Fusion macht fast Spaß, (sofern Spaß da überhaupt aufkommen kann),
zumindest kann man damit nun arbeiten.
Eine testweise 3060 hatte diese Option nicht, trotz 12 G Speicher.
Sollten die Grafikkarten dann nicht sogar günstiger sein? Über die Leistung beschwert sich denke ich ja niemand. Und wenn Nvidia seine Pferdchen im trockenen hat (den kommerziellen Servermarkt gibt es ja auch noch), sollten sie ja flexibel in der Preisgestaltung sein und locker ihr R&D stemmen, gell?
ich finde, die sind seeeehr locker in der Preisgestaltung...sollten sie ja flexibel in der Preisgestaltung sein
ich hab mir um die Zeit eine Wildcat gekauft mit knapp unter 500MB Speicher und 1600.- DM bezahlt.MK hat geschrieben: ↑Mo 05 Dez, 2022 17:57 Highend-Grafikkarten waren um 1999 für 500 - 600 Mark zu haben... Inflationsbereinigt sind das heute 360 bis 430 EUR.
Allerdings hatten die damals auch nur 32 bis 64 Megabyte Speicher, recht einfache Kühlsysteme, kaum Stromverbrauch und nur eine handvoll Bauteile....
Da wäre dann eher eine Quadro vergleichbar die bei ähnlicher Leistung auch deutlich mehr als die Consumerkarten kostet... größerer Speicher, Software ECC und die angeblich ausgereifteren Treiber rechtfertigen da bestimmt auch nicht unbedingt den x-fachen Preis.balkanesel hat geschrieben: ↑Di 06 Dez, 2022 13:02 ich hab mir um die Zeit eine Wildcat gekauft mit knapp unter 500MB Speicher und 1600.- DM bezahlt.
Tja wer nicht bereit ist so viel zu bezahlen - es gibt ja noch Mitbewerber. Gerade im Schnittbereich sollte das ja relativ schmerzfrei sein. Bei den Cuda/OptiX zentrischen Anwendungen mag das vlt. anders sein.
Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.dienstag_01 hat geschrieben: ↑Mo 05 Dez, 2022 14:58 Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Man sollte Hardware sowieso für die Bewältigung der Aufgaben anschaffen, die derzeit zu erledigen sind und nicht für irgendwelche Möglichkeiten/Eventualitäten in der Zukunft. Denn erstens kommt es anders und zweitens als man denkt - Lebensweisheit ;)Jost hat geschrieben: ↑Di 06 Dez, 2022 22:56Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.dienstag_01 hat geschrieben: ↑Mo 05 Dez, 2022 14:58 Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Aber irgendwo muss KI angedockt werden. Irgendwo muss das gerechnet werden. Welche Grafikkarten-Generation wird überhaupt unterstützt?
Ich bin höchst misstrauisch, dass die Hardware-Entwicklung mithält mit der KI-Entwicklung. Ändern sich Standards, stehst Du da. Erinnere Dich mal an die Zeit, als nur Quicksync Hardwarebeschleunigung für H.265-Encodierung konnte.
Dass die neuen GPU für Wald und Wiese oversized sind - keine Frage. Wie gut sind sie aber gerüstet für KI? Wer kann ausschließen, dass sie in vier Jahren bereits undersized sind?
Ich zweifele an der Zukunftssicherheit.
Andererseits sollte man auch die Anforderungen von morgen im Auge behalten.dienstag_01 hat geschrieben: ↑Di 06 Dez, 2022 23:24Man sollte Hardware sowieso für die Bewältigung der Aufgaben anschaffen, die derzeit zu erledigen sind und nicht für irgendwelche Möglichkeiten/Eventualitäten in der Zukunft. Denn erstens kommt es anders und zweitens als man denkt - Lebensweisheit ;)Jost hat geschrieben: ↑Di 06 Dez, 2022 22:56
Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.
Aber irgendwo muss KI angedockt werden. Irgendwo muss das gerechnet werden. Welche Grafikkarten-Generation wird überhaupt unterstützt?
Ich bin höchst misstrauisch, dass die Hardware-Entwicklung mithält mit der KI-Entwicklung. Ändern sich Standards, stehst Du da. Erinnere Dich mal an die Zeit, als nur Quicksync Hardwarebeschleunigung für H.265-Encodierung konnte.
Dass die neuen GPU für Wald und Wiese oversized sind - keine Frage. Wie gut sind sie aber gerüstet für KI? Wer kann ausschließen, dass sie in vier Jahren bereits undersized sind?
Ich zweifele an der Zukunftssicherheit.