Logo Logo
/// 

Nvidia RTX 4080/90 Preissenkung, Konkurrent AMD RX 7900 XT(X) startet in Kürze



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:



Als Nvidia vor zwei Jahren die RTX 2080 mit der RTX 3080 ablöste, war diese nach der Vorstellung lange Zeit kaum verfügbar. Grund für die hohe Nachfrage war unter andere...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Nvidia RTX 4080/90 Preissenkung, Konkurrent AMD RX 7900 XT(X) startet in Kürze




Antwort von teichomad:

Der erste Hersteller mit High End GPUs unter 600 € gewinnt die Herzen der Gamer. Kann doch nicht so schwer sein normale Preise an zu bieten.



Antwort von MrMeeseeks:

@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.








Antwort von Gabriel_Natas:

MrMeeseeks hat geschrieben:
@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
Aber die Grafikkartenpreise sind absurdum schnell explodiert.
Eine GTX 780 TI hat damals (2013) 650€ gekostet. Die wohl damals beste Grafikkarte auf dem Markt.
Für 650€ kriegt man heute ja kaum eine RTX 3060, also bestenfalls Mittelklasse.
Und Inflationsbereinigt wären 650€ in 2013 heute 730€.
Also selbst inflationsbereinigt sind die Grafikkartenpreise mehr als verdoppelt worden.
Meine GTX 1080 gab es damals für unter 500€. Wenn ich die heute ersetzen wollen würde, würde ich mehr bezahlen als den Neupreis meines PC Systems. Das ist doch Wahnsinn.



Antwort von cantsin:

Würde mich nicht wundern, wenn wir bald wieder bei 500-700 EUR für eine Highend-Grafikkarte landen, jetzt, wo das Crypto-Mining abgestürzt ist. Man muss wahrscheinlich noch ein Jahr warten, bis sich die neue Realität vollständig auf den Markt niederschlägt.



Antwort von dienstag_01:

Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.



Antwort von DKPost:

Gabriel_Natas hat geschrieben:
MrMeeseeks hat geschrieben:
@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
Aber die Grafikkartenpreise sind absurdum schnell explodiert.
Eine GTX 780 TI hat damals (2013) 650€ gekostet. Die wohl damals beste Grafikkarte auf dem Markt.
Für 650€ kriegt man heute ja kaum eine RTX 3060, also bestenfalls Mittelklasse.
Und Inflationsbereinigt wären 650€ in 2013 heute 730€.
Also selbst inflationsbereinigt sind die Grafikkartenpreise mehr als verdoppelt worden.
Meine GTX 1080 gab es damals für unter 500€. Wenn ich die heute ersetzen wollen würde, würde ich mehr bezahlen als den Neupreis meines PC Systems. Das ist doch Wahnsinn.
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.



Antwort von Gabriel_Natas:

DKPost hat geschrieben:
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.

Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.



Antwort von cantsin:

dienstag_01 hat geschrieben:
Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Die Meinung würdest Du ggfs. ändern, wenn Du mal 4K-h265-Material in der Timeline hattest, oder auch anspruchsloseres Material wie ProRes, und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung "Your GPU Memory Is Full" ausspuckt...



Antwort von DKPost:

Gabriel_Natas hat geschrieben:
DKPost hat geschrieben:
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.

Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Das kannst du ja so sehen. Deine Definition von Leistung ist aber falsch. Du bekommst massiv mehr Leistung für das gleiche Geld. Gleichzeitig verlangen Spiele aber auch nach wesentlich mehr Power. Dafür können aber die Grafikkartenhersteller nur bedingt etwas.



Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Die Meinung würdest Du ggfs. ändern, wenn Du mal 4K-h265-Material in der Timeline hattest, oder auch anspruchsloseres Material wie ProRes, und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung "Your GPU Memory Is Full" ausspuckt...
Die Meldung kenne ich von meiner 2GB Karte. Jetzt, mit einer 3050 mit 8GB hatte ich sie noch nicht wieder.
4K-h265 in der Timeline habe ich auch, das ist nur Mist, wenn es nicht hardware-decodiert wird. Dafür braucht es aber auch nicht so ein Geschoß von Grafikarte.



Antwort von teichomad:

MrMeeseeks hat geschrieben:
@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
1900€ für eine Gaming GPU sind eindeutig zu viel.








Antwort von teichomad:

DKPost hat geschrieben:
Gabriel_Natas hat geschrieben:


Aber die Grafikkartenpreise sind absurdum schnell explodiert.
Eine GTX 780 TI hat damals (2013) 650€ gekostet. Die wohl damals beste Grafikkarte auf dem Markt.
Für 650€ kriegt man heute ja kaum eine RTX 3060, also bestenfalls Mittelklasse.
Und Inflationsbereinigt wären 650€ in 2013 heute 730€.
Also selbst inflationsbereinigt sind die Grafikkartenpreise mehr als verdoppelt worden.
Meine GTX 1080 gab es damals für unter 500€. Wenn ich die heute ersetzen wollen würde, würde ich mehr bezahlen als den Neupreis meines PC Systems. Das ist doch Wahnsinn.
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Das ware doch zu Zeiten der 780 genau so. Alles neu, kleinere Fertigung etc.
Erschreckend wie leicht sich viele diesen Wucherpreisen beugen.



Antwort von DKPost:

teichomad hat geschrieben:
DKPost hat geschrieben:


Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Das ware doch zu Zeiten der 780 genau so. Alles neu, kleinere Fertigung etc.
Erschreckend wie leicht sich viele diesen Wucherpreisen beugen.
Was war denn da genauso? Alleine schon 3GB gegen 24GB ist ein massiver Preisunterschied in der Fertigung.
Wie gesagt, ich halte die aktuellen Preise auch für zu hoch, aber solche Vergleiche sind einfach Unsinn.



Antwort von MrMeeseeks:

Gabriel_Natas hat geschrieben:
DKPost hat geschrieben:
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.

Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Du checkst das einfach nicht. Seit dem Iphone 4 hat sich der Preis auch einfach verdoppelt. Ein Smartphone, eine GPU oder Ähnliches wird veröffentlicht und hat die aktuellste und beste Leistung, um also Neuerungen im nächsten Produkt zu verbauen brauch es einfach viel Geld an Forschung und Materialkosten. Eine neue GPU würde niemand kaufen wenn das teuerste Modell nur 10% mehr Leistung bietet als das vorherige, es brauch also immense Kosten um die gewünschten Sprünge zu erreichen die für den Endkunden interessant sind.

Dein Vergleich mit dem Neuwagen hinkt in absolut allen Bereichen. Der Aufbau eines Chips einer neuen GPU Generation enthält so viele Veränderungen wie alle Autos der letzten 50 Jahre zusammen.

teichomad hat geschrieben:
MrMeeseeks hat geschrieben:
@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
1900€ für eine Gaming GPU sind eindeutig zu viel.
Nö totaler Quatsch. Das ist die schnellste und modernste GPU die Nvidia aktuell anbietet, die können verlangen was sie wollen und jeder mit entsprechend viel Geld sollte in der Lage sein das selber beurteilen zu können. Ich besitze Objektive die gefühlt 5% Schärfer sind als andere Modelle und dennoch 300% teurer waren aber auch hier gibt es eine Zielgruppe dafür.

Nur weil irgendwelche Gamer, die finanziell aus dem letzten Loch pfeifen und seit 2 Jahren ständig über die Preise weinen, meinen sie verdienen das beste zu den günstigsten Preise, muss Nvidia da noch lange nicht ihr Zeug verschleudern.

Grafikkarten sind kein Wasser und kein Brot sondern reine Luxusartikel. Wer meint er brauch die Leistung einer RTX 4090 hat genau 2 Möglichkeiten...das Ding kaufen oder den Schnabel halten. Der Markt regelt sich dann selber.



Antwort von teichomad:

MrMeeseeks hat geschrieben:
Gabriel_Natas hat geschrieben:


Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.

Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Du checkst das einfach nicht. Seit dem Iphone 4 hat sich der Preis auch einfach verdoppelt. Ein Smartphone, eine GPU oder Ähnliches wird veröffentlicht und hat die aktuellste und beste Leistung, um also Neuerungen im nächsten Produkt zu verbauen brauch es einfach viel Geld an Forschung und Materialkosten. Eine neue GPU würde niemand kaufen wenn das teuerste Modell nur 10% mehr Leistung bietet als das vorherige, es brauch also immense Kosten um die gewünschten Sprünge zu erreichen die für den Endkunden interessant sind.

Dein Vergleich mit dem Neuwagen hinkt in absolut allen Bereichen. Der Aufbau eines Chips einer neuen GPU Generation enthält so viele Veränderungen wie alle Autos der letzten 50 Jahre zusammen.

teichomad hat geschrieben:


1900€ für eine Gaming GPU sind eindeutig zu viel.
Nö totaler Quatsch. Das ist die schnellste und modernste GPU die Nvidia aktuell anbietet, die können verlangen was sie wollen und jeder mit entsprechend viel Geld sollte in der Lage sein das selber beurteilen zu können. Ich besitze Objektive die gefühlt 5% Schärfer sind als andere Modelle und dennoch 300% teurer waren aber auch hier gibt es eine Zielgruppe dafür.

Nur weil irgendwelche Gamer, die finanziell aus dem letzten Loch pfeifen und seit 2 Jahren ständig über die Preise weinen, meinen sie verdienen das beste zu den günstigsten Preise, muss Nvidia da noch lange nicht ihr Zeug verschleudern.

Grafikkarten sind kein Wasser und kein Brot sondern reine Luxusartikel. Wer meint er brauch die Leistung einer RTX 4090 hat genau 2 Möglichkeiten...das Ding kaufen oder den Schnabel halten. Der Markt regelt sich dann selber.

Nvidia zählt auf Leute wie dich ! Und die 4k Framedrops der 4090 wirken jetz auch nich direkt wie 1900 Mücken ^^



Antwort von Hayos:

MrMeeseeks hat geschrieben:
...muss Nvidia da noch lange nicht ihr Zeug verschleudern.
Klar, die absurden Milliardengewinne von Nvidia in den letzten Jahren haben sicher gaaar nichts mit überhöhten Preisen zu tun ;)

MrMeeseeks hat geschrieben:
Der Markt regelt sich dann selber.
Jepp und das passiert ja auch gerade, siehe Slashcam-News und oder hier:
https://www.pcgameshardware.de/Geforce- ... s-1407559/



Antwort von Jörg:

cantsin schreibt
und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung
"Your GPU Memory Is Full" ausspuckt...
diese Warnmeldung war ständiger Begleiter.
seitdem hier eine 3080 werkelt ist sie verschwunden, Fusion macht fast Spaß, (sofern Spaß da überhaupt aufkommen kann),
zumindest kann man damit nun arbeiten.
Eine testweise 3060 hatte diese Option nicht, trotz 12 G Speicher.

Ist doch wie immer:
der Eine kauft, der Andere nicht...



Antwort von DKPost:

Für Leute die ernsthaft damit arbeiten und die Power auch ausnutzen können stellen sich Fragen nach dem Preis und den Vergleichen zu irgendwelchen 10 Jahre alten Karten doch garnicht.
Wenn die Karte doppelt so schnell rendert wie eine alte hat man den Preis doch innerhalb von wenigen Tagen wieder drin. Doppelt so schnell ist hier natürlich nur ein Beispiel.



Antwort von DeeZiD:

DKPost hat geschrieben:
Für Leute die ernsthaft damit arbeiten und die Power auch ausnutzen können stellen sich Fragen nach dem Preis und den Vergleichen zu irgendwelchen 10 Jahre alten Karten doch garnicht.
Wenn die Karte doppelt so schnell rendert wie eine alte hat man den Preis doch innerhalb von wenigen Tagen wieder drin. Doppelt so schnell ist hier natürlich nur ein Beispiel.
Genau und gerade die 40xx-Serie hat wieder einige krasse Optimierungen für Resolve und kann nun damit am M1 Max/Ultra vorbeiziehen. Es wird also wieder spannend.



Antwort von Gabriel_Natas:

DKPost hat geschrieben:
Für Leute die ernsthaft damit arbeiten und die Power auch ausnutzen können stellen sich Fragen nach dem Preis und den Vergleichen zu irgendwelchen 10 Jahre alten Karten doch garnicht.
Wenn die Karte doppelt so schnell rendert wie eine alte hat man den Preis doch innerhalb von wenigen Tagen wieder drin. Doppelt so schnell ist hier natürlich nur ein Beispiel.
Das sind doch die wenigstens. Die Profis, die damit Geld verdienen sind doch nur ein paar % des Grafikkartenmarktes.
Und für alle, die damit kein Geld verdienen lassen sich 1000+ Euro für ne Grafikkarte nicht darstellen.
Und wenn ich damit Geld verdienen würde, dann würde ich eh auf Mac umsteigen. Die haben dank M1/M2 das wesentlich bessere Preisleistungsverhältnis.
Die Preise sind total überzogen, hauptsächlich wegen Skalper und Miner. Und die fallen jetzt hoffentlich weg. Dann müsse NVIDIA und AMD noch einsehen, dass die Goldrauschjahre vorbei sind und man wieder normale Preise für normale Konsumenten aufrufen muss.








Antwort von MK:

Highend-Grafikkarten waren um 1999 für 500 - 600 Mark zu haben... Inflationsbereinigt sind das heute 360 bis 430 EUR.

Allerdings hatten die damals auch nur 32 bis 64 Megabyte Speicher, recht einfache Kühlsysteme, kaum Stromverbrauch und nur eine handvoll Bauteile.

Keine Ahnung wie sich die Entwicklungs- und Produktionskosten in den letzten 20+ Jahren entwickelt haben, für eine Highend-Karte heutzutage 800 - 1000 EUR zu bezahlen halte ich aber nicht für so unrealistisch.



Antwort von Bluboy:

Ich schätze für einen berufmäßigern Videioschnippsler ist das ein Monatslohn oder weniger.

Also alles im grünen Bereich. kein Grund zu Aufregung



Antwort von cantsin:

MK hat geschrieben:
Highend-Grafikkarten waren um 1999 für 500 - 600 Mark zu haben... Inflationsbereinigt sind das heute 360 bis 430 EUR.

Allerdings hatten die damals auch nur 32 bis 64 Megabyte Speicher, recht einfache Kühlsysteme, kaum Stromverbrauch und nur eine handvoll Bauteile.
Laut Moore's Law (das ja noch weitgehend gültig zu sein scheint), nachdem sich die Anzahl der Transistoren auf einem Chip alle zwei Jahre verdoppelt, müsste sich bei Grafikkarten seit 1999 die Transistorenzahl bzw. die Komplexität knapp um den Faktor 2 hoch 12=4096 erhöht haben, ohne dass es zu signifikaten Kostensteigerungen gekommen ist. 1999 kam die Geforce 256 auf den Markt, die erste Grafikkarte, die als "GPU" beworben wurde. Die hatte 17 Millionen Transitoren, während eine heutige RTX 4090 76,3 Milliarden Transistoren hat, was also ziemlich genau dem genannten Faktor entspricht. Der RAM hat sich mit 24 GB ggü. 32 MB übrigens "nur" um den Faktor 750 vergrößert.

Selbst wenn man mal annimmt, dass die Produktionskosten sich trotzdem verdoppelt haben sollte, sollte es eine RTX 4090 dann immer noch für 720-860 EUR statt wie aktuell für über 2000 EUR im Handel geben...

Auch wenn meine obige Rechnung natürlich alle möglichen spekulativen Faktoren hat - wenn man sich parallel die Preis- und Leistungsentwicklung bei CPUs und RAM seit 1999 ansieht, scheint da bei den GPUs irgendetwas aus dem Ruder gelaufen zu sein bzw. Moore's Law zu widersprechen.



Antwort von teichomad:

Ich finde es schade dass Nvidia seinen Kunden durch die die Marke reich geworden ist solche Preise zumutet. Die Haben einfach gecheckt dass Kunden wie bei Apple etc. bereit sind für das Beste arsch viel Kohle hin zu blättern. ATI könnte auch mal bisschen zurück schalten.
600 - 800 Euro sind doch voll in Ordnung für High End. Für Forschung haben die damals doch auch Kohle verballert. Wäre mal interessant wie die Herstellungskosten sind, auch im Vergleich zu damals.



Antwort von Blackbox:

Dass die Wirkung des Moorschen Gesetzes nicht an die zivilen Kunden weitergegeben wird mag - unter anderem - auch seinen Grund darin haben dass Nvidia intensivst in die US-amerikanische Waffenentwicklung verstrickt ist.
Im Rahmen der Kriegsvorbereitungen für den Indopazifikkonflikt zeichnet sich ja seit längerem ab, dass KI, teilautonome Waffensysteme, Echtzeit-KI-Auswertung von Aufklärungsdaten, etc. quasi 'Kriegsentscheidend' sein werden.
Siehe auch die global wirksamen US-Restriktionen gegenüber den (ehemaligen) Chinageschäften von Firmen wie ASLM.
Nicht unwahrscheinlich, dass die zivilen Endkunden indirekt die ohnehin bereits überlegenen Waffentechologien der USA unfreiwillig mitfinanzieren (müssen?).
Die Entwicklung und weitere Miniaturisierung von Computerleistung nebst KIPerfektionierung und die zunehmende Verfügbarkeit von automatisierten Killermaschinen sind im Grunde nicht mehr voneinander trennbar. Videotechnikemtwicklung und 'autonome' Waffentechnik sind im Kern kaum noch voneinander zu unterscheiden.
Die praktische Anwendung wird ja seit längerem im Nahen und Mittleren Osten ausführlich 'getestet'.
Stichwort 'Drohnenmorde'.
https://www.digit.fyi/us-ai-report-call ... ace-china/
Neu ist die Integration von Nvidia in den militärisch-industriellen Komplex der USA übrlgens definitiv nicht:
https://www.heise.de/newsticker/meldung ... 19830.html



Antwort von markusG:

Jörg hat geschrieben:
cantsin schreibt
und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung
"Your GPU Memory Is Full" ausspuckt...
diese Warnmeldung war ständiger Begleiter.
seitdem hier eine 3080 werkelt ist sie verschwunden, Fusion macht fast Spaß, (sofern Spaß da überhaupt aufkommen kann),
zumindest kann man damit nun arbeiten.
Eine testweise 3060 hatte diese Option nicht, trotz 12 G Speicher.
Kannst du das kurz erläutern? Bezieht sich der letzte Satz auf die Warnmeldung oder den "Spaß"?



Antwort von markusG:

Blackbox hat geschrieben:
Dass die Wirkung des Moorschen Gesetzes nicht an die zivilen Kunden weitergegeben wird mag - unter anderem - auch seinen Grund darin haben dass Nvidia intensivst in die US-amerikanische Waffenentwicklung verstrickt ist.
Sollten die Grafikkarten dann nicht sogar günstiger sein? Über die Leistung beschwert sich denke ich ja niemand. Und wenn Nvidia seine Pferdchen im trockenen hat (den kommerziellen Servermarkt gibt es ja auch noch), sollten sie ja flexibel in der Preisgestaltung sein und locker ihr R&D stemmen, gell?



Antwort von Jörg:

sollten sie ja flexibel in der Preisgestaltung sein
ich finde, die sind seeeehr locker in der Preisgestaltung...
wie momentan wohl alle Hersteller und Erzeuger.



Antwort von balkanesel:

MK hat geschrieben:
Highend-Grafikkarten waren um 1999 für 500 - 600 Mark zu haben... Inflationsbereinigt sind das heute 360 bis 430 EUR.

Allerdings hatten die damals auch nur 32 bis 64 Megabyte Speicher, recht einfache Kühlsysteme, kaum Stromverbrauch und nur eine handvoll Bauteile....
ich hab mir um die Zeit eine Wildcat gekauft mit knapp unter 500MB Speicher und 1600.- DM bezahlt.








Antwort von MK:

balkanesel hat geschrieben:
ich hab mir um die Zeit eine Wildcat gekauft mit knapp unter 500MB Speicher und 1600.- DM bezahlt.
Da wäre dann eher eine Quadro vergleichbar die bei ähnlicher Leistung auch deutlich mehr als die Consumerkarten kostet... größerer Speicher, Software ECC und die angeblich ausgereifteren Treiber rechtfertigen da bestimmt auch nicht unbedingt den x-fachen Preis.



Antwort von markusG:

Jörg hat geschrieben:
ich finde, die sind seeeehr locker in der Preisgestaltung...
Tja wer nicht bereit ist so viel zu bezahlen - es gibt ja noch Mitbewerber. Gerade im Schnittbereich sollte das ja relativ schmerzfrei sein. Bei den Cuda/OptiX zentrischen Anwendungen mag das vlt. anders sein.


https://www.youtube.com/watch?v=6T9d9LM1TwY

Wobei ich bezweifle, das Marktdruck alleine reicht. Lamentieren aber eben auch nicht.


Profis können nach wie vor davon profitieren, dass die Software auf Consumer-HW läuft (und mitunter besser als auf Profi-HW), das war nicht immer so und hat viele Türen geöffnet.



Antwort von Jost:

dienstag_01 hat geschrieben:
Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.
Aber irgendwo muss KI angedockt werden. Irgendwo muss das gerechnet werden. Welche Grafikkarten-Generation wird überhaupt unterstützt?
Ich bin höchst misstrauisch, dass die Hardware-Entwicklung mithält mit der KI-Entwicklung. Ändern sich Standards, stehst Du da. Erinnere Dich mal an die Zeit, als nur Quicksync Hardwarebeschleunigung für H.265-Encodierung konnte.
Dass die neuen GPU für Wald und Wiese oversized sind - keine Frage. Wie gut sind sie aber gerüstet für KI? Wer kann ausschließen, dass sie in vier Jahren bereits undersized sind?
Ich zweifele an der Zukunftssicherheit.



Antwort von dienstag_01:

Jost hat geschrieben:
dienstag_01 hat geschrieben:
Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.
Aber irgendwo muss KI angedockt werden. Irgendwo muss das gerechnet werden. Welche Grafikkarten-Generation wird überhaupt unterstützt?
Ich bin höchst misstrauisch, dass die Hardware-Entwicklung mithält mit der KI-Entwicklung. Ändern sich Standards, stehst Du da. Erinnere Dich mal an die Zeit, als nur Quicksync Hardwarebeschleunigung für H.265-Encodierung konnte.
Dass die neuen GPU für Wald und Wiese oversized sind - keine Frage. Wie gut sind sie aber gerüstet für KI? Wer kann ausschließen, dass sie in vier Jahren bereits undersized sind?
Ich zweifele an der Zukunftssicherheit.
Man sollte Hardware sowieso für die Bewältigung der Aufgaben anschaffen, die derzeit zu erledigen sind und nicht für irgendwelche Möglichkeiten/Eventualitäten in der Zukunft. Denn erstens kommt es anders und zweitens als man denkt - Lebensweisheit ;)



Antwort von iasi:

dienstag_01 hat geschrieben:
Jost hat geschrieben:

Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.
Aber irgendwo muss KI angedockt werden. Irgendwo muss das gerechnet werden. Welche Grafikkarten-Generation wird überhaupt unterstützt?
Ich bin höchst misstrauisch, dass die Hardware-Entwicklung mithält mit der KI-Entwicklung. Ändern sich Standards, stehst Du da. Erinnere Dich mal an die Zeit, als nur Quicksync Hardwarebeschleunigung für H.265-Encodierung konnte.
Dass die neuen GPU für Wald und Wiese oversized sind - keine Frage. Wie gut sind sie aber gerüstet für KI? Wer kann ausschließen, dass sie in vier Jahren bereits undersized sind?
Ich zweifele an der Zukunftssicherheit.
Man sollte Hardware sowieso für die Bewältigung der Aufgaben anschaffen, die derzeit zu erledigen sind und nicht für irgendwelche Möglichkeiten/Eventualitäten in der Zukunft. Denn erstens kommt es anders und zweitens als man denkt - Lebensweisheit ;)
Andererseits sollte man auch die Anforderungen von morgen im Auge behalten.

oversized muss aber wirklich nicht sein.



Antwort von andieymi:

Dass hier noch nirgends das Wort Oligopol gefallen ist?
Der Markt für dezidierte GPUs ist da eigentlich ein Paradebeispiel und die momentane Entwicklung symptomatisch, was mit Preisen auf solchen Märkten passiert.

Fertigen lassen beide wohl bei TSMC, die kriegen dann die Preisgestaltung über TSMC direkt mit. Das ist dann nicht mal mehr eine Absprache, sondern eigentlich schon fast wiederum die Abhängigkeit von einem Monopol:
https://www.hardwaretimes.com/nvidia-am ... ps-report/

Bleibt wirklich nur zu hoffen, dass Intel da mit der Arc-Serie auf die Beine kommt, anders ist der Markt kaum mehr zu retten.

Das ist ja auch das schöne Problem mit solchen Schlüsseltechnologien, dass nicht einfach mal der 3., 4., 5. Anbieter um die Ecke kommt, weil die Einstiegshürden extrem hoch sind. Sowohl technisch (wer lässt nicht bei TSMC fertigen? Naja, nur Intel kann das selbst... Samsung wird wohl keinerlei Interesse haben, in der Nicht-Mobile-Computing-Branche mitzuspielen.), als auch gerade Treiberseitig (wie viel an Optimierung liegt, spürt Intel wohl gerade auch bei Arc), wo sich die Softwarestudios defacto ausschließlich auf AMD/nVidia konzentrieren.

Wobei: Moment. Intel baut die Arc ja auch bei TSMC. Shit.

Das ist das schöne bei Volkswirtschaft. Dass jeder nur an die Marktwirtschaft denkt und dann jammert, wenn die Probleme auf der anderen Seite liegen. Was wäre die Reaktion auf Monopolisten aus Fernost? Zölle. Blöd nur, dass dann für Konsumenten alles noch teurer wird. Blöde, wenn man jegliche europäische Halbleiterfertigung ausgerottet hat und sich zu 100% abhängig von Taiwan gemacht hat. Da versteht man fast, wie sehr der Westen unter dem Deckmäntelchen der Menschenrechte das Auge auf Taiwan hat. Wenn da China kommt, dann ist's hier vorbei mit allem was in 0 und 1 denkt.



Antwort von Gore:

Muss mich auch mal eben kurz zu Wort melden bezüglich des Grafikkartenspeichers: Videomaterial in der Timeline eines Schnittprogramms zu haben, ist ja die eine Sache. Hat jemand von euch aber auch Erfahrungen mit GPU-Renderern in Cinema 4D oder in Blender gemacht?

Danke schon mal. :-)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
AMD RX6/7 Intel Arc und Nvidia RTX 4 - Kommt jetzt die GPU-Schwemme?
Blackmagic DaVinci Resolve Update 16.2.7 bringt Unterstützung für neue Nvidia RTX 3080, RTX 3090 und RTX 3070 GPUs
Neue Grafikkarten Generation von AMD - RX 7900 XT(X) mit zwei Video Engines
Nvidia RTX 2070 Turing-Variationen und Probleme mit RTX 2080 Ti?
Nvidia bringt neue Profi-Grafikkarten für Workstations: RTX A5000 und RTX A4000
Profitierung von Nvidia RTX-Serie in Adobe Anwendungen? (in diesem Fall RTX 2070 in Premiere CS6)
Neue Nvidia RTX 4090: Doppelt so schnell wie RTX 3090 Ti - aber 1.949 Euro teuer
Nvidia stellt neue RTX 2080 (ti) vor
AMD oder NVidia GPU für Photoshop/DaVinci Resolve?
AMD, Intel und Nvidia auf der CES 2020
Nvidia RTX 2080 Ti - Geschaffen für DaVinci Resolve?
NVIDIA präsentiert Quadro RTX als Raytracing-Grafikprozessor
Apple M1 (Pro/Max/Ultra) vs Intel/Amd/Nvidia...wirklich schneller?
Grafikkarten: Schluckauf bei Nvidia? Extreme Lieferschwierigkeiten und AMD im Nacken
Nvidia RTX 4090 Nachfolger bringt Netzteile zum Schmelzen?
Nvidia's GTX 1070 und RTX 3080Ti parallel?
Zahlreiche neue Workstation GPUs von Nvidia - u.a. RTX A5500
Erste Intel Arc GPUs - endlich Konkurrenz für AMD und NVIDIA?
Nvidia RTX A2000: Neue kompakte GPU für professionelle Anwender
Endlich bald günstigere Grafikkarten? Nvidia RTX 3050 lässt hoffen...
Neue Nvidia RTX 3080 Ti und 3070 Ti Grafikkarten - Verfügbarkeit spannend
Nvidia RTX 4070 Ti ab 5. Januar verfügbar - 40 TFlops, aber nur 500 GB/s
RTX 4090 - Nvidia vermutet Anwendungsfehler als Grund für Kabelbrände
Neuer High-End Notebook bei ALDI mit AMD Ryzen 9 5900HX, 64 GB RAM und GeForce RTX 3080
Nvidia RTX 3000 - Mobile Grafikchips: Leistung nun noch schwerer einschätzbar...
Nvidia teasert GeForce RTX 3060 mit 12 GB Ram für 320 Euro

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom