Newsmeldung von slashCAM:
Schon länger wollen ein paar übliche Verdächtige gehört haben, dass Nvidia zur Consumer Electronics Show CES am 8. Januar drei neue Grafikkarten der Oberklasse vorstellen...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neue Nvidia Oberklasse GPUs im Januar - RTX 4070 / Ti und RTX 4080 Super
Antwort von iasi:
16 GB DDR RAM über 256 Bit
sind in dieser Preisklasse bei der Konkurrenz doch längst das Minimum.
Letztlich ist es nur die bessere Hardwareunterstützung durch die Software, die Nvidia noch die Nase vorn halten lässt.
Antwort von medienonkel:
Wenn es nur um Schnitt geht sollte man die Arc Karten auch nicht vergessen.
Immerhin wird hier die oft vermisste Unterstützung für h265/264 10bit 4:2:2 geboten, die Xeons oder AMD nicht bieten.
Performance auf dem Niveau einer 4060 aber mit 16GB Speicher.
Stable Diffusion läuft Dank optimierter Modelle auch immer effizienter.
Und alles für weit unter 400 Euro.
https://www.mindfactory.de/product_info ... 10980.html
Antwort von Jörg:
iasi gefangen in der Zeitschleife...
Zu jeder Neuankündigung von Nvidia befindet er sich in diesem Dilemma:
sind in dieser Preisklasse bei der Konkurrenz doch längst das Minimum.
Letztlich ist es nur die bessere Hardwareunterstützung durch die Software, die Nvidia noch die Nase vorn halten lässt.
OK.OK, Weihnachten wiederholt sich ebenfalls jährlich
Antwort von iasi:
Jörg hat geschrieben:
iasi gefangen in der Zeitschleife...
Zu jeder Neuankündigung von Nvidia befindet er sich in diesem Dilemma:
sind in dieser Preisklasse bei der Konkurrenz doch längst das Minimum.
Letztlich ist es nur die bessere Hardwareunterstützung durch die Software, die Nvidia noch die Nase vorn halten lässt.
OK.OK, Weihnachten wiederholt sich ebenfalls jährlich
Nvidia steckt in der Zeitschleife fest - und ich mit Nvidia.
Nur der Jörg feiert die Speicheraustattung und Anbindung von Nvidia-Karten.
Solange es Leute gibt, wie Jörg, die sich auch 2023 nicht an 12GB mit 192Bit-Anbindung stören, kann Nvidia auch weiterhin bei den Speichern sparen und sich für 16GB bei einer "Super" feiern lassen.
Zumindest die Nvidia-Aktionäre machen die Jörgs dieser Welt glücklich. :)
Antwort von pillepalle:
Denke mal das ist ein Tippfehler im Beitrag. Die 4070 hat bereits 12GB und 192Bit. Die Super Karten haben normalerweise 256Bit und demnach müsste die 4070 Super 12GB und 256Bit haben. Für 600-650,-€ wäre das zwar nicht super, aber doch ganz ok.
VG
Antwort von iasi:
pillepalle hat geschrieben:
Denke mal das ist ein Tippfehler im Beitrag. Die 4070 hat bereits 12GB und 192Bit. Die Super Karten haben normalerweise 256Bit und demnach müsste die 4070 Super 12GB und 256Bit haben. Für 600-650,-€ wäre das zwar nicht super, aber doch ganz ok.
VG
Eher kein Tippfehler:
Von den 16GB sind 4 lahmgelegt und dadurch nicht angebunden.
Antwort von pillepalle:
@ iasi
Nee... Ich habe eine 2060 super mit 8GB und 256Bit. Die Super Karten haben nach der Nvidia Nomenklatur immer 256Bit gehabt. Die Specs die sie angegeben haben sind die von der 4070 die man jetzt schon bekommt.
VG
Der Inder hier gibt einen ganz guten Überblick für wen sich welche Karten lohnen.
https://youtu.be/5oOlt3YDMmY?si=5KLPPr8 ... z8&t=1m30s
Antwort von Jörg:
ach iasi, diesen dummsprech wirst du wohl nie lassen, ist wohl ne fehlerhafte zerebrale Speicheranbindung ;-((
macht nix, fürs Forum spielt es keine Rolle, man kennt sich...
Solange es Leute gibt, wie Jörg, die sich auch 2023 nicht an 12GB mit 192Bit-Anbindung stören
was sollte mich daran stören?
Gibt genug Leute die damit zufrieden sind.
Damit du die keine Gedanken machen musst, womit der Jörg zufrieden ist...
Nvidia.JPG
schönen 3. Advent
Antwort von MK:
medienonkel hat geschrieben:
Performance auf dem Niveau einer 4060 aber mit 16GB Speicher.
Naja... statische Benchmarks sagen etwas Anderes, und dazu noch der fast doppelt so hohe Stromverbrauch. Zudem sollte man sich mal überlegen warum die Arc in allen DirectX-Versionen außer DirectX 12 so dermaßen abkackt, von GPU Compute erst gar nicht zu reden...
Intel Arc A770:
https://www.videocardbenchmark.net/gpu. ... 70&id=4605
NVIDIA RTX 4060:
https://www.videocardbenchmark.net/gpu. ... 60&id=4850
Antwort von MK:
Letztlich ist es nur die bessere Hardwareunterstützung durch die Software
Seit Jahrzehnten, so ein Pech...
Antwort von iasi:
MK hat geschrieben:
Letztlich ist es nur die bessere Hardwareunterstützung durch die Software
Seit Jahrzehnten, so ein Pech...
Die Pluralform ist nicht ganz passend, denn CUDA gibt´s erst seit 2007.
Antwort von DAF:
medienonkel hat geschrieben:
Wenn es nur um Schnitt geht sollte man die Arc Karten auch nicht vergessen.
...
...die oft vermisste Unterstützung für h265/264 10bit 4:2:2 geboten...
Mal ne saudumme oder ggf. anderswo schon beantwortete Frage:
Geht es ein WIN System mit einer ARC und einer NVIDIA Karte gemeinsam auf einem Board aufzusetzen, um so on demand die Karte zu nutzen die die entsprechende Unterstützung bietet?
(... weil ne NVIDIA und eine interne Intel UHD im selben System aktiv geht ja auch...)
Antwort von iasi:
DAF hat geschrieben:
medienonkel hat geschrieben:
Wenn es nur um Schnitt geht sollte man die Arc Karten auch nicht vergessen.
...
...die oft vermisste Unterstützung für h265/264 10bit 4:2:2 geboten...
Mal ne saudumme oder ggf. anderswo schon beantwortete Frage:
Geht es ein WIN System mit einer ARC und einer NVIDIA Karte gemeinsam auf einem Board aufzusetzen, um so on demand die Karte zu nutzen die die entsprechende Unterstützung bietet?
(... weil ne NVIDIA und eine interne Intel UHD im selben System aktiv geht ja auch...)
Eher nicht, denn die Treiber kommen sich dann gegenseitig in die Quere.
Und die Software müsste dann CUDA und OpenGL parallel ansprechen.
Aber vielleicht irre ich mich und es gibt doch einen Weg.
Antwort von DAF:
iasi hat geschrieben:
...
Eher nicht, denn die Treiber kommen sich dann gegenseitig in die Quere.
...
Die beiden Treiber tun das nicht. Funktioniert bei mir wunderbar:
2xGraKa.jpg
Antwort von dienstag_01:
DAF hat geschrieben:
medienonkel hat geschrieben:
Wenn es nur um Schnitt geht sollte man die Arc Karten auch nicht vergessen.
...
...die oft vermisste Unterstützung für h265/264 10bit 4:2:2 geboten...
Mal ne saudumme oder ggf. anderswo schon beantwortete Frage:
Geht es ein WIN System mit einer ARC und einer NVIDIA Karte gemeinsam auf einem Board aufzusetzen, um so on demand die Karte zu nutzen die die entsprechende Unterstützung bietet?
(... weil ne NVIDIA und eine interne Intel UHD im selben System aktiv geht ja auch...)
Wahrscheinlich wird man dann merken, dass man die Nvidia gar nicht braucht ;)
Antwort von medienonkel:
Kommt ja alles immer aufs Nutzungsszenario an.
Die DX12 Problematik der arcs betrifft ja nur Gamer. Kenne keine Mainstream Software für kreative, die noch DX9 zwingend bräuchte.
Man kann problemlos Grafikkarten verschiedener Architektur miteinander ins System einbauenn. In der jeweiligen Applikation wählt man dann die entsprechende compute Einheit aus. Bei Cuda kann man oft auch die CPU mit einbinden.
Nvidia ist hier einfach die universelle Lösung, weil Cuda, OpenCL und tensflow unterstützt werden.
Man darf nicht außer acht lassen, dass arc Intels erste diskrete moderne GPU ist.
Dazu kommt, dass es nichts hilft eine 4070 mit 12 GB zu haben, wenn man 15 GB braucht und ständig mit OOM Fehlermeldungen genervt wird.
Wo bekomme man sonst 16GB für 320 Euro?
Bei KI Anwendungen ist der Speicher oft wichtiger, als die reine Rechenleistung.
Antwort von MK:
Mit dem unzeitgemäß hohen Stromverbrauch und der mauen Leistung rechnet sich eine teurere Karte schnell...
Antwort von iasi:
MK hat geschrieben:
Mit dem unzeitgemäß hohen Stromverbrauch und der mauen Leistung rechnet sich eine teurere Karte schnell...
Hast du das schon mal durchgerechnet?
Die meiste Zeit langweilt sich die Grafikkarte selbst bei der Arbeit mit Resolve.
Und dann ist der Stromverbrauch auch nicht exorbitant hoch.
Der Export, wenn dann wirklich mal kontinuierlich GPU-Leitung verlangt wird, macht nur einen kleinen Teil der Zeit aus, die es für die Post braucht.
Antwort von TomStg:
MK hat geschrieben:
Mit dem unzeitgemäß hohen Stromverbrauch und der mauen Leistung rechnet sich eine teurere Karte schnell...
Solche Sprüche kommen bei den dumm-woken Sekten gut an, in der Realität macht man sich damit lächerlich.
Wer bei einer Grafikkarte (!) deren Stromverbrauch ins Kalkül zieht, sollte zuerst seine Waschmaschine, den Geschirrspüler und seinen Wasserkocher abschaffen.
Antwort von klusterdegenerierung:
Bwuhaha, den ganzen Tag rödelt der Trockner & Waschmaschine, aber die 2 Handgroßen Lüfter auf der Graka ziehen einen in den Ruin. :-)
Antwort von klusterdegenerierung:
Ich schätze mal das ich mit meiner 1080 immernoch alles schneiden kann was ich möchte, schreibe ich dem Umstand zu, das sich mein Rechner beim rendern in einem Paralleluniversum befindet wo andere Mindeststandards herschen, anders kann ich mir das nicht erklären das mein 4K selbst mit Denoisen noch gut abspielbar ist.
Meine neue Graka kommt def erst wenn Grakas wieder Preise wie Grakas haben und nicht wie ein gebrauchter Opel Astra mit 100T und Satz Winterreifen.
Antwort von medienonkel:
Bei mir ist Stromverbrauch zumindest im Winter egal, weil ich dank Altbau eh mit Strom heize und momentan 350 Euro im Monat für Strom zahle...als bescheidener Singlehaushalt.
Für einmal duschen kann ich den großen Rechner 6 Stunden rendern lassen und nebenbei heizt er schön von unten das Bett vor 😉
Antwort von MK:
TomStg hat geschrieben:
Solche Sprüche kommen bei den dumm-woken Sekten gut an
Wenn man sonst nichts zu melden hat beleidigt man halt... traurig.
Antwort von MK:
klusterdegenerierung hat geschrieben:
Bwuhaha, den ganzen Tag rödelt der Trockner & Waschmaschine, aber die 2 Handgroßen Lüfter auf der Graka ziehen einen in den Ruin. :-)
Darum geht es hier doch gar nicht, aber wer den Preis einer Grafikkarte schönrechnen will sollte halt alle Faktoren ins Kalkül einbeziehen und keine Milchmädchenrechnung aufmachen.
Antwort von MK:
iasi hat geschrieben:
Hast du das schon mal durchgerechnet?
Die meiste Zeit langweilt sich die Grafikkarte selbst bei der Arbeit mit Resolve.
Und dann ist der Stromverbrauch auch nicht exorbitant hoch.
Wenn man mit dem Stromverbrauch im Leerlauf rechnen ist die Leistung am Ende auch egal, dann tut es auch die Onboard-Grafikkarte...
Wie sich hier jetzt alle dreckig an der Bemerkung mit dem Stromverbrauch aufgeilen... wenn man lesen und verstehen könnte ging es um den hohen Stromverbrauch in Kombination mit der mauen Leistung...
Halbe Leistung bei doppeltem Stromverbrauch (auch hier natürlich unter Last, was juckt mich die Leistung und Verbrauch im Leerlauf), ach rechnet es Euch doch selber aus...
Antwort von MK:
iasi hat geschrieben:
Und dann ist der Stromverbrauch auch nicht exorbitant hoch.
RTX 3060 = Maximal unter Last 115 Watt
Arc A770 = Maximal unter Last 225 Watt
Bei halber Gesamtleistung wohlgemerkt, und jetzt bitte nicht einen Benchmark-Teilwert rauspicken bei dem die A770 noch halbwegs gut dasteht, das interessiert nicht.
Bei den CPUs sieht es ähnlich aus, bei vergleichbarer Gesamtleistung AMD 7950X3D unter Volllast 120 Watt, Intel i9-14900K unter Volllast 253 Watt.
Im übrigen gibt es nicht nur Resolve sondern auch Anwendungen bei denen die ganze Kiste Stunden oder gar Tage unter Volllast läuft...
Und nochmal: Es geht nicht um den Stromverbrauch an sich, ich habe jahrelang 25kWh - 30kWh am Tag verbraucht... aber der Verbrauch stand immer in Relation zu einer angemessenen Gegenleistung.
Antwort von medienonkel:
Mir ging es eigentlich darum, dass es für die aufgerufenen Preise schon lange keine Entschuldigung mehr gibt weniger als 16 GB GPU Speicher zu verbauen.
Für 1200 Euro sollten es mindestens 24 sein. Oder verschenkt Intel die GPUs?
Antwort von MK:
klusterdegenerierung hat geschrieben:
Ich schätze mal das ich mit meiner 1080 immernoch alles schneiden kann was ich möchte
Was nicht verwunderlich ist da die 2016 auf den Markt gekommene 1080 (ohne Ti) bis auf die geringere DirectX 12 Performance und die "nur" 8GB Speicher die A770 leistungstechnisch in allen anderen Disziplinen immer noch zum Frühstück vernascht...
https://www.videocardbenchmark.net/gpu. ... 80&id=3502
Antwort von MK:
medienonkel hat geschrieben:
Für 1200 Euro sollten es mindestens 24 sein. Oder verschenkt Intel die GPUs?
Bei den Preisen für GDDR Speicher müsste es auch Karten mit 100 Gigabyte aufwärts geben...
Antwort von MK:
Und zu den aktuellen Grafikkartenpreisen... wer nichts auf der Naht hat aber 16GB und mehr als die doppelte Gesamtleistung der Arc A770 möchte, kann sich eine RX 6800 für rund 420 oder eine RTX 4060 Ti für 450 holen...