Newsmeldung von slashCAM:
Nun ist es endlich nach 2 Jahren wieder soweit, dass Nvidia eine komplett runderneuerte GPU Architektur für Desktops vorstellt.
Hier geht es zum slashCAM Artikel:
News: Nvidia mit brachialem Grafikkarten-Update - Neue Ampere GPU für den Videoschnitt
Antwort von Jost:
Nvidia hat zeitgleich auch Cuda 11 angekündigt.
https://developer.nvidia.com/blog/cuda- ... -revealed/
Wenn ich es recht verstanden habe, werden die nun leistungsfähigeren Tensor-Cores einbezogen. Es scheint so, als würde die Hardware besser von der Software unterstützt.
Antwort von freezer:
Soweit ich das gelesen habe, liegt der höhere Stromverbrauch auch am neuen Grafikspeicher GDDR6X, der bei der 3090 mit 24 GB auf rund 60 Watt geschätzt wird.
HBM2E war Nvidia wohl zu teuer.
Zum Stromverbrauch siehe auch das Whitepaper von Micron:
white-paper/high_performance_memory_white_paper.pdf
Antwort von Frank Glencairn:
Stromverbrauch - im Ernst?
Jetzt mal ehrlich, von wie viel Cent in der Stunde reden wir hier eigentlich?
Antwort von TomStg:
"Frank Glencairn" hat geschrieben:
Stromverbrauch - im Ernst?
Jetzt mal ehrlich, von wie viel Cent in der Stunde reden wir hier eigentlich?
Den Umweltfetischisten geht es ja bekanntermaßen absolut nicht ums Geld, siehe deutsche Spitzenstellung der Strompreise infolge der Energiewende, sondern um das böse CO2. Allerdings spielt auch dieses Betrachtungsweise so gut wie keine Rolle im Vergleich zu einer Runde der Waschmaschine oder des Geschirrspülers.
Antwort von freezer:
"Frank Glencairn" hat geschrieben:
Stromverbrauch - im Ernst?
Jetzt mal ehrlich, von wie viel Cent in der Stunde reden wir hier eigentlich?
Niemand. Hier geht es um die Wärmeabgabe.
Antwort von rush:
Sehr interessant scheint auch die durchgesickerte RTX3070 Ti zu sein, wenn man Lenovos Ankündigung glauben schenken darf:
Dort ist die 3070 mit 16GB VRAM aufgetaucht - also der doppelten Menge an VRAM gegenüber der Stock-RTX3070
https://www.pcgameshardware.de/Nvidia-A ... t-1357337/
Antwort von MrMeeseeks:
"Frank Glencairn" hat geschrieben:
Stromverbrauch - im Ernst?
Jetzt mal ehrlich, von wie viel Cent in der Stunde reden wir hier eigentlich?
Wenige Cent und eigentlich auch nicht relevant im Desktop-Bereich, zumal die Karten ohnehin sparsam sind im Idle.
Wichtig ist es aber für die kommenden Notebook Varianten und entsprechenden mobilen Workstations.
Antwort von Frank Glencairn:
freezer hat geschrieben:
Niemand. Hier geht es um die Wärmeabgabe.
Solange wir in einem Land mit 8 Monaten Heizperiode leben,
ist mir die Wärmeabgabe genauso egal wie der Stromverbrauch :D
MrMeeseeks hat geschrieben:
Wichtig ist es aber für die kommenden Notebook Varianten und entsprechenden mobilen Workstations.
Es gibt halt ein gewisses physikalisches Verhältnis zwischen Leistung und Verbrauch, wer die Leistung braucht, der lebt halt damit, nicht 8 Stunden im Auto, 8K Material in Echtzeit und Vollauflösung bearbeiten zu können, und wer 8 Stunden im Auto arbeiten muß, für den ist so ein Bolide halt nix, der kauft sich dann halt ein Sparbrötchen.
Persönlich würde ich sowieso nie unterwegs am Rechner arbeiten wollen. Wenn ich den Laptop irgendwohin mit nehme dann fürs Hotel, oder ans Set, wo Strom sowieso kein Thema ist. Aber ich weiß, es gibt ne Menge Leute die das gerne machen - jedem das seine, gibt ja genug Auswahl.
Antwort von MK:
TomStg hat geschrieben:
Allerdings spielt auch dieses Betrachtungsweise so gut wie keine Rolle im Vergleich zu einer Runde der Waschmaschine oder des Geschirrspülers.
Oder 100 Kilometer mit dem E-Auto, da kann ich die Karte stattdessen 3 Tage auf Volllast laufen lassen ;-)
Antwort von markusG:
"Frank Glencairn" hat geschrieben:
Solange wir in einem Land mit 8 Monaten Heizperiode leben,
ist mir die Wärmeabgabe genauso egal wie der Stromverbrauch :D
Spätestens wenn die Mühle den Lüfter hochdrehen muss wird dir die Wärmeabgabe nicht mehr egal sein^^ erst recht nicht bei Multi-GPU-Setups.
Antwort von rush:
markusG hat geschrieben:
Spätestens wenn die Mühle den Lüfter hochdrehen muss wird dir die Wärmeabgabe nicht mehr egal sein^^ erst recht nicht bei Multi-GPU-Setups.
Im Winter kann das doch ganz praktisch sein - kann man direkt auf die reguläre Heizung verzichten.
Und niemand zwingt einen ja den PC in denselben Raum der Nutzung zu stellen.
Antwort von Frank Glencairn:
markusG hat geschrieben:
Spätestens wenn die Mühle den Lüfter hochdrehen muss wird dir die Wärmeabgabe nicht mehr egal sein^^ erst recht nicht bei Multi-GPU-Setups.
Weil?
Antwort von freezer:
Hab vor Jahren einem Kollegen fürs 3D-Rendering einen luftgekühlten Rechner mit 4x GTX780 gebaut, Netzteil mit 1.500 Watt. Wasserkühlung wollte er aus Kostengründen nicht (verständlich, weil in der Wärmeleistungs-Liga wird's echt teuer).Wenn das Ding unter Volllast renderte, dann war der Ausstoß hinten wie bei einem Heißluftfön. Im Winter fanden es die Kollegen im shared Workspace noch nett - im Sommer nicht mehr :-D
Antwort von markusG:
Weil?
Lautstärke. Laute Lüfter am Arbeitsplatz sind jetzt nicht so prickelnd.
Antwort von Frank Glencairn:
Stört mich persönlich jetzt nicht so.
Wobei ich die Workstations hier schon so gebaut hab, daß die entsprechend beatmet sind.
Von der RTX 2080Ti höre ich nur höchst selten was, die geht kaum mal über 80 Grad, CPU sowieso nicht, der Noctura ist ja recht leise. Das lauteste dürften die beiden RAIDs sein. Aber wie schon gesagt, ich bin da sowieso nicht empfindlich.
Antwort von klusterdegenerierung:
Interessiert eigentlich niemanden mehr der Preis?
700-1000€ für eine Graka, da hat man damals einen Rechnern dazu bekommen.
Mal im Ernst, was sollen diese absurden Preise, das ist doch nicht mehr normal?
Ich fand vor Jahren schon 500€ für irgendeine 80er die ich gekauft habe viel zu viel.
Meine 1080 EVGA hab ich mir gebraucht für 350€ gekauft, auch das fand ich schon ganz schön happig!
Ausserdem ist das Alu Case fies grünstichig, hätte man mit einer gtx640 besser hin bekommen.
Antwort von rdcl:
Die Preise sind durchgehend niedriger als bei der 2000er Serie. Teilweise sogar deutlich. Auch die 3090, die ja als Titan-Nachfolger kommt, ist viel günstiger als die Titans. Wer sich über GraKa-Preise beschweren will, kann sich ja mal die Qattros anschauen.
Antwort von rdcl:
"Frank Glencairn" hat geschrieben:
Stört mich persönlich jetzt nicht so.
Wobei ich die Workstations hier schon so gebaut hab, daß die entsprechend beatmet sind.
Von der RTX 2080Ti höre ich nur höchst selten was, die geht kaum mal über 80 Grad, CPU sowieso nicht, der Noctura ist ja recht leise. Das lauteste dürften die beiden RAIDs sein. Aber wie schon gesagt, ich bin da sowieso nicht empfindlich.
Ist bei mir auch so. Das lauteste ist das Raid. Wenn ich mich entscheiden muss habe ich auch lieber einen schnellen Rechner als einen leisen.
Antwort von klusterdegenerierung:
rdcl hat geschrieben:
Die Preise sind durchgehend niedriger als bei der 2000er Serie. Teilweise sogar deutlich. Auch die 3090, die ja als Titan-Nachfolger kommt, ist viel günstiger als die Titans. Wer sich über GraKa-Preise beschweren will, kann sich ja mal die Qattros anschauen.
Ich sprach dann auch eher von Zeiten ohne eine Tausend davor, eher ab 600er.
Antwort von rdcl:
klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
Die Preise sind durchgehend niedriger als bei der 2000er Serie. Teilweise sogar deutlich. Auch die 3090, die ja als Titan-Nachfolger kommt, ist viel günstiger als die Titans. Wer sich über GraKa-Preise beschweren will, kann sich ja mal die Qattros anschauen.
Ich sprach dann auch eher von Zeiten ohne eine Tausend davor, eher ab 600er.
Wie gesagt, du bekommst jezt wesentlich mehr Leistung für weniger Geld. Dass die Karten am oberen Ende teurer sind als früher liegt vielleicht daran, dass die komplette Technologie neu ist und 24Gb Speicher mit drauf sind. Aber eine Karte für 600€ von heute bietet wesentlich mehr Power als eine für 600€ von damals. Die angekündigte RTX3070 soll für 500$ zu haben sein und schlägt (zumindest laut NVidia) eine RTX2080ti. Es ist ja nicht so als gäbe es nur noch teure Karten. Die Palette ist so groß, da sollte wirklich für jeden was dabei sein.
Antwort von klusterdegenerierung:
rdcl hat geschrieben:
klusterdegenerierung hat geschrieben:
Ich sprach dann auch eher von Zeiten ohne eine Tausend davor, eher ab 600er.
Wie gesagt, du bekommst jezt wesentlich mehr Leistung für weniger Geld. Dass die Karten am oberen Ende teurer sind als früher liegt vielleicht daran, dass die komplette Technologie neu ist und 24Gb Speicher mit drauf sind. Aber eine Karte für 600€ von heute bietet wesentlich mehr Power als eine für 600€ von damals. Die angekündigte RTX3070 soll für 500$ zu haben sein und schlägt (zumindest laut NVidia) eine RTX2080ti. Es ist ja nicht so als gäbe es nur noch teure Karten. Die Palette ist so groß, da sollte wirklich für jeden was dabei sein.
Mit 600 meinte ich die 600er Serie, nicht 600€ :-)
Antwort von markusG:
klusterdegenerierung hat geschrieben:
Interessiert eigentlich niemanden mehr der Preis?
700-1000€ für eine Graka, da hat man damals einen Rechnern dazu bekommen.
Warte erstmal ab...entweder greift man bei Geldmangel zu der Vorgängergeneration, oder wartet auf die Einstiegsmodelle.
rdcl hat geschrieben:
Wenn ich mich entscheiden muss habe ich auch lieber einen schnellen Rechner als einen leisen.
Meine letzte Kaufentscheidung war Explizit auf einen MIttelweg ausgelegt. D.h. schnell genug für den täglichen Einsatz, aber gleichzeitig gut zu kühlen (mit ordentlich Puffer für heiße Sommermonate). Leider waren damals große, leise Lüfter bzw. deren Einplanung bei den Gehäuseherstellern eher noch exotisch, und meine Grafikkarte (zZt. GTX780) kannte noch keinen Semi-Passiven Betrieb. Klar wenn nur gerendert wird kann einem die Lautstärke quasi egal sein - aber gerade wenn ich mit Sound arbeite will ich nichts vom PC hören. Darüber hinaus finde ich es störend wenn die Lüfter im Studio aufdrehen nur weil einige gerade rendern usw. - das ist immerhin auch ein Stressfaktor. Leistung um jeden Preis sehe ich da eher in Renderfarmen, die eh abgeschottet sind.
Übrigens...gibt wohl einige RAIDs btw. NAS die gut laut werden, bei denen es dann entsprechende Mods gibt:
https://idomix.de/synology-diskstation- ... r-tauschen
Antwort von rdcl:
markusG hat geschrieben:
klusterdegenerierung hat geschrieben:
Interessiert eigentlich niemanden mehr der Preis?
700-1000€ für eine Graka, da hat man damals einen Rechnern dazu bekommen.
Warte erstmal ab...entweder greift man bei Geldmangel zu der Vorgängergeneration, oder wartet auf die Einstiegsmodelle.
rdcl hat geschrieben:
Wenn ich mich entscheiden muss habe ich auch lieber einen schnellen Rechner als einen leisen.
Meine letzte Kaufentscheidung war Explizit auf einen MIttelweg ausgelegt. D.h. schnell genug für den täglichen Einsatz, aber gleichzeitig gut zu kühlen (mit ordentlich Puffer für heiße Sommermonate). Leider waren damals große, leise Lüfter bzw. deren Einplanung bei den Gehäuseherstellern eher noch exotisch, und meine Grafikkarte (zZt. GTX780) kannte noch keinen Semi-Passiven Betrieb. Klar wenn nur gerendert wird kann einem die Lautstärke quasi egal sein - aber gerade wenn ich mit Sound arbeite will ich nichts vom PC hören. Darüber hinaus finde ich es störend wenn die Lüfter im Studio aufdrehen nur weil einige gerade rendern usw. - das ist immerhin auch ein Stressfaktor. Leistung um jeden Preis sehe ich da eher in Renderfarmen, die eh abgeschottet sind.
Übrigens...gibt wohl einige RAIDs btw. NAS die gut laut werden, bei denen es dann entsprechende Mods gibt:
https://idomix.de/synology-diskstation- ... r-tauschen
Ist natürlich nur meine persönliche Vorliebe, aber ich gewichte Schnelligkeit vs. Lautstärke mit ungefähr 100 zu 0. Es interessiert mich null wie laut der Rechner ist. Wenn ich einen Rechner baue geht es nur um Rechenpower und natürlich den Preis der Komponenten. Mein Rechner wird beim Rendern auch ziemlich laut, mit insgesamt 6 Gehäuselüftern und rieisgem CPU-Kühler. Aber das stört mich nicht. Im Gegenteil. Das Ding soll so schnell rechnen wie nur möglich.
Mittlerweile steht der Rechner aber sowieso in einem separaten Raum in der Wand. Damit hat sich das Thema eh erledigt.
Aber wenn mich die Lautstärke stören würde, würde ich einfach auf Wasserkühlung umsteigen.
Bei meinem Raid sind es die Platten selbst die man hört. SSD-Only ist bei 40 TB doch noch zu teuer.
Antwort von Rick SSon:
klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
Die Preise sind durchgehend niedriger als bei der 2000er Serie. Teilweise sogar deutlich. Auch die 3090, die ja als Titan-Nachfolger kommt, ist viel günstiger als die Titans. Wer sich über GraKa-Preise beschweren will, kann sich ja mal die Qattros anschauen.
Ich sprach dann auch eher von Zeiten ohne eine Tausend davor, eher ab 600er.
ja, es gab auch mal brötchen für 6 pfennige...
Ich findse im Vergleich zu den letzten Jahren echt billig. Wenn ich bedenke, dass ich mich gefreut habe meine 1080ti unter 900€ geschossen zu haben, dann is die 3080 doch nen schnapper. Bin allerdings gespannter ob diesmal von AMD was richtig Schnelles kommt. Supporte lieber die CEO-Frau, statt den selbstdarstellerischen Lederjackenmann :D Fürs abendliche Gaming sollte dank HDMI 2.1 auch gsync/vsync endlich egal sein. Und ich wollte sowieso endlich mal nen OLED Display :)
Antwort von klusterdegenerierung:
"Rick SSon" hat geschrieben:
ja, es gab auch mal brötchen für 6 pfennige...
Wenn Du schon so ein Beispiel aufmachst, dann ziehe auch eine derartige Karte zum Vergleich heran, dann funktioniert der Vergleich wenigstens!
Nvidia zielt mit der Geforce GTX 680 auf Spieler, die extrem viel Leistung wünschen, aber auch bereit sind dafür entsprechend zu zahlen: Mit rund 500 Euro kostet die Geforce GTX 680 etwa genausoviel wie die direkte Konkurrenz.
Antwort von Rick SSon:
klusterdegenerierung hat geschrieben:
"Rick SSon" hat geschrieben:
ja, es gab auch mal brötchen für 6 pfennige...
Wenn Du schon so ein Beispiel aufmachst, dann ziehe auch eine derartige Karte zum Vergleich heran, dann funktioniert der Vergleich wenigstens!
Nvidia zielt mit der Geforce GTX 680 auf Spieler, die extrem viel Leistung wünschen, aber auch bereit sind dafür entsprechend zu zahlen: Mit rund 500 Euro kostet die Geforce GTX 680 etwa genausoviel wie die direkte Konkurrenz.
Worauf willst du hinaus? Änderts was, dass du es teuer findest? :D Es is, wie's is, take it or leave it.
Antwort von klusterdegenerierung:
Ja es ändert das es nicht stimmt das sie schon immer so teuer waren, wie ich gesagt habe.
Aber wenn man immerzu eine Serie vorher zum Vergleich heran zieht, wovon ich aber nicht gesprochen habe, dann ist es klar das die neue nicht teuer ist.
Antwort von MrMeeseeks:
klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
Wie gesagt, du bekommst jezt wesentlich mehr Leistung für weniger Geld. Dass die Karten am oberen Ende teurer sind als früher liegt vielleicht daran, dass die komplette Technologie neu ist und 24Gb Speicher mit drauf sind. Aber eine Karte für 600€ von heute bietet wesentlich mehr Power als eine für 600€ von damals. Die angekündigte RTX3070 soll für 500$ zu haben sein und schlägt (zumindest laut NVidia) eine RTX2080ti. Es ist ja nicht so als gäbe es nur noch teure Karten. Die Palette ist so groß, da sollte wirklich für jeden was dabei sein.
Mit 600 meinte ich die 600er Serie, nicht 600€ :-)
Die 680 hat 499$ gekostet, die 3080 jetzt 699$.
Mal davon abgesehen dass der Preis gerechtfertig ist, fallen für Nvidia wesentlich höhere Kosten an. Die Chips haben viel komplexere Strukturen, sind schwerer herzustellen und der Ausschuss ist größer.
Das Gehalt der Mitarbeiter ist gestiegen, es wurden mehr Experten eingestellt für die Erstellung wesentlich komplexere Architekturen.
Dazu sind die Kühler wesentlich hochwertiger geworden, auch da steckt Forschung drin. Die ganze neue Software die entwickelt wird usw.
Bedenkt man diese Faktoren dann sind ist die kommende 3000er Karten wohl die günstigsten seit langer Zeit. Der letzte Sprung an Leistung dieser Größenordnung ist über 16 Jahre her.
Antwort von klusterdegenerierung:
Stimmt, 700-1000€ ist das gleiche wie 500€.
Antwort von Starshine Pictures:
Glaub da wird es mal Zeit Ende des Jahres meinen i7 3770K + GTX 1060 gegen einen 4000er AMD + RTX 3070 zu tauschen. Auch wenn ich zur Zeit nix mit Filmen und Editing am Hut habe, für den Flight Simulator 2020 wirds richtig cool 😋
Grüsse, Stephan
Antwort von rush:
Der macht bereits auf einen 3000er Ryzen nebst betagter GTX1070 durchaus Laune... Aber die GraKa läuft laut Taskmanager im Gegensatz zum 3900x tatsächlich fast konstant unter Volllast - da dürften neue Generation sicherlich deutlich mehr bringen:
https://www.pcgameshardware.de/Microsof ... 1356467/2/
Demnach scheint der FS2020 aktuell noch nicht ideal auf x beliebige Kerne zu skalieren - da bringt vielleicht ein künftiges Update Besserung.
Beinahe ebenfalls wichtig: Den Content idealerweise auf eine SSD installieren damit sich die Ladezeiten im Rahmen halten.
Antwort von rdcl:
klusterdegenerierung hat geschrieben:
"Rick SSon" hat geschrieben:
ja, es gab auch mal brötchen für 6 pfennige...
Wenn Du schon so ein Beispiel aufmachst, dann ziehe auch eine derartige Karte zum Vergleich heran, dann funktioniert der Vergleich wenigstens!
Nvidia zielt mit der Geforce GTX 680 auf Spieler, die extrem viel Leistung wünschen, aber auch bereit sind dafür entsprechend zu zahlen: Mit rund 500 Euro kostet die Geforce GTX 680 etwa genausoviel wie die direkte Konkurrenz.
499€ ist auch der Preis der RTX3070, die ein Vielfaches der Leistung einer 680 bringt und wesentlich teurere Komponenten verbaut hat.
Antwort von Frank Glencairn:
MrMeeseeks hat geschrieben:
Mal davon abgesehen dass der Preis gerechtfertig ist, fallen für Nvidia wesentlich höhere Kosten an. Die Chips haben viel komplexere Strukturen, sind schwerer herzustellen und der Ausschuss ist größer.
Das Gegenteil ist der Fall. Die Karten sind so billig, weil Samsung weniger Ausschuss hat.
Und ja - ich hab billig gesagt. Wenn man bedenkt, daß wir hier von Karten aus der dritten Klasse reden, die schneller sind als die Flaggschiffe der letzten Generation, sind die tatsächlich billig.
Antwort von klusterdegenerierung:
rdcl hat geschrieben:
klusterdegenerierung hat geschrieben:
Wenn Du schon so ein Beispiel aufmachst, dann ziehe auch eine derartige Karte zum Vergleich heran, dann funktioniert der Vergleich wenigstens!
Nvidia zielt mit der Geforce GTX 680 auf Spieler, die extrem viel Leistung wünschen, aber auch bereit sind dafür entsprechend zu zahlen: Mit rund 500 Euro kostet die Geforce GTX 680 etwa genausoviel wie die direkte Konkurrenz.
499€ ist auch der Preis der RTX3070, die ein Vielfaches der Leistung einer 680 bringt und wesentlich teurere Komponenten verbaut hat.
Ach, jetzt sind wir plötzlich bei AMD? ;-)
Antwort von rdcl:
klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
499€ ist auch der Preis der RTX3070, die ein Vielfaches der Leistung einer 680 bringt und wesentlich teurere Komponenten verbaut hat.
Ach, jetzt sind wir plötzlich bei AMD? ;-)
Wer ist bei AMD?
Antwort von klusterdegenerierung:
Ist RTX nicht AMD? :-)
Lass uns mal aufhören, ich fand die Dinger halt einfach viel zu teuer. :-)
Antwort von Frank Glencairn:
Die sind nur teuer, wenn du die Leistung nicht brauchst - wenn du Jobs hast, die so ne Leistung erfordern, passt das schon.
Antwort von klusterdegenerierung:
"Frank Glencairn" hat geschrieben:
Die sind nur teuer, wenn du die Leistung nicht brauchst - wenn du Jobs hast, die so ne Leistung erfordern, passt das schon.
Das steht doch wieder auf einem ganz anderen Blatt, dann kann ich mir auch so eine Monster Nvidia für zig tausend Euro kaufen, darum gehts mir nicht.
Ich emfinde die Dinger halt als zu teuer für das was sie sind und können und denke das an der Stelle der Verbrauchen auch ausgenutzt wird.
Antwort von rush:
Aber man wägt doch in der Regel sowieso den eigenen Bedürfnissen entsprechend ab... Ich habe nie sofort die neueste Generation an Grafikkarten gekauft nur weil es sie gibt - sondern nur alle liebe Jahre Mal eine - und selbst dann eher ein Vorjahresmodell das preislich deutlich interessanter ist und meist noch immer mehr als genügend Leistung hatte.
Die neuesten NVidia GPUs empfand ich schon immer zu teuer, nicht erst seit der RTX Reihe... Aber ich benötige die schiere Grafikleistung eben auch nicht täglich.
Aber Zeit ist durchaus Geld und wer viel anspruchsvolle Tasks erledigen muss die jene entsprechende Leistung abrufen können wird das Geld sicher gern investieren.
Ich werde die Preisentwicklung der RTX3070 beobachten aber nicht zeitnah zuschlagen.
Antwort von MrMeeseeks:
klusterdegenerierung hat geschrieben:
Stimmt, 700-1000€ ist das gleiche wie 500€.
Von was redest du denn? Die GTX 680 hat 499€ gekostet, die neue 3080 nur 200€ mehr. Bedenkt man den wesentlich größeren Aufwand der Karte und die Leistung im Vergleich zum Vorgänger, dann sind die 3070/3080 die Grafikkarten die günstigsten der letzten Jahre.
Die GTX Titan 2013 hat auch schon 1000€ gekostet. Sind das Neuigkeiten für dich?
Die Tatsache dass Grafikkarten allgemein teuer sind ist doch wohl ebenfalls nichts neues für dich? Du beschwerst dich über Preise gehobener Modelle. Welchen Sinn hat denn das? Nvidia wird das Angebot noch entsprechend ergänzen mit Karten bis zu 100€. Wenn die dir besser zusagen, wirst auch du dort fündig.
"Frank Glencairn" hat geschrieben:
MrMeeseeks hat geschrieben:
Mal davon abgesehen dass der Preis gerechtfertig ist, fallen für Nvidia wesentlich höhere Kosten an. Die Chips haben viel komplexere Strukturen, sind schwerer herzustellen und der Ausschuss ist größer.
Das Gegenteil ist der Fall. Die Karten sind so billig, weil Samsung weniger Ausschuss hat.
Und ja - ich hab billig gesagt. Wenn man bedenkt, daß wir hier von Karten aus der dritten Klasse reden, die schneller sind als die Flaggschiffe der letzten Generation, sind die tatsächlich billig.
Der geringere Ausschuss kommt durch eine bessere Fertigung, diese muss ebenfalls bezahlt werden. Das scheinen manche nicht zu kapieren.
Antwort von Frank Glencairn:
klusterdegenerierung hat geschrieben:
Ich emfinde die Dinger halt als zu teuer für das was sie sind und können und denke das an der Stelle der Verbrauchen auch ausgenutzt wird.
Also doppelte Leistung - quasi zum selben Preis, würde ich jetzt nicht gerade "ausnutzen"nennen - zumal ja keine gezwungen wird die Dinger zu kaufen, AMD hat auch schöne Töchter.
Antwort von balkanesel:
und überhaupt, vor 20 Jahren oder so hab ich mir eine Wildcat gekauft, mit 480MB Speicher, die hat 2000.- Mark gekostet, entspricht heute sicher 1500.- €, ^^
Antwort von rdcl:
klusterdegenerierung hat geschrieben:
Ist RTX nicht AMD? :-)
Lass uns mal aufhören, ich fand die Dinger halt einfach viel zu teuer. :-)
Nein, RTX ist seit der letzten Generation die Bezeichnung der NVidia Geforce Karten. Erst wars noch z.B. GTX1080, dann RTX2080 und jetzt RTX3080. Das R kommt vom Raytracing welches die Karten seit der 2000er Serie beherrschen.
Und ja, die absoluten Preise am oberen Ende sind selbstverständlich gestiegen. Aber die "Leistung pro Euro" war wohl noch nie besser als jetzt bei der 3000er Serie.
Antwort von nachtaktiv:
stromfresser. nee danke.
Antwort von Frank Glencairn:
Das ist wie: Leistung - nein Danke.
Da gibt's halt ein gewisses Verhältnis.
Antwort von MK:
10.496 CUDA-Cores bei der 3090. Ja bitte.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Das ist wie: Leistung - nein Danke.
Da gibt's halt ein gewisses Verhältnis.
na ja - Effizienz lässt sich durchaus auch verbessern
Antwort von norbi:
tja mit der Effizienz ist halt so ne Sache, parallel dazu steigen auch die Anforderungen und Ansprüche und so gleicht sich das wieder aus. Stromverbrauch bleibt in etwa gleich oder steigt sogar (Rebound Effekt). Gabs da nicht mal einen, der von Canon 8k so geschwärmt hat? ;)
Naja..die erste RTX Generation jetzt mal übersprungen da Gametechnisch eh noch zu wenig unterstützt wurde und meine 1080Ti tuts noch...mal schauen. Jedenfalls fliegt bei mir der betagte Intel 4 kerner raus und wird von kommenden AMD Zen3 12 kerner ersetzt. Da freu mich drauf.. Mein letzter AMD war ein Single-Core Sempron 3400+ (2.0 Ghz) :)
Antwort von Frank Glencairn:
iasi hat geschrieben:
na ja - Effizienz lässt sich durchaus auch verbessern
Die Effizienz wurde massiv verbessert.
Währen die Turing Architektur "nur" 25 Millionen Transistoren pro Quadratmillimeter hatte, kommt die Ampere Generation auf 56 Millionen.
Das entspricht 28 Milliarden(!) auf dem ganzen Chip. Und das gilt im Vergleich nicht im Vergleich zu letzten Generation, sondern im Vergleich zur letzten Flagschiffgeneration.
Das entspricht 2,7fache Shader Performance, 1,7fach bessere Raytraicng Performance und 2,7fache Tensorcore Performance, bei einer 1,9fachen Verbesserung der Effizienz per Watt.
Um ein Autobeispiel heranzuziehen: Dein neuer Golf hat weit mehr als doppelt so viel PS wie dein alter Porsche,
ist aber trotzdem billiger als die alte Golf Generation und verbraucht auch noch weniger, und du maulst wegen angeblich mangelnder Effizienz rum.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
na ja - Effizienz lässt sich durchaus auch verbessern
Die Effizienz wurde massiv verbessert.
Währen die Turing Architektur "nur" 25 Millionen Transistoren pro Quadratmillimeter hatte, kommt die Ampere Generation auf 56 Millionen.
Das entspricht 28 Milliarden(!) auf dem ganzen Chip. Und das gilt im Vergleich nicht im Vergleich zu letzten Generation, sondern im Vergleich zur letzten Flagschiffgeneration.
Das entspricht 2,7fache Shader Performance, 1,7fach bessere Raytraicng Performance und 2,7fache Tensorcore Performance, bei einer 1,9fachen Verbesserung der Effizienz per Watt.
Um ein Autobeispiel heranzuziehen: Dein neuer Golf hat weit mehr als doppelt so viel PS wie dein alter Porsche,
ist aber trotzdem billiger als die alte Golf Generation und verbraucht auch noch weniger.
Der neue Golf verbraucht eben nicht weniger, da er schwerer ist und eben doppelt so viel PS hat.
Und die neuen Nvidia-Grafikkarten "verbrauchen" sogar mehr.
Antwort von Frank Glencairn:
Welchen Teil von "1,9fachen Verbesserung der Effizienz per Watt" hast du nicht verstanden?
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Welchen Teil von "1,9fachen Verbesserung der Effizienz per Watt" hast du nicht verstanden?
Welchen Teil von "höherem Verbrauch" hast du denn nicht verstanden?
Klar geht den Kunden die ganze Klima-Jammerei in ihrem realen Leben am Ars... vorbei, aber es ist nun einmal so, dass Nvidia höhere Leistung mit höherem Stromverbrauch erkauft.
Immerhin kann dann der Heizlüfter ausgeschaltet bleiben, während der Rechner rendert. ;)
Im Sommer muss dann aber eben die Klimaanlage auf einer höheren Stufe laufen.
Antwort von Frank Glencairn:
Okay, jetzt ist es klar, du hast das Wort Effizienz nicht verstanden.
Ne 3070 braucht 220W - die alte 2080ti braucht 250W
Antwort von Jörg:
die Milchmädchen sind wach...
durch die höhere Leistung, ergibt sich weniger Zeitaufwand, die Maschinen laufen also für einen Job weniger, die ersparte Leistungsdauer lässt den Energieverbrauch sinken...ganz einfach???
Wer sich aus Umweltschutzgründen über einen Mehrverbrauch einer Graka aufregt,
der hat irgendwas verpeilt.
Zudem mein Strom aus regenerativer Quelle kommt.
Also her mit den "Verbrauchmonstern", incl. SLI.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
Okay, jetzt ist es klar, du hast das Wort Effizienz nicht verstanden.
Und du scheinst nicht zu verstehen, dass man Effizienz und Leistung auch unterschiedlich steigern kann.
Differenzieren fällt dir offensichtlich schwer.
Ist es denn Ing.-Kunst, wenn ein neues Auto zwar mehr Leistung hat als sein Vorgänger, aber eben auch mehr Benzin verbraucht?
Es gibt durchaus Abstufungen:
Bei gleichem Verbrauch höhere Leistung oder gar geringerer Verbrauch bei nur etwas geringerer Leistungssteigerung.
Antwort von Frank Glencairn:
220W sind also mehr als 250W Herr Inschinöör?
Antwort von rdcl:
iasi hat geschrieben:
Es gibt durchaus Abstufungen:
Bei gleichem Verbrauch höhere Leistung oder gar geringerer Verbrauch bei nur etwas geringerer Leistungssteigerung.
Mehr Leistung bei weniger Verbrauch? Also exakt das was die RTX3070 im Vergleich zur RTX208ti macht?
Antwort von norbi:
Jörg hat geschrieben:
die Milchmädchen sind wach...
durch die höhere Leistung, ergibt sich weniger Zeitaufwand, die Maschinen laufen also für einen Job weniger, die ersparte Leistungsdauer lässt den Energieverbrauch sinken...ganz einfach???
Wer sich aus Umweltschutzgründen über einen Mehrverbrauch einer Graka aufregt,
der hat irgendwas verpeilt.
Zudem mein Strom aus regenerativer Quelle kommt.
Also her mit den "Verbrauchmonstern", incl. SLI.
Das ist eben leider nicht immer so einfach.
Nur so als Beispiel:
Früher hat man im konsumer Bereich in FHD gefilmt mit 50Mbit. Heute hat man ne A7siii die 600Mbit runterschreibt in ner 4k Auflösung mit 120p. Klar..die Effizienz ist gestiegen aber auch dementsprechend die Anforderungen weil du nicht das gleiche machst wie vor paar Jahren.
Für Games gilt das gleiche.Der Verbrauch ist nicht gesunken nur die Grafik ist einfach besser geworden mehr nicht.
Da mal etwas aus der "RL":
https://www.handelsblatt.com/politik/ko ... E2sVDz-ap3
Antwort von iasi:
... fordert sogar unheimliche 350 Watt ein ...
Und:
RTX 3080 vs. RTX 2080Ti
320 W vs. 250 W
Soll doch niemand denken, die RTX 3070 könne wirklich mit der RTX 2080Ti mithalten.
... bei der GeForce RTX 3070 GDDR6-RAM mit 14 GBit/s pro Pin und nicht 16 zum Einsatz kommt. Die Übertragungsrate liegt somit bei 448 GByte/s.
Nebenbei:
Nvidia lässt den GA102 bei Samsung in einem angepassten Prozess mit 8-Nanometer-Strukturen fertigen, der wiederum auf die eigene 10-nm-Technik aufbaut und TSMCs 7 nm hinterherhinkt
https://www.heise.de/newsticker/meldung ... 83560.html
Antwort von Frank Glencairn:
iasi hat geschrieben:
Soll doch niemand denken, die RTX 3070 könne wirklich mit der RTX 2080Ti mithalten.
Die kann nicht nur mithalten, sondern hat sogar ne höhere Leistung.
Antwort von iasi:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Soll doch niemand denken, die RTX 3070 könne wirklich mit der RTX 2080Ti mithalten.
Die kann nicht nur mithalten, sondern hat sogar ne höhere Leistung.
Und das glaubst du, weil die Speicheranbindung (des eh geringeren Speichers) langsamer ist? ;)
Oder blenden dich die 5888 "CUDA Cores"?
Erst die GeForce RTX 3080 kann bei Speicheranbindung und -größe mit der RTX 2080Ti mithalten.
Antwort von nachtaktiv:
"Frank Glencairn" hat geschrieben:
Das ist wie: Leistung - nein Danke.
Da gibt's halt ein gewisses Verhältnis.
warum soll ich mir ne stromfresserkarte kaufen, wenn ich 8K videoschnitt auf nem tablet machen kann?
Antwort von Frank Glencairn:
Wenn du sowas fragen mußt, dann bist du nicht in der Zielgruppe.
Antwort von nachtaktiv:
"Frank Glencairn" hat geschrieben:
Wenn du sowas fragen mußt, dann bist du nicht in der Zielgruppe.
1. hier gehts nicht um mich, sondern um den konsumenten an sich. 2. du hast meine frage nicht beantwortet.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Und das glaubst du, weil die Speicheranbindung (des eh geringeren Speichers) langsamer ist? ;)
Oder blenden dich die 5888 "CUDA Cores"?
Erst die GeForce RTX 3080 kann bei Speicheranbindung und -größe mit der RTX 2080Ti mithalten.
Es wird nicht besser, wenn du es noch öfter behauptest.
Aber wahrscheinlich verstehst du mehr davon als der CEO von Nvidia.
According to NVIDIA, the Ampere’s architecture enables a true generational leap in performance. During the launch event, CEO Jensen Huang claimed even the $499 RTX 3070 is more powerful than last gen’s 2080 Ti (which launched at $999).
NVIDIA_Ampere_Chart-1024x469.png
Antwort von Frank Glencairn:
nachtaktiv hat geschrieben:
1. hier gehts nicht um mich, sondern um den konsumenten an sich. 2. du hast meine frage nicht beantwortet.
Wenn der Konsument denkt es gäbe keinen Unterschied zwischen einem Tablett und einer Workstation, dann braucht er keine Workstation (und die Frage einer GPU stellt sich erst gar nicht), sondern kauf sich ein Tablett.
Antwort von nachtaktiv:
"Frank Glencairn" hat geschrieben:
nachtaktiv hat geschrieben:
1. hier gehts nicht um mich, sondern um den konsumenten an sich. 2. du hast meine frage nicht beantwortet.
Wenn der Konsument denkt es gäbe keinen Unterschied zwischen einem Tablett und einer Workstation, dann braucht er keine Workstation (und die Frage einer GPU stellt sich erst gar nicht), sondern kauf sich ein Tablett.
ganz genau.
der punkt ist, daß wir in einigen jahren tatsächlich keine workstation mehr brauchen. du kommst dann nur noch nach hause und schmeißt dein handy auf dem tisch. monitor, maus, tastatur, whatever anschließen und gut ist. die vorboten sind schon da.
https://www.notebookcheck.com/Leaker-De ... 985.0.html
die frage ist also: was machst du: boomer mässig dir n muscle car kaufen mit viel gebrüll und spritverbrauch ohne ende - oder den tesla, der weitaus energieeffizienter is und die alte technik mühelos abhängt?
liegt halt an dir. ich für meinen teil halte schnittrechner, die so viel strom ziehen wie ein badezimmerheizlüfter im jahre 2020 für nicht mehr zeitgemäß. uns geht gerade das wasser aus, erste gemeinden denken über rationierungen nach. und falls dus nicht gemerkt hast: uns ist in den letzten jahren das fressen auf den feldern vertrocknet. es stellt sich also schon die frage, wo man CO² einsparen kann. ein "weiter so" darf es nicht mehr geben. nicht umsonst will daimler alle fabriken ab 2022 auf CO² neutral umgestellt haben. wird zeit, daß die IT branche als einer der größten stromfresser auf der welt das ebenfalls mal in angriff nimmt. sowas erwarte ich als konsument im neuen jahrtausend einfach. ¯\_(?)_/¯
Antwort von balkanesel:
und weil du so brav Strom sparen tust postest du im Internet, schick eine Taube
Antwort von MK:
nachtaktiv hat geschrieben:
die frage ist also: was machst du: boomer mässig dir n muscle car kaufen mit viel gebrüll und spritverbrauch ohne ende - oder den tesla, der weitaus energieeffizienter is und die alte technik mühelos abhängt?
liegt halt an dir. ich für meinen teil halte schnittrechner, die so viel strom ziehen wie ein badezimmerheizlüfter im jahre 2020 für nicht mehr zeitgemäß.
Das Tesla Modell X 100D verbraucht nach letztem Test 24.000 Watt auf 100 Kilometer (Herstellerangabe 20.800 Watt)... da macht eine Grafikkarte die auf Volllast 350 Watt zieht (und im Normalbetrieb deutlich weniger) keinen wirklichen Unterschied...
Antwort von Frank Glencairn:
nachtaktiv hat geschrieben:
die frage ist also: was machst du: boomer mässig dir n muscle car kaufen mit viel gebrüll und spritverbrauch ohne ende - oder den tesla, der weitaus energieeffizienter is und die alte technik mühelos abhängt?
Selbstverständlich ein Muscle Car - ist das überhaupt ne Frage?
Ich fahr ja jetzt schon mehrere Amischlitten - da wär aber noch Platz für einen weiteren.
Und die Technik von einem Tesla reizt mich überhaupt nicht - viel zu langweilig.
nachtaktiv hat geschrieben:
..wird zeit, daß die IT branche als einer der größten stromfresser auf der welt das ebenfalls mal in angriff nimmt. sowas erwarte ich als konsument im neuen jahrtausend einfach.
Mein Kühlschrank ist von 1953 - glaubst du allen ernstes,
daß mich da ein paar Watt mehr oder weniger bei der GPU interessieren?
Die gehen quasi im Grundrauschen unter :D
nachtaktiv hat geschrieben:
sowas erwarte ich als konsument im neuen jahrtausend einfach.
Und ich erwarte, im neuen Jahrtausend, daß ich nicht auf meinen Rechner warten muß, sondern er auf mich.
Und apropos Boomer - ich bin heilfroh daß ich schon so alt bin, und nicht zu Genration Angst & Panik gehöre - alles was ich von den jungen Schneeflocken höre ist, daß sie vor allem Angst haben.
Angst vor Co2, Feinstaub, Stickoxyden, Angst vor Zigaretten, Angst vor Benzin, Diesel, Erdöl, Plastik, Kohle, Feuer, Feuerwerk Rauch. Angst vor Atomkraft, Kohlekraft, Autos, LKWs, Motorräder, Hitze, Kälte, Regen, kein Regen, Wind, Sonne, Corona, und jetzt auch noch Workstations und Grafikkarten.
Nichts davon macht mir auch nur die geringste Angst - so ist das halt als Boomer :D
Antwort von Jörg:
Nur um den Energieverbrauch nicht zu relativieren...natürlich ist ein Umdenken von allen
Menschen gefragt, mach ich seit 30 Jahren.
Pixelpeepen, hier Kilowattpeepen ist aber nicht mein Ding.
Kurz gesagt: solange ein verdammtes Kreuzfahrtschiff die Erde verpestet, ein verdammter
Bumsbomber nach Bangkok abhebt, werde ich nicht wegen ein paar Kilowattstunden
im Jahr Schlägel und Meißel rausholen und bits in Steinplatten schlagen.
Antwort von Frank Glencairn:
Jörg hat geschrieben:
Nur um den Energieverbrauch nicht zu relativieren...natürlich ist ein Umdenken von allen
Menschen gefragt, mach ich seit 30 Jahren.
..und ich so :D
118779120_1210576842643399_5734972209277924650_o.jpg
Antwort von rdcl:
iasi hat geschrieben:
"Frank Glencairn" hat geschrieben:
Die kann nicht nur mithalten, sondern hat sogar ne höhere Leistung.
Und das glaubst du, weil die Speicheranbindung (des eh geringeren Speichers) langsamer ist? ;)
Oder blenden dich die 5888 "CUDA Cores"?
Erst die GeForce RTX 3080 kann bei Speicheranbindung und -größe mit der RTX 2080Ti mithalten.
Wirst du diese Behauptung zurücknehmen wenn in zwei Wochen die Tests das Gegenteil beweisen?
Antwort von rdcl:
nachtaktiv hat geschrieben:
"Frank Glencairn" hat geschrieben:
Das ist wie: Leistung - nein Danke.
Da gibt's halt ein gewisses Verhältnis.
warum soll ich mir ne stromfresserkarte kaufen, wenn ich 8K videoschnitt auf nem tablet machen kann?
Das trifft vielleicht für einen bestimmten Codec in einem bestimmten Programm zu, aber sicher nicht für alle Szenarien. Ganz sicher nicht für Raw, und ganz sicher nicht für After Effects. Für C4D oder ähnliches schon gleich garnicht. Das Tablet möchte ich sehen! Vor allem muss die Leistung auch konstant über mehrere Tage stabil bleiben können, wenn das Tablet schon am Schmelzen ist.
Manche Leute müssen mit Material eben tatsächlich mehr machen als nur Schneiden.
Die Zeit in der Workstations obsolet werden ist noch lange nicht da. Immer vorausgesetzt natürlich, dass man überhaupt jemals wirklich die Power einer Workstation gebraucht hat.
Antwort von rush:
Der Trend wird dann vermutlich eines Tages eher in Richtung Cloud-Computing gehen sofern die Netzwerkleitung schnell genug ist...
Antwort von rdcl:
rush hat geschrieben:
Der Trend wird dann vermutlich eines Tages eher in Richtung Cloud-Computing gehen sofern die Netzwerkleitung schnell genug ist...
Und die Terabyte an Material lädt man täglich in die Cloud? Oder liegt das Material lokal bei mir und das Material wird zum berechnen in Echtzeit hochgeladen? Welche Internetleitungen sollen das denn hergeben? Großflächig? In Deutschland? Vielleicht reden wir in 30 Jahren nochmal drüber.
Antwort von rush:
Von großflächig sprach ich nicht - aber wenn man sieht wie heute insbesondere schon im aktuellen Bereich produziert wird (Streaming / LiveU und Co) ist die Perspektive nicht unbedingt aus der "Luft" gegriffen ;-)
Ich bin auch ein Fan von lokalen Daten und weniger von Cloud-Lösungen - aber wenn man sich h.265 Codecs und Co ansieht dürfte der Trend eines Tages schon eher dahingehen. Nicht jeder nutzt RAW und die 422 10 Bit Codes die wir langsam flächendeckend selbst in den Consumer-Geräten bekommen sind so schlecht nicht mehr.
Wenn leichte und komprimierte RAW-Codecs eines Tages EInzug halten ist das ebenso gar nicht mehr ganz unrealistisch... für Leute die dann eh nur ein Tablet nutzen wollen sogar die clevere Lösung weil die kleinen Dinger auch nur begrenzt Speicherplatz haben - und den Geräten gefühlt jegliche Anschlüsse für Speicherkarten und Co fehlen bzw. man sich dann mit zig Adaptern/Kabeln und Co behelfen darf ;-)
Antwort von rdcl:
rush hat geschrieben:
Von großflächig sprach ich nicht - aber wenn man sieht wie heute insbesondere schon im aktuellen Bereich produziert wird (Streaming / LiveU und Co) ist die Perspektive nicht unbedingt aus der "Luft" gegriffen ;-)
Ich bin auch ein Fan von lokalen Daten und weniger von Cloud-Lösungen - aber wenn man sich h.265 Codecs und Co ansieht dürfte der Trend eines Tages schon eher dahingehen. Nicht jeder nutzt RAW und die 422 10 Bit Codes die wir langsam flächendeckend selbst in den Consumer-Geräten bekommen sind so schlecht nicht mehr.
Wenn leichte und komprimierte RAW-Codecs eines Tages EInzug halten ist das ebenso gar nicht mehr ganz unrealistisch... für Leute die dann eh nur ein Tablet nutzen wollen sogar die clevere Lösung weil die kleinen Dinger auch nur begrenzt Speicherplatz haben - und den Geräten gefühlt jegliche Anschlüsse für Speicherkarten und Co fehlen bzw. man sich dann mit zig Adaptern/Kabeln und Co behelfen darf ;-)
Also wenn es nicht großflächig funktioniert dann ist es auch keine Alternative und zudem sehr wahrscheinlich sehr teuer. Wenn dann muss schon quasi jeder Zugriff auf solche Leitungen haben.
Trotzdem sehe ich das nicht in naher Zukunft. Die Codecs werden zwar immer besser, aber es hat trotzdem seinen Grund warum Raw, Prores oder DNx ein Vielfaches an Dateigröße produzieren.
Man darf gespannt sein. Ich bin immer ein Fan von neuen Technologien und freue mich auf die Zukunft, aber das wird noch dauern.
Cloud Computing klappt ja noch nicht einmal richtig mit Spielen, wo wirklich "nur" gerechnet werden muss.
Irgendwo muss man außerdem auch seine Monitore, Tastatur, Maus, Boxen, Panels etc. anstecken können. Da fällt das Tablet ja dann schon wieder weg.
Antwort von Starshine Pictures:
Der Trend wird da hin gehen womit die Anbieter mehr Geld verdienen können. Kann nVidia mehr Geld verdienen mit dem Vermieten von Cloudrechnern oder Verkauf von Grafikkarten?
Antwort von Darth Schneider:
Was für eine doofe Diskussion ?
Natürlich wird ein potenter Schnittrechner beziehungsweise eine Workstation in 20 Jahren immer noch mehr Strom ziehen wie ein Badezimmer Lüfter.
Bis dahin schneiden die Profis womöglich 500K Videos ;-)
Was auch immer, kleiner werden die Film Daten ja nicht und die Physik hinter den Rechnern bleibt aber immer dieselbe....
Warum sollten dann die Rechner in Zukunft mit der Cloud weniger warm werden, sie müssen doch immer mehr arbeiten ?
Und kommt mir nicht mit neuen Technologien, diese unterstehen auch den Regeln der Physik, auch womöglich in 1000 Jahren noch, nur die Ansprüche der Menschen steigen stetig...
P.S:
Und auch wenn ihr, ohne eigenen Rechner nur noch in der Cloud schneidet, irgend wo auf der Welt wird definitiv ein Rechner dann viel Strom brauchen und sehr warm werden....Jemand wird den Strom bezahlen müssen...
Also was denn der effektive Nutzen von solchen Zukunftsperspektiven sein soll, verstehe ich noch nicht so wirklich. ( Abgesehen von den Einahmen der Firma die dann die Cloudrechner für zu teures Geld vermietet, das verstehe ich schon)))
Gruss Boris
Antwort von klusterdegenerierung:
Der Staat ist von Hause aus neugierig und möchte in deinen Daten rumwuseln, das kann er doch besser in der Cloud und wenn man nicht aufpasst hat man im Kleingedruckten der Bestellung schon eine Freigabe für den Fall der Fälle erteilt die der Staat dem Cloudanbieter mit etwas Zuwendung honoriert.
Antwort von iasi:
rdcl hat geschrieben:
iasi hat geschrieben:
Und das glaubst du, weil die Speicheranbindung (des eh geringeren Speichers) langsamer ist? ;)
Oder blenden dich die 5888 "CUDA Cores"?
Erst die GeForce RTX 3080 kann bei Speicheranbindung und -größe mit der RTX 2080Ti mithalten.
Wirst du diese Behauptung zurücknehmen wenn in zwei Wochen die Tests das Gegenteil beweisen?
Warum nicht.
Nur wird es mit Tests eben schon deshalb schwierig, weil die 8GB für 8k schon eng werden.
Antwort von rdcl:
iasi hat geschrieben:
rdcl hat geschrieben:
Wirst du diese Behauptung zurücknehmen wenn in zwei Wochen die Tests das Gegenteil beweisen?
Warum nicht.
Nur wird es mit Tests eben schon deshalb schwierig, weil die 8GB für 8k schon eng werden.
Das ändert ja nichts an der Vergleichbarkeit der Performance der beiden Karten.
Antwort von iasi:
rdcl hat geschrieben:
iasi hat geschrieben:
Warum nicht.
Nur wird es mit Tests eben schon deshalb schwierig, weil die 8GB für 8k schon eng werden.
Das ändert ja nichts an der Vergleichbarkeit der Performance der beiden Karten.
Mit der einen Karte kann man bei 8k-Material auch mal einen NR drüberlegen, bei der anderen nicht - das ist dann eben schon mal ein Performance-Unterschied.
Aber auch unabhängig davon, ist die schnellere Speicheranbindung eben doch auch wichtig - vielleicht sogar wichtiger als die reine Rechenleistung - zumindest bei Videoanwendungen.
Antwort von srone:
iasi hat geschrieben:
rdcl hat geschrieben:
Das ändert ja nichts an der Vergleichbarkeit der Performance der beiden Karten.
Mit der einen Karte kann man bei 8k-Material auch mal einen NR drüberlegen, bei der anderen nicht - das ist dann eben schon mal ein Performance-Unterschied.
Aber auch unabhängig davon, ist die schnellere Speicheranbindung eben doch auch wichtig - vielleicht sogar wichtiger als die reine Rechenleistung - zumindest bei Videoanwendungen.
und bei den 4000ern wollen wir 16k mit zwei nr nodes? die handschuhfächer kleiner denn je - das set immer noch wartend - wann ist es denn soweit? - dieser erhabene moment - das erste mal den record-button drückend und wissend: jetzt - omg der akku ist leer...;-)
iasi, verzeih, aber deine steilvorlagen sind gewaltig...;-)
lg
srone
Antwort von iasi:
srone hat geschrieben:
iasi hat geschrieben:
Mit der einen Karte kann man bei 8k-Material auch mal einen NR drüberlegen, bei der anderen nicht - das ist dann eben schon mal ein Performance-Unterschied.
Aber auch unabhängig davon, ist die schnellere Speicheranbindung eben doch auch wichtig - vielleicht sogar wichtiger als die reine Rechenleistung - zumindest bei Videoanwendungen.
und bei den 4000ern wollen wir 16k mit zwei nr nodes? die handschuhfächer kleiner denn je - das set immer noch wartend - wann ist es denn soweit? - dieser erhabene moment - das erste mal den record-button drückend und wissend: jetzt - omg der akku ist leer...;-)
iasi, verzeih, aber deine steilvorlagen sind gewaltig...;-)
lg
srone
Dir ist aber schon auch bewußt, dass wir nun für einen 4-stelligen Betrag Kameras kaufen können, die 8k-Raw bieten?
Und für etwas über 10000€ gibt"s bald Kameras, die dann sogar mit 8k HFR aufwarten.
Und manche von diesen Kameras passen sogar schon heute ins Handschuhfach.
War da übrigens nicht so eine BMD-Kamera, die sogar mehr als 8k bietet? Sogar mit 60fps.
Und bei 8k schafft sie gar 110fps. Hilf mir doch bitte mal: Welche Cam war das nochmal? ;) :)
Antwort von srone:
das ist entscheidend für den plot, eben, ich dreh selbstverliebt in 1080p25 und find es toll, weil es genug ist, alles andere ist augenwischerei...;-)
lg
srone
Antwort von iasi:
srone hat geschrieben:
das ist entscheidend für den plot, eben, ich dreh selbstverliebt in 1080p25 und find es toll, weil es genug ist, alles andere ist augenwischerei...;-)
lg
srone
So mancher Plot profitiert durchaus von mehr als 1080p25. ;)
Antwort von srone:
den würde ich nur zu gerne von dir sehen...
lg
srone
Antwort von Jost:
"Frank Glencairn" hat geschrieben:
Stromverbrauch - im Ernst?
Jetzt mal ehrlich, von wie viel Cent in der Stunde reden wir hier eigentlich?
Nvidia beschreibt den Sonder-Nutzen der RTX-Karten durch Davinci Resolve so:
zum Bild
Das beschreibt den Ist-Zustand unter Cuda 10 mit den 2000er.
Jetzt kam mit den 3000er und viel leistungsstärkeren Tensor Cores auch Cuda 11.
Hast Du schon Informationen, wie sich die neuen 3000er auf Davinci auswirken?
Antwort von rdcl:
iasi hat geschrieben:
rdcl hat geschrieben:
Das ändert ja nichts an der Vergleichbarkeit der Performance der beiden Karten.
Mit der einen Karte kann man bei 8k-Material auch mal einen NR drüberlegen, bei der anderen nicht - das ist dann eben schon mal ein Performance-Unterschied.
Aber auch unabhängig davon, ist die schnellere Speicheranbindung eben doch auch wichtig - vielleicht sogar wichtiger als die reine Rechenleistung - zumindest bei Videoanwendungen.
Das sind bis jetzt erstmal nur Behauptungen von dir, ohne jegliche Grundlage. Nvidia zumindest behauptet etwas anderes. Du vergleichst hier ja auch GDDR6 mit GDDR6X. In zwei Wochen wissen wir mehr.
Antwort von kroxx:
die diskussionen sind hier wieder auf einem epischen Maß angekommen.
Die einen sagen ein Tablet reicht zum schneiden --> Aber was hast du den bitte für ein Material und in welchem Jahr hast du deine Deadlines? Deine Geduld möchte ich aber dann auch haben wenn du schneidest... ;)
Die anderen sagen zu teuer --> Ne Schachtel Zigaretten kostet 8 € früher warens mal 5 mark. Ein Auto ist heute unter 30.000 € nicht mehr zu bekommen, außer holzklasse. War sonst auch anders. Die Preise sind doch erstmal relativ in Ordnung, im Vergleich zu der Preispolitik der 20xx reihe.
Und dann der Stromverbrauch --> leute ernsthaft, das is beim besten willen doch keine Diskussion würdig. Wenn du dir wegen lächerlichen 300 Watt Gedanken machst, dann bist du vollkommen falsch. Deine Akkus der Kamera, deine NAS (sofern du halbwegs professional arbeitest), dein hin und her gefahre zur Location bzw. wenn der erste Arri 2000 Watt strahler am Set erleuchtet (da steht normal mehr als einer) ist der Verbrauch der Karte nur ein müdes schmunzeln.
Ich persönlich finde es sehr gut, dass hier wirklich ein Leistungssprung erzielt wird. Und nicht die üblichen 3-8 % sondern mal wirklich einen richtigen Sprung von 10 - 40 % da lohnt es sich vorallem für ältere Karten (ich habe n 1070) mal wieder zu upgraden.
Alles in allem sehe ich es so, dass wir nach 10 Jahren 4k endlich mal dahinkommen, dass es wirklich massentauglich wird (abgesehen von den Monitoren ;)).
Antwort von MK:
Analog dazu kann man auch über einlagiges vs. vierlagiges Klopapier diskutieren ;)
Antwort von Jörg:
Themenpunkt
"Womit wischt ihr gerade?"
Antwort von markusG:
MK hat geschrieben:
Analog dazu kann man auch über einlagiges vs. vierlagiges Klopapier diskutieren ;)
Um Ressourcen zu sparen (und soll auch gesünder sein) werfe ich noch Bidets in die Runde :P
btw...AMD könnte bald nachziehen:
https://www.computerbase.de/2020-09/amd ... n-rx-6000/
Antwort von iasi:
Irgendwo wurde 7.Oktober genannt.
Aber die Rechenleistung des neuen Nvidia-Ofens wird sie wohl eher doch nicht erreichen, war da auch zu entnehmen.
Den Link hab ich leider nicht mehr.
Antwort von Jost:
kroxx hat geschrieben:
Und dann der Stromverbrauch --> leute ernsthaft, das is beim besten willen doch keine Diskussion würdig. Wenn du dir wegen lächerlichen 300 Watt Gedanken machst, dann bist du vollkommen falsch.
Zumal es auch nicht stimmt. Die 3070 gibt Nividia mit 220 Watt an. Eine MSI 2070s zieht 219 Watt. Eine 2080TI liegt bei 250/260 Watt. Eine übertaktete MSI 2080TI Trio bei 326 Watt. Die 3080 laut Nvidia bei 320 Watt.
Aufregen müsste man sich, wenn nur der Stromverbrauch, aber nicht die Leistung steigt. Das ist aber nicht so. Bei gleichem Stromverbrauch bekommt man rund 40 Prozent mehr Leistung. Heißt: Die Rechendauer verkürzt sich und damit verringert sich auch der Stromverbrauch.
Antwort von iasi:
kroxx hat geschrieben:
Und dann der Stromverbrauch --> leute ernsthaft, das is beim besten willen doch keine Diskussion würdig. Wenn du dir wegen lächerlichen 300 Watt Gedanken machst, dann bist du vollkommen falsch. Deine Akkus der Kamera, deine NAS (sofern du halbwegs professional arbeitest), dein hin und her gefahre zur Location bzw. wenn der erste Arri 2000 Watt strahler am Set erleuchtet (da steht normal mehr als einer) ist der Verbrauch der Karte nur ein müdes schmunzeln.
Klar doch. Mit dieser Sichtweise lässt sich alles vom Tisch wischen.
Immerhin: Es gibt mittlerweile auch Filmleuchten, die bei weit geringerer Leistungsaufnahme die gleiche Lichtsleistung bringen, wie der 2000W-Strahler.
Aber mir kann das eigentlich ziemlich egal sein, denn für mich gilt: Mir reicht"s no naus.
Wer Kinder oder zumindest einen Kinderwunsch hat, sollte aber doch nicht mal eben vom Tisch wischen, dass diese 320W nun einmal eine Zunahme sind.
NVIDIA Titan RTX, 24GB GDDR6 TDP 250W (NVIDIA), 260W (Founders Edition)
Man muss mal abwarten und sehen, ob die neue 320W-Karte wirklich mehr leistet als die Titan RTX.
Antwort von markusG:
iasi hat geschrieben:
Wer Kinder oder zumindest einen Kinderwunsch hat, sollte aber doch nicht mal eben vom Tisch wischen, dass diese 320W nun einmal eine Zunahme sind.
Du solltest dir bewusst sein dass es das Budget ist, nicht der tatsächliche Verbrauch. Aber wenn die Karte kürzer laufen muss weil sie schneller ist, dann ist der tatsächliche Verbrauch geringer.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
Klar doch. Mit dieser Sichtweise lässt sich alles vom Tisch wischen.
Immerhin: Es gibt mittlerweile auch Filmleuchten, die bei weit geringerer Leistungsaufnahme die gleiche Lichtsleistung bringen, wie der 2000W-Strahler.
Stimmt, habe meinen Dad die Tage angemault das er noch immer im Keller eine olle brummende Röhre mit Startschwierigkeiten verwendet, hab ihm dann eine LED Röhre mit Fakestarter gekauft, kostet gerademal 9€, macht Tageslicht, ist heller, braucht einen Bruchteil der Energie und brummt nicht.
Der konnte es kaum glauben! Ich vermute der denkt jetzt wir können in naher Zukunft mit einem Motor angetrieben Fahrrad fahren.
Antwort von iasi:
markusG hat geschrieben:
iasi hat geschrieben:
Wer Kinder oder zumindest einen Kinderwunsch hat, sollte aber doch nicht mal eben vom Tisch wischen, dass diese 320W nun einmal eine Zunahme sind.
Du solltest dir bewusst sein dass es das Budget ist, nicht der tatsächliche Verbrauch. Aber wenn die Karte kürzer laufen muss weil sie schneller ist, dann ist der tatsächliche Verbrauch geringer.
Ist das nicht auch ein wenig Wunschdenken?
Ich finde es jedenfalls schon beachtlich, dass Rechner immer stärkere Netzteile bekommen müssen.
1000W sollten es aktuell ja schon sein, wenn man ...
Bin mal gespannt, ob AMD mit der neuen Grafikkartengeneration mehr Rechenleistung pro Watt erzielt.
Antwort von MK:
iasi hat geschrieben:
Ich finde es jedenfalls schon beachtlich, dass Rechner immer stärkere Netzteile bekommen müssen.
1000W sollten es aktuell ja schon sein, wenn man ...
Wird aber nur bei Volllast ausgereizt, im Leerlauf ist der Verbrauch erheblich geringer. Dazu kommt dass der Wirkungsgrad bei entsprechenden Netzteilen recht hoch ist.
Antwort von rdcl:
Es kann schon sein, dass es eine Milchmädchenrechnung ist, weil dann das Rendern schneller geht.
Aber andererseits läuft dann im Idealfall ja das gesamte System weniger. Also der ganze Rechner inklusive aller Monitore, die ja auch nicht wenig Strom ziehen.
Antwort von iasi:
Beim Spielen und auch beim Videoschnitt/Grading ist man ja ständig am werkeln - da ist dann eben nichts mit "schneller fertig".
Gerade hab ich übrigens gesehen, dass der Threadripper bzw die X399-Boards noch gar keine PCIe4.0 unterstützen.
Oder ist mir da etwas entgangen?
Antwort von Jost:
iasi hat geschrieben:
Man muss mal abwarten und sehen, ob die neue 320W-Karte wirklich mehr leistet als die Titan RTX.
Die Titan war ja nicht schneller als eine übertaktete 2080TI. Von daher ist das auch nicht verwunderlich:
https://www.youtube.com/watch?v=hdnU2gGR6wQ
Antwort von markusG:
iasi hat geschrieben:
Ist das nicht auch ein wenig Wunschdenken?
Nein - nochmal: das ist das Budget. Die Bandbreite an Leistung wird quasi weiter aufgespannt.
Beim Einzeleinsatz ist der Unterschied auch wirklich nicht das Thema - interessant wird es eher bei Rechenzentren bzw. Renderfarmen...wenn dann mal 10 Stück in einem Rack stecken usw.
Davon abgesehen: die (Gebraucht-)Preise der 2080Ti fallen gerade auf 3070-Niveau. Erstere hat mehr und schnelleren Speicher, kann je nach Anwendung also vielleicht interessant werden.
Antwort von rdcl:
iasi hat geschrieben:
Beim Spielen und auch beim Videoschnitt/Grading ist man ja ständig am werkeln - da ist dann eben nichts mit "schneller fertig".
Gerade hab ich übrigens gesehen, dass der Threadripper bzw die X399-Boards noch gar keine PCIe4.0 unterstützen.
Oder ist mir da etwas entgangen?
Naja, das Rendern bzw. Exportieren ist zumindest bei mir schon öfter mal der letzte Schritt. Danach vielleicht noch hochladen und dann ist der Rechner aus.
Und PCIe 4.0 ist nicht nötig. Laut Nvidia ist der Leistungsunterschied zwischen 3 und 4 "weniger als ein paar Prozent".
Antwort von Jost:
iasi hat geschrieben:
Beim Spielen und auch beim Videoschnitt/Grading ist man ja ständig am werkeln - da ist dann eben nichts mit "schneller fertig".
Wenn es denn überhaupt flüssig läuft. Es geht ja längst nicht mehr um die reine Rechenleistung. Nvidia hat das am 1. September veröffentlicht:
https://www.youtube.com/watch?v=WDgPZgKOHhs
Antwort von iasi:
markusG hat geschrieben:
iasi hat geschrieben:
Ist das nicht auch ein wenig Wunschdenken?
Nein - nochmal: das ist das Budget. Die Bandbreite an Leistung wird quasi weiter aufgespannt.
Beim Einzeleinsatz ist der Unterschied auch wirklich nicht das Thema - interessant wird es eher bei Rechenzentren bzw. Renderfarmen...wenn dann mal 10 Stück in einem Rack stecken usw.
Davon abgesehen: die (Gebraucht-)Preise der 2080Ti fallen gerade auf 3070-Niveau. Erstere hat mehr und schnelleren Speicher, kann je nach Anwendung also vielleicht interessant werden.
Aber wir reden hier von Gamer-Karten, die eben auch mal für Videoschnitt und Bildbearbeitung genutzt wird.
Eben Desktop-Karten.
Antwort von iasi:
Jost hat geschrieben:
iasi hat geschrieben:
Beim Spielen und auch beim Videoschnitt/Grading ist man ja ständig am werkeln - da ist dann eben nichts mit "schneller fertig".
Wenn es denn überhaupt flüssig läuft. Es geht ja längst nicht mehr um die reine Rechenleistung. Nvidia hat das am 1. September veröffentlicht:
https://www.youtube.com/watch?v=WDgPZgKOHhs
Klar - das ist natürlich klar.
Wenn die GPU richtig genutzt wird, geht"s auch gut voran.
http://www.reduser.net/forum/showthread ... -available
Andererseits:
http://www.reduser.net/forum/showthread ... r-Hardware
Und z.B. in Premiere macht es durchaus einen Unterschied bei der Ausgabequalität, ob man die GPU oder nur die CPU werkeln lässt.
Nvidia hat die Nase vor allem bei der Softwareunterstützung vorn. Daher werde ich wohl auch wieder auf Nvidia umsteigen - die 3080 scheint (trotz 320W) die, die es wird.
Aber mal abwarten, wie sie sich in Tests dann auch wirklich schlägt - und was AMD im Oktober bringt.
Jedoch besticht Nvidia eben durch die R3D-Unterstützung.
Antwort von iasi:
rdcl hat geschrieben:
iasi hat geschrieben:
Beim Spielen und auch beim Videoschnitt/Grading ist man ja ständig am werkeln - da ist dann eben nichts mit "schneller fertig".
Gerade hab ich übrigens gesehen, dass der Threadripper bzw die X399-Boards noch gar keine PCIe4.0 unterstützen.
Oder ist mir da etwas entgangen?
Naja, das Rendern bzw. Exportieren ist zumindest bei mir schon öfter mal der letzte Schritt. Danach vielleicht noch hochladen und dann ist der Rechner aus.
Und PCIe 4.0 ist nicht nötig. Laut Nvidia ist der Leistungsunterschied zwischen 3 und 4 "weniger als ein paar Prozent".
Dann ist"s ja gut.
Der Threadripper ist schon lecker.
Antwort von rush:
Erstmal was drehen... Später erst folgt dann die Post, das sollte man nicht vergessen. Bis dahin idlen die Grakas und langweilen sich. Oder sind schon wieder outdated bevor der erste Frame auf der Timeline landet... ;-)
Manchmal scheint es als könne man ohne die allerneueste Technik respektive GraKa Generation plötzlich überhaupt nicht mehr mit der vorhandenen Technik arbeiten.
Meine damals als gebraucht erstandene GTX1070 wird noch eine Weile im Rechner bleiben - da müssen die Preisschilder der neuen RTX Generation schon noch deutlich im Preis sinken um für mich von Relevanz zu sein... Die 2000er Serie wird dadurch aber in der Tat interessanter wenn der Preis weiter so stark fällt... Gebraucht liegen einige 2070er ja schon im Bereich ab 250€.
Antwort von Jörg:
Gebraucht liegen einige 2070er ja schon im Bereich ab 250€.
wer sich die dreisten Kaufgebote für die nun plötzlich so absolut obsoleten RTX 2xxx Karten in den Kleinanzeigen anschaut, fasst sich echt an den Kopf.
Antwort von iasi:
rush hat geschrieben:
Erstmal was drehen... Später erst folgt dann die Post, das sollte man nicht vergessen.
Zur Vorbereitung gehört der komplette Workflow.
Rausrennen und Drauflosfilmen ist für youtuber sowie Familien- und Urlaubsfilmer.
Antwort von iasi:
rush hat geschrieben:
Meine damals als gebraucht erstandene GTX1070 wird noch eine Weile im Rechner bleiben - da müssen die Preisschilder der neuen RTX Generation schon noch deutlich im Preis sinken um für mich von Relevanz zu sein... Die 2000er Serie wird dadurch aber in der Tat interessanter wenn der Preis weiter so stark fällt... Gebraucht liegen einige 2070er ja schon im Bereich ab 250€.
Die Frage der Notwendigkeit sollte doch an erster Stelle stehen.
Wenn der bisherige Workflow problemlos war und sich an der Kamera bzw. dem Material nichts ändert, braucht es eigentlich keine neue RTX.
Antwort von rush:
Habe ich weiter vorn schon in diesem Beitrag ausgeführt das dies immer den Bedürfnissen entsprechend abgewogen werden sollte und nicht nur weil es etwas Neues am Markt gibt.
Klar kann neue Technik auch Spaß und Lust machen und wer nebenbei noch daddelt wird auch perspektivisch davon partizipieren und sich über hohe fps @ >FHD freuen.
Der Flight Simulator etwa fordert meine GTX1070 schon heraus laut Ressourcenmonitor- aber das ist kein Drama weil Spielerei ;-) Mindestens genauso wichtig ist der RAM... Die 32GB füllen sich dabei beispielsweise schneller als gedacht.
Ob nun mehr Schader, höhere Taktraten oder möglichst viel VRAM entscheidend sind gilt es wahrscheinlich auch je nach Anwendung zu überprüfen bzw zu schauen worauf die jeweiligen Tools hin optimiert sind.
Antwort von markusG:
iasi hat geschrieben:
markusG hat geschrieben:
Nein - nochmal: das ist das Budget. Die Bandbreite an Leistung wird quasi weiter aufgespannt.
Beim Einzeleinsatz ist der Unterschied auch wirklich nicht das Thema - interessant wird es eher bei Rechenzentren bzw. Renderfarmen...wenn dann mal 10 Stück in einem Rack stecken usw.
Davon abgesehen: die (Gebraucht-)Preise der 2080Ti fallen gerade auf 3070-Niveau. Erstere hat mehr und schnelleren Speicher, kann je nach Anwendung also vielleicht interessant werden.
Aber wir reden hier von Gamer-Karten, die eben auch mal für Videoschnitt und Bildbearbeitung genutzt wird.
Eben Desktop-Karten.
...und Internet und GPS waren eigentlich für das Militär, und schau was wir jetzt haben.
Spätestens mit GPU Renderern und Cryptomining sind die Consumer-Karten in den Fokus vieler gerückt. Und sind auch mit Blower-Lüftern ausgeliefert worden, für Multi-GPU-Einsätze, analog zu den Quadros. Es gibt genug Geschäftsfelder wo es stark auf P/L ankommt, und da ist eine teure Quadro- oder Teslakarte nicht immer sinnvoll. Aber es werden ja sicher parallel aktualisierte Quadro- und Teslakarten erscheinen, keine Sorge :) Bis dahin werden bestimmt auch Blower-Karten für die Consumerlinie rauskommen, die dann in Renderfarmen gesteckt werden.
Um mal aus Jurassic Park zu zitieren: "Das Leben findet seinen Weg." :)
Antwort von rush:
rush hat geschrieben:
Ob nun mehr Schader, höhere Taktraten oder möglichst viel VRAM entscheidend sind gilt es wahrscheinlich auch je nach Anwendung zu überprüfen bzw zu schauen worauf die jeweiligen Tools hin optimiert sind.
Ich zitiere mich Mal selbst... Kann man eigentlich irgendwo nachlesen ob Resolve z.b. eher von der Speicherbandbreite, dem VRAM oder den Cuda Kernen profitiert? Oder ist das eher immer die Gesamtkombination?
Bei Edius war es lange einfach... Intel mit Quicksync war "the way to Go" - mittlerweile finde ich es aber tatsächlich nicht mehr ganz so einfach zu erkennen welche Karte für welche Anwendungen den Sweet Spot darstellt - und wann ggfs gar eine Radeon "schneller oder effektiver" rechnet... Gibt es da ne Art Übersicht oder teilen die Software Hersteller das im Detail mit?
Antwort von Frank Glencairn:
rush hat geschrieben:
Kann man eigentlich irgendwo nachlesen ob Resolve z.b. eher von der Speicherbandbreite, dem VRAM oder den Cuda Kernen profitiert? Oder ist das eher immer die Gesamtkombination?
Das kommt immer auf den jeweiligen Task an. Editing is was anderes als Color und rausrendern noch mal ein anderes Paar Stiefel - je nach Codec sieht das alles nochmal ganz anders aus. Manche Sachen laufen nur auf den Tensor Kernen, ob die Speicherbanbreite was ausmacht, hängt vom Codec ab (also von den Datenmengen die du da drüber schaufelst) ARRI RAW is halt was anderes als H264 usw.
So allgemein kann man das nicht sagen. Was aber immer gilt, irgendwas ist immer Flaschenhals, solange bis alle Komponenten schneller sind als deine Maximalanforderung.
Antwort von Jost:
Und auf das Programm kommt es auch an. Ich kann mich noch gut daran erinnern, wie sich hier einst die Edius-Jünger tot gelacht haben, weil Davinci kein Quicksync konnte und stattdessen es nur mit brachialer CPU-Power ging.
Hat sich geändert: BM ist Entwicklungspartner von Nvidia. Mittlerweile kann man auch FFmpeg per Nvidia beschleunigen lassen.
Hier gibt es übrigens eine schicke Einschätzung der 3070 durch die Crypominer:
zum Bild
zum Bild
Antwort von rush:
Quicksync @ Edius hat einem halt die dedizierte GraKa mehr oder weniger komplett erspart - und das quasi zwingend einhergehende CPU Upgrade ebenso. Für den Privatanwender daher kein zu unterschätzender Kostenvorteil gewesen zur damaligen Zeit.
Unter Resolve musste man sich dann schon sehr viel eher damit auseinandersetzen.
Danke für die Übersicht @ Jost. Damit rückt wohl schon die "Einstiegsdroge" der 3070er sicherlich für den ein oder anderen tatsächlich in den Fokus... In einer möglichen 16GB TI Version wie von Lenovo rumort umso mehr
Antwort von Frank Glencairn:
Ich denke mal die 3080er ist der Sweetspot, der Aufpreis bei der 3090er steht dann in keinem Verhältnis zu gewonnenen Performance.
Antwort von rdcl:
"Frank Glencairn" hat geschrieben:
Ich denke mal die 3080er ist der Sweetspot, der Aufpreis bei der 3090er steht dann in keinem Verhältnis zu gewonnenen Performance.
Aber der Speicher ist den Aufpreis wert, je nach Verwendungszweck.
Antwort von Jost:
rush hat geschrieben:
In einer möglichen 16GB TI Version wie von Lenovo rumort umso mehr
Lenovo ist kein Hersteller von Grafikkarten. Die schrauben nur das zusammen, was vorhanden ist.
Hier gibt es eine Übersicht über die technischen Veränderungen der 3080/90er gegenüber den Vorgängermodellen und einen Vergleich mit der 2080TI
https://tinyurl.com/y3ro9584
Wie Frank oben schon schrieb: Die 3090er scheint ebenfalls die Leistung gegenüber der 2080 TI zu verdreifachen. Aber es wird ein Aufpreis von 50 Prozent erwartet.
Erste Asus-Karten kosten bei Alternate 1600 Euro. Aufpreis gegenüber der 3080: 800 Euro. Für 800 Euro bekommt man locker den Rest des PCs.
Antwort von rush:
Jost hat geschrieben:
Lenovo ist kein Hersteller von Grafikkarten. Die schrauben nur das zusammen, was vorhanden ist.
Das ist richtig - aber häufig bekommen die Hersteller ja schon im Vorfeld weitere Informationen um dann passend zum Release auch liefern zu können.
Ti oder Super Varianten gab es bisher immer in irgendeiner Form - also nicht ganz abwägig das da zu einem späteren Zeitpunkt noch was spannendes nachgeschoben wird.
Aber lassen wir die Karten erstmal im Markt ankommen.
Antwort von iasi:
rdcl hat geschrieben:
"Frank Glencairn" hat geschrieben:
Ich denke mal die 3080er ist der Sweetspot, der Aufpreis bei der 3090er steht dann in keinem Verhältnis zu gewonnenen Performance.
Aber der Speicher ist den Aufpreis wert, je nach Verwendungszweck.
Gibt es eigentlich aussagekräftige Tests zu der Speicherfrage?
Wie viel bringen 24GB statt 10GB?
Und vor allem, wann stößt man mit 10GB an Grenzen?
Immerhin: Wir sind nun bei 8MPixel selbst bei günstigen Kameras angekommen und selbst die erste (bezahlbare) mit 12 MPixel steht schon vor der Tür.
Denn egal, wie die Bilder zuvor verpackt waren, die Software muss dann mit den unverpackten Bildern arbeiten.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Wie viel bringen 24GB statt 10GB?
Solange du in einer 4K Timeline (oder HD) arbeitest, wirst du von den 24GB nix merken.
Wenn Fusion im Spiel ist, dann schon eher, wobei selbst da die 10GB für das meiste reichen.
Antwort von cantsin:
iasi hat geschrieben:
Wie viel bringen 24GB statt 10GB?
Und vor allem, wann stößt man mit 10GB an Grenzen?
Bei Quellmaterial mit mehr als 6K Auflösung und komplexen Filtern wie z.B. Neat Video.
Antwort von Frank Glencairn:
Nö, das geht mit 6GB Karten ja die ganze Zeit auch schon problemlos.
Bei raw spielt die Auflösung des Quellmaterials sowieso keine Rolle.
Antwort von iasi:
Wenn man in der Timeline mehrere Spuren mit 8k-Material übereinander hat und diese alle "aktiv" sind, sollte es eben zu keiner Fehlermeldung wegen zu wenig Speicher kommen.
Im kommenden Jahr sollen wohl auch Speichermodule mit doppelter Größe verfügbar sein, was dann eben auch 3080er mit 20GB ermöglichen würde.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Wenn man in der Timeline mehrere Spuren mit 8k-Material übereinander hat und diese alle "aktiv" sind..
Wieviel 8K Bild im Bild KnoffHoff Show macht man denn in der Realität?
Ich weiß ja nicht, was für Filme du so machst, aber ich kann mich nicht erinnern, jemals mehr als 2 aktive Clips gleichzeitig gehabt zu haben - und das waren zu 99,99% Blenden. Normal kommt sowas bei mir überhaupt nicht vor. Was ist da dein Usecase?
Antwort von rdcl:
"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:
Wie viel bringen 24GB statt 10GB?
Solange du in einer 4K Timeline (oder HD) arbeitest, wirst du von den 24GB nix merken.
Wenn Fusion im Spiel ist, dann schon eher, wobei selbst da die 10GB für das meiste reichen.
Also ich hatte mit der GTX1080ti in Resolve beim Graden schon des öfteren die "GPU Memory Full" Meldung. Zugegeben, da war auch NR und Retusche im Spiel, aber ändert ja nix an der Tatsache dass in Resolve der VRam voll läuft.
Antwort von rdcl:
rdcl hat geschrieben:
"Frank Glencairn" hat geschrieben:
Solange du in einer 4K Timeline (oder HD) arbeitest, wirst du von den 24GB nix merken.
Wenn Fusion im Spiel ist, dann schon eher, wobei selbst da die 10GB für das meiste reichen.
Also ich hatte mit der GTX1080ti in Resolve beim Graden schon des öfteren die "GPU Memory Full" Meldung. Zugegeben, da war auch NR und Retusche im Spiel, aber ändert ja nix an der Tatsache dass in Resolve der VRam voll läuft.
Antwort von Frank Glencairn:
Hatte ich bisher noch nie.
Antwort von markusG:
Crypto-Boom: Ethereum-Miner horten Geforce RTX 3080
https://www.golem.de/news/cryto-boom-et ... 50752.html
Betreiber riesiger Mining-Farmen kaufen ihre Karten allerdings nicht beim Shop um die Ecke, sondern beziehen diese direkt von Distributoren oder gar den Herstellern selbst. Für kleinere Geschäfte und vor allem für Endkunden kann dies in einer schlechteren Verfügbarkeit oder erhöhten Preisen resultieren.
Grafikkarten = das neue Klopapier
Antwort von cantsin:
"Frank Glencairn" hat geschrieben:
Hatte ich bisher noch nie.
Mit Neat Video Pro (temporal noise reduction in hoher Qualität und mit 4 Referenzframes) und 8K-RAW-Quellmaterial und der GTX 1080Ti kriege ich "GPU Memory Full".
Antwort von Alex:
https://www.golem.de/news/cryto-boom-et ... 50752.html
ich bin auf die Verfügbarkeit gespannt, wenn sich die Mining-Betreiber mit den neuen Karten eindecken...Echt ein Jammer dieses "mining". Es wäre nicht das erste Mal, dass es wegen Kryptowährung zu Lieferengpässen und Aufpreisen kommt.
Antwort von Jost:
"Alex T" hat geschrieben:
https://www.golem.de/news/cryto-boom-et ... 50752.html
ich bin auf die Verfügbarkeit gespannt, wenn sich die Mining-Betreiber mit den neuen Karten eindecken...Echt ein Jammer dieses "mining". Es wäre nicht das erste Mal, dass es wegen Kryptowährung zu Lieferengpässen und Aufpreisen kommt.
Kann ich mir nicht recht vorstellen. Mining lohnt sich erst, wenn Anschaffungspreis, Stromkosten und Ertrag in einem möglichst guten Verhältnis stehen.
Gibt hier eine Übersicht:
https://cryptoage.com/en/2072-the-choic ... -2020.html
Danach brauchte man 1152 Tage, um mit einer 2080TI ins Plus zu kommen.
Mit einer 2070S waren es 669.
Die 3080 braucht einfach zuviel Strom. Die 3070 ist viel interessanter.
Antwort von Starshine Pictures:
Dann wäre es schlau direkt zu versuchen, die ersten Karten die verfügbar sind einzukaufen und dann bei Nachschubproblemen teurer wieder zu verticken. :-P
Wenn die so super zum Schürfen sind könnte man NVidia vielleicht sogar unterstellen dass sie Karten für Miner entwickelt haben?
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Mit Neat Video Pro (temporal noise reduction in hoher Qualität und mit 4 Referenzframes) und 8K-RAW-Quellmaterial und der GTX 1080Ti kriege ich "GPU Memory Full".
Daran könnte es liegen, ich brauche Neat nicht, deshalb hab ich das Memory Problem auch nicht.
Antwort von iasi:
rdcl hat geschrieben:
"Frank Glencairn" hat geschrieben:
Solange du in einer 4K Timeline (oder HD) arbeitest, wirst du von den 24GB nix merken.
Wenn Fusion im Spiel ist, dann schon eher, wobei selbst da die 10GB für das meiste reichen.
Also ich hatte mit der GTX1080ti in Resolve beim Graden schon des öfteren die "GPU Memory Full" Meldung. Zugegeben, da war auch NR und Retusche im Spiel, aber ändert ja nix an der Tatsache dass in Resolve der VRam voll läuft.
ja - diese Meldung fürchte ich eben doch ziemlich.
Wobei ich Neat auch nicht nutze.
Mal abgesehen von den 320W und den 10GB klingen die Daten der 3080 aber schon recht überzeugend.
Bin auf die ersten Tests gespannt.
Antwort von rdcl:
"Frank Glencairn" hat geschrieben:
cantsin hat geschrieben:
Mit Neat Video Pro (temporal noise reduction in hoher Qualität und mit 4 Referenzframes) und 8K-RAW-Quellmaterial und der GTX 1080Ti kriege ich "GPU Memory Full".
Daran könnte es liegen, ich brauche Neat nicht, deshalb hab ich das Memory Problem auch nicht.
Ich habe auch kein Neat in Resolve. Bei mir war es eher viel Raw (allerdings Blackmagic) und viel Retusche. Objekt Removal, Bildteile stempeln etc.
Antwort von Jost:
"Frank Glencairn" hat geschrieben:
Daran könnte es liegen, ich brauche Neat nicht, deshalb hab ich das Memory Problem auch nicht.
Könnte auch daran liegen, nicht steinigen, dass Neat Video eins der sogenannten Neandertaler-Programme ist.
Es gibt ja den NeatBench: https://www.neatvideo.com/download/neatbench
zum Bild
Dort ist eine günstige AMD 5700 mit 8 GB leicht schneller als eine AMD Radeon Pro Vega II mit 32 GB. Die 1080 TI mit 11 GB liegt 10 Prozent zurück und ist ihrerseits nur 10 Prozent flotter als die Software-Lösung per CPU 3950X.
Wenn man sich dann mal grundsätzlich die Details ansieht: Das VRAM der 1080TI liegt gegenüber der 3080 zwei Generationen zurück, der Speicherdurchsatz ist 60 Prozent geringer, die Zahl der Cuda-Cores wird um 300 Prozent übertroffen - ich glaube nicht, dass mehr VRAM ein Allheilmittel ist.
Größter Nachteil ist: Die 1080TI kann kein KI, keine Tensor Cores. Und darüber wird künftig das Entrauschen laufen.
Antwort von iasi:
rdcl hat geschrieben:
"Frank Glencairn" hat geschrieben:
Daran könnte es liegen, ich brauche Neat nicht, deshalb hab ich das Memory Problem auch nicht.
Ich habe auch kein Neat in Resolve. Bei mir war es eher viel Raw (allerdings Blackmagic) und viel Retusche. Objekt Removal, Bildteile stempeln etc.
Und dabei kam dann die Fehler-Meldung?
Soll man gar warten?
https://www.heise.de/newsticker/meldung ... 84384.html
Antwort von rdcl:
iasi hat geschrieben:
rdcl hat geschrieben:
Ich habe auch kein Neat in Resolve. Bei mir war es eher viel Raw (allerdings Blackmagic) und viel Retusche. Objekt Removal, Bildteile stempeln etc.
Und dabei kam dann die Fehler-Meldung?
Soll man gar warten?
https://www.heise.de/newsticker/meldung ... 84384.html
Ja. Das war aber auch ein furchtbares Projekt, mit mehrfachen Layern und Compound Clips mit Alpha und Transformationen übereinander und überall das Grading drauf. Aber in dem Fall war es nichtmal Raw sondern 4K Prores.
Trotzdem geht Resolve ziemlich bescheuert mit dem VRam um. Wenn er voll ist geht quasi garnichts mehr. Das Bild wird einfach nicht mehr angezeigt und der Screen bleibt schwarz. Es gibt auch keine Möglichkeit die Speicher manuell zu leeren wie in After Effects, und Resolve selbst leert den VRam scheinbar auch nie oder zumindest nicht sehr intelligent.
Das war allerdings auch noch Resolve 15.
Antwort von iasi:
rdcl hat geschrieben:
iasi hat geschrieben:
Und dabei kam dann die Fehler-Meldung?
Soll man gar warten?
https://www.heise.de/newsticker/meldung ... 84384.html
Ja. Das war aber auch ein furchtbares Projekt, mit mehrfachen Layern und Compound Clips mit Alpha und Transformationen übereinander und überall das Grading drauf. Aber in dem Fall war es nichtmal Raw sondern 4K Prores.
Trotzdem geht Resolve ziemlich bescheuert mit dem VRam um. Wenn er voll ist geht quasi garnichts mehr. Das Bild wird einfach nicht mehr angezeigt und der Screen bleibt schwarz. Es gibt auch keine Möglichkeit die Speicher manuell zu leeren wie in After Effects, und Resolve selbst leert den VRam scheinbar auch nie oder zumindest nicht sehr intelligent.
Das war allerdings auch noch Resolve 15.
Zu 4k-Raw-Zeiten als 4GB-Karten noch die bezahlbare Krone waren, hatte ich solch ein Erlebnis auch mal. Nochmal brauche ich das nicht.
Aber mal sehen, was AMD Anfang Oktober vorstellen wird - und wie sehr dies dann Nvidia motiviert.
So sehr ich jedoch AMD und deren CPUs mag, mit den Nvidia-Karten und vor allem -Treibern läuft es runder.
Antwort von patfish:
slashCAM hat geschrieben:
Nun ist es endlich nach 2 Jahren wieder soweit, dass Nvidia eine komplett runderneuerte GPU Architektur für Desktops vorstellt.
Hier geht es zum slashCAM Artikel:
News: Nvidia mit brachialem Grafikkarten-Update - Neue Ampere GPU für den Videoschnitt
Content Creator (speziell im 3D/Film/Color Grading Bereich) mit dem nötigen Geld braucht bei der 3090 nicht wirklich nachzudenken. Alle andern warten auf die möglichen 3070ti und 3080ti in einem Jahr mit doppeltem VRAM. 8 bzw. 10 GB kann ich im Jahr 2020 keinem mehr empfehlen.
Antwort von iasi:
Die 3080 schlägt sich nicht schlecht:
https://www.computerbase.de/2020-09/gef ... 80-test/4/
Wobei wohl noch nicht CUDA 11 zum Einsatz kam. (?)
Bei 8k sind die 10GB wohl wirklich ein Hemmschuh - so die Aussage im Artikel.
Hinweis (bin auch gerade am Lesen):
https://www.pugetsystems.com/labs/artic ... olveStudio
https://www.pugetsystems.com/labs/artic ... ance-1878/
Antwort von rdcl:
iasi hat geschrieben:
Die 3080 schlägt sich nicht schlecht:
https://www.computerbase.de/2020-09/gef ... 80-test/4/
Wobei wohl noch nicht CUDA 11 zum Einsatz kam. (?)
Bei 8k sind die 10GB wohl wirklich ein Hemmschuh - so die Aussage im Artikel.
Hinweis (bin auch gerade am Lesen):
https://www.pugetsystems.com/labs/artic ... olveStudio
https://www.pugetsystems.com/labs/artic ... ance-1878/
Und ich dachte mal die 1080ti schlägt sich doch noch recht gut...
Dafür freue mich auf einen exorbitanten Leistungssprung beim Wechsel zur RTX 3090.
Antwort von motiongroup:
nun ja und eben bei den Puget Tests ist der Must Have Faktor nicht wirklich zu erkennen.. alleine bei den AdobeProdukten muss ein STOP für den kauf kommen und auch bei Blackmagic hält es sich extrem in Grenzen. Vor allem wenn ich den Leistungsausweis mit ins Kalkül nehme..
Antwort von Frank Glencairn:
Na-ja, ne Karte aus der zweiten Liga, die schneller ist als die bisherigen Flagschiffe - das Preis-Leistungs-Verhältnis ist halt einfach nicht zu schlagen. Wenn jemand ne neue Karte braucht, wäre er mit dem Klammerbeutel gepudert, wenn er da nicht zugreifen würde.
Jemand der jetzt schon mit seiner Titan RTX oder einer 2080 TI zufrieden ist, und in seinen Anwendungen nicht von der GPU ausgebremst wird, der wartet wahrscheinlich eher auf die nächste Runde.
Antwort von freezer:
Da das letzte Resolve Update meine GTX 780 6GB (Compute 3.5) arbeitsunfähig gemacht hat, habe ich mich auf dem Gebrauchtmarkt umgeschaut und mit ein bisschen Glück eine fast ungenutzte GTX TITAN X 12GB (Compute 5.2) für 300 Euro erhalten. Unglaublich wie die TITAN X meine GTX 780 in Resolve abhängt - die 4k Timeline läuft wie Butter. Hätte nicht gedacht, was für einen Unterschied das macht.
Somit kann ich die Anschaffung einer neuen Workstation nach 2022 verlegen.
Antwort von Jost:
PCGH hat gerade einen ersten Benchmark mit der 3090 und 3080 in Davinci vorgestellt:
https://www.pcgameshardware.de/Geforce- ... 1358437/3/
Antwort von Jörg:
das Fazit bestätigt mein vorab gefälltes Vorurteil ;-))
Ich hab die 3080 bestellt.
Antwort von cantsin:
Jost hat geschrieben:
PCGH hat gerade einen ersten Benchmark mit der 3090 und 3080 in Davinci vorgestellt:
https://www.pcgameshardware.de/Geforce- ... 1358437/3/
Das sind in der Tat brachiale Unterschiede zu den älteren Nvidia-GPUs!
Antwort von iasi:
https://www.pugetsystems.com/labs/artic ... ling-1904/
Multi-GPU ist wohl aktuell problematisch.
Aber schon flott die 3080 und 3090.
https://www.pugetsystems.com/labs/artic ... arkResults
Demnächst (wohl 2021) soll es GDDR6X-Module mit verdoppeltem Videospeicher -
und dann wohl auch eine RTX 3080 mit 20 GByte
https://www.golem.de/news/nvidia-ampere ... 51076.html
Antwort von rdcl:
iasi hat geschrieben:
https://www.pugetsystems.com/labs/artic ... ling-1904/
Multi-GPU ist wohl aktuell problematisch.
Aber schon flott die 3080 und 3090.
https://www.pugetsystems.com/labs/artic ... arkResults
Demnächst (wohl 2021) soll es GDDR6X-Module mit verdoppeltem Videospeicher -
und dann wohl auch eine RTX 3080 mit 20 GByte
https://www.golem.de/news/nvidia-ampere ... 51076.html
Offiziell unterstützt doch von der ganze 3000er Reihe sowieso nur noch die 3090er SLI. Oder braucht man das nur zum zocken und nicht für Multi-Gpus generell?
Antwort von patfish:
iasi hat geschrieben:
https://www.pugetsystems.com/labs/artic ... ling-1904/
Multi-GPU ist wohl aktuell problematisch.
Aber schon flott die 3080 und 3090.
https://www.pugetsystems.com/labs/artic ... arkResults
Demnächst (wohl 2021) soll es GDDR6X-Module mit verdoppeltem Videospeicher -
und dann wohl auch eine RTX 3080 mit 20 GByte
https://www.golem.de/news/nvidia-ampere ... 51076.html
Klar, für Multi-GPU ist sie nicht der Bringer, das liegt neben der Größe auch am Lüfter -system und natürlich an den 350W und die damit verbundene Abwärme. Mehr als 2x 3090 würde ich in keine normle Workstation einbauen :D
Ja, 2021 kommen wahrscheinlich Varianten mit 16 und 20 GB ich denke aber, nicht dass eine 3080TI mit 20GB unter 1100€ zu haben sein wird.
Antwort von patfish:
rdcl hat geschrieben:
iasi hat geschrieben:
https://www.pugetsystems.com/labs/artic ... ling-1904/
Multi-GPU ist wohl aktuell problematisch.
Aber schon flott die 3080 und 3090.
https://www.pugetsystems.com/labs/artic ... arkResults
Demnächst (wohl 2021) soll es GDDR6X-Module mit verdoppeltem Videospeicher -
und dann wohl auch eine RTX 3080 mit 20 GByte
https://www.golem.de/news/nvidia-ampere ... 51076.html
Offiziell unterstützt doch von der ganze 3000er Reihe sowieso nur noch die 3090er SLI. Oder braucht man das nur zum zocken und nicht für Multi-Gpus generell?
Also zum 3D oder Video rendern braucht man eigentlich kein SLI ... da kann man die Karten auch einzeln zuweisen. Beim Gaming geht dass natürlich nicht.
Antwort von patfish:
Der Release der 3090 FE war heute wieder eine dezente ver*sche :D. Als nicht Bot hatte man so gut wie keine Chance auf ein Exemplar. Ich hatte (wie viele) sicher 5x eine Karte im Warenkorb aber man wurde dann einfach nicht zur Bezahlung weitergeleitet. Echt mies!
Antwort von iasi:
patfish hat geschrieben:
Der Release der 3090 FE war heute wieder eine dezente ver*sche :D. Als nicht Bot hatte man so gut wie keine Chance auf ein Exemplar. Ich hatte (wie viele) sicher 5x eine Karte im Warenkorb aber man wurde dann einfach nicht zur Bezahlung weitergeleitet. Echt mies!
Warum die Eile?
AMD stellt nächsten Monat neue Grafikkarten vor, die mit den neuen 3000ern zumindest mithalten können.
Das bringt dann Bewegung in der Markt - und lässt auch die Preise nochmal fallen.
Antwort von patfish:
iasi hat geschrieben:
Warum die Eile?
AMD stellt nächsten Monat neue Grafikkarten vor, die mit den neuen 3000ern zumindest mithalten können.
Das bringt dann Bewegung in der Markt - und lässt auch die Preise nochmal fallen.
Würde ich mich für eine 3080 oder 3070 rein zum gamen interessieren, geb ich dir vollkommen recht! ...aber weil ich die 24 GB für meine 3D Simulationen und den Videoschnitt/Grading in Davinci richtig gut brauchen kann und noch kaum ein 3D Renderer AMD final supported, gibt es für mich keinen Grund auf AMD zu warten. Die 1499€ werden ganz sicher nicht weniger werden.
Antwort von iasi:
patfish hat geschrieben:
iasi hat geschrieben:
Warum die Eile?
AMD stellt nächsten Monat neue Grafikkarten vor, die mit den neuen 3000ern zumindest mithalten können.
Das bringt dann Bewegung in der Markt - und lässt auch die Preise nochmal fallen.
Würde ich mich für eine 3080 oder 3070 rein zum gamen interessieren, geb ich dir vollkommen recht! ...aber weil ich die 24 GB für meine 3D Simulationen und den Videoschnitt/Grading in Davinci richtig gut brauchen kann und noch kaum ein 3D Renderer AMD final supported, gibt es für mich keinen Grund auf AMD zu warten. Die 1499€ werden ganz sicher nicht weniger werden.
Leider wahr. RedRaw erfährt für Win-Nutzer leider auch nur Unterstützung durch Nvidia.
Aber Konkurrenz belebt das Geschäft. Die 1499€ könnten also durchaus brökeln. Zudem könnte Nvidia als Antwort auf AMDs neue Karten noch etwas nachschieben.
Antwort von motiongroup:
https://www.computerbase.de/2020-09/nvi ... abstuerze/
wartet‘s noch a wengal zua
Antwort von rush:
Typische Early-Bird Krankheiten... Wer da zwingend von Tag 0 zuschlagen muss darf vor kleineren Problemen nicht zurückschrecken.
Antwort von rdcl:
motiongroup hat geschrieben:
https://www.computerbase.de/2020-09/nvi ... abstuerze/
wartet‘s noch a wengal zua
Momentan bekommt man die Karten ja sowieso nirgends da. Vielleicht Glück für einige.
Antwort von patfish:
motiongroup hat geschrieben:
https://www.computerbase.de/2020-09/nvi ... abstuerze/
wartet‘s noch a wengal zua
Das Hauptproblem wurde von Igors Lab schon lokalisiert, es liegt an den verbauten Kondensatoren wo einige Hersteller z.B. Gigabyte etwas zuviel gespart haben.
Antwort von patfish:
[quote=patfish post_id=1062131
Content Creator (speziell im 3D/Film/Color Grading Bereich) mit dem nötigen Geld braucht bei der 3090 nicht wirklich nachzudenken. Alle andern warten auf die möglichen 3070ti und 3080ti in einem Jahr mit doppeltem VRAM. 8 bzw. 10 GB kann ich im Jahr 2020 keinem mehr empfehlen.
Genau so sehe ich das auch! Wer 24GB Ram als Creator braucht und das Gels hat kann ohne Bedenken und ohne auf AMD zu warten zugreifen. ...wenn er denn die Karte irgendwie bekommt und jene genug MLCC Kondensatoren verbaut hat :D
Antwort von rdcl:
patfish hat geschrieben:
[quote=patfish post_id=1062131
Content Creator (speziell im 3D/Film/Color Grading Bereich) mit dem nötigen Geld braucht bei der 3090 nicht wirklich nachzudenken. Alle andern warten auf die möglichen 3070ti und 3080ti in einem Jahr mit doppeltem VRAM. 8 bzw. 10 GB kann ich im Jahr 2020 keinem mehr empfehlen.
[Genau so sehe ich das auch! Wer 24GB Ram als Creator braucht und das Gels hat kann ohne Bedenken und ohne auf AMD zu warten zugreifen. ...wenn er denn die Karte irgendwie bekommt und jene genug MLCC Kondensatoren verbaut hat :D
Ich habe jetzt auch statt der 3090 die 3080 bestellt. Sollte 2021 eine 3080 mit 20 GB rauskommen werde ich evtl. die bestellen und die alte 3080er wandert dann in den Zweitrechner. Preislich liegt man dann mit zwei Karten wahrscheinlich auch nicht weit über der aktuellen 3090er.
Antwort von patfish:
patfish hat geschrieben:
Content Creator (speziell im 3D/Film/Color Grading Bereich) mit dem nötigen Geld braucht bei der 3090 nicht wirklich nachzudenken. Alle andern warten auf die möglichen 3070ti und 3080ti in einem Jahr mit doppeltem VRAM. 8 bzw. 10 GB kann ich im Jahr 2020 keinem mehr empfehlen.
Genau so sehe ich das auch! Wer 24GB Ram als Creator gut brauchen kann und das Geld hat kann ohne Bedenken und ohne auf AMD zu warten zugreifen. ...wenn er denn die Karte irgendwie bekommt und jene genug MLCC Kondensatoren verbaut hat :D
Antwort von iasi:
patfish hat geschrieben:
patfish hat geschrieben:
Content Creator (speziell im 3D/Film/Color Grading Bereich) mit dem nötigen Geld braucht bei der 3090 nicht wirklich nachzudenken. Alle andern warten auf die möglichen 3070ti und 3080ti in einem Jahr mit doppeltem VRAM. 8 bzw. 10 GB kann ich im Jahr 2020 keinem mehr empfehlen.
Genau so sehe ich das auch! Wer 24GB Ram als Creator gut brauchen kann und das Geld hat kann ohne Bedenken und ohne auf AMD zu warten zugreifen. ...wenn er denn die Karte irgendwie bekommt und jene genug MLCC Kondensatoren verbaut hat :D
Wer so hecktisch reagiert und denkt, er braucht jetzt und sofort die aktuell neue Karte, damit er weiterhin Geld verdienen kann, hat irgendwann kein Geld mehr.
In einem Monat sieht man, was AMD bietet und wie dann die Antwort von Nvidia darauf aussieht. Es ist ja nicht so, dass man nun Jahre auf eine neue Kartengeneration warten muss.
Zudem ist das aktuelle Lüfterdesign der 3080 und 3090 nicht ideal für Multi-GPU. Auch dies kann sich in den nächsten Wochen ändern und wäre ein guter und nachhaltiger Grund, um zu warten.
Es ist eben doch ein Vorteil, wenn man seine 3090 irgendwann mit einer zweiten Karte ergänzen und dann eben 50% mehr Leistung nutzen kann.
Antwort von rdcl:
iasi hat geschrieben:
patfish hat geschrieben:
Genau so sehe ich das auch! Wer 24GB Ram als Creator gut brauchen kann und das Geld hat kann ohne Bedenken und ohne auf AMD zu warten zugreifen. ...wenn er denn die Karte irgendwie bekommt und jene genug MLCC Kondensatoren verbaut hat :D
Wer so hecktisch reagiert und denkt, er braucht jetzt und sofort die aktuell neue Karte, damit er weiterhin Geld verdienen kann, hat irgendwann kein Geld mehr.
In einem Monat sieht man, was AMD bietet und wie dann die Antwort von Nvidia darauf aussieht. Es ist ja nicht so, dass man nun Jahre auf eine neue Kartengeneration warten muss.
Zudem ist das aktuelle Lüfterdesign der 3080 und 3090 nicht ideal für Multi-GPU. Auch dies kann sich in den nächsten Wochen ändern und wäre ein guter und nachhaltiger Grund, um zu warten.
Es ist eben doch ein Vorteil, wenn man seine 3090 irgendwann mit einer zweiten Karte ergänzen und dann eben 50% mehr Leistung nutzen kann.
Was heißt das Lüfterdesign? Es gibt verschiedenste Lüfterdesigns für beide Karten. Selbst mit Wasserkühlung sind beide Karten erhältlich.
Antwort von patfish:
iasi hat geschrieben:
patfish hat geschrieben:
Genau so sehe ich das auch! Wer 24GB Ram als Creator gut brauchen kann und das Geld hat kann ohne Bedenken und ohne auf AMD zu warten zugreifen. ...wenn er denn die Karte irgendwie bekommt und jene genug MLCC Kondensatoren verbaut hat :D
Wer so hecktisch reagiert und denkt, er braucht jetzt und sofort die aktuell neue Karte, damit er weiterhin Geld verdienen kann, hat irgendwann kein Geld mehr.
In einem Monat sieht man, was AMD bietet und wie dann die Antwort von Nvidia darauf aussieht. Es ist ja nicht so, dass man nun Jahre auf eine neue Kartengeneration warten muss.
Zudem ist das aktuelle Lüfterdesign der 3080 und 3090 nicht ideal für Multi-GPU. Auch dies kann sich in den nächsten Wochen ändern und wäre ein guter und nachhaltiger Grund, um zu warten.
Es ist eben doch ein Vorteil, wenn man seine 3090 irgendwann mit einer zweiten Karte ergänzen und dann eben 50% mehr Leistung nutzen kann.
Noch einmal: Wer 3D Rendering/Simulation, Color Grading und Compositing auf seiner GPU macht und 24 GB wirklich braucht hat einfach keinen Grund auf die kommende AMD Generation zu warten!
Den diese Karten werden 1) aktuell einfach noch viel zu wenig von dementsprechenden Programmen und Renderern unterstützt und 2) werden jene auch nicht an die Leistung einer 3090 heran kommen.
Klar, mehr als 2x 3090 GPUs gehen sich mit dem aktuellen 3 Slot Kühlern nicht wirklich in einer "normalen" Workstadion aus und machen wahrscheinlich bzgl. Verbrauch/Hitzeentwicklung auch keinen Sinn aber die sicher etwas effizienteren AMD Karten sind aktuell eben hauptsächlich nur für Gamer wirklich interessant.
Antwort von Frank Glencairn:
rdcl hat geschrieben:
Was heißt das Lüfterdesign? Es gibt verschiedenste Lüfterdesigns für beide Karten.
Ja, aber die haben alle das selbe Problem, wenn du mehr als eine Karte brauchst.
Die untere bläst die warme Luft in den Kühlereinlass der oberen - und die oberste dann direkt in den CPU Kühler (aber das ist nochmal ne andere Diskussion).
So lange es also keine Blower-Designs gibt, ist das alles andere als ideal für ein Multi-Card Setup.
Antwort von patfish:
"Frank Glencairn" hat geschrieben:
rdcl hat geschrieben:
Was heißt das Lüfterdesign? Es gibt verschiedenste Lüfterdesigns für beide Karten.
Ja, aber die haben alle das selbe Problem, wenn du mehr als eine Karte brauchst.
Die untere bläst die warme Luft in den Kühlereinlass der oberen - und die oberste dann direkt in den CPU Kühler (aber das ist nochmal ne andere Diskussion).
So lange es also keine Blower-Designs gibt, ist das alles andere als ideal für ein Multi-Card Setup.
? ...Die gibt es doch!
https://www.notebookcheck.net/Gigabyte- ... 705.0.html
Antwort von markusG:
Wer mehr Speicher braucht (48GB):
Nvidia bringt RTX A6000 und A40-Beschleuniger
https://www.golem.de/news/ampere-grafik ... 51306.html
Auch u.U. interessant:
Nvidia packt ARM-Co-Prozessor auf Grafikkarte
https://www.golem.de/news/bluefield-2x- ... 51308.html
Antwort von didah:
klusterdegenerierung hat geschrieben:
Stimmt, 700-1000€ ist das gleiche wie 500€.
also ich vor 25 jahren zu rauchen begonnen hab, hat mich ein packerl tschick 32 schilling - 2 euro 20, 2 euro 30 gekostet. heute sinds 5.20. dinge werden mit der zeit teurer, mieten vor einigen jahren war niedrigen als heute, essen/trinken gehen auch. der lauf der zeit. aber man verdient ja auch ein paar euro mehr als vor einigen jahren, oder?
Antwort von MrMeeseeks:
didah hat geschrieben:
klusterdegenerierung hat geschrieben:
Stimmt, 700-1000€ ist das gleiche wie 500€.
also ich vor 25 jahren zu rauchen begonnen hab, hat mich ein packerl tschick 32 schilling - 2 euro 20, 2 euro 30 gekostet. heute sinds 5.20. dinge werden mit der zeit teurer, mieten vor einigen jahren war niedrigen als heute, essen/trinken gehen auch. der lauf der zeit. aber man verdient ja auch ein paar euro mehr als vor einigen jahren, oder?
Solch logischen Argumente ziehen hier bei bestimmten Usern nicht. Die Tatsache dass die GPU die nahezu doppelte Rechenleistung besitzt, gleichzeitig aber im Preis gefallen ist, trifft auch auf taube Ohren.
Da ist nur entscheidend was man selber mal vor 10 Jahren beim Computerladen um die Ecke gezahlt hat.
Kann mich noch erinnern wie mein Vater damals einen PC zusammengebaut hat, da war jede Komponente fast so teuer wie mein heutiger PC.
Antwort von patfish:
MrMeeseeks hat geschrieben:
didah hat geschrieben:
also ich vor 25 jahren zu rauchen begonnen hab, hat mich ein packerl tschick 32 schilling - 2 euro 20, 2 euro 30 gekostet. heute sinds 5.20. dinge werden mit der zeit teurer, mieten vor einigen jahren war niedrigen als heute, essen/trinken gehen auch. der lauf der zeit. aber man verdient ja auch ein paar euro mehr als vor einigen jahren, oder?
Kann mich noch erinnern wie mein Vater damals einen PC zusammengebaut hat, da war jede Komponente fast so teuer wie mein heutiger PC.
Ich auch, 80.000 Schilling für eine 386 🥰 ...anderseits hat das mein aktuelles Theadripper-System auch fast gekostet🤫🤭.
Antwort von Frank Glencairn:
rush hat geschrieben:
In einer möglichen 16GB TI Version wie von Lenovo rumort umso mehr
Das kannst du erst mal vergessen, die Versionen mit mehr Speicher wurden erst mal gecanceled.
Antwort von rdcl:
Ich habe drei RTX3080er bestellt, und von allen Shops habe ich mehrere Emails bekommen, dass kein Lieferdatum genannt werden kann.
Gestern kam eine Mail, dass laut dem CEO von NVidia erst 2021 wieder Karten verfügbar sein werden.
Antwort von Frank Glencairn:
Ja, aktuell ist das Verhältnis (Bestellungen von Großhändlern > lieferbare Karten) 50:1.
Das wird noch ne Weile dauern, bis man die einfach so kaufen kann.
Antwort von pillepalle:
Yo... deshalb hab' ich mich dann doch für die RTX2070 Super entschieden. Jetzt Monate auf eine Karte zu warten macht für mich überhaupt keinen Sinn :)
VG
Antwort von Frank Glencairn:
Ich bin in der komfortablen Situation, daß die beiden Workstations, die ich im Frühjahr gebaut habe, immer noch alles was ich so brauche mit links machen.
Aktuell hab ich (außer technischem Spieltrieb) also nur wenig Bedarf an neuen GPUs, und kann deshalb locker abwarten, bis sich das alles beruhigt hat.
Antwort von rdcl:
"Frank Glencairn" hat geschrieben:
Ich bin in der komfortablen Situation, daß die beiden Workstations, die ich im Frühjahr gebaut habe, immer noch alles was ich so brauche mit links machen.
Aktuell hab ich (außer technischem Spieltrieb) also nur wenig Bedarf an neuen GPUs, und kann deshalb locker abwarten, bis sich das alles beruhigt hat.
Habe gerade eine vierte Karte bestellt. Die war gefühlt für 1 Minute als verfügbar bei Alternate angezeigt. Habe noch keine Bestätigung bekommen.
Wirklich brauchen tu ich die Karte auch nicht, habe momentan eine GTX1080ti. Aber gerade jetzt habe ich große Designprojekte gehabt, da habe ich locker 35 Stunden nur gerendert. Natürlich nicht am Stück, sondern immer mal wieder. Ich schätze, dass das mit einer RTX3080 nur um die 10 Stunden gewesen wären. Da spielt sich der Preis innerhalb von einem oder zwei Tagen schon wieder rein.
Antwort von rdcl:
rdcl hat geschrieben:
Ich habe drei RTX3080er bestellt, und von allen Shops habe ich mehrere Emails bekommen, dass kein Lieferdatum genannt werden kann.
Gestern kam eine Mail, dass laut dem CEO von NVidia erst 2021 wieder Karten verfügbar sein werden.
Antwort von klusterdegenerierung:
Aber berechnen wirst Du doch hoffentlich nach der 1080ti? :-)
Antwort von rdcl:
klusterdegenerierung hat geschrieben:
Aber berechnen wirst Du doch hoffentlich nach der 1080ti? :-)
Klar. Es heißt auch garnicht unbedingt, dass dann weniger da Arbeit wäre. Manchmal hätte man einfach mehr Zeit um die Animation noch zu verfeinern, weil man das Ergebnis schneller bewegt sehen kann.
Ansonsten "erkauft" man sich damit halt Freizeit :D
Antwort von patfish:
Ich bin jetzt auch froh mir im Frühjahr doch noch eine 2070S gesteckt zu haben, obwohl die meine Workstation ordentlich unterfordert :-) .. .pillepalle hat geschrieben:
Yo... deshalb hab' ich mich dann doch für die RTX2070 Super entschieden. Jetzt Monate auf eine Karte zu warten macht für mich überhaupt keinen Sinn :)
VG
Antwort von klusterdegenerierung:
Ich glaub eine RTX3080 wäre gegenüber meiner GTX1080 auch keine schlechte Idee.
https://gpu.userbenchmark.com/Compare/N ... 4080vs3603
Antwort von mash_gh4:
man kann diese fortschritte und gpu-kaufwut auch aus einem ganz anderen blickwinkel betrachten:
https://www.phoronix.com/scan.php?page= ... -gpu&num=1
;)
Antwort von rdcl:
mash_gh4 hat geschrieben:
man kann diese fortschritte und gpu-kaufwut auch aus einem ganz anderen blickwinkel betrachten:
https://www.phoronix.com/scan.php?page= ... -gpu&num=1
;)
Welcher Blickwinkel soll das sein?
Dass man sich uralte GPUs ins System bauen kann die die Mindestanforderungen von modernen NLEs nicht erfüllen?
Antwort von klusterdegenerierung:
rdcl hat geschrieben:
mash_gh4 hat geschrieben:
man kann diese fortschritte und gpu-kaufwut auch aus einem ganz anderen blickwinkel betrachten:
https://www.phoronix.com/scan.php?page= ... -gpu&num=1
;)
Welcher Blickwinkel soll das sein?
Dass man sich uralte GPUs ins System bauen kann die die Mindestanforderungen von modernen NLEs nicht erfüllen?
Hui, da hat aber einer seine Fantasie Region komplett ausgeschaltet.
Stell Dir vor Du möchtest eine kleine aber moderne Bäckerei aufmachen und hast nur begrenzt Kohle und Platz.
Mit dem Ding kannst Du Dir einen preiswerten kleinen Linux Rechner bauen, der mit 2 von den Dingern,"8" FHD Monitore in Deinem Laden steuern kann und mit etwas Glück und overclocking & Physix 1 Bild auf allen 4!!
Und bums hast Du für kleines Geld und etwas Enthusiasmus die modernste kleine Öko Bäckerei in der Stadt und hast noch Geld für andere Dinge statt für teure Rechner und Matrox Karten.
Antwort von rdcl:
klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
Welcher Blickwinkel soll das sein?
Dass man sich uralte GPUs ins System bauen kann die die Mindestanforderungen von modernen NLEs nicht erfüllen?
Hui, da hat aber einer seine Fantasie Region komplett ausgeschaltet.
Stell Dir vor Du möchtest eine kleine aber moderne Bäckerei aufmachen und hast nur begrenzt Kohle und Platz.
Mit dem Ding kannst Du Dir einen preiswerten kleinen Linux Rechner bauen, der mit 2 von den Dingern,"8" FHD Monitore in Deinem Laden steuern kann und mit etwas Glück und overclocking & Physix 1 Bild auf allen 4!!
Und bums hast Du für kleines Geld und etwas Enthusiasmus die modernste kleine Öko Bäckerei in der Stadt und hast noch Geld für andere Dinge statt für teure Rechner und Matrox Karten.
Schön und gut, hat aber absolut nichts mit dem Threadthema zu tun, und ist auch kein "anderer Blickwinkel auf diese fortschritte und gpu-kaufwut".
Und warum eine Öko-Bäckerei 4 Screens braucht müsstest du auch erstmal erklären.
Antwort von markusG:
Ich denke mal dass es eher für Entwickler interessant ist...
Der Bäcker würde an der Kabellänge scheitern...
Dann eher sowas :
Aber das wird sich kein Bäcker leisten können. Eher smart TVs mit USB stick...
Antwort von klusterdegenerierung:
rdcl hat geschrieben:
klusterdegenerierung hat geschrieben:
Hui, da hat aber einer seine Fantasie Region komplett ausgeschaltet.
Stell Dir vor Du möchtest eine kleine aber moderne Bäckerei aufmachen und hast nur begrenzt Kohle und Platz.
Mit dem Ding kannst Du Dir einen preiswerten kleinen Linux Rechner bauen, der mit 2 von den Dingern,"8" FHD Monitore in Deinem Laden steuern kann und mit etwas Glück und overclocking & Physix 1 Bild auf allen 4!!
Und bums hast Du für kleines Geld und etwas Enthusiasmus die modernste kleine Öko Bäckerei in der Stadt und hast noch Geld für andere Dinge statt für teure Rechner und Matrox Karten.
Schön und gut, hat aber absolut nichts mit dem Threadthema zu tun, und ist auch kein "anderer Blickwinkel auf diese fortschritte und gpu-kaufwut".
Und warum eine Öko-Bäckerei 4 Screens braucht müsstest du auch erstmal erklären.
Meine Antwort hat genauso wenig mit dem Thema zu tun wie Deine Antwort.
Selbst bei uns in den Kleinstädten zeigen Bäckereien auf Multiscreens unter der Decke ihre tollen neuen Produkte.
Ich sag ja, fantasy mode "off"
Antwort von rdcl:
klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
Schön und gut, hat aber absolut nichts mit dem Threadthema zu tun, und ist auch kein "anderer Blickwinkel auf diese fortschritte und gpu-kaufwut".
Und warum eine Öko-Bäckerei 4 Screens braucht müsstest du auch erstmal erklären.
Meine Antwort hat genauso wenig mit dem Thema zu tun wie Deine Antwort.
Selbst bei uns in den Kleinstädten zeigen Bäckereien auf Multiscreens unter der Decke ihre tollen neuen Produkte.
Ich sag ja, fantasy mode "off"
Ich wiederhole meine Frage: Inwiefern ist das ein anderer Blickwinkel auf "diese fortschritte und gpu-kaufwut" der RTX3000er Serie?
Antwort von klusterdegenerierung:
rdcl hat geschrieben:
klusterdegenerierung hat geschrieben:
Meine Antwort hat genauso wenig mit dem Thema zu tun wie Deine Antwort.
Selbst bei uns in den Kleinstädten zeigen Bäckereien auf Multiscreens unter der Decke ihre tollen neuen Produkte.
Ich sag ja, fantasy mode "off"
Ich wiederhole meine Frage: Inwiefern ist das ein anderer Blickwinkel auf "diese fortschritte und gpu-kaufwut" der RTX3000er Serie?
Ich wiederhole meine Aussauge, in wie weit haben Deine Antworten und Kommentare auf mash post etwas mit "fortschritte und gpu-kaufwut" der RTX3000er Serie zu tun?
Das heißt da ist nicht nur fantasy off, sondern auch flexibility & empathy!
Antwort von rdcl:
klusterdegenerierung hat geschrieben:
rdcl hat geschrieben:
Ich wiederhole meine Frage: Inwiefern ist das ein anderer Blickwinkel auf "diese fortschritte und gpu-kaufwut" der RTX3000er Serie?
Ich wiederhole meine Aussauge, in wie weit haben Deine Antworten und Kommentare auf mash post etwas mit "fortschritte und gpu-kaufwut" der RTX3000er Serie zu tun?
Das heißt da ist nicht nur fantasy off, sondern auch flexibility & empathy!
Mash hat gesagt "man kann diese fortschritte und gpu-kaufwut auch aus einem ganz anderen blickwinkel betrachten". Dazu gab es den Link. Daraufhin habe ich gefragt, was genau da der andere Blickwinkel sein soll. Das ist eine direkte Frage auf seinen Post. Fragst du mich gerade ernsthaft wo da der Zusammenhang besteht?
Deine persönlichen Seitenhiebe kannst du dir übrigens gerne sparen falls du mal ernsthaft diskutieren möchtest.
Antwort von mash_gh4:
wie in dem verlinkten artikel ohnehin ziemlich deutlich beschrieben wurde, gibt's leider gute gründe, den fortschritt bei den nvidia karten mit gemischten gefühlen zu sehen.
diese schrecklich altmodisch anmutende GT710, ist eben einfach wirklich einer der letzten nvidia-produkte, die sich gänzlich ohne propritäre treiber und firmware blobs mit freier software vernünftig betreiben lässt.
natürlich kann man jetzt sagen, dass es ohnehin die herstellerseitige software für die nutzung gibt und es kein großes problem darstellt, dass diese nur in binärform ohne offen quellcode erhältlich ist. aber ganz so einfach ist das nicht, weil die nvidia-grafiktreiber regelmäßig jene grenzen und vorgaben überschreiten, mit denen freie software ihre linzenzansprüche abzusichern versucht. aus diesem grund gibt's gerade wiedereinmal einen größeren konflikt, der in der praxis dazu führt, dass es schon wieder keine nvida-treiber für aktuelle linux kernels gibt:
https://www.phoronix.com/scan.php?page= ... .9-Delayed
https://www.phoronix.com/scan.php?page= ... -NV-NetGPU
das problem betrifft aber nicht ausschließlich nur linux, sondern eben durchaus auch kommerzielle betriebsysteme, da sich ja bspw. auch apple vorbehält, derartige treiber nur mehr zu signieren, wenn sie einblick in den treiber source code für sicherheitsüberprüfungen erhalten...
in wahrheit ist die situation auch bei den AMD-karten kaum besser bzw. im hinblick auf die praktische nutzbarkeit der dortigen treiber fast noch schlimmer.
nachdem ich selber hin und wieder mit machine learning aufgaben zu tun habe, die noch wesentliche höhere rechenanforderungen mit sich bringen als man das von der video-verarbeitung her kennt, ist mir durchaus bewusst, wie sehr man in vielen bereichen von nvidia-produkten abhängig ist und wie deutlich sich performancesteigerungen zwischen gpu-generationen in der praxis ausnehmen. nichtsdestotrotz empfinde ich die begleiterscheineungen dieser zusehends wachsenden ausgeliefertheit an einen einzigen hersteller und die daran geknüpften konflikte, die auf dem rücken der anwender ausgetragen werden, als reichlich unerfreulich. das sollte man nicht völlig ausklammern und die dinge wenigstens gelegentlich auch aus diesem blickwinkel heraus betrachten bzw. hinterfragen.
Antwort von rdcl:
mash_gh4 hat geschrieben:
wie in dem verlinkten artikel ohnehin ziemlich deutlich beschrieben wurde, gibt's leider gute gründe, den fortschritt bei den nvidia karten mit gemischten gefühlen zu sehen.
diese schrecklich altmodisch anmutende karte, ist eben einfach wirklich einer der letzten nvidia-produkte, die sich gänzlich ohne propritäre treiber mit freier software betreiben lässt.
natürlich kann man jetzt sagen, dass es ohnehin die herstellerseitige software für die nutzung gibt und es kein großes problem darstellt, dass diese nur in binärform ohne offen quellcode erhältlich ist. aber ganz so einfach ist das nicht, weil die nvidia-grafiktreiber regelmäßig jene grenzen und vorgaben überschreiten, mit denen freie software ihre linzenzansprüche abzusichern versucht. aus diesem grund gibt's gerade wiedereinmal einen größeren konflikt, der in der praxis dazu führt, dass es schon wieder keine nvida-treiber für aktuelle linux kernels gibt:
https://www.phoronix.com/scan.php?page= ... .9-Delayed
https://www.phoronix.com/scan.php?page= ... -NV-NetGPU
das problem betrifft aber nicht ausschließlich nur linux, sondern eben durchaus auch kommerzielle betriebsysteme, da sich ja bspw. auch apple vorbehält, derartige treiber nur mehr zu signieren, wenn sie einblick in den treiber source code für sicherheitsüberprüfungen erhalten...
in wahrheit ist die situation auch bei den AMD-karten kaum besser bzw. im hinblick auf die praktische nutzbarkeit der dortigen treiber fast noch schlimmer.
nachdem ich selber hin und wieder mit machine learning aufgaben zu tun habe, die noch wesentliche höhere rechenanforderungen mit sich bringen als man das von der video-verarbeitung her kennt, ist mir durchaus bewusst, wie sehr man in vielen bereichen von nvidia-produkten abhängig ist und wie deutlich sich performancesteigerungen zwischen gpu-generationen in der praxis ausnehmen. nichtsdestotrotz empfinde ich die begleiterscheineungen dieser zusehends wachsenden ausgeliefertheit an einen einzigen hersteller und die daran geknüpften konflikte, die auf dem rücken der anwender ausgetragen werden, als reichlich unerfreulich. das sollte man nicht völlig ausklammern und die dinge wenigstens gelegentlich auch aus diesem blickwinkel heraus betrachten bzw. hinterfragen.
Danke für die Erklärung. Jetzt verstehe ich, welchen Blickwinkel du gemeint hast.
Ich kann zu dem Thema nichts sagen, weil ich mich damit nicht auskenne. Du hast bestimmt Recht mit deiner Ansicht. Insgesamt denke ich, dass die Menge an Menschen, die sich darüber Gedanken machen, oder damit auch nur in Berührung kommen, relativ klein ist. Und wer auf eine gewisse Performance angewiesen ist, hat halt auch leider keine Alternative. Ändert an der Richtigkeit deines Kommentars natürlich nix.
|
Antwort von markusG:
rdcl hat geschrieben:
Insgesamt denke ich, dass die Menge an Menschen, die sich darüber Gedanken machen, oder damit auch nur in Berührung kommen, relativ klein ist.
Jain. Alleine das Apple-Nvidia-Debakel hat ja eine ganze Industrie getroffen, eben wegen dieser Abhängigkeit.
Wie schaut es eigtl. bei Intel aus bzgl. Open Source? Die bringen ja gerade ihre ersten dedizierten Grafikkarten in die Notebooks (nach Namensänderung...) und wollen afaik ja auch in anderen Bereichen künftig mitschwimmen...
Antwort von Frank Glencairn:
rdcl hat geschrieben:
Insgesamt denke ich, dass die Menge an Menschen, die sich darüber Gedanken machen, oder damit auch nur in Berührung kommen, relativ klein ist.
Natürlich nicht, weil es für die meisten überhaupt nicht relevant ist.
Karte rein, aktuellen Treiber drüber bügeln und läuft - mehr brauchen die meisten nicht.
Antwort von rdcl:
Ich habe heute recht überraschend meine RTX3080 OC von Asus bekommen. Hatte in diesem Jahr schon garnicht mehr damit gerechnet. Ich hatte die Karte vor ziemlich genau einem Monat bestellt und heute hat Alternate geliefert.
Heute morgen habe ich mit meiner alten GTX1080ti noch ein Projekt gerendert. Dauer: 1 Stunde 5 Minuten
Mit der RTX3080 hat die exakt gleiche Comp 1 Minute und 39 Sekunden gedauert. Das ist schon ziemlich unfassbar und ich dachte kurz, dass meine alte Karte defekt war. Ist sie aber nicht. Das war ein AE Projekt mit einem 3D-Handy in Element 3D, in dem eine App präsentiert wird. Recht klassisches Szenario also.
Ein anderes Projekt war 4K 60fps von der Mavic Pro, was am Ende im AE über die Dauer des Clips beschleunigt wurde. Außerdem war haufenweise Motion Blur und Radial Blur drauf, und etwas Lumetri correction und Scharfzeichner. Das hat statt ca. 4 Stunden mit der alten Karte ca. 6 Minuten mit der neuen Karte gedauert.
Ein weiteres Projekt war auch im AE. Eine 3D Sanduhr, ziemlich high poly, über Element 3D im After Effects. Das 3D Objekt war locker 6 - 7 mal als Layer in der Comp, dazu noch haufenweise Typo und Grafikanimationen, Partikeleffekte und PNG Sequenzen. Das hatte mit der GTX1080ti ca. 1 Stunde 30 Minuten gedauert, mit der neuen jetzt ca. 30 Minuten.
Es kommt also wie immer viel auf die Projekte und die Effekte an die man benutzt, aber der Performancesprung ist insgesamt einfach gigantisch. Auch das scrubben in der Comp im After Effects geht jetzt ganz gut. Natürlich weit entfernt von Echtzeit, aber vorher durfte ich bei den entsprechenden Projekten ca. 10 - 30 Sekunden warten, bis ich das Bild gesehen habe. Jetzt sind es geschätzt 2 - 4 Sekunden.
Antwort von DAF:
rdcl hat geschrieben:
... Auch das scrubben in der Comp im After Effects geht jetzt ganz gut. Natürlich weit entfernt von Echtzeit, ...
Was hast du denn für eine CPU?
Antwort von rdcl:
DAF hat geschrieben:
rdcl hat geschrieben:
... Auch das scrubben in der Comp im After Effects geht jetzt ganz gut. Natürlich weit entfernt von Echtzeit, ...
Was hast du denn für eine CPU?
Eine i7 7820X mit 8x3.6 GHz und 64GB Ram.
Antwort von iasi:
Das sind ja enorme Unterschiede.
Und das bei RTX3080 OC vs GTX1080ti
Antwort von Jörg:
Mit der RTX3080 hat die exakt gleiche Comp 1 Minute und 39 Sekunden gedauert.
und da jammern Leute über Stromverbrauch.
da kommt Freude auf, wir haben die gleiche CPU, mein MehrRAM wird sich nicht groß auswirken.
Gut angelegtes Geld...
Antwort von DAF:
rdcl hat geschrieben:
...
Eine i7 7820X mit 8x3.6 GHz und 64GB Ram.
Danke. Und Hmmm...
Ich hab auch (noch) ne I7-7700 drin. Plus GTX970. Da ich z.Zt. aber nicht so viel mit Video-Nachbearbeitung selbst mache, kann ich mich seit nem Jahr nicht aufraffen ein neues Komplettsystem anzuschaffen.
Aber erst mal nur die GraKa auf die 3080 zu tauschen, und nach nem Systemwechsel in"s neue System mitzunehmen wäre echt ne Überlegung.
Ich mache aber 90% in PP, AE nur selten. Hast du zufällig (wenn auch nur annähernde) Vergleichswerte von/mit PP?
Antwort von rdcl:
Jörg hat geschrieben:
Mit der RTX3080 hat die exakt gleiche Comp 1 Minute und 39 Sekunden gedauert.
und da jammern Leute über Stromverbrauch.
da kommt Freude auf, wir haben die gleiche CPU, mein MehrRAM wird sich nicht groß auswirken.
Gut angelegtes Geld...
Das war aber auch wirklich extrem. Ich frage mich immernoch, warum da der Unterschied so extrem ist. Ich gehe davon aus, dass bei der Berechnung von 3D Modellen inkl. Spiegelungen und Schatten über Ambient Occlusion die RT-Cores so richtig die Muskeln spielen lassen können. Das alles gab es allerdings auch in dem Sanduhr-Projekt. Der Unterschied wird sein, dass beim Sanduhr-Projekt noch viel Realbild und zusätzliche Elemente mit dabei waren, die evtl. mehr über die CPU gerendert werden. So genau kann ich das leider nicht sagen.
Antwort von rdcl:
DAF hat geschrieben:
rdcl hat geschrieben:
...
Eine i7 7820X mit 8x3.6 GHz und 64GB Ram.
Danke. Und Hmmm...
Ich hab auch (noch) ne I7-7700 drin. Plus GTX970. Da ich z.Zt. aber nicht so viel mit Video-Nachbearbeitung selbst mache, kann ich mich seit nem Jahr nicht aufraffen ein neues Komplettsystem anzuschaffen.
Aber erst mal nur die GraKa auf die 3080 zu tauschen, und nach nem Systemwechsel in"s neue System mitzunehmen wäre echt ne Überlegung.
Ich mache aber 90% in PP, AE nur selten. Hast du zufällig (wenn auch nur annähernde) Vergleichswerte von/mit PP?
Habe leider nicht wirklich Verlgeichswerte von Premiere. Ich schneide fast nur im Avid. Tatsächlich hatte ich gerade heute auch ein Projekt in Premiere abgeschlossen, aber das war so kurz und eigentlich kamen alle Videospuren als DNxHD aus AE, so dass da in Premiere selbst nicht viel zu tun war außer Mischung anlegen und exportieren.
Antwort von markusG:
DAF hat geschrieben:
Ich mache aber 90% in PP, AE nur selten. Hast du zufällig (wenn auch nur annähernde) Vergleichswerte von/mit PP?
Gibt von Pugetsystems zumindest sowas wie ne Preview:
https://www.pugetsystems.com/labs/artic ... remierePro
In an ideal situation where you are using multiple GPU-accelerated effects, the RTX 3080 10GB is around 10% faster than the more expensive RTX 2080 Ti
Wie immer "it depends" ;)
Antwort von iasi:
Nun kommen AMDs neue Karten und wohl noch mehr Bewegung in den Markt - und in Nvidia-Produktpalette.
Immerhin bieten die AMD-Karten neben vergleichbarer GPU-Power neben geringerem Stromhunger durchgehend 16GB-VRAM.
Antwort von Jost:
iasi hat geschrieben:
Nun kommen AMDs neue Karten und wohl noch mehr Bewegung in den Markt - und in Nvidia-Produktpalette.
Immerhin bieten die AMD-Karten neben vergleichbarer GPU-Power neben geringerem Stromhunger durchgehend 16GB-VRAM.
Muss man mal abwarten. AMD hat angekündigt, dass die "Compute"-Leistung, also das, was Effekte etc beschleunigt, um 30 Prozent steigen soll. Das könnte viel wichtiger sein.
Daneben gibt es den Smart-Memory-Access.
Das geht freilich nur mit Brettern, die über PCIe 4 verfügen. Also nur die die Bretter der 5er Serie.
Und auch nur mit den neuen Prozessoren der 5000er Reihe.
zum Bild
zum Bild https://s12.directupload.net/images/201028/ohjfr7t5.jpg
Keine Ahnung, was sich die CPU von den 16GB-GDDR6 abgezwackt.
Antwort von iasi:
Smart-Memory-Access soll zusammen mir "Rage" (also Übertaktung) auch nur zwischen 2 und 13% Mehrleistung bringen.
Interessant wird auch sein, ob „Infinity Cache“ das 256-bit-Nadelöhr auch bei Videoanwendungen ausgleichen kann.
Letztlich wird nun Nvidia gezwungen, eine Schippe mehr VRAM draufzupacken und vielleicht auch an der Preisschraube zu drehen.
Antwort von Jost:
iasi hat geschrieben:
Smart-Memory-Access soll zusammen mir "Rage" (also Übertaktung) auch nur zwischen 2 und 13% Mehrleistung bringen.
Wobei die Übertaktung per Rage wohl eher konservativ bemessen ist.
Wie am Ende Smart-Memory-Access bei Video durchschlägt, ist eine andere Frage.
zum Bild
Es ist schon auffällig, dass nur Gaming-Benchmarks veröffentlicht wurden.
Antwort von rdcl:
Ich kenne mich bei AMD garnicht gut aus. Wegen einer schlechten Erfahrung vor gefühlt 15 Jahren habe ich seitdem immer auf NVidia gesetzt.
Daher vielleicht eIne blöde Frage: Was ist denn AMDs Pendant zu Cuda, und vor allem zu den Tensor-Cores für die ganzen neuen KI-Funktionen in After Effects oder Resolve. Ist das OpenCL, und ist das von der Performance her vergleichbar mit Cuda?
Antwort von iasi:
Nvidia bietet z.B. bei RedRaw die bessere Unterstützung. Man muss wohl je nach Anwendungsfall unterscheiden und entscheiden.
Ich hab zwar auch AMD-Karten verbaut, aber was die Treiber betrifft, fühle ich mich mit Nvidia wohler - ist also eher eine Gefühlssache.
Letztlich zählt das Preis-Leistungsverhältnis bei der jeweiligen Aufgabenstellung, die die Karte zu bewältigen hat.
Schon deshalb werde ich mir z.B. ProRes-Raw nichts ans Bein binden, denn hier sind die Systemanforderungen eben doch nochmal anders als bei RedRaw oder BRaw.
Antwort von Frank Glencairn:
iasi hat geschrieben:
Letztlich wird nun Nvidia gezwungen, eine Schippe mehr VRAM draufzupacken und vielleicht auch an der Preisschraube zu drehen.
Aktuell eher nicht, die haben so viele Bestellungen, daß sie die nächsten 6 Monate noch damit beschäftigt sein werden diese auszuliefern, danach gibt's sowieso wieder was neues.
Ansonsten müssen wir auch erst mal die Real World Tests abwarten, um zu sehen was die AMDs außerhalb des Gaming Bereichs - auf den sie hinkonstruiert wurden - wirklich können.
Antwort von mash_gh4:
rdcl hat geschrieben:
Daher vielleicht eIne blöde Frage: Was ist denn AMDs Pendant zu Cuda, und vor allem zu den Tensor-Cores für die ganzen neuen KI-Funktionen in After Effects oder Resolve. Ist das OpenCL, und ist das von der Performance her vergleichbar mit Cuda?
realistisch gesehen, geht es bei diesen ML-anwendungen in consumer software normalerweise fast immer nur um verhältnismäßig einfache inferenz-jobs -- also die bloße anwendung bereits fertig vortrainierter modelle --, die man auch auf relativ anspruchsloser hardware befriedigend abwicklen kann, nicht aber um die viel rechenintensivere vorangegangene aufbereitung von riesigen mengen an lernmaterial bzw. optimierung dieser modelle.
prinzipiell lässt sich sicher auch diese aufgabe mit AMD hardware vermutlich ganz gut abwickeln. bisher hatte aber nvidia in diesem bereich eine derart dominierende rolle inne, dass man in den entsprechenden werkzeugen und softwarelösungen kaum wirklich zufriedenstellende bzw. konkurrenzfähige unterstützung jenseits der CUDA basierenden implementierungen findet.