Glaubhaften Gerüchten zufolge arbeitet Nvidia an einem Refresh seines Grafikkarten Flaggschiffs RTX 3090. Schon bei seiner RTX 20er Serie brachte Nvidia knapp ein Jahr na...
Stolze 5% mehr Leistung bei "nur" 30% mehr Stromverbrauch. Klingt doch gut, oder?
Antwort von MrMeeseeks:
Schon der Kühler der 3090 ist ein absoluter Koloss am thermischen Limit mit einem Spulenfiepen direkt aus der Hölle. War man wohl von der AMD Karten mit nahezu gleicher Leistung bei weniger Verbrauch so geschockt dass man nun zu solchen Mitteln greifen muss um halbwegs Unterschiede erzeugen zu können.
Antwort von Drushba:
Also bei einer 8 Stunden Schicht im Extremfall 3,6 kw. Das mal 20 Arbeitstage ergibt 72kw/Monat. Jetzt noch ein paar Überstunden, dann ist das eine glatte Tesla-Longrange-Aufladung. So geht Klimaschutz.))
Antwort von MK:
Drushba hat geschrieben:
Jetzt noch ein paar Überstunden, dann ist das eine glatte Tesla-Longrange-Aufladung. So geht Klimaschutz.
Natürlich ist es umweltfreundlicher in einer Woche den Strom mit dem Arbeitsgerät zu verbrauchen den ein Model X auf 100 Kilometern verfährt... kommt im Verhältnis gesehen mehr Sinnvolles dabei raus, und der Wirkungsgrad ist auch deutlich höher.
Was an Verlustleistung übrig bleibt spart im Winter die Heizung.
Antwort von TomStg:
Drushba hat geschrieben:
Also bei einer 8 Stunden Schicht im Extremfall 3,6 kw. Das mal 20 Arbeitstage ergibt 72kw/Monat. Jetzt noch ein paar Überstunden, dann ist das eine glatte Tesla-Longrange-Aufladung. So geht Klimaschutz.))
Damit dieser Quatsch nicht unkommentiert stehen bleibt:
So eine Grafikkarte läuft natürlich nicht 160 Stunden pro Monat unter Volllast, sondern vielleicht rd 50%, dh 80 Std = 32KWh.
Ein Tesla Model 3 Long Range braucht auf 100km real rd 20KWh. Da ein privates Auto pro Monat durchschnittlich 1000km fährt, sind das rd 200KWh, dh rd das 6fache.
Antwort von macaw:
TomStg hat geschrieben:
Drushba hat geschrieben:
Also bei einer 8 Stunden Schicht im Extremfall 3,6 kw. Das mal 20 Arbeitstage ergibt 72kw/Monat. Jetzt noch ein paar Überstunden, dann ist das eine glatte Tesla-Longrange-Aufladung. So geht Klimaschutz.))
Damit dieser Quatsch nicht unkommentiert stehen bleibt:
So eine Grafikkarte läuft natürlich nicht 160 Stunden pro Monat unter Volllast, sondern vielleicht rd 50%, dh 80 Std = 32KWh.
Ein Tesla Model 3 Long Range braucht auf 100km real rd 20KWh. Da ein privates Auto pro Monat durchschnittlich 1000km fährt, sind das rd 200KWh, dh rd das 6fache.
Also bei mir läuft meine gpu (nur ne 1070 ti - noch!) vielleicht mal 2 Stunden unter vollast, wenn ich 3D mache oder mit resolve rumspiele. Allerdings bin ich da eine Ausnahme. Leute, die sich so eine Karte kaufen, wollen/werden sie nutzen, zum intensiven arbeiten oder rendern, wo bei letzterem gerne mal die 500 Stunden in einem halben Monat rauskommen können, manche Kollegen haben dann auch mal 4 x 3090er in einem rig drin...
Antwort von Frank Glencairn:
Normal investiert man ja eher in solche Karten um die Renderzeiten zu verkürzen.
Wenn man eine hat die nur halb so viel Leistung hat, dann muß die halt auch doppelt so lange rechnen - Nullsummenspiel also.
Wobei normal nur 3D solche Karten dauerhaft auf Anschlag laufen läßt, und je nach Szene, Renderengine und Programm die Karte auch noch oft genug auf die CPU (oder andere Komponenten) wartet und Däumchen dreht.
Im Videobereich kommt eine 3080/3090 nur ganz selten länger als ein paar Minuten lang auf Vollanschlag, und das meistens nur beim finalen Rendern, währen allem anderen sowieso kaum.
Antwort von patfish:
Naja, dann brauch ich mit meiner 3090 ja bis Ende 2023 nicht upgraden :D