Wer ist bei AMD?klusterdegenerierung hat geschrieben: ↑Do 03 Sep, 2020 08:57Ach, jetzt sind wir plötzlich bei AMD? ;-)
Wer ist bei AMD?klusterdegenerierung hat geschrieben: ↑Do 03 Sep, 2020 08:57Ach, jetzt sind wir plötzlich bei AMD? ;-)
Das steht doch wieder auf einem ganz anderen Blatt, dann kann ich mir auch so eine Monster Nvidia für zig tausend Euro kaufen, darum gehts mir nicht.Frank Glencairn hat geschrieben: ↑Do 03 Sep, 2020 09:49 Die sind nur teuer, wenn du die Leistung nicht brauchst - wenn du Jobs hast, die so ne Leistung erfordern, passt das schon.
Von was redest du denn? Die GTX 680 hat 499€ gekostet, die neue 3080 nur 200€ mehr. Bedenkt man den wesentlich größeren Aufwand der Karte und die Leistung im Vergleich zum Vorgänger, dann sind die 3070/3080 die Grafikkarten die günstigsten der letzten Jahre.klusterdegenerierung hat geschrieben: ↑Mi 02 Sep, 2020 23:47 Stimmt, 700-1000€ ist das gleiche wie 500€.
Der geringere Ausschuss kommt durch eine bessere Fertigung, diese muss ebenfalls bezahlt werden. Das scheinen manche nicht zu kapieren.Frank Glencairn hat geschrieben: ↑Do 03 Sep, 2020 07:49Das Gegenteil ist der Fall. Die Karten sind so billig, weil Samsung weniger Ausschuss hat.MrMeeseeks hat geschrieben: ↑Mi 02 Sep, 2020 23:45
Mal davon abgesehen dass der Preis gerechtfertig ist, fallen für Nvidia wesentlich höhere Kosten an. Die Chips haben viel komplexere Strukturen, sind schwerer herzustellen und der Ausschuss ist größer.
Und ja - ich hab billig gesagt. Wenn man bedenkt, daß wir hier von Karten aus der dritten Klasse reden, die schneller sind als die Flaggschiffe der letzten Generation, sind die tatsächlich billig.
Also doppelte Leistung - quasi zum selben Preis, würde ich jetzt nicht gerade "ausnutzen"nennen - zumal ja keine gezwungen wird die Dinger zu kaufen, AMD hat auch schöne Töchter.klusterdegenerierung hat geschrieben: ↑Do 03 Sep, 2020 10:26
Ich emfinde die Dinger halt als zu teuer für das was sie sind und können und denke das an der Stelle der Verbrauchen auch ausgenutzt wird.
Nein, RTX ist seit der letzten Generation die Bezeichnung der NVidia Geforce Karten. Erst wars noch z.B. GTX1080, dann RTX2080 und jetzt RTX3080. Das R kommt vom Raytracing welches die Karten seit der 2000er Serie beherrschen.klusterdegenerierung hat geschrieben: ↑Do 03 Sep, 2020 09:26 Ist RTX nicht AMD? :-)
Lass uns mal aufhören, ich fand die Dinger halt einfach viel zu teuer. :-)
na ja - Effizienz lässt sich durchaus auch verbessernFrank Glencairn hat geschrieben: ↑Do 03 Sep, 2020 20:26 Das ist wie: Leistung - nein Danke.
Da gibt's halt ein gewisses Verhältnis.
Die Effizienz wurde massiv verbessert.
Der neue Golf verbraucht eben nicht weniger, da er schwerer ist und eben doppelt so viel PS hat.Frank Glencairn hat geschrieben: ↑Fr 04 Sep, 2020 08:27Die Effizienz wurde massiv verbessert.
Währen die Turing Architektur "nur" 25 Millionen Transistoren pro Quadratmillimeter hatte, kommt die Ampere Generation auf 56 Millionen.
Das entspricht 28 Milliarden(!) auf dem ganzen Chip. Und das gilt im Vergleich nicht im Vergleich zu letzten Generation, sondern im Vergleich zur letzten Flagschiffgeneration.
Das entspricht 2,7fache Shader Performance, 1,7fach bessere Raytraicng Performance und 2,7fache Tensorcore Performance, bei einer 1,9fachen Verbesserung der Effizienz per Watt.
Um ein Autobeispiel heranzuziehen: Dein neuer Golf hat weit mehr als doppelt so viel PS wie dein alter Porsche,
ist aber trotzdem billiger als die alte Golf Generation und verbraucht auch noch weniger.
Welchen Teil von "höherem Verbrauch" hast du denn nicht verstanden?Frank Glencairn hat geschrieben: ↑Fr 04 Sep, 2020 08:51 Welchen Teil von "1,9fachen Verbesserung der Effizienz per Watt" hast du nicht verstanden?
Und du scheinst nicht zu verstehen, dass man Effizienz und Leistung auch unterschiedlich steigern kann.Frank Glencairn hat geschrieben: ↑Fr 04 Sep, 2020 09:00 Okay, jetzt ist es klar, du hast das Wort Effizienz nicht verstanden.
Mehr Leistung bei weniger Verbrauch? Also exakt das was die RTX3070 im Vergleich zur RTX208ti macht?
Das ist eben leider nicht immer so einfach.Jörg hat geschrieben: ↑Fr 04 Sep, 2020 09:04 die Milchmädchen sind wach...
durch die höhere Leistung, ergibt sich weniger Zeitaufwand, die Maschinen laufen also für einen Job weniger, die ersparte Leistungsdauer lässt den Energieverbrauch sinken...ganz einfach???
Wer sich aus Umweltschutzgründen über einen Mehrverbrauch einer Graka aufregt,
der hat irgendwas verpeilt.
Zudem mein Strom aus regenerativer Quelle kommt.
Also her mit den "Verbrauchmonstern", incl. SLI.
Die kann nicht nur mithalten, sondern hat sogar ne höhere Leistung.
Und das glaubst du, weil die Speicheranbindung (des eh geringeren Speichers) langsamer ist? ;)Frank Glencairn hat geschrieben: ↑Fr 04 Sep, 2020 09:54Die kann nicht nur mithalten, sondern hat sogar ne höhere Leistung.
warum soll ich mir ne stromfresserkarte kaufen, wenn ich 8K videoschnitt auf nem tablet machen kann?Frank Glencairn hat geschrieben: ↑Do 03 Sep, 2020 20:26 Das ist wie: Leistung - nein Danke.
Da gibt's halt ein gewisses Verhältnis.
1. hier gehts nicht um mich, sondern um den konsumenten an sich. 2. du hast meine frage nicht beantwortet.Frank Glencairn hat geschrieben: ↑Fr 04 Sep, 2020 10:51 Wenn du sowas fragen mußt, dann bist du nicht in der Zielgruppe.
Es wird nicht besser, wenn du es noch öfter behauptest.
According to NVIDIA, the Ampere’s architecture enables a true generational leap in performance. During the launch event, CEO Jensen Huang claimed even the $499 RTX 3070 is more powerful than last gen’s 2080 Ti (which launched at $999).
Wenn der Konsument denkt es gäbe keinen Unterschied zwischen einem Tablett und einer Workstation, dann braucht er keine Workstation (und die Frage einer GPU stellt sich erst gar nicht), sondern kauf sich ein Tablett.nachtaktiv hat geschrieben: ↑Fr 04 Sep, 2020 10:57
1. hier gehts nicht um mich, sondern um den konsumenten an sich. 2. du hast meine frage nicht beantwortet.
ganz genau.Frank Glencairn hat geschrieben: ↑Fr 04 Sep, 2020 11:06Wenn der Konsument denkt es gäbe keinen Unterschied zwischen einem Tablett und einer Workstation, dann braucht er keine Workstation (und die Frage einer GPU stellt sich erst gar nicht), sondern kauf sich ein Tablett.nachtaktiv hat geschrieben: ↑Fr 04 Sep, 2020 10:57
1. hier gehts nicht um mich, sondern um den konsumenten an sich. 2. du hast meine frage nicht beantwortet.
Das Tesla Modell X 100D verbraucht nach letztem Test 24.000 Watt auf 100 Kilometer (Herstellerangabe 20.800 Watt)... da macht eine Grafikkarte die auf Volllast 350 Watt zieht (und im Normalbetrieb deutlich weniger) keinen wirklichen Unterschied...nachtaktiv hat geschrieben: ↑Fr 04 Sep, 2020 11:29 die frage ist also: was machst du: boomer mässig dir n muscle car kaufen mit viel gebrüll und spritverbrauch ohne ende - oder den tesla, der weitaus energieeffizienter is und die alte technik mühelos abhängt?
liegt halt an dir. ich für meinen teil halte schnittrechner, die so viel strom ziehen wie ein badezimmerheizlüfter im jahre 2020 für nicht mehr zeitgemäß.