Newsmeldung von slashCAM:Sieht man sich gerade auf den entsprechenden Preisvergleichs-Seiten um (oder liest Distributoren-Pressemitteil...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
28nm Grafikkarten jetzt deutlich günstiger
Antwort von MIIIK:
Ja ich bin z.b. Besitzer einer GTX 980 Ti Super Jetstream und würde jetzt wohl eher eine 2. einbauen anstelle des Upgrades auf eine 1080 Ti irgend wann später im Jahr.
Die 980Ti hat auch genug Leistung und wenn ich Mitte/Ende des Jahres eine 2. für 350€ bekomme ist das mehr als gut.
Antwort von mash_gh4:
Die 980Ti hat auch genug Leistung und wenn ich Mitte/Ende des Jahres eine 2. für 350€ bekomme ist das mehr als gut.
musst dir halt ausrechenen, ob die stromkosten den preisvorteil nicht auffressen ;)
aber ich persönlich kann der raschen generationsabfolge von grafikhardware bzw. der damit verbunden wegwerfgesellschaft auch nicht viel abgewinnen.
Antwort von MIIIK:
Klar - ich sehe den Vorteil im Strombereich. Aber wenn man so anfängt muss man ja echt immer die neusten Sachen nehmen weil nun mal fast jede Generation weniger Strom saugt.
Aber rein Preis/Leistung ist ne 2. 980Ti doch wesentlich Sinnvoller... in meinen Augen zumindest.
Antwort von mash_gh4:
Klar - ich sehe den Vorteil im Strombereich. Aber wenn man so anfängt muss man ja echt immer die neusten Sachen nehmen weil nun mal fast jede Generation weniger Strom saugt.
naja -- ein paar freunde von mir haben eine weile lang in einer alten lagerhalle im großen stil derartige hardware eingesetzt, um bitcoins zu schürfen. meine angesprochen skrupel, wenn es gilt: "strom zu gold zu spinnen", haben sie dabei offenbar nicht gequält. darüber hinaus dürfen sie aber auch wirklich rechnen können, weshalb sie das dann auch wieder genau zum richtigen zeitpunkt aufgegeben haben, als sich investitionskosten und energieverbarauch nicht mehr gerechnet haben. aber wie gesagt, ich gehöre eben auch eher zu jenen spinnern, die sich im winter nicht unbedingt über den halben globus eingeflogenen früchte leisten, etc.
Antwort von Christian Schmitt:
aber wie gesagt, ich gehöre eben auch eher zu jenen spinnern, die sich im winter nicht unbedingt über den halben globus eingeflogenen früchte leisten, etc.
Dann isst du wohl gar keine Früchte im Winter, weil du sicherlich kein Obst aus CO2 Lagerung kaufen würdest oder mit Strom dauergekühltes...
Dosenpfirsiche im Zuckersud vielleicht...?
Back on Topic: Kann jemand abschätzen ob die neuen Karten in alten Mac Pros laufen werden..?
Antwort von mash_gh4:
Dann isst du wohl gar keine Früchte im Winter, weil du sicherlich kein Obst aus CO2 Lagerung kaufen würdest oder mit Strom dauergekühltes...
Dosenpfirsiche im Zuckersud vielleicht...?
ja -- dass die menschheit überhaupt so überleben konnte, ohne all diese annehmlichkeiten? -- ein wunder!
wenn überrascht es da, dass all die weniger spektakulären kulturtechniken der konservierung und des saisonalen haushaltens genauso schnell in vergessenheit geraten wie das maß der zerstörung, mit dem dieser hemmungslose fortschritt erkauft wird.
Antwort von Valentino:
Die RX40 soll laut eines FB-Post von AMD Polen um die 229 Euro kosten, wenn das stimmt wird das der Oberhammer:
http://www.hardwareluxx.de/index.php/ne ... osten.html
Antwort von HollywoodHanky:
War doch klar, dass die RX480 soviel kosten wird. Bis zum 29. Juni kann man also nicht mehr wirklich Breaking News erwarten abgesehen von den Benchmarks, die dann das ganze nochmal untermauern werden. Werde auf jeden Fall 2x ne RX480 in Resolve probelaufen lassen.
@Topic: Ne 980Ti ist jetzt nach dem Drop immer noch nur 20 Euro billiger als eine quasi nicht verfügbare 1070. Also immer noch extrem unattraktiv.
Antwort von CameraRick:
Die RX40 soll laut eines FB-Post von AMD Polen um die 229 Euro kosten, wenn das stimmt wird das der Oberhammer:
http://www.hardwareluxx.de/index.php/ne ... osten.html
Leider ist sie halt auch lahm. Zwei Stück kommen dann vielleicht bei günstigerem Tarif an eine GTX1080 ran, aber Du hast halt auch höheren Strombedarf (ich zB müsste ein neues NT kaufen) und die Nachteile von Multi-GPU mit der Treiberproblematik von AMD kombiniert.
Hatte ja sehr drauf gebaut, dass AMD nach der 10bit Ankündigung mal einen Knaller raus bringt, aber so wird das leider nichts. Wird dann wohl doch wieder eine nVidia.