Frage von myfly555:Hi,
Ich betreibe viel Video editing und 3D-Visualisierung und Rendering. Da mein Rechner nun mittlerweile 5 Jahre alt ist und sich weder CPU noch RAM upgraden lässt, möchte ich mir nun ein neues leistungsstarkes System zusammenstellen, bei dem ich absolut keine kompromisse hinsichtlich performance eingehen will.
Im Budget sind 3000€ brutto.
Software Schnitt: Premiere, Edius, After Effects, bald auch Autodesk Smoke.
Software 3D: Maya
OS: Win7
Anforderung:
- Schnitt von 1080p h264 Material, meist ca. 200GB footages bestehend aus 1000 einzelnen clips.
- Schnitt von 4k komprimiert, 400GB footages...
- Bald: Schnitt von 2k RAW (stichwort black magic cinema camera)
- 3D Visualisierung mit Maya, Partikelsimulation, Highpoly Modelling & Animation, Rendering mit Maya
Mein Angedachtes System:
CPU| 2x Intel Xeon E5-2609, 4x 2.40GHz |
http://geizhals.at/733974 | 2x 270€
Mainboard | Asus Dual Sockel 2011 |
http://geizhals.at/747046 | 450€
RAM | Corsair XMS3 Dominator 32GB |
http://geizhals.at/700920 | 210€
Graka | PNY Quadro 4000 2GB |
http://geizhals.at/555321 | 740€
Netzteil | bequiet 850W |
http://geizhals.at/790591 | 160€
Boot-HDD | Samsung SSD 830 Series 256GB |
http://geizhals.at/740876 | 160€
Schnitt, Daten, Backup HDD | LaCie 12TB Raid USB3.0 |
http://www.lacie.com/de/products/product.htm?id=10601 | 1400€
Unsicher bin ich mir bei dieser konfiguration noch, was das externe Raid betrifft, und diese sehr teure Quadro Grafikkarte.
- Würde man dieses System mit einer herkömmlichen 7200er SATA ausstatten, würde wohl diese den Flaschenhals darstellen. Jetzt stellt sich mir die Frage, was sinnvoller ist: eine 512GB SSD als Schnittplatte, oder ein externes Raid5, was zwar deutlich teurer ist, aber auch gleichzeitig eine Backup Lösung gibt und 3x soviel Speicherplatz. Durchsatz eines Raid5 bzw. Raid0 bringt wahrscheinlich ca. 200MB/s, also gerade mal die Hälfte einer SSD. Trotzdem enough für meine Anforderungen?
- Grafikkarte: Ich finde die Quadro 4000 utopisch teuer und stelle mir die Frage, ob nicht eine 400€ gaming Grafikkarte auch ihre Dienste genauso gut verrichten würde?
- Kann mir jemand ein gutes EEB Gehäuse empfehlen? (EEB = Formfaktor von Dualsockel-Mainboards). Herkkömmliche Gehäuse bieten nur Platz für ATX Mainboards. EEB-Gehäuse gibt es leider nur sehr sehr wenig Auswahl, und die paar die es gibt, sind potthässlich.
Vielen Dank & Liebe Grüße!
Fly
Antwort von DTEurope:
Das System sieht schon ganz gut bis auf die Grafikkarte, die nicht wirklich viel taugt.
Wenn Du im 3D Bereich arbeiten möchtest oder die Mercury Playback Engine nutzen möchtest kommt Du um eine Nvidia Karte nicht vorbei.
Diese muss jedoch keine teure Quadro Karte sein. Ich nutze zum Beispiel die GTX 580 mit 3GB Speicher. Habe noch keine Probleme bei 3D oder in den Adobe Produkten gehabt. Durch mein älteres Motherboard konnte ich leider keine GTX 680 4GB nutzen, die Du derzeit für 549,00 Euro bei Alternate bekommst und ein mehrfaches an Leistung gegenüber der 4000"er Quadro bietet.
Antwort von myfly555:
Das System sieht schon ganz gut bis auf die Grafikkarte, die nicht wirklich viel taugt.
Wenn Du im 3D Bereich arbeiten möchtest oder die Mercury Playback Engine nutzen möchtest kommt Du um eine Nvidia Karte nicht vorbei.
Diese muss jedoch keine teure Quadro Karte sein. Ich nutze zum Beispiel die GTX 580 mit 3GB Speicher. Habe noch keine Probleme bei 3D oder in den Adobe Produkten gehabt. Durch mein älteres Motherboard konnte ich leider keine GTX 680 4GB nutzen, die Du derzeit für 549,00 Euro bei Alternate bekommst und ein mehrfaches an Leistung gegenüber der 4000"er Quadro bietet.
Vielen dank für deine antwort!
Wenn ich für weniger geld mehr leistung bekomme, was ist es denn dann, was bei der quadro den höheren preis rechtfertigt? Was kann sie denn besser?
Du schreibst von 3 bis 4 gb speicher, ist mehr speicher wichtiger als zb höhere gpu taktungen, etc?
Antwort von DTEurope:
Die Qualität der Verarbeitung der Quadro und die Zertifizierung der Quadro Karten spielt hier sicher eine grosse Rolle für deren Preisgestaltung. Desweiteren ist die Quadro Karte (leider) derzeit die einzigste Highend Karte die in einen Mac passt bzw ein Treiber für entwickelt wurde.
GPU Kerne und RAM sind wichtig. Wenn Du oft im 3D Bereich unterwegs bist, wirst Du feststellen das irgendwann keine Polygone mehr in den GPU Speicher passen, daher ist der RAM der Grafikkarte ebenfalls sehr wichtig.
Hier noch eine Auflistungen der Geforce Prozessoren:
http://www.nvidia.de/object/graphics_ca ... ow_de.html
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von myfly555:
Wenn ich für weniger geld mehr leistung bekomme, was ist es denn dann, was bei der quadro den höheren preis rechtfertigt? Was kann sie denn besser?
Der Unterschied ist ganz einfach der:
GTX steht für Gaming, Quadro für die Unterstützung professioneller Grafiklösungen.
Somit ist GTX optimiert für Spiele und da für hohe fps-Zahlen am Bildschirm, was sich letztendlich in meßbarer Performance ausdrückt. Z. B. werden die Treiber permanent auf die Zusammenarbeit mit sehr konkreten Spiele-Titeln hin optimiert. Ein Spiel xy bestimmt also die Verbesserungen im Treiber.
Die Quadros werden auf Zusammenarbeit mit Grafik-, 3D- und Video-Lösungen, wie sie auch Adobe bietet, getestet und optimiert.
Technische Unterschiede zudem:
- GTX-Karten rechnen intern mit 32bit, Quadro mit 64bit Genauigkeit (das ist es letztendlich, was sie gefühlt etwas ausbremst). Damit werden z.B. in der 3D-Verarbeitung Polygone extrem präzise berechnet, ebenso die Farben, die nun nicht auf 8bit- sondern auf 64bit-Genauigkeit basieren. Um ein RGBA-Pixel zu berechnen werden also nicht 32 Bit (4x8), sondern 256 Bit im Speicher bewegt. Zudem können größere Blöcke für Interpolationsverarbeitungen gebildet werden. Usw.
- wer 10bit-Ausgabe auf dem Monitor braucht, kommt um Quadro nicht herum.
Ob man diese Unterschiede letztendlich sieht, hängt von der Aufgabe ab. Quadro richtet sich eben an professionelle Lösungen, wo i. d. R. komplexe Aufgaben in hoher Qualität zu lösen sind.
Beste Grüße,
Reiner
Vielen Dank! Sehr aufschlussreich!
Ist denn nun aber eine Quadro, abgesehen von der Genauigkeit der Darstellung der Pixel und der Farben, bei gleichen GPU Recheneinheiten und RAM wie bei einer GTX schneller, was die Darstellung, den Bildaufbau in einem 3D-Programm wie zb. Autodesk Maya betrifft? Also wenn beide Grafikkarten gleiche CPU und RAM Taktung haben und auch gleich viel Ram, habe ich dann dennoch mit der Quadro mehr FPS im Maya 3D-Raum? Ja, auch bei 3D-Visualisierung braucht man "viele" FPS, nicht nur beim Gaming. Wünschenswert wäre eben immer, das man eine Animation im Maya Viewport zumindest mit 25fps abspielen kann. Werden also extrem komplexe highpolygonale objekte dargestellt und animiert, dann kann es sein das bei schwachen grafikkarten die FPS rate unter 25 liegt, dann ruckelts, dann muss man die animation jedesmal rausspielen um sie flüssig betrachten zu können. Darum ist natürlich eine ordentliche leistungsreserve bei der grafikkarte wünschenswert.
Antwort von dienstag_01:
Kurz kann man sagen:
die Hardware beider Grafikkarten ist gleich, Unterschiede gibt es bei der Software (den Treibern). Die eine, GFX, ist optimiert für flüssige Darstellung, die andere, Quadro, für genaue. Unterschiede wirst du eher nicht wahrnehmen, vielleicht am ehesten, wenn du mit komplexen Drahtgittermodellen arbeitest. Wenn da die Linien nur noch flimmern, wirds kritisch.
Edit: Polygone und Texturen sind im Kontext von Video völlig uninteressant. Und auch bei Programmen wie Maya macht das die Software und wird nicht wie bei Spielen einfach der Grafikkarte überlassen. Vielleicht macht es Sinn für eine schnelle (ungenaue) Vorschau, weiss ich nicht.
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Glaub ich ehrlich gesagt nicht. Man sieht ja, mit was für Omas von Grafikkarten man in diesem Bereich arbeiten kann (wenn man will). Dauert die Berechnung eben zur Not etwas länger. Ein Videospiel wäre da schon unspielbar. Ist für mich ein klares Zeichen, dass die Software das erledigt. Heutzutage sicher mit der Unterstützung der Grafikkarte (Bsp. Cuda), funktioniert aber auch ohne. Ist ja auch logisch, ausgegeben wird ein 2D Video und kein Script, welches die Grafikkarte rechnen lässt.
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Was wolltest du mit deinem Beitrag jetzt sagen?
Ist für mich ein klares Zeichen, dass die Software das erledigt.
Das ist ganz einfach so, weil es in den Applikationen so programmiert ist.
Aha, du übersetzt meinen Text in denglish.
Nur zur Erinnerung, es ging hier um Polygone und Texturen. Und was du schreibst, bestätigt genau das: diese Denken aus der Spielewelt hat hier nicht zu suchen.
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Dienstag, es fällt mir immer wieder schwer, zu verstehen, worauf Du hinaus willst.
Worum es geht:
Der TO schrieb, dass er mit Maya arbeiten wird. In diesem Kontext wurde von ihm und anderen von Polygonen gesprochen. Da GFX Karten für Spiele optimiert sind (mal sehr vereinfacht) könnte man jetzt meinen, dass damit diese Karten auch für Maya optimal seien. Dieses Denken wäre nicht richtig.
Maya und ähnliche Programme rechnen ihre interne Vektorgrafik für die Ausgabe in Pixel-(Rastergrafik) um. Also für einen Film. Computerspiele übergeben Vektorgrafik an die Grafikkarte und lassen die Synthese zum Bild dort stattfinden. Dazu benutzen sie sozusagen festverdrahtete Rechen- und Speichereiheiten. Deshalb sind sie so schnell und können auf Nutzeraktionen reagieren (Sie haben eben keine *fertigen* Pixel abgespeichert)
Deshalb schrieb ich, dass diese Denkweise hier keine Rolle spielt.
Deshalb schrieb ich, dass man prinzipiell auch mit eine relativ schwachen Grafikkarte in Programmen wie AE oder Maya zu einem qualitativ hochwertigen Ergebniss kommen kann.
Was ich allerdings nicht geschrieben habe, ist, dass die Grafikkarte nichts bringt. Das ist deine Interpretation.
Vektorgrafik und Rastergrafik, um diesen Unterschied ging es mir. Sorry, dass ich das für dich so unverständlich ausgedrückt hatte ;)
Antwort von zaungast:
Hallo myfly555,
wenn ich dich richtig verstehe, möchtest Du, dass die Quadro deinen "Viewport" beschleunigt, richtig?
Nun, ich arbeitete zwar noch nicht mit Maya aber mit 3dsmax 2010/11/12. Ist die gleiche Gang allerdings weiß ich nicht, ob man diese Erfahrungen einfach so auch auf Maya übertragen kann.
Ich habe mir mal den Spaß gemacht und mir vor einem Jahr eine gebrauchte Quadro FX 4600 mit 768 MB Ram geholt (Der Neupreis betrug bei der Einführung 2007 ca. 2000 Euro).
Der Hintergrund war, dass mir die "Viewport perfomance" beim Navigieren schlicht auf dem Sack ging. Ich glaubte, dass wenn ich meine künstlich kastrierte Geforce 9600 GT mit 512 MB Speicher gegen diese "tolle" und zertifizierte Quadro Karte austausche, dass sich dadurch meine "Viewport perfomance" deutlich erhöht, da beide Karte mehr oder weniger aus dem gleichen Baujahr sind.
Hinzu kommt, dass für die Quadros spezielle Treiber programmiert werden, die angeblich deren Preisaufschlag rechtfertigen sollen (+ natürlich der "Kundensupport" ;-).
Fazit:
Testszene in 3dsMax 2011 mit der Geforce 9600 GT = 10-12 Frames im Viewport. Gesamtstromverbrauch beim Modellieren 120 Watt und beim Rendern 170 Watt.
Die gleiche Szene mit der Quadro FX 4600 = 10-12 Frames ! Gesamtstromverbrauch beim Modellieren 165 Watt und beim Rendern 220 Watt !!! Allerdings sehen die Lichter, Schatten und Geometrie auf meinem popeligen Eizo Ev2333 WIRKLICH besser aus. DAS ist der Vorteil.
Ob dies allerdigs einen Aufschlag von mehr als 1800 Euro rechtfertigt, muss jeder selbst entscheiden. Der deutliche erhöhte Stromverbrauch ist auf die Monate gesehen auch nicht zu unterschätzen.
Das wollte ich nicht glauben und habe die gleiche Szene in 3dsMax 2012 geladen und staunte nicht schlecht.
Es gibt keinen speziellen Quadro Treiber mehr für diese Version! Wie geil. Zuerst wird das Argument angeführt, dass die Quadros so einen geilen "Support" haben und sich deswegen von den "Gamerkarte" unterscheiden, und nun wird dieser Mehrwert einfach gestrichen!
Wäre ich ein Käufer der ersten Stunde und hätte mir damals die Quadro zum Neupreis gekauft, so wäre ich heute ziemlich angepisst.
Natürlich kann man jetzt argumentieren, dass die FX 4600 eine alte Oma ist, doch die Preispolitik der Quadros gegenüber der Consumerversion und deren tatsächliche Mehrwert wird bei diesem Beispiel trotzdem deutlich.
Viele der "3D-Artists" kaufen meistens keine Quadros mehr, sondern holen sich stattdessen jedes Jahr die beste "Gamerkarte" mit genügend Speicher.
Beste Grüße
zaungast
Antwort von DTEurope:
kann die Aussage von Zaungast mal 1000% unterschreiben.
Je nach Programm, in meinem Fall Blender, wird das rendering direkt von der GPU übernommen. Ich denke bei v-ray ist es ähnlich.
Selbst die schnellste Quadro Karte kommt derzeit nicht an meine 580 GTX im Bereich Rendern mit Cycles ran.
Antwort von DTEurope:
hier hast Du zumindest bezogen auf 3D mal einen Anhaltspunkt was die Quadro Karten leisten und GTX Grafikkarten:
http://blenderartists.org/forum/showthr ... -benchmark
Auf der Seite solltest Du ein Excel Sheet finden mit allen relavanten Daten:
Antwort von myfly555:
hey vielen dank leute, für die großartige resonanz! ist echt ein tolles forum hier. habt mir sehr geholfen, auch viele hintergrundinfos durch die obige diskussion.
Allerdings sehen die Lichter, Schatten und Geometrie auf meinem popeligen Eizo Ev2333 WIRKLICH besser aus. DAS ist der Vorteil.
Zaungast, diese aussage bezieht sich aber NUR auf die darstellung im viewport, NICHT auf das finale rendering, richtig? Andernfalls würde mich das ziemlich umhauen. Hätte das auch noch nie gehört, dass das fertige rendering abhängig gut aussieht von der verwendeten grafikkarte.
Danke für deine vorangegangene forschungsarbeit. Damit hast du mir auf alle fälle viel ärger, geld und zeit gespart!!
Antwort von myfly555:
vielleicht findet sich ja nun noch jemand, der sich zum thema schnitt & raid vs ssd etwas sagen kann ...
die anforderungen, was geschnitten wird, stehen ganz oben.
thx folks!
Antwort von marwie:
Warum eigentlich 2x Intel Xeon E5-2609 ? Ein Intel Core i7-3930K kostet etwa gleich viel und die Leistung ist va. wenn nicht alle Cores ausgelastet sind, höher. http://www.cpu-world.com/Compare/299/In ... -2609.html der i7-3930k hat eine höhere Taktrate und unterstützt Turbo Boost und Hyper-Threading. Die E5-2609 ist ausserdem eine Server CPU und nicht unbedingt für Desktop Anwendungen gedacht.
Ausserdem hast du dann auch nicht mehr das Problem mit dem Gehäuse.
Antwort von zaungast:
@myfly555
Leider ja! Die Quadro hat KEINEN Einfluss auf das finale Rendering. Das ist ja der Witz an der Sache. Man kauft eine völlig überteuerte Karte (Faktor x10) und bekommt dafür lediglich eine verbesserte Darstellungsqualität im Viewport. KEINE Beschleuinigung, sowohl im Viewport, als auch im Bezug auf das Rendering.
Antwort von myfly555:
Warum eigentlich 2x Intel Xeon E5-2609 ? Ein Intel Core i7-3930K kostet etwa gleich viel und die Leistung ist va. wenn nicht alle Cores ausgelastet sind, höher. http://www.cpu-world.com/Compare/299/In ... -2609.html der i7-3930k hat eine höhere Taktrate und unterstützt Turbo Boost und Hyper-Threading. Die E5-2609 ist ausserdem eine Server CPU und nicht unbedingt für Desktop Anwendungen gedacht.
Ausserdem hast du dann auch nicht mehr das Problem mit dem Gehäuse.
Hm. Das ist ein berechtigter Einwand. Und du hast mich echt zum Grübeln gebracht. 6 Cores mit höherer Taktung für 520€, zudem spare ich mir ein sauteures dualcore-mainboard, statt den 2x4 cores mit niedrigerer taktung plus utopisch teures mainboard ... hmmm ... Ich hätte eben allein schon deswegen ein dualsockel-mainboard genommen, um hier mal upgraden zu können, zb 2 stück 8core xeons reinstecken zu können, wenn die preise mal fallen...
Warum genau ist eine ServerCPU nicht für Desktop Anwendungen gedacht? Was genau "kann" eine ServerCPU im Desktop bereich weniger gut, als eine Desktop CPU?
Ich habe sehr oft sog. rendering-jobs von 3d-animationen. Dabei wird dann die eigentliche Anwendung geschlossen und eine Batch Applikation gestartet, die im Hintergrund läuft. Dabei werden alle verfügbaren cores aufs härteste beansprucht. Je mehr cores, desto besser. Dieser Batch-Dienst ist imho eine Server-Applikation und hier ist doch eine Xeon CPU sicher sinnvoll investiert. Jedenfalls haben alle Renderfarmen die ich kenne, Xeon CPUs ...
Leider ja! Die Quadro hat KEINEN Einfluss auf das finale Rendering. Das ist ja der Witz an der Sache. Man kauft eine völlig überteuerte Karte (Faktor x10) und bekommt dafür lediglich eine verbesserte Darstellungsqualität im Viewport. KEINE Beschleuinigung, sowohl im Viewport, als auch im Bezug auf das Rendering.
Danke für deine Antwort. Somit weiß ich, was zu tun ist. Quadro macht keinen Sinn für mich. Ich hole mir eine nvidia Gamer Karte für max. 550€.
By the way finde ich es aber auch gut, dass das finale rendering sich in der qualität nicht unterscheidet, abhängig von der eingesetzten grafikkarte. Überlege mal, wie schlimm das wäre. Dann wären die ganzen jungen Artists, die noch nicht wirklich viel Kohle haben um sich eine 1000€ Grafikkarte zu kaufen, gar nicht mehr in der Lage, erstklassige Ergebnisse zu erzieheln, weil sie mit ihren "billigeren" Grafikkarten schlechtere renderings bekommen. Das wäre schon ziemlich übel.
Aber natürlich verstehe ich auch deinen Standpunkt. Wenn man 10x soviel bezahlt, möchte man auch 10x soviel Leistung/Produkt dafür bekommen.
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Das CUDA aber das Render-Ergebnis verändert, wird gerne überlesen. Obwohl Adobe das auch schreibt. Und es wird übersehen, obwohl man es sehen kann.
Es wäre schön, wenn du das mal belegen würdest. Wo steht das bspw. bei Adobe.
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Interessant, war mir wirklich neu. Bezieht sich aber nur auf Premiere und, soweit ich nicht noch mehr verpasst habe, auf diesen einen Effekt.
Ich arbeite ja meistens mit Avid und dann und wann mit AE. Dort (AE) gibt es sowas nicht, wäre für mich auch ein KO-Kriterium für diese Software. Ich kann immer damit leben, mit weniger optimaler Hardware mehr Zeit investieren zu müssen, aber damit auch Qualitätseinbußen hinnehmen zu müssen, wäre nicht akzeptabel (Noch dazu, wenn ich mich erst durch Blogs wühlen muss, um davon etwas zu erfahren. Sonst steht ja nirgendwo bei Adobe und Nvidia, sie MÜSSEN für maximale Renderqualität eine zertifizierten Karten vewenden). Und so war das auch immer.
Aber vielleicht läutet Adobe gerade einen Paradigmenwechsel ein. ;)
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Eigentlich geht es ja hier nicht um CUDA ja oder nein, sondern um Quadro oder GFX. Und in dem Zusammenhang gehe ich (aber nicht nur ich) davon aus, dass es es da vom gerenderten Ergebnis her keine Qualitätsunterschiede gibt. Der verlinkte Eintrag beschreibt nun einen Unterschied zwichen CPU only und CPU+GPU Modus. Für Premiere, nicht für AE. Das hat mit dem vom TO aufgeworfenen Thema aber nur noch sehr am Rande was zu tun. Wundern tuts mich trotzdem (bissel). ;)
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von Alf_300:
@
Warum sollten Karten, die leistungsstärkere Verfahren nutzen, kein besseres Ergebnis liefern?
Am PC Bildschirm mag das (vielleicht) stimmen, auf der Festplatte und später am TV oder der Blu Ray aber eher weniger.
Wärs nämlich so dann wäre längst ein Boom zu SuperNvidia und Premiere oder NLEs die das unterstützen ausgebrochen
Wenn aber Das Bild währebd der bearbeitung am PC Besser ist als das Ergebniss auf Blu Ray ist das ein Nachteil
Ansonsten bleibts dabei: Merury Playback Engine
Antwort von dienstag_01:
Wenn nun zwei Karten antreten, die im Grunde identisch sind, die sich aber bei der Verarbeitung der Operationen derart unterscheiden, dass Präzision und Genauigkeit betroffen sind, dann wird sich das auch zwangsweise im Ergebnis niederschlagen.
Das ist ja auch typisch für den Computer: ein Rechner mit 4 Kernen rendert qualitativ schlechtere Videos als einer mit 8 oder 16. So funktioniert das doch nicht. Adobe schreibt nichts darüber. Und Nvidia, die ja ein starkes Interesse daran haben müssten, ihren wirklich extremen Aufpreis zu rechtfertigen, benennen das auch nicht.
Lassen wirs.
Antwort von Jörg:
meine Güte Dienstag,
das darf doch nicht wahr sein, was Du für unglaubliche Beiträge loslässt.
Wenn es Deine interne Daseinsbestimmung ist, alle Zweifel dieser Erde auf Deinen Schultern zu tragen, dann ist das tragisch.
Aber verschone doch bitte den Rest der Welt mit Deiner Qual...
Es ist völlig egal, worum es bei Adobe geht, Du weißt es besser, nutzt es aber kaum.
Ob Cuda, MPE, ob SSD oder Raid, alle Deine Beiträge zielen darauf ab, die Nutzer zu bemitleiden, ihre Entscheidungen zu kritisieren, ihre Erfahrungen in Frage zu stellen, die ihren Job mit perfektem Werkzeug ausüben.
Völlig losgelöst von ALLEN Argumenten, die sie vorbringen.
Du bezweifelst alles.
Mach doch einmal Nägel mit Köpfen:
arbeite doch mal mit den besagten Programmen, vor allem mit der beschriebenen Hardware.
Tue es einmal, arbeite damit und mutmaße nicht nur.
Lass das Wiederkäuen Deiner zigmal widerlegten Thesen, schaue es Dir selber an.
Dein danach hingemurmeltes "habt Recht gehabt, Jungs " würden wir mir gelassenem Kopfnicken zur Kenntnis nehmen...
Antwort von dienstag_01:
Hallo Jörg, schön das du dich mal wieder konstruktiv zurückmeldest ;)
Du scheinst ja einer von denen zu sein, die finanzielle Frage ganz nach hinten stellen. Kann ich nicht. Will ich auch nicht. Deshalb dürfte ja von mir (und unter anderem auch dem TO) die Frage erlaubt sein, lohnt sich der Aufpreis für eine Quadro im Gegensatz zu einer GFX. Zumal ich zur Vorschau sowieso eine Matrox Mini nutze. Reiner M behauptet nun, die bringt nicht nur was für die Vorschau, sondern auch im Ergebnis. Und laut dir Jörg, muss ich ihm glauben. Oder so eine Karte kaufen. Aber nicht zweifeln, niemals. Auch wenn das Adobe und Nvidia nicht beschreiben. Ich weiss nicht, ob das so ein guter Ratschlag für mich (und andere) ist.
Aber ich werd nochmal drüber schlafen, versprochen.
Wenn ich mich an die Raid-Diskussion richtig erinnere (die ja eine SSD-Diskussion war), kam letztendlich raus, dass Reiner M einen 10%igen Geschwindigkeitvorteil erzielte, bei AVCHD Material, und darum ging es. Ich alle Zweifel dieser Erde Tragender bin nach wie vor der Meinung, man sollte das bei seinen Empfehlungen nicht vergessen zu erwähnen (macht nach meiner Kenntnis Reiner M inzwischen auch).
Sei mir nicht böse. Hilf mir (uns) schwer Beladenen lieber.
Edit: Übrigends arbeite ich gerade mit AE. HOFFENTLICH wird das mit meinem Scheiß-Rechner irgendwie gut. Wenigstens n bissel ;)
Antwort von Alf_300:
Was gibts auszusetzen am @Dienstag, wenn er meint die Qualität wird mit anderer Graka nicht besser ?
Neue Karten haben bestenfalls mehr Rechenoperationen implementiert so das Sie bestimmte Berechnungen schneller oder überhaupt ausfürhren können sofern Mainconcept oder die CPU den Befehl dazu gibt.
die Bugliste von Nvidia ist aber recht lang und wöchentlich erscheint der endlich funktionierende Supertreiber.
Aber wenn es die Graka macht, mal schaun ob ich Schwarz/weiss Videos kriege wenn ich das Profil wechsle
Und vielleicht kann man Hüpfvideos erstellen wenn am Bikdschirm Ruckelt
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Kommt noch. In 10 Jahren hat sich das Problem verabschiedet.
Absolut. Dann sind sie auch bezahlbar ;)
Antwort von Jörg:
Was gibts auszusetzen am @Dienstag, wenn er meint die Qualität wird mit anderer Graka nicht besser ?
Es gibt daran auszusetzen, dass es A nicht stimmt, und B, dass es Vermutungen von ihm sind, die er in keiner Weise verifizieren kann,. da seine hardware es nicht zulässt.
Dazu kommt C; dass Ergebnisse von Nutzern, die sich dieser hardware bedienen, ständig in Frage gestellt werden.
Schaut euch in den bekannten benchmark tests den Platz an, auf dem Reiners Rechner rumdümpelt, danach sind performancefragen eher überflüssig.
@Dienstag
Ja, ich gehöre zu den Leuten, die sich in erster Linie damit befassen, was habe ich vor zu tun, welche Aufgaben warten, womit erreiche ich das qualitativ beste Ergebnis.
Dann kommt die Frage, was kostet das und rentiert sich das.
So sollte es zumindest jeder Gewerbetreibende oder Freiberufler machen.
Hier habe ich relativ feste Parameter, die mir bekannt sind, ich kenne die Kosten und die zu erwartenden Ertragsituation.
Ganz anders sieht das im Hobbysektor aus, hier entscheidet allein der Wille (und die wirtschaftliche Kraft ) über die Bereitschaft der Investition.
Das bleibt jedem überlassen, gemäß seinen Fähigkeiten zu handeln.
Das Problem ist hier halt, dass Fakten, die genannt wurden, immer wieder bezweifelt werden, ganz egal, ob es bewiesen werden kann oder nicht.
Und nein, ich nutze immer noch keine Quadro-oder SLI Karten ( auf die Diskussion in Verbindung mit AE freue ich mich auch schon ;-(()
der nächste Rechner wird damit aber bestückt sein, wenn ich den Eindruck habe, die Möglichkeiten von AE in Verbindung mit raytracing, 32 bit Farbtiefe und 4 K Material verstärkt und in zeitnaher Fertigstellung ausnutzen zu wollen.
Wenn es dann wohl bald soweit ist, bin ich jedenfalls heilfroh, hier schon so detaillierte Fragen beantwortet bekommen zu haben, nicht selber das Rad neu erfinden zu müssen, was die config angeht.
Und nein, hier soll niemand davon abgehalten werden, sein Werkzeug NICHT nach der Spitze auszurichten, es soll ihm nur nicht suggeriert werden, dass diese Spitze nicht existent ist, bzw nur von Geldverschwendern genutzt wird.
Das Gegenteil ist der Fall; wer sich solche Rechner leistet, kalkuliert im Geschäftsleben knallhart, dem Hobbyanwender ist sein Hobby dann eben diesen Aufpreis wert.
Antwort von Alf_300:
@Jörg
Es gibt hier auch einen thread in dem ich mich Mit der Hardware von @Reiner_M auseinandergesetzt habe, tolle Maschine da gibts nichts zu mekern und für die Anwendungen von Reiner_M und auch für die des TO bestens geeignet da war allerdings nicht die Rede davon dass man mit GraKas die Qualität der Videos verbessern kann.
denn die wird meiner Meinung nach von den jeweiligen Einstellungen des Codecs bestimmt.
Antwort von dienstag_01:
Was gibts auszusetzen am @Dienstag, wenn er meint die Qualität wird mit anderer Graka nicht besser ?
Es gibt daran auszusetzen, dass es A nicht stimmt, und B, dass es Vermutungen von ihm sind, die er in keiner Weise verifizieren kann,
Kurzes Insert: Ich hab hier im Forum wirklich schon viel gelernt, von dir Jörg, von Reiner M, von anderen.
Und nein, ich nutze immer noch keine Quadro-oder SLI Karten
Bin sprachlos. (Beinahe.) Woher, lieber Jörg, stammen dann deine Kenntnisse? Oder hast du vielleicht gar keine? Null? Nichts? Njente?
Hier kommen mir schon wieder Zweifel ;)
Kleiner Vorschlag: du liest dir den Thread nochmal ganz in Ruhe durch, blendest mal aus, was dich an meiner Art der Argumentation stört und achtest nur auf die Fakten. Und wenn du dich dann weiter an der Diskussion beteiligen möchtest, BELEGST du ganz einfach deine Behauptungen. Mehr nicht. Freut sicher nicht nur mich (siehe Alf_300).
Antwort von wolfgang:
Die Benutzung von CUDA oder nicht CUDA beim Rendern kann natürlich die Qualität beeinflussen. Die gesamten Berechnungen laufen ja unter Benutzung der GPU ab - und damit ist es hier sehr wohl möglich, dass auch unterschiedliche Ergebnisse erkennbar sind. Auch wenn man das durchaus auf die Implementierung dieses anderen Renderwegs zurück führen kann.
Es gibt Werkzeuge, die eine Quadro-Karte für eine gehobene Vorschau brauchen. Bei Vegas etwa ist das für 3D noch immer über Quadro Karten festgelegt - wenn man auch gleichzeitig editieren will, und gleichzeitig die 3D Vorschau haben will. Dass die Karten technisch eher gleich zu GTX-karten sind, die Unterschiede nur in den Treibern sind, ist auch bekannt. Aufgrund des höheren Preises würde ich die Quadro Karten nur dann einsetzen, wenn das wirklich notwendig ist (also für die verwendete Software tatsächlich so spezifiziert ist).
Ich weiß nicht, ob die hier verwendete Software das Ein- und Ausschalten von CUDA beim Rendern erlaubt. Das wäre aber der sicherste Weg, um hier Qualitätseinflüße ausschalten zu können.
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Es geht hier nicht darum, dass die Grafikkarte grundsätzlich die Qualität eines Videos verbessert. Also Video rein, einmal durch die Grafikkarte durch, Video ist besser. Das wäre Quatsch.
Aber genau das behauptest du doch an verschiedenen Stellen.
Siehe:
Für all diese Berechnungen kann sich das Ergebnis einer GTX-Karte von dem einer Quadro-Karte unterscheiden. - Muss aber nicht.
Könnte noch von anderen Stellen zitieren.
Glaubst du denn wirklich, was Adobe über CUDA berechnen lässt, kann die Software nicht genauso genau CPU only berechnen (bei längerer Renderdauer)?
Glaubst du denn wirklich, Adobe zertifiziert GFX-Karten und verrät niemandem, dass damit minderwertige Ergebnisse erzielt werden?
Die würden sich doch selber aus dem Rennen nehmen.
Antwort von Alf_300:
Danke @Reiner, ganz schön Lang ;-)
Aber es passt denn ich wollte sowieso mal nachfragen wie das bei anderen Programmen ist die Du so benutzt, da hab ich jetzt Antwort genug.
Den TO wirds auch freuen weil ja in der Überschrift steht Videoschnitt und 3D-Renderíng
@Dienstag
Wenn Adobe das CS6 zertifizieren kann, dann kann es das auch bei Grakas ;-)
Antwort von dienstag_01:
@Dienstag
Wenn Adobe das CS6 zertifizieren kann, dann kann es das auch bei Grakas ;-)
Den Satz versteh ich jetzt beim besten Willen nicht ;)
Antwort von Alf_300:
@Dienstag
Hast nicht gelesen vom unglaubliche Qualitäts und Performancesprung den CS6 macht ?
Antwort von dienstag_01:
@Alf_300
Performance ja, hab ich gelesen. Qualität nicht. ;)
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Aber genau das behauptest du doch an verschiedenen Stellen.
Dienstag, das habe ich nirgends behauptet und werde es auch nicht tun!
Ist das Absicht? Selbst wenn ich das ausdrücklich hinschreibe, mit klaren Worten, wie ich meine, wie jetzt hier und in dem von Dir erwähnten Zitat und Du dann glatt das Gegenteil unterstellst: Bitte, was soll ich davon halten? Was bezweckst Du?
Und was meinst du dann damit:
Wenn nun zwei Karten antreten, die im Grunde identisch sind, die sich aber bei der Verarbeitung der Operationen derart unterscheiden, dass Präzision und Genauigkeit betroffen sind, dann wird sich das auch zwangsweise im Ergebnis niederschlagen.
Aber egal: Wenn du jetzt sagst, alles ein Missverständnis, das gerechnete Video profitiert qualitätsmäßig nicht von einer Quadro (im Gegensatz zu einer GFX), dann sind wir einer Meinung.
Solltest du das nicht sagen, solltest du aber auch nicht behaupten, du würdest das nicht sagen ;)
Denn dann wirds absurd ;)
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Wir drehen uns im Kreis. Einmal behauptest du es so, dann wieder so.
Schade nur, dass Adobe und Nvidia uns nicht an deinen Erkenntnissen teilhaben lassen ;)
Schön finde ich auch den hier:
Teilweise, weil es über CPU nicht machbar wäre (Intrepolationsverfahren).
Ist dir gelungen. ;)
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
@Reiner M
Ich werde den Rendertest nicht machen, keine Zeit und kein Interesse. Sind ja eh zwei verschiedene Algorithmen, das besagt nichts.
Und ja, ich habe nicht vergessen, dass ich von dir gelernt habe, dass in Premiere ein einziger Effekt mit einem anderen Algorithmus berechnet wird, wenn CUDA verwendet wird oder nicht. Das sagt nichts über Quadro vs GFX. Das sagt nichts über andere Effekte. Das sagt erst recht nichts über After Effects. Und darüber sagt auch niemand anderes was ausser du.
Und auch, wenn deine Aussagen *durchgehend gleich* sind, scheinbar verstehe nicht nur ich sie falsch (oder richtig, weiss es jetzt selber nicht mehr so genau ;)), sondern auch andere Beteiligte wie Alf_300. Der hat ja nun auch mehrmals nachgehakt.
Antwort von Jörg:
ach Gottchen Dienstag, bist Du nun wirklich so naiv oder tust Du nur so, um leute zu veralbern???
Bin sprachlos. (Beinahe.) Woher, lieber Jörg, stammen dann deine Kenntnisse? Oder hast du vielleicht gar keine? Null? Nichts? Njente?
Ich muss doch in meiner privaten Hexenküche keine Quadro installiert haben,
um zu wissen, wie sie arbeitet.
ich habe auch keine U Bahn im Keller, und weiß, wie sie fährt.
Ich habe Zugang zu so jeder config, die es gibt, die meisten habe ich selber gebaut, oder veranlasst.
ich lass das mal sein, das Wetter ist zu gut um Korinthen zu kacken...
Antwort von dienstag_01:
Nein, Jörg, du hast recht, warum soll ich nicht einfach mal den Hut ziehen vor dir. Mach ich. Hiermit. ;)
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von dienstag_01:
Kein Interesse?
Nehmen wir einen Effekt wie Noise Reduction von Neat Video. Dort kann ich einstellen, ob ich zur Berechnung nur das aktuelle Bild oder aber bis zu jeweils 4 Nachbarbilder einbeziehen möchte. Das sind verschiedene Algorithmen. Und so verhällt sich das auch mit anderen Effekten. Das da unterschiedliche Ergebnisse entsehen, verwundert wohl niemanden. Das ist aber überhaupt nicht auf einen Unterschied von Quadro und GFX zu übertragen. Wieso auch.
Keine Zeit?
Manchmal rechnet mein Rechner eben auch - und sicherlich länger als deiner :(
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von MK:
Ich würde mal behaupten die beiden Beispielbilder unterscheiden sich nicht nur im Renderer... wo sind beim Raytraced-Beispiel die Farben und andere Elemente hin? ;-)
Antwort von dienstag_01:
Das Beispiel ist in etwa so aussagekräftig, wie der Vergleich von bspw. einem Clip mit Gaussian Blur und einem mit Radial Blur und die Übertragung der Ergebnisse auf die Qualität der Grafikkarte. Nämlich gar nicht. Aber sieht schön aus ;)
Antwort von Alf_300:
@Reiner_M
50 Sekunden hast Du für den SlashCam Rendertest gebraucht.
bei mir waren es 69. Das ist im Grunde der unterschied in der Prozessorleistung. Hat bei dem Test die Graka und SSD grade Pause ?
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von Alf_300:
Wenn das wirklick o flutscht wie Du schreibst - was macht man dann mit der freien Zeit ?
Zum Schluß hab ich aber noch einen Vorschlag falls man genügend Plstz hat ;-)
http://de.wikipedia.org/wiki/Avatar_%E2 ... d_Software
Hard- und Software
Für diese neuartigen Techniken war leistungsstarke Hardware vonnöten: 35.000–40.000 wassergekühlte Prozessorkerne, 105 Terabyte Arbeitsspeicher und 2 Petabyte Festplattenplatz. Trotz dieser Leistung benötigten einzelne Szenen 48 Stunden zum Rendern, wobei bei einer Filmminute 17,3 Gigabyte Daten anfielen. Angeschlossen war die Serverfarm an ein 10-Gigabit-Netzwerk Als Renderfarm kam das freie Betriebssystem Ubuntu (Linux) zum Einsatz Für den Filmschnitt wurde Software von Avid verwendet
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von Alf_300:
Je nachdem was man so treibt dauert es
Einzige Rettung ist ein zweier Rechner, oder ein tolle Forum ;-)
Antwort von Reiner M:
Lorem ipsum dolor sit amet, consectetuer adipiscing elit.
Antwort von freezer:
Um nochmals auf den Unterschied Quadro vs. Geforce einzugehen,
hier die Infos aus erster Hand:
http://nvidia.custhelp.com/app/answers/detail/a_id/2099
Und der "Technical Brief" von 2003 (scheint sich aber nix geändert zu haben):
http://www.nvidia.com/attach/1006974.ht ... rimitive=0
Sprich es ist in den meisten Fällen nur für CAD-Anwender ein Vorteil durch die Quadros gegeben.
Weitere Ausnahmen bei diesen Anwendungsfällen:
* Quadro mit HD-SDI Ausgängen
* 10-Bit Ausgänge für User mit entsprechenden 10-Bit Schirmen (da macht der Preis der Quadro das Kraut auch nicht fett)
* Lookuptable für mehrere Monitore bei Kalibration in der Karte (besser sind Monitore mit eigenen Lookuptables); Geforce kann Lookuptable nur für einen Monitor laden
* extreme Grafikkartenspeicher-Ausstattung von nöten
In allen anderen Fällen ist eine Geforce gleichwertig und günstiger.
Die offiziellen Quadrotreiber lassen sich übrigens mit einer kleinen Modifikation im Installerscript (Änderung der ID) auch problemlos für die Geforcekarten installieren und nutzen, was nahelegt, dass die Unterschiede so groß nicht sein können.
Antwort von myfly555:
- Eine SSD fürs System (die spielt aber für AE keine Rolle)
- Eine SSD fürs Projekt. Hier liegt das Projekt und hier liegen Quellen, mit denen aktiv gearbeitet wird.
- Eine SSD für die Caches. Insbesondere der neue Diskcache (Ein High-Performance-Cache) für AE verlangt a) eine wahnsinnig schnelle Platte, b) ausreichende Größe freier Bereiche (so um die 100GB, um mal eine Zahl zu nennen, ist aber einstellbar und projekt- und arbeitsabhängig, c) einen von System und Quellen getrennten Speicherort (das ist sehr wichtig).
Beste Grüße,
Reiner
Hallo Rainer,
Vielen Dank für deine Antwort!
Ja, eine genau ähnliche Konfiguration schwebte mir auch schon vor. Nur das mit der Cache-HDD war mir neu. Ich hätte das Cache Directory einfach auf die System-SSD gelenkt.
Wenn ich nun aber schon *drei* SSD's brauche, für maximale Schnitt-Performance, dann stellt sich mir die Frage, ob dann nicht doch gleich ein RevoDrive vernünftiger wäre.
Für die System-HDD braucht man ne 256MB SSD, ebenso für die Cache SSD. Für die Schnitt SSD muss es dann wohl mindestens eine 512er sein, denn uncompressed 2k footages werden schon mal sehr groß.
Rechnet man den Preis für die drei SSDs, kommt man schon auf gut und gerne 800Euro.
Der Preis für ein RevoDrive mit 960MB, welches aber satte 1440mb/s durchsatz bietet, also das *dreifache* einer normalen SSD, liegt bei ca. 1000 Euro.
Nur mal angenommen ich würde mir so ein Revodrive zulegen, fändest du es klug/sinnvoll, System+Cache+Schnitt alles auf das RevoDrive zu knallen?
Abgesehen von den SSDs würde ich dann auch noch eine dicke Berta als Datengrab benötigen. Am besten 2x 3TB. Die sollen lediglich als Datenendlager dienen, aber "eco und green" müssen die trotzdem nicht sein. Welche 7200er SATA Platten haben deiner Meinung nach die beste performance?
Ich würde hier zb. tausende MP3s und fotos speichern, große software pakete installer (*hust*), und so weiter...
lg mcfly
Antwort von myfly555:
Um nochmals auf den Unterschied Quadro vs. Geforce einzugehen,
hier die Infos aus erster Hand:
http://nvidia.custhelp.com/app/answers/detail/a_id/2099
Und der "Technical Brief" von 2003 (scheint sich aber nix geändert zu haben):
http://www.nvidia.com/attach/1006974.ht ... rimitive=0
Sprich es ist in den meisten Fällen nur für CAD-Anwender ein Vorteil durch die Quadros gegeben.
Weitere Ausnahmen bei diesen Anwendungsfällen:
* Quadro mit HD-SDI Ausgängen
* 10-Bit Ausgänge für User mit entsprechenden 10-Bit Schirmen (da macht der Preis der Quadro das Kraut auch nicht fett)
* Lookuptable für mehrere Monitore bei Kalibration in der Karte (besser sind Monitore mit eigenen Lookuptables); Geforce kann Lookuptable nur für einen Monitor laden
* extreme Grafikkartenspeicher-Ausstattung von nöten
In allen anderen Fällen ist eine Geforce gleichwertig und günstiger.
Die offiziellen Quadrotreiber lassen sich übrigens mit einer kleinen Modifikation im Installerscript (Änderung der ID) auch problemlos für die Geforcekarten installieren und nutzen, was nahelegt, dass die Unterschiede so groß nicht sein können.
Klare Ansage!
Danke! Ich bin im Moment eh schon am schauen, entweder eine GTX 570 oder GTX 580 wird es werden.
Mich hat nur gerade wieder ein technisch sehr bewanderter Freund verunsichert, der mir folgendes erklärte:
Alle gforce Karten mit 4GB Ram sind komplett sinnlos, da es derzeit überhaupt keine Anwendung gibt, die diese 4GB vewenden *KANN*, *WEIL* nVidia die Speicherverwaltung der Karten ab 3GB limitiert hat, und zwar in den treibern. Auf meine Frage, warum dann Karten mit 4GB bestückt werden meinte er: "Damit es drauf ist" -- Als verkaufs-gag sozusagen. Der "dumme" Anwender kauft einfach gerne das, wo "mehr" drauf ist. Genauso wie das phänomen, dass Digitalkameras immer "mehr Megapixel" und "mehr digitalzoom" haben müssen, aber dass gleichzeitig die Optik und der Sensor immer crappier werden, davon will der Konsument nichts wissen ... Ich lasse mich gerne vom Gegenteil überzeugen, denn ich wiedergebe ja auch nur das, was mir gesagt wurde ;).
Danke & Lg.
Antwort von freezer:
Mich hat nur gerade wieder ein technisch sehr bewanderter Freund verunsichert, der mir folgendes erklärte:
Alle gforce Karten mit 4GB Ram sind komplett sinnlos, da es derzeit überhaupt keine Anwendung gibt, die diese 4GB vewenden *KANN*, *WEIL* nVidia die Speicherverwaltung der Karten ab 3GB limitiert hat, und zwar in den treibern. Auf meine Frage, warum dann Karten mit 4GB bestückt werden meinte er: "Damit es drauf ist" -- Als verkaufs-gag sozusagen. Der "dumme" Anwender kauft einfach gerne das, wo "mehr" drauf ist. Genauso wie das phänomen, dass Digitalkameras immer "mehr Megapixel" und "mehr digitalzoom" haben müssen, aber dass gleichzeitig die Optik und der Sensor immer crappier werden, davon will der Konsument nichts wissen ... Ich lasse mich gerne vom Gegenteil überzeugen, denn ich wiedergebe ja auch nur das, was mir gesagt wurde ;).
Danke & Lg.
Also ich muss sagen, davon höre ich das erste Mal und es ergibt für mich auch keinen Sinn, warum das im Treiber limitiert sein sollte.
Ich habe nun eine gründliche Recherche im Netz zu diesem Thema durchgeführt, konnte aber keinerlei Hinweise dazu finden.
Probleme kann es geben, wenn Du mit 32-Bit Software hantierst, da diese auch bei der Grafikkarte max. 2 GByte erkennen können.
Grundsätzlich ist also ein 64-Bit-System, 64-Bit-Treiber und 64-Bit-Software bei so einer Hardware sinnvoll und sollte heutzutage auch keine Hürde sein.
Ich will Deinem Freund nichts unterstellen, aber kann er seine Aussage mit irgendwelchen seriösen Quellen belegen? Ansonsten würde ich das unter Blabla verbuchen.
Vor allem ergibt für mich genau eine 3 GB Grenze gar keinen Sinn, ich frage mich also, ob Dein Freund das nicht mit einer Eigenheit von 32-Bit Windows (3 GB Switch) verwechselt hat.
Antwort von myfly555:
Ich will Deinem Freund nichts unterstellen, aber kann er seine Aussage mit irgendwelchen seriösen Quellen belegen? Ansonsten würde ich das unter Blabla verbuchen.
Vor allem ergibt für mich genau eine 3 GB Grenze gar keinen Sinn, ich frage mich also, ob Dein Freund das nicht mit einer Eigenheit von 32-Bit Windows (3 GB Switch) verwechselt hat.
Danke für deine Recherche! Wäre doch nicht nötig gewesen :).
Ich werde meinen Freund bei Zeiten mal fragen, wo er das gehört/gelesen/geträumt hat.
Einstweilen habe ich einen für mich genau treffenden Testbericht, über sämtliche GTX 570 und 580 Grafikkarten gefunden.
Es gibt hier ein 570er Modell von Asus, welches nur 10% weniger Leistung als die 580er hat, aber im idle Modus so gut wie unhörbar ist, und auch unter Last noch angenehm ruhig ist. Genau sowas suche ich. Außerdem ist sie um gut 80€ günstiger als die 580er, und hat dennoch 4GB RAM. Sicher ist sicher! ;)
http://www.computerbase.de/artikel/graf ... oundup/10/
Konkret geht es um die Asus GeForce GTX 680 DirectCU II OC.
Bei dieser werde ich zuschlagen. Auch wenn sie mehr Leistung aufnimmt als die Kollegen. Flüsterleiser Betrieb ist doch etwas sehr feines, bei trotzdem high-end Leistung :).
Antwort von freezer:
Du solltest auf jeden Fall eine 680er nehmen, die Gamertests sind für Deinen Einsatzzweck uninteressant, wichtig sind die Anzahl der Streamprozessoren für CUDA-Beschleunigung für zB Premiere Pro.
Antwort von myfly555:
Du solltest auf jeden Fall eine 680er nehmen, die Gamertests sind für Deinen Einsatzzweck uninteressant, wichtig sind die Anzahl der Streamprozessoren für CUDA-Beschleunigung für zB Premiere Pro.
Vielen Dank für deinen Einwand.
Die 670er haben ca. 1350 Stream-Prozessoren, die 680er haben ca. 1555, also rund 200 Stück mehr. Ich kann mir darunter nichts vorstellen, aber wäre das schon ein "spürbarer" Mehrwert an Performance?
Antwort von freezer:
Es sind ca. 25% mehr an theoretischer Leistung (GFlops der Streamprozessoren) welche die 680er gegenüber der 670er bringt. Das wird sich vermutlich in der Praxis mit 10-15% niederschlagen.
Antwort von myfly555:
Hm, also 10-15% sind mir den höheren Kaufpreis und den höheren Geräuschpegel ehrlich gesagt nicht wert. Es fänge an interessant zu werden, bei 20-25%, das wäre dann schon um ein fünftel schneller.
Hm, ich muss noch darüber nachdenken ;).
Einige werden jetzt wohl den Kopf schütteln, aber ich verfolge eben den Plan, einen high-end PC zu bauen, der aber *trotzdem* sehr sehr leise ist.
Technisch ist das absolut möglich. Dämmatten ins Gehäuse, die Gehäuselüfter intelligent anbringen für funktionierenden Airflow, SSD Platten geräuschlos, als CPU Kühler mindestens ein 12x Tower Cooler, welcher auch dank seiner großen Fläche sehr langsam drehen kann. Ein be quiet Dark Power Netzteil mit 14er Lüfter, welcher zumindest im idle Modus geräuschlos arbeitet. Und ja, bis jetzt war eben immer die Grafikkarte das lauteste Bauteil, bis ich die GTX 670 gefunden habe, die angeblich wirklich angenehm leiste ist. We'll see. Danke für deinen Einwand jedenfalls nochmal, ich werde noch ein bisschen darüber brüten, ob mir 10-15% mehr Leistung wichtig sind, auf kosten von 5 dB mehr Lautstärke ;)
Antwort von freezer:
Ich kann dazu nur sagen - ich habe eine EVGA GTX 580 3GB im Einsatz, selbst beim Rendern hört man von der nix, nur bei Spielen dürfte sie so warm werden, dass der Lüfter aufdreht, aber dazu nutze ich sie ja nicht.
Wenn Du willst, kann ich Dir noch ein paar Tipps für leise Komponenten geben, die ich selbst in vielen Rechnern verbaue.
Antwort von myfly555:
Ich kann dazu nur sagen - ich habe eine EVGA GTX 580 3GB im Einsatz, selbst beim Rendern hört man von der nix, nur bei Spielen dürfte sie so warm werden, dass der Lüfter aufdreht, aber dazu nutze ich sie ja nicht.
Wenn Du willst, kann ich Dir noch ein paar Tipps für leise Komponenten geben, die ich selbst in vielen Rechnern verbaue.
Ja bitte, dafür wäre ich dir sehr dankbar!
Antwort von freezer:
Netzteil: Corsair Profesional Series Gold ATX750
CPU-Lüfter: Noctua NH-U12P SE2 + NOCTUA NM-I2011 Secufirm2 mounting kit, LGA2011
Gehäuse: Coolermaster ATCS840, brushed Alu, 3x 230mm Lüfter
http://geizhals.at/de/369450
Superleise, leider kein USB3.0 an der Front und das LGA2011 XEON-Board muss von den Bohrungen her reingetrickst werden. Kann aber auch am Supermicro-Motherboard gelegen haben, denn grundsätzlich unterstützt das Gehäuse das E-ATX-Format.
Alternativ schau Dir mal das Coolermaster Cosmos II an:
http://www.coolermaster.de/product.php?product_id=6767
Genial, aber leider auch teuer.
Motherboard: Supermicro X9DAi
http://geizhals.at/de/835895
Absolut geniales Pro-Board und vor allem gegenüber dem Asus mit 16 Speichersteckplätzen! Dafür um 4 weniger SATA (8 + 2) - aber wer braucht schon den Marvellchip.
Antwort von myfly555:
Bzgl. Tower: Der von Dir empohlene ATCS840 ist fast der gleiche, wie der den ich mir gestern schon bestellt habe, und zwar den Corsair Obsidian 650D
Mein Wunsch war es, einen Miditower zu finden, der noch gut 5-7cm höher und tiefer ist als die standard Miditower Maße, aber dennoch kleiner als die 70cm hohen BigTower. Beim Obsidian bin ich hängen geblieben. Schöne ästhetische Front, und innen jede menge Platz zum rumspielen, und das ganz ohne BigTower Maße. Die Glasscheibe lässt sich gegen eine Solide austauschen, für 25€. Das einzige Ärgernis (es muss ja immer irgendwas nicht passen, sonst wär das Leben ja einfach): Das Frontpanel besitzt zwar einen USB3.0 port, innen hängt aber lediglich ein Verlängerungskabel, welches man nicht am MidBoard anschließen kann, sondern an den externen USB Ports des Mainboards. Totale Frechheit, hier muss man sich wieder einen extern auf intern Adapter um 15€ zukaufen. Aber ja, man wird es verkraften.
Bzgl. Noctua Tower Cooler: Der, und auch viele andere Tower Cooler sind so extrem breit, dass sie höchstwahrscheinlich zwei oder mehr RamSlots verbauen. Ich möchte aber auf jeden Fall alle Bänke zur Verfügung haben.
Deshalb habe ich mich schlau gemacht was es sonst noch für Platzsparende Lösungen gibt, und bin hier hängen geblieben: Corsair H100. Das ist eine geschlossene Wasserkühlung, ohne Wartungsaufwand, etc. Skeptisch bin ich natürlich, ob die Pumpe nicht ein unangenehmes Geräusch macht, und ob die Pumpe überhaupt langlebig ist. Davon abgesehen würde der Radiator *perfekt* in das Corsair Gehäuse passen und direkt unter dem Deckel verschwinden (Das Corsair Obsidian hat genau wie deines, am Top 2x 12cm oder 14er Borhungen). Es gibt auch noch ein kleineres Modell, die Corsair H80 mit einem quadratischen Radiator, welchen man auf der Gehäuserückwand am 12er Loch anbringen kann. Falls dich das Thema interessiert, kannst du mal auf youtube ein paar reviews ansehen. Sehr eindrucksvoll diese Dinger, aber irgendwie rät mir mein Bauchgefühl trotzdem davon ab. Diese mechanische Pumpe ist ja doch wieder ein Ausfallrisiko mehr. Hingegen wenn bei einem Towercooler einfach der Lüfter aufgibt, hat man trotzdem noch den passiven Kühler als Notaggregat.
Es wäre natürlich toll wenn du sogar Erfahrung mit den Teilen hättest. Mich interessiert es brennend, wie sich diese Kompakten Waküs gegen die Towercooler schlagen. Am liebsten würde ich mir beide kaufen um es einfach selbst zu testen, aber gebraucht wird man die Dinger ja nicht mehr los.
Bzgl. Mainboard+CPU habe ich mich schon festgelegt. Es wird doch keine Dual-Sockel-Xeon Lösung, sondern ein Intel Core i7-3930K, 6x 3.20GHz + ASUS P9X79 Deluxe, + Corsair Vengeance Low Profile 8x8 GB 1600MHz.
Der i7-3930k zeigt sich extremst übertaktfreudig und lässt sich auch vom Laien bis 4,5GHz auf 24/7 übertakten. Mehr will ich aber auch gar nicht. Dieses Szenario bringt nämlich schon ca. 20% mehr Leistung, und das nur bei minimaler Vcore Anhebung.
Eventuell passen die low Profile Ram-Ziegel *unter* den Noctua. Ich habe die Hoffnung. Leider kann man im Netz keine Abmessungen finden, wie hoch die Unterkante des Noctuas über dem Board hängt.
Breitseitig habe ich über den gesamten Sockel vom Asus board gerade mal 10,5cm - dann stehen schon die Speicherbänke im Weg. Liegende Towercooler wären easy zu verbauen, denn die haben ne Trapez Form - haben aber leider nicht die selbe Kühlleistung, und pusten auch nur die heisse Luft vom Kühlkörper sinnlos auf die RAM Bänke, statt hinten beim Gehäuse raus.
Antwort von freezer:
Keine Sorge, ich habe bei mir den Noctua NH-C14
http://geizhals.at/592734 genommen, darunter passen die Low Profile problemlos. Ich habe die High Profile und musste bei einem den Kühlkörper runternehmen, ist aber völlig egal, da eh mehr Show als Nutzen.
WaKü habe ich keine Erfahrung, kannst Dir aber sparen, v.a. weil dann nur die CPU gekühlt wird und nix vom Board - ist nur für Extrem Overclocker interessant.
Der Noctua ist ein Traum - flüsterleise (ich muss mit dem Ohr ganz nah an den Lüfter um ihn zu hören) und das probeweise Übertakten auf 4,2 GHz ging problemlos.
Mein Rechner:
Motherboard: ASUS P6X58D-E
http://geizhals.at/522134
CPU:
Intel Core i7-980, 6x 3.33GHz
Ich halte Deine Wahl für kosteneffektiv - die Xeons sind wirklich sauteuer und Dein 6-Kern macht ordentlich Dampf.
Antwort von myfly555:
Den Segen zu einem vernünftigen Kauf hört man gerne, da ist die Vorfreude gleich noch größer.
Bzgl. Noctua. Der NH-C14 sieht ja wirklich sehr vielversprechend aus. *Endlich* mal ein TowerCooler, wo auch die mitgelieferten (zwar hässlichen) Lüfter nicht solche lauten Turbinen sind, das man gleich wieder zwei teure Päpste nochmal zu den 70€ dazu kaufen muss.
Antwort von freezer:
Die Noctualüfter sind generell genial, egal welche Größe. Ich habe seit Jahren unzählige davon im Einsatz, auch als Austausch für in Geräten mitgelieferte Lüfter, deren Lautstärke oft viel zu hoch ist.
Über die Farbe kann man streiten, aber der Wiedererkennungswert ist gegeben :-)
Achtung!
Für den LGA2011 Sockel benötigst Du noch ein Mountingkit, dieses kannst Du von Noctua gratis beziehen (gegen Lüfterkaufbeleg): http://www.noctua.at/main.php?show=prod ... ucts_id=40
Montagetipp:
Im Towergehäuse muss dieser Lüfter mit der Biegung der Heatpipes nach unten montiert werden, sonst kann sich die Kühlleistung verschlechtern.
Interessante Details:
Noctua verwendet SSO-Lager, das sind selbst-stabilisierende Öldruck-Gleitlager. Durch diese Eigenschaft bleibt im Gegensatz zu normalen Gleitlagern die Laufruhe viel länger erhalten, da der Verschleiß minimiert wird. Selbst Doppelkugellager sind nicht so langzeitstabil und von Haus aus lauter als Gleitlager.
Noctua gibt übrigens 6 Jahre Garantie, bei einem MTBF von >150.000h, das wären über 17 Jahre Dauerbetrieb!
Antwort von myfly555:
Danke,
ich denke ich werde mir aber dann doch den Noctua D14 nehmen, der ist zwar noch viel voluminöse als dein C15, er bläßt aber die Luft direkt auf den hinteren Fan vom Gehäuse, und dort wird die heiße luft dann direkt vom Gehhäuselüfter übernommen und rausgekickt. Auch beim D14 passen die Rams darunter, sehr gut. Vom D14 gibt es nun auch eine 2011er Version für den neuen Sockel.
Ein sehr interessanes Netzteil habe ich hier gefunden. Die neue be quiet Dark Power Pro 10 Serie soll angeblich der Hammer sein. Ich bin mir aber nur unschlüssig, wieviel Watt mein System zieht. Würdest du mir ein 750er oder 850er raten? Unter Last braucht alleine schon die Overclockte CPU satte 270 Watt, dazu noch die Graka mit ca. 180, und die 64GB Ram ziehen sicher auch nochmal 90W, dann wären wir schon auf 540W, dann noch die ganzen kleinen Kompoenten wie pheripherie, Lüfter, HDDs usw, und ich denke mal ein bisserl Reserve sollte man auch einplanen.
http://www.tomshardware.de/Computex-be- ... 47626.html
Antwort von freezer:
Ich habe bei meinem Rechner (Sixcore, 24GB Ram, GTX 560, SSD, 12 HDs, 2 Brenner) ein 650W Netzteil und selbst unter Volllast wird das nicht ausgereizt.
Für einen Kundenrechner mit 2x Xeon Octocore, 32 GB Ram, GTX580 usw habe ich ein 750W Netzteil mehr als ausreichend gefunden.
Die Lasten habe ich natürlich nachgemessen.
Faktisch sollte das Netzteil nicht zu stark überdimensioniert sein, sonst läuft es ineffizient. Unter 80% Last erreicht es normalerweise den höchsten Wirkungsgrad, ein völlig überdimensioniertes Netzteil verbrät im Leerlauf (und das ist die meiste Zeit) unnötig Energie.
Ich würde Dir beim Lüfter trotzdem eher zum C14 raten - ein Topdown-Lüfter kühlt nämlich die wichtigen Komponenten am Motherboard mit - wie RAM und Kondensatoren (rund um den CPU-Sockel). Das ist wichtiger als der direkte Airflow.
Vom Aufbau wäre es sowieso am klügsten im Gehäuseboden reinblasende Lüfter mit Staubfilter zu nutzen und im Deckel rausblasende Lüfter zu montieren. Warme Luft zieht nach oben.
Das Netzteil und Festplatten liegen jeweils unten in einem eigenen Bereich mit eigener Lüftung.
Das ist zB im Coolermaster C840 super umgesetzt.
Antwort von myfly555:
Agreed! Ich habe sowieso vor, unten in das Gehäuse ein Loch zu dremeln, und neben dem Netzteil einen weiteren 2er Lüfter anzubringen, der von unten rein zieht.
Den Deckel oben, sowie den Deckel an der Vorderseite, möchte ich eigentlich mit Noiseblocker Matten verbauen, damit er schön silent wird.
Falls ich die Abwärme nur mit dem hinteren Gehäuselüfter nicht rausbekomme, werde ich oben zwei 14er Lüfter montieren.
Mehr Sinn beim Airflow würde natürlich letzteres machen, klar, weil heisse Luft aufsteigt, jedoch dann wieder lauter, weil durch das obere riesige loch cpu und lüfter schalltechnisch direkt freigelegt werden.
Danke für den Rat mit dem Netzteil. Ich denke das 750er wird gut passen, und ist auch nicht so brutal teuer wie das 850er. Ich bin schon gespannt, ob der verbaute 13,5er Lüfter wirklich so flüsterleise ist. Ich werde berichten!
Edit: hast du den Noctua eigentlich so eingestellt, dass er nach oben zieht, oder nach unten aufs mainboard? Wenn letzteres der fall wäre, dann würde er ja auch wieder nur die heisse luft vom kühlkörper direkt auf das mainboard heizen?!
Antwort von freezer:
Edit: hast du den Noctua eigentlich so eingestellt, dass er nach oben zieht, oder nach unten aufs mainboard? Wenn letzteres der fall wäre, dann würde er ja auch wieder nur die heisse luft vom kühlkörper direkt auf das mainboard heizen?!
Beide Lüfter blasen nach unten, aber der Kühler ist noch nie so warm geworden, dass heiße Luft nach unten transportiert werden würde.
Selbst unter Volllast nicht.