Absolut. Dann sind sie auch bezahlbar ;)Reiner M hat geschrieben:Kommt noch. In 10 Jahren hat sich das Problem verabschiedet.
Absolut. Dann sind sie auch bezahlbar ;)Reiner M hat geschrieben:Kommt noch. In 10 Jahren hat sich das Problem verabschiedet.
Es gibt daran auszusetzen, dass es A nicht stimmt, und B, dass es Vermutungen von ihm sind, die er in keiner Weise verifizieren kann,. da seine hardware es nicht zulässt.Alf_300 hat geschrieben:Was gibts auszusetzen am @Dienstag, wenn er meint die Qualität wird mit anderer Graka nicht besser ?
Kurzes Insert: Ich hab hier im Forum wirklich schon viel gelernt, von dir Jörg, von Reiner M, von anderen.Jörg hat geschrieben:Es gibt daran auszusetzen, dass es A nicht stimmt, und B, dass es Vermutungen von ihm sind, die er in keiner Weise verifizieren kann,Alf_300 hat geschrieben:Was gibts auszusetzen am @Dienstag, wenn er meint die Qualität wird mit anderer Graka nicht besser ?
Bin sprachlos. (Beinahe.) Woher, lieber Jörg, stammen dann deine Kenntnisse? Oder hast du vielleicht gar keine? Null? Nichts? Njente?Jörg hat geschrieben:Und nein, ich nutze immer noch keine Quadro-oder SLI Karten
Aber genau das behauptest du doch an verschiedenen Stellen.Reiner M hat geschrieben:Es geht hier nicht darum, dass die Grafikkarte grundsätzlich die Qualität eines Videos verbessert. Also Video rein, einmal durch die Grafikkarte durch, Video ist besser. Das wäre Quatsch.
Könnte noch von anderen Stellen zitieren.Reiner M hat geschrieben:Für all diese Berechnungen kann sich das Ergebnis einer GTX-Karte von dem einer Quadro-Karte unterscheiden. - Muss aber nicht.
Den Satz versteh ich jetzt beim besten Willen nicht ;)Alf_300 hat geschrieben:@Dienstag
Wenn Adobe das CS6 zertifizieren kann, dann kann es das auch bei Grakas ;-)
Und was meinst du dann damit:Reiner M hat geschrieben:dienstag_01 hat geschrieben:
Aber genau das behauptest du doch an verschiedenen Stellen.
Dienstag, das habe ich nirgends behauptet und werde es auch nicht tun!
Ist das Absicht? Selbst wenn ich das ausdrücklich hinschreibe, mit klaren Worten, wie ich meine, wie jetzt hier und in dem von Dir erwähnten Zitat und Du dann glatt das Gegenteil unterstellst: Bitte, was soll ich davon halten? Was bezweckst Du?
Aber egal: Wenn du jetzt sagst, alles ein Missverständnis, das gerechnete Video profitiert qualitätsmäßig nicht von einer Quadro (im Gegensatz zu einer GFX), dann sind wir einer Meinung.Reiner M hat geschrieben:Wenn nun zwei Karten antreten, die im Grunde identisch sind, die sich aber bei der Verarbeitung der Operationen derart unterscheiden, dass Präzision und Genauigkeit betroffen sind, dann wird sich das auch zwangsweise im Ergebnis niederschlagen.
Ist dir gelungen. ;)Reiner M hat geschrieben:Teilweise, weil es über CPU nicht machbar wäre (Intrepolationsverfahren).
Ich muss doch in meiner privaten Hexenküche keine Quadro installiert haben,Bin sprachlos. (Beinahe.) Woher, lieber Jörg, stammen dann deine Kenntnisse? Oder hast du vielleicht gar keine? Null? Nichts? Njente?
Nehmen wir einen Effekt wie Noise Reduction von Neat Video. Dort kann ich einstellen, ob ich zur Berechnung nur das aktuelle Bild oder aber bis zu jeweils 4 Nachbarbilder einbeziehen möchte. Das sind verschiedene Algorithmen. Und so verhällt sich das auch mit anderen Effekten. Das da unterschiedliche Ergebnisse entsehen, verwundert wohl niemanden. Das ist aber überhaupt nicht auf einen Unterschied von Quadro und GFX zu übertragen. Wieso auch.Reiner M hat geschrieben:Kein Interesse?
Manchmal rechnet mein Rechner eben auch - und sicherlich länger als deiner :(Reiner M hat geschrieben:Keine Zeit?
Hallo Rainer,Reiner M hat geschrieben: - Eine SSD fürs System (die spielt aber für AE keine Rolle)
- Eine SSD fürs Projekt. Hier liegt das Projekt und hier liegen Quellen, mit denen aktiv gearbeitet wird.
- Eine SSD für die Caches. Insbesondere der neue Diskcache (Ein High-Performance-Cache) für AE verlangt a) eine wahnsinnig schnelle Platte, b) ausreichende Größe freier Bereiche (so um die 100GB, um mal eine Zahl zu nennen, ist aber einstellbar und projekt- und arbeitsabhängig, c) einen von System und Quellen getrennten Speicherort (das ist sehr wichtig).
Beste Grüße,
Reiner
Klare Ansage!freezer hat geschrieben:Um nochmals auf den Unterschied Quadro vs. Geforce einzugehen,
hier die Infos aus erster Hand:
http://nvidia.custhelp.com/app/answers/detail/a_id/2099
Und der "Technical Brief" [PDF] von 2003 (scheint sich aber nix geändert zu haben):
http://www.nvidia.com/attach/1006974.ht ... rimitive=0
Sprich es ist in den meisten Fällen nur für CAD-Anwender ein Vorteil durch die Quadros gegeben.
Weitere Ausnahmen bei diesen Anwendungsfällen:
* Quadro mit HD-SDI Ausgängen
* 10-Bit Ausgänge für User mit entsprechenden 10-Bit Schirmen (da macht der Preis der Quadro das Kraut auch nicht fett)
* Lookuptable für mehrere Monitore bei Kalibration in der Karte (besser sind Monitore mit eigenen Lookuptables); Geforce kann Lookuptable nur für einen Monitor laden
* extreme Grafikkartenspeicher-Ausstattung von nöten
In allen anderen Fällen ist eine Geforce gleichwertig und günstiger.
Die offiziellen Quadrotreiber lassen sich übrigens mit einer kleinen Modifikation im Installerscript (Änderung der ID) auch problemlos für die Geforcekarten installieren und nutzen, was nahelegt, dass die Unterschiede so groß nicht sein können.
Also ich muss sagen, davon höre ich das erste Mal und es ergibt für mich auch keinen Sinn, warum das im Treiber limitiert sein sollte.myfly555 hat geschrieben: Mich hat nur gerade wieder ein technisch sehr bewanderter Freund verunsichert, der mir folgendes erklärte:
Alle gforce Karten mit 4GB Ram sind komplett sinnlos, da es derzeit überhaupt keine Anwendung gibt, die diese 4GB vewenden *KANN*, *WEIL* nVidia die Speicherverwaltung der Karten ab 3GB limitiert hat, und zwar in den treibern. Auf meine Frage, warum dann Karten mit 4GB bestückt werden meinte er: "Damit es drauf ist" -- Als verkaufs-gag sozusagen. Der "dumme" Anwender kauft einfach gerne das, wo "mehr" drauf ist. Genauso wie das phänomen, dass Digitalkameras immer "mehr Megapixel" und "mehr digitalzoom" haben müssen, aber dass gleichzeitig die Optik und der Sensor immer crappier werden, davon will der Konsument nichts wissen ... Ich lasse mich gerne vom Gegenteil überzeugen, denn ich wiedergebe ja auch nur das, was mir gesagt wurde ;).
Danke & Lg.