Newsmeldung von slashCAM:CG Channel hat einen recht ausführlichen Test von professionellen Grafikkarten veröffentlicht. Hierbei tritt Nvidias Quadro Familie gegen AMD FirePro an. Leider wurde nicht mit Videoapplikationen getestet. U.a. hätte uns Davinci Resolve hier sehr interessiert. Wie zu erwarten gibt es keinen klaren Gewinner. Die GPU-Performane ist stark vom entsprechenden Einsatzgebiet abhängig und wie gut die großen GPU APIs (CUDA und/oder OpenCL) unterstützt werden. Im Fazit unterscheidet der Artikel grob zwischen besserer Viewport Performance bei AMD und besserem GPU Computing bei Nvidia.
zur News
Antwort von gast5:
http://www.tomshardware.de/Workstation- ... 41269.html
inkl. W9000er
Antwort von studiolondon:
http://www.tomshardware.de/Workstation- ... 41269.html
inkl. W9000er
Schade, das all diese Karten nur noch für Windows & Linux - PCs nutzbar sind, und da apple alle pcie-steckplätze abgeschafft keine mehr für die heutigen und kommenden Macs. Ausser man betreibt eben OSX auf nicht-Apple Rechnern, dann kann man die und die aktuelleren heutigen Grafikkarten noch nutzen.
Abgesehen davon, das die Fire-Treiber so nicht unter OSX existieren (logischerweise, da schlicht die meisten getesteten upperclass CAD/3DCGI/CAE/CAA/CAM-Systeme a la Catia, 3ds Max, Proengineer, Solidworks usw für OSX einfach nicht erhältlich sind), kann man grob die Leistung der gedrosselten AMD OEM-Karten (D700/500/300) in den kommenden imer-mac pros abschätzen. Vorrausgesetzt das sie die Treiber ähnlich gut optimiert bekommen wie die windows-versionen, bisher war das ja immer ein Stiefkind, da fehlten traditionell zig Funktionen (wie oft haben wir die fehlenden Nv-SDI treiber verflucht), aber jetzt wo sie ab Werk nur noch die 2011er AMD-Chips ausliefern wird das ja hoffentlich endlich mal ERHEBLICH nachgebessert.
Die D700 ist rund ~20% langsamer als die W9000 (auf 3.5 anstelle 4Tflops gedrosselt), die D500 ist rund 35% langsamer als die W8000 (auf 2.2 anstelle 3.2Tflops gedrosselt), die D300 rund 20% langsamer als die W7000 (2 anstelle von 2.4TFlops).
Wobei man beachten muß, das Apple offenbar bei den D3/5/700er Karten den ECC Speicher einspart, und günstigeren Speicher ohne Fehlerkorrektur verwendet - das bring typisch 1,2,3% mehr geschwindigkeitszuwachs, da ja die komplette Überprüfung auf fehlerhafte berechnungen im RAM weggelassen werden kann.
Kann man aber ignorieren, der TestPC im Link von Motiongroup lief mit 4,5 Ghz Basistakt -bei Apple ist bei 3,7 schluss- insofern kann man 1,2,3% mehr Tempo durch das Einsparen von ECC ignorieren, da ja der April 2013er TestPC so oder schon mal über 20% schneller getaktet war als selbst der schnellstgetaktete der Dezember 2013 kommenden imer.
Interessant wäre mal ein aktueller Test mit heutigen Karten, konkret die ganzen alten Karten a la Nvidia Quadro 6000 und AMD W9000 gegen die heute üblichen Karten a la AMD R9 bzw Quadro K6000. Grade die K6000er würde ich GERNE mal in den Davincis sehen (12 GB ECC RAM pro Karte, 5.1 Tflops), am liebsten gleich 4 Stück zusammen.
Wobei man für Davinci logischerweise besser gleich einfach für 800-900€ 10 Tflops mit 16GB VRAM einsetzt, typisch heute bspw mit 4 * GF760 a 2.5Tflops a 4GB Ram - 10 Tflops reichen für das meiste in Echtzeit gut aus (so man nicht HFR, 3D, 4K oder mehrere ebendieser nutzt, da sind dann 8GPU davinci cluster und/oder Redrocket-(x) Steckkarten angesagt)
Antwort von gast5:
???? Was hat der Fred mit Apple zu tun?
Abgesehen davon, das die Fire-Treiber so nicht unter OSX existieren (logischerweise, da schlicht die meisten getesteten upperclass CAD/3DCGI/CAE/CAA/CAM-Systeme a la Catia, 3ds Max, Proengineer, Solidworks usw für OSX einfach nicht erhältlich sind), kann man grob die Leistung der gedrosselten AMD OEM-Karten (D700/500/300) in den kommenden imer-mac pros abschätzen.
Is nicht wahr und was soll das nun für eine Aussagekraft haben außer das den ewig gleichen populistischen anti Apple Beigeschmack hat..
Upperclass soso, the foundry , autodesk mit alias, AutoCAD, Maya, smoke, ifx uvm. lässt du so nebenbei unter den Tisch fallen???
Alles klar, wir wissen wo der bittere Beigeschmack her kommt war nicht anders zu erwarten.
Antwort von studiolondon:
???? Was hat der Fred mit Apple zu tun?
Apple blockiert seinen Kunden neuerdings all die getesten Grafikkarten.
Keine einzige der getesteten kann mehr in keinen einzigem aktuellen und kommenden Mac verbaut werden, da als Apple einziger Hersteller seinen Kunden neuerdings die freie Wahl der Grafk verbietet, indem sie in allen aktuellen und lieferbaren Rechner die pcie-slots für Kunden blockieren.
Es gibt nur noch 3 Modelle, zudem ältere und massiv gedrosselte AMD-OEM Karten ab Werk, und grafikkarten sind -nach jahrzehnten erstmals- jetzt für Apple Kunden nicht mehr austausch/wechsel/nachrüstbar.
Das bedeutet, das jemand der bspw. eine Quadro 4800 oder eine Quadro CX in seinem 2010er mac pro hatte, diese nicht weiterbenutzen kann, wenn er ein Neugerät bei Apple kauft.
Das bedeutet das die aktuellen und die leistungsfähigsten Garfikkarten nicht mehr nutzbar sind, wenn Kunden bei Apple kaufen.
Das bedeutet, das man bei Apple nicht mehr (wie bspw. für davinci) 2, 3 oder 4 Grafikkarten rechen lassen kann.
Und es bedeutet IN JEDEM Fall neukauf von mindestens 2 Stück 2011er gedrosselten AMD Karten. Und natürlich die Blockade des kompletten Gebrauchtsmarkts noch zusätzlich. Wenn es je bessere Karten für den imer geben wird, dann neuware von apple. Wobei das unterdimensionierte 450 watt netzteil des imer-macpros so oder so die verwendung aktueller hochleistungskarten unmöglich macht.
Zudem bedeutet es, das Kunden wenn sie bei Apple kaufen, 2014, 2015 usw keine aktuellen Grafikkarten mehr für ihren mac kaufen können. Naja, vielleicht erbarmt sich Apple ja, und man darf dann monopolisiert 450watt-netzteilkompatible Aufrüstsätze mit "Apple"-Grafikkarten kaufen ;).
Beim mac pro ging das selbstverständlich, jahrzehntelang war das eine der zentralen Gründe für den power mac / mac pro Kunden, daß man bessere, andere und mehrere Grafikkarten als die Werksausstattung nutzen konnte. Beim imer ist das jetzt nicht mehr möglich, da Apple als einziger Hersteller nach jahrzehnten diese sehr sinnvolle Funktion blockiert. Und das lahme tbolt2 ist kein Ersatz für pciegrafik - tbolt2 ist satte 75% langsamer als pcie.
Und richte dich auch darauf ein, daß die Fußnote "leider nicht mit OSX nutzbar, so man nur Hardware von Apple hat" nun konstant bei Grafikkartentests erscheint.
Bspw. startet Nvidia Anfang 2014 ihre neue generation - Maxwell. Dito AMD, ebenfalls 2014, da werden aktuellen Hawai Chips (R9 290x usw) als Fire10000² (oä) starten.
Abgesehen davon, das die Fire-Treiber so nicht unter OSX existieren (logischerweise, da schlicht die meisten getesteten upperclass CAD/3DCGI/CAE/CAA/CAM-Systeme a la Catia, 3ds Max, Proengineer, Solidworks usw für OSX einfach nicht erhältlich sind), kann man grob die Leistung der gedrosselten AMD OEM-Karten (D700/500/300) in den kommenden imer-mac pros abschätzen.
Is nicht wahr und was soll das nun für eine Aussagekraft haben außer das den ewig gleichen populistischen anti Apple Beigeschmack hat..
Upperclass soso, the foundry , autodesk mit alias, AutoCAD, Maya, smoke, ifx uvm. lässt du so nebenbei unter den Tisch fallen???
Lese bitte die Postings, die du beantwortest.
Ich habe den relevanten Teil für dich mal fett und unterstrichen gesetzt, evtl. fällt dir nun auf, das in deinem Link eben weitgehend professionelle Software getestet wurde, die es für OSX nicht gibt.
Die von dir erwähnten "the foundry", ifx, smoke und Alias wurden nicht NICHT getestet. Zudem: "the foundry" ist ein Firmename, nicht eine software, und eine Firma läßt sich schwer benchmarken...
Antwort von gast5:
Is nicht war , ifx auch nicht, die haben Piranha und the foundry haben nuke mari uvm ändert aber nichts an der der Definition upperclass..
Zurück zu deinem typischen Beitrag, was hat das mit dem Fred zu tun? Nichts!!!!!!! da es sich um einen Benchmark von Profigrafikkarten unter bestimmten beschriebenen Konfigurationen handelt und nicht um Benchmark's von Grafikkarten die unter OSX getestet werden.
So gesehen zwar voraussehbar aber am Thema vorbei...
Antwort von studiolondon:
Is nicht war , ifx auch nicht, die haben Piranha und the foundry haben nuke mari uvm ändert aber nichts an der der Definition upperclass..
Du scheinst wirklich nicht zu verstehen: die sind ALLE NICHT GETESTET worden.
Mehr als fett & unterstrichen setzen kann man ja nun wirklich nicht, ich versuche es ein letztes mal für dich:
Zitat:
"die meisten getesteten upperclass CAD/3DCGI/CAE/CAA/CAM-Systeme a la Catia, 3ds Max, Proengineer, Solidworks usw für OSX einfach nicht erhältlich sind"
Zurück zu deinem typischen Beitrag, was hat das mit dem Fred zu tun? Nichts!!!!!!! da es sich um einen Benchmark von Profigrafikkarten unter bestimmten beschriebenen Konfigurationen handelt und nicht um Benchmark's von Grafikkarten die unter OSX getestet werden.
Die letzten Jahrzehnte konnte man solche Karten unter OSX und mit Hardware von Apple nutzen, das war einer der zentralen Gründe den power G5 oder den mac pro zu kaufen - und genau das ist jetzt beendet.
Wenn man solche Grafikkarten mit OSX nutzen will, muß man einen gebrauchten 2010-12er mac pro kaufen oder OSX auf einem aktuellen PC installieren.
So gesehen zwar voraussehbar aber am Thema vorbei...
Wie gesagt:
Der Kommentar "geht nicht unter OSX wenn man die neue reduzierte Apple-hardware nutzt" wird konstant bei aktuellen PCIe Karten wie Debayer a la redrocket-x, HD-SDI & 4K video pci-e i/o ala Decklink Extreme & Aja, Grafikkarten ala Quadro, Geforce, Radeon, 16 & 24 port SAS&SATA raidcontrollern, SAN & LAN NICs von Infiniband bis 10GB EThernet, genauso wie auch bei gebrauchten avid/pro-tools audioboards oder simplen 15€ USB3 (bzw 2014 & 15 10Gbit USB 3.1) pcie-karten erscheinen.
Tatsächlich haben das viele User noch nicht mitbekommen / realisiert, ich treffe bei Fachgesprächen dauernd auf User die mit einem ungläubigen "wie, apple kann kein pcie mehr?" reagieren wenn das Thema angeschnitten wird bzw jemand bei uns gebrauchte quadro/decklink/geforce etc kaufen will. Noch sind die imermacpros ja noch nichtmal im Handel.
Achja, am Rande, eine Frage: Findest du es gut oder schlecht, das Apple generell allen Kunden die Nutzung aktueller Grafikkarten (und aller pci-e karten) blockiert?
Antwort von gast5:
Du scheinst wirklich nicht zu verstehen: die sind ALLE NICHT GETESTET worden.
Mehr als fett & unterstrichen setzen kann man ja nun wirklich nicht, ich versuche es ein letztes mal für dich:
Ruhig brauner halt die Füße still..
..nochmals und ich brauch's nicht mal Fett zu schreiben, der Fred hat nichts mit Apple zu tun sondern zeigt die Leistungen bei gewissen Konfigurationen in Verbindung mit Windows und nicht unter OSX. Deine Auslassungen zum Thema Apple sind somit unnötig, was voraussehbar war.
Antwort von studiolondon:
Nochmals und ich brauch's nicht mal Fett zu schreiben, der Fred hat nichts mit Apple zu tun sondern zeigt die Leistungen bei gewissen Konfigurationen in Verbindung mit Windows und nicht unter OSX.
Grafikkarten (wie die getesteten) konnte man früher im mac pro verwenden.
Da das jetzt durch Apple blockiert wird ist es durchaus sinnvoll, Bezugsgrössen wie "Apple verkauft mit der D500 eine in etwa um 35% gedrosselte AMD W8000 ohne ECC mit Rechenleistung deutlich unterhalb einer 200€ Radeon 7950" zu schaffen.
Deine Auslassungen zum Thema Apple sind somit unnötig, was voraussehbar war.
Das hast du nicht zu entscheiden.
Noch ein ganz heisser Tip: Wenn dich das Thema nicht interessiert, dann lese es nicht.
Übrigens hast du offenbar die Frage im vorigen Post überlesen, hier:
Findest du es gut oder schlecht, das Apple generell allen Kunden die Nutzung aktueller Grafikkarten (und aller pci-e karten) blockiert?
Antwort von gast5:
Du schaffst aber keine Bezugsgrößen da es Spekulation ist und das ist der Unterschied zum Beitrag des TO und meines Anhangs Benchmark's unter Windows und nicht OSX .... Der Rest ist Gereime und hat nichts mit dem Fred zu tun wie schon ein paar mal VERSTÄNDLICHST ausgeführt..
Das hast du nicht zu entscheiden.
Noch ein ganz heisser Tip: Wenn dich das Thema nicht interessiert, dann lese es nicht.
Übrigens hast du offenbar die Frage im vorigen Post überlesen, hier:
Und nun ein freundlich gemeinter Rat
Deine Tipps in Ehren, sie bleiben die Deinigen und meine Beiträge so sie dich nicht persönlich tangieren oder beleidigen, sollten dich zu keinen belehrenden Tipps nötigen..
Antwort von studiolondon:
Du schaffst aber keine Bezugsgrößen da es Spekulation ist
Falsch.
Die technischen Daten sind direkt bei AMD und Apple nachzulesen.
Keine Spekulation. Lies nach. Ich verwende ausschließlich offiziell veröffentlichte Daten von Apple & AMD.
Die Chips sind ebenfalls bekannt - 2011er Tahiti und im Falle der D300 die reduzierte Ableitung des tahiti, der pitcairn chip.
Die Angaben sind KEIN bisschen spekulativ.
und das ist der Unterschied zum Beitrag des TO und meines Anhangs Benchmark's unter Windows und nicht OSX ....
Falls es dir nicht bekannt seinen sollte - die Hardwareleistung ist unabhängig davon, welches Betriebssystem läuft.
Geschwindigkeitsunterschiede zwischen identischer Hardware entstehen auf Softwareebene, durch andere Treiber, Anpassung der Client-Software etc. Das kann je nach Treiber, Software und Art der zu verarbeitenden Daten einiges Ausmachen - ändert aber nichts an der Leistung der Hardware.
Zu dem Thema "Findest du es gut oder schlecht, das Apple generell allen Kunden die Nutzung aktueller Grafikkarten (und aller pci-e karten) blockiert?" willst du offenbar keine Meinung äußern.
Ich gehe dementsprechend davon aus, daß du das komplette und alternativlose blockieren aller pci-e Erweiterungen und Grafikkarten bei allen Apple produkten SCHLECHT findest, jedoch selbst komplett gerechtfertigte Kritik an Apple als sankrosakt ablehnst.
Antwort von gast5:
Es ist zu 100% spekulativ .... Nicht spekulativ wäre,es wenn der Test auf einem Mac mit Karte x unter OSX und via Bootcamp unter Windows x gefahren wurde mit Software die auf beiden Plattformen verfügbar ist..
Also was hätten wir da... Der TO hat in seinem verlinkten Benchmark bei der Auswahl viel an Anwendungen getestet die auf beiden Plattformen verfügbar sind, für dich zwar nicht upperclass aber trotzdem.. Leider auf einer hp z8xx unter Win7 /64 und nicht unter OSX xxxxx
Is nich mit vergleichen , somit sind deine Ausführungen spekulativ. PUNKT
ich gehe dementsprechend davon aus
.....Das ich davon ausgehe, dass du wie erwartet davon ausgehen wirst und somit schon wieder spekulierst.
Antwort von studiolondon:
Es ist zu 100% spekulativ ....
Die pure Rechenleistung, alles Herstellerangaben, direkt von Apple & AMD:
zum Bild
in Zahlen....
zum Bild
Thema Preise:
7990XT2 ~500, R9 290X ~ 430€, 7970GE ~250€, 7950 ~200€.
Leider auf einer hp z8xx unter Win7 /64 und nicht unter OSX xxxxx
Was schlicht die Hintergründe hat, das
a) der für Quadro&Fire-Treiber relevantesten Klientel (CAD/CAE/CAM) unter OSX zig der upperclass Softwares fehlen, Solidworks, ProEngineer, Catia um nur ein paar nennen, gibt es nicht unter OSX.
b) man natürlich hochwertige Hardware a la Quadro/Fire dann nicht typischerweise mit leistungsschwachen single-core PCs a la apple imermacpro nutzt, sondern mit hochwertigen multi-cpu systemen a la HP Z-Serie.
c) Die Treiber schwerpunktmäßig auf Windows optimiert werden, da >90% der Kunden mit dieser Platform arbeiten.
d) Das man die Karten schlicht nicht mit Apples testen kann, selbst wenn man will, da Apple keine PCIe Grafikkarten mehr unterstützt.
.....Das ich davon ausgehe, dass du wie erwartet davon ausgehen wirst und somit schon wieder spekulierst.
Pure Fakten, Keine Spekulation: Es ist für eine Unmenge Kunden ein übler Nachteil und eine sehr ärgerliche Einschränkung, das Apple nun die Nutzung aller pcie Karten in allen macs im sortiment gezielt blockiert. Da du das ebenfalls nicht ideal findest versuchst du das Thema zu vermeiden.
Antwort von gast5:
Unabhängig das es nichts mit dem Fred Thema zu tun hat, fehlen die Quellenangaben..
Somit SPEKULATIV.
Zum übrigen Rest gibt es nichts zu schreiben weils so oder so schon xmal leserchlichst geschrieben wurde.
Wenn du etwas zum Thema Grafikkarten unter OSX lesen möchtest geh zu barefeats und verzweige dort in alle Richtungen ..
Da du es ebenfalls nicht Ideal findest
Du spekulierst schon wieder.
Nochmals, überlasse es mir, wo und in welchen Fred ich auf etwas Antworte.
Der Fred ist zum Thema pro Grafikkarten und Benchmark's unter Windows gewidmet und nicht warm verbaut Apple Karte x oder verbaut Netzteile die nur 450 Watt Leistung erbringen und somit nicht funktionieren können..
Wieder höchst spekulativ und trotzdem macht es dich ganz WUSCHIG.
Du darfst beruhigt sein, auch mich interessiert es nur bin ich nicht militant dabei und warte ab. Ich kaufe auch nichts zumindest im Moment nicht da wir eingedeckt sind und für mich 4k8k16 kein Thema ist. 4k zu 2k oder zu Full HD schon eher.
Verdammt nun hab ich mich doch schon wieder verziehen lassen..
Hallooooo es dreht sich um win7 Grafikkartenbenchmarks...
Auf was ich gespannt bin und dabei wird's verdammt SPEKULATIV... Wie werden die Grafikkarten des neuen MacPro's unter Windows erkannt wenn es installiert wird.... Gggg
Fragen über Fragen
Antwort von studiolondon:
Unabhängig das es nichts mit dem Fred Thema zu tun hat, fehlen die Quellenangaben..
Steht direkt auf der Grafik, steht direkt im Text.
Lese doch einfach den Post den du kommentierst.
Alles Herstellerangaben. Direkt von apple.com und amd.com.
Bei Apple findest du die Gflop Werte direkt bei der imer-produktseite, sie wurden zudem auf den Reklameveranstaltungen deckungsgleich beworben.
Bei AMD findest du die Gflop Werte direkt bei den produktseiten, und kannst zudem auf 1000sende Datenbankeinträge von unabhängigen Datenbanken zugreifen.
Somit SPEKULATIV.
Du meinst Apple und AMD spekulieren die von Ihnen (rechtlich bindenden) publizierten Herstellerangaben? Dann geh doch einfach mal auf die Website von Apple und lese die Werte dort nach.
Der Fred ist zum Thema pro Grafikkarten und Benchmark's unter Windows gewidmet und nicht warm verbaut Apple Karte x oder verbaut Netzteile die nur 450 Watt Leistung erbringen und somit nicht funktionieren können..
Da Apple alle mac Kunden nun durch propietäre und mechanisch zu pci-e inkompatible Bauweise daran hindert, Grafikkarten ihrer Wahl zu nutzen, und ab Dezember nur noch 3 gedrosselte AMD OEM Karten mit den 2011er Tahiti-Derivaten als GPU unter Marketingnamen verfügbar sind, ist es gut zu wissen, welche Technik mit welcher Leistung verbaut wird.
In Anbetracht der laut Apple wirklich schwachen Hardwareleistung insbesondere der D300 (2 Tflops) und D500 (2.2 Tflops) muß man hoffen, das wenigstens auf Treiberseite nicht so gespart wurde wie an den Chips und am Netzteil, und die Treiber aufwändig optimiert werden. Da kann man einiges retten & rausholen.
Die Optimierung von einfacher 300-400€ schnittsoftware mit minimaler geometrie & occlusion a la FCPX ist trivial im Vergleich zur Treiberoptimierung von solchen Funktionsmonstern wie Catia, ProEngineer oder 3ds max mit ihren hyperkomplexen, sehr anspruchsvollen aber auch extrem leistungsfähigen 3D-Display pipelines. Wobei natürlich auch supereffiziente Treiber zu kleinen Speicherausbau wie 2GB bei der D300 für davinci & openfx nicht kompensieren können.
Antwort von gast5:
Kann es sein das du die Leute hier für eine psychologische Studie missbrauchen möchtest?
Zauberst eine Tabelle und einen Chart aus dem Hut und denkst das wars?
Auf der einen Seite nimmst eine 7990XT2 Malta mit in in deine Berechnungen die eine DualGPU konfiguration ist auf der anderen Seite vergisst bei der D3,5,700er den Multiplikator X2 zu verwenden...
Langsam wirds peinlich.. Auf der Apfelseite steht EACH OF THEM
zum Xten mal der Fred dreht sich um Profikarten unter WIN7/64 und nicht unter OSX. Was OSX in MultiGPU Benchmarks kann oder nicht kann findest du bei Barefeats.
Das wars von mir an dieser Stelle... OCL Luxmarks mit der D700 findet der Suchende so oder so und wenn der Aschenbecher verfügbar ist wird sich der Rest zeigen ..... spätestens nächstes Jahr kommen vermutlich um 10cm höher Dual und QuadXeons mit FirePRo10000000 oder Out of the BOX Tesla oder FirePro10000s Konfigurationen... Wayne kümmerts
Antwort von studiolondon:
Auf der einen Seite nimmst eine 7990XT2 Malta mit in in deine Berechnungen die eine DualGPU konfiguration ist
Logischerweise - wenn man bspw. 4 GPUs in nur 2 Steckplätzen unterbringen will oder muss, da die restlichen Steckplätze schon mit Infiniband/10GB Ethernet, Redrocket-(x), dem RAID5/6-SAS/Sata controller und einer schnellen 3 Gbyte/s oder 6Gbyte/sec pcie-ssd belegt sind, machen solche Einzelkarten mit je 2 GPUs oft Sinn.
auf der anderen Seite vergisst bei der D3,5,700er den Multiplikator X2 zu verwenden...
Nein. Ob man nun 2,3 oder 4 von den jeweiligen Karten einsetzt ist ja fei wählbar - ausser bei Apple, da ist schon bei 2 Schluss.
Zudem: Grade bei davinci ist auch sinnvoller, eine schwache Grafik der 150€ preisklasse nutzen (also leistung im korridor der D300 oder D500), und zum rechnen dann eine starke der 400-500€ preisklasse, wie bspw. eine aktuelle R9 290X. Das ist ja frei wählbar - ausser bei Apple, da muss man, auch wenn das für davinci reichlich dämlich ist, 2 identische von Apple kaufen, von denen eine dann unterfordert als display, die andere überfordert als rechenkarte läuft.
Für Davinci ist die beste Leistung UND das beste Preisleistungsverhältnis so oder so bei 4 GPU.
Langsam wirds peinlich.. Auf der Apfelseite steht EACH OF THEM
Alle Werte sind "each of them.
..... spätestens nächstes Jahr kommen vermutlich um 10cm höher Dual und QuadXeons mit FirePRo10000000 oder Out of the BOX Tesla oder FirePro10000s Konfigurationen...
Und 2016 und 2017 natürlich auch, wenn jemand 2014 einen neuen rechner bezieht, ist der ja bequem bis 2017 in der abschreibung, da wird dann gerne nach 2 jahren nochmal eine weitere karte mit einer gpu ala R290 290X oder zwei GPUs a la Radeon 7990 nachgesteckt - oder eben deren bessere Nachfolger. Nur bei Apple geht das nicht mehr.
Wayne kümmerts
Ah, die Jugendsprache :)
Antwort von userdx:
Komisch nur, dass es Pcie Extentions gibt und alle, auch Apple, für diese werben, da ja kannst du deine Debayer, Raid und Gpu Karten einbauen wie du möchtest....ps: der korrekte Imperativ von Lesen heißt im Singular lies und nicht lese....
Antwort von studiolondon:
Komisch nur, dass es Pcie Extentions gibt und alle, auch Apple, für diese werben, da ja kannst du deine Debayer, Raid und Gpu Karten einbauen wie du möchtest....
du meinst pcie extender für tbolt2.
die sind 75% langsamer als pci, und müssen diese bandbreite dann auch noch zwischen den karten teilen. sprich bei 2 karten hast du netto grob noch ein ZEHNTEL der bandbreite - und zudem kosten für die man gleich einen richtigen unkastrierten rechner bekommt.
daher funktionieren hochwertige karten nicht in dem gebastel, da sie pcie3-16 timing brauchen, sprich debayer ala redrocket-x startet nicht mal, die grafikkarte so sie startet macht diashow usw usf.
Antwort von userdx:
Hmm, also PCIe 3.0 x16 macht ca. 15754 MB/s = 15,754GB/s und Thunderbolt 2 macht 20GB/s also ich versteh da deine Aussage nicht so ganz....
quellen:
http://de.wikipedia.org/wiki/PCI_Express
http://de.wikipedia.org/wiki/Thunderbol ... ittstelle)
Antwort von studiolondon:
Hmm, also PCIe 3.0 x16 macht ca. 15754 MB/s = 15,754GB/s und Thunderbolt 2 macht 20GB/s also ich versteh da deine Aussage nicht so ganz....
quellen:
http://de.wikipedia.org/wiki/PCI_Express
http://de.wikipedia.org/wiki/Thunderbol ... ittstelle)
und als naechstes lernen wir dann noch den unterschied zwischen bit und byte, bevor wir im internet posten, ok?
p.s. und wenn du schon dabei bist das kleine 1 mal 1 zu lernen, lies auch ruhig mal nach was es mit der zahl 1024 bei kilo zu mega zubgiga zu tera zu peta usw auf sich hat.
Antwort von Frank Glencairn:
Als ich das letzte mal nachgesehen habe, gab es keine Unterstützung von externen GPUs bei Apple - kann sich aber zwischenzeitlich geändert haben.
Antwort von studiolondon:
Als ich das letzte mal nachgesehen habe, gab es keine Unterstützung von externen GPUs bei Apple - kann sich aber zwischenzeitlich geändert haben.
Das kommt bei imermacpro/imac noch dazu - aber selbst wenn mal tb->gpu unterstützt wird bleibt eben via tbolt schnarchlahm und somit sinnfrei.
Viele Anfänger (siehe oben) verstehen eben schlicht nicht, das Tbolt 2 75% langsamer als selbst veraltetes PCIE2 ist.