Newsmeldung von slashCAM:Ratgeber: Ratgeber: DaVinci Resolve, Mac Pro und der aktuelle Grafikkartenmarkt von rudi - 25 oct 2013 12:15:00
>Nicht nur die Ankündigung des kommenden Mac Pro hat uns dazu bewogen, mal wieder auf den neuesten Stand der aktuellen Grafikkarten-Technologie zu blicken. Auch DaVinci Resolve 10 wird laut Entwicklern im eigenen Firmenforum deutlich gehobene Ansprüche an die GPU stellen.
zum ganzen Artikel
Antwort von Gregott:
Ich hab in meinem grad die NVIDIA GeForce GTX 660 Ti eingebaut... kann ich nur absolut von abraten! Is ne katastrophe... naja dank dieses Beitrags weiss ich ja jetzt was ich zu tun hab ;-)
Antwort von iasi:
Erschwerend kommt hinzu, dass die Nvidia-Gamer-Karten bei der OpenCL-Leistung beschnitten sind (mit Ausnahme der Titan) und im Vergleich zu den AMD-Karten sehr schlecht abschneiden.
Hat man also Programme, die vor allem von CUDA profitieren und andere, die vor allem OpenCL nutzen, fällt die Entscheidung noch schwerer.
Leider gibt es eben auch keine aktuellen Vergleichstests - zumindest sind mir keine bekannt.
Komplex ist die Sache in jedem Fall, denn Resolve scheint z.B. viele CPU-Kerne nicht sonderlich gut zu nutzen:
http://www.reduser.net/forum/showthread ... erformance
Es gibt zudem Qualitätsunterschiede beim Rendern, zwischen CPU und GPU:
http://www.reduser.net/forum/showthread ... tX-Quality
Dies habe ich selbst z.B. bei Premiere auch schon festgestellt.
Antwort von Jeremy_x:
da bin ich mit meinem 4GB RAM GTX780er iMac hoffentlich erstmal safe...
... erstmal ;)
Antwort von Messerjocke:
Erfreulicherweise läuft Resolve 10 auch ganz brauchbar ( wenn auch nicht 100% flüssig) auf meiner alten AMD HD5670. Vielleicht hat noch jemand Erfahrungswerte für andere Karten? Mich würde interessieren, welches die besten Karten aus der aktuellen 100€ Klasse sind.
Antwort von studiolondon:
Lustigerweise habe ich auf die Anfrage von 2 slashcamforisten grade eben einen thread nach dem motto wie macht man den "4000€ mac pro besser für 1500€" geschrieben....
viewtopic.php?t=112241
werde (wenn die arbeit hier fertig ist) hinsichtlich der grafikkarten ein paar sehr relevante aspekte in den thread schreiben.
Antwort von rudi:
werde (wenn die arbeit hier fertig ist) hinsichtlich der grafikkarten ein paar sehr relevante aspekte in den thread schreiben.
cool, da freue ich mich schon, was relevantes zu hören. Ohne Ironie, denn das Thema ist ein Fass ohne Boden und jede persönliche Erfahrung in der Richtung sauge ich gerade aus persönlichem Interesse auf.
P.S. Ich hatte mir OpenCL Programmierung vor ein paar Jahren (als Apple gerade den Standard mitfestgeklopft hat) näher angesehen. Wie es aussieht ist AMD/ATI da gerade derGeschwindigkeits- König mit Nvidia weit hinter sich. Aber die CUDA-Routinen von Resolve sind schon länger bewährt und auch die CUDA-Treiber sollen stabiler sein, als AMDs OpenCL-Sachen. Hast du da auch Erfahrung?
Antwort von studiolondon:
werde (wenn die arbeit hier fertig ist) hinsichtlich der grafikkarten ein paar sehr relevante aspekte in den thread schreiben.
cool, da freue ich mich schon, was relevantes zu hören. Ohne Ironie, denn das Thema ist ein Fass ohne Boden und jede persönliche Erfahrung in der Richtung sauge ich gerade aus persönlichem Interesse auf.
Danke für die Blumen... Aber "Fass ohne Boden" ist es nicht, es sind bloß böse (und zwar von den Herstellern gelegte) Fallstricke zu beachten.
Oftmals sind bspw. die "Normalen" GTX bzw Radeons ERHEBLICH schneller als die Fires&Quadros, bei manch anderer Applikation stehts erneut auf dem Kopf - und dann (ätzend) sabotieren die Hersteller sich auch noch gegenseitig (Nvidia bspw. blockt CL, AMD cuda...) und dazu kommt dann noch die spezifische OS-Installation.
Also komplex, aber erfreulicherweise nicht "Ohne boden" - aber ich weiss GENAU was du meinst - wir hatten auf 2 DI systemen 4 Jahre konstant verbesserungen nur wegen dem Treibergedöns...
P.S. Ich hatte mir OpenCL Programmierung vor ein paar Jahren (als Apple gerade den Standard mitfestgeklopft hat) näher angesehen. Wie es aussieht ist AMD/ATI da gerade derGeschwindigkeits- König mit Nvidia weit hinter sich. Aber die CUDA-Routinen von Resolve sind schon länger bewährt und auch die CUDA-Treiber sollen stabiler sein, als AMDs OpenCL-Sachen. Hast du da auch Erfahrung?
Ja, habe ich allerdings - erste Hand, da unsere in-house programmierer viel mit cuda & gl agieren...im falle resolve ist es ÄTZEND komplex, da resolve ursprünglich NUR cuda/nvidia konnte, die CL-implementation hingegen ist neuer - aber partiell buggy & bei älteren funktionen weniger performant und um den fass den boden auszuschlagen (um in deinem bild zu bleiben ;)) sabotiert nvidia die eigenen CL-treiber unterhalb von quadro/tesla/titan....
.. und auf vollem davinci resolve (also linux cluster) darf man das dann per reboot (LAAAAANGER reboot) feintunen, kein spass. muss jetzt aber erst noch fertigarbeiten, die kunden drehen sich noch ein wenig.
p.s.
760 ist ein guter tip, hatte ich amüsanterweise gestern schon genauso in meinem mac pro - thread.
Den jubelarien von grant (kenne ihn seit ewigkeiten) hingegegen würde ich dir (ich kenne euch als gute & kritische journalisten) an Eurer Stelle anraten NICHT soviel glauben zu schenken.. warum?
Na, einfach - der gute Mann hat seine Karten (und die halten LAAAANG) im markt, bisschen PCI-X, massig PCI-e. Rat mal wie er die Kunden zum Neukauf bekommt, die eigentlich schon super ausgestattet sind. WIe wärs mit: Ein rechner in den KEINE der decklinks mehr passt, und sie bfrauchen dann neue Tbolts... Fällt dir dazu ein rechner im markt ein, der kein pcie hat? Irgendeiner? ;)
Antwort von iasi:
Was das Preis-Leistungsverhältnis betrifft scheint AMD weit besser als Nvidia.
Nur: Wie sieht es mit Adobe Premiere & Co ohne Nvidia-Karte aus?
Resolve ist nett, aber noch lange kein Ersatz für ein echtes Schnittprogramm - es ist eben noch immer primär ein Grading-Programm.
Ärgerlich ist es schon, dass Nvida per Treiber die OpenCL-Leistung der Gamer-Karten beschneidt. Da bleiben dann eben doch nur die teuren Profi-Karten oder der Titan-Ofen, der scheinbar mit voller Leistung läuft. (Oder die Gamer-Karte so zu trimmen, dass der entsprechende Pro-Teiber damit läuft.)
Antwort von rudi:
... und um den fass den boden auszuschlagen (um in deinem bild zu bleiben ;)) sabotiert nvidia die eigenen CL-treiber unterhalb von quadro/tesla/titan....
Lustig aber war schon damals so. Als OpenCL frisch war, hatte AMD/ATI nichts zu bieten und es gab als erstes eine funktionierende Khronos 1.0 Implementation vooon:
....
Nvidia....
Wirklich.
Außer Nvidia hatte anfangs niemand eine OpenCL-Umgebung und Nvidia blieb dann weiter halbherzig dran. Einerseits wollte man wohl die Tür zu Apple nicht zuschlagen andererseits kämpfte man mit OpenCL direkt gegen die eigene, proprietäre High Performance Architektur.
Schön schizo, so wohl auch noch heute. Drum lassen sie nur OpenCL Konkurrenz zu wo man richtig dafür löhnt. Wer auf CUDA setzt bekommt dagegen günstigere Karten von Nvidia. Und Nvidia bekommt dafür CUDA Marktanteile.
Aber es sieht wohl alles danach aus, als ob OpenCL für die großen Software-Häuser die Zukunft ist. Und wer mehr will, kann ja jetzt ein Grading-Tool für Mantle schreiben ;)
Antwort von rudi:
Was das Preis-Leistungsverhältnis betrifft scheint AMD weit besser als Nvidia.
Nur: Wie sieht es mit Adobe Premiere & Co ohne Nvidia-Karte aus?
Solange Adobe auch den CUDA-Zweig weiterentwickelt, ist es wohl egal. Denn mit CUDA sind die Nvidias ungefähr so schnell wie die ATIs mit OpenCL. Mehr dazu vielleicht von studioL...
Antwort von studiolondon:
... und um den fass den boden auszuschlagen (um in deinem bild zu bleiben ;)) sabotiert nvidia die eigenen CL-treiber unterhalb von quadro/tesla/titan....
Lustig aber war schon damals so. Als OpenCL frisch war, hatte AMD/ATI nichts zu bieten und es gab als erstes eine funktionierende Khronos 1.0 Implementation vooon:
....
Nvidia....
Wirklich.
ja, ich erinner mich - dunkel...
ich galube ich muss an der stelle mal was verraten: in der finsteren düsteren vergangenheit (den 90er Jahren!) war ich mal mitarbeiter einer firma namens "discreet logic" (die hatten ein paar VFX/compositing/NLE systeme, damals allerdings rechts teuer da man zwcks. open GL noch mind. eine Silicon Graphics Onyx kaufeb musste...)
und dementsprechend war der port nach CL/Numa/DX irgendiwe der running joke für nen jahrzehnt.
spreche auch selber (obwohl ganz andere arbeitswelz) halbwegs flüssig C(++), alten 650x und 680x0 opcode/assembler, eben was man so damals lernte bevor gitarren, frauen und kameras relevanter wurden ;)
Außer Nvidia hatte anfangs niemand eine OpenCL-Umgebung und Nvidia blieb dann weiter halbherzig dran. Einerseits wollte man wohl die Tür zu Apple nicht zuschlagen andererseits kämpfte man mit OpenCL direkt gegen die eigene, proprietäre High Performance Architektur.
Jep.
Um die Sache noch lustiger zu machen - falls du das nicht so oder so schon wusstest - schau mal nach wer Nvidia gegründet hat.
Yep. Nahezu komplett ex-SGI ingenieure, die KOMPLETT pro openGL und contra jeder propietären Lösung a la Cuda/DirectX usw waren...
Schön schizo, so wohl auch noch heute. Drum lassen sie nur OpenCL Konkurrenz zu wo man richtig dafür löhnt. Wer auf CUDA setzt bekommt dagegen günstigere Karten von Nvidia. Und Nvidia bekommt dafür CUDA Marktanteile.
Wobei, ganz offen, bizarrerweise inzwischen DirectX der Technologieführer ist - mit Abstand sogar.
Schräger gehts kaum noch.
Aber es sieht wohl alles danach aus, als ob OpenCL für die großen Software-Häuser die Zukunft ist. Und wer mehr will, kann ja jetzt ein Grading-Tool für Mantle schreiben ;
Oh, das Rennen ist imho noch völlig offen. Warum?
Naja, einfach - mobile (sprich smartphone & tablet) und stationary (sprich notebook / workstation). Bei ersteren sehen wir (merkwürdigerweise) ein komplette Open Gl 1.0, 1.1, 1.2 usw Renaissance, die oft genug als GPU-power missbraucht wird, DX hingegen wird zunehmend (bspw. bei unserem Aufkäufer, Autodesk) anstelle von CL/Numa genutzt explizit weil man geschlossene Normen da durchballern kann (hallo AutoCAD etc..).... sehr lustiges Damentennis, muss ich schon sagen.
Antwort von iasi:
Um nochmal zu den Grafikkarten und Resolve zurückzukommen - bzw. zu einem Flaschenhals:
http://www.reduser.net/forum/showthread ... ost1275941
"Number of Red Decoder decoders configured (64) is more than the number licensed(32)"
Ob das nur R3D betrifft?
Antwort von blitzerfisch:
Grako!
So die neue Kiste rennt jezt seit 24 Stunden ( irgend etwas kann ja immer sein) bisher ist nichts aufregendes.
Die verbauten grakos sind zwei MSI gtx 760 und ja, erstaunlich wie wenig
die gekostet haben ( im Titanvergleich) und arbeiten brav.
Resolve fühlt sich gut an ( ich wart auf zähe sachen oder Blinzler)-nix.
(Im Kopf die Gegenerfahrung mit einer amd saphire 7950-die zu dem
Zeitpunkt eine billige und recht flotte Alternative-in einem test-hackintosh
-weils einfach billiger ist so was zuerst auf i5 und so weiter zu testen-und
später des ganze Theater in grösser_wobei hier und jetzt einer w7 der
Vorzug gegeben und ein vmw-osx-das später parallel rennen wird)
(und so wird man nie alt...)
25 Stunde um.
Immer noch nix.
ich bin gespannt wie die herbst-winter-Runde Nvidia/Amd geht und wie sich
das für uns preislich auswirkt...des wird interessant.
Antwort von blitzerfisch:
kleiner Absturz...
-auch nix bewegendes- komt von einem kleinen Checkprogramm.
Kühlung der Xenons und Lüftung konventionell- an Flüssigkeiten wage
ich mich noch nicht-und Tiefkühlkost-eher auchnicht.
-und rennt. restart is heftig.
clik-drück-booom-da. fertig
Antwort von blitzerfisch:
Läuft noch immer!
2 x Titan und warum noch nicht?
ganz einfach, die 2 xenons haben schon mal 4400,- euro verbraten.
Genau viel Holz, für etwas, aber was soll es.
Weniger mir jmher Power in noch weniger verbaut.
( ne..ich will nicht mit 4 oder 5 Kisten reiten, max eine Reserve)
Keine Titan, weil ich it einer MINI_TITAN_WEIHNACHTEN13 rechne
die wh 2 herz schwächer ist und dann umgelabelt 399,-und etwas kostet.
-----> da wäre sich noch für den Aufpreis ein Sack ssd-s ausge.g.ggggg
immer noch nix- ich traum mir einen Tee zu brauen...
doch.. ne.
Antwort von rudi:
ich galube ich muss an der stelle mal was verraten: in der finsteren düsteren vergangenheit (den 90er Jahren!) war ich mal mitarbeiter einer firma namens "discreet logic" (die hatten ein paar VFX/compositing/NLE systeme, damals allerdings rechts teuer da man zwcks. open GL noch mind. eine Silicon Graphics Onyx kaufeb musste...)
Flame, Flint, Eddie -> Dicreet logic YEAH!
Antwort von studiolondon:
ich galube ich muss an der stelle mal was verraten: in der finsteren düsteren vergangenheit (den 90er Jahren!) war ich mal mitarbeiter einer firma namens "discreet logic" (die hatten ein paar VFX/compositing/NLE systeme, damals allerdings rechts teuer da man zwcks. open GL noch mind. eine Silicon Graphics Onyx kaufeb musste...)
Flame, Flint, Eddie -> Dicreet logic YEAH!
Hrrhrr, ja, flame/flint/inferno sind -bis heute- superbe tools.
aber ehre wem ehre gebührt, eddie war softimage ;)
Antwort von rudi:
aber ehre wem ehre gebührt, eddie war softimage ;)
Nicht nur.
Ebenfalls fast in Vergessenheit:
->
:
Discreet Logic's first business was as a licensed distributor and developer for Eddie, a two-dimensional software program developed by Animal Logic Pty. Ltd. At the end of 1992, however, the company abandoned Eddie, reassigning the rights to that product to Animal Logic and Softimage.
Antwort von axxel:
Nachdem hier offenbar ein Haufen Kenner der Materie so gemütlich zusammensitzen, mal eine doofe Frage: Spricht etwas dagegen, dass eine R9 290X-Karte auch in einem Mid-2010-Mac Pro laufen kann? Danke für Eure Einschätzung!
Antwort von Blancblue:
Interessiert mich auch, für das Geld einen "Titan-Killer" wäre schon nice.
Ich tippe mal darauf, dass das Netzteil des MacPros die Karte nicht gestemmt bekommt. Bedeutet dann ein externes Netzeil für die GraKa, das ist aber kein Beinbruch.
Ob Maverick mit der Karte umgehen kann, ist schwer zu sagen. Habe mal gegoogelt, aber die Meinungen und Erfahrungsberichte gehen irgendwie auseinander.
Antwort von Valentino:
Haben heute mal die Davinci Lite 10er Beta auf einem 6-Kern System, 64Gb Ram, K5000 für GUI und Tesla K20x Sytem etwas angetestet.
Raid6 per FibreChannel und OS Win7 Pro.
Die Software läuft so weit ganz stabil und einigermaßen flüssig, bei den 2688 Cuda Cores der Tesla haben wir uns aber etwas mehr erhofft.
Dabei ist uns aufgefallen, das die Tesla unter GPU-Z kein Hacken bei CUDA hat, die K5000 aber schon. Erkennt GPU-Z die Cuda Cores einfach nicht oder hat die Karte einfach keine?
Dabei scheint RedCine-X die Tesla Karte mit den 12 Open CL Einheitem zu lieben und so ist bei 5k HD Material ein flüssige Wiedergabe in halber Qualitätsstufe möglich.
Für Muster in DNxHD reichte das beim Rendern für Echzeit vollkommen aus.
Antwort von funkytown:
Fast die gleiche Rechenleistung bekommt man übrigens mit der bauähnlichen GTX 780 schon für ca. 500 Euro, jedoch wird diese Karte bewusst nur mit 3GB RAM ausgeliefert.
Der aktuelle imac 27" kann auch mit einer GTX780M mit 4GB bestellt werden (BTO).
Antwort von Valentino:
Seit dem es die GTX780ti gibt und diese auch schon erfolgreich auf einem Hackingtosch läuft ist die GTX780m wieder ein alte Hut.
Die Maximale BTO Version kostet über 4k Euro für die man schon eine 24 Kern Workstation bekommt.
Oh sehe gerade das auf der Apple Seite jetzt von einem Nelson Mandela, der die Hände faltet begrüßt wird.
Was für ein für eine kranke PR Nummer vor dem Weihnachtsgeschäft, ich könnte kot*en.
Antwort von Frank Glencairn:
Oh sehe gerade das auf der Apple Seite jetzt von einem Nelson Mandela, der die Hände faltet begrüßt wird.
Was für ein für eine kranke PR Nummer vor dem Weihnachtsgeschäft, ich könnte kot*en.
Bah, denen ist aber auch nix zu schade.
Peinliche Trittbrettfahrerei.
Antwort von funkytown:
Die Maximale BTO Version kostet über 4k Euro für die man schon eine 24 Kern Workstation bekommt.
Wie kommst Du darauf? Ein imac 27" mit Core i7 3,5GHZ mit GTX780M 4GB und 1TB Fusion Drive und 24GB RAM kostet rund 2.500 EURO (Mactrade oder Cyberport). Das ist das maximale an CPU und GPU, die möglich sind.
Seit dem es die GTX780ti gibt und diese auch schon erfolgreich auf einem Hackingtosch läuft ist die GTX780m wieder ein alte Hut.
Ja, und in 1 Jahr ist die GTX780ti ja auch schon wieder ein alter Hut. Darum geht es ja nicht. Die GTX780M gibt es auch mit 4GB RAM, damit lässt sich wahrscheinlich auch 4K ordentlich schneiden.
Antwort von jefff goldfish:
Die Kohle muß doch raus!! Husch..husch!!!
Arguing with an Apple/Mac fanboy is like speaking to a 3-year-old with ADD after a gallon of ice cream.
Ich werde 2014 folgendes T-shirt verkaufen::
SEHT HER ICH BIN REICH
Antwort von Valentino:
Wie kommst Du darauf? Ein imac 27" mit Core i7 3,5GHZ mit GTX780M 4GB und 1TB Fusion Drive und 24GB RAM kostet rund 2.500 EURO (Mactrade oder Cyberport). Das ist das maximale an CPU und GPU, die möglich sind.
Schau noch mal auf die Apple Seite, da komme ich mit i7 32GB Ram, 1TB SSD und der GTX780m auf knapp 4k.
http://store.apple.com/de/buy-mac/imac? ... tep=config
Ja, und in 1 Jahr ist die GTX780ti ja auch schon wieder ein alter Hut. Darum geht es ja nicht. Die GTX780M gibt es auch mit 4GB RAM, damit lässt sich wahrscheinlich auch 4K ordentlich schneiden.
Die GTX780m ist keine GTX780 und für 4k im Davinci bräuchtest du mindestens zwei GPUs zum Echtzeit rendern.
Man darf auch nicht vergessen das für das interne 27" Display mit 2560 x 1440 Pixeln schon ordentlich Power für die GUI verloren geht.
Mit dem komprimierten Red Material und einer RedRocket im PCIe Gehäuse wirst du es gerade mal so auf Echtzeit schaffen, aber keine Bandbreite mehr für eine 4k I/O Karte, geschweige den einem SAS oder FibreChannel Adapter mehr haben.
An eine 4k ProRes oder gar 4k RGB Sequenz sollte man erst garnicht nachdenken.
Klar mit den nötigen Tricks kann man in einer HD Timeline das 4k Material offline schneiden, aber das geht auch schon an unserem alten x58 QuadCore Xeon Workstation.
Und sogar die BM Entwickler sehen den IMac nur für das Grading von HD Videos:
http://www.blackmagicdesign.com/media/6 ... t_2013.pdf
(Seite6)
Antwort von gast5:
das funktioniert sogar mit dem MAC mini
http://www.sonnettech.com/support/chart ... processing
mit dem aktuellen iMac mit 4GB Grafikkarte der REDRocket am TB1 Port und einem Pegasus PromiseR1 am TB2 Port ist das kein Problem und wird auch von den BLACK Magic Entwicklern so empfohlen.
Antwort von Valentino:
RedCine schaft ja nicht mal die 24 Bilder/Sekunde in 1/2 Auflösung und das mit der 4k Dollar Rcoket Karte ;-)
Von der BM 4k Karte und einer echten 4k Timeline fehlt verständlicher Weiße auch bei der MacMini Lösung jegliche Spur.
Ach und sollte nicht vergessen, das das 19" Rack von Sonnet auch noch mal 1,2k USD kostet.
http://store1.sonnettech.com/product_in ... cts_id=494
TB hat nur nur vier Lanes der 2. Generation, eine MacPro mit vier 16xPCIe Slots aber über 30 Lanes à 5Gbit.
Das Gleiche gilt auch für alle anderen Workstation, die dazu noch über die 3. PCIe Generation verfügen.
Die neue RedRocket-X für 6k braucht 8x 3.0 PCIe oder 16x 2.0 PCIe Lanes.
Antwort von studiolondon:
Oh sehe gerade das auf der Apple Seite jetzt von einem Nelson Mandela, der die Hände faltet begrüßt wird.
Was für ein für eine kranke PR Nummer vor dem Weihnachtsgeschäft, ich könnte kot*en.
Bah, denen ist aber auch nix zu schade.
Peinliche Trittbrettfahrerei.
Eklig.
Eine Firma die ihre chinesischen "leih/miet""-mitarbeiter mit Hungerlöhnen abspeisen läßt, versucht vom Glanz einer der Ikonen des Wiederstands gegen exakt solche Praktiken wie sie Apple prakitizert was abzubekommen.
Und wenn man postmoderne Marketing-Platitüden ohne Inhalt & Kultur als Slogans verwendet, entsteht ganz schnell die (selbst)-parodie.
zum Bild
ist übrigens kein Witz - mit Mandela werben aber Mussolini vertreiben:
https://itunes.apple.com/us/app/imussolini/id350557380
iMussolini, nur 99 cent bei Apple. Ab damit auf die apple-homepage.
Alternativ vertreibt Apple auch Hitler ST.
https://itunes.apple.com/us/app/adolf-h ... 74017?mt=8
Ebenfalls nur 99 cent im Applestore.
Antwort von studiolondon:
mit dem aktuellen iMac mit 4GB Grafikkarte der REDRocket am TB1 Port und einem Pegasus PromiseR1 am TB2 Port ist das kein Problem
Bwahaha - was für ein geiles nerdgebastel-für ein ULTRALAHMES Gerät. Alles auf lahm - Notebookgrafik solo anstelle von doppel workstationgrafik, slow-motion Thunderbolt anstelle von schnellem pcie, solo quadcores anstelle doppel 12er und das ganze noch garniert mit Kabelsalat, Adaptern ohne Ende und externen pcie-housings :)
Ernsthaft - mir fällt schlicht nichts mehr ein, wo man noch schlechtere Leistung noch teurer bekomen kann.
und wird auch von den BLACK Magic Entwicklern so empfohlen.
Blödsinn². Blackmagic LIEBT die Kunden, die mangles pcie nicht mehr die weitverbreiteten decklinks weiternutzen können, sondern ALLES neu kaufen müssen, da sie nur noch Tbolt nutzen dürfen.
Wenn manhinegen mal die Blackmagic Resolve Design-Guidelines anschaut, sieht man schnell das solche Noteboksysteme nicht mal am Ende der Einsteigerklasse auftauchen. Nette zum lernen, übel zum arbeiten.
Antwort von gast5:
@ Valentino das Video war dazu gedacht zu Wiederlegen das es nicht funktioniert. Wenn du auf der Sonnet Seite die Infos zu THB2 gesehen hast wirst du die REDRocketX sehr wohl finden.
http://www.sonnettech.com/product/echoexpressiii.html
DER PREIS ja der PREIS ist heiß, aber dieser stand nicht zur Debatte
lieber Studio von welchem Notebook faselst du? Der Fred dreht sich und ich hoffe du kannst lesen um....
DaVinci Resolve, Mac Pro und der aktuelle Grafikkartenmarkt
Mal ein Auszug aus den BM OSX Foren von P.Chamberlaine
At the top of the post production section is a thread with links to the config guides. It sounds like you need the top model 27 " iMac with the 4GB GPU ram option and 16GB system ram.
Peter
weiters aus dem ALTEN Konfigguide der gerade aktualisiert wird..
http://www.blackmagicdesign.com/media/6 ... t_2013.pdf
lies mal auf Seite 25 nach zum Thema Davinci auf einem alten iMac late 2012 mit 16GB Ram und einer 2GB NV GPU
*** Bitte auf persönliche Beleidigungen verzichten! Der Admin ***
Antwort von Valentino:
@ Valentino das Video war dazu gedacht zu Wiederlegen das es nicht funktioniert. Wenn du auf der Sonnet Seite die Infos zu THB2 gesehen hast wirst du die REDRocketX sehr wohl finden.
http://www.sonnettech.com/product/echoexpressiii.html
DER PREIS ja der PREIS ist heiß, aber dieser stand nicht zur Debatte
Du redest von ungelegten Eiern, das Sonnet-Gehäuse wird zur Zeit nur mit TB1 ausgeliefert und TB2 soll dann in ein paar Monaten nachgerüstet werden.
Aber auch dann wird mit TB2 kein 6k Material in Echtzeit in 4k wiedergeben werden können.
Hab mir das mit den pcie Lanes nicht aus den Fingern gezogen, sondern ist eine offizielle Angabe von Red und auch die weisen darauf hin, das sogar TB2 zu langsam ist, wenn man noch ein 4k Bild ausgeben will.
Für das Rendern von HD Mustern soll TB aber anscheinend noch reichen(Laut Jarred) und für mehr wird die in einem IMAc oder MacBook Pro eh nicht genutzt.
Antwort von studiolondon:
@ Valentino das Video war dazu gedacht zu Wiederlegen das es nicht funktioniert. Wenn du auf der Sonnet Seite die Infos zu THB2 gesehen hast wirst du die REDRocketX sehr wohl finden.
http://www.sonnettech.com/product/echoexpressiii.html
Da ihnen ab 2013 pice verboten ist, wird jetzt bei den weniger kompetenten computerfreaks unter den applefans mittels tbolt->pcie adapter gebastelt.
Ist ja auch nur ~87.5% langsamer als pcie3, bzw 75% langsamer als pcie2 - kostet nur ein paar tausend euro extra; und die ***beschleunigerkarten*** laufen dann in zeitlupe gebremst :) ganz grosses damentennis.
lieber Studio von welchem Notebook faselst du? Der Fred dreht sich und ich hoffe du kannst lesen um....
Vom imac. der hat ausschließlich notebookgrafikkarten - und das zudem nur single.
Mal ein Auszug aus den BM OSX Foren von P.Chamberlaine
At the top of the post production section is a thread with links to the config guides. It sounds like you need the top model 27 " iMac with the 4GB GPU ram option and 16GB system ram.
Peter
weiters aus dem ALTEN Konfigguide der gerade aktualisiert wird..
http://www.blackmagicdesign.com/media/6 ... t_2013.pdf
lies mal auf Seite 25 nach zum Thema Davinci auf einem alten iMac late 2012 mit 16GB Ram und einer 2GB NV GPU
Natürlich kann ein Anfänger oder Einsteiger davinci auf einem billigsystem a la macbook pro notebook oder imac laufen lassen.
Es ist bloß
- schnarchlahm
- kann keine professionellen auflösungen wie 2k/4k usw in echtzeit
- kann broadcastfrequenzen wie 50/60p in echtzeit
- kann kein 3d
Für Hobbyisten und zum Lernen mit Testmaterial ohne Kunden eine mangelhafte, aber immerhin in den Basisfunktionen funktionelle Maschine, blackmagic selber spricht ja auch von PREVIEW.
Zum arbeiten ist das nichts, für Davinci ist apple 3te klasse (kommender macpro) bis 2te klasse (imac/macbook).
1ste klasse sind 8GPU cluster, 2te klasse 4 GPU systeme mit 12 cores aufwärts - und selbst die sind schon mehr als 20 fach so schnell wie ein imac, und ganz locker mal ~6-7 mal schneller als ein maximal ausgebauter macpro mit D700s und 12 core.
Apple ist für davinci die *mit Abstand* schlechteste & schwächste Platform.
Schau mal hier - so sieht eine solide Mittelklasse davinci workstation aus:
viewtopic.php?t=113218
Antwort von gast5:
Du redest von ungelegten Eiern, das Sonnet-Gehäuse wird zur Zeit nur mit TB1 ausgeliefert und TB2 soll dann in ein paar Monaten nachgerüstet werden.
(Availability 12/5) bringt ja auch nichts, der Mac Pro ist noch nicht verfügbar..
sag mal Studio, was hast daran nicht verstanden?
Ratgeber: DaVinci Resolve, Mac Pro und der aktuelle Grafikkartenmarkt
alles wie es scheint
Antwort von Valentino:
@motiongroup
Die neuen MacBook Pros haben auch schon TB2 oder täusche ich mich da?
Es gibt ja sogar schon ganz normale Haswell Motherboards mit TB2.
Nur Sonnet braucht noch etwas mit dem Umbau:
Sonnet's online exchange program begins later this fall.
http://sonnettech.com/thunderbolt2upgrade/index.html
So wie ich Sonnet kenne wird hier in Europa vor Ende Januar keinen echt TB2 to pice Box haben.
Alleine der Hot-Plug Treiber für Windows hat über zwei Jahre auf sich warten lassen.
Antwort von studiolondon:
der Mac Pro ist noch nicht verfügbar.
Blödsinn, die Grafikkarten des mac pros sind seit 2011 m Markt - bloß eben schneller & ungedrosselt, und die cpus & motherboards sind millionenfach im markt - zudem als dual-cpu systeme, nicht billig-single-cpu lösungen a la mac pro.
Wie gesagt:
Für Davinci ist Apple die MIT ABSTAND schlechteste und langsamste Platform.
Solide Mittelklasse Systeme, sprich 3 oder 4 GPUs, dual cpu und 4,5,6,7 schnelle pcie3 Busse sind für davinci *UM FAKTOREN* schneller als jede apple hardware. Wir reden hier kategorie 3-fach, 6-fach schneller und mehr.
viewtopic.php?t=113218
Antwort von Valentino:
Lass es sein, das bringt nix.
Aber hier mal eine schöne Grafik was hinter 16x pcie 3.0 steckt:
zum Bild
Antwort von gast5:
da hast du Recht Valentinio aber nur mit einem Falconridge Controller seit diesem Herbst.
aus dem RED forum
Thought I'd lend some input regarding TB2 vs TB1. I've had some great luck cranking out projects in both 4K/5K on a 2012 rMBP and ditching my tower with some stipulations. Here's my results and input:
The setup:
rMBP 2012 - 512 SSD, 16GB, 2.6 i7
TB Port 1 - Sonnet Echo Pro w/ Rocket
TB Port 2 - Promise R4 (~500-600MB/s)
Results:
- 4K in any flavor resolution up to 5:1 is smooth and realtime (both playback and transcoding).- 5K on 2012 Model is only good to 5K HD 7:1 and MOS projects. Anything with sound that requires smooth 24FPS playback needs to be 5K HD 8:1 or higher compression. 5K FF chugs at 16-18FPS.
On my Mac Pro tower I can get realtime 5K FF 7:1 or higher with an internal raid (~250-300MB/s) and Rocket. So I've been attempting to test whether TB is the bottleneck or disk speed on a rMBP.
.......
Den Rest werden wir sehen wie es ausgeht..
Antwort von studiolondon:
5K on 2012 Model is only good to 5K HD 7:1 and MOS projects.
Ah, MOS - also nur noch ohne ton und mit erhöhter Kompression.
Stummfilm in 2013. Nett.
Anything with sound that requires smooth 24FPS playback needs to be 5K HD 8:1 or higher compression. 5K FF chugs at 16-18FPS.
16-18 fps. prima. So macht scneiden spaß.
Denn - beides ist ohne eine EINZIGEN korrekturfilter. Einmal an der Farbkorrektur gedreht, und das ding macht zeitlupe.
Von Titeln, blenden und komplexen getrackten Masken, der dyn-NR usw usf fangen wir erst garnicht an.
Für heutigen Broadcast - sprich 50 & 60 fps -und aktuelles hochwertiges Kino - sprich HFR und/oder 3D - ist Apple selbst von BASISANSPRÜCHEN wie flüssigem Playback Jahre entfernt.
Der Rest der Welt nutzt all das routiniert und fragt sich verwundert warum manche zeitgenossen mit bastellösungen auf Apple versuchen auf bruchteile der normalen Leistung zu kommen ;)
Den Rest werden wir sehen wie es ausgeht..
Na ist doch klar - alle werden von dual- und quad-cpus auf single-cpus umschwenken, niemand wird mehr 2013er und 2014er grafikkarten verwenden, sondern nur gedrosselte 2011er modelle, alle werden sich hübsch per kabelsalat sdi-breakoutboxen, pcie-tb adaptergehäuse, kleine tischraids usw gemütlich um den arbeitsplatz gruppieren, niemand wird mehr 3,4 oder auch 8 gpus für davinci nutzen - und tbolt wird ein riesenerfolg in der tradition powerpc und firewire. Und natürlich - siehe dein Zitat - ist der Trend auf RED vor allem Stummfilme zu drehen nicht mehr wegzudiskutieren.
Wie bereits 2* gesagt:
Für Davinci ist Apple die MIT ABSTAND schlechteste und langsamste Platform.
Antwort von gast5:
16-18 fps. prima. So macht scneiden spaß.
Auf einem MacBook Pro 2012 mit TB 1... Du hast wirklich Probleme das gelesene zu verarbeiten.. Nochmals dreht es sich nicht darum das maximal mögliche unter Linux oder Windows zusammenzuschrauben sondern was ist unter OSX mit Originalkonfigurationen zu erreichen..
Jott hat dich ebenfalls darauf hingewiesen das es bei einer Neuinvestition wie eben damals auch bei euch um mehr als die schiere Leistung ankommt. Die gesamte Infrastruktur ist ausschlaggebend. Keine Frage, Apple hätte auch anders agieren, haben sie aber nicht. Die die umsteigen wollen oder müssen werden es tun, andere eben nicht. Was dies aber immer wieder mit deiner gerührten Werbetrommel zutun hat entschließt sich meinem Verständnis zumal viele große Anbieter noch immer mit dieser angeblich schlechtesten, langsamsten Plattform die größten Projekte umsetzen und das nona in Verbindung mit Linux und eventuell auch windows Plattformen wie auch hier beschrieben mit deinem so oft beworbenen sgo mistika
http://www.apple.com/de/finalcutpro/in- ... ctive-dee/
Eine workflowfrage kein wenn und kein aber warum auch..
Übrigens valentino , den Fred auf den du bei Reduser. anspielst kenn ich sehr gut und langsam keimt die Gewissheit das sich hier wie dort multiple Persönlichkeiten versammelt haben..
Antwort von Valentino:
Übrigens valentino , den Fred auf den du bei Reduser. anspielst kenn ich sehr gut und langsam keimt die Gewissheit das sich hier wie dort multiple Persönlichkeiten versammelt haben..
Nö spiele nicht auf den Fred an, sondern verlasse mich in erster Linie nur auf das was Jarred, Brent und Co aus dem Red Team so zu den technischen Daten hinzufügen.
Es gibt eine Hand voll gut informierter RedUser(Holland usw), aber wie schon angedeutet sind da manchmal schon merkwürdige Gestallten unterwegs. Alleine schon die Avatar Fotos sind doch ziemlich schräg.
Der eine lächelt in die Kamera und hält in der anderen Hand ein Busenbrenner.
Ein andere prallt damit, das er in seinem MacPro vier neue SSDs im Raid0 hat und das ohne zusätzliche 6Gbit Sata oder SAS Karte.
Antwort von funkytown:
Schau noch mal auf die Apple Seite, da komme ich mit i7 32GB Ram, 1TB SSD und der GTX780m auf knapp 4k.
Ja, bei deiner Konfiguration kostet alleine die 1TB SSD schon 1.000 Euro. Wer bitte schön bestellt auch 32GB RAM für 600 Euro bei Apple? Deine 4.000 sind also nur ein theoretischer Wert.
In der besten Ausstattung mit i7 3,5GHZ und NVIDIA GeForce GTX 780M 4 GB GDDR5 mit einer 1TB Fusion Drive, kostet der imac 2.500,- EURO.
Wer professionell schneidet, wird sich dann ohnehin für ein RAID-System o.ä. entscheiden und die RAM-Bausteine separat bestellen und in 1 Minute einbauen.
Irgendwie habe ich das Gefühl, dass Du auf Apple nicht so gut zu sprechen bist ;)
Antwort von Valentino:
Schau noch mal auf die Apple Seite, da komme ich mit i7 32GB Ram, 1TB SSD und der GTX780m auf knapp 4k.
Ja, bei deiner Konfiguration kostet alleine die 1TB SSD schon 1.000 Euro. Wer bitte schön bestellt auch 32GB RAM für 600 Euro bei Apple? Deine 4.000 sind also nur ein theoretischer Wert.
In der besten Ausstattung mit i7 3,5GHZ und NVIDIA GeForce GTX 780M 4 GB GDDR5 mit einer 1TB Fusion Drive, kostet der imac 2.500,- EURO.
Wer professionell schneidet, wird sich dann ohnehin für ein RAID-System o.ä. entscheiden und die RAM-Bausteine separat bestellen und in 1 Minute einbauen.
Irgendwie habe ich das Gefühl, dass Du auf Apple nicht so gut zu sprechen bist ;)
Ui jetzt kommt der Apple Hater Vorwurf, ganz großes Kino.
Ich habe nie behauptet das sich jemand den MAX BTO kauft, da legst du mir was in den Mund.
Wir haben hier selber drei IMacs herumstehen, eine für die Dispo im Büro, weil es gut aussieht und zwei fürs Muster Rendern mit Davinci oder Scratch. Für FCP, Premiere und Avid nutzten wir lieber noch die MacPros,
da hier die IMacs trotz FibreCahnnel Anbindung einfach zu langsam sind und die Bandbreite für eine I/O Box, 2. Monitor und Raid fehlt.
Sendeband-Erstellung wird mit einem iMac schon etwas schwieriger.
Privat experimentiere ich gerade mit der Z77-QUO-AOS Platine und kann mich nicht beschweren. Das Mainboard unterstützt mit dem richtigem BIOS eine native OS-X Installation, hat 2xTB1 Buchsen, 2x 8 pcie 3.0(16xMechanisch)Lanes und 2x pcie 1x 2.0.
Sogar nach dem Import dieses Boards und einem 27" Dell Monitor komme ich immer noch auf ein Bruchteil eines 27" iMacs und habe maximal 2x Grafikkarten und eine HDMI/SDI Out Karte ohne den USB3.0 oder TB Anschluss benutzt zu haben.