Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Empfehlung für Davinci Resolve 12.5 Schnittrechner



Frage von Helge Renner:


Hallo Allerseits

Ich brauche einen schnelleren Schnittrechner und habe mich durch die diesbezüglichen Forenthreads gelesen, aber entweder ist die Hardwareentwicklung über die empfohlenen Komponenten hinweg oder mein Anforderungsprofil ist anders:

Filmschnitt auf Davinci Resolve 12,5 Studio Version
Ausgangsmaterial:
- BMCC Raw, Pocket Raw, Micro Raw sowie Raw 3:1, ab und zu ProRes422HQ
- Optimized Media von GH4 UHD h264 mov files, ist aber das letzte Projekt in h264
- ProRes422HQ UHD (weniger als BM Raw)
- irgendwann in vielleicht 2 Jahren BM Ursa Mini 4.6K Raw oder was es dann als Alternative gibt.

Farbkorrekturen mache ich bei kleineren Projekten selber, bei längeren Filmen buche ich lieber einen Koloristen mit eigener Ausrüstung und Programm, z.B. Scratch.

Bildbearbeitung mit Capture One Pro 9 von mindestens 80MB großen Sony Raw Dateien und Mittelformat Scans.

Ich habe immer nur Macs benutzt, habe aber weder die Lust darauf zu warten, dass Apple die veraltete Hardware erneuert, noch bin ich gewillt, den x-fachen Apple Aufschlag zu zahlen. Daher deutet alles Richtung Windows PC, was ja mit den beiden oben genannten Programmen kein Problem wäre.

Das Problem bei Windows basierten Schnittsystemen ist für mich die große Auswahl an CPUs. Ich weiß leider nicht, welche CPU(s) von den unten genannten ausreichen, das oben genannten Material in Resolve flüssig, d.h. ohne stotternde Timeline und langsames Interface zu schneiden, auch wenn eine LUT drauf liegt und einfache Kontrast- und Farbkorrekturen vorgenommen werden.

Die bisher von mir recherchierten Optionen sind folgende:

Intel Core i7-6700K Skylake
Keine Ahnung welches Board
(kaum Erweiterungsmöglichkeiten aber günstig)

Intel Core i7-6850K
Asus X99 Deluxe II Board
(Das ist BMs offizielle Empfehlung.)

Intel Xeon E5-2620 v4, eventuell 2x
Asus Z10PE-D16 WS Board

Intel Xeon E5-2630 v4
Asus Z10PE-D16 WS Board

Intel Xeon E5-2640 v4,
Asus Z10PE-D16 WS Board

Gebrauchte Dell oder HP Workstation mit
2x Intel Xeon E5-2687 v2
oder
2x Intel Xeon E5-2620 v2

Oder Selbstbau mit den gleichen gebrauchten Xeons wie bei den Workstations.

Dass sich die Vorgänger i7 Chips der aktuellen Broadwell Generation lohnen, bezweifel ich, da sie fast das gleiche kosten.

Bei allen Konfigurationen gleich:
MSI Radeon RX 480 Gaming X 8 GB, bei Bedarf x2
64GB RAM
500GB Samsung SSD 850 M.2 für OS und Programme
500GB Samsung SSD 840 SATA für Cache
2TB Samsung SSD 850 EVO SATA für Fotos
8TB Seagate Archive HDD als Projektarchiv mit doppeltem externem Back Up
5x2TB HDD Raid 0 für Videomaterial (aus Kostengründen, später SSD Raid) (mit doppeltem externem Back up)
Noctua Kühler und Lüfter
Corsair Profesional Series HX1000i 1000W ATX Netzteil
Antec P280 schallgedämmtes Gehäuse
27er Monitor für GUI, Eizo ColorEdge CS240 24’’ mit Decklink Karte als Viewer und ohne Decklink für die Bildbearbeitung in Capture One
(Ein 21:9 Monitor scheint leider keine Gute Idee für das Resolve GUI zu sein, oder?)

Über Tipps und Erfahrungswerte würde ich mich sehr freuen!

Viele Grüße
Helge

Space


Antwort von mash_gh4:

das meiste klingt schon recht vernünftig.

ich persönlich bin kein so großer fan von asus od. msi mainboards, aber das ist wohl eher geschmackssache. es wird auch erst wirklich dann kritisch, wenn du auf der hardware auch andere betriebssysteme (mac os, linux) nutzen willst. gigabyte und asrock sind da häufig kompatibler.

was du allerdings in deinen planungen unbedingt einbeziehen solltest, ist die tatsache, dass man gerade für resolve kaum um einen zweiten bildschrim und zumindest eine decklink mini monitor karte zur dedizierten ausgabe herum kommen wird. idealerweise sollten die beiden schirmen auch in puncto auflösung und wiedergabequalität nicht zu weit voneinander entfernt sein, weil es sonnst bei der normalen nutzung mit bildschirmübergreifendem desktop recht gewöhnungsbedürftig wird und schwächen des GUI schrims durch den unmittelbaren vergleich besonders auffällig zu tage treten. ich hab auch ehrlich gestanden nie richtig nachvollziehen können, warum der GUI schirm für die arbeit im resolve nicht mindestens die gleiche qualität in der farbwiedergabe wie der video preview monitor besitzen soll, wo doch sehr viele subtilen farbstimmungsreferenzen (stichwort: gallery window) auch auf dieser seite angesiedelt sind. leider gibt's auch das problem, dass sich gerade auf dieser seite eine hohe bildschrimauflösung wirklich lohnt, damit man mehr platz und übersicht beim arbeiten hat. das ist leider schwer mit guter qualität und vertretbarem budget unter einen hut zu bringen.

ich persönlich würde auf keinen fall eine amd grafikkarte verwenden!!

eine günstige nvidia 1060 reicht dagegen für die von dir beschrieben anforderungen vorerst einmal völlig aus. alles andere ist wirklich nur was für angeber, die nichts besseres oder unökonomischeres mit ihrem geld anzufangen wissen.

Space


Antwort von Helge Renner:

Hallo mash_gh4,

vielen Dank für die Antwort. Von mir aus auch ein ASRock oder Supermicro Board, da bin ich nicht festgelegt. Entscheidender ist der Prozessor, aber dazu weiß ich zu wenig.
Die AMD Karte hat mein Interesse aufgrund der angeblichen Leistung in Resolve. Spielen tue ich nicht, von daher sind die ganzen spielspezifischen Vorteile der Nvidia Karten für mich egal. Ist AMD selbst bei den neuen Karten noch so problematisch?

Bei den Monitoren skizzierst du genau die Problematik. Zwei 27er, die von der Qualität dem 24er Eizo entsprechen, sind ziemlich teuer, ein 24er fürs GUI wäre etwas klein. Es nervt, wenn man die Timeline vertikal scrollen muss, um alle Bild- und Tonspuren zu sehen.

VG
Helge

Space


Antwort von wolfgang:

Also bei mir läuft Resolve mit einer AMD R9 390X mit 8GB sehr gut. Gerade für UHD und 4.6K sind halt 8GB relevant. Und ohne Decklink 4K Extreme will ich mit Resolve nichts machen.

Space


Antwort von Helge Renner:

Hallo Wolfgang,

gut zu hören! Decklink Karte ist eingeplant.
Aber was meinst du zu den Prozessoroptionen?

VG
Helge

Space


Antwort von HollywoodHanky:

Kauf dir halt nen 5960x mit nem X99 Brett und gut ist.

Space


Antwort von Helge Renner:

Kauf dir halt nen 5960x mit nem X99 Brett und gut ist. Warum dann nicht gleich den neuen i7 6900-K? Kostet neu genauso viel (mit Betonung auf viel;)

Space


Antwort von HollywoodHanky:

Wenn du nen Broadwell ready Board hast und das net noch extra flashen willst, dann auch den 6900K, die 30 Euro kratzen ja auch keinen mehr. Ansonsten geht der 10 Core natürlich auch gut klar, aber ob das die 500 Euro mehr Wert sind bei dem Material, ich wage es stark zu bezweifeln.

Space


Antwort von Helge Renner:

Wenn du nen Broadwell ready Board hast und das net noch extra flashen willst, dann auch den 6900K, die 30 Euro kratzen ja auch keinen mehr. Ansonsten geht der 10 Core natürlich auch gut klar, aber ob das die 500 Euro mehr Wert sind bei dem Material, ich wage es stark zu bezweifeln. Ich habe ja noch kein Board, daher bin ich bei der Systemzusammenstellung völlig flexibel.
Den 10-Kerner halte ich auch für zu teuer.

Space



Space


Antwort von wolfgang:

Ich nutze eine 5960X, meineKonfiguration kannst hier nachlesen.

http://www.videotreffpunkt.com/index.ph ... em-für-4K/

Space


Antwort von Frank Glencairn:

Lieber weniger schnelle Kerne als mehr langsame - ein einziges Modul oder Plugin, das nicht vernünftig skaliert bremst dir sonst schnell den ganzen Rechner aus, wenn es nur auf einem Kern rumeiert und der Rest wartet, daß was passiert.

Der aktuelle 6-core dürfte momentan der Sweetspot sein.

Auch wenn ich bisher immer auf Nvidia gesetzt habe (und auch sehr zufrieden war), wird die nächste Karte auch ne RX480 sein, bzw. zwei davon - allein eine ist so schnell wie ne Titan, und selbst 2 kosten nur einen Bruchteil davon.

Der Rest in deiner Liste klingt auch sehr vernünftig, und entspricht in etwa dem, was ich auch nehmen würde.

Space


Antwort von Helge Renner:

Ich nutze eine 5960X, meineKonfiguration kannst hier nachlesen.

http://www.videotreffpunkt.com/index.ph ... em-für-4K/ Vielen Dank für den Link!

Space


Antwort von Helge Renner:

Hallo Frank, wie ist denn deine Erfahrung mit der Bearbeitung von Ursa Mini 4.6K Raw Material im aktuellen Resolve und was für eine CPU nutzt du dafür gegenwärtig? Läuft das flüssig?

VG
Helge
Lieber weniger schnelle Kerne als mehr langsame - ein einziges Modul oder Plugin, das nicht vernünftig skaliert bremst dir sonst schnell den ganzen Rechner aus, wenn es nur auf einem Kern rumeiert und der Rest wartet, daß was passiert.

Der aktuelle 6-core dürfte momentan der Sweetspot sein.

Auch wenn ich bisher immer auf Nvidia gesetzt habe (und auch sehr zufrieden war), wird die nächste Karte auch ne RX480 sein, bzw. zwei davon - allein eine ist so schnell wie ne Titan, und selbst 2 kosten nur einen Bruchteil davon.

Der Rest in deiner Liste klingt auch sehr vernünftig, und entspricht in etwa dem, was ich auch nehmen würde.

Space


Antwort von HollywoodHanky:

Bei 4.6K Raw würde ich dann doch eher zum 8core statt zum 6core greifen. Ob du nun 300mhz weniger per Core hast, dafür aber 2 Kerne weniger, das rechnet sich nicht. Daher der 6900K und gut ist ;)

Space


Antwort von mash_gh4:

Entscheidender ist der Prozessor, aber dazu weiß ich zu wenig. ich glaube, dass die frage des prozessor mitlerweile gar nicht mehr so weit von den diskussionen um grafikkarten entfernt ist.

nachdem ich persönlich hauptsächlich unter linux arbeite und resolve nur in vrtuellen maschinen mit durchgereichter grafikkarte nutzen kann, ist die nvidia karte bei mir die meiste zeit im hauptsystem gar nicht verfügbar. d.h. in den meisten fällen bzw. mit vielen anderen programmen verwendende ich oft nur die integrierte GPU des hauptprozessors. und ich muss wirklich sagen, dass es mich ziemlich beeindruckt, wie gut das mittlerweile funktioniert! die entsprechende leistungsfähigkeit der intel iGPUs wird oft sträflich unterschätzt. in wahrheit hat man damit deutlich weniger probleme und trotzdem ausreichend rechenleistung für 99% aller anwendungsfälle. wirklich nervig ist eher der umstand, dass es weiterhin nur mit ganz komplizierten techniken möglich ist, verschiedene GPUs in einem rechner gemeinsam zu nutzen bzw. zur paralellisierten zusammenarbeit zu bewegen. deshalb liegt das entsprechende potential in sehr vielen fällen ohnehin weitestgehend brach. ich würde dir trotzdem empfehlen, aus genau diesem grund auf eine möglichst aktuelle CPU mit leistungsfähiger iGPU zu setzten, weil man derartiges sehr selten nachträglich austauscht und hier leider mittlerweile ein ähnlicher rascher generartionenwechsel bzw. mangelden rückwärtskompatibilität wie bei den grafikkarten zu beobachten ist. ich bin da aber leider auch nicht ganz auf dem laufenden, weshalb ich dir bei der konkreten auswahl nur sehr bedingt ratschläge geben kann.
Die AMD Karte hat mein Interesse aufgrund der angeblichen Leistung in Resolve. Spielen tue ich nicht, von daher sind die ganzen spielspezifischen Vorteile der Nvidia Karten für mich egal. Ist AMD selbst bei den neuen Karten noch so problematisch? ich würde eher sagen, das die amd lösungen für verspieltere zeitgenossen attraktiver sein dürften, als für's ernsthafte arbeiten.

das wirkliche problem ist die tatsache, dass zwar beide hersteller in vielen punkten ähnlich tolle erweiterungen für den selben zweck besitzen, aber von dem meisten programmen doch nur die populärere variante, wenn überhaupt, genutzt wird.

bei OpenCL vs. CUDA war das lange zeit ohnehin ganz offensichtlich. das hat sich mittlerweile zum glück ein bisserl relativiert -- u.a. eben auch wegen dem entsprechenden basisabgebot, wie sie die iGPUs heute in faktisch jedem aktuelleren PC bieten. AMD hat in der OpenCL performance tlw. noch immer die nase vorn, aber das ändert nicht viel, solange es weiterhin programme gibt, die nur via CUDA eine optimnale hardwarebeschleunigung bieten. aber wie gesagt, das ist eher beispielhaft für ein größeren problemzusammenhang zu sehen. das ganze wiederholt sich leider auf der ebene der hardwareunterstützten video-en/decodierung oder effizienten speicherzugriffsmodellen leider in ganz gleicher weise. aus ganz pragmatischen gründen kommt man also leider kaum um nvida herum, auch wenn man diesen hersteller, seine firmenpolitik und all die troubles, die mit closed source treibern verbunden sind, überhaupt nicht schätzt.
Bei den Monitoren skizzierst du genau die Problematik. Zwei 27er, die von der Qualität dem 24er Eizo entsprechen, sind ziemlich teuer, ein 24er fürs GUI wäre etwas klein. Es nervt, wenn man die Timeline vertikal scrollen muss, um alle Bild- und Tonspuren zu sehen. ich finde 24" für die vorschau und den betrachtungsabstand am schreibtisch mehr als groß genug. auch die wirklich guten FSI organic led monitore sind normalerweise nicht größer. allerdings empfehlen oft die wirklich erfahrenen coloristen, dass man ohnehin besser über einen größeren TV schirm in dafür realistischem betrachtungsabstand graden sollte, so wie man ja auch kinoproduktionen nur in einem kleinen saal mit beamer realistisch beurteilen/bearbeiten kann. diese grundsätzlich orientierung an den tatsächlichen rezeptionsbedingungen scheint einiges für sich zu haben.

ich arbeite hier jedenfalls mit zwei 24" FHD schrimen, würde aber glauben, dass für schnitt-GUI und arbeiten im betriebsystem ein 27" 2560x1440 schirm mittlerweile zeitgemäßer sein dürfte.
Gerade für UHD und 4.6K sind halt 8GB relevant. also, meine GPU besitzt nur 2GB VRAM. :) das würde ich zwar niemanden unbedingt als ratschlag für eine neuanschafung mit auf den weg geben (1060er kommen normalerweise ohnehin mit 6GB), aber ich kann deshalb zumindest mit sicherheit behaupten, dass man damit in der praxis jene anforderungen, wie sie hier genannt wurden, prinzipiell abwickeln kann. d.h. ich bekomme bei einigermaßen vernünftiger arbeitsweise auch damit praktisch nie irgendwelche fehlermeldungen od. störungen auf grund mangelnder GPU speicherkapazität zu gesicht.

gut, ich weiß, wie man derartiges ganz bewusst provozieren kann (parallel nodes) --, aber derartigem begegne ich in der praxis wirklich nie. allerdings mach ich kompliziertere geschichten ohnehin lieber im nuke und natron als im resolve. im nuke wird mit GPU hardware (leider allerdings nicht mit hauptspeicher!) generell ein bisserl sorgsamer und ressourcensparender umgegangen. ich bin allerdings schon gespannt, wie sich das in nächster zeit beim natron entwickeln wird. die haben erst kürzlich eine GLSL orientierte GPU beschleunigungsunterstützung für plugins eingebaut, die sich von den konventionen im nuke ein wenig unterschiedet. wie sich das in der praxis auswirken wird, bzw. welche hardwareanforderungen dem letztlich am besten gerecht werden, wird sich wohl erst im lauf der zeit herausstellen.

Space


Antwort von HollywoodHanky:

Also außer deiner eigenen Sichtweise auf Linux und wie toll Natron und Nuke sind hab ich da jetzt keine neuen Infos rauslesen können - und dann so nen Wall of Text? Toll, dass du mit deiner iGPU oft zufrieden bist - das ist hier aber so gut wie keiner.

Space


Antwort von mash_gh4:

Also außer deiner eigenen Sichtweise auf Linux und wie toll Natron und Nuke sind hab ich da jetzt keine neuen Infos rauslesen können - und dann so nen Wall of Text? Toll, dass du mit deiner iGPU oft zufrieden bist - das ist hier aber so gut wie keiner. du hast schon recht, dass mein blick durch die linux brille das ganze oft in einem etwas anderen licht erschienen lässt. trotzdem verfolge ich zb. ziemlich regelmäßig die aktuellen benchmarks auf phoronix.com. wenn du mir dort einen test zeigen kannst, wo die amd cpus im vergleich zur selben generation ihr nvidia gegenstücke so herausragend abschneiden, würde mich das wirklich überraschen -- wobei natürlich auch all die tests auf dieser website mit einiger vorsicht zu genießen sind!

was die intel iGPUs betrifft, sei einfach auf folgene feature-matrix verwiesen:

https://mesamatrix.net/

wobei man vielleicht hinzufügen muss, dass im letzten jahr unglaublich viele gute entwickler den entsprechenen entwicklungsabteilungen bei intel den rücken gekehrt haben! die betrefffende zukunft erscheint daher ungewiss. das hat leider auch ein bisserl was mit der exponierten rolle dieses herstellers in den gegenwärtigen amerikanischen wahlkämpfen und ethischen fragen rund um die die computer-sicherheit zu tun.

den durchschnitts-mac- od. windows-benutzer berühren solche geschichten natürlich nicht. dort ist man gewöhnlich ohnehin mit dem zufrieden, was der markt gegenwärtig für das konsumfreudige volk an fertigprodukten zu bieten hat. wenns't dagegen vor der frage stehst: wie programmiert man eine wirklich schnelle histogram-lösung für freie plattformübergreifende programme?, spielt es gleich einmal eine ziemliche einschneidende rolle, ob z.b. compute shaders auch tatsächlich auf allen systemen und der dort anzutreffenden hardware zur verfügung stehen.

ich kann auch nicht recht nachvollziehen, warum man die reale unterstützung von nuke, natron, blender, shotcut, ardour od. mpv nicht genau so ernst nehmen soll, wie die jeweilige performance alleine im resolve? im gegenteil, ich halte das für einen ziemlich wichtige orientierung, um über die tatsächlichen stärken von resolve und dessen tlw. eklatante mängel einigermaßen objektiv urteilen zu können bzw. eine kritisch unterscheidung zu treffen.

Space


Antwort von Helge Renner:

Ich verstehe leider nicht so ganz, was das alles mit meiner Ausgangsfrage zu tun hat.
Also außer deiner eigenen Sichtweise auf Linux und wie toll Natron und Nuke sind hab ich da jetzt keine neuen Infos rauslesen können - und dann so nen Wall of Text? Toll, dass du mit deiner iGPU oft zufrieden bist - das ist hier aber so gut wie keiner. du hast schon recht, dass mein blick durch die linux brille das ganze oft in einem etwas anderen licht erschienen lässt. trotzdem verfolge ich zb. ziemlich regelmäßig die aktuellen benchmarks auf phoronix.com. wenn du mir dort einen test zeigen kannst, wo die amd cpus im vergleich zur selben generation ihr nvidia gegenstücke so herausragend abschneiden, würde mich das wirklich überraschen -- wobei natürlich auch all die tests auf dieser website mit einiger vorsicht zu genießen sind!

was die intel iGPUs betrifft, sei einfach auf folgene feature-matrix verwiesen:

https://mesamatrix.net/

wobei man vielleicht hinzufügen muss, dass im letzten jahr unglaublich viele gute entwickler den entsprechenen entwicklungsabteilungen bei intel den rücken gekehrt haben! die betrefffende zukunft erscheint daher ungewiss. das hat leider auch ein bisserl was mit der exponierten rolle dieses herstellers in den gegenwärtigen amerikanischen wahlkämpfen und ethischen fragen rund um die die computer-sicherheit zu tun.

den durchschnitts-mac- od. windows-benutzer berühren solche geschichten natürlich nicht. dort ist man gewöhnlich ohnehin mit dem zufrieden, was der markt gegenwärtig für das konsumfreudige volk an fertigprodukten zu bieten hat. wenns't dagegen vor der frage stehst: wie programmiert man eine wirklich schnelle histogram-lösung für freie plattformübergreifende programme?, spielt es gleich einmal eine ziemliche einschneidende rolle, ob z.b. compute shaders auch tatsächlich auf allen systemen und der dort anzutreffenden hardware zur verfügung stehen.

ich kann auch nicht recht nachvollziehen, warum man die reale unterstützung von nuke, natron, blender, shotcut, ardour od. mpv nicht genau so ernst nehmen soll, wie die jeweilige performance alleine im resolve? im gegenteil, ich halte das für einen ziemlich wichtige orientierung, um über die tatsächlichen stärken von resolve und dessen tlw. eklatante mängel einigermaßen objektiv urteilen zu können bzw. eine kritisch unterscheidung zu treffen.

Space



Space


Antwort von mash_gh4:

Ich verstehe leider nicht so ganz, was das alles mit meiner Ausgangsfrage zu tun hat. seh es vielleicht so:

selbst wenn resolve im augenblick etwas eigenwillige und oft reichlich unausgewogene anforderungen an die hardware stellt, bleibt noch immer die anforderung offen, sich trotzdem ein system zu bauen, das den stand der technik ganz generell einigermaßen sauber gerecht wird. das macht sich spätestens dann bemerkbar, wenn resolve doch wieder einmal eine der vielen offenen baustellen bereinigt -- was ja in wahrheit sehr oft mit rückgriff auf ohnehin überall sonst eingesetzte gute freie software-komponenten passiert. spästestens dann kommen die angedeuteten objektiven maßstäbe doch wieder zum tragen.

ich hab in die andere richtung immer wieder ziemliche probleme, wenn ich nachzuvollziehen versuche, welch irrwitzigen und technisch unhaltbaren empfehlungen im resolve umfeld dauernd ausgebreitet werden, ohne das man sich auch nur annähernd um die wurzeln der zugrundeliegenden probleme und ineffizenz kümmert.

Space


Antwort von Frank Glencairn:

Hallo Frank, wie ist denn deine Erfahrung mit der Bearbeitung von Ursa Mini 4.6K Raw Material im aktuellen Resolve und was für eine CPU nutzt du dafür gegenwärtig? Läuft das flüssig?
Die CPU ist bei dem BM raw Material eher zweitrangig, und langweilt sich zu tode, weil die meiste Arbeit of der GPU erledigt wird. Wenn du RED Material schneidest, sieht es gleich völlig anders aus, da bekommt auch die CPU ordentlich zu tun.

Und ja, wenn deine Platten schnell genug sind, und den Rest nicht ausbremsen, läuft BM raw flüssig, sogar auf meiner alten GTX980.

Space


Antwort von wolfgang:

Du willst eine Maschine für Resolve - und da ist die GPU MINDESTENS genauso wichtig wie die CPU. Also von der Seite her ist es mehr als ratsam die GPU Specs zu erfüllen. Ich habe in meiner Kiste auch eine Quadro mit 4GB ram - die K4200. Die deaktiviere ich für Resolve. Das Arbeiten mit UHD 25p geht mit der Quadro gerade so, mit der 8GB R9 390X fluscht das richtig. Auch mit dem XAVC I der FS7 was in der Dekodierleistung noch immer aufwendiger ist.

Die Decklink ist für Resolve sehr gut, ich habe aus Kostengründen nicht die 12G Karte genommen was falsch war, wenn man auch HDR bearbeiten will. UHD 50p geht damit aber - und da ist auch der Monitor wichtig, der sollte UHD 50p über HDMI können und das können heute noch nicht alle.

Soweit ich es sehe ist der 5960X für Resolve kein "muss" - ich komme ohne Übertaktung aus und die Sache funktionierte mit der 8GB GPU eben gut. Es hängt eben auch davon ab mit welchen Werkzeugen noch gearbeitet werden soll. Resolve ist inzwischen für den Schnitt ganz gut, der Audioteil ist aber noch immer bescheiden. Viele fahren damit eher roundtrip workflows.

Die Übertaktung ist mit den heutigen Boards eh relativiert worden, weil die Minderlast die Taktung immer zurück fahren. Da kann dann je nach App die Zahl der Kerne relevant sein, was bei moderneren Apps eher der Fall ist. Meine Maschine war auch teils noch auf das ältere Vegas ausgerichtet, und da zählen eher hochgetaktete Kerne.

Space


Antwort von HollywoodHanky:

Natürlich ist der 5960X kein "Muss". Wir nutzen Resolve auch nur zum Grading und Dailies erstellen (wofürs mal gedacht war bevor irgendnen Wahnsinniger das als NLE umbauen wollte) und pumpen da ganz entspannt mit 130 fps durch die ProRes Files - aber das ist halt rein vom Prozessor abhängig. Ich würde nur nicht eine HighEnd GPU ala Titan/980Ti oder von mir aus auch Midrange AMD in den Rechner schnallen, nur um dann nen Quadcore reinzubauen - das ist einfach verschenkte Leistung.

Space


Antwort von Frank Glencairn:

ich würde eher sagen, das die amd lösungen für verspieltere zeitgenossen attraktiver sein dürften, als für's ernsthafte arbeiten.
"Verspielte Zeitgenossen?" Die ist so schnell wie ne Titan in Resolve, und das auch noch zu einem geradezu lächerlichen Preis, was denn noch?
Natürlich ist der 5960X kein "Muss". Wir nutzen Resolve auch nur zum Grading und Dailies erstellen (wofürs mal gedacht war bevor irgendnen Wahnsinniger das als NLE umbauen wollte) .... Resolve ist mittlerweile ne exzellente NLE, ich nutze nix anderes mehr.
Ich kann bei der Idee, Grading und Editing unter einer Haube zu machen, auch beim besten Willen nichts "wahnsinniges" finden"

Space


Antwort von mash_gh4:

"Verspielte Zeitgenossen?" Die ist so schnell wie ne Titan in Resolve, und das auch noch zu einem geradezu lächerlichen Preis, was denn noch? es macht nicht viel sinn, wenn man dei aktuellen amds ständig nur mit einer überholten generation von nvidias vergleicht...

würde es wirklich nur eine frage der erstehungskosten sein, wäre ich allerdings sofort bei dir, weil es ja wirklich um jeden groschen schade ist, den man dafür opfen muss.

wäre wirklich lustig, wenn man hier einmal die empfehlungen und maßstäbe zitieren würde, die noch vor sehr kurzer zeit in sachen GPU geäußert wurde. außer, dass es scheinbar wirklich immer nur mit dem allerletzten und teuersten produkt gerade noch zu funktionieren scheint, gibt's da wohl keinen anhaltspunkt, der auch nur ein oder zwei jahre lang bestand hätte.

Space


Antwort von Frank Glencairn:


es macht nicht viel sinn, wenn man dei aktuellen amds ständig nur mit einer überholten generation von nvidias vergleicht... Welche Nvidias sind den schneller als die Titan?

Space


Antwort von Helge Renner:

Kann ich daraus ableiten, dass du es für sinnvoller hälst, das Geld in aktuelle Hardware zu stecken, anstatt in eine Sandy Bridge basierte Dual Xeon Workstation?Dort wäre nämlich der Vorteil, dass ich doppelt so viele PCIe Lanes für in etwa den gleichen Preis eine i7 Neusystems bekäme.
Ich verstehe leider nicht so ganz, was das alles mit meiner Ausgangsfrage zu tun hat. seh es vielleicht so:

selbst wenn resolve im augenblick etwas eigenwillige und oft reichlich unausgewogene anforderungen an die hardware stellt, bleibt noch immer die anforderung offen, sich trotzdem ein system zu bauen, das den stand der technik ganz generell einigermaßen sauber gerecht wird. das macht sich spätestens dann bemerkbar, wenn resolve doch wieder einmal eine der vielen offenen baustellen bereinigt -- was ja in wahrheit sehr oft mit rückgriff auf ohnehin überall sonst eingesetzte gute freie software-komponenten passiert. spästestens dann kommen die angedeuteten objektiven maßstäbe doch wieder zum tragen.

ich hab in die andere richtung immer wieder ziemliche probleme, wenn ich nachzuvollziehen versuche, welch irrwitzigen und technisch unhaltbaren empfehlungen im resolve umfeld dauernd ausgebreitet werden, ohne das man sich auch nur annähernd um die wurzeln der zugrundeliegenden probleme und ineffizenz kümmert.

Space


Antwort von mash_gh4:

Welche Nvidias sind den schneller als die Titan? ich geh davon aus. du redest von der letzten ausgabe der titan, sonst wäre das " so schnell wie ne Titan " in frage zu ziehen... (und bitte komm mir nicht mit kerzenlicht benchmarks ;))

Space



Space


Antwort von Helge Renner:

Mag ja sein, dass die neuen Nvidia Karten gut besser als die neuen AMDs sind, aber bei AMD bekomme ich 2x 8GB RAM zum Preis von einer Nvidia Karte. Mehr Geld als nötig möchte ich nicht ausgeben. Der Schnittrechner beläuft sich so schon auf an die 4000 Euro wenn ich die Festplatten fürs Back Up mitrechne. Mir wäre weniger durchaus lieber, aber ich sehe noch nicht wie.
"Verspielte Zeitgenossen?" Die ist so schnell wie ne Titan in Resolve, und das auch noch zu einem geradezu lächerlichen Preis, was denn noch? es macht nicht viel sinn, wenn man dei aktuellen amds ständig nur mit einer überholten generation von nvidias vergleicht...

würde es wirklich nur eine frage der erstehungskosten sein, wäre ich allerdings sofort bei dir, weil es ja wirklich um jeden groschen schade ist, den man dafür opfen muss.

wäre wirklich lustig, wenn man hier einmal die empfehlungen und maßstäbe zitieren würde, die noch vor sehr kurzer zeit in sachen GPU geäußert wurde. außer, dass es scheinbar wirklich immer nur mit dem allerletzten und teuersten produkt gerade noch zu funktionieren scheint, gibt's da wohl keinen anhaltspunkt, der auch nur ein oder zwei jahre lang bestand hätte.

Space


Antwort von motiongroup:

überholt ist eher als kleiner Seitenhieb gedacht oder.. kein normaldenkender user wird seine gtx titanX rausreißen und in die tonne klopfen nur weil die neue ohne gtx titanX auf pascal basieren greade erst i den handel kommt..

und selbst wenn.. haue er 3-4 480er rein und gut ist.. kommt billiger bringt mehr .. wayne kümmerts.... das die 480er in allen anderen bereichen hinter der 970er liegt und halb so viel leistung hat wie ne Fury und vier mal weniger Leitung hat wie die X besonders unter ocl ist xfach getestet und belegt.. die haben nur die Limitierung des HBMs

die Rechnung ist doch so einfach die passende hw zur gewählten software..

was ihr euch da schon wieder um des kaisers bart rauft ist ziemlich wertlos..
und ja, die 390x auch nicht vergessen, die haut wirklich ab wie der Dr geschrieben hatte..

in jedem Fall ist es interessant zu sehen wie sich optimierte Programme beim Test im Vergleich zu den Benchmarks der einschlägigen Portale schlagen und die Ergebnisse fast schon extremst abweichen..

und ja mash, auch wenn die igpu nicht hier her passt ..ja ich gebe dir 100% recht.. igpu zumindest die irisPro6200 die mit der 5775c leider eingestellt und nur noch im 4k iMac verschweißt wird..

Space


Antwort von Helge Renner:

Mich interessiert hauptsächlich die GPU Leistung bei Davinci Resolve. Hat hier jemand eigene Vergleichswerte oder Links zu diesbezüglichen Tests?

Und kann man bei der Nutzung eines Broadwell 5775c oder eines Skylake 6700 die Intel GPU gut für das UI nutzen? Und welche Version der Intel GPU wäre besser, die Iris 6200 Pro oder die 520 HD?
überholt ist eher als kleiner Seitenhieb gedacht oder.. kein normaldenkender user wird seine gtx titanX rausreißen und in die tonne klopfen nur weil die neue ohne gtx titanX auf pascal basieren greade erst i den handel kommt..

und selbst wenn.. haue er 3-4 480er rein und gut ist.. kommt billiger bringt mehr .. wayne kümmerts.... das die 480er in allen anderen bereichen hinter der 970er liegt und halb so viel leistung hat wie ne Fury und vier mal weniger Leitung hat wie die X besonders unter ocl ist xfach getestet und belegt.. die haben nur die Limitierung des HBMs

die Rechnung ist doch so einfach die passende hw zur gewählten software..

was ihr euch da schon wieder um des kaisers bart rauft ist ziemlich wertlos..
und ja, die 390x auch nicht vergessen, die haut wirklich ab wie der Dr geschrieben hatte..

in jedem Fall ist es interessant zu sehen wie sich optimierte Programme beim Test im Vergleich zu den Benchmarks der einschlägigen Portale schlagen und die Ergebnisse fast schon extremst abweichen..

und ja mash, auch wenn die igpu nicht hier her passt ..ja ich gebe dir 100% recht.. igpu zumindest die irisPro6200 die mit der 5775c leider eingestellt und nur noch im 4k iMac verschweißt wird..

Space


Antwort von mash_gh4:

Kann ich daraus ableiten, dass du es für sinnvoller hälst, das Geld in aktuelle Hardware zu stecken, anstatt in eine Sandy Bridge basierte Dual Xeon Workstation?Dort wäre nämlich der Vorteil, dass ich doppelt so viele PCIe Lanes für in etwa den gleichen Preis eine i7 Neusystems bekäme. dort wo ich eigentlich her komme (linux virtualisierungsserver...), würde ich weifellos auch weiterhin dual-xenos verwenden, aber für workstations bzw. desktopanwendungen würde ich das ein bisserl anders gewichten.

wie gesagt, ausgewogene kompatibilität und softwareunterstützung halte ich in der praxis für nicht weniger wichtig, als herausragende spitzenleistungen in ganz eingeschränkten anwendungsszenarien.

die ganze storage-frage halte ich etwa für mindestens genauso wichtig wie GPU und CPU leistungsfähigkeit.
Mag ja sein, dass die neuen Nvidia Karten gut besser als die neuen AMDs sind, aber bei AMD bekomme ich 2x 8GB RAM zum Preis von einer Nvidia Karte. Mehr Geld als nötig möchte ich nicht ausgeben. da bin ich voll bei dir!
darum würde ich auch eine realtiv günstige nvidia GPU einbauen, die zu einem erschwinglichen preis praktisch das gleiche leistet wie die spitzenmodelle des vorjahrs, aber in puncto familienähnlichkeit von den vorteiles des betreffenden herstellers bzw. breiter unterstützung in den anwendungen profitiert. im übrigen ist so etwas ohnehin schnell ausgetauscht, wenn es sich wirklich als zentraler flaschenhals erweisen sollte. in der praxis wird das aber auch bei weit teueren modellen der fall sein, wenn dann nächstes jahr wieder all erklären, dass man mit dem heute teuersten angeboen praktisch überhaupt nicht mehr ernsthaft arbeiten kann. ;)

aber, o.k. -- in der preisklasse eines € 4000,. schnittplatzes, sind meine empfehlungen vielleicht wirklich ein bisserl zu zurückhaltend...

Space


Antwort von Helge Renner:

Kann ich daraus ableiten, dass du es für sinnvoller hälst, das Geld in aktuelle Hardware zu stecken, anstatt in eine Sandy Bridge basierte Dual Xeon Workstation?Dort wäre nämlich der Vorteil, dass ich doppelt so viele PCIe Lanes für in etwa den gleichen Preis eine i7 Neusystems bekäme. dort wo ich eigentlich her komme (linux virtualisierungsserver...), würde ich weifellos auch weiterhin dual-xenos verwenden, aber für workstations bzw. desktopanwendungen würde ich das ein bisserl anders gewichten.

wie gesagt, ausgewogene kompatibilität und softwareunterstützung halte ich in der praxis für nicht weniger wichtig, als herausragende spitzenleistungen in ganz eingeschränkten anwendungsszenarien.

die ganze storage-frage halte ich ja z.b. für mindestens genauso wichtig wie GPU und CPU leistungsfähigkeit.
Mag ja sein, dass die neuen Nvidia Karten gut besser als die neuen AMDs sind, aber bei AMD bekomme ich 2x 8GB RAM zum Preis von einer Nvidia Karte. Mehr Geld als nötig möchte ich nicht ausgeben. da bin ich voll bei dir!
darum würde ich auch eine realtiv günstige nvidia GPU einbauen, die zu einem erschwinglichen preis praktisch das gleiche leistet wie die spitzenmodelle des vorjahrs, aber in puncto familienähnlichkeit von den vorteiles des betreffenden herstellers bzw. unterstützen software in den anwendungen profitiert. im übrigen ist so etwas ohnehin schnell ausgetauscht, wenn es sich wirklich als zentraler flaschenhals erweisen sollte. in der praxis wird das aber auch bei weit teueren modellen der fall sein, wenn dann nächstes jahr wieder all erklären, dass man mit dem heute teuersten angebot praktisch überhaupt nicht mehr ernsthaft arbeiten kann. ;)

aber, o.k. -- in der preisklasse eines € 4000,. schnittplatzes, sind meine empfehlungen vielleicht wirklich ein bisserl zu zurückhaltend... Finde ich nicht, die 4000 sind leider sehr schnell erreicht, wenn man separate SSDs für OS, Resolve Cache und Fotosammlung mitrechnet :(

Space


Antwort von mash_gh4:

Finde ich nicht, die 4000 sind leider sehr schnell erreicht, wenn man separate SSDs für OS, Resolve Cache und Fotosammlung mitrechnet :( ja -- leider!
nur verbindet man mit diesem preis doch auch gewisse erwartungen...
für platzintensive auslagerungen kann also z.b. eine klasische raid lösung weiterhin günstiger sein und mehr sicherheit bieten...

Space


Antwort von Helge Renner:

Finde ich nicht, die 4000 sind leider sehr schnell erreicht, wenn man separate SSDs für OS, Resolve Cache und Fotosammlung mitrechnet :( ja -- leider!
nur verbindet man mit diesem preis doch auch gewisse erwartungen...
für platzintensive auslagerungen kann also z.b. eine klasische raid lösung weiterhin günstiger sein und mehr sicherheit bieten... Ich plane ja bereits mit einem internen RAID 0 solange wie SSDs mir noch zu teuer sind.

Space


Antwort von Frank Glencairn:

Mich interessiert hauptsächlich die GPU Leistung bei Davinci Resolve. Hat hier jemand eigene Vergleichswerte oder Links zu diesbezüglichen Tests?
Blur:
09 Nodes: RX480:24fps TitanX:24fps 1060: 24fps
18 Nodes: RX480:20fps TitanX:16fps 1060: 14fps
30 Nodes: RX480:13fps TitanX:11fps 1060: 9fps
66 Nodes: RX480:6fps TitanX:5-6fps 1060: 4fps

TNR:
1: RX480:24fps TitanX:24fps 1060: 24fps
2: RX480:18fps TitanX:17-20fps 1060: 17fps
4: RX480:9fps TitanX:11fps 1060: 8fps
6: RX480:7fps TitanX:8fps 1060: 6fps

Space


Antwort von mash_gh4:

Ich plane ja bereits mit einem internen RAID 0 solange wie SSDs mir noch zu teuer sind. das bietet halt leider null ausfallssicherheit!

bei größeren datenmengen wird dann auch das backupen auf externe lösungen immer schwieriger und unangenehmer.

bei mir schaut das so aus, dass die ganzen daten auf der linux seite liegen, während resolve eben in einer virtuellen instanz läuft. gerade der datenzugriff bzw. die diebezügliche performance ist hier eigentlich der wunde punkt. aber hier gäbe es auch eine menge verbesserungspotential, wenn man sich wirklich dahinter klemmt. ich glaube sogar, dass man es mit entsprechendem aufwand so weit optimieren kann, dass es letztlich schneller funktioniert als direkt in den beiden gebräuchlichen desktopsystemen, weil ja zumindest die virtualisierte netztwerkverbindung wirklich flott sind und linuxseitig ganz andere lösungen verfügbar sind, um storage-performance und -replikation zu optimieren.

ich glaub zwar nicht, dass dieser ansatz für normalsterbliche mac anweder ohne übermäßige masochistische neigungen tatsächlich eine praktische option darstellt, aber es dürfte sich in der praxis, zumindest im vergleich mit hackintosh-alternativen, als vorteilhaftere variante erweisen, weil man sich auf diese weise mac-seitig wenigstens nur mit relativ einheitlicher hardware konfrontiert sieht.

aber, wie gesagt, dass sei nur als anmerkung zu verstehen, weil du ja in deinem einleitenden statement diesen systemwechsel angesprochen hast.

Space



Space


Antwort von mash_gh4:

Blur:
09 Nodes: RX480:24fps TitanX:24fps 1060: 24fps
18 Nodes: RX480:20fps TitanX:16fps 1060: 14fps
30 Nodes: RX480:13fps TitanX:11fps 1060: 9fps
66 Nodes: RX480:6fps TitanX:5-6fps 1060: 4fps

TNR:
1: RX480:24fps TitanX:24fps 1060: 24fps
2: RX480:18fps TitanX:17-20fps 1060: 17fps
4: RX480:9fps TitanX:11fps 1060: 8fps
6: RX480:7fps TitanX:8fps 1060: 6fps und das sind jetzt alte od. aktuelle titans?
ist ja nicht so viel anders wie mit den äpfel und birnen aus dem vorjahr. ;)

Space


Antwort von Helge Renner:

Mich interessiert hauptsächlich die GPU Leistung bei Davinci Resolve. Hat hier jemand eigene Vergleichswerte oder Links zu diesbezüglichen Tests?
Blur:
09 Nodes: RX480:24fps TitanX:24fps 1060: 24fps
18 Nodes: RX480:20fps TitanX:16fps 1060: 14fps
30 Nodes: RX480:13fps TitanX:11fps 1060: 9fps
66 Nodes: RX480:6fps TitanX:5-6fps 1060: 4fps

TNR:
1: RX480:24fps TitanX:24fps 1060: 24fps
2: RX480:18fps TitanX:17-20fps 1060: 17fps
4: RX480:9fps TitanX:11fps 1060: 8fps
6: RX480:7fps TitanX:8fps 1060: 6fps Vielen Dank. Dann spricht ja nichts gegen ein bis zwei RX480.

Space


Antwort von Helge Renner:

Ich plane ja bereits mit einem internen RAID 0 solange wie SSDs mir noch zu teuer sind. das bietet halt leider null ausfallssicherheit!

bei größeren datenmengen wird dann auch das backupen auf externe lösungen immer schwieriger und unangenehmer.

bei mir schaut das so aus, dass die ganzen daten auf der linux seite liegen, während resolve eben in einer virtuellen instanz läuft. gerade der datenzugriff bzw. die diebezügliche performance ist hier eigentlich der wunde punkt. aber hier gäbe es auch eine menge verbesserungspotential, wenn man sich wirklich dahinter klemmt. ich glaube sogar, dass man es mit entsprechendem aufwand so weit optimieren kann, dass es letztlich schneller funktioniert als direkt in den beiden gebräuchlichen desktopsystemen, weil ja zumindest die virtualisierte netztwerkverbindung wirklich flott sind und linuxseitig ganz andere lösungen verfügbar sind, um storage-performance und -replikation zu optimieren.

ich glaub zwar nicht, dass dieser ansatz für normalsterbliche mac anweder ohne übermäßige masochistische neigungen tatsächlich eine praktische option darstellt, aber es dürfte sich in der praxis, zumindest im vergleich mit hackintosh-alternativen, als vorteilhaftere variante erweisen, weil man sich auf diese weise mac-seitig wenigstens nur mit relativ einheitlicher hardware konfrontiert sieht.

aber, wie gesagt, dass sei nur als anmerkung zu verstehen, weil du ja in deinem einleitenden statement diesen systemwechsel angesprochen hast. Mag sehr gut sein, dass ein Linux System besser als ein Hackintosh ist, vor allem in Hinblick auf Speicheroptionen. Aber bei mir muss auch Capture One laufen, daher Windows.
Das Raid0 ist natürlich sehr unsicher, aber ich weiß, dass ich die nächsten Projekte mit der Verfügbaren Speichermenge von Raid und doppelten Back Ups bewältigen kann. Später dann was sicheres.

Space


Antwort von mash_gh4:

Dann spricht ja nichts gegen ein bis zwei RX480. bitte versteh mich nicht falsch, aber warum nicht mehrere 1060er?
(ok -- ist in der praxis natürlich keine wirklich gute idee!)

die kosten praktisch gleich viel wie die rx480. im gegensatz zu letzteren sind sie halt eher das einstiegsangebot von nvidia, während es sich bei der rx480 um das gegenwärtige top model auf der gegenüberliegenden seite handelt. das sagt doch ohnehin genug über die entsprechenden leistungsmäßigen spielräume und relationen.

edit: ich nehm das wieder zurück, weil es ja in dieser weise (r9) nicht stimmt...

Space


Antwort von HollywoodHanky:

Du hast auch gar keine Ahnung von Chips oder? Deine letzten Sätze ergeben 0 Sinn. Abseits davon, dass 2 RX480er wegen OpenCL in Resolve die 1060er sowas von zerstören, aber nunja, du beurteilst die Leistung einer GPu auch sicher anhand eines Preisschildes.

Space


Antwort von mash_gh4:

gehts noch ein bisserl tiefer, auf noch persönlicherer und sinnlos beleidigenderer ebene?

Space


Antwort von Helge Renner:

Ich möchte in Erinnerung rufen, dass es nur um Technik als Mittel zum Zweck geht. Oder sind hier etwa CDU Wähler im Forum unterwegs?

Space


Antwort von motiongroup:

zurück zum thema..aktuell zumindest kann ich dir zu igpu keine verlässlichen fakten liefern die rechner mit 5775c sind in erster linie für PS und Lr in verwendung und das läuft extrem geschmeidig..

auf zur basis deiner anfrage.. nachdem die 480 genau zwei vorteile wie geringen stromverbrauch durch schrumpfung und den preisgau in der Midrange ausgelöst hat, sind die top karten zumindes die Preise von AMD in den keller gerutscht und die 390x ist aktuell so um die 300-350 steine zu haben..
http://geizhals.eu/?cat=gra16_512&xf=13 ... il=&sort=p

besser und schneller gehts mit der fury nano, fury und fury x mit HBM mit denen du leider bei 4gb Ram das limmit findest..

https://youtu.be/g7cQK8jFPzo

Space


Antwort von motiongroup:

hier gibts noch einen guten vergleich zu den nvidia cards unter Premiere...
weiter verlinkt auch 3dmax usw.. ;)

https://www.pugetsystems.com/labs/artic ... mance-810/

Space



Space


Antwort von Helge Renner:

hier gibts noch einen guten vergleich zu den nvidia cards unter Premiere...
weiter verlinkt auch 3dmax usw.. ;)

https://www.pugetsystems.com/labs/artic ... mance-810/ Vielen Dank für den Link. Interessant zu sehen, wie wenig Premiere für Multikern programmiert ist und dass die Höhe es CPU Takts mehr Einfluss als die GPU hat. Premiere schwächelt in meiner bescheidenen eigenen Nutzererfahrung bei ganz grundsätzlichen und einfachen Dingen und hat dafür eine eine menge komplizierte Speziallösungen. Resolve gefällt mir immer besser, je mehr ich damit arbeite.

Space


Antwort von motiongroup:

Erstens das und zweitens wenn du die Links weiter verfolgst auch klar wird das auch bei den Grafikkarten die oft versprochne Leistung nicht verfügbar resp abrufbar ist.. .. Selbiges gilt nicht nur für die 10x0 Serie sondern auch für die 4x0 die von preisleistung gesehen trotzdem gut sind... Die 490x aufwärts kommen mit HBM erst nächstes Jahr...

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


Lektüre-Empfehlung für die Feiertage: Leitfaden für DaVinci Resolve 16 Einsteiger
Empfehlung für Davinci Resolve 12.5 Schnittrechner
Schnittrechner für Panasonic HC-X2000 - passt das so?
Schnittrechner HP Z440 OK so, oder?
Homeoffice Schnittrechner
Gaming Laptop als Schnittrechner?
Schnittrechner-Build-Bewertung
Neuer Schnittrechner: Adobe Premiere und 4K Clips
Schnittrechner oder -Laptop oder beides?
Schnittrechner mit Threadripper 3960X
Schnittrechner
HP Workstation Z800 als Schnittrechner
Schnittrechner Windows, bis 4000 Euro
Schnittrechner
Gieriger Schnittrechner und Monitor
Kann man den Blackmagic DaVinci Resolve Studio 15 Key auch für Resolve 16 nutzen?
Blackmagic DaVinci Speed Editor: Kompakte Tastatur für Resolve inklusive Studio Lizenz für 299 Euro!
Mainconcept Codec Plugin für DaVinci Resolve bringt Support für HEVC, Sony XAVC/XDCAM und P2 AVC Ultra
Empfehlung für ein everyday Objektiv für die Canon EOS 7D




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash