Zwei Probleme dazu:motiongroup hat geschrieben:Das weis noch keiner weil noch keine sli Benchmarks verfügbar sind und die Steckplätze müssen auch verfügbar sein.. Was noch nicht ganz klar ist, kann die Radeon pro Duo 2x2 im crossfire arbeiten? Das wären dann 4xgpu Max 700 Watt und 32 GB Speicher... Was für ein Wahnsinn wird das eigentlich..;)
Sagen wir mal, AMD bleibt uns als Underdog sympatischer, aber eine gewisse Begeisterung für diesen enormen Leistungssprung können wir auch nicht verbergen. 379 Dollar für 6,5TFlops mit 8 GB. Damit macht man 4,6K-RAW Debayering und schon einige Layer CC wahrscheinlich in butterweicher Echtzeit.leonhard dy kabrio hat geschrieben: "mit erstaunlicher Leistung"
SLASHCAM, bitte! Okay, net den Wortlaut den man euch
mit vorher nasser Mundlabung und Hostie darreicht aus der Neusprechabteilung NVIDA so
rein drücken.
rechtsklick aufs footage, cache umstellen auf user, und schon kannst du auch 8k footage mit einer antiken gtx680 butterweich graden (bei mir zumindest).rudi hat geschrieben:[379 Dollar für 6,5TFlops mit 8 GB. Damit macht man 4,6K-RAW Debayering und schon einige Layer CC wahrscheinlich in butterweicher Echtzeit.
Richtig. Jede einzelne Grafikkarte hält sämtliche Daten im eigenen Speicher vor. Die arbeiten redundant.rudi hat geschrieben:Zwei Probleme dazu:motiongroup hat geschrieben:Das weis noch keiner weil noch keine sli Benchmarks verfügbar sind und die Steckplätze müssen auch verfügbar sein.. Was noch nicht ganz klar ist, kann die Radeon pro Duo 2x2 im crossfire arbeiten? Das wären dann 4xgpu Max 700 Watt und 32 GB Speicher... Was für ein Wahnsinn wird das eigentlich..;)
1. nur wenige Videoapplikationen unterstützen mehr als 2 GPUs (Resolve max 3). Und damit sind die GPU-Sockel gemeint, nicht die Karten.
2. Die 32 GB wären leider nur 16 GB (4x4). Und der nutzbare GPU-Speicher wird durch mehrere GPUs leider nicht mehr, sondern steht bei den meisten Anwendungen nur als eine Art Kopie zur Verfügung. Die Applikation sieht in der Regel also nur 4GB Hauptspeicher, den sich 4 GPUS teilen. Somit verhält sich die Pro unter Resolve nur wie eine 4GB Karte mit seeehr viel TFlops.
Beispiel zu 2: Wenn du 2 GPUs mit 4GB und 5 TFlops hast, sind die maximal so schnell wie 1 GPU mit 4GB und 10 TFlops.
Hast ja recht (hatte auch mal nen slashCAM Artikel dazu verfasst). Allerdings muss man dann halt immer seine Rendercache-SSD sauber halten und vor dem Graden etwas Kaffee trinken, bis der gefüllt ist.Peppermintpost hat geschrieben:
rechtsklick aufs footage, cache umstellen auf user, und schon kannst du auch 8k footage mit einer antiken gtx680 butterweich graden (bei mir zumindest).
was mich am meisten beeindruckt ist wie heftig die den stromverbrauch runter schrauben. 500watt für eine grafikkarte war absurd. 150-170watt ist da schon mal ne andere ansage.
hey rudi, kanz klar, keine frage. wir haben vor ein paar wochen noch eine titan gekauft und ich hab spass wie die abrockt. ich hab zu hause wie gesagt eine gtx680 und die ist natürlich deutlich langsamer. die jetzt für 400 takken auszutauschen, da hätte ich schon bock drauf. ich wollte nur verdeutlichen. auch mit antiker hardware kann man problemlos alles in echtzeit von rechts nach links bewegen. es ist in ganz vielen fällen eine frage des workflow bzw sich mal die funktionen der software genauer anzuschauen anstatt immer alles mit hardware zu erschlagen.rudi hat geschrieben: Natürlich kann man für 379 Dollar viel Kaffee kaufen, aber jetzt in einem Monat einfach quasi ne Titan für unter 400 Euro bekommen ist trotzdem irgendwie verlockend, oder?
GTX 680 = 195wPeppermintpost hat geschrieben:was aber deutlich teurer ist als die grafikkarte oder der kaffee beim cachen ist der stromverbrauch. wenn ich von meiner 680 auf die neue umsteige, dann bekomme ich sie quasi kostenlos nur dadurch was ich am strom spare, und das macht mich richtig glücklich ;-)rudi hat geschrieben: Natürlich kann man für 379 Dollar viel Kaffee kaufen, aber jetzt in einem Monat einfach quasi ne Titan für unter 400 Euro bekommen ist trotzdem irgendwie verlockend, oder?
Ich nehme mal an, du meinst den Resolve Configguide. 8 GPUs gelten nur für die Linux-Version mit Pult. Wenn du die beim Fachhändler inkl. Backbone-Hardware kaufst, schenkt er dir wahrscheinlich die 8 GTX 1070 dazu ;)motiongroup hat geschrieben:Hmmm interessant Rudi zumal im HW Configguide von einer GUI und bis zu 8 GPUs im Cubixverhau gesprochen wird.. Und klar wird jeder GPU die Hälfte des Speichers zugewiesen.. Interessant wäre der technische Hintergrund wie die Verteilung der Rechenlast umgesetzt ist..
Ja? Auch z.B. für 4K CinemaDNG-Material?DV_Chris hat geschrieben: Geht schon länger, das mit dem günstig....mit Edius. Da reicht die in der CPU integrierte GPU.
Das hat speziell mit Edius nichts zu tun, sondern gilt natürlich für alle NLE. Unterschlagen wird dabei gerne, wieviel länger die CPU an manchen Effekten und vor allem an deren Kombinationen rumrechnet - für die Darstellung auf der Timeline genauso wie beim Export.DV_Chris hat geschrieben:Geht schon länger, das mit dem günstig....mit Edius. Da reicht die in der CPU integrierte GPU.
Noch nie was von Edius und QuickSync gehört?TomStg hat geschrieben:Das hat speziell mit Edius nichts zu tun, sondern gilt natürlich für alle NLE.
Wenn eine GPU nicht limitiert, ist eine noch schnellere GPU nicht besser. Das gilt für jedes Programm.DenK hat geschrieben:Niemand behauptet dass man solche GPUs zum Schneiden braucht, obwohl natürlich auch im NLE ordentlich GPU Power nur ein Vorteil ist. Richtig interessant wirds doch aber erst im AE.
Im Encoder ja, aber nicht beim Encoding ;)DenK hat geschrieben:und der Unterschied ist sowohl im NLE, im Encoder und am deutlichsten im AE zu spüren.
Aber nicht das pure File, ohne Effekte.aber z.B. von MXF zu h264 geht im AME mit der neuen Karte schneller.