Frage von Schwermetall:Hallo,
ich habe mir gerade einen neuen PC aufgebaut mit:
CPU i7-8700k (4,3GHz)
GPU GTX 1070 Ti
RAM 32GB
2x SSD Samsung 850 EVO
Der Rechner läuft sehr schnell und ist extrem leise.
Da die Kühlung gut dimensioniert ist (Thermalright Macho Rev B) habe ich die CPU auf 4,8GHz getaktet.
Somit lief der Rechner nach wie vor stabil und mit Cinebench konnte ich auch eine Performance-Steigerung von gut 10% nachweisen.
Soweit so gut.
Allerdings hatte die Maßnahme keine Auswirkung auf Resolve.
Ich habe als Test eine Sequenz mit ein wenig Bildkorrektur und dem Filmconvert Plugin gerendert und benötigte vorher wie nachher exakt 50s.
Für mich klingt das so, als ob nicht die CPU das Nadelöhr ist.
Habt ihr eine Idee zum Setup oder eine andere Maßnahme?
Vielen Dank schon mal,
Alex
Antwort von Jost:
Schwermetall hat geschrieben:
Hallo,
ich habe mir gerade einen neuen PC aufgebaut mit:
CPU i7-8700k (4,3GHz)
GPU GTX 1070 Ti
RAM 32GB
2x SSD Samsung 850 EVO
Der Rechner läuft sehr schnell und ist extrem leise.
Da die Kühlung gut dimensioniert ist (Thermalright Macho Rev B) habe ich die CPU auf 4,8GHz getaktet.
Somit lief der Rechner nach wie vor stabil und mit Cinebench konnte ich auch eine Performance-Steigerung von gut 10% nachweisen.
Soweit so gut.
Allerdings hatte die Maßnahme keine Auswirkung auf Resolve.
Ich habe als Test eine Sequenz mit ein wenig Bildkorrektur und dem Filmconvert Plugin gerendert und benötigte vorher wie nachher exakt 50s.
Für mich klingt das so, als ob nicht die CPU das Nadelöhr ist.
Habt ihr eine Idee zum Setup oder eine andere Maßnahme?
Vielen Dank schon mal,
Alex
Lade Dir mal GPU-Z herunter. Das kostenlose Programm überwacht die GPU. Wenn die ausgelastet sein sollte, gibt es kein besseres Ergebnis.
Antwort von mash_gh4:
Schwermetall hat geschrieben:
Ich habe als Test eine Sequenz mit ein wenig Bildkorrektur und dem Filmconvert Plugin gerendert und benötigte vorher wie nachher exakt 50s.
Für mich klingt das so, als ob nicht die CPU das Nadelöhr ist.
naja -- da kommen ein paar verschiedene sachen zusammen:
externe plugins von drittherstellern müssen sich normierter bzw. von resolve in leicht modifizierter form freigegebener schnittstellen bedienen, die einfach von grund auf techn. nachteile gegenüber einer optimierten internen verarbeitungskette aufweisen -- egal, ob es dabei um openfx-plugins od. eigentlich unnötig aufwendige 3d-lut umsetzungen geht. der i/o-aufwand bzw. das unnötige kopieren von speicherinhalten od. aber der rechenaufwand werden gleich einmal zum spürbaren problem.
leider ist diese problematik aber nicht ausschließlich nur auf externe zusätze eingeschränkt. auch das programm selbst kann natürlich manche sachen in einer etwas weniger idealen weise umsetzten. die meisten kollegen sind zwar der meinung, dass resolve diesebzüglich ohnehin realtiv vorbildlich wirkt, ich dagegen teile diese einschätzung nicht unbedingt. ich glaube, dass man im vergleich mit anderer ähnlicher high-end software ziemlich eindeutig zeigen kann, dass das leider so uneingeschränkt nicht stimmt. ich verstehe aber sehr gut, dass man zu dieser einschätzung gelangen kann. es hat einfach damit zu tun, dass die meisten mathematischen operationen, auf die man sich beim colorgraden stützt, verhältnismäßig einfach bzw. effizient auf der GPU umgesetzt werden können. auch wenn das ganze nach außen hin sehr eindrucksvoll und kompliziert wirkt, bringt es in der berechnung meist viel weniger komplikationen mit sich als irgendwelche anderen unscheinbaren effekte, denen man gar nicht ansieht, wie viel praktische rechenlast sie bedingen.
diese geschichten sind halt von außen unheimlich schwer objektiv nachzuvollziehen od. gar zu optimieren, weil resolve bekanntlich eine völlig undurchsichtige black box bildet. die paar elementaren parameter, die du z.b. mit gpu-z angezeigt bekommst, sind jedenfalls völlig untauglich, um solchen problemene wirklich auf den grund zu gehen. dafür verendet man eher div. profiling und performance tracing techniken, wie man sie z.t. direkt im linux kernel, aber auch in speziellen werkzeugen der gpu-hersteller findet, um die beteiligten abläufe und engpässe zu entflechten und ggf. sinnvoll zu optimieren. als normaler endanwender macht das aber natürlich überhaupt keinen sinn. da bist wirklich weitgehend darauf angewiesen, dass die hersteller ihre hausaufgaben sauber gemacht haben -- was halt leider nicht immer in überzeugender weise der fall ist.
Antwort von dosaris:
Schwermetall hat geschrieben:
Für mich klingt das so, als ob nicht die CPU das Nadelöhr ist.
Habt ihr eine Idee zum Setup oder eine andere Maßnahme?
Es müssen immer mehrere Ressourcen - je nach Nutzungs-Szenario - optimiert sein,
Aber auch die Organisation der Daten ist ausschlaggebend.
Die Diagnose dazu ist nicht ganz trivial.
Ein allgemeines Diagnose-Verfahren für solche Fälle ist hier mal zusammen gestellt worden:
http://womo-sp.lima-city.de/es-ruckelt.pdf
Antwort von Schwermetall:
Vielen Dank für eure Einschätzungen.
Ich habe den Test wiederholt und dabei die Auslastungen beobachtet.
CPU: 70- 80%
GPU: 70- 80%
Datenträger: < 10MB/s
Antwort von Schwermetall:
... bei meinem alten Rechner (i5-750) war immer alles auf Anschlag
Antwort von mash_gh4:
das blöde an solchen allgemeinen angaben ist halt der umstand, dass du nicht wirklich sagen kannst, worauf sie sich beziehen. so kann es z.b. durchaus sein, dass die maschine bis zum anschlag mit sinnlosem hin und her schieben von speicherinhalten beschäftigt ist, während sowohl die CPU als auch die GPU daumen drehen und warten, bis sie endlich wieder richtig zum arbeiten gebraucht werden... genau solche engpässe und auslastungen siehst du aber in diesen werten gewöhnlich nicht, sondern eben andere angaben, die dem beinahe zu widersprechen scheinen...
Antwort von Jost:
Schwermetall hat geschrieben:
Vielen Dank für eure Einschätzungen.
Ich habe den Test wiederholt und dabei die Auslastungen beobachtet.
CPU: 70- 80%
GPU: 70- 80%
Datenträger: < 10MB/s
Wie hoch ist die Auslastung des GPU-Rams? Schmeiß mal GPU-Z an. Der Windows-10-Taskmanager reicht nicht.
Schau mal, ob sich das Übertakten des GPU-Rams lohnt? Die CPU-Übertaktung war wahrscheinlich wirkungslos.
Antwort von faxxe:
Schwermetall hat geschrieben:
Vielen Dank für eure Einschätzungen.
Ich habe den Test wiederholt und dabei die Auslastungen beobachtet.
CPU: 70- 80%
GPU: 70- 80%
Auf allen Kernen? Vi9elleicht würde der Filter auf mehr Kernen besser skalieren.
Aber es lässt sich nicht pauschal sagen.
Meiner Erfahrung nach laufen gerade externe Filter bzw Plugins eher mässig mit Resolve.
Beim einen steht alles auf 100%; ein anderes ruckelt obwohl nichts auf Anschlag steht.
Kann durchaus an der Schnittstelle Resolve <> Plugin liegen.
-Heimo
Antwort von dosaris:
faxxe hat geschrieben:
Beim einen steht alles auf 100%; ein anderes ruckelt obwohl nichts auf Anschlag steht.
leider ist ja nicht deklariert, wie die Wertangaben der Last erfasst werden.
Wenn die Integrationsperiode der Messung vergleichsweise hoch ist
(zB länger als 0.5 sec od 12 frames bei 25fps)
dann kann (zB bei Übergängen) durchaus die Last kurzzeitig an's Dach anstoßen wodurch es ruckelt.
Über die gesammmte Integrationsperiode erscheint die mittlere Last aber unverdächtig.
Überlast kann also sein, muss aber nicht so sein.