Frage von hubse:Hi,
wenn man liest: "Dieser Prozessor ist besser als jener" (z.B. i7 ist besser als i3), dann heißt das normalerweise doch: Der Prozessor ist schneller. Also die Bearbeitung im Schnittprogramm geht flüssiger weil er mehrere Streams gleichzeitig rechnen kann und das Rendern geht auch schneller. Ein "alter" Duo-Prozessor braucht beim Rendern länger - das Ergebnis schaut aber genauso gut aus, der PC muss halt mal ne Nacht durchlaufen. Ist das richtig?
Wie ist das eigentlich bei Grafikkarten? Ist das qualitative Render-Ergebnis bei einer alten oder billigen Grafikkarte schlechter als bei einer teuren oder gehts hier auch "nur" um die Schnelligkeit? Denn die Codecs bleiben doch gleich, egal mit welcher Grafikkarte man jetzt arbeitet.
Hintergrund: Ich brauch irgendwann mal einen neuen Computer und ich will keinen PC mehr sondern ein kleines Notebook. Es nervt, wenn man immer zwischen den Computern hin und her wechseln muss. Und kleine Notebooks (14"-15") haben zwar gute Prozessoren und viel Arbeitsspreicher drin - die Grafikkarten sind aber nicht immer soooo gut. Und jetzt bin ich beim Überlegen: PC selbst zusammenstellen oder fertiges Notebook kaufen (besonders, wenn man keinen "Extra-Schnitt-PC" haben will, es geht schließlich ja "nur" um Hobbyvideos...)?
Viele Grüße,
hubse
Antwort von tommyb:
Solange dein Schnittprogramm die Grafikkarte nicht explizit nutzt, ist es nahezu egal welche drin steckt.
Im Endeffekt aber: Ja, es geht nur darum, wie schnell etwas berechnet wird. Die Qualität sollte immer die selbe sein - schließlich basiert ja alles auf Gleichungen und Formeln.
Sollte dein Schnittprogramm Grafikkarten unterstützen, so ist eine langsame Karte möglicherweise so langsam, dass pures Rendern auf der CPU schneller ablaufen würde.
Desweiteren gibt es noch einige Spezialoptimierungen seitens der Herstellers. Einige Encoding-Programme die explizit Grafikkarten zum Codieren nutzen, erreichen zwar eine Hohe Geschwindigkeit ggü. reiner CPU-Berechnung - die Bildqualität ist jedoch oftmals schlechter.