TheBubble hat geschrieben:
"Erlebnisse" können auch auf einer Täuschung der Wahrnehmung beruhen. Daher halte ich mich lieber an Nachweise. :-)
Valentino hat geschrieben:Und genau deswegen wären ein paar Benchmark Ergebnisse ganz hilfreich.
Es gibt ja genug auf dem Markt, aber ein Test mit PC Mark 7, 3DMark 2011/13, Cinebench, H264 Bench und ein AE Render Test währen hier sehr hilfreich.
Sorry - das ist sinnlos, nein Unsinn in bezug auf die Fragestellung.
Ihr dürft das ja gerne machen. Aber was wollt Ihr erreichen? Feststellen, ob ein RAM-Riegel langsamer werkelt als zwei oder eben gleich schnell? Oder wollt Ihr Videoschnitt betreiben? Bei mir zählt Effizienz während der Arbeit in der Videobearbeitung.
Es geht um Videoschnitt. Es geht dabei um das ARBEITEN mit den Systemen. Und da beruhen Erfahrungen nicht auf "Täuschung der Wahrnehmung". Mein System ist stückweise gewachsen. Ich habe z. B. recht schnell die ursprünglich verbauten 32GB auf 8 Bänken gegen die 64 GB ausgetauscht. Hat sich für mich gelohnt.
Ich
arbeite nicht mit PC Mark 7, 3D Mark und dem sonstigen Kram. Ich bin nun auch kein Gamer, der Hochgeschwindikeits-RAM verbaut, weil das mit diesen Anwendungen Vorteile bringt, sobald ich die CPU kräftig übertakte. Es geht nicht darum, ob zwei RAM-Zellen schneller sind als eine. Über dem RAM liegen
Speicherkonzepte der Anwendungen und des Systems. Die möchte ich optimal nutzen. Es wird ja auch niemand ein 64bit-Betriebssystem mit 4GB betreiben, oder doch?
Das Thema
RAM-Performance habe ich an anderer Stelle bedient: Meine CPU untertützt Quadchannel-Technologie, meine RAMs auch.
D. h.: Die Latenzlücken beim RAM-Schreiben werden ausgenutzt, um in einem zweiten, parallelen RAM-Riegel zu schreiben. Das wäre schon mal Dualchannel. Bei Quadchannel passiert das Gleiche über vier parallele Channels/Riegel. Theoretisch kann der Vorgang daher bis zu viermal schneller ablaufen als bei Singlechannel, zweimal schneller als bei Dualchannel. Daher dürfen die Riegel gerne nominal etwas langsamer und die Latenzen scheinbar hoch sein.
Voraussetzung ist allerdings, dass die Riegel genau aufeinander abgstimmt sind und stabiles Werteverhalten aufweisen. Das macht den Preisunterschied aus. Ein 64GB-Quadchannel-Kit besteht aus handselektierten, geprüften Riegeln, die sich garantiert gleich verhalten und so die Quadchannel-Technologie optimal unterstützen. - So viel zum Thema schnellere RAMs. Schneller geht der Zugriff derzeit kaum.
Es geht noch nicht einmal um höhere Geschwindigkeit beim Rendern bezogen auf die RAM-Leistung oder den RAM-Ausbau. Das ist bestenfalls ein Effekt, wenn er auftritt. Wenn auch ein angenehmer. Da aber bringen hohe Takraten und viele Kerne klar mehr. Das wäre der gescheitere Tuning-Punkt, und dann ist evtl. in der Konsequenz daraus mehr RAM nötig oder sinnvoll.
Ich habe es oben erklärt, denke ich.
- Es geht um die ARBEIT mit den Programmen. Und da unterstützt ein großes RAM mit vielen Vorteilen. Wenn im RAM Quelldaten, dekodierte Ergebnisse der Quellen, berechnete Ergebnisse der Effekte, Überlendungen usw. im dem Moment, wo sie noch einmal gebraucht werden, noch vorliegen - müssen sie nicht mehr geladen und berechnet werden. Lesen, die Wandlung einer YUV-Quelle nach RGB, womöglich nach 32bpc, Farbraumanpassungen, Effekte drauf, für die Vorschau kodieren usw ... - das stresst CPU und Grafikkarte gewaltig. Neben den I/Os können diese Berechnungen mit einem großem RAM bei der Arbeit spürbar, u. U. sogar meßbar reduziert werden.
- Quellen werden nicht Frame-by-Frame gelesen. Mindestens in Blöcken. Die Anwendungen optimieren anhand des verfügbaren RAMs die Lesezugriffe, um mit möglichst wenigen physischen I/Os auszukommen und Systemunterbrechungen und Wartezyklen zu vermeiden.
Aber es hängt davon ab, was man wie womit tut.
- Am Beispiel von AE verdeutlicht: Mit einem kleinen RAM kann ich vielleicht 10 Sekunden RAM-Vorschau erzeugen. D. h. alle nötigen I/Os, Dekodierungen, Umwandlungen und Berechnungen werden für Frames über zahllose Layer der Kompositionen ausgeführt, das Ergebnis im RAM gebunkert. Mit einem großen RAM schafft man das in Minutenlänge. Das x-fache also. Während der Arbeit in der Timline werden nicht modifizierte Frames aus dem RAM geladen. Null I/O. Keine Berechnungen. Der "Geschwindigkeitsvorteil" steigt im Handling, während der Arbeit, um den den Faktor x. Und darauf kommt es an. Das ist Effizienz. Sie resultiert u. a. in in mehr, in größeren, in anspruchsvolleren Projekten.
- Während meiner Projekte lade ich gleichzeitig mehrere speicherhungrige Programme, weil ich z. B. die Dynamic Link Option von Adobe verwende. Die Programme konkurrieren in diesem Moment heftig um den RAM-Speicher. Ein zu kleines RAM wird x-fach mehr I/O-Unterbrechungen mit den nötigen Wartezeiten erzwingen, als ein großes.
- Noch ein Beispiel aus AE: Es erlaubt Multiprozessorverarbeitung. Ich kann parallel mehrere Frames gleichzeitig rendern. Maximal so viele, wie es CPU-Kerne gibt. Dafür werden unabhängige Prozesse gestartet, von denen jeder seinen eigenen RAM-Bereich braucht und will. Die Empfehlung ist 3GB je Sub-Prozess. Zusätzlich mindestens 8 GB für den Hauptprozess und Systemprozesse. Ich habe eine 12-Core-CPU. Wieviel RAM sollte ich sinnvoller Weise mindestens installieren, um nur dieses eine Programm vernünftig zu bedienen?
Benchmarks usw. können gute Indikatoren für die Perfomance
eines einzelnen Bausteins im System sein und bei der Auswahl helfen. In einem zusammengeschraubten System, ausgestattet mit bestimmten Programmen, mit einem echten Anwender davor, der echte Projekte bearbeitet, zählt was anderes.
Im Videoschnitt zählt vor allem die Gesamtleistung während der ARBEIT (ich kanns nicht oft genug wiederholen). Genau da macht sich ein Vorteil bezahlt oder auch nicht. Es gilt:
Wenn ... dann... - Nur dann, wenn die GPU-Unterstützung eingeschaltet ist und wenn die Grafikkarte CUDA kann und wenn CUDA-Effekte genutzt werden ... - sonst ist ihr Vorteil womöglich Null. In einem neutralisierten Vergleichstest würde es mir sehr leicht fallen, nachzuweisen, dass größere Grafikkarten nichts bringen. Meine Praxiserfahrung würde das widerlegen.
Das
Gesamtsystem besteht aus:
Hardware-Komponenten + Software + Anwender (Arbeitsweise, Workflows). - Mein Tipp dazu: Dieses Gesamtsystem muss man betrachten, um etwas über die Effizienz sagen zu können. Das machen landläufige Benchmarks eben gerade nicht.
Aber manches lässt sich verallgemeinern.
Z. B.: Viele CPU-Kerne => viel RAM - von vornherein! Wieviel genau? Frage Deine Anwendungen! Überprüfe Möglichkeiten im Workflow. Das sagt Dir kein Benchmark mit Standardtools. Im Gegenteil; Falsch interpretiert, könnten sie zu Fehlentscheidungen führen. Wer 8GB oder 16GB mit einer 12-Core-CPU fährt (um die geht es hier übrigens beim TO), ist selbst schuld. Geht. Er wird nie
erfahren, dass es womöglich besser gehen könnte.
Z. B. schnelle CPU => schnelle Platten. Von vornherein. Unbedingt getrennte Zugriffspfade. Keine Partitionierung. Und da spielen auch Datenraten einzelner Quellen u. U. nur eine Nebenrolle. Es kommt auf die Transferraten im Kanal an, auf den I/O-Stack, der sich vor dem Controller aufbaut und in dem die I/Os auf Abarbeitung warten. Auf die "parallel" laufenden Zugiffe, die alle Anwendugen inkl. Systemprozesse zeitgleich mit Lesen/Schreiben/Quellen/Projektfile/Temp-Files/Caches/Routinen Nachladen usw. ausführen möchten. Schlecht, wenn sie es nicht "parallel" können. Sehr schlecht, wenn sie relativ lange warten müssen, bis die vorhergehenden I/Os abgeschlossen und sie an der Reihe sind.
Im Videoschnitt (während der Arbeit) ist die HDD für mich mit meinen Programmen und meiner Arbeitsweise daher inzwischen kein Thema mehr. RAID0 mit HDDs rettet da auch nichts. Natürlich funktioniert sie, die HDD. Aber sie wird die CPU ausbremsen. Definitiv. Besonders dann, wenn es eine schnelle CPU ist.
Wie geschmeidig das gehen kann, das muss man eben erlebt haben - im laufenden Betrieb - ansonsten kann man es nicht beurteilen.
Beste Grüße,
Reiner