Frage von Lurotor:Hallo Experten,
habe einen nagelneuen Workstation Laptop.
SSD, Quadcore Ivy-Bridge 2,3 Ghz, 16 Gig Ram und AMD Radeon 7970.
Hab heute nen Video schneiden wollen. 720p...
Läuft flüssig ohne Probleme.
Dann habe ich einen Effekt (sehr einfachen Effekt) drauf gelegt und wollte mir das anschauen. Dann hats sehr stark geruckelt.
Habe davor immer mit meinem 5 Jahre alten Laptop geschnitten.
Und selbst der hat in etwa gleichstark geruckelt.
Jetzt habe ich mich so gefreut einen neuen leistungsfähigen Laptop zu haben und jetzt muss ich sogar einzelne kleine Effekte extra rausrendern (preview) lassen. Ist das normal?
Ram wird nur mit 6 Gig Ausgelastet laut Taskmanager-Leistungsübersicht.
Und die CPU werkelt auf 40-50 %.
Ok, es ist ein Quadcore.
Aber mit Boost sollte der doch auf 3,2 Ghz kletter....
Und dann ruckelt das immer noch mega?
Könnt ihr mir Tipps geben, ob es evtl. an einer Einstellung liegt?
Oder bin ich zu optimistisch?
Antwort von Bergspetzl:
effekt? schnittsoftware? einstellungen? ausgangsmaterial? (premiere?)
Antwort von Lurotor:
Premiere Pro CS6
Ausgangsfootage 720p, aufgenommen mit einer Dslr.
In den Einstellungen habe ich nur Premiere gesagt, dass es 13 Gig RAM nutzen kann.
Der Effekt ist aus der Magic Bullet Looks Serie von Red Giant.
Muss man in Premiere einstellen, dass der CPU Quadcore ist?
Oder macht er das automatisch?
Antwort von Tiefflieger:
Aktuelle Schnittsoftware nutzt die GPU (Grafikprozessor).
Grundsätzlich gibt es drei Hersteller für GPUs, Intel, AMD und Nvidia.
- Nvidia und Cuda wird von allen unterstützt, ich achte beim HW Kauf auf Nvidia und somit Cuda.
- AMD werden durch immer mehr Hersteller von Abspiel- und Schnittsoftware unterstützt.
- Intel ist noch selten.
Nun ist man an der Entwicklung von etwas übergeordnetem (mit API) um alle Hersteller und GPU/CPU zu Unterstützen und in Kombination auszulasten, weiss aber den Namen nicht.
- Welche Schnittsoftware nutzt Du?
- Gibt es eine Kombinierte GPU / CPU Effektunterstützung mit atuellen CPUs (Befehlssatz)?
Der Boost ist nur für klassische single Thread Software um 1-2 Kerne mit höherer Taktfrequenz laufen zu lassen (Alienware ist etwas overclocked).
Ein Notebook ist begrenzt ausbaubar, besonders Wärme vom Overclocking CPU / GPU ist ein Problem.
Gruss Tiefflieger
Antwort von unodostres:
Generell sind Laptops Meiner meinung nach nur eingeschränkt für den Schnitt geeignet:
Beim Schnitt kommt es vor allen Dingen auf Leistung an. Laptops sind aber bauartbedingt immer weniger Leistungsfähiger als ein Desktop-Pendant. Aleine die Festplatte hat eine viel geringere Drehzahl was sich natürlich in der Lese- und Schreibgeschwindigkeit ausmacht. Die ganzen "Stromsparfunktionen" die Laptops möglichst lange Akku-Laufzeiten bescheren sollen sind sehr oft hinderlich für die Leistungsentfaltung und und und...
Wer wirkliche Leistung will legt sich einen Desktop-Computer zu.
Antwort von Lurotor:
Undostres hast du meinen Beitrag gelesen?
Das sind solche typischen Antworten die einen nicht weiterbringen.
Ich Kauf mir jetzt doch nicht einfach nen neuen Pc.
Klar sind Desktops besser.
Aber nicht mobil, daher der Laptop.
Die Graka gehört zu den top5 der aktuell leistunsstärksten Laptops Grakas.
Dein Vorwand mit der Festplatte zählt auch nicht, da ist eine SSD drin.
Und ich schneide nicht im Akkubetrieb. Die CPU ist brandneu (Ivy)
Der RAM taktet mit 1600 Hz.
laut Windowsleistungsindex liegt meine gesamtPerformance bei 7,6 Punkten Durchschnitt. von höchstens 8 maximalen Punkten.
Also eine PerformanceKrücke ist der Laptop nicht unbedingt.
Hatte gehofft man kann in de Einstellungen noch was ändern für mehr Performance.
Das mit Cuda wusste ich.
Aber der Äquivalent zu der ATI Karte hätte mich noch weitaus mehr Aufpreis gekostet :/
Antwort von Frank Glencairn:
Der Codec, den deine DSLR ausspuckt läuft zwar "nativ" in Premiere, braucht aber ne Menge Zeit um "ausgepackt" zu werden.
Umrechnen nach DNXHD oder Cineform machen einen Unterschied wie Tag und Nacht.
Altenativ kannst du versuchen in den Timeline Options den Previewcodec auf YUV unkomprimiert zu stellen. Das hilft oft.
Egal wie "Top10" deine GraKa ist, wenn sie nicht unterstützt wird, wird sie nicht unterstützt.
Wenn du daß auch noch vorher wußtest, und dir trotzdem einen Laptop mit der falschen Karte holst, darfst du jetzt nicht rumjammern.
Frank
Antwort von Reiner M:
...
Antwort von Lurotor:
Danke für die ganzen Tipps,
werde sie später ausprobieren.
Zwecks Grafikkarte:
Ich wusste gut Bescheid um Cuda und den damit verbundenen PerformanceBoost.
Problem: Bei der Bestellung des Rechners war die ursprüngliche Karte (GTX 675) nicht lieferbar.
Dann wurde mir ein kostenloses Upgrade auf die 7970M gegeben.
Laut Notebookcheck eine der Top-Grakas aktuell auf dem Markt.
Und laut notebookcheck auch 23 Plätze besser im Ranking.
GTX = Rang 25 oder so
RadeoN = Rang 3
Also habe ich mir gedacht, wird der PerformanceBoost der ATI den Vorteil von Cuda "auffressen".
Und ich habe mich für ATI entschieden.
Wäre die GTX sehr viel schneller gewesen? Obwohl die ATI schnellere Taktraten & Co besitzT?
Weil: Noch hätte ich die Möglichkeit die Graka vom Hersteller tauschen zu lassen in die Nvdia.
-edit-
Ist der Boost von Cuda so viel höher, wie die Mehrleistung der ATI ?
Wäre es ein merkbarer Unterschied?
Antwort von Jott:
Magic Bullet Looks ist aber kein "sehr einfacher" Effekt.
Antwort von Reiner M:
...
Antwort von mediadesign:
Danke für die ganzen Tipps,
werde sie später ausprobieren.
Zwecks Grafikkarte:
Ich wusste gut Bescheid um Cuda und den damit verbundenen PerformanceBoost.
Problem: Bei der Bestellung des Rechners war die ursprüngliche Karte (GTX 675) nicht lieferbar.
Dann wurde mir ein kostenloses Upgrade auf die 7970M gegeben.
Laut Notebookcheck eine der Top-Grakas aktuell auf dem Markt.
Und laut notebookcheck auch 23 Plätze besser im Ranking.
GTX = Rang 25 oder so
RadeoN = Rang 3
Also habe ich mir gedacht, wird der PerformanceBoost der ATI den Vorteil von Cuda "auffressen".
Und ich habe mich für ATI entschieden.
Wäre die GTX sehr viel schneller gewesen? Obwohl die ATI schnellere Taktraten & Co besitzT?
Weil: Noch hätte ich die Möglichkeit die Graka vom Hersteller tauschen zu lassen in die Nvdia.
-edit-
Ist der Boost von Cuda so viel höher, wie die Mehrleistung der ATI ?
Wäre es ein merkbarer Unterschied?
Eine ATI Karte nützt dir doch absolut garnichts. Schei55egal wie schnell die ist, sie wird von Premiere nicht unterstützt. Du kannst sie genauso gut ausbauen und die Onboard Karte (wenn vorhanden) nutzen - du wirst keinen Unterschied merken.
Antwort von marwie:
Premiere Pro entfaltet die volle Leistungsfähigkeit nur mit einer Grafikkarte die Cuda unterstützt, ohne Cuda ist man z.B. mit Edius besser bedient.
Ich würde versuchen das Notebook umzutauschen oder zu verkaufen und eines mit einer Nividia GPU zu besorgen.
Selbst bei einer ehen schwächeren GPU wie der gt 620mt bringt Cuda deutlich was beim berechnen von echtzeit Effekten welche Cuda unterstützen.
Antwort von rush:
Selbst bei einer ehen schwächeren GPU wie der gt 620mt bringt Cuda deutlich was beim berechnen von echtzeit Effekten welche Cuda unterstützen.
Gilt noch die Frage zu klären ob sein Magic Bullets Effekt eben auch von Cuda profitieren würde?!
Antwort von Frank Glencairn:
Magic Bullet (Looks,Colorista usw.) ist Open GL basiert. Open GL ist in dem Bereich aber eher lahm im Vergleich mit Cuda. Egal wie schnell die Karte bei Egoshootern ist.
Geht halt nix über ne richtige aufgebaute und handmassierte Workstation.
Bei mir läuft Looks und Colorista problemlos in Echtzeit.
Aber wenn man das halt unbedingt unterwegs mit nem Laptop machen will, muß man eben Abstriche machen.
Das ist, wie wenn man mit nem Messer zu einer Schießerei kommt.
Antwort von MLJ:
Ich habe wegen Cuda und ATI mal etwas im Internet gestöbert und in Amiland gibt es scheinbar Katalyst-Treiber von ATI die Cuda unterstützen, aber konnte keine Bestätigung dafür finden.
Aber dafür einen Beitrag, zwar etwas etwas älter, dafür Interressant, der Unterschied mit- und ohne Cuda. Dürfte für Lurator eine nützliche Info sein.
Bezieht sich zwar auf Cyberlink PowerDirector 8, aber zeigt deutlich welchen Unterschied Cuda macht.
Zitat Anfang:
CUDA ist in PD8 für das Rendern in AVC ausgelegt, derzeit nicht in MPEG2!
Versuchsweise habe ich 1:58 Minuten Video der HV30 (1440x1080) mit 5 Überblendungen ohne CUDA gerendert nach H.264-AVC (CVBR 15500/17000. Zeitbedarf mit einer Q6600 CPU bei OC auf 4x3GHz) 4:14 Minuten, d.h. um den Faktor 2,15 länger als Echt-Laufzeit des Videos. Die Investition in eine kompatible Grafikkarte würde also für das Rendering Echtzeit bringen. Per CUDA werden auch einige Filter bei der Timelinearbeit unterstützt.
Nachtrag:
Der Chef-Ingenieur in Deutschland empfiehlt für die Nutzung von CUDA eine Grafikkarte mit NV 9600GT Chip, zur Zeit für ca. 79,- € in Deutschland erhältlich. So die Antwort auf meine Anfrage.
Am 26.08.09 ist dann die bestellte neuen Grafikkarte: ZOTAC GeForce 9800 GT ECO, 1GB gekommen (84 Euro incl. Versandkosten). Der Austausch war kein Problem, in PD8 ließ sich nun die GPU-Beschleunigung aktivieren.
Obige Versuchsanordnung habe ich dann per CUDA encodiert. Zeitbedarf hierbei: 1:03 Minuten, d.h. schneller als Echtzeit.
Nachtrag 12/2009:
Obige Versuchsanordung habe ich zuätzlich noch mit dem neuen PC auf Basis des i7-870 Intel-Prozessors encodiert. Als Ausgangsmaterial habe ich aber diesmal Clips der Canon HF100 in H.264-AVC verwendet. Zeitbedarf hierbei: 40 Sekunden, d.h. schneller als Echtzeit.
Die ATI-Stream Grafiktechnologie ist für das Rendern in AVC und MPEG2 ausgelegt, scheinbar aber noch nicht ganz ausgereift, siehe /1/.
Ist eine kompatible Grafikkarte vorhanden, dann werden auch geeignete Filter im Effektraum markiert als und als geeignet angezeigt für CUDA. bzw ATI-Stream Technologie. Die Effekte kann man im Falle CUDA auch auf HDV-Dateien anwenden und die Beschleunigung bei der Timelinearbeit schon flüssig nutzen.
Quelle:
http://www.hennek-homepage.de/video/PowerDirector.htm
Zitat Ende.
Ich denke das sagt einiges, oder ?
Ciao, Mickey Lee
Antwort von TomStg:
@MLJ
Das Rendern wird im Wesentlichen weder vom RAM noch von der GPU, sondern vor allem von der CPU bestimmt. Bezüglich der Wirkung von Grafikkarten und CUDA auf der Timeline bring Dich bitte zB hier auf den neuesten Stand:
http://www.studio1productions.com/Artic ... ereCS5.htm
Grüsse
Tom
Antwort von Reiner M:
...
Antwort von MLJ:
@Tom
Ich hatte die Info eigentlich für Lurotor eingestellt, weil er mit seinem Premiere und der ATI Probleme hat. Ich war auf dem Link, interessant. Und das die CPU die Hauptrolle spielt weiss ich. Danke dir für die Info. Und nebenbei, ich bin kein Premiere Anwender, wollte Lurotor nur etwas helfen.
@Reiner
Hast du recht, aber die CPU spielt nunmal die Hauptrolle. Direct3D, OpenGL, OpenCL, Cuda, etc... das sind die "Statisten", um es mal so auszudrücken. Und RAM ist wichtig damit dem System nicht die Puste ausgeht. Trotzdem, ist Cuda, OpenCL etc. "bescheiden" eingestellt, wird das Ergebnis auch "bescheiden". Und das trifft bei allen Programmen zu, egal wer der Hersteller ist.
Der "einzige" Unterschied ist der, das manche den Topf voll ausschöpfen und andere nicht was die Leistungsmöglichkeiten von GraKa's angeht.
@All
In wie weit das Programm eine/mehrere Erweiterungen benutzt, kannst du eigenlich ganz leicht ausmachen: Stelle die Optionen der GraKa mal in allem was sie so bietet auf die denkbar "schlechteste" Qualität und dann Render mal was, Qualität wieder auf "Optimal" und das ganze von vorne. Im Ergebnis siehst du dann, was das Programm definitiv benutzt und was es bringt.
Sich die Zeit zu notieren ist auch keine schlechte Idee. Dann hat man Klarheit und entsprechende Massnahmen treffen.
In diesem Sinne, Mickey Lee
P.S.: Das gleiche gilt auch für den Sound. Der ist in den Eigenschaften fast nie auf volle Qualität und Beschleunigung eingestellt. Das wird oft vergessen, nur so nebenbei ;-)
Antwort von Lurotor:
Danke für all die Tipps, jetzt habe ich alle Prüfungen rum und kann mich Premiere widmen.
Wo kann man die Previewcodecs auf YUV umstellen?
Habe im Einstellungsmenü geschaut und nichts gefunden.
Mir war nicht bewusst, dass die Graka defakto fast garnicht zur schnelleren Renderzeit beiträgt, wenn sie nicht Cuda unterstützt.
Eigentlich ja irgendwie ein Armutszeugnis von Adobe das nur auf einige wenige Cuda-fähigen-Grakas zu beschränken?
Da wird ja echt jede Menge Performance verschenkt.
Ein allgemeingültiger Standard den jede Graka beherrscht wäre da zielführender.
Kennt jemand optimale Proxys für den Offline-Schnitt?
Und zwar für die 7D?
mfg
Antwort von Tobsn:
Einige Wenige?
Supported NVIDIA graphics cards for GPU acceleration
GeForce GTX 285 (Windows and Mac OS)
GeForce GTX 470 (Windows)
GeForce GTX 570 (Windows)
GeForce GTX 580 (Windows)
NVIDIA® Tesla C2075 card (Windows) when paired with a Quadro card as part of an NVIDIA Maximus™ configuration
Quadro FX 3700M (Windows)
Quadro FX 3800 (Windows)
Quadro FX 3800M (Windows)
Quadro FX 4800 (Windows and Mac OS)
Quadro FX 5800 (Windows)
Quadro 2000 (Windows)
Quadro 2000D (Windows)
Quadro 2000M (Windows)
Quadro 3000M (Windows)
Quadro 4000 (Windows and Mac OS)
Quadro 4000M (Windows)
Quadro 5000 (Windows)
Quadro 5000M (Windows)
Quadro 5010M (Windows)
Quadro 6000 (Windows)
Quadro CX (Windows)
Tesla C2075** (Windows)
Antwort von Reiner M:
...
Antwort von Lurotor:
Einige Wenige?
Supported NVIDIA graphics cards for GPU acceleration
GeForce GTX 285 (Windows and Mac OS)
GeForce GTX 470 (Windows)
GeForce GTX 570 (Windows)
GeForce GTX 580 (Windows)
NVIDIA® Tesla C2075 card (Windows) when paired with a Quadro card as part of an NVIDIA Maximus™ configuration
Quadro FX 3700M (Windows)
Quadro FX 3800 (Windows)
Quadro FX 3800M (Windows)
Quadro FX 4800 (Windows and Mac OS)
Quadro FX 5800 (Windows)
Quadro 2000 (Windows)
Quadro 2000D (Windows)
Quadro 2000M (Windows)
Quadro 3000M (Windows)
Quadro 4000 (Windows and Mac OS)
Quadro 4000M (Windows)
Quadro 5000 (Windows)
Quadro 5000M (Windows)
Quadro 5010M (Windows)
Quadro 6000 (Windows)
Quadro CX (Windows)
Tesla C2075** (Windows)
Verglichen mit der Fülle an Grafikkarten die es auf dem Markt gibt ist der Begriff "einige wenige" doch schon treffend.
Die GTX Grafikkarten sind sehr teuer, also keine "allerwelts-Grakas".
Und die Quadros eignen sich zwar für Videoschnitt & Co, sind aber durch ihren sonstigen Leistungen für Games & Co nur teilweise zu gebrauchen.
Und auch bei den etwas besseren zahlt man ordentlich Geld.
Die 20 Karten da sind zwar Cuda fähig.
Ist einfach Schade, dass man da nicht für ATI & Co noch Möglichkeiten anbietet.
Antwort von Reiner M:
...
Antwort von MLJ:
@Reiner
Wow, Cuda macht so einen grossen Unterschied ? Das es einen Unterschied macht ist klar, aber so gewaltig ? Gibt es da noch andere Dinge die Premiere nutzt oder nur Cuda ? Sorry wegen der etwas blödklingenden Frage, aber ich selbst benutze kein Premiere, deswegen.
Ich benutze schon seit Jahren MoviePack Pro von Aist/Cinegy. Da kann ich die vollen 4K ausreizen. Bitte jetzt keine komischen Kommentare, ok ?
Ja und das ist klar, die Hardware sollte optimal aufeinander abgestimmt sein. Das ist das "A" und "O" dabei. Deswegen habe ich mir früher, als man sich die Teile selbst zusammenstellen konnte, reichlich getestet bis die Performance sich voll entfalten konnte. Ein faules Ei im System und du hast geloost, volle Kanne. Da sehe ich auch das Problem bei den "All-in-One" PC's, denn irgendwo muss ja gespart werden um mit solchen Preisen auf dem Markt zu bestehen.
In Sachen Raytraycing: Weisst du eigentlich noch, wielange sowas früher für ein einziges Bild/Grafik gedauert hat ? ;-) Das waren noch Zeiten (Smile)
@Lurotor
Ich habe auch lange ATI bevorzugt weil die damaligen NVidia noch nicht "so weit" waren. Aber seit AMD ATI geschluckt hat ist ATI auch etwas anderes. NVidia hat sich da besser entwickelt und scheinbar statt auf Gamer- den Videobereich gewählt.
Aber Reiner hat recht, die eine für dies, die andere für das. Es fehlt eigenlich eine gute Allround GraKa die allen Bereichen gerecht wird, aber denke mal, das wird ein Traum bleiben. Und Reiner hat wieder recht. Wenn Premiere NVidia besser unterstützt und du später kein Kopfweh haben willst, dann solltest du wirklich die Hardware auf die Software abstimmen, wenn es damit optimal läuft. Ist wirklich das Salz in der Suppe.
Ich bin auch heute noch ein "ATI-Fan" und da alles so läuft, wie ich es erwarte, habe ich mir keine Gedanken mehr gemacht wegen GraKa. Alles läuft, ist flott unterwegs und funktioniert bestens.
Daher: "Never touch a running System" (Ein funktionierendes System in Ruhe lassen, so in etwa)
Ausserdem denke ich, die Leute hier, die bereits mit Premiere und co Erfahrungen gemacht haben, haben kein Interesse daran dir irgendeinen Müll zu erzählen. Was ich bisher in den verschiedenen Foren gelesen habe zeigt deutlich, das die Leute hier auch Ahnung haben und wissen (!) wovon sie reden, und nicht nur irgendwas "nachplappern".
Ich wurde auch schon auf sehr viel brauchbare Infos hingewiesen und deswegen habe ich mich hier als User registriert, eben weil hier keine "Fach-Idioten" oder "Dummschwätzer" ihr unwesen treiben.
@All
Macht weiter so.
Ciao, Mickey Lee
Antwort von Alf_300:
Manche haben Glück, da läufts einfach, bei Anderen bleibts halt die Mercury Playback Engine und es werden nur die Effekte unterstützt die dafür programmiert worden sind, die dsagen dann: Trotz guter Hardware kaum Auslastung / ruckeln beim Schnitt
Antwort von Reiner M:
...
Antwort von Bodis.tv:
WOW Reiner
absolut TOP und schön geschrieben, für jeden User hier verständlich !
schön auf den Punkt gebracht, da waren sogar ein paar Infos für mich dabei ;-)
wie kommst du auf den Speicher bei AE ? Kern x 3+12GB?
Das hat meinen Dual Xenon schon immer ausgebremst und ich wusste nicht was optimal ist.
Antwort von Reiner M:
...
Antwort von Bodis.tv:
ja ich weiß das es immer gleich "voll " ist.
habe seit 2 Jahren 8 echte Kerne und leider nur 16 GB.
das System bleibt erst mal so, und anfang nächstes Jahr kommt was neues, aber dann ist es gut zu wissen das ich beim RAM zuschlagen werde.
mache im AE sonderauflösungen mit 12 000 x 480 Px :-)
da darf er manchmal etwas rechnen
Antwort von Alf_300:
Jetzt würd mich nur noch interessieren wo es die 8GB RAM Riegel gibt, denn auf den gängigen Boards gibts ja meist nur 4-6 Steckplätze ;-)
Antwort von Reiner M:
...
Antwort von Alf_300:
Die G.Skill machen mit dem DX79 Board Probleme, da wird wohl so sein dass es Weihnachten die HP Z860 Workdtsation werden muß, damit nicht mehr ruckelt
@Reiner
Mit welchem Rechner hast Du denn 2011 gearbeitet ?
Antwort von Reiner M:
...
Antwort von dienstag_01:
@Reiner M
Sehr interessante und verständlich Ausführungen. Und klare Aussagen.
Aber, natürlich wieder von mir ein aber, bei der Bearbeitung mit AE schalte ich die Mehrprozessorbearbeitung immer ab. Vielleicht bin ich nicht auf dem neusten Stand (hab schon länger keine aufwendige Komposition mehr bearbeitet), bei mir hat die Mehrprozessorbearbeitung immer zu Fehlern im Ergebnis geführt. Was mache ich? Ich nutze AE zum Fixen von Problemen im Video (Masken, Rotoscoping, Farbkorrektur) und zu einfachen Effekten (Bild-im-Bild, Formate). Ausgangsmaterial ist abert immer das native (komprimierte) Video. Womit arbeitest du? Ich vermute mal, Ausgangsmaterial ist ein Still, da wird eine 3D-Ebene draus gemacht, Blitz und Donner drauf gelegt und was es nicht alles gibt und schwupps, habe ich einen animierten Vorspann. Kann das sein?
Ich will damit sagen, wenn ich mit GOP basiertem oder anderem, nicht in Einzelframes komprimiertem Material (z.B. AVCHD) arbeite, scheint der Workflow sich fundamental von deinem zu unterscheiden. Mit dann natürlich vollkommen anderen Hardwareanforderungen. Geht da jemand mit? Gerade was die Mehrprozessorbearbeitung betrifft? Oder bin ich wirklich nicht auf dem neusten Stand?
Antwort von Reiner M:
...
Antwort von dienstag_01:
Das kann damals durchaus die CS4 gewesen sein (jetzt 5.5).
Und an das Konzept der selbständigen Erkennung, wann MP Sinn macht und wann nicht, erinnere ich mich jetzt auch wieder (hat aber eben scheinbar nicht richtig funktioniert).
Ich würde aber wirklich vorschlagen, auf diesen sehr wesentlichen Unterschied im Workflow bei der Betrachtung der Hardwareanforderungen hinzuweisen. Sonst kaufen sich die Halbversteher (zu denen ich mich auch zähle) 32GB Ram, müssen, wie Alf_300 richtig darstellte, auch noch ein teures Mainboard etc. extra dafür wählen, und letztendlich bearbeitet AE ihr Material ohne MP und sie wundern sich, dass es keinen Performance-Sprung gibt. Bei Graka und Cuda ist das ja schon sehr sauber getrennt, wo, wann, was es etwas bringt.
Antwort von TomStg:
Das Prüfen, welcher workflow im Zusammenhang mit welcher Hardware am besten passt, ist unbedingt zu empfehlen.
Aber die Welt des Speichermanagements hat sich bei AE CS6 ein ganz erhebliches Stück weiter gedreht gegenüber CS5.5. Daher können bei CS5.5 passende Konstellationen bei CS6 nicht mehr passen bzw nicht mehr optimal sein. Die Unterscheidung zw den Versionen ist auch jetzt wieder sehr wichtig.
Grüsse
Tom
Antwort von Reiner M:
...
Antwort von dienstag_01:
Teste das dann noch mal mit der CS5.5 - Du wirst sicher zufrieden sein.
Werde ich bei Gelegenheit mal machen. Wo liest du aus, wieviel Frames AE zeitgleich rendert?