Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Intel i7 6700k oder 5820k



Frage von Silerofilms:


Wie schon im Titel, der eine oder der andere? Welcher bietet mehr Vorteile für die Filmproduktion? Bei meinen Recherchen für einen neuen PC stoße ich immer auf die beiden. Der 6700k soll angeblich zukunftssicherer sein, wegen USB 3.1, dem neuen Skylake und keine Ahnung was noch. Der 5820k hat aber 6 Kerne, einen höheren Cache und schneidet beim Rendering anscheinend besser ab, verbraucht aber mehr Strom und wird heißer.
Ich arbeite mit den Adobeprodukten und Cinema 4D. Wäre dankbar für ein paar Tipps.

Space


Antwort von Cezar:

Ich würde den 5820 nehmen bedenke aber die Mainboards sind teuer

Space


Antwort von merlinmage:

Auf jeden Fall den 5820k.

Space


Antwort von kundesbanzler:

Was die Geschwindigkeit angeht, werden die beiden im Alltag etwa gleich schnell sein.

Zum 5820k würde ich nur greifen, wenn du >64gb ram verbauen willst, oder die PCIe Lanes brauchst, ansonsten kannst du dir das Geld sparen und es irgendwo sinnvoller anlegen, das könnte auch sein eine zukünftige Aufrüstung vorzuverlegen.

Space


Antwort von Valentino:

Wenn du das System nicht gleich brauchst, würde ich an deiner Stelle noch auf die neuen Broadwell-E CPUs warten, die aber nicht vor dem 2. Quartale 2016 lieferbar sind.
http://www.hardwareluxx.de/index.php/ne ... -2016.html Was die Geschwindigkeit angeht, werden die beiden im Alltag etwa gleich schnell sein.

Zum 5820k würde ich nur greifen, wenn du >64gb ram verbauen willst, oder die PCIe Lanes brauchst, ansonsten kannst du dir das Geld sparen und es irgendwo sinnvoller anlegen, das könnte auch sein eine zukünftige Aufrüstung vorzuverlegen. Der Sprung von einem 4GHz 4c/8th CPU zu einer 6c/12th ist nicht immer so hoch wie erwartet. Aber schon der Haswell EP Xeon mit 4c/8th ist schneller als der aktuelle i7, lässt sich besser kühlen und die EP Boards/Chipsätze machen meist einen Generationswechsel mit.

@Cezar
Das stimmt nicht, für einen i7 sollte es schon ein Z170 Board mit drei bis vier physikalischen x16 PCIe Steckplätzen sein.
Dazu USB3.1 und ein Slot für PCIe SSD und schon ist man bei über 150 Euro und für knapp über 200 Euro bekommt man auch ein günstiges X99 Board.
Das MSI X99A Raider gibt es für 212 Euro und das hat alles was man so braucht.

Auch wenn die neuen Z170 Boards mehr Lanes über den Chipsatz haben, sind diese immer noch sehr schlecht mit der CPU verbunden und Meilen von den echten 40 PCIe Lanes des 2011-3 Sockels entfernt.
Schon mit einer schnellen PCIe SSD verlierst du vier PCIe 3.0 Lanes, also läuft die GPU im x8 Modus auf einem Consumer Mainboard mit Z-Chipsatz(oder darunter).
Hast du also nur noch vier PCIe Lanes für eine Thunderbolt Karte oder z.B. Video I/O Box oder Raid-Controller oder USB3.1 Karte.
Beim X99 kannst ganz entspannt das "oder" durch ein "und" ersetzten.
Hier ist meist nur die Anzahl und das Verdecken der Steckplätze ein Problem, dafür gibt es aber PCIe-Extender.

Die größte Limitierung von Intel bei den Consumer-Boards sind die maximal vier Kerne. Bei Broadwell-E wird es sehr wahrscheinlich sogar ein i7 mit 10c/20th geben.

Die paar Euro die ein System mit Enterprise Chipsatz mehr kostet, hat man in dem Moment wieder drin, in dem man sich kein neues Consumer System zulegen muss, sondern ganz entspannt für ein paar Euro auch noch ein Intel X58 System von 2010 mit einen USB3.1 Controller und einer PCIe SSD aufrüsten kann. Versuche das mal mit einem Consumer-Board aus der Zeit.

Space


Antwort von kundesbanzler:

Der Sprung von einem 4GHz 4c/8th CPU zu einer 6c/12th ist nicht immer so hoch wie erwartet. Aber schon der Haswell EP Xeon mit 4c/8th ist schneller als der aktuelle i7, lässt sich besser kühlen und die EP Boards/Chipsätze machen meist einen Generationswechsel mit. Kein Xeon (bzw. allgemein >4Core-CPU) ist schneller als ein aktueller 4Core-i7, sie haben nur mehr Kerne. Traurig, dass dieser Unterschied immer noch nicht bekannt ist.

Deswegen ist der Sprung nicht nur lediglich nicht so hoch wie erwartet, sondern je nach Anwendungsszenario ist er nicht existent oder es ist defacto sogar ein Abstieg.

Space


Antwort von merlinmage:

Xeons haben halt Support für mehr RAM und ECC RAM und in höheren Gefilden Support für Multi CPU Systeme. Aber in der Preisklasse ist das total ladde.

Space


Antwort von Silerofilms:

Sooooo kompliziert. Also ich hab derzeit einen i7 3770k und brauch für zukünftige Projekte mehr Power. Und ich nehme mal an, dass mir beide Prozessoren das bieten. Ich möchte halt einen Prozessor, mit dem ich die nächsten 3 Jahre gut auskomme. Und auf die nächste Generation der 6000er Reihe will ich nicht mehr warten, weil die dann sowieso wieder um einiges teurer sein werden und ich den neuen PC im ersten Quartal 2016 brauche.

Space


Antwort von kundesbanzler:

Xeons haben halt Support für mehr RAM und ECC RAM und in höheren Gefilden Support für Multi CPU Systeme. Aber in der Preisklasse ist das total ladde. Das sind alles tolle Sachen, genau wie viele Kerne auch. Insofern man denn davon profitiert, ansonsten steckt man sein Geld lieber in andere tolle Sachen.
Sooooo kompliziert. Also ich hab derzeit einen i7 3770k und brauch für zukünftige Projekte mehr Power. Und ich nehme mal an, dass mir beide Prozessoren das bieten. Ich möchte halt einen Prozessor, mit dem ich die nächsten 3 Jahre gut auskomme. Und auf die nächste Generation der 6000er Reihe will ich nicht mehr warten, weil die dann sowieso wieder um einiges teurer sein werden und ich den neuen PC im ersten Quartal 2016 brauche. Du solltest dir darüber im klaren sein, dass keine der beiden CPUs eine ernst zu nehmende Leistungssteigerung mitbringt, max. Faktor 1,3 - wenn überhaupt. Vor allem wenn man in langen Renderzeiten denkt, ist das ein kaum merklicher Fortschritt und keinesfalls zukunftssicher. Viel entscheidender als die paar Prozentpunkte bei der Wahl der zukünftigen CPU ist es, deinen aktuellen Rechner zu behalten und mitrendern zu lassen, dann bist du plötzlich bei Faktor 2,3 und das kann schnell den Unterschied zwischen "über Nacht" und "am Abend noch" ausmachen.

Space



Space


Antwort von Valentino:

Der Sprung von einem 4GHz 4c/8th CPU zu einer 6c/12th ist nicht immer so hoch wie erwartet. Aber schon der Haswell EP Xeon mit 4c/8th ist schneller als der aktuelle i7, lässt sich besser kühlen und die EP Boards/Chipsätze machen meist einen Generationswechsel mit. Kein Xeon (bzw. allgemein >4Core-CPU) ist schneller als ein aktueller 4Core-i7, sie haben nur mehr Kerne. Traurig, dass dieser Unterschied immer noch nicht bekannt ist. Glaube wir reden hier aneinander vorbei.
Da es für den X99 2011-3 Sockel keine i7 CPUs mit nur vier Kernen gibt muss man bei den EP-Boards gezwungener Maßen zu einem Xeon greifen.

Mir waren beim ersten X99 System die 40 PCIe Lanes und der höhere Grundtakt wichtiger und so habe ich dann den E5-1630 V3 und nicht den i7-5820K verbaut.

Der E5-1630 V3 ist mit seinen durchgängigen 3,7 GHz bei 140 Watt TDP deutlich potenter als ein aktueller i7 der Consumer-Serie ohne K bzw. Übertaktung.
Über 8 Kerne muss man so oder so zu einen Xeon greifen und diese sind gerade bei Multi-CPU Anwendungen deutlich schneller:
https://www.cpubenchmark.net/high_end_cpus.html
Hier sieht man auch ganz gut das der Xeon 1630 V3 über dem i7 6700 und unter dem 6700k liegt. Dazu liegt der Xeon 1650 v3 mit 6c/8th mit weit über 13k Punkten deutlich über dem 6700k und liegt gleichauf mit seinem i7 Bruder dem 5930K.
Klar wenn die verwendete Software nichts mit Multi-CPU anfangen kann, dann bringt dir eine 6 Kern CPU auch nicht viel, aber das kann man dann doch nicht auf den Prozessor schieben.
Die Abstände sind aber sehr gering und wie oben schon erwähnt kommen bei X99 noch folgende Vorteile dazu:
- 2011-3 Sockel ist stabiler, von Skylake Boards hört man hingegen oft von Brüchen.
- Die DIE der CPU ist verlötet und nicht verklebt und führt somit die Wärme besser ab. Besser Wärmeabfuhr hat auch damit zu tun, das eine EP-CPU fast die doppelte Grundfläche besitzt.
- Deutlich höhere Bandbreite.
- Zwei Generationen von CPUs pro Sockel.
- Deutlich höherer Cach von Consumer zu Enterprise
- Keine IGPU die Leistung "klaut" und Abwärme produziert.

Space


Antwort von kundesbanzler:

Klar wenn die verwendete Software nichts mit Multi-CPU anfangen kann, dann bringt dir eine 6 Kern CPU auch nicht viel, aber das kann man dann doch nicht auf den Prozessor schieben. Aha. Wenn ich mir ein Haus aus Watte baue und das beim ersten Wind wegfliegt, kann ich das auch nicht auf das Haus schieben. Nur was hab ich dadurch gewonnen?
Dazu liegt der Xeon 1650 v3 mit 6c/8th mit weit über 13k Punkten deutlich über dem 6700k und liegt gleichauf mit seinem i7 Bruder dem 5930K. "Deutlich" na ja ... 23% Leistungssteigerung für 64% Mehrpreis. Beim Vergleich mit dem 4790K ist der Unterschied noch drastischer.
- 2011-3 Sockel ist stabiler, von Skylake Boards hört man hingegen oft von Brüchen. Hörensagen.
- Die DIE der CPU ist verlötet und nicht verklebt und führt somit die Wärme besser ab. Besser Wärmeabfuhr hat auch damit zu tun, das eine EP-CPU fast die doppelte Grundfläche besitzt.
- Keine IGPU die Leistung "klaut" und Abwärme produziert. Diese beiden Punkte egalisieren sich, angesichts der Tatsache, dass die Xeons ständig eine Generation hinterher hinken. Kann man an dem Einzelfall oben auch gut nachvollziehen, 53% höhere TDP bei erwähnter 23% Mehrleistung.
- Zwei Generationen von CPUs pro Sockel. Das ist nur ein Vorteil, wenn Aufrüsten überhaupt Sinn macht, was mitunter gar nicht der Fall ist.

Nochmal: wenn man auf Renderleistung angewiesen ist, dann ist dem mit Aufrüstung oder vielen Kernen hinterherzulaufen ein ökonomisches Desaster. Renderleistung skaliert nur mit Anzahl der Maschinen vernünftig.

Space


Antwort von Jost:

Sooooo kompliziert. Also ich hab derzeit einen i7 3770k und brauch für zukünftige Projekte mehr Power. Der 3770K istz bereits richtig schnell - und die CPU-Entwicklung stagniert.

In der aktuellen PCGH gibt es einen Vergleich zwischen 3770K und 6700K: plus 18 Prozent. Urteil PCGH: "Mit etwas Glück gerade noch spürbar."



Mit einem 5820 wird es nicht anders aussehen. Es sei denn, es wird übertaktet. Wegen des geringen Grundtaktes hat der Potential. Mit 140 Watt Abwärme ist er aber bereits original eine Kochplatte. Ein CPU-Kühler aus der 40 Euro+ Klasse ist also Pflicht.

Willst oder kannst Du nicht übertakten, bleib beim 3770K. Das Upgrade würde rund 700 Euro+ kosten. Das wäre das denkbar schlechteste Preis-/Mehrleistungsverhältnis

Xeons lassen sich nicht richtig übertakten.

Space


Antwort von Silerofilms:

Also ich habe meinen i7 3770k eigentlich ständig übertaktet, auf 4,2 GHZ und er läuft stabil. Mir gehts halt darum, dass ich jetzt immer mehr auf 4k umsteige und auch einige komplexere CGI Animationen machen muss, wo es mit dem jetztigen CPU beim Videoschnitt mit abspielen, Colorgrading und rendern (auch in Cinema 4d) schon etwas happig wird. Auch z.B.: in After Effects. Ich hab 16 GB Ram und brauch aber schon langsam mal 32 GB.

Meinen derzeitigen PC will ich nicht aufrüsten, da soll schon was neueres her, das wieder die nächsten paar Jahr hält. Ob das neue Teil jetzt ein paar hundert Euro mehr oder weniger kostet ist egal. Ich hab mir ein maximales Limit von € 2.500 gesetzt.

Ich denke mir halt, jetzt gibt es schon die über-über nächste Generation an i7, da sollte sich doch was getan haben. Von mir aus kann es auch ein Xeon werden. Wenn man sich fertige PCs für den Videoschnitt ansieht, wie bei HP, dann sind da sowieso überall Xeons drin. Stellt sich eben wieder die Frage, warum?

Space


Antwort von Valentino:

@Silerofilms
Für 2.500 Euro bekommst schon eine ordentliche Kiste für dein Geld und dann zu einem Consumer Board zu greifen halte ich für weniger sinnvoll.

Im Prinzip reicht dir wahrscheinlich der 5820k, dazu eine m.2 PCIe SSD mit 250 bis 512GB, 32GB 2400MHz(4x8GB Riegel), ein 850Watt Netzteil, GTX790 oder 980er, 2x4TB HDD, ATX Gehäuse oder auch größer (z.B. Fractal R5), X99 Mainboard und vielleicht noch eine 1TB SSD als Render bzw. Cache Platte.
Wenn das System leise sein soll, dann alle Lüfter raus und Noctua rein, auch die knapp 60 Euro für ein Radiator von denen sollte man nicht scheuen.
Die 140 Watt sind die maximale Abwärme und sogar unter Vollast sind solche System im einem gedämmten Gehäuse hörbar aber nicht störend.

@kundesbanzler
Sorry aber hast du mal ein System mit X99 gebaut oder je einen solchen Sockel gesehen oder kennst du ihn nur von Fotos?
Alles über 4 Kernen ist nur unnötiger Stromverbrauch oder wie?

Selten so viel Mumpiz zum Thema Workstation CPUs gehört, die Xeons für 2011-3 sind gleichauf mit den i7ern für diesen Sockel.

Wenn du jetzt anfängst die Skylake 4c/8th i7er mit den knapp 1 Jahr älteren Haswell-E CPUs vergleichst, kann man dir auch nicht mehr helfen.

Dazu werden die 14nm durch Broadwell-E den Einzug in das Segment schaffen.

Bei dem ganzen Beitrag bitte nicht vergessen, der Beitragstarter arbeitet mit Cinema 4D und da geht das Testtool Cinebench bei den Xeon mit 12c/24th durch die Decke.
Dazu halt noch Adobe, die mit 4 Kernen auch völlig unterfordert sind.

Aber keine große Sache kannst gerne noch die nächsten Jahre mit dem 3770k weiterarbeiten.

Space


Antwort von Silerofilms:

Also zu was für einer CPU räts du mir jetzt?

Space


Antwort von kundesbanzler:

@Valentino:

Ich arbeite auf sehr vielen unterschiedlichen Workstations und gucke im Gegensatz zu dir auch mal ab und zu auf die CPU-Auslastung und kann deswegen sehr gut beurteilen, wie gut bzw. schlecht die gängige Software in Wirklichkeit mit Anzahl der Kernen skaliert.

Gerade das C4D-Beispiel zeigt, wie wenig du von der Sache verstehst, denn das finale Rendern (was als einzige Funktion wirklich mit den Kernen skaliert), macht einen verschwindenen Teil der Zeit aus, die man mit der Software verbringt bzw. in ernst zu nehmenden Arbeitsumgebungen schlicht gar keinen, da er eh nicht auf der Workstation ausgeführt wird.

Space


Antwort von Jost:

Also zu was für einer CPU räts du mir jetzt? Wie gesagt: Die CPU-Entwicklung stagniert seit mindestens vier Jahren. Es gibt keine Leistungssprünge mehr zwischen den Generationen.

Du hast nur die Wahl zwischen:
wenigen, aber schnellen Kernen
oder
vielen, doch dafür langsame Kerne.

Wenn Du Deinen 3770 bereits auf 4.2 Ghz übertaktet hast, wirst Du mit dem 6700K nicht glücklich. Beide sind schließlich 4-Kerner. Und bei einem Basis-Takt von 4 Ghz hast Du bei einem 6700K nicht mehr viel Übertaktungs-Spielraum nach oben. Den 6700K bekommst Du darum nicht richtig schneller als Deinen übertakteten 3770.
Die Investition ginge ins Leere.

Nimm den 5820K und übertakte den moderat auf betriebssichere 4 GHz. Jeder einzelne Kern ist dann zwar immer noch langsamer als der aus dem 3770, aber nur marginal - dafür hast Du aber nicht vier Kerne, sondern sechs. Die beiden zusätzlichen Kerne bringen zudem Hypertreading mit, was ihre Leistung nochmal um etwa 30 Prozent steigen lässt.

Dann hast Du das Beste aus beiden Welten:
Vergleichsweise viele und schnelle Kerne.

Space


Antwort von Silerofilms:

Da gäbe es aber noch die Möglichkeit eines Mainboards mit 2 Xeons drauf. Wie schauts denn damit aus?

Space



Space


Antwort von Jost:

Schlecht. Hab nichts gefunden, um zum Beispiel 2 X Xeon 1231 einzubinden.

Space


Antwort von kundesbanzler:

@Silerofilms: Was genau ist jetzt noch dein Problem?

Du hast hier alle Informationen bekommen, die für dich wichtig sein könnten, aber das Kaufen wirst du schon selbst erledigen müssen.

Wenn du Dual-CPUs in Erwägung ziehst, kannst du zb. bei den Preissuchmaschinen recht komfortabel nach diesem Kriterium und etlichen anderen filtern, bspw. hier: http://geizhals.de/?cat=cpuppro

Auf dem von Valentino bereits verlinkten http://www.cpubenchmark.net findest du Listen von der Rohleistung der Prozessoren, auch von Dual-CPU-Systemen. Bedenke aber dass das nur das Rendern betrifft. Hingegen das Arbeiten mit komplexen Szenen, Import/Export, Geometrieoperationen etc. werden wahrscheinlich sogar langsamer werden als auf deiner aktuellen Maschine.

Du musst für dich selbst entscheiden, welche Mehrleistung dir welches Geld wert ist. Aber lass es dir nochmal gesagt sein: Renderpower auf einem Einzelsystem haben zu wollen ist auf Dauer ein Kampf, den du nicht gewinnen kannst. Insbesondere wenns um sowas Raytracing (C4D) geht, was mit jedem Sample exponentiell mehr Zeit schluckt.

Space


Antwort von Silerofilms:

Mein Problem ist, dass sich, wie üblich, durch die ganzen Infos der ursprünglichen Frage wieder neue Fragen aufwerfen, die die Frage dieses Threads zum Teil wieder zunichte machen und ich wieder ganz wo anders stehe ;-)

Space


Antwort von maxx miliano:

Wennst eh c4d-r-17 hat jagst halt einen Rendertestauftrag
mit was immer unter " physischer Renderer" mit gut eingestellter
Kamera und f1,8 und global ilu und so weiter durch bEIDE
Chips, dann woast eh. wer von beiden in ähnlicher Techkonfi
schneller fertig ist.
Das Wort ZUKUNFTSSICHER..bite versuch diese deutsche Krankheitsbezeichnung aus deinem Gedächtnis zu bringen.
Der Schaß ( ösrt: für Scheiße) zieht sich quer durch euer Leben.
zb.
911er 2009er
911er 2013er

Beide Mösen sind geil.. okay und was gibt deine Geldbörse
her, dann machst einen realistischen Schnitt aus was bekomme ich und
was bekomme ich wann, nehme an du bist +19 Jahre alt.
Dann hast schon einen Blick dafür happy silvester :)

Space


Antwort von Valentino:

@Valentino:Gerade das C4D-Beispiel zeigt, wie wenig du von der Sache verstehst, denn das finale Rendern (was als einzige Funktion wirklich mit den Kernen skaliert), macht einen verschwindenen Teil der Zeit aus, die man mit der Software verbringt bzw. in ernst zu nehmenden Arbeitsumgebungen schlicht gar keinen, da er eh nicht auf der Workstation ausgeführt wird. Vielen Dank für die Lehrstunde wie man am besten 3D Render Jobs verteilt, aber leider bringt das dem Fragesteller recht wenig, da er leider keine Renderfarm besitzt ;-)

Das im Jahre 2015 wirklich noch jemand gegen CPUs mit mehr als 4 Kernen bashed ist irgendwie schon echt drollig.

...und ja ich schaue auch mal ab un an auf die CPU Aulastung und einige Programme brauchen auch auf dem 6c/12th i7 mehr als 90% für jeden Kern.
Red CinePro oder Premiere mit RAW Material und ein paar Effekten ist da so ein Beispiel. Auch Davinci läuft am besten auf einem 8 Kern System, wobei dann auch mindestens zwei GTX970er verbaut sein sollten.

Space


Antwort von kundesbanzler:

Keine Ursache, die Lehrstunde hast du auch bitter nötig. Denn sonst wüsstest du z.B. auch, dass der Fragesteller defacto eine Renderfarm besitzt, sobald er die neue Maschine angeschafft hat. Wobei dich das alles wahrscheinlich überhaupt nicht interessierst, du hast nur nach einem Argument in einem Bereich gesucht, von dem du überhaupt keine Ahnung hast.

Und mit ein wenig mehr Aufmerksamkeit und differenziertem Denken würde dir auffallen, dass ich keine Aussage über die Sinnhaftigkeit von dieser oder jener Anzahl Kerne getroffen habe. Dass das Preis-Leistungs-Verhältnis von CPUs irgendwo ab 4-6 Kernen mit deren Anzahl immer schlechter wird, sogar dann wenn man ihre miserable Single-Thread Performance komplett ausklammert, kann sich jeder ausrechnen, der die Grundrechenarten beherrscht. Vielleicht hilft dir ein Taschenrechner dabei, diese Aufgabe zu bewältigen. Es ist eine Frage des Einzelfalls, ob es Sinn macht, dieses Missverhältnis mehr oder weniger zu akzeptieren, weil man eine bestimmte Mindestleistung in einer Maschine konzentriert braucht oder da weitere Kosten für etwa Lizenzen etc. mit berücksichtigt werden müssen.

Wenn es um die reine Maximierung der Rechenleistung geht, dann ist viel davon in einer Maschine vereinen zu wollen ganz einfach auf fehlenden technischen Sachverstand zurückzuführen. Wobei das niemanden vorzuwerfen ist, schließlich ist technischer Sachverstand, sofern man ihn nicht selbst mitbringt, ebenfalls teuer.

Space


Antwort von Wurzelkaries:

Zum Ende des Jahres gebe ich auch noch meinen Senf dazu.

Ich habe eine I7 3930K auf 4,2 Ghz übertaktet. 32GB Ram und eine Nvidia GTX780. 4 SSD jeweils 1000GB und mehrere externe USB3.0 Festplatten zum Auslagern.

Win7 Professional

Es läuft premiere pro CC. Premiere läuft auf Laufwerk C
Media ist Laufwerk D
Export ist Laufwerk E
Scratch ist Laufwerk F

Jeweils SSD

Im Moment rendere ich in Echtzeit mit Premiere CC2015.

Reicht das nicht?

Space


Antwort von Valentino:

Klar man kann bei zwei Rechnern auch schon von einer Renderfarn reden, aber man kann es auch übertreiben ;-)

Naja zum Rest, schön das du vom Fach bist aber glaube unsere Meinungen liegen zu weit auseinander und so lange hier ein paar Workstations mit 6 und 8 Kernen gerade bei Video, Compositing und Colorgrading deutlich schneller sind als die 4 Kerner reicht uns das schon völlig aus.

@Wurzelkaries
Schönes System, aber die vier SSD sind bei Video mit hohen Datenraten recht sinnvoll, aber zwei davon sollten völlig ausreichen.

Wenn es um komplexes 3D Rendering geht, dann bringen einem SSD nur sehr wenig, da hier die Datenraten einfach sehr gering sind.

Eine bis zwei 4TB HDDs als Backup hast wahrscheinlich als USB3.0 extern am System.

Space


Antwort von Wurzelkaries:

Klar man kann bei zwei Rechnern auch schon von einer Renderfarn reden, aber man kann es auch übertreiben ;-)

Naja zum Rest, schön das du vom Fach bist aber glaube unsere Meinungen liegen zu weit auseinander und so lange hier ein paar Workstations mit 6 und 8 Kernen gerade bei Video, Compositing und Colorgrading deutlich schneller sind als die 4 Kerner reicht uns das schon völlig aus.

@Wurzelkaries
Schönes System, aber die vier SSD sind bei Video mit hohen Datenraten recht sinnvoll, aber zwei davon sollten völlig ausreichen.

Wenn es um komplexes 3D Rendering geht, dann bringen einem SSD nur sehr wenig, da hier die Datenraten einfach sehr gering sind.

Eine bis zwei 4TB HDDs als Backup hast wahrscheinlich als USB3.0 extern am System. So isses. Ich denke damit komm ich auf jeden Fall nach 2016.... grad so :-)

Space



Space


Antwort von Silerofilms:

Also wegen der "Renderfarm", die will ich eigentlich gar nicht. Es soll schon ein einzelner PC bleiben, außerdem möchte ich zumindest mein jetziges Netzteil weiterverwenden (evtl. auch den CPU Kühler).

Space


Antwort von BigT:

War hier bislang nur Leser aber zu diesem Thema kann ich ev. was beitragen.

Entscheidend ist ja immer der tägliche Workflow und an welchen Punkten der meiste Power gebraucht wird. Du erwähnst Cinema4D. Nun, das kann auf viele Arten genutzt werden.
In meinem Flow z.B. ist Cinema4D zentrales Werkzeug. Am meisten Power brauche ich für das Rendering von Animationen. Da habe ich logischerweise den Schwerpunkt gesetzt und darum eine kleine Renderfarm (6 x 4790K) realisiert. Natürlich existieren theoretische Limitationen im Consumer-Layout, aber am Ende interessiert mich das nur wenn es mich behindert, was es aber nicht tut. Und die rund 105k Geekbench bzw. 5k Cinebench des Systems liegen auch bei der Einzelbildberechnung voll an.
Und nur weil es angesprochen wurde: SSD ist bei Verteilung und Caching von Netzwerk-Renderjobs (sicher auch mit Adobe) die mehrere GB gross sein können ein klarer Geschwindigkeitsvorteil.

Gehts aber wie Du implizierst um eine einzige potente Workstation, so ist die Frage als Profi doch recht einfach: Rechtfertigen die anstehenden Jobs das Geld für das Beste was Du hier und jetzt kriegen kannst? Und wie viel Zeit darf diese Beschaffung/Umrüstung in Anspruch nehmen?

Ist die Kostenfrage evident und Selbstbau gewünscht würde ich selber aktuell kein Skylake basiertes System bauen. Eine kleine Excel-Tabelle mit Kosten-Nutzenvergleich (Euro pro Cine- oder Geekbench) macht rasch klar warum. Auch der gefühlte Unterschied zu Haswell dürfte zu gering sein um Ekstase auszulösen. Würde also auf dem 5820K aufbauen oder auf "bessere Zeiten" warten.

Space


Antwort von Valentino:

Und nur weil es angesprochen wurde: SSD ist bei Verteilung und Caching von Netzwerk-Renderjobs (sicher auch mit Adobe) die mehrere GB gross sein können ein klarer Geschwindigkeitsvorteil. Der Hintergedanke von HDD vs. SSD im Netztwerk-Rendern ist folgender:
Wenn kein 10Gbit Netztwerk vorhanden ist, was meist der Fall ist, dann ist das Maximum eine 1Gbit-Lan Leitungen mit 80 bis 90MB/Sek.
Sogar mit zwei 1Gbit Anschlüssen sollte eine aktuelle 3,5" HDD mit 7.200u/min. noch locker mithalten können.
Einzig die Reaktionszeit einer SSD ist in dem Fall schneller, was aber über Netzwerk auch keine große Auswirkung hat.

Dazu laden die meisten Render-Tool ihre Jobs auch gleich noch in den RAM und damit wäre es dann noch mal "egaler" wo die Datei vorher gespeichert wurde.
Man könnte jetzt noch darüber fachsimpeln, das eine auf der SSD gespeicherte Datei schnelle in den RAM geladen wird, der Weg und die Zeit bis alle Datenpakete aber auf dem Render-PC vollständig eingetroffen ist, verändert sich dadurch nicht.

Dabei stöbere ich etwas nach 10Gbit Lan Karten und muss mit erschrecken feststellen, das die Dinger immer noch unverschämt teuer sind.
Wird endlich mal Zeit, das nach über 10 Jahren 1Gbit so langsam 10Gbit zum Standard wird. Beim Büro und Hausbau werden schon seit Jahren die passenden Cat6 und 7 Kabel verlegt.

Space


Antwort von merlinmage:

10Gbit kommt sowieso mit Skylake-E.

Space


Antwort von kundesbanzler:

Wenn kein 10Gbit Netztwerk vorhanden ist, was meist der Fall ist, dann ist das Maximum eine 1Gbit-Lan Leitungen mit 80 bis 90MB/Sek. Schmarrn, kaum eine Schnittstelle ist mit ihrere sequenziellen Geschwindigkeit so nah an ihrer Spezifikation wie GBit-Ethernet und das sind 125MB/s, dazu reicht auch schon ein Billo-Switch für 20€.

Dass man in den Nodes so viel Festspeicher braucht (also sager wir mal über 128GB), dass eine HDD eine ernsthafte Kostenersparnis mit sich brächte, würde ich eher als Sonderfall ansehen. Insbesondere da man, damit der Platz über die applikationseigenen Caches hinaus überhaupt sinnvoll benutzt würde, ohnehin individuell die Logik dafür selbst implementieren müsste. Eine SSD als Systemplatte im Node sollte es schon deshalb sein, damit der je nach Bedarf schnell zu- und abschaltbar ist.

Natürlich muss die Zeit der Datenübertragung mit der Renderzeit in einem sinnvollen Verhältnis stehen, damit das ganze Sinn macht. Aber auch mit 1GE ist das schon bei geringfügig komplexen Comps der Fall. Mit 3d-Renderings sowieso: selbst wenn erstmal GB-weise Daten durchs Netzwerk geschaufelt werden, wenn irgendwas 3h rendert ist es unerheblich, ob am Anfang 2min Daten lang übertragen wurden.

Space


Antwort von Silerofilms:

Also dank eurer ganzen Infos bin ich jetzt doch am überlegen, ob ich nicht noch auf die 6kern CPUs der 6000er Reihe warte.

Space


Antwort von merlinmage:

Für die normalen Skylakes werden keine 6 Kerner kommen, sondern erst wieder mit Skylake-E, dem Nachfolger von Haswell-E/Broadwell-E. Und das ist dann wieder eine neuer Chipsatz.

Space


Antwort von Silerofilms:

Ok. Also da ich das neue System nicht sofort brauche, sondern noch ein paar Monate Zeit habe, warte ich jetzt mal auf die neuen 6-Kerne und Vergleiche dann mal Preis mit Leistung.

Space


Antwort von Jost:

Ok. Also da ich das neue System nicht sofort brauche, sondern noch ein paar Monate Zeit habe, warte ich jetzt mal auf die neuen 6-Kerne und Vergleiche dann mal Preis mit Leistung. Kann man machen, muss man aber nicht.
Laut PCGH sind Sechskerner mit Basistakt 3,4 und 3,6 GHz zu erwarten.
Das Plus an Leistung ist gegenüber dem 5820k gering.
Wenn Du spürbar mehr Leistung als beim 3770k haben willst, musst Du übertakten - auch die künftigen Sechskerner. Der 5820 wird die beste Basis bleiben.

Ein neuer Achtkerner wird auch erwartet, der etwas schneller als der 5960X (~1100 Euro) sein soll.

Space



Space


Antwort von Roland Schulz:

...noch keiner drauf gekommen dass der 5820 keine GPU und damit kein QuickSync hat?! Ab Haswell macht das gerade für 4K Sinn, auch schon beim Edit als Wiedergabebeschleuniger. Zumindest beim von mir verwendeten EDIUS 8 ist das so, keine Ahnung wie effektiv PPro da arbeitet.
Der gegenwärtige 3770 ist bei 4K QS komplett tote Hose, somit könnte der 6700K, der noch weitere QS Optimierungen gegenüber nem 4770 zeigt, ne Offenbahrung sein, überlege selbst noch über nen Upgrade...

Space


Antwort von axl*:

Um die Eingangsfrage des TE zu beantworten: Weder noch.

Leider ist Intel aktuell der Meinung, dass nur 4-Kerner Quicksync benötigen. Ob sich das bei künftigen Serverprofessoren ändern wird ist weiterhin unklar. Die Gen9 GPUs beherrschen zwar HEVC Hardwarekodierung aber kein HDMI 2.0 und auch keine 60 Frames. Immerhin klopft die Buschtrommel, dass sich mit Cannonlake alles ändern könnte:

http://www.winboard.org/artikel-news/58 ... ommen.html

Aktuell ist es also kein guter Zeitpunkt für einen grundsätzlichen Hardwarewechsel und auch nicht für einen Wechsel zu UHD. Erst wenn die rec2020 als durchgängige Workflowlinie angeboten wird macht das Ganze wirklich Sinn. Also hardware- und vielkernbeschleunigtes UHD@10Bit p60HDR via HDMI 2.0

Ab 2018 also. Bis dahin dürften auch die Ruckelkinofans nur noch eine Minorität darstellen.

Space


Antwort von dienstag_01:

Adobe Programs arbeiten nicht mit QuickSync. Hab ich gehört ;)

Space


Antwort von Angry_C:

Adobe Programs arbeiten nicht mit QuickSync. Hab ich gehört ;) QuickSync wird nur für den H264 Export unterstützt. Die Qualität ist okay, kommt aber an den Mainconcept Codec nicht heran.

Space


Antwort von axl*:

Adobe Programs arbeiten nicht mit QuickSync. Hab ich gehört ;) Ja, und das ist nicht das einzige Defizit... ;-)

Space


Antwort von axl*:

QuickSync wird nur für den H264 Export unterstützt. Hab ich doch geschrieben. Ab Gen10 GPU erst.

Die Qualität ist okay, kommt aber an den Mainconcept Codec nicht heran. Konnte noch mir noch niemand tatsächlich beweisen und ist auch nur interessant, wenn die Strecke nicht nativ ist. Ich arbeite durchgängig mit 10 Bit XAVC-L als MFX nativ, da stellt sich diese Problematik nicht. Sollte 8 Bit Material gewünscht werden, nutze aber auch ich den Mainconcept Codec. Da HEVC aber bereits unterwegs ist, werde ich für diesen künftig zu erwartenden Standard meine derzeitigen Master wohl recht sorgenfrei von XAVC-L zu H265 unter 10 Bit Erhalt transcodieren können.

Space


Antwort von Jörg:

axl moniert Ja, und das ist nicht das einzige Defizit... ;-) du hast noch nie via adobe s AME mit GPU Unterstützung in AVCintra mxf exportiert??

Space


Antwort von Angry_C:

QuickSync wird nur für den H264 Export unterstützt. Hab ich doch geschrieben. Ab Gen10 GPU erst. Quicksync ist doch von Intel und wird schon seit Ewigkeiten von Premiere unterstützt.

Hat Nvidia das ab Gen10 GPU auch eingebaut?

Der Qualitätsunterschied zwischen Quicksync und Mainconcept Export fällt mir im direkten Vergleich relativ stark auf.

Space


Antwort von Jost:

Nichts durcheinanderwürfeln, Quicksync ist keine CPU-Funktion.


Quicksync ist eine Funktion der internen Grafikeinheit. Die 5820 hat keine Grafikeinheit, darum gibt es auch kein Quicksync - logisch, oder?

Ist bei allen CPUs ohne interne Grafikeinheit so - auch bei künftigen.


AMD und Nvidia haben ähnliche Mechanismen.

Nennt sich Video Coding Engine bei AMD
und NVENC bei Nvidia.

Wer große Stücke auf Quicksync hält und einen Intel-Prozessor ab der dritten Generation mit integrierter Grafikeinheit hat, klemme einfach die Grafikkarte ab und lass CPU, interne GPU und Quicksync allein werkeln.

Kann man mit dem eigenen Schnittprogramm prima testen, was Quicksync in der Praxis bringt.

Einfach mal machen und nicht schnacken.

Space



Space


Antwort von axl*:

Die interne GPU ist viel zu schwachbrüstig. Nur der Quicksyncpart ist interessant. Daher nutzt man diesen mit den üblichen Grafikkarten parallel.

Space


Antwort von motiongroup:

Das kommt auf die verwendete Software an und auf die verbaute GPU.
Bei der Broadwell Basis 5775c 5775r mit der irisPro 6200 ist in Abhängigkeit der Software eine dedizierte Grafikkarte relativ unnötig..

Space


Antwort von Angry_C:

Die GPUs der Skylake CPUs sind gar nicht so übel. Spielen 4K HEVC der Samsung NX1 ab, ohne die CPU zu belasten, egal, ob Atom m oder i3-i7.

Also kein hybrid decoding wie bei einer GTX980.

Space


Antwort von dienstag_01:

Die GPUs der Skylake CPUs sind gar nicht so übel. Spielen 4K HEVC der Samsung NX1 ab, ohne die CPU zu belasten, egal, ob Atom m oder i3-i7. Das dürfte dir aber in keinem NLE was nützen.

Space


Antwort von motiongroup:

Stimmt Angry aber nicht die Skylake IGPU mit der der Broadwells vergleichen..;) die ist LEIDER schlechter als die der Iris Pro 6200...

Die sollen erst Ende des Jahres verfügbar sein.. Intel ist etwas unübersichtlich.. Ich habe die 5775c gerade erst für einen Freund verbaut.. Daumen hoch kann ich nur sagen..

Jetzt Bau ich das ganze nochmals als OS X Windows Konfiguration mit zusätzlicher NVIDIA 970er Gtx

Space


Antwort von Roland Schulz:

Warten - ok, die ganze Nummer ist aber nen Karussel welches nicht anhält, vor allem sind wir beim Edit immer hinten dran!
Als AVCHD mit H.264 kam konnte das keiner vernünftig schneiden, die Performance der verfügbaren Maschinen war einfach mies. Heute fliegt AVCHD, wir haben aber jetzt 4K/UHD und ggf. HEVC auf der Timeline.
HEVC stellt uns jetzt wieder vor Herausforderungen, wobei man aktuell wohl gar nicht mehr so weit weg ist.

Ruckelkino hin oder her, FullHD BluRay hat uns auch lange begeistert, selbst 24p UHD kann mich heute und auch meine "Umgebung" bei angemessener Anwendung und vernünftiger Abspielkette richtig begeistern! Damit kann man was machen, keine Frage!!

Wenn man von nem 3770 kommt und UHD auf dem Schirm hat ist nen 6700k, ggf. mit EDIUS 8 ne ordentliche Schüppe - ne performante Lösung mit der man schon was schaffen kann. QuickSync hilft da beim Edit und ggf. auch beim Export wenn's nicht auf die engste Bitrate ankommt, wobei Skylake den Haswell und Haswell nen 3770 IvyBridge in Bezug auf QS Qualität schlägt.
Der Chip hat zudem genug Lanes so dass man neben ner BMD Decklink Intensity Pro 4k auch noch nen SAS Controller betreiben kann. Ich denke das Ding ist heute ne faire Lösung, in Bezug auf 4K/UHD ne Bombe gegen nen 3770, da geht in UHD nämlich nur Daumenkino, wenn überhaupt!!

Space


Antwort von Angry_C:

Die GPUs der Skylake CPUs sind gar nicht so übel. Spielen 4K HEVC der Samsung NX1 ab, ohne die CPU zu belasten, egal, ob Atom m oder i3-i7. Das dürfte dir aber in keinem NLE was nützen. Hmmm, ich weiss ja nicht.

Mit meinem Laptop Dell XPS15 9950 lässt sich das H265 Material unter Premiere wesentlich performanter schneiden als mit meinem Desktop PC. (i7 5820k / GTX980), obwohl im Laptop nur ein i7 6700HQ und eine GTX960m steckt.

Wieso, weshalb, warum das so ist, kann ich nicht sagen, vielleicht hat hier jemand eine Idee?

Space


Antwort von dienstag_01:

Hmmm, ich weiss ja nicht. Ich weiss es natürlich auch nicht hundertprozentig ;)

Sicher ist, die Dekodierung des Videostreams wird im NLE von der CPU vorgenommen, CUDA etc. greifen erst beim Einsatz von Effekten.
Das ist das Prinzip.
Sollte sich an diesem Prinzip etwas ändern, kann man bei der heutigen Aufmerksamkeit generierenden Informationspolitik der Unternehmen eigentlich davon ausgehen, dass so ein fundamentaler Wechsel nicht im stillen Kämmerlein vonstatten geht.

Für Performance-Vorteile einer neuen CPU-Generation kann es ganz andere Gründe geben (vielleicht skaliert das NLE doch nicht so effizient auf 6+6 Kerne wie immer angenommen/behauptet, vielleicht sind es effizientere Befehlssätze, Punkt, Punkt, Punkt)

Space


Antwort von Roland Schulz:

Ich weiss es natürlich auch nicht hundertprozentig ;)

Sicher ist, die Dekodierung des Videostreams wird im NLE von der CPU vorgenommen, CUDA etc. greifen erst beim Einsatz von Effekten.
Das ist das Prinzip. Falsch!! EDIUS 8 nutzt QuickSync definitiv schon bei der Wiedergabe von H.264!! Bei H.265 bin ich nicht sicher, glaube das kommt aber erst noch.

Space



Space


Antwort von dienstag_01:

Falsch!! EDIUS 8 nutzt QuickSync definitiv schon bei der Wiedergabe von H.264!! Richtig, Edius 8 bricht mit dem Prinzip. Wird ja auch offensiv kommuniziert ;)

(Und, mal ganz am Rande, scheinbar hat Edius sowas dringend gebraucht. Mein Laptop macht unter Premiere nicht bei 2 h264 Spuren PiP schlapp. Und da werkelt nur ein i5 - Das muss man HIER jetzt aber nicht weiter diskutieren, sonst kann man den Thread auch gleich schließen ;)

Space


Antwort von MIIIK:

Um dem original Post zu antworten...

Ich habe mir vor c.a. 1 Woche ein neues System gekauft und bin vom MacPro (nMP 2013) umgestiegen.

zum Bild http://sig.sysprofile.de/quicksys/sysp-37655.png

Und bin mit dem 5820K mehr als zufrieden! Aktuell ist noch ein Dark Rock Pro 3 drauf - wird aber ausgetauscht durch einen Fractal Design Kelvin S36 aber mir geht es nicht unbedingt um extremes OC - auf 4Ghz getacktet und das reicht.

Space


Antwort von arfilm:

Um dem original Post zu antworten...

Ich habe mir vor c.a. 1 Woche ein neues System gekauft und bin vom MacPro (nMP 2013) umgestiegen.

zum Bild http://sig.sysprofile.de/quicksys/sysp-37655.png

Und bin mit dem 5820K mehr als zufrieden! Aktuell ist noch ein Dark Rock Pro 3 drauf - wird aber ausgetauscht durch einen Fractal Design Kelvin S36 aber mir geht es nicht unbedingt um extremes OC - auf 4Ghz getacktet und das reicht. Sowas ähnliches werd ich mir auch demnächst zulegen. Du lässt gerade 2 Speicherkanäle ungenutzt, das weißt du oder? Ich weiß nicht wie viel das an der Performance ändert, aber zwei weitere 8GB Riegel wären nicht verkehrt.

Ich hab auch mal in die AIO Waküs reingeschaut, bin dann aber doch beim be quiet! Dark Rock Pro 3 gelandet. Ist leiser, hat ne gute Leistung und ist einfacher in der Handhabung.

Space


Antwort von Roland Schulz:

Falsch!! EDIUS 8 nutzt QuickSync definitiv schon bei der Wiedergabe von H.264!! Richtig, Edius 8 bricht mit dem Prinzip. Wird ja auch offensiv kommuniziert ;)

(Und, mal ganz am Rande, scheinbar hat Edius sowas dringend gebraucht. Mein Laptop macht unter Premiere nicht bei 2 h264 Spuren PiP schlapp. Und da werkelt nur ein i5 - Das muss man HIER jetzt aber nicht weiter diskutieren, sonst kann man den Thread auch gleich schließen ;) EDIUS mit der Performance von PPro zu vergleichen ist wie von Springflut reden und in ne Pfütze treten - EDIUS war eigentlich schon immer deutlich schneller als der Rest der Welt!!
Dafür fehlen ein paar Leuten ein paar andere Features gegenüber Premiere - mag ich auch glauben, jedem das was er braucht...

P.S.: auf meinem "alten" 4770K ohne OC laufen bis zu 4 H.264 Spuren im Mix mit YUV Korrektur - 100Mbps 4K/UHD von ner LX100!!

Space


Antwort von Jost:

So noch nicht vorhanden - lad Dir einfach mal einen OpenFX-Effekt runter und leg ihn über einen Clip. Dann sieht die Welt schon wieder ganz anders aus.

Space


Antwort von Jörg:

Roland Schulz schreibt
P.S.: auf meinem "alten" 4770K ohne OC laufen bis zu 4 H.264 Spuren im Mix mit YUV Korrektur - 100Mbps 4K/UHD von ner LX100!! und damit möchtest du nun Premierenutzern den Schweiß auf die Stirn treiben???

deine letzte Adobeerfahrung stammt von CS3?

Space


Antwort von Angry_C:

Ich habe Edius auch noch als sehr schnell in Erinnerung und habe mir neulich die Demoversion von Version 8 installiert. Ziemlich enttäuschende Erfahrung.

Nicht schneller als Premiere, im Gegenteil, Optik wie von vor 10 Jahren, hat sich eigentlich nichts verändert und eine sehr magere Filter und Effektbibliothek. Wird ziemlich teuer, wenn man sich für Edius alles zusätlich kaufen muss, was bei Premiere von Haus aus dabei ist.

Dazu kommt, dass man sein UHD Material nicht auf 1:1 Pixel, also einen 100% Ausschnitt im Vorschaufenster, darstellen kann. Dafür benötigt man einen Extra UHD Monitor.

Space


Antwort von motiongroup:

Nö nö da hat er schon recht der Roland, das kesselt schon so wie er sagt und zwar genau so lange bis der Puffer leer ist..

Die gui die gui Angry, jede nle hat seine eigene und die die es verwenden stehen dazu oder auch nicht.. Die gui von EDIUS ist altbacken na und? Die von Avids Lösungen seit Jahren überwuzelt und trotzdem werden sie genutzt von Cuttern denen das in Fleisch und Blut übergegangen ist..

Zusatztools notwendig, stimmt für den er es braucht, ob die EDIUS bei der Preisangemessenheit durchfällt entscheidet jeder für sich, da gäbe es auch andere Patienten auf die das zutreffen würde..

Ich bin erst unlängst relativ geflasht worden als ich für einen Freund einen Mini PC mit einer 5775c verbaut habe und das ohne dedizierte GPU von Nvidia oder AMD ...interessant war es zu sehen wie unterschiedlich die NLEs und die Photobearbeitungsprogramme darauf reagieren..
EDIUS kann das gut auf dieser Maschine, Strange aber war Cyberlink und deren Suite die durchgehend auf die Iris Pro 6200 aufsetzen inkl. der QSync Schnittstelle...selbiges trifft auch auf Lightroom zu ... Funktioniert extrem schnell und das ohne DedGPU...

Space


Antwort von TomStg:

EDIUS war eigentlich schon immer deutlich schneller als der Rest der Welt!! Fragt sich, welche Welt Du meinst. Die reale Welt offensichtlich nicht.

Ohne passende GPU ist Edius 8 mit endlich funktionierendem Quicksync natürlich schneller als Premiere CC2015, weil Premiere dabei nicht seine Mercury Engine nutzen kann. Das dreht sich aber ins sehr deutliche Gegenteil, sobald eine ordentliche GTX-Karte und verschiedene Effekte auf der Timeline ins Spiel kommen. Diese Überlegenheit der Premiere-Performance wird von den Edius-Jüngern immer gerne unterschlagen - so auch mal wieder in der letzten videoaktiv-Ausgabe, wo Laptops jeweils mit Edius, FCPX und Premiere CC2015 verglichen werden. Ein unsäglich hanebüchener Vergleich!

Space



Space


Antwort von Jörg:

Ich habe Edius auch noch als sehr schnell in Erinnerung ja,ja, die Erinnerung, kann man mal sehen, WIE sehr das täuscht...

Space


Antwort von Gore:

@MIIK,
Deine CPU hat doch 28 PCIe 3.0 Lanes, oder? 16 Davon kann man ja schon mal für die Graka abziehen. Wo gehen die restlichen bei Dir hin? Hast Du M2-Speicher verbaut?

Space


Antwort von Jost:

@MIIK,
Deine CPU hat doch 28 PCIe 3.0 Lanes, oder? 16 Davon kann man ja schon mal für die Graka abziehen. Wo gehen die restlichen bei Dir hin? Hast Du M2-Speicher verbaut? 28 PCIe 3.0 Lanes zu haben, ist ein nice-to-have. PCGH hat getestet, bis die GPUs glühten. Reslutat: Ob man die GPU mit 8 oder 16 Lanes anbindet ist wurscht. Kein Leistungsunterschied spürbar.

Aber bevor wir hier ins Off-Topic abgleiten: Der 6700K ist preislich zwar in den Keller gegangen. Doch die 40 Euro Differenz gegenüber dem 5820K machen die zwei zusätzlichen Kerne nicht wett.

Space


Antwort von Silerofilms:

Die neue Generation der 6000er Serie soll jetzt erst Ende 2016 - Anfang 2017 kommen. Das ist mir zu lange. Darum werde ich mir den 5930k holen. Was sagt ihr denn zu den Bauteilen?

Prozessor: INTEL Core i7-5930K Extreme 6x3,5GHz

Mainboard: ASUS X99-PRO/USB3.1 LGA2011-V3 X99 8xDDR4 Raid USB3.1 ATX

Grafikkarte: ASUS STRIX-GTX970-DC2-4GD5, GeForce GTX 970, 4GB GDDR5

RAM: Kingston HyperX DIMM 32 GB DDR4-2400 Quad-Kit

Gehäuse: Fractal Design Define R5

CPU-Kühler: EKL Alpenföhn Brocken Eco

Space


Antwort von Valentino:

Schau das du beim Fractal R5 die PCGH-Edition bekommst, die hat die ganzen nervigen udn billigen Lüfterabdeckungen nicht.
Dazu scheint die Reihe ein deutlich besseren QC zu haben, was wir hier schon für Produktionsfehler bei den normalen R5 hatten geht auf keine Kuhhaut.

Das die 6000er Serie bei den EP-Chipsatz noch so lange braucht, halte ich für recht unwahrscheinlich, da die fast baugleichen Xeons schon ausgeliefert werden.
Außer Intel zögert die i7er Serie künstlich heraus.

Space


Antwort von leonhard dy kabrio:

Das ist der Intel-schmäh, Valentino!
Für diese Verarsche die die betreiben ( auf Computerbase diskutiern sie 234 Meilen lang, der Hersteller lacht sich in den Sack, warum und wieso und überhaupt).
es wäre sehr simpel.
216 ist ein Intel i7 14 nm ein 8 core und kost 249,- Euro.

Nur hören und sehen wir davon nix. Breitbandverarsche, die erst durch massive Rückgänge wieder etwas korrigiert wird ( siehe SSD, wie es den nun auf einmal geht das
wir langsam PCI-3.0 und 1200/ 1200 r/w in normale Verkaufspreise bekommen, dazu des Kasperletheater von NVIDA und CO)
Wenn ich einen von diesen dickzungigen kleinen Anzugträgern auf einer Messe sehe, löst das Wikinger-abschlacht-reflexxe aus... Einfach nicht kaufen, bis es im schwindligen Marketinghirn der Firmen ankommt. Und dann ziehen sie die falschen Schlüsse und montieren eine LED-BELEUCHTUNG auf ein MOTHERBOARD!

die haben des echt durchschaut. Leider gibt es immer noch so viel Schwachmaten, die jeden Frühling nach den Messen mit feuchtem Höschen net mehr still halten können..
und dann wird Cash verbrannt.. na ja.. argh :)

Space


Antwort von Silerofilms:

Die PCGH-Edition ist nirgendwo erhältlich.

Space


Antwort von merlinmage:

Das normale tut auch seinen Job - investierste nochmal 30-60 Euro in gescheite Noctua Luffis und das wars.

Falls die OP Frage noch aktuell ist, ich würd jetzt erstmal auf Broadwell E warten und dann kaufen.

Space


Antwort von Jost:

Was sagt ihr denn zu den Bauteilen?

Prozessor: INTEL Core i7-5930K Extreme 6x3,5GHz Wie gesagt: Willst Du am 6700K vorbei, musst Du Sechskerner in Richtung 4 GHz übertakten. Dafür reicht der 5820 völlig aus.

Vergleich mal, die 200 GHZ Unterschied im Grundtakt machen den Kohl noch nicht fett.

http://ark.intel.com/de/products/82931/ ... o-3_70-GHz

http://ark.intel.com/de/products/82932/ ... o-3_60-GHz

Grafikkarte: ASUS STRIX-GTX970-DC2-4GD5, GeForce GTX 970, 4GB GDDR5 Ein Perspektivkauf ist die 970 nicht, weil nur 3,5GB schnelles Ram verbaut sind. Die 390 (x) von AMD bringt 8GB mit, ist ähnlich schnell und ähnlich teuer/billig.
RAM: Kingston HyperX DIMM 32 GB DDR4-2400 Quad-Kit Das reicht nicht - der Vorteil von schnellem RAM gegenüber Standard-RAM stellt sich erst ab 2666 ein. Hat PCGH gerade erst wieder getestet. 2666er gibt es aber auch zum ähnlichen Preis von Kingston als HxperX.
Das ist auch schön flaches RAM.

http://www.idealo.de/preisvergleich/Off ... gston.html

Als Kühler würde dann auch der Thermalright Macho B funktionieren - etwas leiser und etwas leistungsstärker. Kann nicht schaden, wenn übertaktet wird.

Valentinos Tip mit dem PCGH-Gehäuse sollte beherzigt werden.

Bis Du auf dem Budget-Trip, reicht auch der Fractal Define S

https://geizhals.de/fractal-design-defi ... 59880.html

Space



Space


Antwort von Silerofilms:

Danke. Also den Kühler und die Ram hab ich jetzt angepasst.

Den Prozessor möchte ich schon so belassen. Auch bei der Grafikkarte möchte ich bei NVidia bleiben. Da kenn ich mich aus und das hat immer funktioniert. Ich hatte noch nie eine andere Marke und hab daher auch keine Ahnung davon.

Und wie gesagt, die PCGH-Edition vom Gehäuse gibt es nirgendwo. Oder kannst du ein anderes Gehäuse empfehlen?

Space


Antwort von Valentino:

Das 750D von Corsair mit einer zweiten Seitenwand ohne Window, haben wir auch mal für ein Kunden besorgt, ist aber auch deutlich teurer.

Spare auch nicht am Netzteil, kann dir hier das Dark Power11 von bequiet! empfehlen, wobei das Corsair HX850i auch nicht verkehrt ist.

Wie schon der Vorredner erwähnt hat, bei Lüfter und CPU alles von Noctua, nur dann sind die Systeme durchgehen leise und man hat keine störenden Frequenz Peaks. Für Vorne tut es auch die günstigere Redux-Serie, für Hinten ein etwas schnellerer damit du noch etwas Zubehör für die Redux hast und die warme Luft schnell aus dem Gehäuse kommt.
Lüfter und Board sollten PMW-Kompatibel sein.
In das R5 passt der Noctua NH-D15S oder 14S, aber Vorsicht, das kann extrem knapp mit der Grafikkarte werden. Wenn der PC öfters transportiert wird, besser gleich ein NH-U12S mit zweitem Lüfter.

Space


Antwort von merlinmage:

Jetzt nen PC zu kaufen ist aber der ungünstigste Zeitpunkt seit langem. Polaris/Pascal stehen vor der Tür und wie bereits gesagt Broadwell-E ist eigentlich auch schon da. Kaufst halt gerade bei den GPUs ziemlich veraltete 28nm Kacke.

Space


Antwort von Jost:

Den Prozessor möchte ich schon so belassen. Auch bei der Grafikkarte möchte ich bei NVidia bleiben. Da kenn ich mich aus und das hat immer funktioniert. Ich hatte noch nie eine andere Marke und hab daher auch keine Ahnung davon. Es ist Dein Geld.
Und wie gesagt, die PCGH-Edition vom Gehäuse gibt es nirgendwo. Oder kannst du ein anderes Gehäuse empfehlen? Standard - den normalen Fractal R5 oder eben den S.

Alternativ den R4
http://www.heise.de/preisvergleich/frac ... 12617.html
oder
http://www.heise.de/preisvergleich/frac ... 53349.html

Die Asus 970 ist flüsterleise, der Macho-Kühler macht selbst bei Höchstlast keinen Lärm.

Habe eine ähnliches System aus 970 + Xeon 1230 + Macho im Fractal 4 ohne jeglichen Gehäuselüfter im Einsatz. Der R4 schickt die gesamte Abwärme oben aus dem durchlöcherten Deckel (Kamin-Effekt). Für den Luftzug im Gehäuse sorgt das Netzteil.
Ist ein Spielerechner. Wird also permanent und damit stärker gefordert als ein Schnittcomputer. Leichtes Rauschen unter Last - das war es.

Die Krux ist: Nimmst Du ein geschlossenes und zusätzlich gedämmtes Gehäuse, isoliert die Dämmung das Gehäuse.
Die Wärmeabfuhr über das Gehäuse funktioniert nicht mehr richtig.
Um das auszugleichen, müssen zwingend Lüfter ins Gehäuse rein.
Alle Gehäuselüfter stellen eine zusätzliche und teure Lärmquelle dar. Kein Lüfter ist natürlich viel besser als ein Nocuta-Lüfter. Und die Nocuta-Lüfter sind schon die besten - wobei die Fractal-Lüfter eigentlich in Ordnung sind.

Ich fand Fractal immer klasse, weil alle Anschlüsse und Bedien-Elemente oben sind. Man kommt gut ran und kann nichts mit dem Knie zufällig abreißen.

Bin da aber nicht dogmatisch.
Du solltest lediglich darauf achten, dass das Gehäuse den CPU-Kühler fasst. Der Macho hat eine Höhe von 173mm. Im Fractal passt der.
Der Brocken Eco ist nur 151mm hoch. Der passt in fast jedes Gehäuse.

Beim Netzteil irgendwas mit 550 Watt und Gold-Standard nehmen. Be Quiet ist richtig gut, Corsair tut es aber auch. Ist völlig unauffällig im R4.

Space


Antwort von Silerofilms:

Jetzt nen PC zu kaufen ist aber der ungünstigste Zeitpunkt seit langem. Polaris/Pascal stehen vor der Tür und wie bereits gesagt Broadwell-E ist eigentlich auch schon da. Kaufst halt gerade bei den GPUs ziemlich veraltete 28nm Kacke. Was ist Polaris/Pascal? Was würdest du dann bei den GPUs empfehlen?

Netzteil möchte ich mein altes behalten. Cooler Master Silent Pro 80Plus Gold, 1200 Watt.

Space


Antwort von Valentino:

Jetzt nen PC zu kaufen ist aber der ungünstigste Zeitpunkt seit langem. Polaris/Pascal stehen vor der Tür und wie bereits gesagt Broadwell-E ist eigentlich auch schon da. Kaufst halt gerade bei den GPUs ziemlich veraltete 28nm Kacke. Was ist Polaris/Pascal? Was würdest du dann bei den GPUs empfehlen?

Netzteil möchte ich mein altes behalten. Cooler Master Silent Pro 80Plus Gold, 1200 Watt. Das sind die neue Nvidia/AMD Karten, wobei hier erst mal die teuren Modelle auf dem Markt kommen und der Sprung zur nächsten Generation bei Video nicht so stark ausfallen wird.

Haben hier ein aktuelles Haswell System mit i7 6700+GTX960 und ein etwas älteren 3770k+GTX970. Merkwürdigerweise ist Davinci auf dem Haswell-System mit langsamer GPU fast 10fps schneller!!!

Beim Netzteil reichen wie gesagt 850 Watt völlig aus, da die Grafikkarten keine 350 Watt mehr brauchen, sondern bei 100 bis 200 Watt unter Last. Ein Haswell-E System mit internem RAID aus 4xHDD und 2SSD saugt unter Prime95 und voller GPU(GTX970) Auslastung keine 500 Watt.
Im Leerlauf sind es meiste weniger als 100 Watt.
Damit ist das 1200 Watt Netzteil die meiste Zeit völlig ineffektiv, das 850er hingegen bei über 10 Prozent Last.
Würde hier auch kein altes Netzteil nehmen, den das ist dann das erstes das ausfällt.

An deiner Stelle würde ich aber noch etwas warten, bis X99 Boards mit Thunderbolt 3 zu kaufen sind. Gigabyte hat schon eines angekündigt:
http://www.gigabyte.de/press-center/new ... x?nid=1421

Space


Antwort von Silerofilms:

An Thunderbolt hab ich eigentlich überhaupt kein Interesse. Hab auch gar nichts mit so einem Anschluss. Oder wofür sollte ich das brauchen?

Space


Antwort von Valentino:

Gerade Thunderbolt 3 mit integrierten USB3.1 und USB-C Stecker ist eigentlich nicht so verkehrt.

Habe durchgängig bei Laptops und den meisten Desktops Thunderbolt und kann so nach Bedarf die BlackMagic I/0 Boxen tauschen ohne jedesmal den PC auf zu schrauben. Dazu kann man diverse Raids und Kartenleser über TB betreiben.

Das angekündigte Gigabyte Board hat auch so seine Tücken und muss z.B. per USB-3.0 PCI-Blecht erweitert werden, dazu ist mit ein Gigabyte X99-UP4 vor drei Monaten einfach abgeraucht.

Also dann doch wieder AsRock oder Asus?

Space


Antwort von Jost:


Was ist Polaris/Pascal? Was würdest du dann bei den GPUs empfehlen? Das ist die neuen Videokarten-Generation. Man braucht sie, weil die Interaktion in 4K nicht richtig funktioniert.
Eine TitanX, das ist das 1000-Euro-Top-Modell von Nvidia, stößt an die Grenzen.

THE WITCHER 3, der Spiele-Blockbuster zurzeit: 24 Bilder unter UHD im PCGH-Test.

Unspielbar.

Dazu kommen gestiegene Anforderungen durch VR.

Allgemein wird damit gerechnet, dass demnächst die neue Mittelklasse und Anfang 2017 neue leistungsstarke Karten auf den Markt kommen und die aktuellen Topmodelle ablösen.

Mehr und schnelleres Ram, etwas flotter und energieeffizient.

Die Leistung der 970 wird es dann wahrscheinlich 100 Euro billiger geben.

Space



Space


Antwort von Jost:

Gerade Thunderbolt 3 mit integrierten USB3.1 und USB-C Stecker ist eigentlich nicht so verkehrt. Ja, USB 3.1 ist ein Segen. Schnell mal 150 GB von einer SSD aus der Blackmagic auf den Rechner übertragen - geht in Windeseile.

Gibt genug Bretter mit 3.1.

http://www.idealo.de/preisvergleich/Pro ... eAnschlsse

Space


Antwort von Silerofilms:

Was sollte ich dann jetzt am besten machen? Warten, bis die neuen Mainboards, Grafikkarten und Prozessoren rauskommen und die dann kaufen? Oder das alte Zeugs, weil dann die Preise fallen?

Ich will das neue System lieber früher als später, denn alle neuen Produktionen von uns werden schon in 4k gemacht. Und das geht mit dem jetzigen System schon ziemlich zäh.

Space


Antwort von merlinmage:

Ich würd zumindest bei den GPUs auf die neue Gens warten. Solange kannst du doch bei 4K Sachen einfach Offline/Online Schnitt machen.

Space


Antwort von Jost:

Was sollte ich dann jetzt am besten machen? Warten, bis die neuen Mainboards, Grafikkarten und Prozessoren rauskommen und die dann kaufen? Oder das alte Zeugs, weil dann die Preise fallen?
Mehr Leistung zum gleichen Geld ist nur bei den GPUs zu erwarten.

Der tatsächliche Leistungssprung gegenüber Deinem alten System stellt sich durch den Sechskerner ein. Bei den CPUs tut sich künftig aber nichts groß. Bischen mehr Grundtakt hier, etwas energiesparender dort - Feierabend.
Ich will das neue System lieber früher als später, denn alle neuen Produktionen von uns werden schon in 4k gemacht. Und das geht mit dem jetzigen System schon ziemlich zäh. Ist Deine Entscheidung - wenn Du bereit bist, ein Jahr zäh zu arbeiten, um dann 150 Euro zu sparen - sind das 50 Cent täglich. Auch Geld.

Meiner Ansicht nach gibt es effektivere Möglichkeiten, 50 Cent täglich zu sparen - ich hoffe, Du bist kein Raucher. 50 Cent = 2 Zigaretten.

Space


Antwort von Silerofilms:

Ich bin kein Raucher und auch kein Trinker ;-)
Und in einem Jahr € 150 sind mir ziemlich egal.

Ich hab derzeit die GTX 680. Sollte ich damit noch weitermachen, bis das neue kommt?

Das Problem bei mir ist, dass genau im nächste halben Jahr ziemlich viele Filmprojekte auf mich zukommen. Und wenn ich jetzt auf das ganze neue Zeugs warte, ist das Meiste von meinen Projekten wieder vorbei.

Space


Antwort von merlinmage:

Solange kannst du doch bei 4K Sachen einfach Offline/Online Schnitt machen. Ich zitiere mich da einfach mal selber ;)

Space


Antwort von Silerofilms:

Soooodala, ich hab mich jetzt überwunden und meinen neuen PC zusammengestellt, mit dem 5930k, der 970 und 2666 MHZ Ram.

Ich bin sehr erfreut darüber. Die Ram-Vorschau in After Effects geht gefühlsmäßig mindestens doppelt so schnell. Im 3D Programm bin ich noch am testen, sieht aber derzeit nach doppelter bis dreifacher Geschwindigkeit im Vergleich zu vorher aus.

Am besten funktioniert das Rendern in Premiere. Das geht etwa 4x schneller. Also ich merk jetzt schon eine gute Steigerung.

Ein großes Dankeschön an euch.

Achja, und schön leise ist es auch.

Space


Antwort von merlinmage:

Viel Spaß mit deiner bereits überholten HW ;)

Space


Antwort von Frank Glencairn:

Jetzt nen PC zu kaufen ist aber der ungünstigste Zeitpunkt seit langem. Polaris/Pascal stehen vor der Tür Auf Polaris würd ich nicht wirklich setzen:

"AMD demonstrated its “Polaris” 10 and 11 next-generation GPUs, with Polaris 11 targeting the notebook market and “Polaris” 10 aimed at the mainstream desktop and high-end gaming notebook segment."

Space


Antwort von merlinmage:

Was? Polaris 10 läuft in direkter Konkurrenz zu Pascal im Juno. Bei beiden handelt es sich zwar nicht um Vollausbau, was die 970 ja auch bei weitem nicht ist (hi@3,5GB), aber gerade was Wärmeentwicklung und Stromverbrauch angeht liegen da Welten zwischen den 28nm uralt Karten von heute.

Space


Antwort von Angry_C:

Viel Spaß mit deiner bereits überholten HW ;) Überholt? Der Sockel ist doch zukunftssicher. Und ne 970 zerrt ja nun nicht sooo sehr am Geldbeutel, dass man sie nicht austauschen könnte.

Space


Antwort von merlinmage:

Zukunftssicher mit ner 28 Lane CPU und Haswell statt Broadwell-E,klar.

Space


Antwort von motiongroup:

5930k

Space


Antwort von Frank Glencairn:

Was? Polaris 10 läuft in direkter Konkurrenz zu Pascal im Juno. Bei beiden handelt es sich zwar nicht um Vollausbau, was die 970 ja auch bei weitem nicht ist (hi@3,5GB), aber gerade was Wärmeentwicklung und Stromverbrauch angeht liegen da Welten zwischen den 28nm uralt Karten von heute. Weniger Wärme und Stromverbrauch helfen dir nicht beim Arbeiten - nur Leistung zählt.

Laut AMD ist die Polaris für Notebooks und Mittelklasse Desktops gedacht, also 2 Stufen unter Gamer/Enthusiast - deshalb würd ich mir da nicht zu viel erwarten. Das ist ne Akku schon Karte für Laptops die gerade noch für den durchschnittlichen Heimrechner taugt.

Space


Antwort von Jost:

Was? Polaris 10 läuft in direkter Konkurrenz zu Pascal im Juno. Bei beiden handelt es sich zwar nicht um Vollausbau, was die 970 ja auch bei weitem nicht ist (hi@3,5GB), aber gerade was Wärmeentwicklung und Stromverbrauch angeht liegen da Welten zwischen den 28nm uralt Karten von heute.
zum Bild


So sieht die AMD GPU-Roadmap aus.
Wer eine GPU sucht, die spürbar leistungsstärker (+30 bis 40 Prozent) als die 970 ist, landet heute bei einer 980TI oder einer AMD Fury X - also in der 600-Euro-Klasse.

Und die wird bei AMD erst Anfang 2017 kommen.

Ist aber eh wurscht, weil die 970er in After Effects offenbar nicht limitiert.

Space


Antwort von merlinmage:

Polaris 10 ist nicht unter Gaming,es ist auf derselben Stufe. Es ist kein Vollausbau wie Fury X oder ne 980Ti, daher aber noch lange nicht unwichtig. Die 970 ist auch kein Vollausbau und wird trotzdem empfohlen, komisch oder ;)

Mit dem 5930k hab ich überlesen, dann wars wohl doch kein totaler Fehlkauf ;)

Space


Antwort von Angry_C:

Was? Polaris 10 läuft in direkter Konkurrenz zu Pascal im Juno. Bei beiden handelt es sich zwar nicht um Vollausbau, was die 970 ja auch bei weitem nicht ist (hi@3,5GB), aber gerade was Wärmeentwicklung und Stromverbrauch angeht liegen da Welten zwischen den 28nm uralt Karten von heute.
zum Bild


So sieht die AMD GPU-Roadmap aus. Süss, und nun noch eine Nvidia Roadmap leaken, die bis 2019 geht, das dürfte dann über Pascal und Volta hinausgehen, und schon kann einem AMD schon wieder ein bisschen Leid tun:-)

Space


Antwort von Jost:

Wollen wir mal hoffen, dass es 2019 AMD noch gibt.

Steht Dir natürlich frei, eine Nvidia-Roadmap zu posten.

Space


Antwort von motiongroup:

Warum soll's AMD nicht mehr geben...
Ich habe ne Zotac 970GTX verbaut, hätte aber lieber eine x390 oder FURY mit 8 GB verbaut da in meinem Fall die OCL Leistung unterm Hackintosh besser gewesen wäre.. OOB funktionierten sie aber recht schlecht bis gar nicht und ich bin deshalb zu NVIDIA gewechselt.. Heute einige Wochen des Haareraufens später würde ich es wieder rückgängig machen und doch die AMD Karten vorziehen.. Unter Windows ist es nicht gar so leicht zu sagen.. Resolve flutscht und das auf einem hATX z97 asrock Board mit ner 4790k.. Fertig..

Space


Antwort von merlinmage:

Gerade Resolve fliegt auf den Amd mit OpenCL. Zwei von den R390(X) mit 8GN und ab gehts.

Space


Antwort von leonhard dy kabrio:

Die Zusammenstellung passt schon!
Sogenannt " Experten" raten hier dem Fragende, das er noch 14 Monate die
Luft anhalten soll.... dabei spielt er die Kiste locker rein.
Und dieses ewige (scheint Goebbels wirklich gut gearbeitet zu haben) auf warten, dass..
na ja.
Ich würde mich auch freuen, wenn Nvidia und Amd, das, was die 2014 fertig hatten auch schon in echt 2016 verkaufen und wennst die Arschwäscher von INTEL anguckst das selbe Spiel.. Lieber 12.000 Mitarbeiter canceln, bevor man wieder mal am KUNDEN ERKENNBAR ARBEITET!

Und nun sind seit 2009 ( erster i7 ) schon bald einige Jahre um, und irgend wann musst
den Sprung machen. ist doch logisch? nix..eh klar...
8 core einsteiger ( i7) koste eig nur 99 ,- $
10 core 120,-
12 core..und so weiter..

So jetz könne sich die Bubis wieder auf die enge Vorhaut klopfen und immer schön vor gebückt-- das ist die IDEALE KUNDENHALTUNG.. manche ZELTEN sogar VOR einem STORE.... gggggg

und tschüsss... :)

Space


Antwort von merlinmage:

Sollte net die Ignore Funktion längst eingeführt sein?

Space


Antwort von motiongroup:

Na so unrecht hat er ja nicht damit....
Die passt schon die Konfig ..

@ merli, die ignorefunktion ist in mir wenn ich will ... Mehr brauchst eigentlich nicht ... Ein paar Idioten stehen dort drauf und das wars, hat aber nichts mit der Forensoft zu tun.

Space


Antwort von Jost:

Resolve flutscht und das auf einem hATX z97 asrock Board mit ner 4790k.. Fertig.. Bei den CPUs hat sich ja auch nichts groß getan die letzten Jahre - der 4790K ist und bleibt ein fettes Teil - bis Du NR nutzt oder gar zusätzlich OFX-Effekte einbindest.

Dann ist der schlicht zu langsam.

Alle Vierkerner - habe selbst einen 6700K - sind auch bei 2,5k-Raw nur was für Wald-und-Wiese. Die bremsen die GPU aus. Unabhängig davon, wieviele GPUs Du einbaust.

Mit NR siehst Du in der Color-Vorschau keine 30p mehr. Hab eine 980/8GB. Mehr als 2 GB sind selbst bei 4,6K-Material nicht belegt, und der Memory-Controller ist nur zu 50 Prozent ausgelastet - es gibt schlicht nicht genug Daten für die GPU zum Berechnen, weil die CPU zu langsam ist.

Ohne übertaktetem Sechskerner musst Du Kompromisse machen.
Ohne NR wenige, mit NR einige. Dann flutscht nichts mehr.

Space


Antwort von Jost:

Resolve flutscht und das auf einem hATX z97 asrock Board mit ner 4790k.. Fertig.. Bei den CPUs hat sich ja auch nichts groß getan die letzten Jahre - der 4790K ist und bleibt ein fettes Teil - bis Du NR nutzt oder gar zusätzlich OFX-Effekte einbindest.

Dann ist der schlicht zu langsam.

Alle Vierkerner - habe selbst einen 6700K - sind auch bei 2,5k-Raw nur was für Wald-und-Wiese. Die bremsen die GPU aus. Unabhängig davon, wieviele GPUs Du einbaust.

Mit NR siehst Du in der Color-Vorschau keine 30p mehr. Hab eine 980/8GB. Mehr als 2 GB sind selbst bei 4,6K-Material nicht belegt, und der Memory-Controller ist nur zu 50 Prozent ausgelastet - es gibt schlicht nicht genug Daten für die GPU zum Berechnen, weil die CPU zu langsam ist.

Ohne übertaktetem Sechskerner musst Du Kompromisse machen.
Ohne NR wenige, mit NR einige. Dann flutscht nichts mehr.

Space


Antwort von motiongroup:

Morgen Jost, für diese meine Zwecke hat selbst meine betagte 2011er MacBook Pro 17" Konfiguration gereicht.. Ich vergleiche es immer mit den 6core tubes auf Arbeit und meinem privaten obig genannten Woipadinger für den ich mir eigentlich ein Gurkerl ins Knie schießen möchte.. Das Teil ist so ziemlich gleich auf.. Wobei das Augenmerk liegt in der Hauptsache auf fcpx und Motion und im speziell diesem Fall bist du mit jedem iMac5k schneller als mit nem Tube oder meiner Selbermachergurke bei der du mit jedem Update Angst haben musst das sie wieder so läuft wie vorher..
Zur 5820/30, konnte ich nicht nehmen weil mir der QUICKSYNC Part der IGPU fehlt.. Ein Kompromiss aber so ist das Leben..

Space


Antwort von Frank Glencairn:

So sieht die AMD GPU-Roadmap aus.
Wer eine GPU sucht, die spürbar leistungsstärker (+30 bis 40 Prozent) als die 970 ist, landet heute bei einer 980TI oder einer AMD Fury X - also in der 600-Euro-Klasse.
Quatsch.

Das Chart bezieht sich auf Performance per Watt Leistungsaufnahme - Stromsparen is was für Laptops und hilft mir nicht bei der Arbeit.

Space


Antwort von merlinmage:

So sieht die AMD GPU-Roadmap aus.
Wer eine GPU sucht, die spürbar leistungsstärker (+30 bis 40 Prozent) als die 970 ist, landet heute bei einer 980TI oder einer AMD Fury X - also in der 600-Euro-Klasse.
Quatsch.

Das Chart bezieht sich auf Performance per Watt Leistungsaufnahme - Stromsparen is was für Laptops und hilft mir nicht bei der Arbeit. Durch den Shrink bekommt man aber bei gleicher Wattzahl 2-3mal mehr Performance... das müsste dich dann doch wieder ansprechen, oder? ;)

Space


Antwort von Angry_C:

So sieht die AMD GPU-Roadmap aus.
Wer eine GPU sucht, die spürbar leistungsstärker (+30 bis 40 Prozent) als die 970 ist, landet heute bei einer 980TI oder einer AMD Fury X - also in der 600-Euro-Klasse.
Quatsch.

Das Chart bezieht sich auf Performance per Watt Leistungsaufnahme - Stromsparen is was für Laptops und hilft mir nicht bei der Arbeit. Durch den Shrink bekommt man aber bei gleicher Wattzahl 2-3mal mehr Performance... das müsste dich dann doch wieder ansprechen, oder? ;) Das wäre aber mal eine Revolution, wenn sich alleine durch einen Die-Shrink die Performance bei gleicher Leistungsaufnahme verdoppelt oder gar verdreifacht;-) Wo hast du das denn aufgeschnappt?

Space


Antwort von merlinmage:

Die Shrink auf den dann eine neue Architektur passt. Aber hier legt ja jeder jedes Wort auf die Goldwaage, um sein krasses Insiderwissen zu promoten ;)

Space


Antwort von Jost:

So sieht die AMD GPU-Roadmap aus.
Wer eine GPU sucht, die spürbar leistungsstärker (+30 bis 40 Prozent) als die 970 ist, landet heute bei einer 980TI oder einer AMD Fury X - also in der 600-Euro-Klasse.
Quatsch.

Das Chart bezieht sich auf Performance per Watt Leistungsaufnahme - Stromsparen is was für Laptops und hilft mir nicht bei der Arbeit. Stehst auf dem Schlauch heute?

Erst kommen die Rennschnecken

zum Bild


Die interessanten GPUs gibt es erst 2017. Werden aber auch mehr als 600 Euro kosten.
AMD und NVIDA bringen ja schließlich keine neuen Karten raus, damit sich anschließend ihr Umsatz halbiert.

Ist aber eh wurscht, wenn die CPU limitiert und nicht genug Daten liefern/verarbeiten kann.
Flaschenhals ist die CPU - und nicht die GPU.

Wer eine langsame CPU hat, kann als GPU reinbasteln, was er will. Ob heute oder 2017 - völlig egal.
Einige GPUs machen das besser, andere schlechter. Dito bei den Programmen. Am Grundsatz ändert das nichts.
Echte Mehrleistung führt nur über die CPU.

Darum ist ein übertakteter 5820 ja auch eine so gute Wahl.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


intel 7 oder i9 mit UHD770, plus GraKa
Konverter Thunderbolt auf Thunderbolt (oder HDMI) und FBAS (oder SDI)?
Briefing Raw Cam 4k60p mit AF S5+ Ninja oder R5 oder? Format für Resolve
Schnittrechner oder -Laptop oder beides?
Elgato Cam Link oder Atem Mini oder etwas anderes?
Apple ersetzt Intel CPUs in Macs durch eigene ARM Prozessoren
Dell: Update für XPS 15 und 17 Notebooks: Bis zu Intel i9-10885H und RTX 2060
Intel: Thunderbolt 4 soll Über-Standard werden
11te Generation von Intel CPUs bringt höhere Taktraten, bessere GPU und Thunderbolt 4
AMD Zen 3 Ryzen 5000 CPUs - jetzt durch die Bank schneller als Intel
Intel Core i5 vs i9 CPU - welcher ist schneller?
Sonnet eGPU Breakaway Pucks Radeon RX 5500 XT und RX 5700 für Intel Macs
Intel relativiert Apples M1 Benchmarks
Resolve Studio 17.1 Public Beta 10 mit Intel H.265-10Bit 4:2:2 Hardwareunterstützung
Sony kauft 35 Intel Patente für GAA-Fertigung
Intel Rocket Lake-S: Neue Core i-11000 Desktop CPUs vorgestellt
Neue mobile Tiger Lake-H45 CPUs von Intel mit bis zu 8 Kernen und 5 GHz Turbo
Zeiss, Red, Nvidia, Intel und Canon pushen volumetrisches Video - kommt die virtuelle Kamera für alle?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash