Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Professioneller 4K-Videoschnitt - neue Grafikkarte, neues Netzteil?



Frage von fab_bu:


Hallo zusammen,

ich arbeite im Bereich Videoproduktion und schneide seit Corona und dauerhaftem Home Office regelmäßig Videos auf meinem privaten PC. Den hatte ich früher schon mit der Intention zusammengestellt, mal hier und da private Schnittprojekte umsetzen zu können. Dafür hat es gereicht. Durch die regelmäßige professionelle Nutzung fallen mir mittlerweile vermehrt Schwächen auf. Der Versuch, ein 4K-Video zu schneiden, hat regelmäßig zu Abstürzen geführt. Doch auch bei Full-HD-Projekten (immer noch die Regel) ruckelt die Wiedergabe, sobald ich Farbkorrektur auf den Clips habe und natürlich erst recht bei aufwändigeren Transitions, Effekten oder Animationen. Rendern dauert ewig, genauso wie der Export (15 Minuten Video braucht 45-60 Minuten zum Exportieren). Wenn ich während des Exports auf den Task-Manager gucke, steht die Auslastung der GPU bei 100%.

Hier alle Komponenten meines PCs. Ich schneide auf Adobe Premiere Pro. After Effects nutze ich nicht.

1 x ASRock B150M PRO4S/D3, Mainboard
1 x SilverStone SST-ST40F-ES230, PC-Netzteil
1 x LiteOn iHAS124-14, DVD-Brenner
1 x ADATA SU800 256 GB, Solid State Drive
1x WDC WD20EZRZ-00Z5HB0 2TB Festplatte
1x Samsung 860 EVO 500GB Solid State Drive
1 x Corsair DIMM 16GB DDR3L-1600 Kit, Arbeitsspeicher
1 x Intel® Core i7-6700K, Prozessor
1 x Scythe Shuriken Rev. B, CPU-Kühler
1 x ZOTAC 2GB GT730 ZONE, Grafikkarte
1 x SilverStone ML03, Desktop-Gehäuse
1 x Microsoft Windows 10 Home für Highend-PC 64bit OEM Alternate, Betriebssystem-Software
1 x be quiet! Pure Wings 2 80x80x25, Gehäuselüfter
1 x be quiet! Shadow Wings PWM 80 mm, Gehäuselüfter

Meine Frage ist zunächst (wobei ich mir da schon relativ sicher bin), ob der Kauf einer besseren Grafikkarte für meine Zwecke notwendig ist? Meine bisherige ist die ZOTAC NVIDIA 2GB GT730 ZONE

Die zweite Frage ist: Welche Merkmale sollte die neue Karte haben, damit ich auch in fünf Jahren und mit regelmäßigem 4K-Schnitt noch relativ gut dar stehe? Habt ihr vielleicht konkrete Tipps, welche Grafikkarte sich für professionellen Videoschnitt in einem WIndows-PC anbietet? Ich bin kein Gamer, brauche also auch keine absolute High-End-Karte. Ich bin bereit max 500 € auszugeben.

Ich habe natürlich schon selber recherchiert. Adobe listet hier alle empfohlenen Grafikkarten für Premiere auf: https://helpx.adobe.com/de/premiere-pro ... celeration Deshalb dachte ich mir, dass meine neue eine von denen sein sollte. Ich habe ein Auge auf die AMD Radeon Pro WX 5100 (8GB) und die NVIDIA GeForce RTX 2070 (8GB) geworfen. Bei beiden stellt sich mir allerdings die Frage, ob mein Netzteil von 400W dann noch ausreicht. Bei der NVIDIA wohl auf keinen Fall, bei der Radeon bin ich mir unsicher. Laut Handbuch (ich hatte sie schon mal in der Hand) braucht das System eine 500W-Versorgung. Allerdings verbraucht sie laut Infos im Internet maximal 75W...

Vielen Dank schonmal im Voraus für eure Hilfe!!

Space


Antwort von dienstag_01:

Was für Material verarbeitet du denn? Für den Fall von H264, hast du Quicksync angeschaltet?

Space


Antwort von fab_bu:

H.264 in den meisten Fällen, ja. Quicksync sagt mir nichts, wär super wenn du mich aufklären könntest!

Space


Antwort von dienstag_01:

fab_bu hat geschrieben:
H.264 in den meisten Fällen, ja. Quicksync sagt mir nichts, wär super wenn du mich aufklären könntest!
Für Quicksync musst du die interne Intel GPU gegebenfalls erst anschalten (im BIOS) und ein Häckchen in Premiere für Hardware Decoding setzen. Damit kann man dann auch schneller exportieren (Hardware encoding).

Cuda mit Hardware hast du hoffentlich in Premiere sowieso an, oder?

Space


Antwort von fab_bu:

Danke für den Tipp! Werde ich umsetzen. Aber hast du einen Vorschlag, welche Grafikkarte für Videoschnitt auch langfristig von Nöten ist? Adobe empfiehlt ja zumindest Karten mit 4GB Speicher. Und welche Leistung sollte das Netzteil haben?

Space


Antwort von Bluboy:

Netzteil

https://www.bequiet.com/de/powersupply/1534

Space


Antwort von Axel711:

Ist halt auch immer alles eine Frage des Budgets...

Die Netzteil-Empfehlung oben ist schon mal gut. 700 ~ 800 W sind gut. Brauchts du nicht, aber je höher und effizienter die Nennleistung desto ruhiger und langlebiger ist das NT.

Ich hab den selben Prozessor wie du und dazu eine Nvidia GTX 1080 8GB. Damit kann ich in Edius 8 und Davinci Resolve problemlos auch größere 4K Projekte schaukeln. Zur Performance von Premiere kann ich nix sagen da ich das nicht nutze.

Wenn du nach oben Luft haben willst und das Budget hast würd ich auf die neuere Generation von Nvidia setzen ~ RTX 2080 (TI). Wenn du ganz professionell cuttest eine Nvidia Quadro; aber das erscheint mir ein bißchen drüber.

Wie hast du denn deine SSDs logisch aufgebaut? Da gibts evtl auch Potenzial.

Und wie unten gesagt -> Quicksync an

Space


Antwort von TomStg:

Axel711 hat geschrieben:
Wenn du ganz professionell cuttest eine Nvidia Quadro; aber das erscheint mir ein bißchen drüber.
„Professionell“ ist nicht das Kriterium für eine Quadro. Zum Schneiden braucht man diese nur, wenn man in 10Bit ausgeben will. Also eher selten oder garnicht. Eine Quadro ist vorallem für Fotografen gedacht. Im Vergleich zu den anderen Karten von Nvidia ist eine Quadro bei Videobearbeitung sehr langsam und sehr teuer.

Space


Antwort von TomStg:

fab_bu hat geschrieben:
1 x Corsair DIMM 16GB DDR3L-1600 Kit, Arbeitsspeicher
1 x Intel® Core i7-6700K, Prozessor
Der Arbeitsspeicher mit 16 GB ist sehr knapp, 32 GB sind besser. Auch keine DDR3, sondern DDR4-3200. (DDR5-8400 steht vor der Tür.)
Diese müssen aber zum Mainboard passen.

Einen i7-6700 Prozessor kann man inzwischen veraltet nennen. Ein i9 sollte es schon sein.

Space



Space


Antwort von Bluboy:

---Auch keine DDR3, sondern DDR4-3200

Sehr witzig ;-((

Space


Antwort von dienstag_01:

fab_bu hat geschrieben:
Danke für den Tipp! Werde ich umsetzen. Aber hast du einen Vorschlag, welche Grafikkarte für Videoschnitt auch langfristig von Nöten ist? Adobe empfiehlt ja zumindest Karten mit 4GB Speicher. Und welche Leistung sollte das Netzteil haben?
Wenn Quicksync eingeschaltet ist und läuft (Treiber wenn nötig aktualisiere), dann schau weiter. Solange deine Videovorschau nur in FullHD läuft und nicht in 4K, könnte deine Grafikkarte reichen. Gerade so.
Man braucht weder ein gigantisches Netzteil noch unendlich viel RAM oder einen Superprozessor. Der Witz ist ja gerade, dass mit den neuen Technologien der Grafikkartenherstellern, die von den Herstellern der Schnittsysteme so nach und nach aufgegriffen und implementiert werden (derzeit Intel Quicksync bei Premiere und Nvdec/Enc von Nvidia bei Resolve, demnächst wahrscheinlich auch in Premiere), genau eine andere Richtung als die nach immer mehr und größer und lauter eingeschlagen wird. Sollte man zumindest mal wahrnehmen. Mein Smartphone kann das schließlich auch ;)

Space


Antwort von fab_bu:

Axel711 hat geschrieben:


Die Netzteil-Empfehlung oben ist schon mal gut. 700 ~ 800 W sind gut. Brauchts du nicht, aber je höher und effizienter die Nennleistung desto ruhiger und langlebiger ist das NT.

Ich hab den selben Prozessor wie du und dazu eine Nvidia GTX 1080 8GB. Damit kann ich in Edius 8 und Davinci Resolve problemlos auch größere 4K Projekte schaukeln. Zur Performance von Premiere kann ich nix sagen da ich das nicht nutze.

Wenn du nach oben Luft haben willst und das Budget hast würd ich auf die neuere Generation von Nvidia setzen ~ RTX 2080 (TI). Wenn du ganz professionell cuttest eine Nvidia Quadro; aber das erscheint mir ein bißchen drüber.

Wie hast du denn deine SSDs logisch aufgebaut? Da gibts evtl auch Potenzial.

Und wie unten gesagt -> Quicksync an

Danke dir und dem Kollegen darüber! Ich werd mir eure Empfehlungen mal anschauen. Meine Festplatten/SSDs sind folgendermaßen aufgebaut, wobei ich mir da auch noch unschlüssig bin, was der beste Weg ist:

1. SSD 265 GB - Windows und Schnittprogramm
2. SSD 500 GB - Schnittprojekt und Rohmaterial (für die Dauer des Schnitts, danach gesichert auf externer Festplatte bzw SATA intern), sowie Mediencache
SATA intern 2TB - Videos/Rohmaterial private Projekte plus private Fotos
USB Festplatte extern 2TB - Rohmaterial, Grafiken und Schnittprojekte beruflich

Space


Antwort von dienstag_01:

fab_bu hat geschrieben:
Axel711 hat geschrieben:


Die Netzteil-Empfehlung oben ist schon mal gut. 700 ~ 800 W sind gut. Brauchts du nicht, aber je höher und effizienter die Nennleistung desto ruhiger und langlebiger ist das NT.

Ich hab den selben Prozessor wie du und dazu eine Nvidia GTX 1080 8GB. Damit kann ich in Edius 8 und Davinci Resolve problemlos auch größere 4K Projekte schaukeln. Zur Performance von Premiere kann ich nix sagen da ich das nicht nutze.

Wenn du nach oben Luft haben willst und das Budget hast würd ich auf die neuere Generation von Nvidia setzen ~ RTX 2080 (TI). Wenn du ganz professionell cuttest eine Nvidia Quadro; aber das erscheint mir ein bißchen drüber.

Wie hast du denn deine SSDs logisch aufgebaut? Da gibts evtl auch Potenzial.

Und wie unten gesagt -> Quicksync an

Danke dir und dem Kollegen darüber! Ich werd mir eure Empfehlungen mal anschauen. Meine Festplatten/SSDs sind folgendermaßen aufgebaut, wobei ich mir da auch noch unschlüssig bin, was der beste Weg ist:

1. SSD 265 GB - Windows und Schnittprogramm
2. SSD 500 GB - Schnittprojekt und Rohmaterial (für die Dauer des Schnitts, danach gesichert auf externer Festplatte bzw SATA intern), sowie Mediencache
SATA intern 2TB - Videos/Rohmaterial private Projekte plus private Fotos
USB Festplatte extern 2TB - Rohmaterial, Grafiken und Schnittprojekte beruflich
SSDs haben so gut wie keinen Einfluss auf die Performance beim Schnitt, es sei denn, man verwendet sehr wenig komprimiertes Material mit hoher Datenrate.

Space


Antwort von Jost:

dienstag_01 hat geschrieben:
fab_bu hat geschrieben:
Danke für den Tipp! Werde ich umsetzen. Aber hast du einen Vorschlag, welche Grafikkarte für Videoschnitt auch langfristig von Nöten ist? Adobe empfiehlt ja zumindest Karten mit 4GB Speicher. Und welche Leistung sollte das Netzteil haben?
Wenn Quicksync eingeschaltet ist und läuft (Treiber wenn nötig aktualisiere), dann schau weiter. Solange deine Videovorschau nur in FullHD läuft und nicht in 4K, könnte deine Grafikkarte reichen. Gerade so.
Man braucht weder ein gigantisches Netzteil noch unendlich viel RAM oder einen Superprozessor. Der Witz ist ja gerade, dass mit den neuen Technologien der Grafikkartenherstellern, die von den Herstellern der Schnittsysteme so nach und nach aufgegriffen und implementiert werden (derzeit Intel Quicksync bei Premiere und Nvdec/Enc von Nvidia bei Resolve, demnächst wahrscheinlich auch in Premiere), genau eine andere Richtung als die nach immer mehr und größer und lauter eingeschlagen wird. Sollte man zumindest mal wahrnehmen. Mein Smartphone kann das schließlich auch ;)
Jepp, das ist der wichtigste Punkt. Die Grafikkarte hat einen vergleichsweise geringen Einfluss auf einen flüssigen Workflow. Das macht zunächst einmal die iGPU des Prozessors.

Adobe hat hier die Zusammenhänge erläutert:

https://helpx.adobe.com/de/x-productkb/ ... oding.html

Den neusten Treiber für den 6700K findest Du hier:
https://downloadcenter.intel.com/de/product/88195

Treiber aktualisieren, die Einstellungen in Premiere optimieren - und dann weitersehen.

Space


Antwort von fab_bu:

Ich scheitere grade daran, Quick Sync zu aktivieren. Im BIOS finde ich die im Internet angegebene Auswahl zum aktivieren nicht.

Vll liegt es am fehlenden Treiber? Windows sagt, meine CPU hat die neuesten Treiber installiert. Ich wollte trotzdem den neuesten von der Intel Homepage installieren, doch hier stoße ich auf Hinweise zum Installieren, denen ich nicht folgen kann. Wenn ich auf den runtergeladenen Treiber doppelklicke und ihn installieren möchte, kommt die Fehlermeldung, dass mein System nicht kompatibel sei - was nicht stimmt.

Jemand ne Idee, was ich falsch mache?

Space


Antwort von dienstag_01:

fab_bu hat geschrieben:
Ich scheitere grade daran, Quick Sync zu aktivieren. Im BIOS finde ich die im Internet angegebene Auswahl zum aktivieren nicht.

Vll liegt es am fehlenden Treiber? Windows sagt, meine CPU hat die neuesten Treiber installiert. Ich wollte trotzdem den neuesten von der Intel Homepage installieren, doch hier stoße ich auf Hinweise zum Installieren, denen ich nicht folgen kann. Wenn ich auf den runtergeladenen Treiber doppelklicke und ihn installieren möchte, kommt die Fehlermeldung, dass mein System nicht kompatibel sei - was nicht stimmt.

Jemand ne Idee, was ich falsch mache?
Ob die Intel GPU an oder aus ist, sieht man im Gerätemanager unter Grafikadapter. Wenn aus -> Bios

Space


Antwort von Bluboy:

Vielleicht unterstützt Dein Prozessor Quicksync garnicht

https://de.wikipedia.org/wiki/Liste_der ... op-Core_i7

Space


Antwort von fab_bu:

dienstag_01 hat geschrieben:
fab_bu hat geschrieben:
Ich scheitere grade daran, Quick Sync zu aktivieren. Im BIOS finde ich die im Internet angegebene Auswahl zum aktivieren nicht.

Vll liegt es am fehlenden Treiber? Windows sagt, meine CPU hat die neuesten Treiber installiert. Ich wollte trotzdem den neuesten von der Intel Homepage installieren, doch hier stoße ich auf Hinweise zum Installieren, denen ich nicht folgen kann. Wenn ich auf den runtergeladenen Treiber doppelklicke und ihn installieren möchte, kommt die Fehlermeldung, dass mein System nicht kompatibel sei - was nicht stimmt.

Jemand ne Idee, was ich falsch mache?
Ob die Intel GPU an oder aus ist, sieht man im Gerätemanager unter Grafikadapter. Wenn aus -> Bios
Im Gerätemanager gibt es den Reiter "Grafikkarten", "Grafikadapter" finde ich da nicht. Bei "Grafikkarten" ist nur die NVIDIA aufgeführt

Space



Space


Antwort von klusterdegenerierung:

dienstag_01 hat geschrieben:
Für Quicksync musst du die interne Intel GPU gegebenfalls erst anschalten (im BIOS)
Und danach wieder ausschalten, oder dauerhaft anlassen auch wenn man mit der internen nicht arbeitet?

Space


Antwort von srone:

immer anlassen, wäre ja sonst wahnsinn.

lg

srone

Space


Antwort von klusterdegenerierung:

Ich denke eine gebrauchte GPU der letzten Generation sollte auch vollkommen reichen und dann kann man sich fürs Geld vielleicht beides leisten.

Ich habe auf Kleinanzeigen eine GTX1080 gekauft, natürlich aus der Umgebung damit man selber mal eben schauen kann und nicht übers Ohr gehauen wird.

Meine war ein guter Kauf, hab sie in OVP mit Zubehör Spieser gepflegt für einen sehr guten Preis bekommen.
Neu wäre sie mir zu teuer gewesen.

Space


Antwort von klusterdegenerierung:

srone hat geschrieben:
immer anlassen, wäre ja sonst wahnsinn.

lg

srone
Wie Wahnsinn?
Wenn ich doch eine GTX einbaue brauche ich doch die interne Intel nicht.

Space


Antwort von srone:

wenn du quicksync und cuda in premiere nutzen willst dann schon.

lg

srone

Space


Antwort von dienstag_01:

srone hat geschrieben:
wenn du quicksync und cuda in premiere nutzen willst dann schon.

lg

srone
Nö, für Cuda braucht man natürlich die Nvidia, nur für Quicksync die Intel.

Space


Antwort von srone:

dienstag_01 hat geschrieben:
srone hat geschrieben:
wenn du quicksync und cuda in premiere nutzen willst dann schon.

lg

srone
Nö, für Cuda braucht man natürlich die Nvidia, nur für Quicksync die Intel.
ich bezog mich auf kluster...;-)

lg

srone

Space


Antwort von dienstag_01:

srone hat geschrieben:
dienstag_01 hat geschrieben:

Nö, für Cuda braucht man natürlich die Nvidia, nur für Quicksync die Intel.
ich bezog mich auf kluster...;-)

lg

srone
Besser ist es, wenn es für mehrere User verständlich ist.

Space


Antwort von mash_gh4:

klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Für Quicksync musst du die interne Intel GPU gegebenfalls erst anschalten (im BIOS)
Und danach wieder ausschalten, oder dauerhaft anlassen auch wenn man mit der internen nicht arbeitet?
ich kann zwar nur von erfahrungen im linuxumfeld ausgehen, die sich nicht unbedingt auf die windowswelt übertragen lassen müssen, aber hier bin ich dazu übergegangen, die integrierten intel-grafik auch tatsächlich für die ausgabe auf die schrirme zu nutzen, weil sie dafür, wenn man seine weit nicht mit computerspielen verschwendet, ohnehin völlig ausreichend schnell sind und viel weniger graviernde mängel bzw. systemabstürze u.ä. mit sich bringen. die nvidia-karten, die ich trotzdem im rechner hab, werden ausschließlich als zusätzliche CUDA- bzw GPGPU-beschleunigungslösung genutzt. das hat auch den vorteil, dass der dortige grafikspeicher tatsächlich immer zur gänze zum rechnen zur verfügung steht und die karte notfalls auch bei laufendem rechner ohne neustart voll resetted werden kann bzw. nicht durch laufende systemnutzung blockiert wird.

ich kann zwar noch immer nicht ganz sicher, ob das wirklich die bessere lösung ist, aber bisher hab ich auch keine wirklich einschneidenden nachteile entdecken können, die mich wieder zu einem umdenken bewegen würden.

Space



Space


Antwort von rush:

Habe ich die letzten Jahre, also vor dem Umstieg auf AMD auch so gehandhabt...

Wobei iwann dann eine GTX1070 hinzu kam und die dann primärer Anzeigetreiber wurde.

Im reinen Windows Alltag habe ich da keinerlei Unterschiede gemerkt...
Edius hat sich über Quicksync gefreut und Resolve als auch Adobe vermutlich über Cuda.

Mittlerweile ist Quicksync aufgrund AMD nicht mehr möglich - habe ich beim Wechsel auf den Ryzen aber auch noch nicht vermisst... Edius wird tatsächlich nur noch sporadisch bewegt, Resolve drückt sich langsam durch - auch wenn es mich an vielen Stellen weiterhin überfordert und das wo ich doch so ungeduldig im Schnitt bin ;-)

Space


Antwort von mash_gh4:

rush hat geschrieben:
Mittlerweile ist Quicksync aufgrund AMD nicht mehr möglich - habe ich beim Wechsel auf den Ryzen aber auch noch nicht vermisst...
ein ganz guter ersatz auf den wirklich leistungsstarken CPUs dürften die diversen SVT libraries oden OpenVisualCloud projekt von intel für das verarbeiten der neueren codecs sein. das ist zwar software, die hauptsächlich auf die bedürfnisse der großen video pattformbetreiber zugeschnitten ist und in normale endanwendersoftware noch keinen einzug gefunden hat, aber unter entsprechenden hardwarevoraussetzungen ist es auch verdammt flott.

für dich ist das u.a. auch deshalb interessant, weil intel in diesem fall gnade vor recht walten hat lassen, und nicht ausschlißlich nur ihre eigenen aktuellen prozessoren mit avx512 vetorverarbeitungsinstruktionen unterstützt, sondern überraschenderweise auch ältere modelle und AMD prozessoren, die nur über avx2 verfügen (siehe: https://www.phoronix.com/scan.php?page= ... 10-Systems).

ich fürchte aber, dass das eher ein ausnahmefall bleiben wird, da ja nicht umsonst erst kürzlich angekündigt wurde, dass die betreffenden befehle in zukunft auch bereits in den günstigen intel prozessormodellen unterstützt werden, was ganz bestimmt darauf abzielt, die konkurrenz weiter auszubremsen bzw. mit inkompatiblitäten unattraktiv zu machen, auch wenn AMD natürlich postwendend angekündigt hat, dass zumindest auch ihre kommenden high end modelle derartiges unterstützen werden...

Space


Antwort von dienstag_01:

mash_gh4 hat geschrieben:
klusterdegenerierung hat geschrieben:

Und danach wieder ausschalten, oder dauerhaft anlassen auch wenn man mit der internen nicht arbeitet?
ich kann zwar nur von erfahrungen im linuxumfeld ausgehen, die sich nicht unbedingt auf die windowswelt übertragen lassen müssen, aber hier bin ich dazu übergegangen, die integrierten intel-grafik auch tatsächlich für die ausgabe auf die schrirme zu nutzen, weil sie dafür, wenn man seine weit nicht mit computerspielen verschwendet, ohnehin völlig ausreichend schnell sind und viel weniger graviernde mängel bzw. systemabstürze u.ä. mit sich bringen. die nvidia-karten, die ich trotzdem im rechner hab, werden ausschließlich als zusätzliche CUDA- bzw GPGPU-beschleunigungslösung genutzt. das hat auch den vorteil, dass der dortige grafikspeicher tatsächlich immer zur gänze zum rechnen zur verfügung steht und die karte notfalls auch bei laufendem rechner ohne neustart voll resetted werden kann bzw. nicht durch laufende systemnutzung blockiert wird.

ich kann zwar noch immer nicht ganz sicher, ob das wirklich die bessere lösung ist, aber bisher hab ich auch keine wirklich einschneidenden nachteile entdecken können, die mich wieder zu einem umdenken bewegen würden.
Ich mache es genau umgedreht, Ausgabe über die Nvidia. Ist so *gewachsen*, hatte, glaube ich, diese Konfiguration auch mal irgendwo als Empfehlung gelesen. Ob es zwingend ist, weiß ich nicht, aber Probleme kenne ich nicht.

Space


Antwort von klusterdegenerierung:

Angeblich verwendet die Intel auch PCI lanes und wenn man nur 2x und nicht echte 4x 16 hat, werden der GTX von den eigentlichen 16 x 8 genommen.

Wenn dem so ist, wird die GTX zum Krüpel und bietet bedeutend weniger performance.
Deswegen habe ich die interne immer aus, zudem kann mein Treiber 10Bit für meinen 10Bit Monitor, das kann die Intel nicht.

Auch denke ich das 2x2K + 1x4K ein bissl viel für die Intel ist.
Hatte auch mal dran gedacht die 2 2K an die Intel zu hängen, aber dadurch bekommen sie wieder ein völlig anders Lookuptable welches ich selbst mit kalibrieren nicht so gut angleichen kann wie alle an einer.

So ist das bei mir mit der Zeit gewachsen.

Space


Antwort von dienstag_01:

klusterdegenerierung hat geschrieben:
Angeblich verwendet die Intel auch PCI lanes und wenn man nur 2x und nicht echte 4x 16 hat, werden der GTX von den eigentlichen 16 x 8 genommen.

Wenn dem so ist, wird die GTX zum Krüpel und bietet bedeutend weniger performance.
Deswegen habe ich die interne immer aus, zudem kann mein Treiber 10Bit für meinen 10Bit Monitor, das kann die Intel nicht.

Auch denke ich das 2x2K + 1x4K ein bissl viel für die Intel ist.
Hatte auch mal dran gedacht die 2 2K an die Intel zu hängen, aber dadurch bekommen sie wieder ein völlig anders Lookuptable welches ich selbst mit kalibrieren nicht so gut angleichen kann wie alle an einer.

So ist das bei mir mit der Zeit gewachsen.
Wenn du mit deinem System zufrieden bist, ist doch alles ok. Für andere sind die Möglichkeiten interessant, die durch Quicksync geboten werden.

Ich kenne übrigens keinen Test, der einen Performance-Unterschied zwischen 16 oder 8 Lanes bzw. 3.0 oder 2.0 Anbindung feststellen konnte. Für Videobearbeitung.
Letztendlich wären das, glaube ich, 8GB/s. Wozu soll man das brauchen.

Space


Antwort von klusterdegenerierung:

dienstag_01 hat geschrieben:
Für andere sind die Möglichkeiten interessant, die durch Quicksync geboten werden.
Ich kenne übrigens keinen Test, der einen Performance-Unterschied zwischen 16 oder 8 Lanes bzw. 3.0 oder 2.0 Anbindung feststellen konnte.
Ich weiß weder was Quicksync bietet, noch kenne ich den Unterschied zwischen 3.0 & 2.0

Space


Antwort von dienstag_01:

klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Für andere sind die Möglichkeiten interessant, die durch Quicksync geboten werden.
Ich kenne übrigens keinen Test, der einen Performance-Unterschied zwischen 16 oder 8 Lanes bzw. 3.0 oder 2.0 Anbindung feststellen konnte.
Ich weiß weder was Quicksync bietet, noch kenne ich den Unterschied zwischen 3.0 & 2.0
Um so mehr solltest du dir selber verwundert die Augen reiben, dass du dich zu diesem Thema äußerst. Mit Aufzählen und Gegenrechnen von Lanes, von denen du - wie du gerade sagst - nichts verstehst.

Space


Antwort von mash_gh4:

klusterdegenerierung hat geschrieben:
..., zudem kann mein Treiber 10Bit für meinen 10Bit Monitor, das kann die Intel nicht.
hast du eine ahnung, was die alles können! :)

...und zwar schon sehr lange -- und auch ganze ohne die nervigen künstlichen produktdiffernzierungseinschränkungen, mit denen nvidia unbedingt seine quatros an den mann zu bringen versucht.

aber, wie gesagt, der hauptgrund, warum ich es so halte, ist der deutlich bessere support bzw. stabilere betrieb unter linux. prinzipiell finde ich natürlich die unnötige herumschieberei von daten zw. GPU und grafikausgabe auch nicht unbedingt die optimalste lösung.

Space


Antwort von klusterdegenerierung:

mash_gh4 hat geschrieben:
und auch ganze ohne die nervigen künstlichen produktdiffernzierungseinschränkungen, mit denen nvidia unbedingt seine quatros an den mann zu bringen versucht.
Kann man mit jeder GTX, dafür braucht es keine Quadro.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


4K Videoschnittsysteme
Videoschnitt ruckelt bei 4K
4K-Videoschnitt
welche Grafikkarte fuer Videoschnitt?
BMPCC 4K stoppt bei Daueraufnahmen mit Netzteil oder Vmount
Original Sony FS-100 Netzteil mit NP-F Adapterkabel leihweise gesucht
Festplatten Multi-Netzteil 12V?
Netzteil für Blackmagic 4K Production Kamera
Ronin S "nur" mit den Original Netzteil ladbar?
Netzteil / Anschluss / Adapter JVC GY HM70
EVGA Netzteil aus RMA-Austausch killt Festplatten eines Kunden wegen geändertem Pinlayout
AOC U2790PQU: Semi-professioneller 27" 4K Monitor mit 10-Bit Farbtiefe für 350 Euro
Eizo CS2740: professioneller 4K 27" 10-Bit Monitor mit 99% AdobeRGB und Farbkalibrierung in 90 Sekunden
Sound Devices A20-Mini: Professioneller drahtloser Audiosender mit 32-Bit Float Aufnahme
Zoom F3 - professioneller Mini Field Recorder mit XLR und 32-Bit-Float
Philips 27B1U7903: professioneller 4K Mini-LED Monitor mit DisplayHDR 1400 und Thunderbolt 4
Rode NTH-100: Erster professioneller Studio-Kopfhörer für Audio-Monitoring, Filmmaking u.a.




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash