Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // 4K Videoschnittrechner - Bitte um Beurteilung



Frage von krokus:


Hallo zusammen,

ich habe seit 2016 einige Videoclips in 4K Auflösung gefilmt, die ich nun gerne bearbeiten möchte. Mein bisheriger Rechner ist vor allem von der Graka her zu schwach.
Mainboard: Asus P8B-75M LE
Core (TM)I5 - 2500K 3,3 Ghz
Arbeitsspeicher DDR3 8GB
SSD 256 GB
HDD 500GB
Das Netzteil müsste 750W Leistung aufweisen.
Graphikkarte: Nvidia Geforce 560

Nach einiger Recherche im Netz hat mir ein Händler folgendes Angebot gemacht:

Ich arbeite mit Magix Video de Luxe/ Powerdirector 16/Corel Video Studio 2018
Die Frage stellt sich mir ebenfalls, ob AMD mit Ihren Ryzen Prozessoren eine vernünftige Alternative sind.
Welche Erfahrungen habt Ihr gemacht? Wozu könnt Ihr mir raten?

Gruß

krokus

Space


Antwort von Jost:

AMD ist keine so gute Alternative. Deine Programme setzen alle auf Intel Quick Sync. Das ist die Hardware-Beschleunigung für das De- und Encodieren. Quick Sync bietet ausschließlich Intel.


zum Bild


Die Probleme beim Schnitt liegen vorrangig übrigens nicht an der Graka, sondern am Prozessor. Dort ist eine Intel HD-Grafik 3000 verbaut. Die hat zwar Quick Sync, aber in einer alten Version. Die kann erst FullHD, aber nicht 4K.

Space


Antwort von krokus:

Die Probleme beim Schnitt liegen vorrangig übrigens nicht an der Graka, sondern am Prozessor. Dort ist eine Intel HD-Grafik 3000 verbaut. Die hat zwar Quick Sync, aber in einer alten Version. Die kann erst FullHD, aber nicht 4K.

Das die CPU sich schwer tut hatte ich mir gedacht. Aktuell bin ich jetzt gerade mehrere Clips die ich in 4K Auflösung gefilmt habe mit Z.B. Titel, Effekten ect. in der Produktion als Ausgangsmaterial 3840x2160 mp4 am rendern. Schnittprogramm Powerdirector. Natürlich tut der Prozessor sich schwer aber, es funktioniert, was ich nicht gedacht hätte. Die Graka kann die Auflösung leider nicht auf meinem 4k Monitor hergeben.

Space


Antwort von krokus:

Der Prozessor braucht schon sehr lange für zu rendern. Wie beschrieben, mehrere Kurzclips mit Effekten und Titel versehen , Länge 1:20 Min. Renderzeit 17 Min.
Meint Ihr ich könnte bei der Empfehlung des Händlers (obenstehender Link) bleiben? Ist die Konfiguration für 4K Bearbeitung in Ordnung?

Gruß

krokus

Space


Antwort von Jost:

krokus hat geschrieben:
Der Prozessor braucht schon sehr lange für zu rendern. Wie beschrieben, mehrere Kurzclips mit Effekten und Titel versehen , Länge 1:20 Min. Renderzeit 17 Min.
Meint Ihr ich könnte bei der Empfehlung des Händlers (obenstehender Link) bleiben? Ist die Konfiguration für 4K Bearbeitung in Ordnung?

Gruß

krokus
Das ist jetzt ein Missverständnis:
Du hast zwei Grafikkarten in Deinem Rechner. Einmal die Nvidia, die ist in erster Linie zuständig für Effekte, Schärfe etc. Und zusätzlich die Intel HD-Grafik 3000, die sitzt im Prozessor. Die 3000 ist zuständig dafür, dass Dein Clip flüssig bearbeitet und schnell gerendert wird.
Alle Deine Programme setzen auf diese Hardwarebeschleunigung. Finden Deine Programme keine Schnittstelle in der CPU-Grafik, zum Beispiel für 4K, muss die CPU selbst rechnen. Und das dauert halt.
Mit dem 8700K erhältst Du nicht nur einen Sechskerner, sondern auch die Intel UHD-630-Grafikeinheit. https://www.notebookcheck.com/Intel-UHD ... 918.0.html

Die 630er beschleunigt nicht nur H.264, sondern auch H.265 und 10 Bit. Beim De- und Encodieren. Auf der CPU selbst liegt dann kaum Last.
Was ich vom Angebot halte: vollkommen ok. Das zentrale Element ist der 8700K. Die Grafikkarte hat zwar nur 4 GB Speicher, das reicht aber in vielen Fällen.
Übertakten kann man die CPU nicht, weil der Ben-Nevis-Kühler ziemlich auf Kante in der Kühlleistung genäht ist. Im Normalbetrieb sollte es keinerlei Probleme geben. Es wird eventuell etwas lauter.
Das Netzteil ist absoluter Standard, weder Bronze, Silber etc. Das Billigste vom Billigen, doch es tut seinen Dienst.
Das Mainboard hat keinen extraschnellen USB-3.1-2gen Anschluss. Wenn man in H.264 filmt, sind die zu übertragenden Daten-Mengen aber nicht so groß. Das lässt sich verschmerzen.

Space


Antwort von blueplanet:

...hallo Jost, in diesem Zusammenhang habe ich eine Frage an Dich.
In meinem System werkelt ein i6700K mit dem Grafik-Chipsatz Z170. Dieser unterstützt noch kein UHD-Rendering. Entsprechend geht die CPU ordentlich zur Sache.
Als Grafikkarte kommt eine NVIDIA GTX 1070 zum Einsatz. In der NVIDIA-Steuerung und im BIOS kann gewählt werden, welche Grafik die Arbeit leisten soll. Ergo entweder die vom Chipsatz oder die von der Grafikkarte oder halt beide...?!

Angenommen ich deaktiviere die Chipsatzgrafik und sage "nutze nur die GTX 1070", dann wäre doch interessant, welche der beiden Grafiklösungen die Effizientere ist?! Die von der GPU oder die des Prozessor?! Und was würde die Option "Beide" bringen?
Arbeiten sie ggf. "hintereinander" oder stehen sie in ständiger Kongruenz, sind kontraproduktiv? Kannst Du aus dieser Konstellation heraus sagen, was die beste Performance bringt? Wenn ich im Moment UHD rechne, dann hat die CPU Vollast und die GPU (NVIDIA) kommt sporatisch (wahrscheinlich je nach Effekt) dazu.
Wobei der Taskmanager die GPU (welche??) meistens viel weniger ausgelastet anzeigt (aber vielleicht meint dieser eben nur die interne Grafik) als das Tool der Grafikkarte, was genau deren Speicher, Lüfter und Voltanzeige betrifft.

LG
Jens

Space


Antwort von dienstag_01:

blueplanet hat geschrieben:
...hallo Jost, in diesem Zusammenhang habe ich eine Frage an Dich.
In meinem System werkelt ein i6700K mit dem Grafik-Chipsatz Z170. Dieser unterstützt noch kein UHD-Rendering. Entsprechend geht die CPU ordentlich zur Sache.
Als Grafikkarte kommt eine NVIDIA GTX 1070 zum Einsatz. In der NVIDIA-Steuerung und im BIOS kann gewählt werden, welche Grafik die Arbeit leisten soll. Ergo entweder die vom Chipsatz oder die von der Grafikkarte oder halt beide...?!

Angenommen ich deaktiviere die Chipsatzgrafik und sage "nutze nur die GTX 1070", dann wäre doch interessant, welche der beiden Grafiklösungen die Effizientere ist?! Die von der GPU oder die des Prozessor?! Und was würde die Option "Beide" bringen?
Arbeiten sie ggf. "hintereinander" oder stehen sie in ständiger Kongruenz, sind kontraproduktiv? Kannst Du aus dieser Konstellation heraus sagen, was die beste Performance bringt? Wenn ich im Moment UHD rechne, dann hat die CPU Vollast und die GPU (NVIDIA) kommt sporatisch (wahrscheinlich je nach Effekt) dazu.
Wobei der Taskmanager die GPU (welche??) meistens viel weniger ausgelastet anzeigt (aber vielleicht meint dieser eben nur die interne Grafik) als das Tool der Grafikkarte, was genau deren Speicher, Lüfter und Voltanzeige betrifft.

LG
Jens
Ohne Angabe der verwendeten Software ist eine Antwort sinnlos.

Aber, da es hier wahrscheinlich um Premiere geht, mal was zum Grundverständnis:
En- und Decoding übernimmt der Prozessor, Renderings (Effekte etc.) werden von der GPU (hiermit ist die separate gemeint/Cuda) unterstützt. Das ist das Prinzip, Kodierung des Videos und Berechnung (der Effekte) sind zu unterscheiden.
Seit den neuesten Versionen von Premiere unterstützt die Prozessorgrafik (bei dir übrigens nicht der Mainboardchipsatz Z170 sondern die Intel HD-Grafik 530) mit Intel Quicksync das En- und Decoding. Das gilt natürlich nur für bestimmtes Material (Codecs), also h264 plus vielleicht noch h265 (vielleicht auch noch mpeg2).
Das heißt, um eine komplette Hardwareunterstützung zu erhalten, müssen beide Grafiken ausgewählt sein.

Wie gesagt, gilt für Premiere, bei anderer Software kann das anders sein.

Space


Antwort von blueplanet:

...ja, es geht um/mit Premiere ;)) und danke für die Antwort.
Aber ist es nicht so, dass ein bestimmter Chipsatz es erst dem Prozessor ermöglicht, mit Intel Quicksync zu arbeiten?! Ergo geht mit dem Z170 alles in HD flüssig und mit Z370 dann ebenfalls in UHD?!
Das En- und Decoding (das "Ent- und Verschnüren") übernimmt letztendlich der Prozessor. Das habe ich verstanden.
Und wenn ich etwas in Premiere "rendere", dann ist nicht das "Ent- und Verschnüren" gemeint, sondern "nur" das "hübsch Einpacken mit Effekten" damit es anschließend durch den Prozessor wieder "Verschnürt" werden kann?!

D.h. ergo: ich lege etwas in h.264 in die Timeline, spiele es dort NUR ab (der Prozessor packt in Echtzeit aus) und mache sinnloserweise ;) anschließend einen neuen (unter einem andere Namen) h.264-File daraus, dann "verschnürt" es der Prozessor in windeseile alt/neu.
Was in der Regel wirklich lange dauert ist demnach das "hübsch Einpacken" durch die GPU, das Rendern an sich. Demzufolge macht es doch mehr Sinn (rein von den Renderwartezeiten her), eine starke GPU, sprich separate Grafikkarte, zu haben als einen Highend Prozessor?!
Doch was macht die GPU des Prozessors - wenn eine separate Grafikkarte vorhanden ist? Kann sie diese bis zu einem gewissen Grad ersetzen/unterstützen oder ist diese nur eine Art halbherziges "Ersatznotlaufrad"? mit der im Bedarfsfall (ohne separater GrKa) "hübsch Eingepackt" wird?

Space


Antwort von blueplanet:

...Info und zur Frage was unter Z170 + i 6700K + GTX 1070 in der Timeline unter Premiere und WIN10 geht und was eher nicht optimal:
- h.264 (HD 25/50fps, 8 und 10Bit) flüssig
- h.264 (UHD 25fps, 8 und 10Bit) flüssig
- h.264 (UHD 50fps, 8Bit) flüssig mit leicht angezogener "Handbremse"
- nach cineform gewandelt (UHD 50fps, 10Bit) flüssig mit stärker, angezogener "Handbremse" (besser vor rendern)
- h.265 (UHD 25fps, 8Bit) mit stärker, angezogener "Handbremse" (vor rendern fast zwingend nötig)
...das alles ohne jegliche Effekte, also nur die Originaldateien.

Space



Space


Antwort von dienstag_01:

blueplanet hat geschrieben:
...ja, es geht um/mit Premiere ;)) und danke für die Antwort.
Aber ist es nicht so, dass ein bestimmter Chipsatz es erst dem Prozessor ermöglicht, mit Intel Quicksync zu arbeiten?! Ergo geht mit dem Z170 alles in HD flüssig und mit Z370 dann ebenfalls in UHD?!
Das En- und Decoding (das "Ent- und Verschnüren") übernimmt letztendlich der Prozessor. Das habe ich verstanden.
Und wenn ich etwas in Premiere "rendere", dann ist nicht das "Ent- und Verschnüren" gemeint, sondern "nur" das "hübsch Einpacken mit Effekten" damit es anschließend durch den Prozessor wieder "Verschnürt" werden kann?!

D.h. ergo: ich lege etwas in h.264 in die Timeline, spiele es dort NUR ab (der Prozessor packt in Echtzeit aus) und mache sinnloserweise ;) anschließend einen neuen (unter einem andere Namen) h.264-File daraus, dann "verschnürt" es der Prozessor in windeseile alt/neu.
Was in der Regel wirklich lange dauert ist demnach das "hübsch Einpacken" durch die GPU, das Rendern an sich. Demzufolge macht es doch mehr Sinn (rein von den Renderwartezeiten her), eine starke GPU, sprich separate Grafikkarte, zu haben als einen Highend Prozessor?!
Doch was macht die GPU des Prozessors - wenn eine separate Grafikkarte vorhanden ist? Kann sie diese bis zu einem gewissen Grad ersetzen/unterstützen oder ist diese nur eine Art halbherziges "Ersatznotlaufrad"? mit der im Bedarfsfall (ohne separater GrKa) "hübsch Eingepackt" wird?
Die iGPU hat mit dem Rendern von Effekten überhaupt nichts zu tun, egal, ob eine separate GPU vorhanden ist oder nicht. Die iGPU unterstützt nur das De-/Encoding.
Ob dir die iGPU für das von dir verwendete Material und deinem Prozessor derzeit etwas nützt, sei mal dahingestellt. Allgemein gilt: Vorteil der iGPU mit Quicksync ist die hohe Effizienz (vor allem bei den noch höher komprimierten Formaten - h265), Nachteil die Beschränktheit auf bestimmte Formate.

Den Anteil des Decodings bei der Videobearbeitung sollte man nicht unterschätzen, man muss sich nur mal ins Gedächtnis rufen, wie oft über Ruckler in der Vorschau auch ohne irgendwelche Effekte geklagt wurde/wird.

Sehe gerade dein Post mit der Performance in der Timeline von Premiere.
Da spricht doch einiges für das Anschalten der iGPU.

Space


Antwort von blueplanet:

dienstag_01 hat geschrieben:
Die iGPU hat mit dem Rendern von Effekten überhaupt nichts zu tun, egal, ob eine separate GPU vorhanden ist oder nicht.
...danke! Sehr hilfreiche Aussage!

Space


Antwort von dienstag_01:

blueplanet hat geschrieben:
dienstag_01 hat geschrieben:
Die iGPU hat mit dem Rendern von Effekten überhaupt nichts zu tun, egal, ob eine separate GPU vorhanden ist oder nicht.
...danke! Sehr hilfreiche Aussage!
Ja, aber eben mit dem Abspielen der Videos auf der Timeline ;)

Space


Antwort von Jost:

blueplanet hat geschrieben:
Aber ist es nicht so, dass ein bestimmter Chipsatz es erst dem Prozessor ermöglicht, mit Intel Quicksync zu arbeiten?! Ergo geht mit dem Z170 alles in HD flüssig und mit Z370 dann ebenfalls in UHD?!
Nein, der Chipsatz stellt hier die Verbindung zum Monitor her. Z170/6700k geben 4K von Haus aus nur mit 24 Hz über HDMI 1.4 aus. Die üblichen 60 Hz bekommt man nur über Display Port dargestellt.

zum Bild


Manche Z170-Mainboards verfügen über einen Konverter, um das Display-Port-Signal in HDMI 2.0 mit 60 Hz umzuwandeln.
Wenn es seltsam aussieht, lohnt sich das Umstöpseln und möglicherweise ein Adapter auf Display Port.
Wenn der Monitor an die Grafikkarte angeschlossen sein sollte, lohnt sich der Blick in den Taskmanager, ob bei der Timeline-Wiedergabe auch die Intel-Grafik läuft. Falls nicht, läuft auch kein Quick Sync.

Der 6700K kann also UHD, sowohl h.264 als auch h.265.
H.264/5 sind jedoch auf Level 5.1 begrenzt.

zum Bild


Hier die Spezifikationen der H.265-Level

zum Bild


Hier die Spezifikationen für H.264 - in diesem Level ist UHD auf 31,7 Bilder/S begrenzt. Darum H.265 für 60p.

zum Bild


Liegt man außerhalb der Spezifikation, höherer Level zum Beispiel, Encodieren mit zu hoher Datenrate, funktioniert Quick Sync nicht mehr. Das Programm Mediainfo zeigt an, welcher Level verwendet wurde.

Space


Antwort von dienstag_01:

Welches Format Quicksync unterstützt und welches Format davon Premiere - wenn die Angaben aus dem Juni noch aktuell sind (kein h265 unter Windows 10) - können zwei Paar Schuhe sein.

Space


Antwort von Jost:

dienstag_01 hat geschrieben:
Welches Format Quicksync unterstützt und welches Format davon Premiere - wenn die Angaben aus dem Juni noch aktuell sind (kein h265 unter Windows 10) - können zwei Paar Schuhe sein.
Stimmt natürlich. Premiere gehört - Davinci Resolve kennt kein Quick Sync - nicht zu den Programmen, die laut Intel für Quick Sync optimiert sind. Darum sind bei den üblichen Rendertests Programme wie Edius oder der Powerdirektor in der Regel auch schneller. Premiere kann man zurzeit offenbar nur mit dem Voukoder-Plugin zur Nutzung von NVEnc oder FFmpeg zum Ausrendern in H.265 zwingen.

Space


Antwort von Jost:

Jost hat geschrieben:
dienstag_01 hat geschrieben:
Welches Format Quicksync unterstützt und welches Format davon Premiere - wenn die Angaben aus dem Juni noch aktuell sind (kein h265 unter Windows 10) - können zwei Paar Schuhe sein.
Stimmt natürlich. Premiere gehört - Davinci Resolve erst recht nicht - nicht zu den Programmen, die laut Intel für Quick Sync optimiert sind. Darum sind bei den üblichen Rendertests Programme wie Edius oder der Powerdirektor in der Regel auch schneller. Premiere kann man zurzeit offenbar nur mit einem Plugin zur Nutzung von NVEng zum Ausrendern in H.265 zwingen.


Space


Antwort von blueplanet:

...danke an Euch - aber ich jetzt auf dem "Wissend-Schlauch".
Weshalb sollte ich denn den Monitor an die interne Grafik über HDMI hängen? Mein Monitor kann im Übrigen max. 2560x1600 Pixel + 96% RGB, ist also kein 4K und nicht einmal ein UHD-Monitor (was ich für die Arbeit momentan auch nicht vermisse, da ich ohnehin nur in HD ausgebe und das auch auf einem FHD-Bildschirm dann schaue). Das aber nur nebenbei.

Ergo habe ich den Monitor seit Rechnergedenken ;) immer an der Grafikkarte per Display-Port (60Hz) hängen und bisher war die Welt somit in Ordnung.
Wenn ich den Taskmanager während der Timeline starte, sehe ich ergo(?) nur die Auslastung der GTX 1070. Die liegt dann mit Originalmaterial bei ca. 4% Auslastung und der Prozessor bei 12%. Beginne ich zu rendern, geht die Last beim Prozessor gen 100% und die GPU der Grafikkarte, je nach Effekten, bis über 50%. Und was sagt das jetzt? ;))
Ich sagte, dass ich mit dieser Rechnerkonstallation unter Premiere und UHD sowohl mit h.264 als auch h.265 arbeiten kann. Halt mal mehr oder weniger "flüssig".
Was bedeuten denn diese Levelbegrenzungen (5,1) im praktischen Betrieb bzw. beim Export? Und haben neuere Prozessoren z.B. der 8700K in Verbindung mit dem Chipsatz Z370 diese Beschränkung nicht mehr. Bzw. wird das wirklich erst relevant, wenn ich z.b. als UHD/50fps exportieren möchte? (PS.: ja, stimmt, laut Tabelle ab Level 5.2 ;)

LG
Jens

Space


Antwort von Jost:

blueplanet hat geschrieben:
Was bedeuten denn diese Levelbegrenzungen (5,1) im praktischen Betrieb bzw. beim Export? Und haben neuere Prozessoren z.B. der 8700K in Verbindung mit dem Chipsatz Z370 diese Beschränkung nicht mehr. Bzw. wird das wirklich erst relevant, wenn ich z.b. als UHD/50fps exportieren möchte? (PS.: ja, stimmt, laut Tabelle ab Level 5.2 ;)
Von der 530er (6700K) zur 630er (8700K) hat sich nicht viel getan.

zum Bild

VP9 kann jetzt auch in Hardware de- und encodiert werden.
Außerdem kann die 630er mittlerweile H.265 auch mit 10 Bit. Das ging mit der 530er nicht. Die konnte nur H.265/8 Bit mit Quick Sync.


Mehr geht zurzeit unter Quick Sync nicht.
Entweder man bleibt innerhalb der Spezifikationen und kann das schnelle Quick Sync nutzen, oder man lässt den Sechskerner rechnen.

UHD ist unter Level 5.1 (H.265) bis 64 Bilder/s spezifiziert. Aber Du könntest nur maximal bis 40 Mbit/s encodieren, wenn eine Unterstützung per Quicksync erfolgen soll. Anderenfalls rechnet der Sechskerner.

Teste noch mal die Intel-Grafik im Taskmanager, zumeist befindet sie sich ganz unten und man muss etwas runterscrollen. Beim Rendern in H.264 sollte sie die CPU eigentlich vom Encodieren entlasten. Es sollte dann beim Rendern Last anliegen.
Möglicherweise musst Du dazu den Monitor an das Mainboard anschließen.

Space



Space


Antwort von blueplanet:

...danke Jost! Ganz Unten im Taskmanager steht bei mir, wie gesagt, nur die GTX-GraKa (weshalb auch immer?!).
Ich werde jedoch testen und den Monitor per HDMI an das board hängen. Dann sollte die iGPU zu sehen sein und mal schauen was diese zur Timeline sagt.

Wenn ich Dich/Euch richtig verstanden habe, dann geht es bei der ganzen Diskussion: chipsatz Z170, Z370 oder etc. eigentlich nur darum, bis zu welchem Maß Quick Sync aktiv "mitarbeitet"?! Es hat keinen Einfluss darauf ob grundsätlich ein Ergebnis erzielt werden kann oder nicht?! Halt zeit-und rechenaufwendig! Und hatte Quick Sync in der Vergangenheit nicht mal ein Qualitäts-Problem?! ;)) Das die fertige Renderdatei nicht annähernd so gut aussah wie wenn nur der Prozessor "verpackt" hatte?! Alles schick jetzt?

Somit ist Quick Sync in Abhängigkeit vom Chipsatz + Prozessor "nur" dafür da, 1. das Signal per HDMI in hoher Auflösung an den Monitor geben zu können (wer braucht das, wenn es per Display Port über die GraKa ebenso geht - wohl dann eher für mobile Geräte wichtig) und 2. erleichtert Quick Sync dem Prozessor das "Aus- und Einpacken" (abhängig von bestimmten Codecs) und damit wird die Vorschau in der Timeline natürlich verbessert. Ein potenter 8 Kerner oder eine doppelte CPU könnte das vielleicht trotzdem besser/flüssiger?! Und das eigentliche Rendern, also der rechenintensive und zeitaufwendige Prozess bleibt bei der GPU der GraKa?! So ist, wäre auch meine praktische Erfahrung bzw. Wahrnehmung.

Jetzt habe ich keinen direkten Vergleich zwischen beispielsweise diesen beiden Chipsätzen und man sollte wohl auch keinen 4 Kerner (6700K) und einen 6 Kerner(8700) in einen Vergleichstopf werfen, aber ich denke mal, begründet mit den Erkenntnissen der Upgradegeschichten aus der Vergangenheit, dass auf der Timeline mit einem Z370 + i8700K keine Wunder geschehen und vorallem das diverse benchmarks eher theoretisches Wunschdenken bleiben und wenig mit dem tatsächlichen Schnitt-Bearbeitungsalltag zu tun haben?!

Was ich jedoch unterschreiben kann, ist, dass ein upgrade von 32GB Arbeitsspeicher auf 64GB + schnelleren Arbeitsspeicher, ganz unabhängig vom Chipsatz und dem Prozessor, die Berechnung von bestimmten Anwendungen (z.B. neat) um gefühlt und praktisch Lichtjahre erleichtert.
Dass das System damit wesentlich stabiler läuft. Hier steht z.B. die Ausage von Adobe, dass unter Windows 16GB Arbeitsspeicher vollkommen ausreichen...irgendwie "sinnlos" im Raum und es fehlt der wichtige Nachsatz: unter bestimmten Konstellationen ;))

Insofern und um auf den OT zurück zukommen, finde ich es unumgänglich im Vorfeld genau zu wissen und anzugeben (u.a. Bearbeitungsprogramm), was man mit der Rechnerkonstallation machen möchte...

LG
Jens

Space


Antwort von Roland Schulz:

Also mit dem 6700K hatte ich in EDIUS mit UHD 50p, besonders mit HEVC Dateien Performanceprobleme, neu kaufen würde ich sowas heute nicht mehr. 10bit HEVC aus ner Mavic 2 Pro z.B. geht damit auch nicht, 50p HEVC aus ner GoPro H6/7 ist auch schwierig.
Denke der 8700K ist nach wie vor ne gute Wahl, auch wenn das Ding wieder teurer geworden ist. Bin aktuell mit nem 9900K unterwegs und da sich die Verfügbarkeit und der Preis bei ~600€ eingependelt hat sind die 33% mehr Kerne und teilweise bis zu 50% mehr Performance gar nicht wirklich überteuert finde ich. Der 8700K war allerdings mal für ~280€ zu haben.

Problem ist beim 9900K aktuell nur dass Intel bei den Treibern hinterherhinkt, denn selbst wenn die gleiche Grafik drin steckt lassen sich die aktuellen Inteltreiber nicht über den Installer installieren. Stehe da im Kontakt mit Intel, gerührt hat sich aber seit Wochen nix, auch das Update hilft nicht. Als Alternative bleibt aber ein in meinem Fall funktionierender Treiber von ASUS oder den Intel Treiber manuell aus der .zip Version zu installieren was auch keine Raketenwissenschaft ist.
Weiterhin stelle ich fest, dass QuickSync so wie aktuell per Treiber dargestellt nicht mit gespiegeltem Desktop funktioniert (nVidia und Intel am Monitor, nVidia aufgeschaltet und Desktop auf beide GPUs gespiegelt), das ging mit dem 8700K in der gleichen Plattform/Installation noch. Ich muss aktuell die iGPU als primäre GPU nutzen um QuickSync nutzen zu können, in EDIUS wie in Handbrake.
iGPU ist bei der 8700K und 9900K identisch, da gewinnt man nix.
Bei mir ist das auch alles nur an nem 2.5K Monitor im Einsatz, Videovorschau "nur" in 2K/50p über ne BMD IP4K. Keine Ahnung wie sich die iGPU an nem 4K Display verhält. 10bit kriege ich an nem CG277 trotz DP auch nicht zum laufen, mit der nVidia schon. 10bit sind da für mich aber eher sekundär, die IP4K kann 10bit für Video.



Das oben genannte Angebot finde ich allerdings auch gar nicht schlecht. Zwar nicht genau geguckt was drin ist, aber viel billiger kriegt man das durch Eigenbau auch kaum hin, dann allerdings so wie man"s haben will.

Wenn man nen paar Euros sparen will würde ich auch die 32GB Ram verzichten. Hab zwar selbst 32GB drin, stelle aber fest dass ich bei der Arbeit mit EDIUS kaum 16GB ausnutze. Die Frage ist auch ob man zwingend ne nVidia Karte dazu braucht bei den geplanten Anwendungen. Bei mir machts hier und da Sinn da die primäre Farbkorrektur in EDIUS die nVidia schon nutzt (GTX1070), "wenn" ich mal NEAT Video nutze ist das Ding auf jeden Fall auch sinnvoll. Nen Freund kommt mit nem 8700K in EDIUS aber auch sehr gut ohne weitere Grafikkarte aus, da auch mit 16GB.

Space


Antwort von Jörg:

blueplanet schreibt
Hier steht z.B. die Ausage von Adobe, dass unter Windows 16GB Arbeitsspeicher vollkommen ausreichen...irgendwie "sinnlos" im Raum und es fehlt der wichtige Nachsatz: unter bestimmten Konstellationen ;)) keine Ahnung von welchen Konstellationen Adobe bei diesen, offenbar "Minimumspecs" ausgeht;-(((
Ist hier genau andersrum.
bei intensiver Nutzung von AE sind selbst bei Vollausbau des RAM mit 144 G keinerlei overtuned feelings spürbar, ganz im Gegenteil.
Für Premiere, ohne solch Resourcefresser wie Neat, sind 32 G RAM meist ausreichend.

Space


Antwort von blueplanet:

...das Angebot des Händlers finde ich grundsätzlich ebenfalls gut.
Ich würde lediglich in Anbetracht der vorangegangen Diskussion (Stichpunkt: Renderarbeit) und im Falle des Fragestellers noch 'ne Schippe bei der Grafikkarte zulegen. Sprich eine GTX1070 (4GB GPU vs. 8GB GPU).
Über den Arbeitspeicher kann man sich streiten, was sinnvoll ist und was nicht. Ist wahrscheinlich auch schnittsoftwareabhängig bzw. den verwendeten Plugins geschuldet. Richtig ärgerlich, gerade bei den heutigen Preisen für DDR4-Speicher wäre, wenn man den 32GB doch gegen 64GB dann tauschen möchte. Für die "alten" 32GB bekommste bei ebay & Co noch einen "Apfel und ein Ei" bzw. da man immer im Kit tauschen sollte, bist'e beim Neuen locker mit 700€ dabei. Auch hier wäre also ein Aufpreis zu überlegen. Wenn Du für ca. 2000€ einen selbst zusammengestellten und auf deine Bedürfnisse optimierten Schnitt-PC bekommst, ist das aus meiner Sicht nicht zu viel.
Insofern ginge noch etwas mit diesem Angebot...

Space


Antwort von Jost:

blueplanet hat geschrieben:
Wenn ich Dich/Euch richtig verstanden habe, dann geht es bei der ganzen Diskussion: chipsatz Z170, Z370 oder etc. eigentlich nur darum, bis zu welchem Maß Quick Sync aktiv "mitarbeitet"?!
Nein, ob das Motherboard über einen Z-, B- oder H-Chipsatz verfügt, hat keinerlei Einfluss auf Quick Sync. Keinen. Der Chipsatz stellt lediglich die Schnittstelle zur CPU und seiner Grafikeinheit her. Der Chipsatz hat keinerlei Einfluss auf die Güte von Quick Sync.
Chipsätze sind definiert, was zum Beispiel Übertaktungsmöglichkeiten oder Komfort-Merkmale wie die Verteilung der PCI-Lanes angeht. Wenn Du kein Übertakten planst, kannst Du jeden beliebigen Chipsatz einer Mainboard-Reihe verwenden, ohne nennenswerte Veränderungen bei Stromverbrauch und Leistung festzustellen.
Technisch heben sich Z-Mainboards dadurch hervor, das bessere Bauteile verwendet werden, die den Ansprüchen einer Übertaktung genügen.

Es hat keinen Einfluss darauf ob grundsätlich ein Ergebnis erzielt werden kann oder nicht?! Halt zeit-und rechenaufwendig! Und hatte Quick Sync in der Vergangenheit nicht mal ein Qualitäts-Problem?! ;)) Das die fertige Renderdatei nicht annähernd so gut aussah wie wenn nur der Prozessor "verpackt" hatte?! Alles schick jetzt? Nach meinen Tests - nein. Intel verbessert Quick Sync zwar mit jeder neuen Prozessorgeneration. Geblieben ist jedoch, dass am Ende Dateien in H.264/5 stehen. Das machen nahezu alle Programme so. Auch Davinci Resolve, das keine Quick-Sync-Unterstützung kennt.
Das Wandeln in einen Zwischencodec und Ausrendern in X.264/5 sorgt bei mir für ein sichtbar besseres Ergebnis, als das Ausrendern in H.264 (H.265 kann Davinci nicht ausgeben).
Ein potenter 8 Kerner oder eine doppelte CPU könnte das vielleicht trotzdem besser/flüssiger?! Und das eigentliche Rendern, also der rechenintensive und zeitaufwendige Prozess bleibt bei der GPU der GraKa?! So ist, wäre auch meine praktische Erfahrung bzw. Wahrnehmung. Premiere ist kein ausgesprochenes Quick-Sync-Programm. Das ist bei Magix und Powerdirector anders. User, die auf einen AMD-Achtkerner gesetzt haben, weil er viele Kerne hat und schön billig ist, sind nur am Fluchen. AMD bietet zwar eine mit Quick Sync vergleichbare Technologie an, die wird von den Schnittprogrammen aber nicht unterstützt. Zudem haben die AMD-Achtkerner überhaupt keine Grafikeinheit.
Wie es um Intel-Achtkerner mit Quick Sync und EDIUS bestellt ist, hat Roland oben ja schon eindrucksvoll beschrieben.

Aber Fakt ist auch: Das Ausrendern in X.265, kein Quick Sync, ist eine elend langsame Sache. Mit meinem 6700K liege ich bei rund 1,2 Bilder die Sekunde. Von 4,6K DNxHR SQ runterskalieren auf UHD X.265 8 Bit funktioniert mit 0,8 Bildern die Sekunde.
Noch schlimmer wird es bei VP9. Der 10-Sekunden-Testclip war in XMedia Recode nach 2:28 Stunden fertig.

Abhilfe schafft NVEnc. Das Wandeln wird einer Nvidia-Grafikkarte überlassen. Die 10er Serie kann H.265 und 10 Bit, aber nur 4:2:0.
Das geht wirklich rasend schnell. Getestet hatte ich mit einer 980er, die nur H.264 kann. Das Ergebnis hat mir dennoch besser gefallen als das H.264, das direkt aus Davinci kam. Gewandelt hatte ich in Hybrid, das die Einstellung "Quality" anbietet. Handbrake kann das auch. Einstellmöglichkeiten habe ich dort aber keine gefunden.

Du kannst ja mal testen. Das kostenlose Premiere-Plugin Voukoder bietet zum Ausrendern NVEnc und auch X.264/5 an.

Dazu heißt es:

NVENC
Q: I do not see any NVENC encoders in the dropdown, what's wrong?
A: There can be many reasons for this.

You need to have an NVENC compatible graphics card.
You need to have at least one encoder session available. In my case Premiere CC 2017 used all encoder sessions for itself, so CC 2017 did not work. Please use the latest CC 2018 version. CS6 did work, tho!
Close all other software using NVENC (i.e. OBS)
Q: How can see the encoding sessions overview?
A: Open a command prompt and type:
cd "c:\Program Files\NVIDIA Corporation\NVSMI"
nvidia-smi.exe encodersessions

Space


Antwort von dienstag_01:

Der Export von Videodateien hat für verschiedene Nutzer unterschiedliche Bedeutung, der eine arbeitet nicht zeitkritisch, der andere aber schon.

Worüber man weniger streiten kann, ist das hier: ...Info und zur Frage was unter Z170 + i 6700K + GTX 1070 in der Timeline unter Premiere und WIN10 geht und was eher nicht optimal:
- h.264 (HD 25/50fps, 8 und 10Bit) flüssig
- h.264 (UHD 25fps, 8 und 10Bit) flüssig
- h.264 (UHD 50fps, 8Bit) flüssig mit leicht angezogener "Handbremse"
- nach cineform gewandelt (UHD 50fps, 10Bit) flüssig mit stärker, angezogener "Handbremse" (besser vor rendern)
- h.265 (UHD 25fps, 8Bit) mit stärker, angezogener "Handbremse" (vor rendern fast zwingend nötig)
...das alles ohne jegliche Effekte, also nur die Originaldateien. Falls mit *angezogener Handbremse* ruckeln gemeint ist (???), dann gibt es nur zwei Möglichkeiten dem abzuhelfen. Entweder braucht man einen besserer Prozessor oder aber Quicksync bringt die benötigte Performance.
Danach kann man dann überlegen, wie und mit was man rendert ;)

Space


Antwort von Roland Schulz:

Also die Qualität die QuickSync am Ende erreicht ist wie Jost korrekt schreibt zum einen von der CPU/iGPU abhängig. Einen Qualitätindikator gibt"s da seitens Intel nicht, hatte bisher aber den 3770K, 4770K, 6700K, 8700K und jetzt den 9900K jeweils mit EDIUS im Einsatz. Wie erwähnt tut sich zwischen 8700K und 9900K nichts (gleiche GPU), die Generationen davor hatten aber immer eine jeweils schlechtere Performance (Geschwindigkeit, Fähigkeiten und auch Bildqualität).

Weiterhin habe ich festgestellt dass die Qualität sehr stark von der verwendeten Software abhängt, angeblich auch vom verwendeten Treiber denn Intel schreibt oft in die Release Notes dass die QuickSync Bildqualität verbessert wurde.

Das allermeiste mache ich aus EDIUS und da ist die Ausgabequalität bei Bitraten um die 70-100Mbps besonders bei HEVC10 wirklich sehr gut! Da muss man mit x265 schon irre lange rechnen um da dran zu kommen und selbst dann gibt"s bei Standbildvergleichen aus Bewegtszenen nicht unbedingt einen Vorteil für x265.
x264 würde ich als etwas besser ansehen als das was QuickSync da leistet, mit x264 verliere ich aber die 10bit Kompatiblität für die Endausgabe bzw. ist kein Player damit wirklich kompatibel, noch nicht mal ne GTX1060 mit MPC-HC gibt H.264 UHD 50p 10bit vernünftig wieder, HEVC10 UHD in 50p schaffen dagegen bereits die meisten 4K Mediaplayer (z.B. Zidoo X9s/Z9s für "kleines" Geld).

Jetzt ist mir allerdings was aufgefallen. Ich habe es mit bisher keiner Parametrierung geschafft aus Handbrake oder FFMPEG die gleiche Qualität über QuickSync rauszukriegen wie aus EDIUS. GV arbeitet hier nach Feedback von MMM auch sehr eng mit Intel zusammen, auch die Handbrake Implementierung konnte nur durch Zusammenarbeit mit Intel entstehen wobei"s da trotzdem krankt. Zu den anderen Softwareanbietern kann ich nichts sagen.

Auch der nvenc meiner GTX1070 liefert aus FFMPEG eine eher durchschnittliche Qualität in HEVC10, auf jeden Fall deutlich schlechter als QuickSync aus EDIUS.
In CloneBD (ja, das ist "solo" legal!!) schafft nvenc dagegen mit leider stark begrenzter max. Bitrate (~13,5Mbps) eine unglaubliche Geschwindigkeit (FHD HEVC bis ~300fps) und für die Datenrate trotzdem sehr gute (!!!) Qualität. Keine Ahnung wovon das jeweils alles abhängt.


Wenn die Anwendung mitspielt kann ich QuickSync weiterhin nur empfehlen, ich will gar nichts anderes haben denn selbst der 8+8 Kerner 9900K tut sich ohne QuickSync in EDIUS mit Mavic 2 Pro HEVC bzw. Hero 6/7 50p UHD HEVC schwer - mit QuickSync (Monitor dran) läuft das!

"Meine" Empfehlung für die Anwendungen oben also min. 8700K und wenn nen Euro übrig ist den 9900K (der 8700K ist einfach wieder "teuer2 geworden).
Wer wirklich hinterher kleine (-Bitrate), hochqualitative Dateien mit x264 generieren will (bei kleinen Datenraten/H.264 ist x264 einfach immer noch sichtbar besser) gewinnt mit dem 9900K sagen wir mal je nach Setting ~40-50% gegenüber dem 8700K.
Wenn man übertakten will gewinnt der 9900K zudem durch den verlöteten Heatspreader (läuft bei mir mit allen Kernen auf 5.0GHz, allerdings ist auch ne alphacool Hurricane Wasserkühlung mit 280er Radiator verbaut).



Wenn man allerdings primär Anwendungen nutzt die auch eine Grafikkarte stark einbinden (Premiere, Resolve) kann das sicherlich auch alles anders sein (hab da aber eher wenig Erfahrung). Für (mein) EDIUS ist QuickSync fast Pflicht, und gegen nen 9900K muss man schon ordentliche andere Prozessoren auffahren dass es wirklich noch mal signifikant schneller wird.

Space


Antwort von Roland Schulz:

dienstag_01 hat geschrieben:
Falls mit *angezogener Handbremse* ruckeln gemeint ist (???), dann gibt es nur zwei Möglichkeiten dem abzuhelfen. Entweder braucht man einen besserer Prozessor oder aber Quicksync bringt die benötigte Performance.
Danach kann man dann überlegen, wie und mit was man rendert ;)
Ist das in Premiere nicht auch codecabhängig? Mache so gut wie nix mit dem verbuggten Scheiss (wegduck ;-) ), aber ich meine dass die Grafikkarte da schon ordentlich eingebunden wird, bei Resolve auf jeden Fall auch.

Space


Antwort von dienstag_01:

"Roland Schulz" hat geschrieben:
dienstag_01 hat geschrieben:
Falls mit *angezogener Handbremse* ruckeln gemeint ist (???), dann gibt es nur zwei Möglichkeiten dem abzuhelfen. Entweder braucht man einen besserer Prozessor oder aber Quicksync bringt die benötigte Performance.
Danach kann man dann überlegen, wie und mit was man rendert ;)
Ist das in Premiere nicht auch codecabhängig? Mache so gut wie nix mit dem verbuggten Scheiss (wegduck ;-) ), aber ich meine dass die Grafikkarte da schon ordentlich eingebunden wird, bei Resolve auf jeden Fall auch.
Natürlich codecabhängig, die stehen ja auch im Post (Cineform lasse ich mal aussen vor, verstehe ich sowieso nicht)
Inwieweit die GPU bei Premiere für De-/Encoding mit eingebunden ist, bleibt bisher eher Spekulation. Und um mit einem GPU-Upgrade ruckelndes Material in der Timeline abzustellen, müsste nicht nur die Frage: *Ob überhaupt*, sondern auch: *Wie viel genau es bringt* beantwortet werden.

Space



Space


Antwort von Jost:

dienstag_01 hat geschrieben:
Ist das in Premiere nicht auch codecabhängig? Mache so gut wie nix mit dem verbuggten Scheiss (wegduck ;-) ), aber ich meine dass die Grafikkarte da schon ordentlich eingebunden wird, bei Resolve auf jeden Fall auch.
Codec ist auch nicht alles. Lass unter Davinci mal einen Fusion-3D-Title auf die Timeline plumpsen. Du schnarchst weg, bis der endlich vorgerendert ist. Es heißt ja immer, dafür sei die Grafikkarte zuständig:

zum Bild

Zumindest wird es langsam besser. In der 15-Beta-Version lag die GPU-Auslastung noch bei 17 Prozent und die der CPU bei 100 Prozent.
Wo jetzt hier aber genau der Flaschenhals liegt, damit es flotter funktioniert, habe ich bislang noch nicht gefunden.

Space


Antwort von dienstag_01:

Es heißt ja immer, dafür sei die Grafikkarte zuständig Wer sagt das, der Volksmund?

Space


Antwort von Jost:

dienstag_01 hat geschrieben:
Es heißt ja immer, dafür sei die Grafikkarte zuständig
Wer sagt das, der Volksmund? Ja: Effekte = Grafikkarte

Space


Antwort von dienstag_01:

Jost hat geschrieben:
dienstag_01 hat geschrieben:

Wer sagt das, der Volksmund?
Ja: Effekte = Grafikkarte
Falsch. Richtig ist: ausgewählte Effekte (sind gekennzeichnet) = Grafikkarte

Space


Antwort von blueplanet:

...mit "Handbremse" meine ich tatsächlich "das berüchtigte Ruckeln". Und ich kann auch nicht nachvollziehen, dass in diversen Test behauptet wird:"...Premiere läuft flüssig auf mindestens 7...Spuren". Das heißt nämlich für einen nicht Premiere-Kenner - es läuft immer flüssig bis...!
Nein, tut es nicht...selten mal in zwei Spuren und dann wieder nicht auf einen längeren Zeitraum bzw. ist es total abhängig von der Größe des Projekts, von den involvierten Codecs, von der Framezahl und natürlich der Pixelabmessung. Das war und ist in all meinen Rechnergernerationen so und Verbesserungen wurden wahrscheinlich mit der sich gleichzeitig, stetig erhöhenden Anforderung an die Hardware, sofort wieder "aufgefressen".

Das die Grafikkarte bzw. der GPU hauptsächlich für das Rendern zuständig ist (siehe auch meine vorherigen Ausführungen) und von Premiere dafür "aufgefordert" wird, stimmt im Prinzip. Aber...das trifft nur auf Veränderungen gegenüber dem Originalmaterial zu (ergo Effekte).
Spiele ich den Originalfile 1:1 zurück, habe ich auf meinem System nur Prozessorlast und keine GPU-Auslastung seitens der dezentralen Grafik. Somit wird, ist wohl bestätigt, dass die Grafikkarte kein De- und Encodieren im eigentlichen Sinne übernimmt.

Trotzdem und ich bleibe dabei - gerade für eine schnelle Rendergeschwindigkeit ist eine gute Grafikkarte wichtiger als ein Highend-Prozessor (im Universum WIN + Premiere + h.264/5).
Dieser wiederum kommt für die flüssige Wiedergabe in der Timeline zum tragen. Und mit dem i6700 + dem Z170 (denn ein Z170 kann keinen I8700 ordungsgemäß ansteuern, wohl aber ein Z370 ;) ist das z.B. mit h.265-Material aus der H6 oder der Mavic, ohne vorheriges Rendern oder Convertieren nach u.a. cineform, kaum möglich.

Frage...ist es mit einem i8700 + Z370 ohne Rendern möglich?
Das dabei jedoch noch weitere Komponenten (div. Cache?) hineinspielen (müssen) zeigt auch der Umstand...das es nicht generell immer und jeder Zeit "ruckelt". Springe ich z.B. in der Timeline nocheinmal zum Anfang des Clips, kann es sein, dass dieser im zweiten Anlauf (bei voller CPU-Auslastung) völlig flüssig eine Minute läuft und sich erst dann erneut "fest rennt"...

Space


Antwort von Jost:

"Roland Schulz" hat geschrieben:
In CloneBD (ja, das ist "solo" legal!!) schafft nvenc dagegen mit leider stark begrenzter max. Bitrate (~13,5Mbps) eine unglaubliche Geschwindigkeit (FHD HEVC bis ~300fps) und für die Datenrate trotzdem sehr gute (!!!) Qualität. Keine Ahnung wovon das jeweils alles abhängt.
Womit hast Du CloneBD gefüttert? DNxHR-Dateien werden nicht erkannt.

Space


Antwort von dienstag_01:

blueplanet hat geschrieben:
...mit "Handbremse" meine ich tatsächlich "das berüchtigte Ruckeln". Und ich kann auch nicht nachvollziehen, dass in diversen Test behauptet wird:"...Premiere läuft flüssig auf mindestens 7...Spuren". Das heißt nämlich für einen nicht Premiere-Kenner - es läuft immer flüssig bis...!
Nein, tut es nicht...selten mal in zwei Spuren und dann wieder nicht auf einen längeren Zeitraum bzw. ist es total abhängig von der Größe des Projekts, von den involvierten Codecs, von der Framezahl und natürlich der Pixelabmessung. Das war und ist in all meinen Rechnergernerationen so und Verbesserungen wurden wahrscheinlich mit der sich gleichzeitig, stetig erhöhenden Anforderung an die Hardware, sofort wieder "aufgefressen".

Das die Grafikkarte bzw. der GPU hauptsächlich für das Rendern zuständig ist (siehe auch meine vorherigen Ausführungen) und von Premiere dafür "aufgefordert" wird, stimmt im Prinzip. Aber...das trifft nur auf Veränderungen gegenüber dem Originalmaterial zu (ergo Effekte).
Spiele ich den Originalfile 1:1 zurück, habe ich auf meinem System nur Prozessorlast und keine GPU-Auslastung seitens der dezentralen Grafik. Somit wird, ist wohl bestätigt, dass die Grafikkarte kein De- und Encodieren im eigentlichen Sinne übernimmt.

Trotzdem und ich bleibe dabei - gerade für eine schnelle Rendergeschwindigkeit ist eine gute Grafikkarte wichtiger als ein Highend-Prozessor (im Universum WIN + Premiere + h.264/5).
Dieser wiederum kommt für die flüssige Wiedergabe in der Timeline zum tragen. Und mit dem i6700 + dem Z170 (denn ein Z170 kann keinen I8700 ordungsmeäß ansteuern, wohl aber ein Z370 ;) ist das z.B. mit h.265-Material aus der H6 oder der Mavic ohne vorheriges Rendern oder Convertieren, nach u.a. cineform, kaum möglich.

Frage...ist es mit einem i8700 + Z370 ohne Rendern möglich?
Das dabei jedoch noch weitere Komponenten (div. Cache?) hineinspielen (müssen) zeigt auch der Umstand...das es nicht generell immer und jeder Zeit "ruckelt". Springe ich z.B. in der Timeline nocheinmal zum Anfang des Clips, kann es sein, dass dieser im zweiten Anlauf (bei voller CPU-Auslastung) völlig flüssig eine Minute läuft und sich erst dann erneut "fest rennt"...
Nochmal, dir ist zu empfehlen, Quicksync zu testen (iGPU ein, Häkchen bei Decoding in Premiere setzen).

Space


Antwort von blueplanet:

dienstag_01 hat geschrieben:
Nochmal, dir ist zu empfehlen, Quicksync zu testen (iGPU ein, Häkchen bei Decoding in Premiere setzen).
...also Häkchen bei "Hardwarebeschleunigter Decodierung aktivieren"?! Ist bei mir gesetzt (kommt ja standartmäßig mit der Installation). Aber jetzt kommt irgendwie die alte Diskussion über die nebulöse Qualität von Quick Sync wieder hoch, die wir schon vor Jahren führten. Bereits damals ging es um Quantität vs. Qualität. Vielleicht sollte man Quick Sync doch lieber temporär nutzen und schon gar nicht für die finale Ausgabe?!

Space


Antwort von Jörg:

Bei solchen Diskussionen über Premiere stehe ich immer etwas hilflos vor dem Geschriebenen.
Wo ist das Problem?
ist mir doch vollkommen egal, ob nun ne schnelle Grafikeinheit meine Arbeit beschleunigt, oder eine starke CPU in Verbindung mit RAM.
ich habe halt beides im Rechner.
Und wenn ich meine, jetzt auch noch 12K waswweißichdenn bearbeiten zu müssen, ja meine Güte, dann rechne ich halt proxies, notfalls in DV Auflösung, wenn mein Rechner nix anderes packt.
Meine Kiste rechnet 4K 25p DNxHD in drittelrealtime raus, das anschließende H264 in 75% RT, ganz ohne quickbums oder sonstwelchen Firlefanz.
Wenn der Rechner anständig konfiguriert ist, die scratchdisks sauber eingebunden, das Material ohne Flaschenhals transportiert wird, dann ruckelt hier auch nix.
Wenn ich natürlich Neat und einige andere feine Fresser wie Magic bullet Späße, unendliche timeramps und sechs PiPs auf 7 Spuren verteile, naja... wenn dann die Maschine auch noch unter 2000€ kosten"darf" ist es einfach über ein NLE zu lästern,
das dann ruckelnde timelines bereit hält.

Space



Space


Antwort von blueplanet:

...es gab Zeiten, da hast du in die Timeline von Premiere einen DV-File gelegt und weder ein roter noch gelber, nicht einmal ein grünen Balken war'd oberhalb des Fensters gesehen. No render, no ruckeln...
Das gibt es schon lange nicht mehr. Nur wird in Zeiten von HD und 4K so getestet als ob das nicht stimmt ;)

Das Problem ist die kaum noch Durchschaubarkeit des Ganzen. Das nur im Ansatz verstehen, was hinter den Kulissen läuft. Und so wird viel Geld generiert, ausgegeben ohne jemals einen "farblosen Balken" wieder zu bekommen.
Das ist vielleicht nicht schlimm, wie Du richtig fest stellst, aber ärgerlich bleibt es, denn kaum einer kommuniziert die Wahrheit bzw. stellt dich gar als unfähigen Anwender hin.
Die Welt ist komplizierter geworden, die Technikwelt um Einiges mehr...

Lasst uns ruckeln ;))
Ende der Durchsage - für mich.

LG und ein schönes WE
Jens

Space


Antwort von Alf_300:

UnKomplizierter wird es wenn man sich für das Format entscheidet, das man braucht

Space


Antwort von dienstag_01:

blueplanet hat geschrieben:
dienstag_01 hat geschrieben:
Nochmal, dir ist zu empfehlen, Quicksync zu testen (iGPU ein, Häkchen bei Decoding in Premiere setzen).
...also Häkchen bei "Hardwarebeschleunigter Decodierung aktivieren"?! Ist bei mir gesetzt (kommt ja standartmäßig mit der Installation). Aber jetzt kommt irgendwie die alte Diskussion über die nebulöse Qualität von Quick Sync wieder hoch, die wir schon vor Jahren führten. Bereits damals ging es um Quantität vs. Qualität. Vielleicht sollte man Quick Sync doch lieber temporär nutzen und schon gar nicht für die finale Ausgabe?!
Eigentlich sollte h264 mit Quicksync in der Vorschau nicht ruckeln. Kannst ja mal testen, ob es überhaupt was bewirkt (an/aus - funktioniert natürlich nur, wenn die iGPU auch mit arbeiten darf). Sonst ist es vielleicht ein Treiberproblem.

Die Qualitätsdiskussion hat mit dem Decoding nichts zu tun, da geht es ums Encoding.

Space


Antwort von krokus:

Ersteinmal vielen Dank für die Einschätzung an Jost , blueplanet und die anderen. Ja ich habe mich ein paar Tage nicht mehr gemeldet. Ich musste mich erstmal schlau lesen, was die für mich entsprechenden Komponenten bzgl. 4K Video PC angeht. Zwei Änderungen habe ich gemacht, zum einen ein anderes Mainboard mit USB 3.1 Gen2 Anschluß zum andern eine andere SSD mit M.2 Schnittstelle. Mit der Graphikkarte mögt ihr recht haben. Eine stärkere ist immer besser. Für 4K ist diese aber völlig ausreichend sagte man mir. Nun sieht die Konfiguration folgendermaßen aus:
zum Bild Konfiguration PC.JPG

Wie gesagt, danke an alle die mir helfen konnten. Zwei verschiedene Monitore (TN-Panell / IPS Panell ) sind unterwegs. Ich bin gespannt welchen ich letztendlich kaufe.
Hier handelt es sich um den Asus VP28UQG mit TN Panel und um den LG 27UD58-B 4K UHD 27 Zoll Monitor mit IPS Panel.


Gruß

krokus

Space


Antwort von cantsin:

krokus hat geschrieben:
Mit der Graphikkarte mögt ihr recht haben. Eine stärkere ist immer besser. Für 4K ist diese aber völlig ausreichend sagte man mir.
Eine Grafikkarte mit 4GB Hauptspeicher ist IMHO zu wenig/knapp für 4K-Videobearbeitung, wenn man GPU-unterstützte Effekte einsetzt. Neat Video z.B. steigt unter Resolve bei 4GB- und 4K-Material mit Fehlermeldung über Speicherknappheit aus.

Die Karte ist IMHO auch zu langsam. Bin wegen 4K-Material gerade von einer GTX970 zu einer GTX1080Ti gewechselt, und die 970 bringt laut Benchmarks ungefähr 150% der Leistung der 1050.

Aber das hängt natürlich von Deiner Schnittsoftware, Plugins und Deinen Anwendungszwecken ab. (Meine Erfahrungswerte kommen von Resolve und z.T. Premiere CC.)

Wenn die Aussage "reicht für 4K" vom Händler stammt, dann bezog die sich wahrscheinlich aufs Abspielen von 4K-Inhalten, nicht aufs Schneiden.

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
krokus hat geschrieben:
Mit der Graphikkarte mögt ihr recht haben. Eine stärkere ist immer besser. Für 4K ist diese aber völlig ausreichend sagte man mir.
Eine Grafikkarte mit 4GB Hauptspeicher ist IMHO zu wenig/knapp für 4K-Videobearbeitung, wenn man GPU-unterstützte Effekte einsetzt. Neat Video z.B. steigt unter Resolve bei 4GB- und 4K-Material mit Fehlermeldung über Speicherknappheit aus.

Die Karte ist IMHO auch zu langsam. Bin wegen 4K-Material gerade von einer GTX970 zu einer GTX1080Ti gewechselt, und die 970 bringt laut Benchmarks ungefähr 150% der Leistung der 1050.

Aber das hängt natürlich von Deiner Schnittsoftware, Plugins und Deinen Anwendungszwecken ab. (Meine Erfahrungswerte kommen von Resolve und z.T. Premiere CC.)

Wenn die Aussage "reicht für 4K" vom Händler stammt, dann bezog die sich wahrscheinlich aufs Abspielen von 4K-Inhalten, nicht aufs Schneiden.
Powerdirector lässt sich wahrscheinlich nicht mit Premiere oder Resolve vergleichen.

Mal als Beispiel (von der Website):
Aktuell haben wir 10 Effekte, die die CUDA-Beschleunigung unterstützen:
Gaußsche Unschärfe
Umgebungsunschärfe
Lichtstrahl
Füllhaltertinte
Abstraktion
Kaleidoskop
Farbrand
Farbe ersetzen
Farbmalerei
Glühen

Space


Antwort von krokus:

cantsin hat geschrieben:
krokus hat geschrieben:
Mit der Graphikkarte mögt ihr recht haben. Eine stärkere ist immer besser. Für 4K ist diese aber völlig ausreichend sagte man mir.
Eine Grafikkarte mit 4GB Hauptspeicher ist IMHO zu wenig/knapp für 4K-Videobearbeitung, wenn man GPU-unterstützte Effekte einsetzt. Neat Video z.B. steigt unter Resolve bei 4GB- und 4K-Material mit Fehlermeldung über Speicherknappheit aus.

Die Karte ist IMHO auch zu langsam. Bin wegen 4K-Material gerade von einer GTX970 zu einer GTX1080Ti gewechselt, und die 970 bringt laut Benchmarks ungefähr 150% der Leistung der 1050.

Aber das hängt natürlich von Deiner Schnittsoftware, Plugins und Deinen Anwendungszwecken ab. (Meine Erfahrungswerte kommen von Resolve und z.T. Premiere CC.)

Wenn die Aussage "reicht für 4K" vom Händler stammt, dann bezog die sich wahrscheinlich aufs Abspielen von 4K-Inhalten, nicht aufs Schneiden.

Effekte halten sich bei mir im Rahmen. Ich bearbeite Urlaubsvideos, Hochzeiten und möchte demnächst meine alten Videocassetten digitalisieren. Für diese Zwecke müsste die Graka doch ausreichen oder?
Ich arbeite mit Magix Video de Luxe, Powerdirector, Pinnacle Studio alle in der Ultimate Version. Sieht man denn bei 4K von der Qualität her Unterschiede bzgl . unterschiedlicher Grakas?

krokus

Space


Antwort von blueplanet:

...guten Morgen, wie meinst Du mit den unterschiedlichen Qualitäten? Der „Streitpunkt“ ob z.B. eine NVDIA Quatro eine besser Qualität erzeugt als eine GTX hat seine Berechtigung, muss jedoch im Zusammenhang mit dem Gesamtbildeindruck (Auflösung, Leistung) unter bestimmten Rahmenbedingungen betrachtet werden. Für den Videobereich ist das zu vernachlässigen. In der Forschung und bei der 3D-Berechnung (CAD) sieht das schon anders aus.
Aber denke wirklich ein weiteres mal über das upgrade auf mindestens eine GTX1070 nach. Nicht umsonst ist der Chorus hier so einhellig😉.
Ich bin gerade noch ein bisschen beim testen Quick Sync + Prozessor vs. GTX + Prozessor. Ein eher widersprüchliches Bild. Quick Sync + Prozessor gewinnt auf jeden Fall in der Vorschau, „verliert“ jedoch (gefühlt, da der Prozessor zum Langweiler mutiert) in der Performance gegen die Kombi GTX + Prozessor beim Rendern(!). Aber...schau mer mal und das alles trifft natürlich auf Premiere unter WIN zu und explizit bei bestimmten Plugins (z.B. neat)....

Space


Antwort von Jost:

krokus hat geschrieben:
cantsin hat geschrieben:


Eine Grafikkarte mit 4GB Hauptspeicher ist IMHO zu wenig/knapp für 4K-Videobearbeitung, wenn man GPU-unterstützte Effekte einsetzt. Neat Video z.B. steigt unter Resolve bei 4GB- und 4K-Material mit Fehlermeldung über Speicherknappheit aus.

Die Karte ist IMHO auch zu langsam. Bin wegen 4K-Material gerade von einer GTX970 zu einer GTX1080Ti gewechselt, und die 970 bringt laut Benchmarks ungefähr 150% der Leistung der 1050.

Aber das hängt natürlich von Deiner Schnittsoftware, Plugins und Deinen Anwendungszwecken ab. (Meine Erfahrungswerte kommen von Resolve und z.T. Premiere CC.)

Wenn die Aussage "reicht für 4K" vom Händler stammt, dann bezog die sich wahrscheinlich aufs Abspielen von 4K-Inhalten, nicht aufs Schneiden.

Effekte halten sich bei mir im Rahmen. Ich bearbeite Urlaubsvideos, Hochzeiten und möchte demnächst meine alten Videocassetten digitalisieren. Für diese Zwecke müsste die Graka doch ausreichen oder?


krokus
Mit der 1050 TI sollte es keine größeren Probleme geben. Alle drei Programme sind auf Quick Sync optimiert. Die Last liegt auf der Intel-Grafik. Für den Rest sollte die TI reichen. Die ist rein von der Rechenleistung sogar flotter als die 960.
Der Einwand - nur 4 GB Ram - ist natürlich berechtigt. Das wird man später im Taskmanager sehen, ob dort ein Flaschenhals bei der Ram-Auslastung entsteht.
Das wäre nicht richtig schlimm. Entweder man lebt damit, oder verkauft die Karte.
Die Nachfrage sollte da sein: Die TI ist die bislang kostengünstigste GPU zur 4K-Wiedergabe von Netflix, außerdem gibt es noch keinen Nachfolger.
Aber Fakt ist: Die TI markiert heute den Übergang von der Einsteiger- zur Mittelklassen-Karte. Die 960 zählte früher zur unteren Mittelklasse.

Und nein, die Rechenleistung der Grafikkarte hat keinen Einfluss auf die Bildqualität. Das Encodieren erledigt unter Quick Sync die Intel-Grafik. Der 8700K ist mit der jüngsten und leistungsfähigsten Intel-Grafikeinheit ausgestattet. Mehr geht von Intel-Seite nicht.
Viel Spaß mit dem neuen Rechner.
Und gib mal eine Einschätzung, wie gut es funktioniert. Es heißt, unter Quick Sync arbeite der Powerdirector besonders gut und bewege sich auf EDIUS-Niveau.

Testen solltest Du, ob der aktuelle Treiber für die Intel-630 installiert ist.
https://downloadcenter.intel.com/produc ... aphics-630

Wenn Du noch etwas verändern kannst, könntest Du noch 20 Euro in einen besseren CPU-Kühler investieren. Der Ben Nevis ist auf eine TDP von 140 Watt spezifiziert. Der 8700K liegt bei einer TDP von 95 Watt. Wenn Du die automatische Übertaktung zuschaltest, was angeraten ist, es ist ja schließlich eine K-CPU, wird es eng - und laut.
Ohne Übertaktung reicht der Ben Nevis auf jeden Fall.

Space



Space


Antwort von krokus:

Hallo,
das sind viele neue Erkenntnisse. Mal eine Frage generell. Würde alleine mit dem neuen Prozessor integrieren iGpu und mit einer Graphikkarte die weniger Leistung aufweist (zb. Gtx 560) die volle 4k Auflösung am 4k Monitor möglich? Natürlich unter Berücksichtigung das die Grafikkarte für die Effekte und die iGpu für das rendern mit zuständige ist.

Space


Antwort von krokus:

Ich werde am Montag den Händler anrufen ob er mir die nächste bessere Grafikkarte einbaut. Voraussetzung der Preis stimmt. Bei Änderungen der Konfiguration in meinem Fall die Grafikkarte wird es gewöhnlich wesentlich teurer. Ich werde berichten. Schade ist,das Radeon Grafikkarten nicht effektiv genug sind bzw. die Zusammenstellung mit den anderen Komponenten weniger gut ist.

Space


Antwort von carstenkurz:

Du hast da irgendwie den falschen Denkunterbau. Nahezu jede Grafikkarte kann heutzutage 4K Auflösung. Entscheidend ist, wieviel Leistung in der Verarbeitung innerhalb des Videoprogrammes sie bringt.

Vergleiche hinken, aber: Jedes halbwegs aktuelle Auto hat 4 Räder (4k). Wie schnell und wie weit Du damit fahren kannst, hängt von der Motorleistung (PS) = Verarbeitungsgeschwindigkeit, und der Größe des Tanks =Arbeitsspeicher ab.

Mit deinen Ansprüchen brauchst Du sicher keine HighEnd Karte. Aber, die 1050ti ist eben auch nicht wirklich eine billige Einsteigerkarte, und wenn Du Ambitionen auf 4k hast, wäre eben die Frage, ob Du nicht lieber 50-80€ mehr ausgibst für eine Karte mit mehr Speicher.

Das alles gilt aber natürlich nur vor dem Hintergrund, was dein bevorzugtes Videoschnittprogramm überhaupt mit einer schnellen Grafikkarte anfangen kann. Eine 4k Bild-Ausgabe geht mit jeder Grafikkarte. Aber wenn dein Videoschnittprogramm fast alles auf der CPU rechnet, statt auf der GPU (Extrembeispiel für GPU-lastig ist Resolve), dann ist die Grafikkarte fast egal, zumal mit Quicksync-Unterstützung eh die prozessorintegrierte Intel-Grafik das Decoding und Encoding übernimmt.

Ob Du da 'echte' 4k Auflösung kriegst, oder nur halbe, oder weniger Qualität, das hängt nicht von der Grafikkarte ab.

Bei Programmen, die die Videobearbeitung maßgeblich über die Grafikkarte abwickeln (wie eben das erwähnte Resolve), wäre es bei Ambitionen auf 4k eben ein Fehler, eine Grafikkarte mit nur 4GB Speicher zu kaufen, weil bestimmte Funktionen dann nicht schlechter oder langsamer gehen, sondern gar nicht.





- Carsten

Space


Antwort von krokus:

Danke für die Einschätzung und die Richtigstellung.

Space


Antwort von krokus:

Ich habe das aber richtig verstanden, dass die 4GB Speicher zu wenig sind. Wenn ich nun auf die nächst höhere die GTX 1060 mit 6GB wechseln würde, würde diese reichen?
Der Preisunterschied zwischen der GTX1060 und GTX1070 ist schon enorm.

Space


Antwort von blueplanet:

...ich würde Dir sogar explizit diese empfehlen, denn bei den GTX gibt es auch verschiedene Ausführungen u.a. in Punkto Hersteller, Übertaktungsmöglichkeiten, Stressstabilität und was die Lüfter betrifft.
https://www.ebay.de/itm/282494743837 (419€...was willst Du weniger???)
Stichwort: ASUS GeForce GTX 1070 ROG Strix OC 8GB Gaming. Wenn Du ein ASUS-Board verwendest, hast Du auch die beste Performance mit der GTX von ASUS (mitgeliefertes Übertaktungstool, nochmal besser auf deren Boards abgestimmt)
Und achte darauf, dass es die nötigen Stromanschlüsse seites des Netzteil bedarf bzw. ob die Karte von der Länge auch in das Gehäuse vom Rechner passt (man braucht Hinten noch etwas Platz für die Poweranschlüsse!) bzw. das diese nicht mit den Speicherbänken oder den HDD-Befestigungen kollidieren. Irgendein Midi-Tower dürfte dafür nicht gehen...

Space


Antwort von blueplanet:

...ein paar Beispiele aus meiner Konfiguration wie unterschiedlich der Prozessor und die verschiedenen Grafiken in Kombi beantsprucht bzw. genutzt werden.
1. durchschnittlicher Export von cineform (finaler File, ohne jegliche Effekte, FHD 10Bit/YUV/25p) zu h.264 (FHD 8Bit/25p) export_cineform zu h264.jpg 2. durchschnittlicher Export von h264-Material aus der GH5 und Gopro6 (UHD 8Bit/50fps/25fps in einer FHD 25p-Timeline mit allen Effekten, sprich Farbkorrektur, Neat, Stabi etc.) zu cineform FHD 10Bit/YUV/25p
(...ich weiß, dass es, wenn überhaupt, sinnvoller wäre, vor dem graden zu cineform zu transkodieren - war ein Test ;)) export_h264 zu cineform.jpg 3. durchschnittlicher Export von cineform (finaler File, ohne jegliche Effekte, FHD 10Bit/YUV/25p) zu h.264 (720p mobile divices 8Bit/25p) export_cineform zu h264_720p.jpg

Space


Antwort von dienstag_01:

krokus hat geschrieben:
Ich habe das aber richtig verstanden, dass die 4GB Speicher zu wenig sind. Wenn ich nun auf die nächst höhere die GTX 1060 mit 6GB wechseln würde, würde diese reichen?
Der Preisunterschied zwischen der GTX1060 und GTX1070 ist schon enorm.
Das Problem ist, dass die wenigsten hier 4k mit Powerdirektor bearbeiten. Deshalb kommen die meisten mit ihren Erfahrungen aus völlig anders gestrickten Programmen. Vielleicht sollte man Mal im Forum von Cyberlink nachfragen. Oder man schaut sich die weiter oben gelisteten Effekte an, die von Powerdirektor GPU unterstützt laufen. Oder oder.
Aber die Erfahrungen von Premiere oder Resolve eins zu eins auf ein anderes Programm übertragen zu wollen, ist im Zweifelsfall nur teuer.

Space


Antwort von Jost:

dienstag_01 hat geschrieben:
krokus hat geschrieben:
Ich habe das aber richtig verstanden, dass die 4GB Speicher zu wenig sind. Wenn ich nun auf die nächst höhere die GTX 1060 mit 6GB wechseln würde, würde diese reichen?
Der Preisunterschied zwischen der GTX1060 und GTX1070 ist schon enorm.
Das Problem ist, dass die wenigsten hier 4k mit Powerdirektor bearbeiten. Deshalb kommen die meisten mit ihren Erfahrungen aus völlig anders gestrickten Programmen. Vielleicht sollte man Mal im Forum von Cyberlink nachfragen. Oder man schaut sich die weiter oben gelisteten Effekte an, die von Powerdirektor GPU unterstützt laufen. Oder oder.
Aber die Erfahrungen von Premiere oder Resolve eins zu eins auf ein anderes Programm übertragen zu wollen, ist im Zweifelsfall nur teuer.
Komplett richtig. Bei Premiere gibt es zwar seit Mai eine Quick-Sync-Schnittstelle (H.264). Bei Resolve jedoch nicht. Dort ist eine 1070 definitiv nicht fehl am Platz.
Bei Quick Sync sieht das alles ganz anders aus. Normalerweise heißt es: Schnelles Ram bringt beim Videoschnitt nichts.
Quick Sync heißt, die UHD 630 hat selbst keinen Speicher und reserviert sich darum 128 MB vom Ram. Unter W10 kann man jedoch die Hälfte des verbauten Rams für Quick Sync reservieren.
https://www.intel.de/content/www/de/de/ ... ivers.html

Ich habe mir einen Wolf gegooglet, aber keinen einzigen Benchmark gefunden, der die Quick-Sync-Leistung mit verschiedenen Ram-Geschwindigkeiten und unterschiedlichen Ram-Größen testet.

Auf jeden Fall kann eine 1060/6 nichts schaden.
Ohne Betriebssystem, das es ja für 7 Euro in der Bucht gibt, geht so ein Rechner für unter 1400 Euro über den Tisch. Und Alternate ist nun nicht der Günstigste.

zum Bild


Space



Space


Antwort von Jost:

dienstag_01 hat geschrieben:
krokus hat geschrieben:
Ich habe das aber richtig verstanden, dass die 4GB Speicher zu wenig sind. Wenn ich nun auf die nächst höhere die GTX 1060 mit 6GB wechseln würde, würde diese reichen?
Der Preisunterschied zwischen der GTX1060 und GTX1070 ist schon enorm.
Das Problem ist, dass die wenigsten hier 4k mit Powerdirektor bearbeiten. Deshalb kommen die meisten mit ihren Erfahrungen aus völlig anders gestrickten Programmen. Vielleicht sollte man Mal im Forum von Cyberlink nachfragen. Oder man schaut sich die weiter oben gelisteten Effekte an, die von Powerdirektor GPU unterstützt laufen. Oder oder.
Aber die Erfahrungen von Premiere oder Resolve eins zu eins auf ein anderes Programm übertragen zu wollen, ist im Zweifelsfall nur teuer.
Komplett richtig. Bei Premiere gibt es zwar seit Mai eine Quick-Sync-Schnittstelle (H.264). Bei Resolve jedoch nicht. Dort ist eine 1070 definitiv nicht fehl am Platz.
Bei Quick Sync sieht das alles ganz anders aus. Normalerweise heißt es: Schnelles Ram bringt beim Videoschnitt nichts.
Quick Sync heißt, die UHD 630 hat selbst keinen Speicher und reserviert sich darum 128 MB vom Ram. Unter W10 kann man jedoch die Hälfte des verbauten Rams für Quick Sync reservieren.
https://www.intel.de/content/www/de/de/ ... ivers.html

Ich habe mir einen Wolf gegooglet, aber keinen einzigen Benchmark gefunden, der die Quick-Sync-Leistung mit verschiedenen Ram-Geschwindigkeiten und unterschiedlichen Ram-Größen testet.

Auf jeden Fall kann eine 1060/6 nichts schaden.
Ohne Betriebssystem, das es ja für 7 Euro in der Bucht gibt, geht so ein Rechner für unter 1400 Euro über den Tisch. Und Alternate ist nun nicht der Günstigste.

zum Bild


Space


Antwort von Bruno Peter:

Jost hat geschrieben:
Bei Premiere gibt es zwar seit Mai eine Quick-Sync-Schnittstelle (H.264). Bei Resolve jedoch nicht.

Ich habe lediglich die Free Version von DVR 15, der Export wird dort per Intel Graphics unterstützt seit der Version 15.2. Wie das in der Studio Version ist, weiß ich nicht...

Space


Antwort von Jost:

"Bruno Peter" hat geschrieben:
Jost hat geschrieben:
Bei Premiere gibt es zwar seit Mai eine Quick-Sync-Schnittstelle (H.264). Bei Resolve jedoch nicht.

Ich habe lediglich die Free Version von DVR 15, der Export wird dort per Intel Graphics unterstützt seit der Version 15.2. Wie das in der Studio Version ist, weiß ich nicht...
Stimmt! Wobei das eigentlich in der Free-Version nicht der Fall sein sollte. Vorgezogenes Weihnachtsgeschenk. zum Bild
Support for hardware accelerated encoding of H.264 and H.265 using specific NVIDIA GPUs on DaVinci Resolve Studio; Windows and Linux only
Support for hardware accelerated encoding of H.264 and H.265 using Intel Quick Sync on supported hardware on DaVinci Resolve Studio; Windows only

Heißt: Jetzt gibt es endlich auch H.265. Entweder mit Quicksync oder mit NVEnc. Das heißt aber auch: Wer weder eine aktuelle Intel-CPU hat noch eine Nvidia der Generation 10, hat kein H.265.

zum Bild


Mit einer 980er, die nur H.264 kann, bricht das Rendern in H.265 nach ein paar Sekunden ab.

Space


Antwort von krokus:

Hallo zusammen,
erstmal Vielen Dank für die vielen Tips. Folgende Konfiguration ist es nun geworden: 4K Rechner.JPG Als Graphikkarte habe ich diese hier bestellt:
https://www.alternate.de/Palit/GeForce- ... JTEALw_wcB

Ich werde berichten sobald der PC angekommen ist.

Gruß

krokus

Space


Antwort von Alf_300:

750 Watt Netztel und Blu Ray Brenner wäre schon angebracht gewesen.

Space


Antwort von krokus:

Ich habe nie mit Blue ray gearbeitet

Space


Antwort von DAF:

krokus hat geschrieben:
...
Ich werde berichten sobald der PC angekommen ist.
...
Das wäre schön!
Außerdem habe ich jetzt irgendwie den Überblick verloren, wo du jetzt den PC (ohne Grafikkarte) jetzt bestellt hast? Und von welchem Grundangebot abgeleitet, denn ein paar Komponenten haben ja Aufpreise...

Space


Antwort von krokus:

Pc Konfiguration siehe vorheriges Foto und Bestellung habe ich über Memory pc gemacht. Ich habe einige Händler von den Preisen her verglichen, Memory pc ist der günstigste. Aufpreise waren einen etwas kräftigeren CPU Lüfter, besseres Maiboard mit m.2 Anschluss für Ssd/ usb3.1gen2
Schnellere SSD mit m.2
Graka statt gtx 1050 3gb die gtx 1060 6gb
Ohne Windows 10

Space


Antwort von cantsin:

Jetzt, wo @Krokus in einem Nachbarthread seine Probleme mit selbstaufgenommenem 4K-Material aus seiner Panasonic FZ 1000 geschildert hat, scheint mir, dass wir hier völlig auf dem Holzweg sind (weil wir bei 4K-Videobearbeitung automatisch an professionelle und semiprofessionelle Workflows denken).

IMHO ist alles, was Krokus braucht, Erklärung von Proxy-Schnitt - wie er das Urlaubs-Material seiner Kamera mit Intermediate-Codecs und einfacher Software so schneiden kann, dass sein älterer i5-Rechner nicht in die Knie geht.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


miniDV zu 4K - mit Topaz Video 4 - interessantes Preset!
«Last Christmas»-Video gibt es erstmals in 4K scharf
4K Video auf TV?
Olympus OM-D E-M10 Mark III -- jetzt mit 4K-Video // IFA 2017
BMD Video Assist 4k Update
Videoserie: Exploring the Philippines in 4K
4k mit 22,86 x 27,94 cm Super-Sensor: LargeSense LS911 Video
Wie kann ich 4K Video oder Ultra HD flüssig darstellen
Wird die EOS 6D Mark II interessant für 4K Video?
Blackmagic Video Assist 4K lernt DNxHD und DNxHR
Panasonic für 4K Video
Video Assist 4k - hat den jemand?
Schneider Variogon 18-90mm f2 bitte um Rat
Macbook Air - Bitte nicht stressen!
Bitte um eine konstruktive Kritik bei meinem neuen Film
Meine erste Vollformatkamera - Bitte um Empfehlungen
Egpu mit Imac 2017 betreiben, Bitte um Tipp
Bitte um Hinweise zu CinemaDNG Workflow
Hauptzähler 40D, bitte um Rat
Bitte zum Hilfe bei der Stabilisierung meines Gimbals
Videoprogramm gesucht! Bitte um Hilfe
Vorstellung und Bitte um Hilfe
Bitte um Hilfe bei Tonverbesserung
Neuer Schnitt-PC - bitte um Kritik
Kamera geerbt bitte um infos
Bitte um eure Meinung Canon eos 100D oder Gopro 4 silver?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash