Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr Forum



4K Videoschnittrechner - Bitte um Beurteilung



Die Hardware ist tot, es lebe die Hardware. Fragen zu Optimierung von Schnittsystemen, den idealen Komponenten sowie Verkabelungen, RAID...
Antworten
krokus
Beiträge: 39

4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von krokus »

Hallo zusammen,

ich habe seit 2016 einige Videoclips in 4K Auflösung gefilmt, die ich nun gerne bearbeiten möchte. Mein bisheriger Rechner ist vor allem von der Graka her zu schwach.
Mainboard: Asus P8B-75M LE
Core (TM)I5 - 2500K 3,3 Ghz
Arbeitsspeicher DDR3 8GB
SSD 256 GB
HDD 500GB
Das Netzteil müsste 750W Leistung aufweisen.
Graphikkarte: Nvidia Geforce 560

Nach einiger Recherche im Netz hat mir ein Händler folgendes Angebot gemacht:
[urlhttps://www.memorypc.de/gaming-pc/advanced/116/ ... win-10-pro][/url]
Ich arbeite mit Magix Video de Luxe/ Powerdirector 16/Corel Video Studio 2018
Die Frage stellt sich mir ebenfalls, ob AMD mit Ihren Ryzen Prozessoren eine vernünftige Alternative sind.
Welche Erfahrungen habt Ihr gemacht? Wozu könnt Ihr mir raten?

Gruß

krokus



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

AMD ist keine so gute Alternative. Deine Programme setzen alle auf Intel Quick Sync. Das ist die Hardware-Beschleunigung für das De- und Encodieren. Quick Sync bietet ausschließlich Intel.

Bild

Die Probleme beim Schnitt liegen vorrangig übrigens nicht an der Graka, sondern am Prozessor. Dort ist eine Intel HD-Grafik 3000 verbaut. Die hat zwar Quick Sync, aber in einer alten Version. Die kann erst FullHD, aber nicht 4K.



krokus
Beiträge: 39

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von krokus »

Die Probleme beim Schnitt liegen vorrangig übrigens nicht an der Graka, sondern am Prozessor. Dort ist eine Intel HD-Grafik 3000 verbaut. Die hat zwar Quick Sync, aber in einer alten Version. Die kann erst FullHD, aber nicht 4K.
[/quote]
Das die CPU sich schwer tut hatte ich mir gedacht. Aktuell bin ich jetzt gerade mehrere Clips die ich in 4K Auflösung gefilmt habe mit Z.B. Titel, Effekten ect. in der Produktion als Ausgangsmaterial 3840x2160 mp4 am rendern. Schnittprogramm Powerdirector. Natürlich tut der Prozessor sich schwer aber, es funktioniert, was ich nicht gedacht hätte. Die Graka kann die Auflösung leider nicht auf meinem 4k Monitor hergeben.



krokus
Beiträge: 39

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von krokus »

Der Prozessor braucht schon sehr lange für zu rendern. Wie beschrieben, mehrere Kurzclips mit Effekten und Titel versehen , Länge 1:20 Min. Renderzeit 17 Min.
Meint Ihr ich könnte bei der Empfehlung des Händlers (obenstehender Link) bleiben? Ist die Konfiguration für 4K Bearbeitung in Ordnung?

Gruß

krokus



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

krokus hat geschrieben: Mi 21 Nov, 2018 20:35 Der Prozessor braucht schon sehr lange für zu rendern. Wie beschrieben, mehrere Kurzclips mit Effekten und Titel versehen , Länge 1:20 Min. Renderzeit 17 Min.
Meint Ihr ich könnte bei der Empfehlung des Händlers (obenstehender Link) bleiben? Ist die Konfiguration für 4K Bearbeitung in Ordnung?

Gruß

krokus
Das ist jetzt ein Missverständnis:
Du hast zwei Grafikkarten in Deinem Rechner. Einmal die Nvidia, die ist in erster Linie zuständig für Effekte, Schärfe etc. Und zusätzlich die Intel HD-Grafik 3000, die sitzt im Prozessor. Die 3000 ist zuständig dafür, dass Dein Clip flüssig bearbeitet und schnell gerendert wird.
Alle Deine Programme setzen auf diese Hardwarebeschleunigung. Finden Deine Programme keine Schnittstelle in der CPU-Grafik, zum Beispiel für 4K, muss die CPU selbst rechnen. Und das dauert halt.
Mit dem 8700K erhältst Du nicht nur einen Sechskerner, sondern auch die Intel UHD-630-Grafikeinheit. https://www.notebookcheck.com/Intel-UHD ... 918.0.html

Die 630er beschleunigt nicht nur H.264, sondern auch H.265 und 10 Bit. Beim De- und Encodieren. Auf der CPU selbst liegt dann kaum Last.
Was ich vom Angebot halte: vollkommen ok. Das zentrale Element ist der 8700K. Die Grafikkarte hat zwar nur 4 GB Speicher, das reicht aber in vielen Fällen.
Übertakten kann man die CPU nicht, weil der Ben-Nevis-Kühler ziemlich auf Kante in der Kühlleistung genäht ist. Im Normalbetrieb sollte es keinerlei Probleme geben. Es wird eventuell etwas lauter.
Das Netzteil ist absoluter Standard, weder Bronze, Silber etc. Das Billigste vom Billigen, doch es tut seinen Dienst.
Das Mainboard hat keinen extraschnellen USB-3.1-2gen Anschluss. Wenn man in H.264 filmt, sind die zu übertragenden Daten-Mengen aber nicht so groß. Das lässt sich verschmerzen.



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

...hallo Jost, in diesem Zusammenhang habe ich eine Frage an Dich.
In meinem System werkelt ein i6700K mit dem Grafik-Chipsatz Z170. Dieser unterstützt noch kein UHD-Rendering. Entsprechend geht die CPU ordentlich zur Sache.
Als Grafikkarte kommt eine NVIDIA GTX 1070 zum Einsatz. In der NVIDIA-Steuerung und im BIOS kann gewählt werden, welche Grafik die Arbeit leisten soll. Ergo entweder die vom Chipsatz oder die von der Grafikkarte oder halt beide...?!

Angenommen ich deaktiviere die Chipsatzgrafik und sage "nutze nur die GTX 1070", dann wäre doch interessant, welche der beiden Grafiklösungen die Effizientere ist?! Die von der GPU oder die des Prozessor?! Und was würde die Option "Beide" bringen?
Arbeiten sie ggf. "hintereinander" oder stehen sie in ständiger Kongruenz, sind kontraproduktiv? Kannst Du aus dieser Konstellation heraus sagen, was die beste Performance bringt? Wenn ich im Moment UHD rechne, dann hat die CPU Vollast und die GPU (NVIDIA) kommt sporatisch (wahrscheinlich je nach Effekt) dazu.
Wobei der Taskmanager die GPU (welche??) meistens viel weniger ausgelastet anzeigt (aber vielleicht meint dieser eben nur die interne Grafik) als das Tool der Grafikkarte, was genau deren Speicher, Lüfter und Voltanzeige betrifft.

LG
Jens



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

blueplanet hat geschrieben: Do 22 Nov, 2018 11:26 ...hallo Jost, in diesem Zusammenhang habe ich eine Frage an Dich.
In meinem System werkelt ein i6700K mit dem Grafik-Chipsatz Z170. Dieser unterstützt noch kein UHD-Rendering. Entsprechend geht die CPU ordentlich zur Sache.
Als Grafikkarte kommt eine NVIDIA GTX 1070 zum Einsatz. In der NVIDIA-Steuerung und im BIOS kann gewählt werden, welche Grafik die Arbeit leisten soll. Ergo entweder die vom Chipsatz oder die von der Grafikkarte oder halt beide...?!

Angenommen ich deaktiviere die Chipsatzgrafik und sage "nutze nur die GTX 1070", dann wäre doch interessant, welche der beiden Grafiklösungen die Effizientere ist?! Die von der GPU oder die des Prozessor?! Und was würde die Option "Beide" bringen?
Arbeiten sie ggf. "hintereinander" oder stehen sie in ständiger Kongruenz, sind kontraproduktiv? Kannst Du aus dieser Konstellation heraus sagen, was die beste Performance bringt? Wenn ich im Moment UHD rechne, dann hat die CPU Vollast und die GPU (NVIDIA) kommt sporatisch (wahrscheinlich je nach Effekt) dazu.
Wobei der Taskmanager die GPU (welche??) meistens viel weniger ausgelastet anzeigt (aber vielleicht meint dieser eben nur die interne Grafik) als das Tool der Grafikkarte, was genau deren Speicher, Lüfter und Voltanzeige betrifft.

LG
Jens
Ohne Angabe der verwendeten Software ist eine Antwort sinnlos.

Aber, da es hier wahrscheinlich um Premiere geht, mal was zum Grundverständnis:
En- und Decoding übernimmt der Prozessor, Renderings (Effekte etc.) werden von der GPU (hiermit ist die separate gemeint/Cuda) unterstützt. Das ist das Prinzip, Kodierung des Videos und Berechnung (der Effekte) sind zu unterscheiden.
Seit den neuesten Versionen von Premiere unterstützt die Prozessorgrafik (bei dir übrigens nicht der Mainboardchipsatz Z170 sondern die Intel HD-Grafik 530) mit Intel Quicksync das En- und Decoding. Das gilt natürlich nur für bestimmtes Material (Codecs), also h264 plus vielleicht noch h265 (vielleicht auch noch mpeg2).
Das heißt, um eine komplette Hardwareunterstützung zu erhalten, müssen beide Grafiken ausgewählt sein.

Wie gesagt, gilt für Premiere, bei anderer Software kann das anders sein.



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

...ja, es geht um/mit Premiere ;)) und danke für die Antwort.
Aber ist es nicht so, dass ein bestimmter Chipsatz es erst dem Prozessor ermöglicht, mit Intel Quicksync zu arbeiten?! Ergo geht mit dem Z170 alles in HD flüssig und mit Z370 dann ebenfalls in UHD?!
Das En- und Decoding (das "Ent- und Verschnüren") übernimmt letztendlich der Prozessor. Das habe ich verstanden.
Und wenn ich etwas in Premiere "rendere", dann ist nicht das "Ent- und Verschnüren" gemeint, sondern "nur" das "hübsch Einpacken mit Effekten" damit es anschließend durch den Prozessor wieder "Verschnürt" werden kann?!

D.h. ergo: ich lege etwas in h.264 in die Timeline, spiele es dort NUR ab (der Prozessor packt in Echtzeit aus) und mache sinnloserweise ;) anschließend einen neuen (unter einem andere Namen) h.264-File daraus, dann "verschnürt" es der Prozessor in windeseile alt/neu.
Was in der Regel wirklich lange dauert ist demnach das "hübsch Einpacken" durch die GPU, das Rendern an sich. Demzufolge macht es doch mehr Sinn (rein von den Renderwartezeiten her), eine starke GPU, sprich separate Grafikkarte, zu haben als einen Highend Prozessor?!
Doch was macht die GPU des Prozessors - wenn eine separate Grafikkarte vorhanden ist? Kann sie diese bis zu einem gewissen Grad ersetzen/unterstützen oder ist diese nur eine Art halbherziges "Ersatznotlaufrad"? mit der im Bedarfsfall (ohne separater GrKa) "hübsch Eingepackt" wird?



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

...Info und zur Frage was unter Z170 + i 6700K + GTX 1070 in der Timeline unter Premiere und WIN10 geht und was eher nicht optimal:
- h.264 (HD 25/50fps, 8 und 10Bit) flüssig
- h.264 (UHD 25fps, 8 und 10Bit) flüssig
- h.264 (UHD 50fps, 8Bit) flüssig mit leicht angezogener "Handbremse"
- nach cineform gewandelt (UHD 50fps, 10Bit) flüssig mit stärker, angezogener "Handbremse" (besser vor rendern)
- h.265 (UHD 25fps, 8Bit) mit stärker, angezogener "Handbremse" (vor rendern fast zwingend nötig)
...das alles ohne jegliche Effekte, also nur die Originaldateien.
Zuletzt geändert von blueplanet am Do 22 Nov, 2018 13:29, insgesamt 1-mal geändert.



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

blueplanet hat geschrieben: Do 22 Nov, 2018 13:08 ...ja, es geht um/mit Premiere ;)) und danke für die Antwort.
Aber ist es nicht so, dass ein bestimmter Chipsatz es erst dem Prozessor ermöglicht, mit Intel Quicksync zu arbeiten?! Ergo geht mit dem Z170 alles in HD flüssig und mit Z370 dann ebenfalls in UHD?!
Das En- und Decoding (das "Ent- und Verschnüren") übernimmt letztendlich der Prozessor. Das habe ich verstanden.
Und wenn ich etwas in Premiere "rendere", dann ist nicht das "Ent- und Verschnüren" gemeint, sondern "nur" das "hübsch Einpacken mit Effekten" damit es anschließend durch den Prozessor wieder "Verschnürt" werden kann?!

D.h. ergo: ich lege etwas in h.264 in die Timeline, spiele es dort NUR ab (der Prozessor packt in Echtzeit aus) und mache sinnloserweise ;) anschließend einen neuen (unter einem andere Namen) h.264-File daraus, dann "verschnürt" es der Prozessor in windeseile alt/neu.
Was in der Regel wirklich lange dauert ist demnach das "hübsch Einpacken" durch die GPU, das Rendern an sich. Demzufolge macht es doch mehr Sinn (rein von den Renderwartezeiten her), eine starke GPU, sprich separate Grafikkarte, zu haben als einen Highend Prozessor?!
Doch was macht die GPU des Prozessors - wenn eine separate Grafikkarte vorhanden ist? Kann sie diese bis zu einem gewissen Grad ersetzen/unterstützen oder ist diese nur eine Art halbherziges "Ersatznotlaufrad"? mit der im Bedarfsfall (ohne separater GrKa) "hübsch Eingepackt" wird?
Die iGPU hat mit dem Rendern von Effekten überhaupt nichts zu tun, egal, ob eine separate GPU vorhanden ist oder nicht. Die iGPU unterstützt nur das De-/Encoding.
Ob dir die iGPU für das von dir verwendete Material und deinem Prozessor derzeit etwas nützt, sei mal dahingestellt. Allgemein gilt: Vorteil der iGPU mit Quicksync ist die hohe Effizienz (vor allem bei den noch höher komprimierten Formaten - h265), Nachteil die Beschränktheit auf bestimmte Formate.

Den Anteil des Decodings bei der Videobearbeitung sollte man nicht unterschätzen, man muss sich nur mal ins Gedächtnis rufen, wie oft über Ruckler in der Vorschau auch ohne irgendwelche Effekte geklagt wurde/wird.

Sehe gerade dein Post mit der Performance in der Timeline von Premiere.
Da spricht doch einiges für das Anschalten der iGPU.



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

dienstag_01 hat geschrieben: Do 22 Nov, 2018 13:29 Die iGPU hat mit dem Rendern von Effekten überhaupt nichts zu tun, egal, ob eine separate GPU vorhanden ist oder nicht.
...danke! Sehr hilfreiche Aussage!



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

blueplanet hat geschrieben: Do 22 Nov, 2018 13:40
dienstag_01 hat geschrieben: Do 22 Nov, 2018 13:29 Die iGPU hat mit dem Rendern von Effekten überhaupt nichts zu tun, egal, ob eine separate GPU vorhanden ist oder nicht.
...danke! Sehr hilfreiche Aussage!
Ja, aber eben mit dem Abspielen der Videos auf der Timeline ;)



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

blueplanet hat geschrieben: Do 22 Nov, 2018 13:08 Aber ist es nicht so, dass ein bestimmter Chipsatz es erst dem Prozessor ermöglicht, mit Intel Quicksync zu arbeiten?! Ergo geht mit dem Z170 alles in HD flüssig und mit Z370 dann ebenfalls in UHD?!
Nein, der Chipsatz stellt hier die Verbindung zum Monitor her. Z170/6700k geben 4K von Haus aus nur mit 24 Hz über HDMI 1.4 aus. Die üblichen 60 Hz bekommt man nur über Display Port dargestellt.
Bild

Manche Z170-Mainboards verfügen über einen Konverter, um das Display-Port-Signal in HDMI 2.0 mit 60 Hz umzuwandeln.
Wenn es seltsam aussieht, lohnt sich das Umstöpseln und möglicherweise ein Adapter auf Display Port.
Wenn der Monitor an die Grafikkarte angeschlossen sein sollte, lohnt sich der Blick in den Taskmanager, ob bei der Timeline-Wiedergabe auch die Intel-Grafik läuft. Falls nicht, läuft auch kein Quick Sync.

Der 6700K kann also UHD, sowohl h.264 als auch h.265.
H.264/5 sind jedoch auf Level 5.1 begrenzt.
Bild

Hier die Spezifikationen der H.265-Level
Bild

Hier die Spezifikationen für H.264 - in diesem Level ist UHD auf 31,7 Bilder/S begrenzt. Darum H.265 für 60p.
Bild

Liegt man außerhalb der Spezifikation, höherer Level zum Beispiel, Encodieren mit zu hoher Datenrate, funktioniert Quick Sync nicht mehr. Das Programm Mediainfo zeigt an, welcher Level verwendet wurde.
Zuletzt geändert von Jost am Do 22 Nov, 2018 19:43, insgesamt 2-mal geändert.



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

Welches Format Quicksync unterstützt und welches Format davon Premiere - wenn die Angaben aus dem Juni noch aktuell sind (kein h265 unter Windows 10) - können zwei Paar Schuhe sein.



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

dienstag_01 hat geschrieben: Do 22 Nov, 2018 19:27 Welches Format Quicksync unterstützt und welches Format davon Premiere - wenn die Angaben aus dem Juni noch aktuell sind (kein h265 unter Windows 10) - können zwei Paar Schuhe sein.
Stimmt natürlich. Premiere gehört - Davinci Resolve kennt kein Quick Sync - nicht zu den Programmen, die laut Intel für Quick Sync optimiert sind. Darum sind bei den üblichen Rendertests Programme wie Edius oder der Powerdirektor in der Regel auch schneller. Premiere kann man zurzeit offenbar nur mit dem Voukoder-Plugin zur Nutzung von NVEnc oder FFmpeg zum Ausrendern in H.265 zwingen.



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

...danke an Euch - aber ich jetzt auf dem "Wissend-Schlauch".
Weshalb sollte ich denn den Monitor an die interne Grafik über HDMI hängen? Mein Monitor kann im Übrigen max. 2560x1600 Pixel + 96% RGB, ist also kein 4K und nicht einmal ein UHD-Monitor (was ich für die Arbeit momentan auch nicht vermisse, da ich ohnehin nur in HD ausgebe und das auch auf einem FHD-Bildschirm dann schaue). Das aber nur nebenbei.

Ergo habe ich den Monitor seit Rechnergedenken ;) immer an der Grafikkarte per Display-Port (60Hz) hängen und bisher war die Welt somit in Ordnung.
Wenn ich den Taskmanager während der Timeline starte, sehe ich ergo(?) nur die Auslastung der GTX 1070. Die liegt dann mit Originalmaterial bei ca. 4% Auslastung und der Prozessor bei 12%. Beginne ich zu rendern, geht die Last beim Prozessor gen 100% und die GPU der Grafikkarte, je nach Effekten, bis über 50%. Und was sagt das jetzt? ;))
Ich sagte, dass ich mit dieser Rechnerkonstallation unter Premiere und UHD sowohl mit h.264 als auch h.265 arbeiten kann. Halt mal mehr oder weniger "flüssig".
Was bedeuten denn diese Levelbegrenzungen (5,1) im praktischen Betrieb bzw. beim Export? Und haben neuere Prozessoren z.B. der 8700K in Verbindung mit dem Chipsatz Z370 diese Beschränkung nicht mehr. Bzw. wird das wirklich erst relevant, wenn ich z.b. als UHD/50fps exportieren möchte? (PS.: ja, stimmt, laut Tabelle ab Level 5.2 ;)

LG
Jens



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

blueplanet hat geschrieben: Do 22 Nov, 2018 22:30 Was bedeuten denn diese Levelbegrenzungen (5,1) im praktischen Betrieb bzw. beim Export? Und haben neuere Prozessoren z.B. der 8700K in Verbindung mit dem Chipsatz Z370 diese Beschränkung nicht mehr. Bzw. wird das wirklich erst relevant, wenn ich z.b. als UHD/50fps exportieren möchte? (PS.: ja, stimmt, laut Tabelle ab Level 5.2 ;)
Von der 530er (6700K) zur 630er (8700K) hat sich nicht viel getan.
Bild
VP9 kann jetzt auch in Hardware de- und encodiert werden.
Außerdem kann die 630er mittlerweile H.265 auch mit 10 Bit. Das ging mit der 530er nicht. Die konnte nur H.265/8 Bit mit Quick Sync.


Mehr geht zurzeit unter Quick Sync nicht.
Entweder man bleibt innerhalb der Spezifikationen und kann das schnelle Quick Sync nutzen, oder man lässt den Sechskerner rechnen.

UHD ist unter Level 5.1 (H.265) bis 64 Bilder/s spezifiziert. Aber Du könntest nur maximal bis 40 Mbit/s encodieren, wenn eine Unterstützung per Quicksync erfolgen soll. Anderenfalls rechnet der Sechskerner.

Teste noch mal die Intel-Grafik im Taskmanager, zumeist befindet sie sich ganz unten und man muss etwas runterscrollen. Beim Rendern in H.264 sollte sie die CPU eigentlich vom Encodieren entlasten. Es sollte dann beim Rendern Last anliegen.
Möglicherweise musst Du dazu den Monitor an das Mainboard anschließen.



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

...danke Jost! Ganz Unten im Taskmanager steht bei mir, wie gesagt, nur die GTX-GraKa (weshalb auch immer?!).
Ich werde jedoch testen und den Monitor per HDMI an das board hängen. Dann sollte die iGPU zu sehen sein und mal schauen was diese zur Timeline sagt.

Wenn ich Dich/Euch richtig verstanden habe, dann geht es bei der ganzen Diskussion: chipsatz Z170, Z370 oder etc. eigentlich nur darum, bis zu welchem Maß Quick Sync aktiv "mitarbeitet"?! Es hat keinen Einfluss darauf ob grundsätlich ein Ergebnis erzielt werden kann oder nicht?! Halt zeit-und rechenaufwendig! Und hatte Quick Sync in der Vergangenheit nicht mal ein Qualitäts-Problem?! ;)) Das die fertige Renderdatei nicht annähernd so gut aussah wie wenn nur der Prozessor "verpackt" hatte?! Alles schick jetzt?

Somit ist Quick Sync in Abhängigkeit vom Chipsatz + Prozessor "nur" dafür da, 1. das Signal per HDMI in hoher Auflösung an den Monitor geben zu können (wer braucht das, wenn es per Display Port über die GraKa ebenso geht - wohl dann eher für mobile Geräte wichtig) und 2. erleichtert Quick Sync dem Prozessor das "Aus- und Einpacken" (abhängig von bestimmten Codecs) und damit wird die Vorschau in der Timeline natürlich verbessert. Ein potenter 8 Kerner oder eine doppelte CPU könnte das vielleicht trotzdem besser/flüssiger?! Und das eigentliche Rendern, also der rechenintensive und zeitaufwendige Prozess bleibt bei der GPU der GraKa?! So ist, wäre auch meine praktische Erfahrung bzw. Wahrnehmung.

Jetzt habe ich keinen direkten Vergleich zwischen beispielsweise diesen beiden Chipsätzen und man sollte wohl auch keinen 4 Kerner (6700K) und einen 6 Kerner(8700) in einen Vergleichstopf werfen, aber ich denke mal, begründet mit den Erkenntnissen der Upgradegeschichten aus der Vergangenheit, dass auf der Timeline mit einem Z370 + i8700K keine Wunder geschehen und vorallem das diverse benchmarks eher theoretisches Wunschdenken bleiben und wenig mit dem tatsächlichen Schnitt-Bearbeitungsalltag zu tun haben?!

Was ich jedoch unterschreiben kann, ist, dass ein upgrade von 32GB Arbeitsspeicher auf 64GB + schnelleren Arbeitsspeicher, ganz unabhängig vom Chipsatz und dem Prozessor, die Berechnung von bestimmten Anwendungen (z.B. neat) um gefühlt und praktisch Lichtjahre erleichtert.
Dass das System damit wesentlich stabiler läuft. Hier steht z.B. die Ausage von Adobe, dass unter Windows 16GB Arbeitsspeicher vollkommen ausreichen...irgendwie "sinnlos" im Raum und es fehlt der wichtige Nachsatz: unter bestimmten Konstellationen ;))

Insofern und um auf den OT zurück zukommen, finde ich es unumgänglich im Vorfeld genau zu wissen und anzugeben (u.a. Bearbeitungsprogramm), was man mit der Rechnerkonstallation machen möchte...

LG
Jens



Roland Schulz
Beiträge: 3565

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Roland Schulz »

Also mit dem 6700K hatte ich in EDIUS mit UHD 50p, besonders mit HEVC Dateien Performanceprobleme, neu kaufen würde ich sowas heute nicht mehr. 10bit HEVC aus ner Mavic 2 Pro z.B. geht damit auch nicht, 50p HEVC aus ner GoPro H6/7 ist auch schwierig.
Denke der 8700K ist nach wie vor ne gute Wahl, auch wenn das Ding wieder teurer geworden ist. Bin aktuell mit nem 9900K unterwegs und da sich die Verfügbarkeit und der Preis bei ~600€ eingependelt hat sind die 33% mehr Kerne und teilweise bis zu 50% mehr Performance gar nicht wirklich überteuert finde ich. Der 8700K war allerdings mal für ~280€ zu haben.

Problem ist beim 9900K aktuell nur dass Intel bei den Treibern hinterherhinkt, denn selbst wenn die gleiche Grafik drin steckt lassen sich die aktuellen Inteltreiber nicht über den Installer installieren. Stehe da im Kontakt mit Intel, gerührt hat sich aber seit Wochen nix, auch das Update hilft nicht. Als Alternative bleibt aber ein in meinem Fall funktionierender Treiber von ASUS oder den Intel Treiber manuell aus der .zip Version zu installieren was auch keine Raketenwissenschaft ist.
Weiterhin stelle ich fest, dass QuickSync so wie aktuell per Treiber dargestellt nicht mit gespiegeltem Desktop funktioniert (nVidia und Intel am Monitor, nVidia aufgeschaltet und Desktop auf beide GPUs gespiegelt), das ging mit dem 8700K in der gleichen Plattform/Installation noch. Ich muss aktuell die iGPU als primäre GPU nutzen um QuickSync nutzen zu können, in EDIUS wie in Handbrake.
iGPU ist bei der 8700K und 9900K identisch, da gewinnt man nix.
Bei mir ist das auch alles nur an nem 2.5K Monitor im Einsatz, Videovorschau "nur" in 2K/50p über ne BMD IP4K. Keine Ahnung wie sich die iGPU an nem 4K Display verhält. 10bit kriege ich an nem CG277 trotz DP auch nicht zum laufen, mit der nVidia schon. 10bit sind da für mich aber eher sekundär, die IP4K kann 10bit für Video.



Das oben genannte Angebot finde ich allerdings auch gar nicht schlecht. Zwar nicht genau geguckt was drin ist, aber viel billiger kriegt man das durch Eigenbau auch kaum hin, dann allerdings so wie man´s haben will.

Wenn man nen paar Euros sparen will würde ich auch die 32GB Ram verzichten. Hab zwar selbst 32GB drin, stelle aber fest dass ich bei der Arbeit mit EDIUS kaum 16GB ausnutze. Die Frage ist auch ob man zwingend ne nVidia Karte dazu braucht bei den geplanten Anwendungen. Bei mir machts hier und da Sinn da die primäre Farbkorrektur in EDIUS die nVidia schon nutzt (GTX1070), "wenn" ich mal NEAT Video nutze ist das Ding auf jeden Fall auch sinnvoll. Nen Freund kommt mit nem 8700K in EDIUS aber auch sehr gut ohne weitere Grafikkarte aus, da auch mit 16GB.



Jörg
Beiträge: 10319

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jörg »

blueplanet schreibt
Hier steht z.B. die Ausage von Adobe, dass unter Windows 16GB Arbeitsspeicher vollkommen ausreichen...irgendwie "sinnlos" im Raum und es fehlt der wichtige Nachsatz: unter bestimmten Konstellationen ;))
keine Ahnung von welchen Konstellationen Adobe bei diesen, offenbar "Minimumspecs" ausgeht;-(((
Ist hier genau andersrum.
bei intensiver Nutzung von AE sind selbst bei Vollausbau des RAM mit 144 G keinerlei overtuned feelings spürbar, ganz im Gegenteil.
Für Premiere, ohne solch Resourcefresser wie Neat, sind 32 G RAM meist ausreichend.



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

...das Angebot des Händlers finde ich grundsätzlich ebenfalls gut.
Ich würde lediglich in Anbetracht der vorangegangen Diskussion (Stichpunkt: Renderarbeit) und im Falle des Fragestellers noch 'ne Schippe bei der Grafikkarte zulegen. Sprich eine GTX1070 (4GB GPU vs. 8GB GPU).
Über den Arbeitspeicher kann man sich streiten, was sinnvoll ist und was nicht. Ist wahrscheinlich auch schnittsoftwareabhängig bzw. den verwendeten Plugins geschuldet. Richtig ärgerlich, gerade bei den heutigen Preisen für DDR4-Speicher wäre, wenn man den 32GB doch gegen 64GB dann tauschen möchte. Für die "alten" 32GB bekommste bei ebay & Co noch einen "Apfel und ein Ei" bzw. da man immer im Kit tauschen sollte, bist'e beim Neuen locker mit 700€ dabei. Auch hier wäre also ein Aufpreis zu überlegen. Wenn Du für ca. 2000€ einen selbst zusammengestellten und auf deine Bedürfnisse optimierten Schnitt-PC bekommst, ist das aus meiner Sicht nicht zu viel.
Insofern ginge noch etwas mit diesem Angebot...



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

blueplanet hat geschrieben: Fr 23 Nov, 2018 08:03 Wenn ich Dich/Euch richtig verstanden habe, dann geht es bei der ganzen Diskussion: chipsatz Z170, Z370 oder etc. eigentlich nur darum, bis zu welchem Maß Quick Sync aktiv "mitarbeitet"?!
Nein, ob das Motherboard über einen Z-, B- oder H-Chipsatz verfügt, hat keinerlei Einfluss auf Quick Sync. Keinen. Der Chipsatz stellt lediglich die Schnittstelle zur CPU und seiner Grafikeinheit her. Der Chipsatz hat keinerlei Einfluss auf die Güte von Quick Sync.
Chipsätze sind definiert, was zum Beispiel Übertaktungsmöglichkeiten oder Komfort-Merkmale wie die Verteilung der PCI-Lanes angeht. Wenn Du kein Übertakten planst, kannst Du jeden beliebigen Chipsatz einer Mainboard-Reihe verwenden, ohne nennenswerte Veränderungen bei Stromverbrauch und Leistung festzustellen.
Technisch heben sich Z-Mainboards dadurch hervor, das bessere Bauteile verwendet werden, die den Ansprüchen einer Übertaktung genügen.

Es hat keinen Einfluss darauf ob grundsätlich ein Ergebnis erzielt werden kann oder nicht?! Halt zeit-und rechenaufwendig! Und hatte Quick Sync in der Vergangenheit nicht mal ein Qualitäts-Problem?! ;)) Das die fertige Renderdatei nicht annähernd so gut aussah wie wenn nur der Prozessor "verpackt" hatte?! Alles schick jetzt?
Nach meinen Tests - nein. Intel verbessert Quick Sync zwar mit jeder neuen Prozessorgeneration. Geblieben ist jedoch, dass am Ende Dateien in H.264/5 stehen. Das machen nahezu alle Programme so. Auch Davinci Resolve, das keine Quick-Sync-Unterstützung kennt.
Das Wandeln in einen Zwischencodec und Ausrendern in X.264/5 sorgt bei mir für ein sichtbar besseres Ergebnis, als das Ausrendern in H.264 (H.265 kann Davinci nicht ausgeben).
Ein potenter 8 Kerner oder eine doppelte CPU könnte das vielleicht trotzdem besser/flüssiger?! Und das eigentliche Rendern, also der rechenintensive und zeitaufwendige Prozess bleibt bei der GPU der GraKa?! So ist, wäre auch meine praktische Erfahrung bzw. Wahrnehmung.
Premiere ist kein ausgesprochenes Quick-Sync-Programm. Das ist bei Magix und Powerdirector anders. User, die auf einen AMD-Achtkerner gesetzt haben, weil er viele Kerne hat und schön billig ist, sind nur am Fluchen. AMD bietet zwar eine mit Quick Sync vergleichbare Technologie an, die wird von den Schnittprogrammen aber nicht unterstützt. Zudem haben die AMD-Achtkerner überhaupt keine Grafikeinheit.
Wie es um Intel-Achtkerner mit Quick Sync und EDIUS bestellt ist, hat Roland oben ja schon eindrucksvoll beschrieben.

Aber Fakt ist auch: Das Ausrendern in X.265, kein Quick Sync, ist eine elend langsame Sache. Mit meinem 6700K liege ich bei rund 1,2 Bilder die Sekunde. Von 4,6K DNxHR SQ runterskalieren auf UHD X.265 8 Bit funktioniert mit 0,8 Bildern die Sekunde.
Noch schlimmer wird es bei VP9. Der 10-Sekunden-Testclip war in XMedia Recode nach 2:28 Stunden fertig.

Abhilfe schafft NVEnc. Das Wandeln wird einer Nvidia-Grafikkarte überlassen. Die 10er Serie kann H.265 und 10 Bit, aber nur 4:2:0.
Das geht wirklich rasend schnell. Getestet hatte ich mit einer 980er, die nur H.264 kann. Das Ergebnis hat mir dennoch besser gefallen als das H.264, das direkt aus Davinci kam. Gewandelt hatte ich in Hybrid, das die Einstellung "Quality" anbietet. Handbrake kann das auch. Einstellmöglichkeiten habe ich dort aber keine gefunden.

Du kannst ja mal testen. Das kostenlose Premiere-Plugin Voukoder bietet zum Ausrendern NVEnc und auch X.264/5 an.

Dazu heißt es:

NVENC
Q: I do not see any NVENC encoders in the dropdown, what's wrong?
A: There can be many reasons for this.

You need to have an NVENC compatible graphics card.
You need to have at least one encoder session available. In my case Premiere CC 2017 used all encoder sessions for itself, so CC 2017 did not work. Please use the latest CC 2018 version. CS6 did work, tho!
Close all other software using NVENC (i.e. OBS)
Q: How can see the encoding sessions overview?
A: Open a command prompt and type:
cd "c:\Program Files\NVIDIA Corporation\NVSMI"
nvidia-smi.exe encodersessions



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

Der Export von Videodateien hat für verschiedene Nutzer unterschiedliche Bedeutung, der eine arbeitet nicht zeitkritisch, der andere aber schon.

Worüber man weniger streiten kann, ist das hier:
blueplanet hat geschrieben:...Info und zur Frage was unter Z170 + i 6700K + GTX 1070 in der Timeline unter Premiere und WIN10 geht und was eher nicht optimal:
- h.264 (HD 25/50fps, 8 und 10Bit) flüssig
- h.264 (UHD 25fps, 8 und 10Bit) flüssig
- h.264 (UHD 50fps, 8Bit) flüssig mit leicht angezogener "Handbremse"
- nach cineform gewandelt (UHD 50fps, 10Bit) flüssig mit stärker, angezogener "Handbremse" (besser vor rendern)
- h.265 (UHD 25fps, 8Bit) mit stärker, angezogener "Handbremse" (vor rendern fast zwingend nötig)
...das alles ohne jegliche Effekte, also nur die Originaldateien.
Falls mit *angezogener Handbremse* ruckeln gemeint ist (???), dann gibt es nur zwei Möglichkeiten dem abzuhelfen. Entweder braucht man einen besserer Prozessor oder aber Quicksync bringt die benötigte Performance.
Danach kann man dann überlegen, wie und mit was man rendert ;)



Roland Schulz
Beiträge: 3565

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Roland Schulz »

Also die Qualität die QuickSync am Ende erreicht ist wie Jost korrekt schreibt zum einen von der CPU/iGPU abhängig. Einen Qualitätindikator gibt´s da seitens Intel nicht, hatte bisher aber den 3770K, 4770K, 6700K, 8700K und jetzt den 9900K jeweils mit EDIUS im Einsatz. Wie erwähnt tut sich zwischen 8700K und 9900K nichts (gleiche GPU), die Generationen davor hatten aber immer eine jeweils schlechtere Performance (Geschwindigkeit, Fähigkeiten und auch Bildqualität).

Weiterhin habe ich festgestellt dass die Qualität sehr stark von der verwendeten Software abhängt, angeblich auch vom verwendeten Treiber denn Intel schreibt oft in die Release Notes dass die QuickSync Bildqualität verbessert wurde.

Das allermeiste mache ich aus EDIUS und da ist die Ausgabequalität bei Bitraten um die 70-100Mbps besonders bei HEVC10 wirklich sehr gut! Da muss man mit x265 schon irre lange rechnen um da dran zu kommen und selbst dann gibt´s bei Standbildvergleichen aus Bewegtszenen nicht unbedingt einen Vorteil für x265.
x264 würde ich als etwas besser ansehen als das was QuickSync da leistet, mit x264 verliere ich aber die 10bit Kompatiblität für die Endausgabe bzw. ist kein Player damit wirklich kompatibel, noch nicht mal ne GTX1060 mit MPC-HC gibt H.264 UHD 50p 10bit vernünftig wieder, HEVC10 UHD in 50p schaffen dagegen bereits die meisten 4K Mediaplayer (z.B. Zidoo X9s/Z9s für "kleines" Geld).

Jetzt ist mir allerdings was aufgefallen. Ich habe es mit bisher keiner Parametrierung geschafft aus Handbrake oder FFMPEG die gleiche Qualität über QuickSync rauszukriegen wie aus EDIUS. GV arbeitet hier nach Feedback von MMM auch sehr eng mit Intel zusammen, auch die Handbrake Implementierung konnte nur durch Zusammenarbeit mit Intel entstehen wobei´s da trotzdem krankt. Zu den anderen Softwareanbietern kann ich nichts sagen.

Auch der nvenc meiner GTX1070 liefert aus FFMPEG eine eher durchschnittliche Qualität in HEVC10, auf jeden Fall deutlich schlechter als QuickSync aus EDIUS.
In CloneBD (ja, das ist "solo" legal!!) schafft nvenc dagegen mit leider stark begrenzter max. Bitrate (~13,5Mbps) eine unglaubliche Geschwindigkeit (FHD HEVC bis ~300fps) und für die Datenrate trotzdem sehr gute (!!!) Qualität. Keine Ahnung wovon das jeweils alles abhängt.


Wenn die Anwendung mitspielt kann ich QuickSync weiterhin nur empfehlen, ich will gar nichts anderes haben denn selbst der 8+8 Kerner 9900K tut sich ohne QuickSync in EDIUS mit Mavic 2 Pro HEVC bzw. Hero 6/7 50p UHD HEVC schwer - mit QuickSync (Monitor dran) läuft das!

"Meine" Empfehlung für die Anwendungen oben also min. 8700K und wenn nen Euro übrig ist den 9900K (der 8700K ist einfach wieder "teuer2 geworden).
Wer wirklich hinterher kleine (-Bitrate), hochqualitative Dateien mit x264 generieren will (bei kleinen Datenraten/H.264 ist x264 einfach immer noch sichtbar besser) gewinnt mit dem 9900K sagen wir mal je nach Setting ~40-50% gegenüber dem 8700K.
Wenn man übertakten will gewinnt der 9900K zudem durch den verlöteten Heatspreader (läuft bei mir mit allen Kernen auf 5.0GHz, allerdings ist auch ne alphacool Hurricane Wasserkühlung mit 280er Radiator verbaut).



Wenn man allerdings primär Anwendungen nutzt die auch eine Grafikkarte stark einbinden (Premiere, Resolve) kann das sicherlich auch alles anders sein (hab da aber eher wenig Erfahrung). Für (mein) EDIUS ist QuickSync fast Pflicht, und gegen nen 9900K muss man schon ordentliche andere Prozessoren auffahren dass es wirklich noch mal signifikant schneller wird.



Roland Schulz
Beiträge: 3565

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Roland Schulz »

dienstag_01 hat geschrieben: Fr 23 Nov, 2018 11:30 Falls mit *angezogener Handbremse* ruckeln gemeint ist (???), dann gibt es nur zwei Möglichkeiten dem abzuhelfen. Entweder braucht man einen besserer Prozessor oder aber Quicksync bringt die benötigte Performance.
Danach kann man dann überlegen, wie und mit was man rendert ;)
Ist das in Premiere nicht auch codecabhängig? Mache so gut wie nix mit dem verbuggten Scheiss (wegduck ;-) ), aber ich meine dass die Grafikkarte da schon ordentlich eingebunden wird, bei Resolve auf jeden Fall auch.



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

Roland Schulz hat geschrieben: Fr 23 Nov, 2018 11:50
dienstag_01 hat geschrieben: Fr 23 Nov, 2018 11:30 Falls mit *angezogener Handbremse* ruckeln gemeint ist (???), dann gibt es nur zwei Möglichkeiten dem abzuhelfen. Entweder braucht man einen besserer Prozessor oder aber Quicksync bringt die benötigte Performance.
Danach kann man dann überlegen, wie und mit was man rendert ;)
Ist das in Premiere nicht auch codecabhängig? Mache so gut wie nix mit dem verbuggten Scheiss (wegduck ;-) ), aber ich meine dass die Grafikkarte da schon ordentlich eingebunden wird, bei Resolve auf jeden Fall auch.
Natürlich codecabhängig, die stehen ja auch im Post (Cineform lasse ich mal aussen vor, verstehe ich sowieso nicht)
Inwieweit die GPU bei Premiere für De-/Encoding mit eingebunden ist, bleibt bisher eher Spekulation. Und um mit einem GPU-Upgrade ruckelndes Material in der Timeline abzustellen, müsste nicht nur die Frage: *Ob überhaupt*, sondern auch: *Wie viel genau es bringt* beantwortet werden.



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

dienstag_01 hat geschrieben: Fr 23 Nov, 2018 11:30 Ist das in Premiere nicht auch codecabhängig? Mache so gut wie nix mit dem verbuggten Scheiss (wegduck ;-) ), aber ich meine dass die Grafikkarte da schon ordentlich eingebunden wird, bei Resolve auf jeden Fall auch.
Codec ist auch nicht alles. Lass unter Davinci mal einen Fusion-3D-Title auf die Timeline plumpsen. Du schnarchst weg, bis der endlich vorgerendert ist. Es heißt ja immer, dafür sei die Grafikkarte zuständig:
Bild
Zumindest wird es langsam besser. In der 15-Beta-Version lag die GPU-Auslastung noch bei 17 Prozent und die der CPU bei 100 Prozent.
Wo jetzt hier aber genau der Flaschenhals liegt, damit es flotter funktioniert, habe ich bislang noch nicht gefunden.
Zuletzt geändert von Jost am Fr 23 Nov, 2018 13:20, insgesamt 1-mal geändert.



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

Jost hat geschrieben:Es heißt ja immer, dafür sei die Grafikkarte zuständig
Wer sagt das, der Volksmund?



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

dienstag_01 hat geschrieben: Fr 23 Nov, 2018 13:10
Jost hat geschrieben:Es heißt ja immer, dafür sei die Grafikkarte zuständig
Wer sagt das, der Volksmund?
Ja: Effekte = Grafikkarte



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

Jost hat geschrieben: Fr 23 Nov, 2018 13:21
dienstag_01 hat geschrieben: Fr 23 Nov, 2018 13:10
Wer sagt das, der Volksmund?
Ja: Effekte = Grafikkarte
Falsch. Richtig ist: ausgewählte Effekte (sind gekennzeichnet) = Grafikkarte



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

...mit "Handbremse" meine ich tatsächlich "das berüchtigte Ruckeln". Und ich kann auch nicht nachvollziehen, dass in diversen Test behauptet wird:"...Premiere läuft flüssig auf mindestens 7...Spuren". Das heißt nämlich für einen nicht Premiere-Kenner - es läuft immer flüssig bis...!
Nein, tut es nicht...selten mal in zwei Spuren und dann wieder nicht auf einen längeren Zeitraum bzw. ist es total abhängig von der Größe des Projekts, von den involvierten Codecs, von der Framezahl und natürlich der Pixelabmessung. Das war und ist in all meinen Rechnergernerationen so und Verbesserungen wurden wahrscheinlich mit der sich gleichzeitig, stetig erhöhenden Anforderung an die Hardware, sofort wieder "aufgefressen".

Das die Grafikkarte bzw. der GPU hauptsächlich für das Rendern zuständig ist (siehe auch meine vorherigen Ausführungen) und von Premiere dafür "aufgefordert" wird, stimmt im Prinzip. Aber...das trifft nur auf Veränderungen gegenüber dem Originalmaterial zu (ergo Effekte).
Spiele ich den Originalfile 1:1 zurück, habe ich auf meinem System nur Prozessorlast und keine GPU-Auslastung seitens der dezentralen Grafik. Somit wird, ist wohl bestätigt, dass die Grafikkarte kein De- und Encodieren im eigentlichen Sinne übernimmt.

Trotzdem und ich bleibe dabei - gerade für eine schnelle Rendergeschwindigkeit ist eine gute Grafikkarte wichtiger als ein Highend-Prozessor (im Universum WIN + Premiere + h.264/5).
Dieser wiederum kommt für die flüssige Wiedergabe in der Timeline zum tragen. Und mit dem i6700 + dem Z170 (denn ein Z170 kann keinen I8700 ordungsgemäß ansteuern, wohl aber ein Z370 ;) ist das z.B. mit h.265-Material aus der H6 oder der Mavic, ohne vorheriges Rendern oder Convertieren nach u.a. cineform, kaum möglich.

Frage...ist es mit einem i8700 + Z370 ohne Rendern möglich?
Das dabei jedoch noch weitere Komponenten (div. Cache?) hineinspielen (müssen) zeigt auch der Umstand...das es nicht generell immer und jeder Zeit "ruckelt". Springe ich z.B. in der Timeline nocheinmal zum Anfang des Clips, kann es sein, dass dieser im zweiten Anlauf (bei voller CPU-Auslastung) völlig flüssig eine Minute läuft und sich erst dann erneut "fest rennt"...
Zuletzt geändert von blueplanet am Fr 23 Nov, 2018 13:54, insgesamt 2-mal geändert.



Jost
Beiträge: 2045

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jost »

Roland Schulz hat geschrieben: Fr 23 Nov, 2018 11:45 In CloneBD (ja, das ist "solo" legal!!) schafft nvenc dagegen mit leider stark begrenzter max. Bitrate (~13,5Mbps) eine unglaubliche Geschwindigkeit (FHD HEVC bis ~300fps) und für die Datenrate trotzdem sehr gute (!!!) Qualität. Keine Ahnung wovon das jeweils alles abhängt.
Womit hast Du CloneBD gefüttert? DNxHR-Dateien werden nicht erkannt.



dienstag_01
Beiträge: 13368

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von dienstag_01 »

blueplanet hat geschrieben: Fr 23 Nov, 2018 13:34 ...mit "Handbremse" meine ich tatsächlich "das berüchtigte Ruckeln". Und ich kann auch nicht nachvollziehen, dass in diversen Test behauptet wird:"...Premiere läuft flüssig auf mindestens 7...Spuren". Das heißt nämlich für einen nicht Premiere-Kenner - es läuft immer flüssig bis...!
Nein, tut es nicht...selten mal in zwei Spuren und dann wieder nicht auf einen längeren Zeitraum bzw. ist es total abhängig von der Größe des Projekts, von den involvierten Codecs, von der Framezahl und natürlich der Pixelabmessung. Das war und ist in all meinen Rechnergernerationen so und Verbesserungen wurden wahrscheinlich mit der sich gleichzeitig, stetig erhöhenden Anforderung an die Hardware, sofort wieder "aufgefressen".

Das die Grafikkarte bzw. der GPU hauptsächlich für das Rendern zuständig ist (siehe auch meine vorherigen Ausführungen) und von Premiere dafür "aufgefordert" wird, stimmt im Prinzip. Aber...das trifft nur auf Veränderungen gegenüber dem Originalmaterial zu (ergo Effekte).
Spiele ich den Originalfile 1:1 zurück, habe ich auf meinem System nur Prozessorlast und keine GPU-Auslastung seitens der dezentralen Grafik. Somit wird, ist wohl bestätigt, dass die Grafikkarte kein De- und Encodieren im eigentlichen Sinne übernimmt.

Trotzdem und ich bleibe dabei - gerade für eine schnelle Rendergeschwindigkeit ist eine gute Grafikkarte wichtiger als ein Highend-Prozessor (im Universum WIN + Premiere + h.264/5).
Dieser wiederum kommt für die flüssige Wiedergabe in der Timeline zum tragen. Und mit dem i6700 + dem Z170 (denn ein Z170 kann keinen I8700 ordungsmeäß ansteuern, wohl aber ein Z370 ;) ist das z.B. mit h.265-Material aus der H6 oder der Mavic ohne vorheriges Rendern oder Convertieren, nach u.a. cineform, kaum möglich.

Frage...ist es mit einem i8700 + Z370 ohne Rendern möglich?
Das dabei jedoch noch weitere Komponenten (div. Cache?) hineinspielen (müssen) zeigt auch der Umstand...das es nicht generell immer und jeder Zeit "ruckelt". Springe ich z.B. in der Timeline nocheinmal zum Anfang des Clips, kann es sein, dass dieser im zweiten Anlauf (bei voller CPU-Auslastung) völlig flüssig eine Minute läuft und sich erst dann erneut "fest rennt"...
Nochmal, dir ist zu empfehlen, Quicksync zu testen (iGPU ein, Häkchen bei Decoding in Premiere setzen).



blueplanet
Beiträge: 1497

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von blueplanet »

dienstag_01 hat geschrieben: Fr 23 Nov, 2018 13:56 Nochmal, dir ist zu empfehlen, Quicksync zu testen (iGPU ein, Häkchen bei Decoding in Premiere setzen).
...also Häkchen bei "Hardwarebeschleunigter Decodierung aktivieren"?! Ist bei mir gesetzt (kommt ja standartmäßig mit der Installation). Aber jetzt kommt irgendwie die alte Diskussion über die nebulöse Qualität von Quick Sync wieder hoch, die wir schon vor Jahren führten. Bereits damals ging es um Quantität vs. Qualität. Vielleicht sollte man Quick Sync doch lieber temporär nutzen und schon gar nicht für die finale Ausgabe?!



Jörg
Beiträge: 10319

Re: 4K Videoschnittrechner - Bitte um Beurteilung

Beitrag von Jörg »

Bei solchen Diskussionen über Premiere stehe ich immer etwas hilflos vor dem Geschriebenen.
Wo ist das Problem?
ist mir doch vollkommen egal, ob nun ne schnelle Grafikeinheit meine Arbeit beschleunigt, oder eine starke CPU in Verbindung mit RAM.
ich habe halt beides im Rechner.
Und wenn ich meine, jetzt auch noch 12K waswweißichdenn bearbeiten zu müssen, ja meine Güte, dann rechne ich halt proxies, notfalls in DV Auflösung, wenn mein Rechner nix anderes packt.
Meine Kiste rechnet 4K 25p DNxHD in drittelrealtime raus, das anschließende H264 in 75% RT, ganz ohne quickbums oder sonstwelchen Firlefanz.
Wenn der Rechner anständig konfiguriert ist, die scratchdisks sauber eingebunden, das Material ohne Flaschenhals transportiert wird, dann ruckelt hier auch nix.
Wenn ich natürlich Neat und einige andere feine Fresser wie Magic bullet Späße, unendliche timeramps und sechs PiPs auf 7 Spuren verteile, naja... wenn dann die Maschine auch noch unter 2000€ kosten"darf" ist es einfach über ein NLE zu lästern,
das dann ruckelnde timelines bereit hält.



 Aktuelle Beiträge [alle Foren]
 
» Was schaust Du gerade?
von roki100 - Di 0:52
» ZRAW - Allgemeines und Umwandlung
von roki100 - Mo 22:49
» Warnung vor LED-Leuchten mit internem Akku
von Blackbox - Mo 22:36
» After Effects CS6 Green Screen Frage
von macaw - Mo 22:07
» Wie Dune Teil 2 entstand - DoP Greig Fraser und Hans Zimmer im Interview
von iasi - Mo 22:02
» Apple setzt auf lokale KIs in iPhone, iPad und Mac
von Jost - Mo 20:48
» Sony Alpha 9 III Sensor Test: Shutter, Debayering und Dynamik
von iasi - Mo 20:35
» IDEENFINDUNG: Wie man spannende Filme entwickelt! mit Vi-Dan Tran (Actiondesigner DUNE)
von Nigma1313 - Mo 16:54
» Panasonic AG AC 90 Zubehörschuh
von martin2 - Mo 16:53
» Zu verkaufen Viltrox 56mm 1.4 Viltrox 85mm 1.8 MKII Fuji X mount
von Jörg - Mo 14:27
» Musk macht GROK zu Open Scource
von SamSuffy - Mo 13:09
» The Next Big Thing? LED-Riesenkugel Sphere will Massen-Immersion neu definieren
von Alex - Mo 13:08
» Mocha Pro 2024 integriert 3D-Tracking von SynthEyes
von slashCAM - Mo 13:00
» Was hast Du zuletzt gekauft?
von Funless - Mo 12:54
» Software Tools für Productivity
von Frank Glencairn - Mo 12:51
» welches mikro für live-konzerte?
von Skeptiker - Mo 11:11
» Mikrohalterung Sony FS5 und Z150
von nicecam - Mo 11:05
» Apple Vision Pro: Verkaufsstart (USA) ab Februar für 3.499,- Dollar + neuer Werbeclip
von Frank Glencairn - Mo 9:18
» Drohne bauen, die nicht zu orten ist …?
von Jalue - So 22:02
» Werbung - es geht auch gut ;) Sammelthread
von 7River - So 17:07
» Monitor-Leuchte als Alternative zur Tischlampe ? - Quntis ScreenLinear Pro
von Jack43 - So 16:14
» Oppenheimer - inhaltlich und spirituell
von Frank Glencairn - So 15:43
» - Erfahrungsbericht - DJI Pocket 3
von klusterdegenerierung - So 13:20
» LG investiert 1 Milliarde Dollar in OLED-Produktion
von slashCAM - So 11:36
» 30-300mm T4 Cinezoom von Viltrox
von rush - So 8:03
» Revolutionäre Video-KI Sora soll noch dieses Jahr kommen
von Alex - So 7:49
» Wenn nennt man die Musik?
von Alex - So 7:29
» 7Artisans Sprite 24-96mm T2.9 - 4x Cinezoom für S35
von roki100 - Sa 22:57
» Was hörst Du gerade?
von klusterdegenerierung - Sa 20:42
» Biete: Manfrotto MH057M0-Q5 Kugelkopf
von beiti - Sa 18:17
» Suche LUT names Acuity
von jojo1243 - Sa 17:40
» Plant Nikon eine REDCODE RAW-Offensive zur NAB 2024?
von iasi - Sa 14:57
» The Crow — Rupert Sanders
von Gol - Sa 12:09
» Lohnt Kauf Canon HV40
von Bruno Peter - Sa 12:00
» Pika integriert Sound-Effekte in seine KI-Videos
von slashCAM - Sa 10:24