Der i5 wird sich bei raw zutode langweilen, weil er außer Daten durchschieben quasi nix zu tun hat, das passiert alles auf der GPU.Jost hat geschrieben: ↑So 13 Jan, 2019 22:16
Stimmt! Aber was machen, wenn die Tasche dünn ist?
Außerdem ist es sehr vernünftig zu fragen, was ein Rechner kostet, wenn man mit Raw arbeitet.
Es hat sich noch nicht rumgesprochen, dass nur die Speichermedien der Kamera teurer sind.
Dein Rat ist sehr unglücklich: Mit einem mittelprächtigen i5 aus dem Jahr 2013 unter der Haube, wird man mit 4K-Raw/60p wenig Spaß haben. Egal welche GPU man einbaut. Egal welche. Der Schnitt geht nun mal nur über Zwischencodecs.
Und von welcher Stelle aus, vom Zwischencodec oder der Raw-Datei, man am Ende ausrendert, steht unter Davinci jedem frei.
Bin ich anderer Ansicht. Habe aber keinen i5.Frank Glencairn hat geschrieben: ↑Mo 14 Jan, 2019 10:28 Der i5 wird sich bei raw zutode langweilen, weil er außer Daten durchschieben quasi nix zu tun hat, das passiert alles auf der GPU.
CPU: 6700K
GTX 980M/8 GB. Clevo-Notebook für das mobile Arbeiten.
Dem muss ich aus praktischer Erfahrung klar widersprechen. Auf meinem i7-Haswell-6-Kern-PC lief das 4K-CinemaDNG-Material der Pocket 4K erst flüssig (und überhaupt brauchbar), nachdem ich die Grafikkarte von einer GTX970 auf eine 1080Ti aufgerüstet hatte. Das war ein Unterschied wie Tag und Nacht.
Von wegen "über Software". Bei CDNG gibt's nix signifikantes zu decodieren, das muß nur debayert werden, was über die GPU läuft.
Das widerspricht sich nicht. Dein oller Sechskerner bringt schließlich 12 Threads mit. Dass der flotter als mein 6700K rechnet, will ich gern glauben.Frank Glencairn hat geschrieben: ↑Mi 16 Jan, 2019 13:12Von wegen "über Software". Bei CDNG gibt's nix signifikantes zu decodieren, das muß nur debayert werden, was über die GPU läuft.
Wenn ich BM 4K CDNGs schneide, läuft selbst meine älteste, nahezu antike CPU (Intel Core7 980 Gulftown 6kerner, mittlerweile 8 Jahre alt - Win7) mit unter 50%, während die GPU fast am Anschlag (85%) ist.
Kann ich hier alles nicht nachvollziehenJost hat geschrieben: ↑Mi 16 Jan, 2019 14:36
Hast Du unter "View" - "Bypass Grading and Fusion" angeklickt? Ansonsten wird zusätzliche Last auf der GPU generiert.
Dass die GTX 970er in die Knie ging, will ich gern glauben. Bei meinem Testclip liegen 4,9 GB GPU-Ram an. Die 970 hat nur 4 (3,5).
Bleibe aber dabei: Für UHD-CDng reicht ein I5 nicht. Da ist man mit BM RAW und einer flotten Nvidia viel besser aufgehoben.
Da hat sich nicht so richtig was getan. Bisschen Taktplus bei gleicher Abwärme und Energieverbrauch. Dass der 6700K 20 Prozent mehr Taktplus gegenüber Deinem Sechskerner hat, macht den Kohl nicht richtig fett. Der Sechskerner hat ja nicht nur zwei Kerne mehr, er hat auch noch zweimal HT zusätzlich. Der I5 läuft mit 4 Threads, der 6700K mit 8, Dein oller Sechskerner mit 12. Das macht man nicht einfach mit 20 Prozent Taktplus wett.Frank Glencairn hat geschrieben: ↑Mi 16 Jan, 2019 15:06 Weder CPU, noch RAM (24GB) noch GPU, noch V-Ram sind jemals voll am Anschlag.
Und selbst wenn der i5, oder dein 6700K (der noch dazu mit 4 mHz statt meiner mit 3.3 läuft) keine 6 Kerne haben, sollten beide doch schneller als meine 8 Jahre alte Uralt Mühle sein - sind ja schließlich mehrere Generationen dazwischen.
Nee, der läuft stumpf mit 4Ghz. Es war außerdem auch nur ein 10-Sekunden-Clip. Was soll da so warm werden, dass sich die CPU runtertaktet. Der bleibt stabil, selbst wenn ich ihn zwei Stunden zum Encodieren mit x.265 zwinge.Scheint also ein Problem mit deinem Rechner/Setup zu sein.
Womöglich einfach nur das Throtteling von deinem Laptop - Mobilhardware ist immer nachteilig.
Bei 4K würde ich auch nicht auf 1:13 gehen. Das ganze ist aber was ganz anderes in 8K. Da hab ich auf dem 8K Monitor hier noch keine Artefakte gesehen.iasi hat geschrieben: ↑Sa 12 Jan, 2019 19:52Also ich hatte schon bei 8:1 Artefakte selbst auf einem HD-TV gesehen, da sie nicht zu übersehen waren.j.t.jefferson hat geschrieben: ↑Fr 11 Jan, 2019 01:47
Hab den dell 8K Monitor und auch bei 1:13 oder 1:14 keine Artefakte gesehen.
Es gibt nun einmal Aufnahmesituationen bzw Motive, da zeigt sich die Kompression von RedRaw - wenn man es übertreibt.
Mit 12:1 kommt eben auch RedRaw bei bestimmten (extremen) Aufnahmen an seine Grenzen.
Bei 4K ist das natürlich was anderes...j.t.jefferson hat geschrieben: ↑Mo 21 Jan, 2019 15:34Bei 4K würde ich auch nicht auf 1:13 gehen. Das ganze ist aber was ganz anderes in 8K. Da hab ich auf dem 8K Monitor hier noch keine Artefakte gesehen.iasi hat geschrieben: ↑Sa 12 Jan, 2019 19:52
Also ich hatte schon bei 8:1 Artefakte selbst auf einem HD-TV gesehen, da sie nicht zu übersehen waren.
Es gibt nun einmal Aufnahmesituationen bzw Motive, da zeigt sich die Kompression von RedRaw - wenn man es übertreibt.
Mit 12:1 kommt eben auch RedRaw bei bestimmten (extremen) Aufnahmen an seine Grenzen.