Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr Forum



Wie viel muss man für 4K RAW ausgeben?



Die Hardware ist tot, es lebe die Hardware. Fragen zu Optimierung von Schnittsystemen, den idealen Komponenten sowie Verkabelungen, RAID...
Antworten
Darth Schneider
Beiträge: 19006

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Darth Schneider »

Früher hab ich alles in Premiere Elements gemacht und dort hat man nicht viele Möglichkeiten. Jetzt nutz ich Resolve, aber erst seit kurzem.
Also es gibt noch genug Luft nach oben, was mein Know-how betrifft.
Aber danke für die Liste, werde mich da durchkämpfen und ein paar Tests machen.
Gruss Boris
Alles vor und rund herum um die Kamera ist für einen guten Film viel, viel wichtiger als die Kamera selber.



Frank Glencairn
Beiträge: 22533

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn »

Jost hat geschrieben: So 13 Jan, 2019 22:16
Stimmt! Aber was machen, wenn die Tasche dünn ist?
Außerdem ist es sehr vernünftig zu fragen, was ein Rechner kostet, wenn man mit Raw arbeitet.
Es hat sich noch nicht rumgesprochen, dass nur die Speichermedien der Kamera teurer sind.

Dein Rat ist sehr unglücklich: Mit einem mittelprächtigen i5 aus dem Jahr 2013 unter der Haube, wird man mit 4K-Raw/60p wenig Spaß haben. Egal welche GPU man einbaut. Egal welche. Der Schnitt geht nun mal nur über Zwischencodecs.
Und von welcher Stelle aus, vom Zwischencodec oder der Raw-Datei, man am Ende ausrendert, steht unter Davinci jedem frei.
Der i5 wird sich bei raw zutode langweilen, weil er außer Daten durchschieben quasi nix zu tun hat, das passiert alles auf der GPU.
Ich weiß nicht woher der Mythos kommt, raw wäre irgendwie ein anspruchsvoller Codoc,was die Hardware betrifft - das flutsch deutlich besser als die ganzen extrem komprimierten.
Das einzige raw, das (noch) ne CPU braucht, ist das von RED, der OT hat aber ne BM Kamera - ist also kein Thema.

Diese ganze Proxie Hin und Herrechnerei ist mittlerweile komplett obsolet, wenn man nicht auf einem völlig schwachbrüstigem uralt Laptop arbeiten muß.
Sapere aude - de omnibus dubitandum



klusterdegenerierung
Beiträge: 27267

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von klusterdegenerierung »

Ja dafür spricht auch, das ich das 4K Raw aus meinem Shogun am 2008 iMac mit 4GB Ram auf der Resolve Timline in Echtzeit previewen kann, obwohl Resolve nicht mal meine alte GPU erkennt bzw akzeptiert, mit h264 geht das nicht.

Für Raw reicht auch ein össeliger Laptop, darf dann aber nur nix anderes mit rein kommen.
"Was von Natur aus flach ist, bläht sich auf!"



Darth Schneider
Beiträge: 19006

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Darth Schneider »

An Frank
Vieleicht kommt der Mythos auch daher das manche halt auf einer 60P 4K Timeline schneiden wollen (aus welchem Grund auch immer ) und 15 Spuren in Echtzeit brauchen, bevor die dann den Film auf YouTube veröffentlichen.
Dann wird jeder Rechner langsam.
Gruss Boris
Alles vor und rund herum um die Kamera ist für einen guten Film viel, viel wichtiger als die Kamera selber.



klusterdegenerierung
Beiträge: 27267

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von klusterdegenerierung »

Und sie haben noch Lightroom auf und es läuft noch eine Alpendoku im MPC Player. :-)
"Was von Natur aus flach ist, bläht sich auf!"



Jost
Beiträge: 2045

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost »

Frank Glencairn hat geschrieben: Mo 14 Jan, 2019 10:28 Der i5 wird sich bei raw zutode langweilen, weil er außer Daten durchschieben quasi nix zu tun hat, das passiert alles auf der GPU.
Bin ich anderer Ansicht. Habe aber keinen i5.
Dafür zum Testen einen 6700K, der mit seinen acht Threads immer sauber 4 GHz drückt. Timeline auf 1080 + "Bypass Color Grades und Fusion Effects". Daten von einer PCIe M.2.
Schneiden geht mit 4,6K/30p prima, aber ruckelfreies Abspielen zum Editieren nicht. Auch nicht, wenn man zusätzlich Proyx "Quarter Resolution" zuschaltet.
Der 6700k ist bereits bei 1080/25p-Raw gut am rechnen. Die Auslastung liegt bei knapp 40 Prozent.

Woher speist sich der Optimismus, ein i5 mit nur vier Threads und nur 3.2 Ghz Allcore-Turbo würde sich mit UHD-Raw langweilen? Der hat schließlich rund 60 Prozent weniger Leistung als ein 6700K.



Frank Glencairn
Beiträge: 22533

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn »

Welcher Codec und welche CPU?
Sapere aude - de omnibus dubitandum



Jost
Beiträge: 2045

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost »

Frank Glencairn hat geschrieben: Di 15 Jan, 2019 18:08 Welcher Codec und welche CPU?
CPU: 6700K
Codec: CDng
Was eben aus einer BM 4.6 rauskommt.
Das 1080/25p-Raw (Mountain Bike) kommt direkt von BM:
https://downloads.blackmagicdesign.com/ ... n-Bike.zip

Kannst den ollen i5 aber selbst emulieren: Im UEFI stelle das HT von Deinem, wenn ich mich richtig erinnere, 1920x ab. Dann werden aus 16 Threads nur noch 8 Threads. Und dann vier von acht Kerne stilllegen. Dann hast Du nur noch 4 Threads wie der olle i5. Anschließend ist Dein 1920x dennoch etwa 15 Prozent schneller als der olle I5. Von dem Du behauptest, er würde sich unter UHD/25p-Raw langweilen.
Geekige Grüße



Paralkar
Beiträge: 1753

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Paralkar »

Und was für ne Graka?
DIT/ digital Colorist/ Photographer



Jost
Beiträge: 2045

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost »

Paralkar hat geschrieben: Mi 16 Jan, 2019 09:46 Und was für ne Graka?
GTX 980M/8 GB. Clevo-Notebook für das mobile Arbeiten.
Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Hardware-Beschleunigung beim Decodieren gibt es nur mit BM Raw, was die 4K-Pocket ja kann.
In der SDK wird das so grafisch dargestellt:
Bild

SSE, AVX and AVX2 können alle Intel- und AMD-CPUs seit dem Jahr 2008, also auch der olle I5. Selbst die alte 750TI sollte für das reine Dekodieren reichen. Das habe ich aber nicht getestet, weil ich im Fundus keine so alte und langsame Grafikkarte habe.

Ob eine langsame CPU eine schnelle GPU beim Dekodieren ausbremst oder ob es umgekehrt der Fall ist, dazu gibt es in der SDK keine Angaben.
1.1 Decoder Overview
The CPU decoder has been designed to scale from laptops to workstations with a large number of cores. The CPU decoder will utilise SSE, AVX and AVX2 instructions if available. The user has control to limit the CPU decoder to fewer threads if desired. There are several GPU decoders available, including Metal, CUDA, and OpenCL. The final processed image from each decoder will be provided in a buffer object native to the respective GPU API. This will allow quick access for further processing or display. The GPU decoders are dynamically loaded, meaning they will require the system to have the relevant APIs installed in order to function. The SDK has been designed for multi-GPU and multi-process capabilities allowing high level workstations to use all the resources available in the system.

Geht es aus dem Schnitt in die Bearbeitung, wird man aber ohnehin eine schnelle GPU brauchen. Vorzugsweise eine Nvidia, weil man dann zusätzlich die Hardware-Beschleunigung beim De- und Encodieren von H.264/H.265 kostenlos erhält.
Das sind schon feine Sachen, die Blackmagic ihrem Davinci Resolve mit auf den Weg gegeben hat. Im Augenblick kann da nur der Powerdirector mithalten, der aber keine Zwischencodes oder Raw kann.
Setzt man auf den Gebrauchtmarkt, ist man mit Haswell-i7 und GTX 1080 mit ~450 Euro dabei. Das ist vergleichsweise wenig Geld für einen Davinci-Rechner, der Dampf unter der Haube hat. Vorausgesetzt, man nutzt die GPU-Hardware-Beschleunigung.



cantsin
Beiträge: 14103

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von cantsin »

Jost hat geschrieben: Mi 16 Jan, 2019 12:04 Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.
Dem muss ich aus praktischer Erfahrung klar widersprechen. Auf meinem i7-Haswell-6-Kern-PC lief das 4K-CinemaDNG-Material der Pocket 4K erst flüssig (und überhaupt brauchbar), nachdem ich die Grafikkarte von einer GTX970 auf eine 1080Ti aufgerüstet hatte. Das war ein Unterschied wie Tag und Nacht.

(Beziehe mich auf Resolve.)



Frank Glencairn
Beiträge: 22533

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn »

Jost hat geschrieben: Mi 16 Jan, 2019 12:04
Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Von wegen "über Software". Bei CDNG gibt's nix signifikantes zu decodieren, das muß nur debayert werden, was über die GPU läuft.

Wenn ich BM 4K CDNGs schneide, läuft selbst meine älteste, nahezu antike CPU (Intel Core7 980 Gulftown 6kerner, mittlerweile 8 Jahre alt - Win7) mit unter 50%, während die GPU fast am Anschlag (85%) ist.
Sapere aude - de omnibus dubitandum



Jost
Beiträge: 2045

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost »

Frank Glencairn hat geschrieben: Mi 16 Jan, 2019 13:12
Jost hat geschrieben: Mi 16 Jan, 2019 12:04
Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Von wegen "über Software". Bei CDNG gibt's nix signifikantes zu decodieren, das muß nur debayert werden, was über die GPU läuft.

Wenn ich BM 4K CDNGs schneide, läuft selbst meine älteste, nahezu antike CPU (Intel Core7 980 Gulftown 6kerner, mittlerweile 8 Jahre alt - Win7) mit unter 50%, während die GPU fast am Anschlag (85%) ist.
Das widerspricht sich nicht. Dein oller Sechskerner bringt schließlich 12 Threads mit. Dass der flotter als mein 6700K rechnet, will ich gern glauben.
4,6K/30p auf 1080er Timeline.
Bild
Bild

Hast Du unter "View" - "Bypass Grading and Fusion" angeklickt? Ansonsten wird zusätzliche Last auf der GPU generiert.

Dass die GTX 970er in die Knie ging, will ich gern glauben. Bei meinem Testclip liegen 4,9 GB GPU-Ram an. Die 970 hat nur 4 (3,5).

Bleibe aber dabei: Für UHD-CDng reicht ein I5 nicht. Da ist man mit BM RAW und einer flotten Nvidia viel besser aufgehoben.



Frank Glencairn
Beiträge: 22533

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn »

Jost hat geschrieben: Mi 16 Jan, 2019 14:36
Hast Du unter "View" - "Bypass Grading and Fusion" angeklickt? Ansonsten wird zusätzliche Last auf der GPU generiert.

Dass die GTX 970er in die Knie ging, will ich gern glauben. Bei meinem Testclip liegen 4,9 GB GPU-Ram an. Die 970 hat nur 4 (3,5).

Bleibe aber dabei: Für UHD-CDng reicht ein I5 nicht. Da ist man mit BM RAW und einer flotten Nvidia viel besser aufgehoben.
Kann ich hier alles nicht nachvollziehen

Mit Bypass: CPU 30%, GPU 15% bei 7% Video-RAM Auslastung
Ohne Bypass: CPU unter 35%, GPU bei 28% Video-RAM Auslastung.

Das bezieht sich auf den reinen Schnittbetrieb (4k raw in HD Timeline), weil da Resolve mit allerlei Tricks arbeitet, um ein geschmeidiges Ergebnis abzuliefern..
Beim Rendern sind die Werte etwas höher, wie ich oben schon geschrieben hatte, aber selbst da sind die Hardware Anforderungen eher moderat.
Weder CPU, noch RAM (24GB) noch GPU, noch V-Ram sind jemals voll am Anschlag.

Und selbst wenn der i5, oder dein 6700K (der noch dazu mit 4 mHz statt meiner mit 3.3 läuft) keine 6 Kerne haben, sollten beide doch schneller als meine 8 Jahre alte Uralt Mühle sein - sind ja schließlich mehrere Generationen dazwischen.


Scheint also ein Problem mit deinem Rechner/Setup zu sein.
Womöglich einfach nur das Throtteling von deinem Laptop - Mobilhardware ist immer nachteilig.
Sapere aude - de omnibus dubitandum



Jost
Beiträge: 2045

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost »

Frank Glencairn hat geschrieben: Mi 16 Jan, 2019 15:06 Weder CPU, noch RAM (24GB) noch GPU, noch V-Ram sind jemals voll am Anschlag.

Und selbst wenn der i5, oder dein 6700K (der noch dazu mit 4 mHz statt meiner mit 3.3 läuft) keine 6 Kerne haben, sollten beide doch schneller als meine 8 Jahre alte Uralt Mühle sein - sind ja schließlich mehrere Generationen dazwischen.
Da hat sich nicht so richtig was getan. Bisschen Taktplus bei gleicher Abwärme und Energieverbrauch. Dass der 6700K 20 Prozent mehr Taktplus gegenüber Deinem Sechskerner hat, macht den Kohl nicht richtig fett. Der Sechskerner hat ja nicht nur zwei Kerne mehr, er hat auch noch zweimal HT zusätzlich. Der I5 läuft mit 4 Threads, der 6700K mit 8, Dein oller Sechskerner mit 12. Das macht man nicht einfach mit 20 Prozent Taktplus wett.

Scheint also ein Problem mit deinem Rechner/Setup zu sein.
Womöglich einfach nur das Throtteling von deinem Laptop - Mobilhardware ist immer nachteilig.
Nee, der läuft stumpf mit 4Ghz. Es war außerdem auch nur ein 10-Sekunden-Clip. Was soll da so warm werden, dass sich die CPU runtertaktet. Der bleibt stabil, selbst wenn ich ihn zwei Stunden zum Encodieren mit x.265 zwinge.
Er ist halt zu langsam für 4,6K/30p. Mit 1080p klappt es, mit UHD und 25 Bildern wird es wohl auch klappen. Aber wenn jedes 4,6K Bild fast 13 MB groß ist, dann gehen da halt knapp 400 MB die Sekunde durch. Das sind richtig große Datenmengen, die verarbeitet werden wollen.

Woher das bisschen GPU-Last kommt, vermag ich nicht zu sagen. Dass es vom Dekodieren kommt, möchte ich fast ausschließen. CDNG ist schließlich ein Adobe-Produkt. Und Adobe hat mit GPU-Beschleunigung eigentlich nichts am Hut. Die haben es vor einem halben Jahr erst geschafft, in Premiere Quick Sync zu integrieren. Aber nicht für das Decodieren, sondern nur für das Encodieren.



j.t.jefferson
Beiträge: 989

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von j.t.jefferson »

iasi hat geschrieben: Sa 12 Jan, 2019 19:52
j.t.jefferson hat geschrieben: Fr 11 Jan, 2019 01:47

Hab den dell 8K Monitor und auch bei 1:13 oder 1:14 keine Artefakte gesehen.
Also ich hatte schon bei 8:1 Artefakte selbst auf einem HD-TV gesehen, da sie nicht zu übersehen waren.

Es gibt nun einmal Aufnahmesituationen bzw Motive, da zeigt sich die Kompression von RedRaw - wenn man es übertreibt.

Mit 12:1 kommt eben auch RedRaw bei bestimmten (extremen) Aufnahmen an seine Grenzen.
Bei 4K würde ich auch nicht auf 1:13 gehen. Das ganze ist aber was ganz anderes in 8K. Da hab ich auf dem 8K Monitor hier noch keine Artefakte gesehen.



nic
Beiträge: 2028

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von nic »

j.t.jefferson hat geschrieben: Mo 21 Jan, 2019 15:34
iasi hat geschrieben: Sa 12 Jan, 2019 19:52

Also ich hatte schon bei 8:1 Artefakte selbst auf einem HD-TV gesehen, da sie nicht zu übersehen waren.

Es gibt nun einmal Aufnahmesituationen bzw Motive, da zeigt sich die Kompression von RedRaw - wenn man es übertreibt.

Mit 12:1 kommt eben auch RedRaw bei bestimmten (extremen) Aufnahmen an seine Grenzen.
Bei 4K würde ich auch nicht auf 1:13 gehen. Das ganze ist aber was ganz anderes in 8K. Da hab ich auf dem 8K Monitor hier noch keine Artefakte gesehen.
Bei 4K ist das natürlich was anderes...



 Aktuelle Beiträge [alle Foren]
 
» Was schaust Du gerade?
von roki100 - Di 0:52
» ZRAW - Allgemeines und Umwandlung
von roki100 - Mo 22:49
» Warnung vor LED-Leuchten mit internem Akku
von Blackbox - Mo 22:36
» After Effects CS6 Green Screen Frage
von macaw - Mo 22:07
» Wie Dune Teil 2 entstand - DoP Greig Fraser und Hans Zimmer im Interview
von iasi - Mo 22:02
» Apple setzt auf lokale KIs in iPhone, iPad und Mac
von Jost - Mo 20:48
» Sony Alpha 9 III Sensor Test: Shutter, Debayering und Dynamik
von iasi - Mo 20:35
» IDEENFINDUNG: Wie man spannende Filme entwickelt! mit Vi-Dan Tran (Actiondesigner DUNE)
von Nigma1313 - Mo 16:54
» Panasonic AG AC 90 Zubehörschuh
von martin2 - Mo 16:53
» Zu verkaufen Viltrox 56mm 1.4 Viltrox 85mm 1.8 MKII Fuji X mount
von Jörg - Mo 14:27
» Musk macht GROK zu Open Scource
von SamSuffy - Mo 13:09
» The Next Big Thing? LED-Riesenkugel Sphere will Massen-Immersion neu definieren
von Alex - Mo 13:08
» Mocha Pro 2024 integriert 3D-Tracking von SynthEyes
von slashCAM - Mo 13:00
» Was hast Du zuletzt gekauft?
von Funless - Mo 12:54
» Software Tools für Productivity
von Frank Glencairn - Mo 12:51
» welches mikro für live-konzerte?
von Skeptiker - Mo 11:11
» Mikrohalterung Sony FS5 und Z150
von nicecam - Mo 11:05
» Apple Vision Pro: Verkaufsstart (USA) ab Februar für 3.499,- Dollar + neuer Werbeclip
von Frank Glencairn - Mo 9:18
» Drohne bauen, die nicht zu orten ist …?
von Jalue - So 22:02
» Werbung - es geht auch gut ;) Sammelthread
von 7River - So 17:07
» Monitor-Leuchte als Alternative zur Tischlampe ? - Quntis ScreenLinear Pro
von Jack43 - So 16:14
» Oppenheimer - inhaltlich und spirituell
von Frank Glencairn - So 15:43
» - Erfahrungsbericht - DJI Pocket 3
von klusterdegenerierung - So 13:20
» LG investiert 1 Milliarde Dollar in OLED-Produktion
von slashCAM - So 11:36
» 30-300mm T4 Cinezoom von Viltrox
von rush - So 8:03
» Revolutionäre Video-KI Sora soll noch dieses Jahr kommen
von Alex - So 7:49
» Wenn nennt man die Musik?
von Alex - So 7:29
» 7Artisans Sprite 24-96mm T2.9 - 4x Cinezoom für S35
von roki100 - Sa 22:57
» Was hörst Du gerade?
von klusterdegenerierung - Sa 20:42
» Biete: Manfrotto MH057M0-Q5 Kugelkopf
von beiti - Sa 18:17
» Suche LUT names Acuity
von jojo1243 - Sa 17:40
» Plant Nikon eine REDCODE RAW-Offensive zur NAB 2024?
von iasi - Sa 14:57
» The Crow — Rupert Sanders
von Gol - Sa 12:09
» Lohnt Kauf Canon HV40
von Bruno Peter - Sa 12:00
» Pika integriert Sound-Effekte in seine KI-Videos
von slashCAM - Sa 10:24