Hardware: Schnittrechner, Grafikkarten und mehr Forum



Wie viel muss man für 4K RAW ausgeben?



Die Hardware ist tot, es lebe die Hardware. Fragen zu Optimierung von Schnittsystemen, den idealen Komponenten sowie Verkabelungen, RAID...
Antworten
Darth Schneider
Beiträge: 3266

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Darth Schneider » Mo 14 Jan, 2019 08:41

Früher hab ich alles in Premiere Elements gemacht und dort hat man nicht viele Möglichkeiten. Jetzt nutz ich Resolve, aber erst seit kurzem.
Also es gibt noch genug Luft nach oben, was mein Know-how betrifft.
Aber danke für die Liste, werde mich da durchkämpfen und ein paar Tests machen.
Gruss Boris
„Nothing travels faster than the speed of light, with the possible exception of bad news, which obeys its own special laws.“
Douglas Adams




Frank Glencairn
Beiträge: 9210

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn » Mo 14 Jan, 2019 10:28

Jost hat geschrieben:
So 13 Jan, 2019 22:16

Stimmt! Aber was machen, wenn die Tasche dünn ist?
Außerdem ist es sehr vernünftig zu fragen, was ein Rechner kostet, wenn man mit Raw arbeitet.
Es hat sich noch nicht rumgesprochen, dass nur die Speichermedien der Kamera teurer sind.

Dein Rat ist sehr unglücklich: Mit einem mittelprächtigen i5 aus dem Jahr 2013 unter der Haube, wird man mit 4K-Raw/60p wenig Spaß haben. Egal welche GPU man einbaut. Egal welche. Der Schnitt geht nun mal nur über Zwischencodecs.
Und von welcher Stelle aus, vom Zwischencodec oder der Raw-Datei, man am Ende ausrendert, steht unter Davinci jedem frei.
Der i5 wird sich bei raw zutode langweilen, weil er außer Daten durchschieben quasi nix zu tun hat, das passiert alles auf der GPU.
Ich weiß nicht woher der Mythos kommt, raw wäre irgendwie ein anspruchsvoller Codoc,was die Hardware betrifft - das flutsch deutlich besser als die ganzen extrem komprimierten.
Das einzige raw, das (noch) ne CPU braucht, ist das von RED, der OT hat aber ne BM Kamera - ist also kein Thema.

Diese ganze Proxie Hin und Herrechnerei ist mittlerweile komplett obsolet, wenn man nicht auf einem völlig schwachbrüstigem uralt Laptop arbeiten muß.




klusterdegenerierung
Beiträge: 13257

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von klusterdegenerierung » Mo 14 Jan, 2019 11:35

Ja dafür spricht auch, das ich das 4K Raw aus meinem Shogun am 2008 iMac mit 4GB Ram auf der Resolve Timline in Echtzeit previewen kann, obwohl Resolve nicht mal meine alte GPU erkennt bzw akzeptiert, mit h264 geht das nicht.

Für Raw reicht auch ein össeliger Laptop, darf dann aber nur nix anderes mit rein kommen.
"Es reicht nicht keine Ideen zu haben, man muß auch unfähig sein sie umzusetzen!"




Darth Schneider
Beiträge: 3266

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Darth Schneider » Mo 14 Jan, 2019 11:37

An Frank
Vieleicht kommt der Mythos auch daher das manche halt auf einer 60P 4K Timeline schneiden wollen (aus welchem Grund auch immer ) und 15 Spuren in Echtzeit brauchen, bevor die dann den Film auf YouTube veröffentlichen.
Dann wird jeder Rechner langsam.
Gruss Boris
„Nothing travels faster than the speed of light, with the possible exception of bad news, which obeys its own special laws.“
Douglas Adams




klusterdegenerierung
Beiträge: 13257

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von klusterdegenerierung » Mo 14 Jan, 2019 11:41

Und sie haben noch Lightroom auf und es läuft noch eine Alpendoku im MPC Player. :-)
"Es reicht nicht keine Ideen zu haben, man muß auch unfähig sein sie umzusetzen!"




Jost
Beiträge: 1274

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Mo 14 Jan, 2019 22:14

Frank Glencairn hat geschrieben:
Mo 14 Jan, 2019 10:28
Der i5 wird sich bei raw zutode langweilen, weil er außer Daten durchschieben quasi nix zu tun hat, das passiert alles auf der GPU.
Bin ich anderer Ansicht. Habe aber keinen i5.
Dafür zum Testen einen 6700K, der mit seinen acht Threads immer sauber 4 GHz drückt. Timeline auf 1080 + "Bypass Color Grades und Fusion Effects". Daten von einer PCIe M.2.
Schneiden geht mit 4,6K/30p prima, aber ruckelfreies Abspielen zum Editieren nicht. Auch nicht, wenn man zusätzlich Proyx "Quarter Resolution" zuschaltet.
Der 6700k ist bereits bei 1080/25p-Raw gut am rechnen. Die Auslastung liegt bei knapp 40 Prozent.

Woher speist sich der Optimismus, ein i5 mit nur vier Threads und nur 3.2 Ghz Allcore-Turbo würde sich mit UHD-Raw langweilen? Der hat schließlich rund 60 Prozent weniger Leistung als ein 6700K.




Frank Glencairn
Beiträge: 9210

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn » Di 15 Jan, 2019 18:08

Welcher Codec und welche CPU?




Jost
Beiträge: 1274

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Di 15 Jan, 2019 23:33

Frank Glencairn hat geschrieben:
Di 15 Jan, 2019 18:08
Welcher Codec und welche CPU?
CPU: 6700K
Codec: CDng
Was eben aus einer BM 4.6 rauskommt.
Das 1080/25p-Raw (Mountain Bike) kommt direkt von BM:
https://downloads.blackmagicdesign.com/ ... n-Bike.zip

Kannst den ollen i5 aber selbst emulieren: Im UEFI stelle das HT von Deinem, wenn ich mich richtig erinnere, 1920x ab. Dann werden aus 16 Threads nur noch 8 Threads. Und dann vier von acht Kerne stilllegen. Dann hast Du nur noch 4 Threads wie der olle i5. Anschließend ist Dein 1920x dennoch etwa 15 Prozent schneller als der olle I5. Von dem Du behauptest, er würde sich unter UHD/25p-Raw langweilen.
Geekige Grüße




Paralkar
Beiträge: 1484

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Paralkar » Mi 16 Jan, 2019 09:46

Und was für ne Graka?
DIT/ digital Colorist/ Photographer




Jost
Beiträge: 1274

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Mi 16 Jan, 2019 12:04

Paralkar hat geschrieben:
Mi 16 Jan, 2019 09:46
Und was für ne Graka?
GTX 980M/8 GB. Clevo-Notebook für das mobile Arbeiten.
Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Hardware-Beschleunigung beim Decodieren gibt es nur mit BM Raw, was die 4K-Pocket ja kann.
In der SDK wird das so grafisch dargestellt:
Bild

SSE, AVX and AVX2 können alle Intel- und AMD-CPUs seit dem Jahr 2008, also auch der olle I5. Selbst die alte 750TI sollte für das reine Dekodieren reichen. Das habe ich aber nicht getestet, weil ich im Fundus keine so alte und langsame Grafikkarte habe.

Ob eine langsame CPU eine schnelle GPU beim Dekodieren ausbremst oder ob es umgekehrt der Fall ist, dazu gibt es in der SDK keine Angaben.
1.1 Decoder Overview
The CPU decoder has been designed to scale from laptops to workstations with a large number of cores. The CPU decoder will utilise SSE, AVX and AVX2 instructions if available. The user has control to limit the CPU decoder to fewer threads if desired. There are several GPU decoders available, including Metal, CUDA, and OpenCL. The final processed image from each decoder will be provided in a buffer object native to the respective GPU API. This will allow quick access for further processing or display. The GPU decoders are dynamically loaded, meaning they will require the system to have the relevant APIs installed in order to function. The SDK has been designed for multi-GPU and multi-process capabilities allowing high level workstations to use all the resources available in the system.

Geht es aus dem Schnitt in die Bearbeitung, wird man aber ohnehin eine schnelle GPU brauchen. Vorzugsweise eine Nvidia, weil man dann zusätzlich die Hardware-Beschleunigung beim De- und Encodieren von H.264/H.265 kostenlos erhält.
Das sind schon feine Sachen, die Blackmagic ihrem Davinci Resolve mit auf den Weg gegeben hat. Im Augenblick kann da nur der Powerdirector mithalten, der aber keine Zwischencodes oder Raw kann.
Setzt man auf den Gebrauchtmarkt, ist man mit Haswell-i7 und GTX 1080 mit ~450 Euro dabei. Das ist vergleichsweise wenig Geld für einen Davinci-Rechner, der Dampf unter der Haube hat. Vorausgesetzt, man nutzt die GPU-Hardware-Beschleunigung.




cantsin
Beiträge: 5992

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von cantsin » Mi 16 Jan, 2019 12:36

Jost hat geschrieben:
Mi 16 Jan, 2019 12:04
Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.
Dem muss ich aus praktischer Erfahrung klar widersprechen. Auf meinem i7-Haswell-6-Kern-PC lief das 4K-CinemaDNG-Material der Pocket 4K erst flüssig (und überhaupt brauchbar), nachdem ich die Grafikkarte von einer GTX970 auf eine 1080Ti aufgerüstet hatte. Das war ein Unterschied wie Tag und Nacht.

(Beziehe mich auf Resolve.)




Frank Glencairn
Beiträge: 9210

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn » Mi 16 Jan, 2019 13:12

Jost hat geschrieben:
Mi 16 Jan, 2019 12:04

Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Von wegen "über Software". Bei CDNG gibt's nix signifikantes zu decodieren, das muß nur debayert werden, was über die GPU läuft.

Wenn ich BM 4K CDNGs schneide, läuft selbst meine älteste, nahezu antike CPU (Intel Core7 980 Gulftown 6kerner, mittlerweile 8 Jahre alt - Win7) mit unter 50%, während die GPU fast am Anschlag (85%) ist.




Jost
Beiträge: 1274

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Mi 16 Jan, 2019 14:36

Frank Glencairn hat geschrieben:
Mi 16 Jan, 2019 13:12
Jost hat geschrieben:
Mi 16 Jan, 2019 12:04

Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Von wegen "über Software". Bei CDNG gibt's nix signifikantes zu decodieren, das muß nur debayert werden, was über die GPU läuft.

Wenn ich BM 4K CDNGs schneide, läuft selbst meine älteste, nahezu antike CPU (Intel Core7 980 Gulftown 6kerner, mittlerweile 8 Jahre alt - Win7) mit unter 50%, während die GPU fast am Anschlag (85%) ist.
Das widerspricht sich nicht. Dein oller Sechskerner bringt schließlich 12 Threads mit. Dass der flotter als mein 6700K rechnet, will ich gern glauben.
4,6K/30p auf 1080er Timeline.
Bild
Bild

Hast Du unter "View" - "Bypass Grading and Fusion" angeklickt? Ansonsten wird zusätzliche Last auf der GPU generiert.

Dass die GTX 970er in die Knie ging, will ich gern glauben. Bei meinem Testclip liegen 4,9 GB GPU-Ram an. Die 970 hat nur 4 (3,5).

Bleibe aber dabei: Für UHD-CDng reicht ein I5 nicht. Da ist man mit BM RAW und einer flotten Nvidia viel besser aufgehoben.




Frank Glencairn
Beiträge: 9210

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn » Mi 16 Jan, 2019 15:06

Jost hat geschrieben:
Mi 16 Jan, 2019 14:36

Hast Du unter "View" - "Bypass Grading and Fusion" angeklickt? Ansonsten wird zusätzliche Last auf der GPU generiert.

Dass die GTX 970er in die Knie ging, will ich gern glauben. Bei meinem Testclip liegen 4,9 GB GPU-Ram an. Die 970 hat nur 4 (3,5).

Bleibe aber dabei: Für UHD-CDng reicht ein I5 nicht. Da ist man mit BM RAW und einer flotten Nvidia viel besser aufgehoben.
Kann ich hier alles nicht nachvollziehen

Mit Bypass: CPU 30%, GPU 15% bei 7% Video-RAM Auslastung
Ohne Bypass: CPU unter 35%, GPU bei 28% Video-RAM Auslastung.

Das bezieht sich auf den reinen Schnittbetrieb (4k raw in HD Timeline), weil da Resolve mit allerlei Tricks arbeitet, um ein geschmeidiges Ergebnis abzuliefern..
Beim Rendern sind die Werte etwas höher, wie ich oben schon geschrieben hatte, aber selbst da sind die Hardware Anforderungen eher moderat.
Weder CPU, noch RAM (24GB) noch GPU, noch V-Ram sind jemals voll am Anschlag.

Und selbst wenn der i5, oder dein 6700K (der noch dazu mit 4 mHz statt meiner mit 3.3 läuft) keine 6 Kerne haben, sollten beide doch schneller als meine 8 Jahre alte Uralt Mühle sein - sind ja schließlich mehrere Generationen dazwischen.


Scheint also ein Problem mit deinem Rechner/Setup zu sein.
Womöglich einfach nur das Throtteling von deinem Laptop - Mobilhardware ist immer nachteilig.




Jost
Beiträge: 1274

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Mi 16 Jan, 2019 19:34

Frank Glencairn hat geschrieben:
Mi 16 Jan, 2019 15:06
Weder CPU, noch RAM (24GB) noch GPU, noch V-Ram sind jemals voll am Anschlag.

Und selbst wenn der i5, oder dein 6700K (der noch dazu mit 4 mHz statt meiner mit 3.3 läuft) keine 6 Kerne haben, sollten beide doch schneller als meine 8 Jahre alte Uralt Mühle sein - sind ja schließlich mehrere Generationen dazwischen.
Da hat sich nicht so richtig was getan. Bisschen Taktplus bei gleicher Abwärme und Energieverbrauch. Dass der 6700K 20 Prozent mehr Taktplus gegenüber Deinem Sechskerner hat, macht den Kohl nicht richtig fett. Der Sechskerner hat ja nicht nur zwei Kerne mehr, er hat auch noch zweimal HT zusätzlich. Der I5 läuft mit 4 Threads, der 6700K mit 8, Dein oller Sechskerner mit 12. Das macht man nicht einfach mit 20 Prozent Taktplus wett.

Scheint also ein Problem mit deinem Rechner/Setup zu sein.
Womöglich einfach nur das Throtteling von deinem Laptop - Mobilhardware ist immer nachteilig.
Nee, der läuft stumpf mit 4Ghz. Es war außerdem auch nur ein 10-Sekunden-Clip. Was soll da so warm werden, dass sich die CPU runtertaktet. Der bleibt stabil, selbst wenn ich ihn zwei Stunden zum Encodieren mit x.265 zwinge.
Er ist halt zu langsam für 4,6K/30p. Mit 1080p klappt es, mit UHD und 25 Bildern wird es wohl auch klappen. Aber wenn jedes 4,6K Bild fast 13 MB groß ist, dann gehen da halt knapp 400 MB die Sekunde durch. Das sind richtig große Datenmengen, die verarbeitet werden wollen.

Woher das bisschen GPU-Last kommt, vermag ich nicht zu sagen. Dass es vom Dekodieren kommt, möchte ich fast ausschließen. CDNG ist schließlich ein Adobe-Produkt. Und Adobe hat mit GPU-Beschleunigung eigentlich nichts am Hut. Die haben es vor einem halben Jahr erst geschafft, in Premiere Quick Sync zu integrieren. Aber nicht für das Decodieren, sondern nur für das Encodieren.




j.t.jefferson
Beiträge: 792

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von j.t.jefferson » Mo 21 Jan, 2019 15:34

iasi hat geschrieben:
Sa 12 Jan, 2019 19:52
j.t.jefferson hat geschrieben:
Fr 11 Jan, 2019 01:47


Hab den dell 8K Monitor und auch bei 1:13 oder 1:14 keine Artefakte gesehen.
Also ich hatte schon bei 8:1 Artefakte selbst auf einem HD-TV gesehen, da sie nicht zu übersehen waren.

Es gibt nun einmal Aufnahmesituationen bzw Motive, da zeigt sich die Kompression von RedRaw - wenn man es übertreibt.

Mit 12:1 kommt eben auch RedRaw bei bestimmten (extremen) Aufnahmen an seine Grenzen.
Bei 4K würde ich auch nicht auf 1:13 gehen. Das ganze ist aber was ganz anderes in 8K. Da hab ich auf dem 8K Monitor hier noch keine Artefakte gesehen.




nic
Beiträge: 1870

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von nic » Mo 21 Jan, 2019 23:06

j.t.jefferson hat geschrieben:
Mo 21 Jan, 2019 15:34
iasi hat geschrieben:
Sa 12 Jan, 2019 19:52


Also ich hatte schon bei 8:1 Artefakte selbst auf einem HD-TV gesehen, da sie nicht zu übersehen waren.

Es gibt nun einmal Aufnahmesituationen bzw Motive, da zeigt sich die Kompression von RedRaw - wenn man es übertreibt.

Mit 12:1 kommt eben auch RedRaw bei bestimmten (extremen) Aufnahmen an seine Grenzen.
Bei 4K würde ich auch nicht auf 1:13 gehen. Das ganze ist aber was ganz anderes in 8K. Da hab ich auf dem 8K Monitor hier noch keine Artefakte gesehen.
Bei 4K ist das natürlich was anderes...




Social Media

       
 Aktuelle Beiträge [alle Foren]
 
» Netflix als Innovations-Motor in der Filmtechnik
von mash_gh4 - So 1:25
» Blackmagic Pocket Cinema Camera 6K Erfahrung
von roki100 - So 1:14
» Fernseher: Kopfhörerausgang zum Verstärker - nix passiert
von carstenkurz - So 0:59
» Externe HDD für Videoschnitt?
von vaio - So 0:54
» Für Zielgruppe „Ar***l*cher über 45“: BMW präsentiert zweispurigen SUV
von Frank B. - So 0:50
» Was hörst Du gerade?
von klusterdegenerierung - So 0:19
» PAL Video als NTSC DVD und BD rendern
von chaosstudio - Sa 23:42
» Welche Grafikkarte
von scotland - Sa 23:06
» INTEL i9-9900k vs AMD Ryzen 9 3900x
von rush - Sa 22:30
» Welche Neat Video Lizenz ist für mich sinnvoll?
von Peppermintpost - Sa 19:33
» Blindvergleich: Blackmagic Pocket Cinema Camera 6K versus 4K - Wer erkennt den Unterschied?
von roki100 - Sa 16:38
» Alte BM Pocket vs. Pocket 4K
von roki100 - Sa 16:09
» Werden REDs RAW Patente für ungültig erklärt?
von iasi - Sa 14:58
» The Mandalorian - offizieller Trailer
von 7River - Sa 12:48
» LF Cine Objektive Superior Primes von Nitecore: Rebranded NISI, Bokehlux, Kinefinity Objektive?
von nic - Sa 11:24
» JOKER - Teaser Trailer
von Frank Glencairn - Sa 11:18
» Video-Kamera-Aufnahme mit Vorschau
von K.-D. Schmidt - Sa 9:09
» Rot ist eigentlich nicht meine Farbe
von Alf302 - Sa 3:49
» Mal runterkommen
von klusterdegenerierung - Sa 1:06
» Wem der "4 Experten" sollte ich glauben?
von gutentag3000 - Fr 23:47
» Nigerianische Teenager produzieren SF-Kurzfilm mit einfachsten Mitteln
von Jan - Fr 18:14
» Blackmagic Pocket Cinema Camera 4K - ÖFFNEN
von roki100 - Fr 17:01
» Audiomoitoring mit Rode Wireless Go
von Mediamind - Fr 16:24
» HP Z440 CPU ersetzen! Geht oder Geht nicht!?
von LIVEPIXEL - Fr 14:36
» z6 - solls wirklich meine neue cam werden?
von Mediamind - Fr 13:54
» Verkaufe HP Omen 4K Notebook (ideal für 4k Videoschnitt)
von jackson007 - Fr 13:39
» Verkaufe Canon C200 inkl. Zubehör!
von jackson007 - Fr 13:35
» Drei neue Monitore von Phillips, darunter ein großes 55 Zoll 4K Modell mit DisplayHDR1000
von slashCAM - Fr 13:30
» Final Cut Pro X importprobleme VHS Kassetten
von Jott - Fr 12:50
» Blackmagic Pocket Cinema Camera 6K mit S35 Sensor und Canon EF Mount vorgestellt
von markusG - Fr 10:38
» !BIETE! GTX660 für 10€
von klusterdegenerierung - Fr 9:36
» !Verschenke! DELL 2411U
von klusterdegenerierung - Fr 9:34
» Erste Aufnahmen von der Blackmagic Pocket Cinema Camera 4K
von rush - Fr 3:40
» Projekt fps vs. Timeline fps
von Jott - Do 22:46
» Ich will auch so aussehen!!!!!!
von Benutzername - Do 22:33
 
neuester Artikel
 
Blindvergleich: BMD PCC6K versus 4K

Heute mal ein kleines Quiz: Für den slashCAM Praxistest zur neuen Blackmagic Pocket Cinema Camera 6K haben wir auch Vergleichsshots mit der Pocket 4K aufgenommen. Vorab hier also mal ein kleines Kamera-Quiz in Form eines Blindvergleichs. Wer kann die Pocket 6K von der 4K unterscheiden? Und welches Bild gefällt euch besser? Viel Spaß beim Knobeln! weiterlesen>>

Large Format Preisbrecher? Kinefinity MAVO LF

Eine RAW Kamera mit 6K Vollformat Sensor und hohen Frameraten unter 20.000 Euro ist auch im Jahre 2019 noch keine Selbstverständlichkeit. Von dieser Tatsache will die MAVO LF profitieren, die all dies ab ca. 16.000 Euro bietet. weiterlesen>>

neuestes Video
 

Aktuelles Video:
The 7 Habits of Highly Effective Artists

Wir hatten den Vortrag von Andrew Price auf der Blender Conference 2016 schon wieder vergessen, finden ihn aber derart gelungen, dass wir ihn an dieser Stelle noch einmal jedem/r ans Herz legen wollen, der/die beim Filmemachen etwas erreichen will.