Hardware: Schnittrechner, Grafikkarten und mehr Forum



Wie viel muss man für 4K RAW ausgeben?



Die Hardware ist tot, es lebe die Hardware. Fragen zu Optimierung von Schnittsystemen, den idealen Komponenten sowie Verkabelungen, RAID...
Antworten
Darth Schneider
Beiträge: 2489

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Darth Schneider » Mo 14 Jan, 2019 08:41

Früher hab ich alles in Premiere Elements gemacht und dort hat man nicht viele Möglichkeiten. Jetzt nutz ich Resolve, aber erst seit kurzem.
Also es gibt noch genug Luft nach oben, was mein Know-how betrifft.
Aber danke für die Liste, werde mich da durchkämpfen und ein paar Tests machen.
Gruss Boris




Frank Glencairn
Beiträge: 8266

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn » Mo 14 Jan, 2019 10:28

Jost hat geschrieben:
So 13 Jan, 2019 22:16

Stimmt! Aber was machen, wenn die Tasche dünn ist?
Außerdem ist es sehr vernünftig zu fragen, was ein Rechner kostet, wenn man mit Raw arbeitet.
Es hat sich noch nicht rumgesprochen, dass nur die Speichermedien der Kamera teurer sind.

Dein Rat ist sehr unglücklich: Mit einem mittelprächtigen i5 aus dem Jahr 2013 unter der Haube, wird man mit 4K-Raw/60p wenig Spaß haben. Egal welche GPU man einbaut. Egal welche. Der Schnitt geht nun mal nur über Zwischencodecs.
Und von welcher Stelle aus, vom Zwischencodec oder der Raw-Datei, man am Ende ausrendert, steht unter Davinci jedem frei.
Der i5 wird sich bei raw zutode langweilen, weil er außer Daten durchschieben quasi nix zu tun hat, das passiert alles auf der GPU.
Ich weiß nicht woher der Mythos kommt, raw wäre irgendwie ein anspruchsvoller Codoc,was die Hardware betrifft - das flutsch deutlich besser als die ganzen extrem komprimierten.
Das einzige raw, das (noch) ne CPU braucht, ist das von RED, der OT hat aber ne BM Kamera - ist also kein Thema.

Diese ganze Proxie Hin und Herrechnerei ist mittlerweile komplett obsolet, wenn man nicht auf einem völlig schwachbrüstigem uralt Laptop arbeiten muß.




klusterdegenerierung
Beiträge: 11967

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von klusterdegenerierung » Mo 14 Jan, 2019 11:35

Ja dafür spricht auch, das ich das 4K Raw aus meinem Shogun am 2008 iMac mit 4GB Ram auf der Resolve Timline in Echtzeit previewen kann, obwohl Resolve nicht mal meine alte GPU erkennt bzw akzeptiert, mit h264 geht das nicht.

Für Raw reicht auch ein össeliger Laptop, darf dann aber nur nix anderes mit rein kommen.
"Es reicht nicht keine Ideen zu haben, man muß auch unfähig sein sie umzusetzen!"




Darth Schneider
Beiträge: 2489

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Darth Schneider » Mo 14 Jan, 2019 11:37

An Frank
Vieleicht kommt der Mythos auch daher das manche halt auf einer 60P 4K Timeline schneiden wollen (aus welchem Grund auch immer ) und 15 Spuren in Echtzeit brauchen, bevor die dann den Film auf YouTube veröffentlichen.
Dann wird jeder Rechner langsam.
Gruss Boris




klusterdegenerierung
Beiträge: 11967

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von klusterdegenerierung » Mo 14 Jan, 2019 11:41

Und sie haben noch Lightroom auf und es läuft noch eine Alpendoku im MPC Player. :-)
"Es reicht nicht keine Ideen zu haben, man muß auch unfähig sein sie umzusetzen!"




Jost
Beiträge: 1249

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Mo 14 Jan, 2019 22:14

Frank Glencairn hat geschrieben:
Mo 14 Jan, 2019 10:28
Der i5 wird sich bei raw zutode langweilen, weil er außer Daten durchschieben quasi nix zu tun hat, das passiert alles auf der GPU.
Bin ich anderer Ansicht. Habe aber keinen i5.
Dafür zum Testen einen 6700K, der mit seinen acht Threads immer sauber 4 GHz drückt. Timeline auf 1080 + "Bypass Color Grades und Fusion Effects". Daten von einer PCIe M.2.
Schneiden geht mit 4,6K/30p prima, aber ruckelfreies Abspielen zum Editieren nicht. Auch nicht, wenn man zusätzlich Proyx "Quarter Resolution" zuschaltet.
Der 6700k ist bereits bei 1080/25p-Raw gut am rechnen. Die Auslastung liegt bei knapp 40 Prozent.

Woher speist sich der Optimismus, ein i5 mit nur vier Threads und nur 3.2 Ghz Allcore-Turbo würde sich mit UHD-Raw langweilen? Der hat schließlich rund 60 Prozent weniger Leistung als ein 6700K.




Frank Glencairn
Beiträge: 8266

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn » Di 15 Jan, 2019 18:08

Welcher Codec und welche CPU?




Jost
Beiträge: 1249

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Di 15 Jan, 2019 23:33

Frank Glencairn hat geschrieben:
Di 15 Jan, 2019 18:08
Welcher Codec und welche CPU?
CPU: 6700K
Codec: CDng
Was eben aus einer BM 4.6 rauskommt.
Das 1080/25p-Raw (Mountain Bike) kommt direkt von BM:
https://downloads.blackmagicdesign.com/ ... n-Bike.zip

Kannst den ollen i5 aber selbst emulieren: Im UEFI stelle das HT von Deinem, wenn ich mich richtig erinnere, 1920x ab. Dann werden aus 16 Threads nur noch 8 Threads. Und dann vier von acht Kerne stilllegen. Dann hast Du nur noch 4 Threads wie der olle i5. Anschließend ist Dein 1920x dennoch etwa 15 Prozent schneller als der olle I5. Von dem Du behauptest, er würde sich unter UHD/25p-Raw langweilen.
Geekige Grüße




Paralkar
Beiträge: 1441

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Paralkar » Mi 16 Jan, 2019 09:46

Und was für ne Graka?
DIT/ digital Colorist/ Photographer




Jost
Beiträge: 1249

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Mi 16 Jan, 2019 12:04

Paralkar hat geschrieben:
Mi 16 Jan, 2019 09:46
Und was für ne Graka?
GTX 980M/8 GB. Clevo-Notebook für das mobile Arbeiten.
Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Hardware-Beschleunigung beim Decodieren gibt es nur mit BM Raw, was die 4K-Pocket ja kann.
In der SDK wird das so grafisch dargestellt:
Bild

SSE, AVX and AVX2 können alle Intel- und AMD-CPUs seit dem Jahr 2008, also auch der olle I5. Selbst die alte 750TI sollte für das reine Dekodieren reichen. Das habe ich aber nicht getestet, weil ich im Fundus keine so alte und langsame Grafikkarte habe.

Ob eine langsame CPU eine schnelle GPU beim Dekodieren ausbremst oder ob es umgekehrt der Fall ist, dazu gibt es in der SDK keine Angaben.
1.1 Decoder Overview
The CPU decoder has been designed to scale from laptops to workstations with a large number of cores. The CPU decoder will utilise SSE, AVX and AVX2 instructions if available. The user has control to limit the CPU decoder to fewer threads if desired. There are several GPU decoders available, including Metal, CUDA, and OpenCL. The final processed image from each decoder will be provided in a buffer object native to the respective GPU API. This will allow quick access for further processing or display. The GPU decoders are dynamically loaded, meaning they will require the system to have the relevant APIs installed in order to function. The SDK has been designed for multi-GPU and multi-process capabilities allowing high level workstations to use all the resources available in the system.

Geht es aus dem Schnitt in die Bearbeitung, wird man aber ohnehin eine schnelle GPU brauchen. Vorzugsweise eine Nvidia, weil man dann zusätzlich die Hardware-Beschleunigung beim De- und Encodieren von H.264/H.265 kostenlos erhält.
Das sind schon feine Sachen, die Blackmagic ihrem Davinci Resolve mit auf den Weg gegeben hat. Im Augenblick kann da nur der Powerdirector mithalten, der aber keine Zwischencodes oder Raw kann.
Setzt man auf den Gebrauchtmarkt, ist man mit Haswell-i7 und GTX 1080 mit ~450 Euro dabei. Das ist vergleichsweise wenig Geld für einen Davinci-Rechner, der Dampf unter der Haube hat. Vorausgesetzt, man nutzt die GPU-Hardware-Beschleunigung.




cantsin
Beiträge: 5257

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von cantsin » Mi 16 Jan, 2019 12:36

Jost hat geschrieben:
Mi 16 Jan, 2019 12:04
Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.
Dem muss ich aus praktischer Erfahrung klar widersprechen. Auf meinem i7-Haswell-6-Kern-PC lief das 4K-CinemaDNG-Material der Pocket 4K erst flüssig (und überhaupt brauchbar), nachdem ich die Grafikkarte von einer GTX970 auf eine 1080Ti aufgerüstet hatte. Das war ein Unterschied wie Tag und Nacht.

(Beziehe mich auf Resolve.)




Frank Glencairn
Beiträge: 8266

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn » Mi 16 Jan, 2019 13:12

Jost hat geschrieben:
Mi 16 Jan, 2019 12:04

Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Von wegen "über Software". Bei CDNG gibt's nix signifikantes zu decodieren, das muß nur debayert werden, was über die GPU läuft.

Wenn ich BM 4K CDNGs schneide, läuft selbst meine älteste, nahezu antike CPU (Intel Core7 980 Gulftown 6kerner, mittlerweile 8 Jahre alt - Win7) mit unter 50%, während die GPU fast am Anschlag (85%) ist.




Jost
Beiträge: 1249

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Mi 16 Jan, 2019 14:36

Frank Glencairn hat geschrieben:
Mi 16 Jan, 2019 13:12
Jost hat geschrieben:
Mi 16 Jan, 2019 12:04

Grafikkarte spielt aber keine Rolle, weil es für das Decodieren von CDng keine Hardwarebeschleunigung gibt. Das läuft noch über Software, sprich CPU.

Von wegen "über Software". Bei CDNG gibt's nix signifikantes zu decodieren, das muß nur debayert werden, was über die GPU läuft.

Wenn ich BM 4K CDNGs schneide, läuft selbst meine älteste, nahezu antike CPU (Intel Core7 980 Gulftown 6kerner, mittlerweile 8 Jahre alt - Win7) mit unter 50%, während die GPU fast am Anschlag (85%) ist.
Das widerspricht sich nicht. Dein oller Sechskerner bringt schließlich 12 Threads mit. Dass der flotter als mein 6700K rechnet, will ich gern glauben.
4,6K/30p auf 1080er Timeline.
Bild
Bild

Hast Du unter "View" - "Bypass Grading and Fusion" angeklickt? Ansonsten wird zusätzliche Last auf der GPU generiert.

Dass die GTX 970er in die Knie ging, will ich gern glauben. Bei meinem Testclip liegen 4,9 GB GPU-Ram an. Die 970 hat nur 4 (3,5).

Bleibe aber dabei: Für UHD-CDng reicht ein I5 nicht. Da ist man mit BM RAW und einer flotten Nvidia viel besser aufgehoben.




Frank Glencairn
Beiträge: 8266

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Frank Glencairn » Mi 16 Jan, 2019 15:06

Jost hat geschrieben:
Mi 16 Jan, 2019 14:36

Hast Du unter "View" - "Bypass Grading and Fusion" angeklickt? Ansonsten wird zusätzliche Last auf der GPU generiert.

Dass die GTX 970er in die Knie ging, will ich gern glauben. Bei meinem Testclip liegen 4,9 GB GPU-Ram an. Die 970 hat nur 4 (3,5).

Bleibe aber dabei: Für UHD-CDng reicht ein I5 nicht. Da ist man mit BM RAW und einer flotten Nvidia viel besser aufgehoben.
Kann ich hier alles nicht nachvollziehen

Mit Bypass: CPU 30%, GPU 15% bei 7% Video-RAM Auslastung
Ohne Bypass: CPU unter 35%, GPU bei 28% Video-RAM Auslastung.

Das bezieht sich auf den reinen Schnittbetrieb (4k raw in HD Timeline), weil da Resolve mit allerlei Tricks arbeitet, um ein geschmeidiges Ergebnis abzuliefern..
Beim Rendern sind die Werte etwas höher, wie ich oben schon geschrieben hatte, aber selbst da sind die Hardware Anforderungen eher moderat.
Weder CPU, noch RAM (24GB) noch GPU, noch V-Ram sind jemals voll am Anschlag.

Und selbst wenn der i5, oder dein 6700K (der noch dazu mit 4 mHz statt meiner mit 3.3 läuft) keine 6 Kerne haben, sollten beide doch schneller als meine 8 Jahre alte Uralt Mühle sein - sind ja schließlich mehrere Generationen dazwischen.


Scheint also ein Problem mit deinem Rechner/Setup zu sein.
Womöglich einfach nur das Throtteling von deinem Laptop - Mobilhardware ist immer nachteilig.




Jost
Beiträge: 1249

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von Jost » Mi 16 Jan, 2019 19:34

Frank Glencairn hat geschrieben:
Mi 16 Jan, 2019 15:06
Weder CPU, noch RAM (24GB) noch GPU, noch V-Ram sind jemals voll am Anschlag.

Und selbst wenn der i5, oder dein 6700K (der noch dazu mit 4 mHz statt meiner mit 3.3 läuft) keine 6 Kerne haben, sollten beide doch schneller als meine 8 Jahre alte Uralt Mühle sein - sind ja schließlich mehrere Generationen dazwischen.
Da hat sich nicht so richtig was getan. Bisschen Taktplus bei gleicher Abwärme und Energieverbrauch. Dass der 6700K 20 Prozent mehr Taktplus gegenüber Deinem Sechskerner hat, macht den Kohl nicht richtig fett. Der Sechskerner hat ja nicht nur zwei Kerne mehr, er hat auch noch zweimal HT zusätzlich. Der I5 läuft mit 4 Threads, der 6700K mit 8, Dein oller Sechskerner mit 12. Das macht man nicht einfach mit 20 Prozent Taktplus wett.

Scheint also ein Problem mit deinem Rechner/Setup zu sein.
Womöglich einfach nur das Throtteling von deinem Laptop - Mobilhardware ist immer nachteilig.
Nee, der läuft stumpf mit 4Ghz. Es war außerdem auch nur ein 10-Sekunden-Clip. Was soll da so warm werden, dass sich die CPU runtertaktet. Der bleibt stabil, selbst wenn ich ihn zwei Stunden zum Encodieren mit x.265 zwinge.
Er ist halt zu langsam für 4,6K/30p. Mit 1080p klappt es, mit UHD und 25 Bildern wird es wohl auch klappen. Aber wenn jedes 4,6K Bild fast 13 MB groß ist, dann gehen da halt knapp 400 MB die Sekunde durch. Das sind richtig große Datenmengen, die verarbeitet werden wollen.

Woher das bisschen GPU-Last kommt, vermag ich nicht zu sagen. Dass es vom Dekodieren kommt, möchte ich fast ausschließen. CDNG ist schließlich ein Adobe-Produkt. Und Adobe hat mit GPU-Beschleunigung eigentlich nichts am Hut. Die haben es vor einem halben Jahr erst geschafft, in Premiere Quick Sync zu integrieren. Aber nicht für das Decodieren, sondern nur für das Encodieren.




j.t.jefferson
Beiträge: 742

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von j.t.jefferson » Mo 21 Jan, 2019 15:34

iasi hat geschrieben:
Sa 12 Jan, 2019 19:52
j.t.jefferson hat geschrieben:
Fr 11 Jan, 2019 01:47


Hab den dell 8K Monitor und auch bei 1:13 oder 1:14 keine Artefakte gesehen.
Also ich hatte schon bei 8:1 Artefakte selbst auf einem HD-TV gesehen, da sie nicht zu übersehen waren.

Es gibt nun einmal Aufnahmesituationen bzw Motive, da zeigt sich die Kompression von RedRaw - wenn man es übertreibt.

Mit 12:1 kommt eben auch RedRaw bei bestimmten (extremen) Aufnahmen an seine Grenzen.
Bei 4K würde ich auch nicht auf 1:13 gehen. Das ganze ist aber was ganz anderes in 8K. Da hab ich auf dem 8K Monitor hier noch keine Artefakte gesehen.




7nic
Beiträge: 1627

Re: Wie viel muss man für 4K RAW ausgeben?

Beitrag von 7nic » Mo 21 Jan, 2019 23:06

j.t.jefferson hat geschrieben:
Mo 21 Jan, 2019 15:34
iasi hat geschrieben:
Sa 12 Jan, 2019 19:52


Also ich hatte schon bei 8:1 Artefakte selbst auf einem HD-TV gesehen, da sie nicht zu übersehen waren.

Es gibt nun einmal Aufnahmesituationen bzw Motive, da zeigt sich die Kompression von RedRaw - wenn man es übertreibt.

Mit 12:1 kommt eben auch RedRaw bei bestimmten (extremen) Aufnahmen an seine Grenzen.
Bei 4K würde ich auch nicht auf 1:13 gehen. Das ganze ist aber was ganz anderes in 8K. Da hab ich auf dem 8K Monitor hier noch keine Artefakte gesehen.
Bei 4K ist das natürlich was anderes...
Nur scheinbar hat ein Ding eine Farbe, nur scheinbar ist es süß oder bitter; in Wirklichkeit gibt es nur Atome im leeren Raum. - Demokrit

Instagram ll neuzeit.tv ll nicolas-geissler.de




Social Media

       
 Aktuelle Beiträge [alle Foren]
 
» Welcher Full HD Camcorder, welche Bearbeitung für Linux
von roki100 - Mo 0:36
» DJI Osmo Pocket ist verfügbar und bekommt neuen Zeitlupen-Modus (Firmware-Update)
von klusterdegenerierung - Mo 0:13
» Atomos 5 Zoll HDR Monitor (only) Shinobi im ersten Hands-On
von cantsin - So 23:50
» Canon stellt spiegellose Vollformat EOS RP mit 4K Video für 1.499,- Euro vor
von rush - So 23:13
» Warum sind US-Serien so viel besser?
von iasi - So 22:17
» Mavic Air SW Fehler?
von klusterdegenerierung - So 21:47
» Dummy Frage: Sony RX100 MK1 vs Huawei P20 Pro Handy
von jenss - So 19:37
» Der Kameramarkt 2018 -- weniger Verkäufe, steigende Preise
von Frank B. - So 19:32
» Mein erstes Kurzfimdrehbuch
von 7River - So 18:46
» Update 6.1 für Blackmagic Pocket Cinema Camera 4K bringt u.a. Pixel Remapping und bessere Audioaufnahme
von iasi - So 17:43
» VDL: Lookangleichung
von Jott - So 17:08
» FUJI X-T30 kann F-log und 10 Bit 4:2:2 über HDMI
von Jörg - So 13:55
» AOC CQ32G1: Curved 31.5" QHD Monitor mit 124% sRGB
von slashCAM - So 12:00
» Erfahrungen mit 7artisans o.ä. Objektiven?
von Jott - So 11:14
» Video zieht seltsam hinterher nach rendern.
von Flipmode - So 11:09
» Kinopremiere unseres kleinen Spielfilmes
von Heinrich123 - So 11:08
» Nominierungen für den Deutschen Kamerapreis 2019 stehen fest
von Darth Schneider - So 9:20
» Schauspieler - Gagefrage!
von Drushba - Sa 20:12
» mini landscapes - BMPCC4K - Miniaturprojekt
von Cinemator - Sa 18:27
» Kamera Kamerakran aus Carbon / Jib Traveller
von srone - Sa 18:06
» >Der LED Licht Thread<
von klusterdegenerierung - Sa 17:49
» Passion für Lost Places
von klusterdegenerierung - Sa 17:39
» Polaroid mal anders.....
von ruessel - Sa 16:01
» Buchgroßhändler Koch, Neff und Volckmar (KNV) meldet Insolvenz an
von cantsin - Sa 14:44
» WIN10 4K Ansicht, wie macht ihr das?
von klusterdegenerierung - Sa 11:24
» Atomos stellt 5“ HDR 1920x1080 HDMI Kameramonitor Shinobi mit 1000 Nits vor
von rob - Sa 10:53
» Sony Alpha 6000 - blaues LED-Licht wird nicht richtig abgebildet
von K.-D. Schmidt - Sa 8:41
» Lumetri Effekt nicht löschbar
von Jogen - Sa 8:38
» Firmwareupdate für Z6 erschienen
von Mediamind - Sa 7:09
» Tukur-Tatort am nä So: "Murot und das Murmeltier"
von klusterdegenerierung - Sa 1:41
» Farbfehler bei Vortragsaufzeichnung mit Hardware Recorder
von freezer - Fr 21:14
» Eazy Dolly Kamera Wagen
von fxk - Fr 19:06
» Atlas 2-Rod Camera Support
von fxk - Fr 19:06
» Lanparte Schulter Support Rig
von fxk - Fr 19:05
» Kamerar Triangle Cinema Skater Kamerawagen - Dolly für Video-DSLR
von fxk - Fr 19:05
 
neuester Artikel
 
Atomos 5 Zoll HDR Monitor (only) Shinobi im ersten Hands-On

Wir hatten bereits Gelegenheit zu einem ersten kurzen Hands-On mit dem heute offiziell vorgestellten 5 HDR Monitor SHINOBI von Atomos. Der 1000 Nit-fähige HDR-Kameramonitor wiegt lediglich 200g und bietet alle Monitoring-Funktionen des NinjaV (und noch etwas mehr). Durch das fehlende Aufnahmemodul ergeben sich deutlich längere Akkulaufzeiten im lüfterlosen Betrieb. Hier unsere ersten Eindrücke zum 5 Atomos Shinobi Kameramonitor weiterlesen>>

Canon XF705 - Teil 2: Sensor-Bildqualität und Bewertung

Im ersten Teil unseres Tests haben wir uns ja schon mit dem gesamten Drumherum der XF705 befasst, doch nun gehts Buchstäblich ans Eingemachte. Wie schlägt sich der neue 4K-Bolide von Canon in der Bildqualität? weiterlesen>>

neuestes Video
 

Aktuelles Video:
mini landscapes

Epische Landschaftsimpressionen -- gefilmt im Studio, in Miniatur... Zu erkennen ist dies teilweise nur an der Größe der Sandkörner und Schneeflocken. Wie im Abspann zu sehen ist, wurde anscheinend mit der Blackmagic Pocket CC 4K und dem sondenähnlichen Laowa Makro-Objektiv gedreht.