Newsmeldung von slashCAM:Tips: Tips: GPU/CPU-Hardware-Ratgeber für Blackmagic DaVinci Resolve von rudi - 3 Mar 2014 10:11:00
>Bei uns sammelten sich in den letzten Monaten einige Erfahrungen für die Zusammenstellung eines DaVinci Systems. Noch keinesfalls komplett, jedoch hoffentlich schon hilfreich genug für eine erste slashCAM-Zusammenfassung.
zum ganzen Artikel
Antwort von iasi:
Sehr gut - sehr interessant.
Bin auf die Fortsetzung gespannt.
Antwort von thyl:
Bezieht sich das alles nur auf die Windows-Version?
Antwort von Valentino:
Das mit der CPU trifft auch auf das Exportieren von H264 und Co. zu.
Beim Rendern erreicht hier ein i5 3470s mit einer GTX470 nur ganze 13fps bei FullHD und 3D Lut von Log-C auf REC709.
Erstaunlich ist bei eurem Test aber die Tatsache die recht alte GTX470 noch ordentlich Power hat und für Lite völlig ausreicht.
Was ich noch für recht merkwürdig halte, das das Rendern im Allgemeinen durch die neue 10er Version langsamer geworden ist.
Kann man in der Vollversion die GUI GPU auch zum rendern benutzten?
Wer Platz sparen muss sollte zu einer "alten" GTX690 oder der DUAL- GTX760 von Asus greifen.
Aber Vorsicht, wer kein Enterprise Chipsatz alà x58 oder x79 besitzt, kann meist nicht mehr als zwei Karten verbauen, da einfach nur 16 PCIE 3.0 Lanes vorhanden sind. Genauso ist uATX nicht so der Bringer, da dann kein Platz für die I/O BM und anderen PCIE Karten fehlt.
Die Sache ist aber weit komplexer, den auch mit den maximal 40 PCIE 3.0 Lanes, ist sogar bei CEB und E-ATX Formfactor nach drei GPUs schluss.
Die restlichen PCIE Steckplätze werden durch die Karten verdeckt und so bleiben meist sogar bei den Workstation Motherboards nur ein x4PCIE und ein x8 PCIE Single Slot übrig.
Mir scheint die folgende Konfiguration mit maximal drei GPUs am Sinnvollste:
1. Slot: GUI Grafikkarte --> 16 PCIE Lanes
2. Slot verdeckt oder nicht vorhanden
3. Slot: Raid-Karte, 10Gb Ethernet, USB3.1, FW800 uvm. --> x4 PCIE Lanes
4. Slot: I/O Karte -->x4 PCIE
5. Slot: GPU_1 --> x8 PCIE
6. Slot verdeckt
7. Slot: GPU_2(funktioniert nur bei Gehäuse mit 8 PCI Slots!) --> x8 PCIE
Man könnte die GPU_1 Karte auch in Slot 3 stecken, die GPU_2 muss aber im 7. stecken, da sie sonst noch einen weiteren PCIE Slot unnötig verdeckt.
Wer wirklich vier GPUs braucht, der muss auf die bekannten PCIE Extender zurück greifen, mehr Brandbreite erhält man aber dadurch nicht.
So ein System mit drei RX280 mit 6 GB Ram und man kommt auf den Preis einer Titan Black und braucht erst bei 6k ein neues System.
Antwort von rainer7u5:
Was die konkreten GPU-Tipps betrifft, die gerade in Arbeit sind:
Können Sie auch ein Auge auf Notebooks werfen?
Denn gerade beim Graden ist es doch auch wichtig, dies manchmal auch mobil zu tun. Am Set, im Hotelzimmer, bei Besprechungen...
Ich selber hatte schon Resolve 9 auf einem Notebook mit mittelmäßiger GeForce GT 5xx M am Laufen. Und die aktuellen Intel HD 4400, die in Ultrabooks eingebaut sind, sind mit OpenCL 1.2 und OpenGL 4.0 auch nicht zu verachten.
Wie gesagt, ich erwarte kein Rennpferd. Aber die Option zu haben, auch mal mobil zu graden, wäre mir sehr wichtig.
Antwort von Valentino:
Open CL der Intel Grafikkarten wird nicht von Davinci unterstützt, das ist auch der Grund für den beschriebene Handbremsen-Effekt beim oberen Test.
Im Allgemeine sind bei Davinci nur ATI oder Nvidia Karten möglich, aber nie beides zusammen
Wenn es dir um das Graden am Set geht, dann wird ein Notebook für 1.200 Euro mir zwei GT760(SLI) ausreichen. Für ernst zu nehmende 4k Bearbeitung sollten es schon zwei GTX770m oder gar die neuen GTX880m sein.
Zwei ATI alà HD8970m geht oder gar die extrem teuren Quadro K4100m oder K5100m geht natürlich auch, treiben den Preis aber in erschwindelnde Höhen.
Schau mal hier auf Notebookcheck, da findest du genügend Test zu mobile Grafikkarten:
http://www.notebookcheck.com/Notebook-T ... .23.0.html
So eine mobile Workstation Konfiguration braucht ewig viel Strom, zwei Netzteile und ohne Steckdose ist der interne Akku eher eine USV für knapp 1h mit Halblast.
Und ganz zum Schluss brauchst du unbedingt eine Breakout-Box für dein Videosignal, da das Bild bei Davinci GUI keine Referenz ist!!!
Genau hier wird es auch ziemlich eng, da nur Blackmagic Produkte in Frage kommen. So bald das Gerät Thunderbolt hat ist eigentlich kein Problem mehr, aber die USB3.0 Videbox funktioniert nur mit dem Renesas Chip und nicht mit dem Intel eigenen.
Dieser ist aber wiederum sehr selten in Laptops zu finden. Der Frank hat da eine HP oder Dell mit dem es ganz gut funktionieren soll.
Antwort von rainer7u5:
Wenn es dir um das Graden am Set geht, dann wird ein Notebook für 1.200 Euro mir zwei GT760(SLI) ausreichen. Für ernst zu nehmende 4k Bearbeitung sollten es schon zwei GTX770m oder gar die neuen GTX880m sein.
...
Schau mal hier auf Notebookcheck, da findest du genügend Test zu mobile Grafikkarten:
http://www.notebookcheck.com/Notebook-T ... .23.0.html
Vielen Dank für die Infos. Das ist auf jeden Fall ein Anhaltspunkt, um die Wunschspezifikation weiter einzugrenzen.
Antwort von Tiefflieger:
Momentan steige ich vom Windows-PC auf einen Macbook pro 15" um, weil ich damit 4K Schnitt machen will (Hobby).
(Intel+Nvidia GPU sowie schneller Quadcore CPU, 16GB RAM, 512 GB SSD System+Office bzw. Video Zwischenspeicher. Extern "WD My Book" USB 3.0 mit 4TB und ~100-170MB/s Datenrate. Später "Thunderbolt 2" Raid)
OpenCL auf dem Mac
Quelle:
http://www.heise.de/mac-and-i/artikel/O ... 26461.html
Wer OpenCL-optimierte Programme wie die Videoschnitt-Spezialisten Final Cut Pro X oder Adobe Premiere CC schon einmal auf dem neuen Mac Pro mit seinen zwei GPUs beim flüssigen Bearbeiten von 4K-Videos erlebt hat, kann erahnen, welche Kraft in der neuen Technik steckt.
Gruss Tiefflieger
Antwort von Frank Glencairn:
Ich sinniere immer noch über unsere neuen Workstation Komponenten nach, deshalb würden mich die Unterschiede zwischen Nvidia (Cuda) und ATi (Open GL) Karten in einem Windows Rechner interessieren (Resolve/Premiere/AE).
Also z.B. ne Titan oder GTX 780 (Ti) gegen ne R280x.
Irgendwie hab ich den Eindruck, das Cuda in beiden Programmen bisher noch mehr Performance bringt. Das wird sie irgendwann wohl mal ändern (oder auch nicht), aber ich muß demnächst ne Entscheidung treffen, und die wird nicht auf zukünftigen vielleicht-Updates basieren.
Antwort von merlinmage:
Zum momentanen Zeitpunkt dominiert CUDA, wenn du also JETZT etwas kaufen möchtest rate ich dir zur GTX 780 (Ti) in zweifacher Ausführung. Bedenke, dass die 780 und die Ti im Gegensatz zu Titan und Titan Black aber quasi keine DP Leistung haben und die Karten atm im Vergleich zu den R9 und R8ern bei OpenCL absaufen.
Antwort von Frank Glencairn:
DP interessierter bei Video - wenn überhaupt - nur am Rande.
Antwort von merlinmage:
Ich bin jetzt auch von unseren VFX und Modelern ausgegangen, letzte Woche wieder ne Grundsatzdiskussion mit denen gehabt - dann kannst du das dezent ignorieren und zur 780 Ti greifen, wenn du die CUDA Route fahren willst.
Antwort von iasi:
Ich sinniere immer noch über unsere neuen Workstation Komponenten nach, deshalb würden mich die Unterschiede zwischen Nvidia (Cuda) und ATi (Open GL) Karten in einem Windows Rechner interessieren (Resolve/Premiere/AE).
Also z.B. ne Titan oder GTX 780 (Ti) gegen ne R280x.
Irgendwie hab ich den Eindruck, das Cuda in beiden Programmen bisher noch mehr Performance bringt. Das wird sie irgendwann wohl mal ändern (oder auch nicht), aber ich muß demnächst ne Entscheidung treffen, und die wird nicht auf zukünftigen vielleicht-Updates basieren.
Ich hatte mal in meinen Zweitrechner eine ATI reingesteckt und war doch zeimlich enttäuscht.
Es kam zudem auch zu Darstellungsfehlern.
Eine Nvidia lief hingegen problemlos und flott.
Beides mal 4GB und eigentlich selbe Leistungklasse.
Leider kann man Resolve auch nicht isolliert sehen - Premiere nutzt ja z.B. bisher nur eine GPU - und Speedgrade 7.2 wollte schon mal gar nicht mehr mit mehr als einer Grafikkarte im System starten.
Antwort von Valentino:
@Iasi
Hast du diesen ATI Test eigentlich mal auf einem frisch aufgesetzten System wiederholt?
Gleich zur GTX780 Ti zu greifen halte ich für absolut übertrieben.
Für den Preis sollte man sich besser zwei GTX760 mit 4GB Ram verbauen.
Wer den Slashcam Test gelesen hat, sollte das auch mitbekommen haben ;-)
@Tiefffliger
Eine MacBook Pro mit der popligen GT750m wird noch im Schlaf von einer GTX470 überholt und ist für 4k vielleicht noch etwas für FinalCut-X, aber keine Option für 4k unter Speedgrade oder gar Davinci.
Davinci hat ja schon seine Probleme mit einer flüssigen Wiedergabe von 2k Alexa Material mit 3D Lut zu Rec709. Wie es da erst bei AVC 4k aussieht will ich mir erst gar nicht vorstellen.
Mir hat auch mal einer Techniker von Nvidia erzählt, das beim MacBook Pro Retina die meisten Cuda Kerne für die höhere Auflösung flöten gehen.
@ Slashcam
Mit was für I/O Hardware testet ihr eigentlich?
Antwort von iasi:
@Iasi
Hast du diesen ATI Test eigentlich mal auf einem frisch aufgesetzten System wiederholt?
Gleich zur GTX780 Ti zu greifen halte ich für absolut übertrieben.
Für den Preis sollte man sich besser zwei GTX760 mit 4GB Ram verbauen.
Wer den Slashcam Test gelesen hat, sollte das auch mitbekommen haben ;-)
nur langweilt sich dann eben bei Premiere oder RedcineX eine Karte untätig
Antwort von Tiefflieger:
@Valentino
Mal sehen, mit OpenCL Optimierung sollte das ganze flüssig laufen.
Die schnellste NVIDIA Desktop Grafikkarte ist in Cinebench bestenfalls doppelt so schnell wie die GT750M.
Aber eben, es werden beide Grafikkarten genutzt die "Intel Iris Pro Graphics 5200" zusätzlich die Quadcore CPU zum Rendern verwendet. Da ist 15% Leistungsunterschied zwischen den Grafikkarten.
Die Info zum Macbook ist für rainer7u5 gedacht, der Sinn eines Notebooks ist nicht eine Workstation zu ersetzen. Das geht auch nicht.
Den Notebook habe ich für unterwegs zum Kopieren und Sichern.
Flüssiges Schneiden wird auch in 4K möglich sein, da habe ich keine Bedenken.
Und mit 2880x1800 intern und 4K extern kann alles dargestellt werden.
Gruss Tiefflieger
Antwort von Valentino:
Der native 4k Schnitt wird weder mit FinalCut-X, noch mit Premiere oder Davinci möglich sein.
Was aber nicht bedeutet, das ein Schnitt von 4k Material z.B. in einer HD Timeline möglich ist. Das empfiehlt auch BlackMagic in seinem Manual von Resolve und bei der Ausgabe die Timeline wieder auf 4k stellen.
Das 4k Videoschnitt ohne 4k Breakout-Box für knapp tausend Euro und den passenden Monitor und schnellem Raid/SSD völliger Unfug ist, wird gerne mal vergessen.
Leider kann man bei FinalCut-X auch nicht so ganz unter die Haube schauen, wie es wirklich arbeitet.
Und OpenCL ist nicht gleich OpenCL, Davinci und Adobe unterstützen nur ATI und Nvidia. RedCine-X Pro unterstützt auf Haswell Systemen manchmal Nvidia, ATI und die Intel GPU, hier soll es aber öfters zum Crash kommen.
Adobe hat Intel OpenCl für die Cloud angekündigt, aber noch nicht implementiert.
Davinci wird es wenn überhaupt erst in der 11er Version implementieren und was aus Speedgrade wird ist auch noch nicht ganz klar.
@Iasi
Alleine die Multi-GPU Unterstützung von RedCine-X für CUDA sollte sich bei dir als Red Besitzer mit dem neuem SDK eine alte Redrocket ersetzten.
Antwort von iasi:
@Iasi
Alleine die Multi-GPU Unterstützung von RedCine-X für CUDA sollte sich bei dir als Red Besitzer mit dem neuem SDK eine alte Redrocket ersetzten.
"Multi-GPU Unterstützung"? Ist mir da was entgangen?
Antwort von Valentino:
Ist gerade noch alles Beta, aber konnte schon mit der 21 Beta zwei OpenCL Devices auswählen und das auch am neuen Haswell Laptop.
Mit Cuda sollte das eigentlich auch möglich sein und deswegen hat die GPU auch eine Nummer und eine Hacken in den Redcine-X Einstellungen.
Man sollte aber den neusten Treiber installiert haben.
Antwort von Tiefflieger:
gelöscht
Antwort von otaku:
sehr interessanter artikel, sehr informativ.
ich hatte aufgrund der aussage von blackmagic gedacht, das tatsächlich nur eine titan optimale performance liefert, alles andere u.u. billiger ist aber auch langsamer. der test liest sich aber ehr anders rum. ne titan ist ok alles andere mit 2 karten ist aber schneller.
ein guter punkt der hier aber zur sprache gekommen ist ist, das mehrere karten bei resolve zwar vorteile bringen, mit jeder anderen software aber eine gpu ungenutzt ist.
ich würde daher gerne wissen, wenn ich davinci ausschliesslich als light version nutze, d.h. kein degrain oder optical flow, kann ich dann bei einer titan davon ausgehen das alles bis 5k red mindestens realtime läuft?
anständiges raid und schnelle cpu natürlich vorausgesetzt, oder anders gefragt, wenn realtime für mich minimal anforderung ist, was muss ich verbauen für welches footage? mir sind jetzt irgend welche exoten dabei egal, mich interessieren nur die üblichen verdächtigen.
arri raw
red 4k und 5k
black magic pocket raw und 2,5k raw
und natürlich avid dnxhd und prores
Antwort von studiolondon:
Der native 4k Schnitt wird weder mit FinalCut-X, noch mit Premiere oder Davinci möglich sein.
??? Wieso das? Wir schneiden (seit Jahren) 4K nativ - selbstverständlich inkl Premiere Pro.
Was aber nicht bedeutet, das ein Schnitt von 4k Material z.B. in einer HD Timeline möglich ist. Das empfiehlt auch BlackMagic in seinem Manual von Resolve und bei der Ausgabe die Timeline wieder auf 4k stellen.
Bei ppro kann man wiedergabe, ausgabe usw jederzeit dynamisch ändern - und bleibt immer auf nativ 4k, 6k - oder mehr.
Das 4k Videoschnitt ohne 4k Breakout-Box für knapp tausend Euro und den passenden Monitor und schnellem Raid/SSD völliger Unfug ist, wird gerne mal vergessen.
Nein - nur mit full 4k bzw 6K kann man exakt rauschpegel usw beurteilen.
Geht doch selbst auf schwächeren Systemen mit nur 6 oder 8 cores - einfach half-res schneiden, kurze full-res kontrolle, weiter. ist ein klick in ppro, und wenn kein 4k monitor verfügbar ist (ppro kann 4k fullscreen auch ohne breakoutbox via grafikkarte, man braucht keine sdi-karte) zoom man eben kurz 200% ein.
@Iasi
Alleine die Multi-GPU Unterstützung von RedCine-X für CUDA sollte sich bei dir als Red Besitzer mit dem neuem SDK eine alte Redrocket ersetzten.
So sehr ich opencl die daumen drücke (bin immer für offene normen) - cuda ist einfach viel weiter verbreitet, funktioniert & ist optimiert. Das wird schon noch dauern, bis OCL seine Stellung zementiert.
Antwort von Valentino:
Red Material wirst du ohne Rocket nie auf Echtzeit kommen.
Das Red Debayer wird bei Resolve über die CPU gerechnet.
Antwort von iasi:
Red Material wirst du ohne Rocket nie auf Echtzeit kommen.
Das Red Debayer wird bei Resolve über die CPU gerechnet.
Aber auch nur bei voller Auflösung - in Premiere ist Wiedergabe in 1/2 oder auch 1/4 möglich, was für die Beurteilung der Bewegungen genügt - und im Standbild bekommt man 1/1 und kann das Bild beurteilen - so dramatisch ist das nun nicht.
Ich kann da gut mit leben.
In Resolve ist das auch nicht anders.
Bei RedcineX muss man leider manuell jedesmal wechseln - aber durch die GPU-Unterstützung läuft das nicht schlecht.
Antwort von Valentino:
Das war aber nicht Frage von otaku.
Oh Studio lese doch bitte mindestens die vorherigen Beiträge, da sich meine Aufsage auf das aktuelle MacBook Pro und Tieffliegers Meinung darüber bezogen hat.
Antwort von studiolondon:
Red Material wirst du ohne Rocket nie auf Echtzeit kommen.
falsch - seit Jahren läuft das Echtzeit, iirc so ab ~CS3.
Möglichkeit 1 - für schwache Systeme ohne 4k Monitor: Timeline 4K, Playback auf half decode. Das geht ab schnellem quadcore - auch auf Notebook btw.
Möglichkeit 2 - red via cineform. Damit kann man fulldecode auf schwächeren Systemen.
Möglichkeit 3 - und das ist der klassiker - ausreichend starkes system (sprich min dual ssd raid), 4k via RGB.
Das Red Debayer wird bei Resolve über die CPU gerechnet.
"Leider" nicht nur. Das API von RED ist in der Hinsicht - sagen wir es freundlich - für die Entwickler eine blackbox (man könnte unfreundlich sagen: ein bewegliches ziel), und red schiebt inzwischen so einiges der API auf die GPUs.
Übrigens Valentino, ganz ernsthaft: ich merke immer wieder, daß du ppro (wie viele) nicht gut kennst. Gut gemeinter Tip: Lern es. Für 4K und mehr, für RAW ist es tatsächlich das flexibelste NLE am markt - und das kommt von einem User der teuren highendsysteme. Bei uns rutschen inzwischen (und schon seit Jahren) teure smoke/flame session reihenweise auf ppro... der raw-workflow ist schlicht der (mit abstand) branchenbeste, avid/autodesk-discreet sind MEILENWEIT dahinter.
Antwort von Valentino:
Du solltest endlich mal die vorherigen Beiträge richtig lesen bevor du wieder Reflexartig andere User beschuldigst, das sie sich nicht mit der Materie auskennen.
Es geht mir die ganze Zeit nicht um den Nativen Import, sondern von der Nativen Wiedergabe der Red RAWs in 4k mit mindestens 10bit und 4:2:2 ohne irgendwelche Sachen zwischendurch zu verstellen.
Nativ kann man auch in allen anderen NLEs mit Red Material schneiden, es aber nicht bei der Wiedergabe in Echtzeit in gewohnter Qualität an schauen.
Bitte komme mir jetzt nicht mit irgendwelchen Pseudo-Tricks oder vorherigen Umwandlungen zu Cineform, wenn man von Nativem Schnitt und Wiedergabe in 4k spricht.
Antwort von iasi:
Das war aber nicht Frage von otaku.
Oh Studi lese doch bitte mindestens die vorherigen Beiträge, da sich meine Aufsage auf das aktuelle MacBook Pro bezogen hat.
oh doch - denn realtime 1/1 wiedergabe sind in der praxis nicht wirklich nötig - oder man hat eben einen 5k-monitor für red-epic-material, die entsprechende hardware und das bedürfnis das red-material in voller auflösung zu sehen.
zumindest sollte es dann aber eben doch ein 4k-projektor oder ein monitor wie der Eizo DuraVision FDH3601 sein - denn wenn man schon nicht die auflösung der kamera hat, sollte es doch zumindest die auflösung sein, die man anstrebt.
was sind schon 20k€, wenn man 4k-realtime 1/1 in resolve haben möchte - mit ein paar nodes kommen die cpus und gpus auch ein wenig ins schwitzen und die stromrechnung wird üppig - und ein MacBook Pro reicht dann sowieso nicht mehr.
es ist natürlich leicht gesagt: ich will realtime-wiedergabe in voller auflösung ... und das dann noch von einem notebook.
klar muss dann auch das 6k-dragon-zeug drauf laufen - schließlich will man ja ne weile mit dem rechner arbeiten.
ernsthaft: zieh den leuten doch besser mal diesen zahn und bring sie zurück auf den boden der realität.
aber immerhin bringt ja auch LG dieses jahr einen echten 4k-monitor - also schon mal das sparen beginnen - eben auch für den passenden 4k-realtime-in-resolve rechner
Antwort von Valentino:
Der Kollege kommt aus der VFX Ecke und gerade da braucht man fast immer die volle Qualität um z.B. beim Compen und Keyen das Ergebnis richtig beurteilen zu können.
Mehr als 4k RGB steckt in den 5k EPIC Bildern auch nicht drin und QUADHd Monitore gibt es ja schon ein paar Preisgünstige.
Da so was mit dem MacBook Pro nicht geht, habe ich auch schon vorher geschrieben.
Antwort von studiolondon:
Du solltest endlich mal die vorherigen Beiträge richtig lesen bevor du wieder Reflexartig andere User beschuldigst, das sie sich nicht mit der Materie auskennen.
valentino, grade WEIL ich deine Beiträge lese, muss ich deine falschaussagen hinsichtlich ppro immer wieder korrigieren.
Und du kennst dich mit der "Materie Premiere Pro" NICHT aus. Das hast du hier oft genug dokumentiert. Ode siehst du das etwa anders?
Es geht mir die ganze Zeit nicht um den Nativen Import, sondern von der Nativen Wiedergabe der Red RAWs in 4k mit mindestens 10bit und 4:2:2 ohne irgendwelche Sachen zwischendurch zu verstellen.
Und genau das beherrscht premiere pro seit VIELEN jahren.
In 4:4:4 zudem ebenfalls. Und 16 bit.
Ohne zusätzliche Breakoutboxen.
Wenn das System zu schwach ist - schaltet man schlicht im Monitorfenster auf half decode - das schafft selbst ein quadcore flüssig. Das ist EIN klick. KEINERLEI wartezeit. Jederzeit ohne jegliche Änderung ausführbar.
Nativ kann man auch in allen anderen NLEs mit Red Material schneiden,
nein.
es aber nicht bei der Wiedergabe in Echtzeit in gewohnter Qualität an schauen.
Das hängt nur und ausschließlich davon ab, wieviel Hardwareleistung du ppro gönnst.
Bitte komme mir jetzt nicht mit irgendwelchen Pseudo-Tricks oder vorherigen Umwandlungen zu Cineform,
Das sind keine "tricks" - sondern workflows für die Kunden tausende euros ausgeben - und seit ewigkeiten in der Spiel- und Dokumentar- und Werbe-filmproduktion nutzen.
wenn man von Nativem Schnitt und Wiedergabe in 4k spricht.
Du verwechselst zwei Dinge.
Nativ heisst: In RAW, ohne proxy. Und genau das beherrscht ppro seit vielen Jahren. Auf jedem System.
4K ebenso - aber hierzu brauchst es rechenleistung, oder wenn man die nicht hat intermeds. Ob man dabei - wenn man nicht nativ wählt - nun RGB oder RAW (bspw. via cineform) nutzt, ist vor allem eine Frage der Balance bandbreite vs rechenpower.
Premiere selber ist übrigens format-agnostisch, sprich man kann bspw. auch 6k redraw footage direkt in eine 4K redraw timeline werfen bzw andersrum - und direkt flüssig abspielen. Ob man dabei full, half oder quarterdecode einstellt, via cpu oder redrocket(s) hängt ausschliesslich von der Workstation ab, und ist jederzeit mit einem Klick sofort und ohne rechnen wechselbar. Getrennt für stehend & bewegt zudem. typisch für 4K nativ Schnitt auf dem Notebook ist daher bspw. half decode playback (also 2k vorschaufenster der 4k timeline), full decode still (also 4k vorschau bei stand, um pixel für pixel das bild beurteilen zu können).
Wie gesagt: Eigne dir die Funktionen an, das ist eine ernstgemeinte Empfehlung. Und die hast du nicht nur von mir bekommen.
Antwort von Valentino:
Klar 4k 16bit RGB über die Grafikkarte ohne die bekannte Grafikkarten Jitter im Bild. Über welche Schnittelle und welcher Monitor kann dir die 16bit noch anzeigen?
Aber ich lasse mir gerne von dir helfen, ein Kollege mit Premiere und BM Deckling HD Karte, muss sich jedes mal eine HD Timeline basteln um die RedRaw über die Karte anzeigen zu lassen.
Deine Lösung?
Ich kenne die ganzen Workflows mit Umwandeln und den ganzen Qualitätsstufen.
Sie habe alle so ihre Tücken und sind nie so gut wie die native Bearbeitung.
Da streiten sich auch die VFXler darüber ob OpenEXR oder R3D mehr Sinn macht, wenn das Endformat so oder so nur OpenEXR sein kann.
Gerade beim mobilen Schnitt wird ordentlich Energie für das ständige Debayering verschwendet. Bei ProRes oder DNxHD ist hingegen der Akku nicht so schnell leer.
Hauptsache du hast dein Senf dazu gegeben und mal wieder einem anderen User für unwissend erklärt, das scheint ja irgendwie dein Hobby zu sein ;-)
Antwort von iasi:
Klar 4k 16bit RGB über die Grafikkarte ohne die bekannte Grafikkarten Jitter im Bild. Über welche Schnittelle und welcher Monitor kann dir die 16bit noch anzeigen?
Aber ich lasse mir gerne von dir helfen, ein Kollege mit Premiere und BM Deckling HD Karte, muss sich jedes mal eine HD Timeline basteln um die RedRaw über die Karte anzeigen zu lassen.
was hat denn das problem mit der bm-karte mit dem material zu tun, das in premiere geschnitten wird?
Ich kenne die ganzen Workflows mit Umwandeln und den ganzen Qualitätsstufen.
Sie habe alle so ihre Tücken und sind nie so gut wie die native Bearbeitung.
und was willst du damit nun sagen?
Gerade beim mobilen Schnitt wird ordentlich Energie für das ständige Debayering verschwendet. Bei ProRes oder DNxHD ist hingegen der Akku nicht so schnell leer.
der akku geht mit avchd dann noch viel schneller in die knie ...
und nimm mal 5k prores und vergleiche dann mal ...
Antwort von Valentino:
Wenn du 4k oder 5k Material nur in 1/2 flüssig schneiden kannst, dann hör doch bitte mit diesen 5k ProRes Vergleichen auf.
Die Hälfte von 4k sind 2k und von 5k es so grob 2,5k.
ProRes in 2k bekomme ich noch locker mit Premiere geschnitten ohne das ständig die CPU und GPU bei der Wiedergabe wie verrückt rendern muss.
Antwort von Tobsn:
Äh... 2k ist doch lediglich ein Viertel von 4k...
Antwort von Valentino:
Ja Stimmt also eher 3k, mein Fehler.
Was mich dann aber etwas verwundert, warum man bei 1/4 Wiedergabe von 4k HD Material in RedCinePro-X auf einem HD Monitor immer noch deutliche "Treppenstufen" sehen kann, die bei 1/2 dann auf einmal verschwinden.
Antwort von studiolondon:
Klar 4k 16bit RGB über die Grafikkarte ohne die bekannte Grafikkarten Jitter im Bild.
Falls du es nicht wissen solltest: Das abschalten von Jitter dabei nennt v-sync. Grundlagenwissen. Wenn dein Monitor keine nativen 24/25p kann und du kompromissbehaftest 60p für 24/25 nutzt hilft dir pullup/down, aber das wiederrum ist kein jitter.
Über welche Schnittelle und welcher Monitor kann dir die 16bit noch anzeigen?
Displayseitig nutzt man nicht 16 bit oder float, da wird GPUseitig 16 via 12/10bit genutzt. Das menschliche Auge schafft nicht mehr aufzulösen. Grundlagenwissen.
Die 16 bit dienen der Qualität bei der Signalverarbeitung. Quantisierungsartefakte bei komplexen Bearbeitungen zu vermeiden ist dabei eines der Ziele. Ebenfalls grundlagenwissen.
Aber ich lasse mir gerne von dir helfen, ein Kollege mit Premiere und BM Deckling HD Karte, muss sich jedes mal eine HD Timeline basteln um die RedRaw über die Karte anzeigen zu lassen. Deine Lösung?
Bei dem Tonfall helfe ich dir selbstverständlich nicht weiter.
Empfehle ihm dementsprechend, sich von einen in der Hinsicht kompetenten (also nicht dir) postproduktionsfachmann mal erklären zu lassen, wie man das einstellt.
Alternativ:
Ich hatte dir die Lösung schon vor Monaten in einem anderen Thread gepostet, Frank G. wies dich dort ebenfalls auf deine mangelnde kenntnis von ppro diesbezüglich hin.
Aber die Kombination aus Überheblichkeit und Unwissen in deinen Posts missfällt mir.
Also such ihn dir selber - oder lass deinen Freund suchen. Die Antwort hast du, wie gesagt, schon vor Monaten - inklusive screenshots der settings - erhalten.
Am Rande noch eine Info:
Die "Deckling HD" Karte war eine PCI-X i/o karte, und wurde letztes Jahrzehnt eingestellt.
Um support im Web zu bekommen ist neben geeigneten Tonfall auch präzise Information relevant. Falls du deinem Kollegen helfen willst, solltest du zusätzlich zu meinen dir bereits geposteten Screenshots noch in Erfahrung bringen, ob er nicht doch eine Karte aus diesem jahrzehnt, wie bspw Decklink -4K Extreme, -Studio oder -SDI, nutzt, da diese unterschiedliche Workflows bedingen.
Ich kenne die ganzen Workflows mit Umwandeln und den ganzen Qualitätsstufen.
Du überschätzt du deine Kompetenz heftig.
Hauptsache du hast dein Senf dazu gegeben und mal wieder einem anderen User für unwissend erklärt, das scheint ja irgendwie dein Hobby zu sein ;-)
"Senf", bzw eher "Käse" sonderst du ab. Ich nicht.
Wenn du in Fachdiskussionen eklatante Falschaussagen tätigst musst du dich nicht wundern, wenn kompetente Mitleser deine Wissensdefizite und Irrtümer korrigieren.
Spaß macht das nicht.
Ganz im gegenteil.
Antwort von Valentino:
oh, jetzt sagt dir mal einer seine Persönliche Meinung, was du ja ständig ungefragt machst und schon ist man überheblich und unwissend.
PS: Hilfe von dir habe ich auch nicht wirklich erwartet, das war mir bei meinem Unterton durchaus bewusst.
Und nein der Beitrag vom letzten Premieren Problem hat nicht wirklich geholfen und die Karte war eine Deckling Studio2.
Antwort von studiolondon:
oh, jetzt sagt dir mal einer seine Persönliche Meinung, was du ja ständig ungefragt machst und schon ist man überheblich und unwissend.
Lerne Meinung uind Wissen zu unterscheiden.
PS: Hilfe von dir habe ich auch nicht wirklich erwartet, das war mir bei meinem Unterton durchaus bewusst.
Lass deinen Kollegen eben weiter rumkrebsen.
Und nein der Beitrag vom letzten Premieren Problem hat nicht wirklich geholfen und die Karte war eine Deckling Studio2.
DL HD und S2 - das sei angemerkt - sind völlig unterschiedliche Karten; 4K (und 4:4:4) beherrschen jedoch beide nicht.
Insofern ist es etwas schleierhaft, wie ihr 4K über 1080P karten abspielen wollt. Vermutlich suchst du nach hardware downconversion, und nicht nach 4k...
Mit Premiere hat das allerdings exakt nichts zu tun, auch flame macht nicht per magie aus 1080P SDI 4k. Software und Hardware sind 2 unterschiedliche Dinge...
Antwort von studiolondon:
...Kollege mit Premiere und BM Deckling HD Karte....
... nicht wirklich geholfen und die Karte war eine Deckling Studio2...
decklinK am rande.
"Link". Englisch. Verbindung.
Nicht "ling". Deutsch, wie Däumling.
Bin ja selber nun wahrhaft kein rechtschreibnazi, aber bei 4 tasten abstand zwischen K und G gehe ich im wiederholungsfall von falschen technical terms aus ;)
Antwort von Valentino:
Wenn du mal nichts findest wird dir doch langweilig oder?
Irgendwie werden wir glaub keine Freunde mehr ;-)
Und ja fürs Protokoll ich haben kein blassen Schimmer von Premieren, aber darum ging es zu Beginn auch gar nicht.
Was mir aber tierisch auf den Keks bei dir geht, wenn einmal jemand was falsches geschrieben hat, dann lässt du jedes mal ein Donnerwetter los und reist die ganze Sache aus dem Kontext.
Teilweise verfolgst du sogar die einzelnen User und setzt zeitgleich zwei gleiche Beiträge ins dieses Forum. Dabei ist der Vorwand meist der Gleiche, irgendwo hat mal jemand was geschrieben, das nicht ganz richtig ist in deinen Augen, schon spielst du dich als Forums-Polizei gegen dein viel zitiertes Unwissen aus.
Man kann so was auch anders und weniger extrem formulieren und gerade bei dir, der anscheinend bei einer großen Firma (als Führungskraft?)arbeitet, erwarte ich einen etwas feinfühligeren Umgang.
Man sollte auch nicht vergessen, das Slashcam ein Consumer und Freizeit und kein Profi-Forum für Postproduktion ist.
Deine Beiträge und Antworten empfinde ich meist als leicht aggressiv in ihrer Formulierung und so schaukeln sich diese im Forum durch andere User wie mich immer wieder gerne hoch.
Das Ganze bringt aber dem Forum nicht wirklich etwas.
Aber ganz ehrlich ich habe da keine Lust mehr dazu und werde deine Beiträge lesen, aber sie nicht mehr kommentieren.
Es wäre mir auch ganz recht, wenn du es genauso hältst und auch meine Beiträge so weit es dir möglich ist unkommentiert lässt.
Antwort von Tiefflieger:
So nebenbei Videoschnitt in 4K mit dem MacBook pro geht.
RED (ist nicht mein Ziel (Hobby) und ebensowenig 5K oder 6K :-)
http://www.fcp.co/final-cut-pro/article ... tube-in-4k
Es lässt sich auch extern 4K mit 60 Hz darstellen.
http://9to5mac.com/2013/12/23/new-retin ... w-drivers/
Gruss Tiefflieger
Antwort von Tobsn:
Mal wieder ne Frage in Richtung Grafikkarte. Bringt eine Gtx 760 4GB als Solokarte einen großen Performance Zuwachs gegenüber einer 570 1,2 Gb? Geht lediglich um DSLR Material bei dem die 570 bereits mit ein paar Korrekturen ins Stocken gerät...
T
Antwort von Frank Glencairn:
So nebenbei Videoschnitt in 4K mit dem MacBook pro geht.
r
Aber nur in niedrigster debayer Stufe - big deal, das geht auch auf meinem 3 Jahre alten Dell Laptop.
Es lässt sich auch extern 4K mit 60 Hz darstellen.
Aber nur wenn du Windows auf dem Mac laufen lässt, Mavericks kanns nicht.
Daher die Überschrift:
"New Retina MacBook Pros can drive 4K displays at 60Hz – when running Windows, Mac OS needs new drivers"
und der Schlussatz:
"....this should allow current rMBP machines to display 4K video properly in a future update to Mavericks."
Antwort von Tiefflieger:
So nebenbei Videoschnitt in 4K mit dem MacBook pro geht.
r
Aber nur in niedrigster debayer Stufe - big deal, das geht auch auf meinem 3 Jahre alten Dell Laptop.
Es lässt sich auch extern 4K mit 60 Hz darstellen.
Aber nur wenn du Windows auf dem Mac laufen lässt, Mavericks kanns nicht.
Daher die Überschrift:
"New Retina MacBook Pros can drive 4K displays at 60Hz – when running Windows, Mac OS needs new drivers"
und der Schlussatz:
"....this should allow current rMBP machines to display 4K video properly in a future update to Mavericks."
Danke für die Hinweise Frank, 4Kp24 und UHD bis 30p ist über HDMI von Apple spezifiziert und problemlos darstellbar.
Wenn Apple ein Update nachschiebt ist auch 60 Hz unter OSX darstellbar :-)
Bezüglich Debayer Stufe, technisch bräuchte ich doch nur Stichproben zu machen und kann jede Stufe laufen lassen? (es dauert einfach etwas länger)
(Technisch wird von FCP z.B. der REDCode und XAVC direkt von allen Coprozessoren unterstützt, sprich beiden GPU)
Antwort von Frank Glencairn:
Ich seh auch kein Problem 4k/5k Material "nur" in HD zu schneiden.
Man kann ja zur Kontrolle jederzeit umschalten.
Antwort von Tiefflieger:
Es lässt sich auch extern 4K mit 60 Hz darstellen.
http://9to5mac.com/2013/12/23/new-retin ... w-drivers/
So jetzt ist es raus, OSX 10.9.3 beta unterstützt 4K bis 60p
http://www.golem.de/news/apple-os-x-10- ... 04984.html
Gruss Tiefflieger