Frage von ostbhf:Hallo,
würde mir gerne 2 4K Monitore anschaffen (NEC Multisync 24Zoll 4K) und auf dem System mit Rhino (CAD), Photoshop und Premiere (4K Videoschnitt) arbeiten. Die Monitore sind AdobeRGB und 10 Bit fähig.
Nun frage ich mich, welche Grafikkarte ich mir dafür anschaffe.
Die teuren Nvidia Quadro-Karten haben wohl in manchen Hinsichten (CUDA?) gegenüber den Geforce Karten ein schlechtes Preisleistungsverhältnis und ich könnte mir nur eine kleine aus der Quadro-Serie leisten, das wäre leistungsmäßig vermutlich ungenügend z.B. für Premiere, dafür würden die Quadro Karten aber die 10 Bit der Monitore unterstützen und sind gut fürs CAD. Die Geforce Karten sind leistungsmäßig für einen angemessenen Preis besser, was mir z.B. in Premiere wahrscheinlich zugute käme, aber sie haben kein 10 Bit.
Nur mit GeForce Karte bräuchte ich mir ja also eigentlich keine 10 Bit Monitore holen, sondern könnte mit 8Bit 4 K Monitoren gleicher größe 500 Eur/Stück sparen.
Oder sind die Monitore (NEC, s.o.) trotzdem noch signifikant besser als andere (was macht dabei z.B. ihre AdobeRGB-Fähigkeit aus), auch wenn ihnen die Grafikkarte gar nicht die 10 Bit liefert, die sie verarbeiten könnten?
Ist es möglich die kleinste Quadro und eine GeForce parallel in einem Rechner zu betreiben, bekommt man so die Vorteile aus beiden Welten (Leistungsfähigkeit und Preisleistung der GeForce und 10 Bit der Quadro)?
Was wäre das für eine Konstruktion? Wo schließe ich dann die beiden Monitore an, beide nur an die Quadro, die Geforce Anschlüsse würde ich nicht verwenden? Spielt SLI eine Rolle? (Sorry, was die Soft und Hardwarekonfig. angeht bin ich Amateur) Addiert sich dabei wirklich das Potential beider Karten, oder verschenke ich dabei Leistung einer der Grafikkarten, bremst sich da was gegenseitig aus?
Oder müsste ich einen Monitor an eine, den anderen an die andere Karte anschließen und sollte dann einen 8 und einen 10 Bit Monitor kaufen?
Wahrscheinlich eine naive Frage, vermutlich geht es nicht. Aber es würde mich sehr interessieren, was euch dazu einfällt, auch eventuell an alternativen Vorschlägen, an die ich nicht gedacht hatte.
Würde dann Win10 verwenden.
Noch eine sekundäre, mir weniger wichtige Frage: wie viel müssen Grafikkarten leisten, um 2 4K Diasplays zu bedienen? Bleibt da noch Leistung für Premiere z.B. übrig, gibt es für die Anforderungen von 2 4K Displays irgendwo Tabellen/Hinweise o.Ä.?
Danke, LG!
Antwort von Jost:
Das ändert sich gerade.
Die neuen GTX 1070 und 1080 von Nvidia dekodieren in 10 Bit.
Ab ~500 Euro geht es los.
Einfach mal den Support von Nvidia anrufen, ob 10 Bit und 2x4K funktionieren.
Ende des Monats erscheint die 490 von AMD für ~250 Euro. Ob sie 10 Bit beherrscht, steht meines Wissens noch nicht fest.
Antwort von ostbhf:
HEVC sollen sie in 10 Bit beherrschen. Was bedeutet das in der Praxis? Zb. mit GH4 Material/Premiere oder Photoshop?
Bei Quadro-Karten wird immer allgemein 10 Bit-Fähigkeit angegeben, bei den 1070/80 wird dieses Kriterium immer nur in Bezug speziell auf HEVC genannt. Was geht dann NICHT in 10 Bit? Bekommt der Monitor dann überhaupt echte 10 Bit?
Antwort von TheBubble:
10 Bit HEVC bezieht sich auf die Hardware-Unterstützung der Dekompression von HEVC Dateien, die 10-Bit-Farbtiefe nutzen. Das ist unabhängig davon, was an das Display geht bzw. dieses darstellen kann.
Antwort von Jost:
HEVC sollen sie in 10 Bit beherrschen. Was bedeutet das in der Praxis? Zb. mit GH4 Material/Premiere oder Photoshop?
Dass 10-Bit-Monitore für Video wahrscheinlich überflüssig sind.
Die GH4 zeichnet intern nur in 8 Bit auf.
10-Bit-Video geht nur mit externem Recorder per HDMI-Ausgang.
Fotos nimmt die GH4 in 12 Bit je Farbkanal auf.
Keine guten Nachrichten - ich weiß.
Antwort von wolfgang:
Welche Anwendung beherrscht den schon 10bit H.265? Sind die heutigen Encoder nicht alle bisher nur 8bit?
Die GH4 gibt 10bit 422 über den HDMI Ausgang aus, und man kann mit Rekordern wie dem Shogun dann ProRes 10bit 422 aufzeichnen. Das geht problemlos. Also so gesehen braucht es eben den externen Rekorder bei der GH4.
Die 10bit Ausgabe in der Vorschau macht man idealerweise eher über Karten die eine AJA oder eine Blackmagic - bei Blackmagic entweder bis UHD 30p über die Intensity 4K, oder wenn es UHD 50p sein soll dann entweder über die Decklink 4K Extreme 6G oder 12G.
Klar gehts auch notfalls über eine Grafikkarte, da läuft eine Quadro bisher gut (und in Zukunft offenbar auch nvidia). Die Vorschau auf eine Decklink ist aber mit 10bit deutlich robuster bzw. höherwertiger (egal ob aus Vegas oder Catalyst oder Edius oder Resolve oder Looks 3 heraus).
EDIT: spannend wäre zu wissen was uns etwa mit der GH5 erwartet, angeblich im Herbst. Denn grundsätzlich sollte ja eine H.265 Aufzeichnung sehr wohl in 10bit 422 möglich sein - aber gibts da schon die passenden Chips?
Antwort von Jost:
Welche Anwendung beherrscht den schon 10bit H.265?
Na Ultra Blu Ray. Angeblich wird auch die neue Playstation 4 Neo so ein Laufwerk drin haben.
Wenn Du Dir selbst so eine Scheibe brennen willst, wäre es schon gut, wenn die Graka das unterstützt.
Antwort von wolfgang:
Eine GraKa ersetzt noch kein Authoringtool. Außerdem ist eine Scheibe keine Anwendung. ;)
Antwort von Jost:
Eine GraKa ersetzt noch kein Authoringtool. Außerdem ist eine Scheibe keine Anwendung. ;)
Selbstverständlich richtig.
Die Graka sorgt für die klassische Hardware-Beschleunigung unter h.265.
Einige 4K-Fernseher unterstützten aber auch nur Videos mit dem HEVC/H.265-Codec.