Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Quadro und GeForce Kombinieren für 10Bit und Leistungsfähigkeit?



Frage von ostbhf:


Hallo,

würde mir gerne 2 4K Monitore anschaffen (NEC Multisync 24Zoll 4K) und auf dem System mit Rhino (CAD), Photoshop und Premiere (4K Videoschnitt) arbeiten. Die Monitore sind AdobeRGB und 10 Bit fähig.

Nun frage ich mich, welche Grafikkarte ich mir dafür anschaffe.

Die teuren Nvidia Quadro-Karten haben wohl in manchen Hinsichten (CUDA?) gegenüber den Geforce Karten ein schlechtes Preisleistungsverhältnis und ich könnte mir nur eine kleine aus der Quadro-Serie leisten, das wäre leistungsmäßig vermutlich ungenügend z.B. für Premiere, dafür würden die Quadro Karten aber die 10 Bit der Monitore unterstützen und sind gut fürs CAD. Die Geforce Karten sind leistungsmäßig für einen angemessenen Preis besser, was mir z.B. in Premiere wahrscheinlich zugute käme, aber sie haben kein 10 Bit.

Nur mit GeForce Karte bräuchte ich mir ja also eigentlich keine 10 Bit Monitore holen, sondern könnte mit 8Bit 4 K Monitoren gleicher größe 500 Eur/Stück sparen.

Oder sind die Monitore (NEC, s.o.) trotzdem noch signifikant besser als andere (was macht dabei z.B. ihre AdobeRGB-Fähigkeit aus), auch wenn ihnen die Grafikkarte gar nicht die 10 Bit liefert, die sie verarbeiten könnten?

Ist es möglich die kleinste Quadro und eine GeForce parallel in einem Rechner zu betreiben, bekommt man so die Vorteile aus beiden Welten (Leistungsfähigkeit und Preisleistung der GeForce und 10 Bit der Quadro)?

Was wäre das für eine Konstruktion? Wo schließe ich dann die beiden Monitore an, beide nur an die Quadro, die Geforce Anschlüsse würde ich nicht verwenden? Spielt SLI eine Rolle? (Sorry, was die Soft und Hardwarekonfig. angeht bin ich Amateur) Addiert sich dabei wirklich das Potential beider Karten, oder verschenke ich dabei Leistung einer der Grafikkarten, bremst sich da was gegenseitig aus?

Oder müsste ich einen Monitor an eine, den anderen an die andere Karte anschließen und sollte dann einen 8 und einen 10 Bit Monitor kaufen?

Wahrscheinlich eine naive Frage, vermutlich geht es nicht. Aber es würde mich sehr interessieren, was euch dazu einfällt, auch eventuell an alternativen Vorschlägen, an die ich nicht gedacht hatte.

Würde dann Win10 verwenden.

Noch eine sekundäre, mir weniger wichtige Frage: wie viel müssen Grafikkarten leisten, um 2 4K Diasplays zu bedienen? Bleibt da noch Leistung für Premiere z.B. übrig, gibt es für die Anforderungen von 2 4K Displays irgendwo Tabellen/Hinweise o.Ä.?

Danke, LG!

Space


Antwort von Jost:

Das ändert sich gerade.

Die neuen GTX 1070 und 1080 von Nvidia dekodieren in 10 Bit.

Ab ~500 Euro geht es los.

Einfach mal den Support von Nvidia anrufen, ob 10 Bit und 2x4K funktionieren.

Ende des Monats erscheint die 490 von AMD für ~250 Euro. Ob sie 10 Bit beherrscht, steht meines Wissens noch nicht fest.

Space


Antwort von ostbhf:

HEVC sollen sie in 10 Bit beherrschen. Was bedeutet das in der Praxis? Zb. mit GH4 Material/Premiere oder Photoshop?

Bei Quadro-Karten wird immer allgemein 10 Bit-Fähigkeit angegeben, bei den 1070/80 wird dieses Kriterium immer nur in Bezug speziell auf HEVC genannt. Was geht dann NICHT in 10 Bit? Bekommt der Monitor dann überhaupt echte 10 Bit?

Space


Antwort von TheBubble:

10 Bit HEVC bezieht sich auf die Hardware-Unterstützung der Dekompression von HEVC Dateien, die 10-Bit-Farbtiefe nutzen. Das ist unabhängig davon, was an das Display geht bzw. dieses darstellen kann.

Space


Antwort von Jost:

HEVC sollen sie in 10 Bit beherrschen. Was bedeutet das in der Praxis? Zb. mit GH4 Material/Premiere oder Photoshop? Dass 10-Bit-Monitore für Video wahrscheinlich überflüssig sind.
Die GH4 zeichnet intern nur in 8 Bit auf.
10-Bit-Video geht nur mit externem Recorder per HDMI-Ausgang.

Fotos nimmt die GH4 in 12 Bit je Farbkanal auf.

Keine guten Nachrichten - ich weiß.

Space


Antwort von wolfgang:

Welche Anwendung beherrscht den schon 10bit H.265? Sind die heutigen Encoder nicht alle bisher nur 8bit?

Die GH4 gibt 10bit 422 über den HDMI Ausgang aus, und man kann mit Rekordern wie dem Shogun dann ProRes 10bit 422 aufzeichnen. Das geht problemlos. Also so gesehen braucht es eben den externen Rekorder bei der GH4.

Die 10bit Ausgabe in der Vorschau macht man idealerweise eher über Karten die eine AJA oder eine Blackmagic - bei Blackmagic entweder bis UHD 30p über die Intensity 4K, oder wenn es UHD 50p sein soll dann entweder über die Decklink 4K Extreme 6G oder 12G.

Klar gehts auch notfalls über eine Grafikkarte, da läuft eine Quadro bisher gut (und in Zukunft offenbar auch nvidia). Die Vorschau auf eine Decklink ist aber mit 10bit deutlich robuster bzw. höherwertiger (egal ob aus Vegas oder Catalyst oder Edius oder Resolve oder Looks 3 heraus).

EDIT: spannend wäre zu wissen was uns etwa mit der GH5 erwartet, angeblich im Herbst. Denn grundsätzlich sollte ja eine H.265 Aufzeichnung sehr wohl in 10bit 422 möglich sein - aber gibts da schon die passenden Chips?

Space


Antwort von Jost:

Welche Anwendung beherrscht den schon 10bit H.265? Na Ultra Blu Ray. Angeblich wird auch die neue Playstation 4 Neo so ein Laufwerk drin haben.

Wenn Du Dir selbst so eine Scheibe brennen willst, wäre es schon gut, wenn die Graka das unterstützt.

Space


Antwort von wolfgang:

Eine GraKa ersetzt noch kein Authoringtool. Außerdem ist eine Scheibe keine Anwendung. ;)

Space


Antwort von Jost:

Eine GraKa ersetzt noch kein Authoringtool. Außerdem ist eine Scheibe keine Anwendung. ;) Selbstverständlich richtig.

Die Graka sorgt für die klassische Hardware-Beschleunigung unter h.265.

Einige 4K-Fernseher unterstützten aber auch nur Videos mit dem HEVC/H.265-Codec.

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


Probleme mit NVIDIA Grafiktreiber Quadro K4000M
Aufsteckmikro und Funkstrecke auf DSLM kombinieren?
Zoom und Tracking kombinieren?
DJI Mic kombinieren mit Tascam DR-40X an Canon R6 M II
Resolve - Aufnahmen mit verschiednenen fps kombinieren
Nvidia teasert GeForce RTX 3060 mit 12 GB Ram für 320 Euro
Neue Nvidia GPUs für Notebooks ab 800 Euro: GeForce RTX 3050/3050 Ti
Nvidia: GeForce RTX 3090 SUPER mit bis zu 450 Watt für 2022 erwartet
Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super
Nvidia Geforce RTX 5090 - Die beste Grafikkarte für Blackmagic DaVinci Resolve
Neuer High-End Notebook bei ALDI mit AMD Ryzen 9 5900HX, 64 GB RAM und GeForce RTX 3080
LG UltraGear Gaming Laptop 17G90Q: 32 GB RAM, GeForce RTX 3080 und Thunderbolt 4
GeForce RTX 40 Series GPUs & DaVinci Resolve
Nvidia GeForce RTX 4060 Test - Einfluss auf und durch Influencer?
MFT Kamera für 1080p50 4:2:2 10bit?
Sony Alpha 7S II Nachfolger mit 10bit 4K 120p intern?
Die 10Bit Diskussion geht weiter!
WQHD Monitor mit 144hz, 10bit und gutem Farbraum




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash