Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Nvidia's GTX 1070 und RTX 3080Ti parallel?



Frage von AndySeeon:


Hallo zusammen,

ich habe mir vor ein paar Wochen eine GTX 3080Ti zugelegt. Angeschlossen waren ein Ultrawide- Monitor 5.120x1.440, ein WQHD Monitor mit 2.560x1.440 und ein 55" LG- OLED- Fernseher 4K mit 3.840x2.160 als Vorschaumonitor für Resolve.
Leider hat sich die 3080Ti nach ca. 3 Wochen bei der intensiven Arbeit in Resolve mit einem kleinen stinkenden Wölkchen verabschiedet. Ich hatte bei der Arbeit immer die Temperaturanzeige zu laufen, da das Mainboard und der Prozessor auch neu waren. Die 3080Ti hat nie mehr als 65°C angezeigt.

Momentan habe ich eine alte GTX 1070 drin, die bei gleicher Tätigkeit auch bloß max. 65°C kommt. Eine GTX 1060 liegt hier auch noch herum.

Ich bin mir nun nicht sicher, ob die RTX 3080Ti nicht mit den angehängten drei Auflösungen überfordert war, auch wenn die Temperatur nicht allzu hoch war. Möglicherweise wird die Temperatur des Grafikchips angezeigt, aber abgebrannt ist die interne Spannungsversorgung? Komischerweise macht die alte GTX 1070 ohne Murren alles das, was die 3080Ti machen sollte, nur extrem langsamer.

Deswegen überlege ich, wenn die Ersatzkarte kommt die alte GTX drinzulassen und dort nur den Vorschaumonitor (LG-OLED- Fernseher) anzuschließen. Die 3080Ti übernimmt dann die beiden Arbeitsmonitore und die Rechenarbeit in Resolve.

Gibt es technische Gründe, die dagegen sprechen?

Mainboard: GIGABYTE B550 VISION D-P
Prozessor: AMD Ryzen™ 9 5900X
RAM: Corsair Vengeance 128 GB DDR4-3200 Quad-Kit
Netzteil: Thermaltake Toughpower GF1 Gold 1200W

Gespannte Grüße,
Andreas

Space


Antwort von Frank Glencairn:

Bei zwei Karten ist das System dann immer nur so schnell wie die langsamere von beiden.
Insgesamt lohnt es sich nur in Sonderfällen für Resolve 2 Karten zu betreiben, und da auch nur bei identischen - zwei verschiedene Karten ist: asking for trouble.

Space


Antwort von Jost:

Die Grafikkarte wird mit 16 Lanes angebunden. Steckst Du eine zweite dazu, heißt das: 2X8.

Space


Antwort von AndySeeon:

"Frank Glencairn" hat geschrieben:
Bei zwei Karten ist das System dann immer nur so schnell wie die langsamere von beiden.
Hallo Frank, betrifft das nur Resolve oder den Rechner insgesamt? Bei Resolve kann ich doch manuell die zu verwendende GraKa auswählen und vorgeben? Oder bremst das den Rechner hardwaremäßig aus?

Gruß, Andreas

Space


Antwort von AndySeeon:

Jost hat geschrieben:
Die Grafikkarte wird mit 16 Lanes angebunden. Steckst Du eine zweite dazu, heißt das: 2X8.
Okay - habe verstanden. Der gesamte Rechner wird dadurch ausgebremst. Schlechte Idee ;)

Gruß, Andreas

Space


Antwort von MK:

Die Grafikkarte ist sicher nicht wegen Überlastung abgeraucht... Vorschaden oder einfach Pech.

Space


Antwort von dienstag_01:

Zwei Grafikkarten sind doch heutzutage eher Standard, eine interne für z.B. Quicksync (ist bei vilen CPUs einfach mit dabei) und eine dezidierte von Nvidia oder AMD.

Space


Antwort von Jost:

dienstag_01 hat geschrieben:
Zwei Grafikkarten sind doch heutzutage eher Standard, eine interne für z.B. Quicksync (ist bei vilen CPUs einfach mit dabei) und eine dezidierte von Nvidia oder AMD.
Ja, aber die IGPU ist direkt mit der CPU verbunden. Dezidierte Grafikkarten werden per PCI-Lanes angebunden. Der AMD hat davon 24. 16 davon sind für die GPU reserviert. Steckst Du eine zweite Grafikkarte dazu, würden 32 Lanes benötigt. Die nicht vorhanden sind. Heißt: Zwei Grafikkarten müssen sich 16 Lanes teilen.

Werden die beiden Nvidia-Grafikkarten per SLI-Brücke verbunden, bestimmt die langsamere Karte die GPU-Leistung.

Wird auf die SLI-Brücke verzichtet, bestimmt die 1070 zwar nicht die 3080Ti. Die TI kann aber dennoch nicht mehr auf 16, sondern nur noch auf 8 Lanes zugreifen.
Wie schlimm das ist, weiß man nicht. Es gibt schließlich Gehäuse für Grafikkarten, die extern per USB und 4 Lanes angeschlossen werden. In diesem Fall würde die TI weiterhin auf 16 Lanes zugreifen können. Hier aber überflüssig, weil die TI keine Unterstützung benötigt, um problemlos drei Monitore zu betreiben.

Space


Antwort von AndySeeon:

Hmmm ja, das Board hat eine integrierte Grafik (3rd Generation AMD Ryzen™ with Radeon™ Graphics processors), da könnte ich den LG- OLED anschließen. Für die Vorschau genügen mir ja 50Hz, da brauche ich keine 100Hz.
Wenn ich damit der 3080Ti mehr freie Kapazität für die grafischen Berechnungen lasse...

Gruß, Andreas

Space



Space


Antwort von klusterdegenerierung:

Jost hat geschrieben:
Die Grafikkarte wird mit 16 Lanes angebunden. Steckst Du eine zweite dazu, heißt das: 2X8.
Nicht wenn er ein Board mit 3x16 Lanes hat.
2x reicht auch nicht.

Space


Antwort von AndySeeon:

In der Boardbeschreibung heißt es:

Multi-graphics configurations offer by dual PCIe 4.0/3.0 x16 and one PCIe 3.0 x16 slots

Jetzt weiß ich aber nicht, ob die zwei x16 gleichzeitig nutzbar sind. Ich bin nicht so der PC- Experte. Den PC habe ich nach der Resolve- Konfiguration von Pugetsystems konfiguriert.

Gruß, Andreas

Space


Antwort von klusterdegenerierung:

Meißtens braucht man 3x, weil die 1x schon von boardeigenen PCI Komponenten belegt werden, was im umkehrschluß heißt, das bei 2x nur noch ein 16ern überbleibt und der zweite geht für irgendwas drauf.

Ich habe nur 1x16 und 2x8, wenn ich nun noch eine 2x Karte oder auch onboard dazu nehme, wird die 16x angezapft und man fährt mit 2x8 durch die Gegend, was lausiger ist, als 1x16 mit einer Karte.

Space


Antwort von AndySeeon:

Egal, ich lasse die drei Monitore an der Nvidia, probiere aber die onboard- Grafik für den Vorschau- Monitor mal aus.
Wenn die Ersatzkarte endlich mal geliefert wird... ich warte nun schon drei Wochen.

Gruß, Andreas

Space


Antwort von klusterdegenerierung:

Ich habe hier eine EVGA 1080, da habe ich ein Pana TV mit 1080, einen Benq mit 1080 und einen Benq 4K dran hängen und das läuft gut.
Zusätzlich habe ich eine interne BMD 4K Karte die mit am TV hängt, mit der ich separat das Fullscreenfenster betreiben kann, ist auch klasse.

Meine interne Intel via meinem i6700 hatte ich auch mal probiert, war aber echt lausig.
Der Vorteil mit aller an einer GTX ist auch die Kalibrierung, bei alle Monitoren sieht das Grau relativ gleich aus, mit der Intel kann ich das vergessen.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


'1080/25p All-Intra' bei gleicher Datenrate besser als '1080/50p All-Intra' ?
GTX 1070: nach 10 Minuten kein Bild mehr in Premiere
Blackmagic DaVinci Resolve Update 16.2.7 bringt Unterstützung für neue Nvidia RTX 3080, RTX 3090 und RTX 3070 GPUs
Nvidia bringt neue Profi-Grafikkarten für Workstations: RTX A5000 und RTX A4000
Neue Nvidia RTX 4090: Doppelt so schnell wie RTX 3090 Ti - aber 1.949 Euro teuer
Neue Nvidia Oberklasse GPUs im Januar - RTX 4070 / Ti und RTX 4080 Super
Nvidia GTX 1660 Ti - Genug Leistung für 4K-Videobearbeitung?
Günstige Video GPUs: AMD Radeon RX 5500 und Nvidia GeForce GTX 1660 SUPER
Nvidia GTX 1660 Super kommt am 29.Oktober mit 336 MB/s Speicher unter 250 Euro
Neue Nvidia NVIDIA RTX 2000 Ada für $625
Rode stellt das TF-5 Mikrofon als 'matched pair' vor
Temporäre Standleitung für eine Woche 'On location'
Retrofilmlook von Lana Del Reys 'Chemtrails Over The Country Club'
Canon RF 400mm f2.8 'L' IS USM - Review
ARTE: 1968mm Sex und Rock 'n' Roll
Sony PXW400 parallel auf beide SxS aufnehmen
Wie DaVinci Resolve 17 und 18 Beta parallel nutzen?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash