ich habe mir vor ein paar Wochen eine GTX 3080Ti zugelegt. Angeschlossen waren ein Ultrawide- Monitor 5.120x1.440, ein WQHD Monitor mit 2.560x1.440 und ein 55" LG- OLED- Fernseher 4K mit 3.840x2.160 als Vorschaumonitor für Resolve.
Leider hat sich die 3080Ti nach ca. 3 Wochen bei der intensiven Arbeit in Resolve mit einem kleinen stinkenden Wölkchen verabschiedet. Ich hatte bei der Arbeit immer die Temperaturanzeige zu laufen, da das Mainboard und der Prozessor auch neu waren. Die 3080Ti hat nie mehr als 65°C angezeigt.
Momentan habe ich eine alte GTX 1070 drin, die bei gleicher Tätigkeit auch bloß max. 65°C kommt. Eine GTX 1060 liegt hier auch noch herum.
Ich bin mir nun nicht sicher, ob die RTX 3080Ti nicht mit den angehängten drei Auflösungen überfordert war, auch wenn die Temperatur nicht allzu hoch war. Möglicherweise wird die Temperatur des Grafikchips angezeigt, aber abgebrannt ist die interne Spannungsversorgung? Komischerweise macht die alte GTX 1070 ohne Murren alles das, was die 3080Ti machen sollte, nur extrem langsamer.
Deswegen überlege ich, wenn die Ersatzkarte kommt die alte GTX drinzulassen und dort nur den Vorschaumonitor (LG-OLED- Fernseher) anzuschließen. Die 3080Ti übernimmt dann die beiden Arbeitsmonitore und die Rechenarbeit in Resolve.
Bei zwei Karten ist das System dann immer nur so schnell wie die langsamere von beiden.
Insgesamt lohnt es sich nur in Sonderfällen für Resolve 2 Karten zu betreiben, und da auch nur bei identischen - zwei verschiedene Karten ist: asking for trouble.
Antwort von Jost:
Die Grafikkarte wird mit 16 Lanes angebunden. Steckst Du eine zweite dazu, heißt das: 2X8.
Antwort von AndySeeon:
"Frank Glencairn" hat geschrieben:
Bei zwei Karten ist das System dann immer nur so schnell wie die langsamere von beiden.
Hallo Frank, betrifft das nur Resolve oder den Rechner insgesamt? Bei Resolve kann ich doch manuell die zu verwendende GraKa auswählen und vorgeben? Oder bremst das den Rechner hardwaremäßig aus?
Gruß, Andreas
Antwort von AndySeeon:
Jost hat geschrieben:
Die Grafikkarte wird mit 16 Lanes angebunden. Steckst Du eine zweite dazu, heißt das: 2X8.
Okay - habe verstanden. Der gesamte Rechner wird dadurch ausgebremst. Schlechte Idee ;)
Gruß, Andreas
Antwort von MK:
Die Grafikkarte ist sicher nicht wegen Überlastung abgeraucht... Vorschaden oder einfach Pech.
Antwort von dienstag_01:
Zwei Grafikkarten sind doch heutzutage eher Standard, eine interne für z.B. Quicksync (ist bei vilen CPUs einfach mit dabei) und eine dezidierte von Nvidia oder AMD.
Antwort von Jost:
dienstag_01 hat geschrieben:
Zwei Grafikkarten sind doch heutzutage eher Standard, eine interne für z.B. Quicksync (ist bei vilen CPUs einfach mit dabei) und eine dezidierte von Nvidia oder AMD.
Ja, aber die IGPU ist direkt mit der CPU verbunden. Dezidierte Grafikkarten werden per PCI-Lanes angebunden. Der AMD hat davon 24. 16 davon sind für die GPU reserviert. Steckst Du eine zweite Grafikkarte dazu, würden 32 Lanes benötigt. Die nicht vorhanden sind. Heißt: Zwei Grafikkarten müssen sich 16 Lanes teilen.
Werden die beiden Nvidia-Grafikkarten per SLI-Brücke verbunden, bestimmt die langsamere Karte die GPU-Leistung.
Wird auf die SLI-Brücke verzichtet, bestimmt die 1070 zwar nicht die 3080Ti. Die TI kann aber dennoch nicht mehr auf 16, sondern nur noch auf 8 Lanes zugreifen.
Wie schlimm das ist, weiß man nicht. Es gibt schließlich Gehäuse für Grafikkarten, die extern per USB und 4 Lanes angeschlossen werden. In diesem Fall würde die TI weiterhin auf 16 Lanes zugreifen können. Hier aber überflüssig, weil die TI keine Unterstützung benötigt, um problemlos drei Monitore zu betreiben.
Antwort von AndySeeon:
Hmmm ja, das Board hat eine integrierte Grafik (3rd Generation AMD Ryzen™ with Radeon™ Graphics processors), da könnte ich den LG- OLED anschließen. Für die Vorschau genügen mir ja 50Hz, da brauche ich keine 100Hz.
Wenn ich damit der 3080Ti mehr freie Kapazität für die grafischen Berechnungen lasse...
Gruß, Andreas
Antwort von klusterdegenerierung:
Jost hat geschrieben:
Die Grafikkarte wird mit 16 Lanes angebunden. Steckst Du eine zweite dazu, heißt das: 2X8.
Nicht wenn er ein Board mit 3x16 Lanes hat.
2x reicht auch nicht.
Antwort von AndySeeon:
In der Boardbeschreibung heißt es:
Multi-graphics configurations offer by dual PCIe 4.0/3.0 x16 and one PCIe 3.0 x16 slots
Jetzt weiß ich aber nicht, ob die zwei x16 gleichzeitig nutzbar sind. Ich bin nicht so der PC- Experte. Den PC habe ich nach der Resolve- Konfiguration von Pugetsystems konfiguriert.
Gruß, Andreas
Antwort von klusterdegenerierung:
Meißtens braucht man 3x, weil die 1x schon von boardeigenen PCI Komponenten belegt werden, was im umkehrschluß heißt, das bei 2x nur noch ein 16ern überbleibt und der zweite geht für irgendwas drauf.
Ich habe nur 1x16 und 2x8, wenn ich nun noch eine 2x Karte oder auch onboard dazu nehme, wird die 16x angezapft und man fährt mit 2x8 durch die Gegend, was lausiger ist, als 1x16 mit einer Karte.
Antwort von AndySeeon:
Egal, ich lasse die drei Monitore an der Nvidia, probiere aber die onboard- Grafik für den Vorschau- Monitor mal aus.
Wenn die Ersatzkarte endlich mal geliefert wird... ich warte nun schon drei Wochen.
Gruß, Andreas
Antwort von klusterdegenerierung:
Ich habe hier eine EVGA 1080, da habe ich ein Pana TV mit 1080, einen Benq mit 1080 und einen Benq 4K dran hängen und das läuft gut.
Zusätzlich habe ich eine interne BMD 4K Karte die mit am TV hängt, mit der ich separat das Fullscreenfenster betreiben kann, ist auch klasse.
Meine interne Intel via meinem i6700 hatte ich auch mal probiert, war aber echt lausig.
Der Vorteil mit aller an einer GTX ist auch die Kalibrierung, bei alle Monitoren sieht das Grau relativ gleich aus, mit der Intel kann ich das vergessen.