Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Uraltrechner mit Grafikkarte updaten?



Frage von ruessel:


warn.jpg speddy.jpg
Habe gerade meinen Schnittrechner vom Jahr 2011 neu aufgesetzt, ein i7-2600K 3.4 GHz und 16 GB RAM, SSD.

Eigentlich möchte ich mein 6K Material aus der Pocket schneiden (24p). Bin erstaunt daß Adobe gleich mir sagt. "Alter, lass es sein."
BMD ist leicht optimistischer und zeigt was noch geht oder auch nicht. Wie ich sehe, wird aber auch da die Grafikkarte nicht mehr benutzt. Macht es Sinn in diesem System noch eine gebrauchte NVIDIA Quadro P5000 (ca. 400-500 EUR Buchtpreise) einzusetzen? Für Premiere/Resolve und Blümchenfilme dann und wann......

Space


Antwort von Jörg:

Du wirst damit nicht glücklich werden.
Willst du wirklich 500.-€ für die Quadro ausgeben?
Leg was rauf, und kauf einen aktuellen Rechner.
Mein 2010 Schnittrechner dient heute fürs Inet, hat als triple boot die alten Adobesachen
auf den Platten, zur Not kann ich da noch leichtere Sachen erledigen, wenn jemand eine VorpremierePro Datei bearbeitet haben will/ muss.

Space


Antwort von ruessel:

ich habe es befürchtet...... für ein aktuelles 8K System (kleinste Ausbaustufe) sind knapp 3000,- erforderlich, sind mir nicht die Blümchenfilme wert..... ich hoffe PROXY ist mein Retter.

Space


Antwort von Frank Glencairn:

Ich hab hier auch noch eine alte Workstation mit ähnlichen Eckdaten stehen, die ich ab und an mal einsetze.
Unter Resolve mit ner GTX 980 ist die eigentlich erstaunlich brauchbar.

Space


Antwort von ruessel:

Unter Resolve mit ner GTX 980 ist die eigentlich erstaunlich brauchbar. Hmmmmmm......... mir sagte jemand (Händler) lieber etwas langsamere Quadro als eine Spielekarte. Die Treiber sind bei Quadro besser und genauer, bei Zockergrafikkarten können sich leicht Bildfehler einschleichen - das würde ich frustrierend empfinden.

Space


Antwort von Bluboy:

ruessel hat geschrieben:
Unter Resolve mit ner GTX 980 ist die eigentlich erstaunlich brauchbar. Hmmmmmm......... mir sagte jemand (Händler) lieber etwas langsamere Quadro als eine Spielekarte. Die Treiber sind bei Quadro besser und genauer, bei Zockergrafikkarten können sich leicht Bildfehler einschleichen - das würde ich frustrierend empfinden.
Das ist Händlermeinung
Noch garnicht lange her da gabs hier in Forum jede Menge Leute die mit GTX 970 unterwegs waren.

Space


Antwort von rush:

Ich hätte noch einen 12 kernigen Ryzen 3900x Komplett PC mit 32GB RAM, 1TB M.2 Samsung EVO SSD und 3*2TB Daten HDDs nebst Nvidia GTX1070, BluRay Brenner und Co anzubieten falls da Interesse bestehen sollte.

Rannte die letzten Jahre absolut problemlos und flott - muss jetzt aber aus Platzgründen (Kinderzimmer) weichen.

PN wenn da irgendwie Interesse bestehen sollte..

Space


Antwort von Frank Glencairn:

ruessel hat geschrieben:
Unter Resolve mit ner GTX 980 ist die eigentlich erstaunlich brauchbar. Hmmmmmm......... mir sagte jemand (Händler) lieber etwas langsamere Quadro als eine Spielekarte. Die Treiber sind bei Quadro besser und genauer, bei Zockergrafikkarten können sich leicht Bildfehler einschleichen - das würde ich frustrierend empfinden.
Die Treiber sind weder "besser" noch "genauer" - die sind nur für einige Spezialanwendungen im CAD/CAM Bereich optimiert und zertifiziert, allerdings hat nix davon mit Video zu tun.
Ich hatte auch in all den Jahren nicht einen einzigen Bildfehler kürzlich hab ich noch einen Spielfilm drauf gerechnet, wenn sich da "leicht Bildfehler einschleichen" würden, hätten wir das spätestens Kino bemerkt.
Ein Händler der mir solche Geschichten erzählt, hätte mein Vertrauen verspielt.

Hier mal so als Maßstab, was die alte Kiste noch hergibt:


Speed.jpg HWI.jpg

Space


Antwort von SHIELD Agency:

ruessel hat geschrieben:
i7-2600K 3.4 GHz und 16 GB RAM, SSD.

Eigentlich möchte ich mein 6K Material aus der Pocket schneiden (24p). Bin erstaunt daß Adobe gleich mir sagt. "Alter, lass es sein."
Also für "Blümchenfilme" für Zuhause (nicht für's Kino) vielleicht mal die BogartSE Demo Version auf dem PC testen. Und wenn's nur zum Spaß mit 2-3 Szenen ist. Hier ein älteres YouTube Video.

Ich kann damit auf meinem i3-2100 mit 16 GB RAM und einer genauso alten NVIDIA GTS-450 (hat nur 1920x1080 Darstellung) völlig flüssig und im Vollbild UHD 3840x2160p25 schneiden. 6k wird runterskaliert auf UHD oder bei einzelnen Szenen könnte man auch gleich einen Bildausschnitt importieren. Mit Umrechnung in ein eigenes Format halt beim Import... aber was das Gerät macht wenn ich schlafe ist mir ja egal. Und eine UHD-Disk sieht dann auf meinem LG 4k Blu-ray Player und LG UHD-TV gut aus. Großartig Effekte in UHD rechnen ist natürlich mit der Hardware eine Geduldsprobe. Kommt halt darauf an was am Ende raus kommen soll. Ist es mal drinnen, geht trimmen und aufteilen von UHD selbst auf meinem uralten 2010er i3 flott und (Grafikkarten-limitiert auf Full HD) mit flüssiger Vollbild Wiedergabe. PS: wenn's geht... 49€ für die Vollversion.

Space



Space


Antwort von MK:

"Frank Glencairn" hat geschrieben:
Die Treiber sind weder "besser" noch "genauer" - die sind nur für einige Spezialanwendungen im CAD/CAM Bereich optimiert und zertifiziert, allerdings hat nix davon mit Video zu tun.
Manche Quadros haben ECC-Speicher... (Speicherfehlererkennung und Korrektur) das ist aber auch eher relevant wenn man darauf irgendwelche wissenschaftlichen Simulationen durchlaufen lässt.

Wenn der Rechner selbst kein ECC hat (nur bei Intel Xeon, manchen i3, AMD Threadripper oder manchen Ryzen mit entsprechendenden Speichermodulen), kann es einem auf der Grafikkarte auch egal sein.

Im laufenden Betrieb treten auch bei völlig intakter Hardware hin und wieder Speicherfehler auf, die entweder komplett unbemerkt bleiben, den Rechner zum Abstürzen bringen oder Daten beschädigen können.

Auf den Systemen mit ECC habe ich hier bei 24/7 Betrieb pro Jahr zwischen 1 - 3 korrigierte 1-Bit Speicherfehler. Wenn die gerade wenn etwas gerendert wird auf einem System ohne etc. auftreten, wäre es zumindest theoretisch möglich dass eine korrupte Datei erzeugt wird. Die Wahrscheinlichkeit ist aber in Relation zur Laufzeit gering und in den meisten Fällen vernachlässigbar.

Ich verwende jedenfalls seit jeher Consumergrafikkarten und hatte damit noch nie irgendwelche Bildfehler beim Rendern.

Die Anzahl paralleler NVENC/NVDEC Streams ist bei Nvidia Consumerkarten gegenüber den Quadros eingeschränkt, wer Software hat die mehr als die Anzahl an Standardsessions unterstützt und ein bisschen googelt, findet dafür aber auch eine Lösung.

Space


Antwort von Jost:

ruessel hat geschrieben:
Macht es Sinn in diesem System noch eine gebrauchte NVIDIA Quadro P5000 (ca. 400-500 EUR Buchtpreise) einzusetzen?
Gebraucht wäre mir zu riskant. Eine Quadro kauft man schließlich nicht, damit sie dann und wann läuft. Die wird schon ordentlich Stunden auf dem Buckel haben.
Das geht in Richtung Wette gegen sich selbst.

Space


Antwort von MK:

Jost hat geschrieben:
Eine Quadro kauft man schließlich nicht, damit sie dann und wann läuft.
Zumal die P5000 nur minimal schneller ist als eine GTX 980... die P5000 ist immerhin schon seit 2016 am Markt, da reißt selbst der größere Speicher nicht mehr viel raus.

Space


Antwort von TheBubble:

ruessel hat geschrieben:
Hmmmmmm......... mir sagte jemand (Händler) lieber etwas langsamere Quadro als eine Spielekarte. Die Treiber sind bei Quadro besser und genauer, bei Zockergrafikkarten können sich leicht Bildfehler einschleichen - das würde ich frustrierend empfinden.
Es gibt für die normalen GTX/RTX inzwischen Studio-Treiber, die besonders auf Kompatibilität mit gängiger Media-Software achten. Ganz analog zu den Game-Ready-Treibern, die Anpassungen für neue Spiele enthalten. Letztere kann man aber auch bedenkenlos für Grafik/Video/3D usw. verwenden.

Abgesehen davon: Der Händler will wohl nur das Teil mit höherer Marge verkaufen und/oder Lagerbestand loswerden. Bildfehler, die sich nur bei "Zockergrafikkarten" einschleichen, das ist nicht nur fast lächerlich.

Space


Antwort von Jost:

MK hat geschrieben:
Jost hat geschrieben:
Eine Quadro kauft man schließlich nicht, damit sie dann und wann läuft.
Zumal die P5000 nur minimal schneller ist als eine GTX 980... die P5000 ist immerhin schon seit 2016 am Markt, da reißt selbst der größere Speicher nicht mehr viel raus.
Da ist der Pascal-Chipsatz GP104 drin, der auch in der 1080 verbaut wurde. In der 980 ist der Vorgänger drin, der kein H.265 kann. Die P5000 kann wenigstens H.265 4:2:0. Kein AV1 und VP9 - aber zu verschmerzen. Mehr können dann erst wieder die Turing- und Ampere-Chips. Eine 2070 mit 8GB ist dann aber wieder teuer.
Ist halt die Frage: Was will man machen? Eine aktuelle 3600 mit 11GB ist deutlich flotter. Kostet dann aber auch schon ~700 Euro.
Schneller, Garantie, aktuell - 200 Euro Aufpreis. Muss man wissen.

Space


Antwort von dienstag_01:

Ich würde die Treiberwarnung bei Premiere einfach ignorieren und fortfahren.
Wird wahrscheinlich nur Tensor Cores o.ä. betreffen.

(Natürlich mit neuestem Treiber, der unterstützt wird.)

Space


Antwort von MK:

Jost hat geschrieben:
In der 980 ist der Vorgänger drin, der kein H.265 kann.
Der Maxwell war die erste Generation mit NVENC die in manchen Chips (GM200 / GTX980Ti, GM204 / GTX980, GM206) auch H.265 encoden konnte... allerdings nur mit 4:2:0 Farbsampling, 8 Bit und bis 4.096x4.096 Auflösung.

Mit Pascal kam dann 4:4:4, 10 Bit, Auflösungen bis 8.192x8.192 und Lossless Coding mit dazu.

Space


Antwort von MK:

Hier noch der Blackmagic RAW Speed Test auf meinem bald 10 Jahre alten Museumsrechner mit i7-990X (6 Cores) und GTX 980 Ti:
BlackmagicRAWSpeedTest.png
Der i7-990X ist pro Core ca. 8% langsamer als der i7-2600K, aber auf Grund der 6 Kerne insgesamt rund 32% schneller. Die Grafikkarte reißt es im Blackmagic RAW Speed Test noch einigermaßen raus.

Vielleicht gibt das einen Anhaltspunkt ob es sich tatsächlich lohnt in die alte Mühle nochmal mindestens 500 EUR zu investieren, zumal auf Grund des Alters eventuell auch noch ein neues Netzteil benötigt werden würde um die neue Grafikkarte mit Strom zu versorgen...

Space


Antwort von ruessel:

Vor allen Dingen, mal schauen was für ein Motherboard ich damals verbaut habe, da war doch auch noch was mit PCI Slots.....

aber klar, werde ich nicht eine 700,- Karte da verbauen, etwas gebrauchtes bis 350,- wäre noch vernünftig und würde wohl auf alle Fälle passen. Könnte für diesen Betrag eine GTX 1070 8GB bekommen, abholbereit im Nachbarort.

Space



Space


Antwort von Bluboy:

Ich hab mich mal bei Amazon umgeschaut

Bei Grafikkarten haben sich die Preise verdoppelt.

Sowas sollte man nicht unterstützen.

Space


Antwort von ruessel:

komme gerade von draußen rein, habe ein paar aufnahmen in 6K mit der pocket gedreht.... nachher mal schauen was Adobe dazu auf dem Uralt PC sagt. Jetzt gehts 60 KM in die nächste Kleinstadt, habe BOOSTER-Impftermin.

Space


Antwort von floii:

Jost hat geschrieben:
Ist halt die Frage: Was will man machen? Eine aktuelle 3600 mit 11GB ist deutlich flotter. Kostet dann aber auch schon ~700 Euro.
Schneller, Garantie, aktuell - 200 Euro Aufpreis. Muss man wissen.
du meinst wohl die RTX 3060 mit 12GB. die UVP würde eigentlich bei 329€ liegen, aber stimmt, aufgrund der aktuellen Lage bekommt man sie kaum unter 700€

Space


Antwort von MK:

Bluboy hat geschrieben:
Bei Grafikkarten haben sich die Preise verdoppelt.

Sowas sollte man nicht unterstützen.
Was soll man machen wenn man eine braucht...

Selbst die ranzigsten Office-Grafikkarten die nur für Bildausgabe zu gebrauchen sind und nicht für Mining, Gaming etc. und früher neu lediglich 30,- EUR gekostet haben liegen mittlerweile preislich doppelt so hoch...

Space


Antwort von Jost:

floii hat geschrieben:
Jost hat geschrieben:
Ist halt die Frage: Was will man machen? Eine aktuelle 3600 mit 11GB ist deutlich flotter. Kostet dann aber auch schon ~700 Euro.
Schneller, Garantie, aktuell - 200 Euro Aufpreis. Muss man wissen.
du meinst wohl die RTX 3060 mit 12GB. die UVP würde eigentlich bei 329€ liegen, aber stimmt, aufgrund der aktuellen Lage bekommt man sie kaum unter 700€
Ja, 12, durchgerutscht. Die 60er Reihe von Nvidia ist eigentlich untere Mittelklasse. Durch den technologischen Fortschritt spielt sie jetzt in einer Liga mit der 1080.
Ist aber dennoch untere Mittelklasse, was der UVP von 329 Euro anzeigt.
Habe jetzt eine 3080 gekauft - weil der Aufpreis zu einer 3070TI nur gering war. Habe mir dennoch nie vorstellen können, für eine Grafikkarte mal mehr als 1000 Euro zu zahlen. Zumal die 3080 nur untere Oberklasse ist.

Space


Antwort von MK:

Jost hat geschrieben:
Habe jetzt eine 3080 gekauft - weil der Aufpreis zu einer 3070TI nur gering war.
Schnäppchen gefunden?

Space


Antwort von Jost:

MK hat geschrieben:
Jost hat geschrieben:
Habe jetzt eine 3080 gekauft - weil der Aufpreis zu einer 3070TI nur gering war.
Schnäppchen gefunden?
Nicht richtig. Die 3070Ti stand vor der Auslieferung. Das hat wohl die Nachfrage kurz gedämpft. War 120 Euro Unterschied. Brauchte eine neue Karte. Da ging es nur um: Szylla oder Charybdis? Auf 120 Euro kam es dann auch nicht mehr an.

Space


Antwort von ruessel:

du meinst wohl die RTX 3060 mit 12GB Bei Amazon ist einer der Meinung, die 3060 ist nicht besonders für Videoschnitt geeignet.

Hier auch:
Die Serienbezeichnung RTX 3060 mag potentielle Käufer in die Irre führen, da sie eine leicht abgespeckte Variante der RTX 3060 Ti erwarten. Tatsächlich setzt die RTX 3060 jedoch auf einen eigenen Grafikchip, der deutlich hinter der Leistung der RTX 3060 Ti zurückbleibt. Letztendlich wirkt die RTX 3060 wie eine Neuauflage der RTX 2070 mit leicht verbesserter Energieeffizienz und lässt dabei den enormen Performance-Sprung der größeren Ampere-GPUs 3070 und 3080 im Vergleich zu ihren direkten Vorgängern vermissen.
https://www.pcwelt.de/produkte/Test-Nvi ... 83411.html

Space


Antwort von Jost:

Natürlich ist die nicht "besonders gut" für Videoschnitt geeignet. Die P5000 aber noch weniger. Karten, die "besonders gut" für den Videoschnitt geeignet sind, kosten 1000+ Euro. You get what you pay for.
Es gibt zurzeit keine Schnäppchen.

Hier gibt es übrigens den Direktvergeleich:
https://gpu.userbenchmark.com/Compare/N ... 5vsm197331

Space



Space


Antwort von Frank Glencairn:

Die Frage sollte eigentlich eher sein: ist sie gut genug?
Und ja, das ist sie, wenn selbst meine alte 980er gut genug ist.

Space


Antwort von Jost:

"Frank Glencairn" hat geschrieben:
Die Frage sollte eigentlich eher sein: ist sie gut genug?
Und ja, das ist sie, wenn selbst meine alte 980er gut genug ist.
Wobei die P5000 offenbar noch etwa flotter als die 980 ist.
https://gpu.userbenchmark.com/Compare/N ... 7331vs2576

Space


Antwort von MK:

ruessel hat geschrieben:
Bei Amazon ist einer der Meinung, die 3060 ist nicht besonders für Videoschnitt geeignet.

Hier auch:
Die Serienbezeichnung RTX 3060 mag potentielle Käufer in die Irre führen, da sie eine leicht abgespeckte Variante der RTX 3060 Ti erwarten. Tatsächlich setzt die RTX 3060 jedoch auf einen eigenen Grafikchip, der deutlich hinter der Leistung der RTX 3060 Ti zurückbleibt. Letztendlich wirkt die RTX 3060 wie eine Neuauflage der RTX 2070 mit leicht verbesserter Energieeffizienz und lässt dabei den enormen Performance-Sprung der größeren Ampere-GPUs 3070 und 3080 im Vergleich zu ihren direkten Vorgängern vermissen.
https://www.pcwelt.de/produkte/Test-Nvi ... 83411.html
Man muss zwischen 3D / Gaming-Leistung und Computing-Leistung unterscheiden.

Für Videoschnitt ist eher die Computing-Leistung interessant welche von der Anzahl und Generation der entsprechenden Cores abhängt:

Hier für OpenCL / DirectCompute: https://www.videocardbenchmark.net/directCompute.html

Oder hier speziell für CUDA, was für Videoschnitt am relevantesten sein dürfte: https://browser.geekbench.com/cuda-benchmarks

Es gab in der Vergangenheit auch immer wieder mal den Fall dass die nächste Generation Grafikkarten zwar in Gaming-Benchmarks erheblich schneller war, aber auf Grund einer geringeren Anzahl neuerer CUDA-Cores die CUDA-Performance nur minimal höher war als beim Vorgängermodell.

Space


Antwort von Frank Glencairn:

Ja, und außerdem hängt es auch noch vom jeweiligen Programm ab wie, welche Ressourcen genutzt werden.
Wer's genau wissen will was genau, wie viel bringt, schaut bei Puget Systems nach.

Space


Antwort von ruessel:

Nun mal so ganz ohne Grafikkarte:

1. 6K RAW 12:1 24p Material auf PC interne Samsung SSD kopiert (Schnittplatte)

2. Material in Premiere in die Timeline gepackt und PLAY: Ruckeln, zuckeln - gar nix machbar.

3. Nun Projekt auf der per USB angeschlossenen Pocket SSD (Samsung T5) erstellt, wie oben durchgeführt: läuft flüssig bis zum Frame 24, es springt dann der Zeiger 2 Frames zurück und läuft dann wieder 1 Sekunde flüssig. Also jede Sekunde kurze Unterbrechung. Ganz ehrlich, ich denke so schneide ich erstmal mein erstes "Blümchen" Projekt.
aber klar, nach Weihnachten MUSS eine unterstützte Grafikkarte her, ich peile nun (nach den ganzen Tipps hier) die GTX1070 8GB an - gebraucht um die 350 Euronen.

Space


Antwort von Bluboy:

ruessel hat geschrieben:
Nun mal so ganz ohne Grafikkarte:

1. 6K RAW 12:1 24p Material auf PC interne Samsung SSD kopiert (Schnittplatte)

2. Material in Premiere in die Timeline gepackt und PLAY: Ruckeln, zuckeln - gar nix machbar.

aber klar, nach Weihnachten MUSS eine unterstützte Grafikkarte her, ich peile nun (nach den ganzen Tipps hier) die GTX1070 8GB an - gebraucht um die 350 Euronen.
= Besser, wird aber nicht zufriedenstellend werden

i7-2600K 3.4 GHz und 16 GB RAM, SSD. GTX 1070 = gut für Full HD in Echtzeit


Wäre auch der Witz das Jahres wenn man zukünftig nur noch die GraKa wechseln müßte

Space


Antwort von ruessel:

Glaube ich aber schon......
MK hat geschrieben:
Hier noch der Blackmagic RAW Speed Test auf meinem bald 10 Jahre alten Museumsrechner mit i7-990X (6 Cores) und GTX 980 Ti:


Space


Antwort von Bluboy:

ruessel hat geschrieben:
Glaube ich aber schon......
MK hat geschrieben:
Hier noch der Blackmagic RAW Speed Test auf meinem bald 10 Jahre alten Museumsrechner mit i7-990X (6 Cores) und GTX 980 Ti:
Ist aber schon recht knapp bei 6k

Space


Antwort von Frank Glencairn:

Bluboy hat geschrieben:

Ist aber schon recht knapp bei 6k
Niemand der noch alle Tassen im Schrank hat, schneidet in einer 6K Timeline.

Space



Space


Antwort von dienstag_01:

ruessel hat geschrieben:
Nun mal so ganz ohne Grafikkarte:

1. 6K RAW 12:1 24p Material auf PC interne Samsung SSD kopiert (Schnittplatte)

2. Material in Premiere in die Timeline gepackt und PLAY: Ruckeln, zuckeln - gar nix machbar.

3. Nun Projekt auf der per USB angeschlossenen Pocket SSD (Samsung T5) erstellt, wie oben durchgeführt: läuft flüssig bis zum Frame 24, es springt dann der Zeiger 2 Frames zurück und läuft dann wieder 1 Sekunde flüssig. Also jede Sekunde kurze Unterbrechung. Ganz ehrlich, ich denke so schneide ich erstmal mein erstes "Blümchen" Projekt.
aber klar, nach Weihnachten MUSS eine unterstützte Grafikkarte her, ich peile nun (nach den ganzen Tipps hier) die GTX1070 8GB an - gebraucht um die 350 Euronen.
Ich würde mir an deiner Stelle mal die CPU-Auslastung im Task-Manager während der Vorschau anzeigen lassen.
Normal ist, dass die GPU bei der reinen Vorschau (also ohne Effekte) keine Unterstützung bietet, ausgenommen die Codecs, die direkt auf der GPU dekodiert werden. Dazu gehört BRAW nicht.
Dh., bei BRAW muss die CPU das alleine stemmen.

Und ich würde die Wiedergabeauflösung der Vorschau mal runter setzen, wirst ja nicht in 6k anschauen.

Space


Antwort von TheBubble:

ruessel hat geschrieben:
1. 6K RAW 12:1 24p Material auf PC interne Samsung SSD kopiert (Schnittplatte)

2. Material in Premiere in die Timeline gepackt und PLAY: Ruckeln, zuckeln - gar nix machbar.
ruessel hat geschrieben:
aber klar, nach Weihnachten MUSS eine unterstützte Grafikkarte her, ich peile nun (nach den ganzen Tipps hier) die GTX1070 8GB an - gebraucht um die 350 Euronen.
Keine Grafikkarte der Welt wird die Dekodierung irgendwelcher neuer herstellerspezifischer RAW-Codecs in einem nennenswerten Umfang unterstützen. Das geht einzig über die CPU. Und 6K ist auch eine Ansage, beinahe eine Größenordnung über 2K.

Eine 1070 ist inzwischen ein altes Modell, zwei Generationen vor der aktuellen Generation, da würde ich mir einen Kauf gut überlegen. Zumal man bei diesen irren Preisen nur eins tun sollte: Einfach gar nichts kaufen.

Space


Antwort von Bluboy:

Mir ist so als hätte ich was von einer vebauten GTX 570 gelesen,
nach dem wechsel bei Amazon gegen Gold eintauschen
XP untestützt nur bis GTX 660 TI und Karten gibts so gut wie keine mehr.

Space


Antwort von Jörg:

Zumal man bei diesen irren Preisen nur eins tun sollte: Einfach gar nichts kaufen. genau meine Meinung.
CPU hat 8 Kerne, 970er packts,wenn man den Ablauf in Resolve darauf anpasst, also 4k in FHD Sequenz,
optimized media, und gut ists.
Solange man kein Geld damit verdienen muss...

Space


Antwort von Jost:

TheBubble hat geschrieben:
Das geht einzig über die CPU.
Die CPU ist LGA 1155. Momentan 4/4. Per Intel Core i7-3770K 4/8 = ~100 Euro. Besser geht"s nicht. Rausgeschmissenes Geld. Heißt: anderes Motherboard für mehr CPU-Leistung.

Space


Antwort von dienstag_01:

Jost hat geschrieben:
TheBubble hat geschrieben:
Das geht einzig über die CPU.
Die CPU ist LGA 1155. Momentan 4/4. Per Intel Core i7-3770K 4/8 = ~100 Euro. Besser geht"s nicht. Rausgeschmissenes Geld. Heißt: anderes Motherboard für mehr CPU-Leistung.
Die CPU (2600K) ist 4/8. Trotzdem grenzwertig. Auf meinem Laptop mit 4810MQ läuft es.
Wie oben geschrieben, CPU-Auslastung anschauen.

Space


Antwort von Frank Glencairn:

TheBubble hat geschrieben:

Keine Grafikkarte der Welt wird die Dekodierung irgendwelcher neuer herstellerspezifischer RAW-Codecs in einem nennenswerten Umfang unterstützen. Das geht einzig über die CPU. Und 6K ist auch eine Ansage, beinahe eine Größenordnung über 2K.
Das ist so ziemlich der falscheste Satz, den ich hier dieses Jahr gelesen habe.

Denk nochmal drüber nach, was du da geschrieben hast.

Space


Antwort von TheBubble:

"Frank Glencairn" hat geschrieben:
TheBubble hat geschrieben:

Keine Grafikkarte der Welt wird die Dekodierung irgendwelcher neuer herstellerspezifischer RAW-Codecs in einem nennenswerten Umfang unterstützen. Das geht einzig über die CPU. Und 6K ist auch eine Ansage, beinahe eine Größenordnung über 2K.
Das ist so ziemlich der falscheste Satz, den ich hier dieses Jahr gelesen habe.

Denk nochmal drüber nach, was du da geschrieben hast.
Es sind mehrere Sätze, welcher ist unklar? Ich kann die Gründe gerne näher erläutern.

Space


Antwort von Frank Glencairn:

Das hier:

Keine Grafikkarte der Welt wird die Dekodierung irgendwelcher neuer herstellerspezifischer RAW-Codecs in einem nennenswerten Umfang unterstützen. Das geht einzig über die CPU.

Space



Space


Antwort von TheBubble:

"Frank Glencairn" hat geschrieben:
Das hier:

Keine Grafikkarte der Welt wird die Dekodierung irgendwelcher neuer herstellerspezifischer RAW-Codecs in einem nennenswerten Umfang unterstützen. Das geht einzig über die CPU.
Das liegt daran, dass die Hardwareunterstützung von Codecs wie H.264 oder HEVC, aber auch für Codecs wie VP9 und AV1, durch eine speziell für den Codec entwickelte Funktionseinheit in Hardware realisiert ist. Sobald diese produziert ist, kann man nicht mehr viel anpassen. Die programmierbaren Shader der Grafikkarten werden zur Dekodierung in der Regel nicht genutzt. Die dedizierte Hardware ist vor allem nötig, um nicht nur die CPU zu entlasten, sondern um energieeffizient zu sein. Ohne letzteres könnte man am Smartphone/Tablet/Laptop nicht stundenlang Filme schauen (außerdem könnten sonst Lüfter rauschen oder Geräte unangenehm warm werden).

Vor (vielen) Jahren wurden zuerst nur einzelne Teile des Dekodierprozesses durch Hardware unterstützt (z.B. wie die inverse DCT, inverse Quantisierung, ...), den Rest erledigten entweder die Treiber oder die Wiedergabesoftware. Später ist immer mehr in die Hardware gewandert, die Treiber haben heute wenig zu tun. Das macht die Sache effizient, aber auch unflexibel.

Die RAW Codecs (zusammen mit einer Menge eher unbekannterer Codecs) haben mit der Struktur der von gängiger Hardware unterstützten Codecs nicht viel gemeinsam. Teilweise sind sie zudem echt verlustlos (was eine hohe Datenrate ergibt, die man erst einmal verarbeiten können muss), manchmal wird auf Wavelets gesetzt, die Entropiekodierung ist anders umgesetzt und meist sind, schon wegen der Anforderung RAW, die "höheren" Verarbeitungsschritte unterschiedlich.

Selbst wenn ein Codec beispielsweise die gleiche DCT Approximation wie ein durch Hardware unterstützter Codec verwendet, nützt das wenig: Der Bitstream dürfte trotzdem derart unterschiedlich sein, dass die modernen Schnittstellen damit nichts anfangen können.

So kann ältere Hardware vielleicht bereits H.264 (8 Bit, Full HD) dekodieren, aber eine nachträgliche Erweiterung auf 10 Bit und UHD ist unmöglich. Will man sogar HEVC, VP9 oder AV1 unterstützen, dann sind Neuentwicklungen nötig.

Zu guter Letzt hat man zu den Hardware-Dekodern nur per Treiber Zugang und diese akzeptieren nur bestimmte Codecs.

Daher müssen RAW Codecs genau wie alle anderen (neuen) Codecs per Software dekodiert werden. In Einzelfällen kann man zwar Teile dieses Prozesses mit anderen GPU-Einheiten wie programmierbaren Shadern unterstützen, aber letztlich bleibt viel Arbeit bei der CPU.

Das war die Kurzfassung. Wenn es Fragen gibt, dann raus damit.

Space


Antwort von MK:

Wie man am BRAW Benchmark sieht kann BRAW per CUDA beschleunigt dekodiert werden... auf Karten ohne CUDA per OpenCL.

Wie machen die das bloß...

Space


Antwort von TheBubble:

MK hat geschrieben:
Wie man am BRAW Benchmark sieht kann BRAW per CUDA beschleunigt dekodiert werden... auf Karten ohne CUDA per OpenCL.

Wie machen die das bloß...
Vermutlich werden nur Teile per CUDA unterstützt. Ich habe diese Möglichkeit oben übrigens extra erwähnt. Der Bitstream wird mit Sicherheit von der CPU interpretiert, die Entropiedekodierung findet mit hoher Wahrscheinlichkeit auch durch die CPU statt. Vielleicht hat man den Rest vom Codec ja extra so gestaltet, dass ihn GPUs gut beschleunigen können und kein Hin- und Her der Daten nötig ist. Mit der (Energie-)Effizienz der integrierten Dekoder hat das dann aber trotzdem wenig zu tun.

Space


Antwort von dienstag_01:

MK hat geschrieben:
Wie man am BRAW Benchmark sieht kann BRAW per CUDA beschleunigt dekodiert werden... auf Karten ohne CUDA per OpenCL.

Wie machen die das bloß...
Welchen Benchmark meinst du?

Für die Nutzung von Cuda braucht es eine Software, ein Programm. Ein Codec ist kein Programm. Falls Cuda genutzt werden sollte, macht das Resolve oder eine andere Anwendung, aber nicht BRAW.

Space


Antwort von MK:

Einfach mal den ganzen Thread lesen...

"Blackmagic RAW Speed Test ist ein Tool zum Vergleichen der CPU- und GPU-Leistung, mit dem Anwender die Dekodierungsgeschwindigkeit von vollaufgelösten Einzelbildern in Blackmagic RAW auf ihren Systemen testen können."

Space


Antwort von Bluboy:

MK hat geschrieben:
Einfach mal den ganzen Thread lesen...

"Blackmagic RAW Speed Test ist ein Tool zum Vergleichen der CPU- und GPU-Leistung, mit dem Anwender die Dekodierungsgeschwindigkeit von vollaufgelösten Einzelbildern in Blackmagic RAW auf ihren Systemen testen können."
Black Magic Speedtest zeigt auch Ergebnisse wenn kein BRAW Codec oder ein BRAW File vorhanden ist.
Mißt also WAS "?

Space


Antwort von MK:

Warum sollte der Speed Test nicht auch ohne den Codec auf dem System die Ausführungsgeschwindigkeit der entsprechenden Funktionen per CPU und GPU messen können...

Space


Antwort von serzui93:

Solltest du wirklich einen alten Rechner Updaten wollen, würde ich die aktuell empfehlen einen Zusammengebauten PC von bekannten Anbieter zu nehmen.
Grafikkarten sind momentan wirklich Lotto spielen -.-

Space


Antwort von Frank Glencairn:

TheBubble hat geschrieben:

Vermutlich .. mit hoher Wahrscheinlichkeit ..Vielleicht..
just saying....


DaVinci Resolve Decode Options.png
Ansonsten: https://www.slashcam.de/artikel/Test/Bl ... temen.html

Space



Space


Antwort von ruessel:

Grafikkarten sind momentan wirklich Lotto spielen -.- Tja, wie wahr.

Heute morgen bekam ich folgende Mail:
Hallo,

am 23.12.2021 um 16:27 Uhr hattest du Kontakt zu einem Anbieter auf eBay Kleinanzeigen. Dies betraf die Anzeige 'GTX 1080 ti 11GB Founder Edition - PNY' (Anzeige 1969948325).

Wir haben das Nutzerkonto des Anbieters, mit dem du Kontakt hattest, eingeschränkt. Wir nehmen an, dass das Nutzerkonto missbräuchlich durch Dritte verwendet wurde. Ohne Wissen des eigentlichen Kontoinhabers wurden entweder seine bestehende Anzeigen verändert, neue Anzeigen aufgegeben, oder Nachrichten in dessen Namen versendet.
Wieder 390,- weg...... ich lerne es nie. Leichter Frust stellte sich ein...... selber schuld.

Space


Antwort von MK:

ruessel hat geschrieben:
Wieder 390,- weg...... ich lerne es nie. Leichter Frust stellte sich ein...... selber schuld.
Bei Grafikkarten wird momentan zwar viel betrogen aber mit etwas Glück ist das ein Fehlalarm... hatte ich zuletzt vor ein paar Wochen als die Ware (spezieller Arbeitsspeicher) schon ne Woche bei mir war als so eine Mail von Kleinanzeigen kam.

Hoffe du hast Glück.

Space


Antwort von Jörg:

Wieder 390,- weg...... ich lerne es nie. Leichter Frust stellte sich ein...... selber schuld. wenn ich skeptisch bin ( geht schnell) bitte ich um einen Abholtermin, egal wo der Anbieter wohnt.
Wird dies abgelehnt, dann bin ich raus.
Hat mich bisher zu 100% geschützt.

Space


Antwort von ruessel:

Abholung wurde angeboten....und netter schriftlicher Austausch, ich war mal wieder völlig sicher.

Space


Antwort von prime:

Wenn Betrüger auf ebay Kleinanzeigen erkennen das man sehr weit entfernt "wohnt" (durch eigene Anzeigen), bieten die gerne Abholung an. Wenn man konkret um einen Abholtermin bittet, kommt dann entweder nichts mehr oder es kommen die absurdesten Ausreden. Wenn man keine Anzeigen aktiv hat kommt nicht selten die Frage von wo man der herkomme. Bei solchen Beträgen nur Abholung und evtl. Test vor Ort.

Nach Playstation 5 sind jetzt Grafikkarten das Lockmittel.

Space


Antwort von TheBubble:

"Frank Glencairn" hat geschrieben:
just saying....



DaVinci Resolve Decode Options.png
Quelltext bitte, sonst lässt sich nie klären, was wirklich GPU beschleunigt wird. Ich rate mal: Erst nach der Entropiedekodierung geht es los.

Und vergleiche das mal (CPU und GPU Auslastung, Stromverbrauch) mit Hardware-Codecs.

Space


Antwort von Frank Glencairn:

TheBubble hat geschrieben:


Und vergleiche das mal (CPU und GPU Auslastung, Stromverbrauch) mit Hardware-Codecs.
Wen interessiert denn der Stromverbrauch? Und ja, natürlich ist der geringer, wenn's quasi hartverdrahtet ist, aber wie schon gesagt, who cares?

Space


Antwort von TheBubble:

"Frank Glencairn" hat geschrieben:
Wen interessiert denn der Stromverbrauch? Und ja, natürlich ist der geringer, wenn's quasi hartverdrahtet ist, aber wie schon gesagt, who cares?
Ich denke da z.B. an

a) Mobile-User, deren Akkus klein und Lüfter laut sind,
b) Power-User, die Ihr Power-Budget für mehr Produktivität nutzen wollen.

Space


Antwort von Frank Glencairn:

TheBubble hat geschrieben:

Ich denke da z.B. an

a) Mobile-User, deren Akkus klein und Lüfter laut sind,
b) Power-User, die Ihr Power-Budget für mehr Produktivität nutzen wollen.
Was soll das denn sein?

Mobile User? Das ist wieder so ein Buzzword, das immer wieder mal rein gehauen wird.
In Wirklichkeit hat man im Flieger, im Auto, im Zug etc. immer ne Möglichkeit den Laptop einzustöpseln, und selbst wenn man meint im Starbucks schneiden zu müssen. Von welcher herbeikonstruierten "mobilen" Situation reden wir hier also? Im Zelt auf dem Himalaya oder ähnliches?

Und was bitteschön sind "Poweruser mit Powerbudget"?

Space



Space


Antwort von dienstag_01:

In Premiere scheint das Decoding von BRAW nicht von CUDA zu profitieren.
Brauchts auch nicht, läuft auch so (verminderte Auflösung).

(Könnte allerdings mit der aktuellen Version anders sein)

Space


Antwort von ruessel:

So.
Nachdem meine Wunden geleckt sind, habe ich beschlossen etwas mehr auf den Tisch zu legen und auf jeden Fall was neues zu holen. Gerade noch finanzierbar für meine Blümchenfilme wäre diese Karte:
GeForce RTX 2060 12GB
https://www.alternate.de/ZOTAC/GeForce- ... ct/1803759

steht dem irgendwas technisch entgegen, was ich noch nicht durchblicke, wie PCI Bus etc.? Ziel wäre das später mit Resolve Vollversion zu betreiben.

Space


Antwort von srone:

technisch gesehen nicht, aber mich würde es schütteln soviel für eine 2060 auszugeben, habe vor 2 jahren 500 für eine 2070 bezahlt.

lg

srone

Space


Antwort von ruessel:

ja, das schmerzt.

Hier wäre noch was neueres, wahrscheinlich auch nicht besser:

GeForce RTX 3060 GHOST 12GB
https://www.alternate.de/Gainward/GeFor ... ct/1725925

allerdings hier PCIe 4.0, muss erstmal schauen was mein altes Board hat.

Space


Antwort von dienstag_01:

ruessel hat geschrieben:
So.
Nachdem meine Wunden geleckt sind, habe ich beschlossen etwas mehr auf den Tisch zu legen und auf jeden Fall was neues zu holen. Gerade noch finanzierbar für meine Blümchenfilme wäre diese Karte:
GeForce RTX 2060 12GB
https://www.alternate.de/ZOTAC/GeForce- ... ct/1803759

steht dem irgendwas technisch entgegen, was ich noch nicht durchblicke, wie PCI Bus etc.? Ziel wäre das später mit Resolve Vollversion zu betreiben.
Zu Zeiten des 2600 waren noch Boards mit PCIe 2.0 in Verwendung. Wie das bei deinem ausschaut, musst du in den Specs des Chipsatzes/Mainboards nachsehen.
Normalerweise war 2.0 für Videoschnitt kein Problem, wurde allerdings auch nicht mit BRAW 6k getestet ;)

Space


Antwort von ruessel:

Das ist solange her, ich weiß nicht mehr was ich damals verbaut habe;-)

nach dem Kaffee mal mit einem Tool auslesen......

Space


Antwort von srone:

ruessel hat geschrieben:
ja, das schmerzt.

Hier wäre noch was neueres, wahrscheinlich auch nicht besser:

GeForce RTX 3060 GHOST 12GB
https://www.alternate.de/Gainward/GeFor ... ct/1725925

allerdings hier PCIe 4.0, muss erstmal schauen was mein altes Board hat.
wenn schon so viel geld, dann würde ich die 3060 vorziehen, habe die als mobile version in meinem laptop, rennt fast besser als die 2070 im desktop.

lg

srone

Space


Antwort von dienstag_01:

ruessel hat geschrieben:
Das ist solange her, ich weiß nicht mehr was ich damals verbaut habe;-)

nach dem Kaffee mal mit einem Tool auslesen......
Ja, CPU-Z oder so.

Space


Antwort von MK:

ruessel hat geschrieben:
allerdings hier PCIe 4.0, muss erstmal schauen was mein altes Board hat.
Wenn dann sollte es schon eine 3060 sein... die Kosten so viel wie die Restposten von der 2060 bzw. nur geringfügig mehr.

PCIe Slot ist egal... die sind auf- und abwärtskompatibel. Die Bandbreiten reizt eh keine der Grafikkarten aus.

Schau eher nach der Bauhöhe (gibt welche die eine Höhe von 2 Steckplätzen brauchen und welche die eine Höhe von 3 Steckplätzen einnehmen) und dass Dein Netzteil die richtigen Stromanschlüsse hat (die 3060 gibt es mit 1x 8-Pin PCIe und mit 2x 8-Pin PCIe Anschluss für die Zusatzstromversorgung).

Und vielleicht solltest Du noch ein paar Tage warten ob Du bei Kleinanzeigen wirklich abgezogen wurdest... der Anbieter hatte auch eine kleinere GTX drin wo im Inserat schon nur Abholung angeboten wurde. Möglich dass der einfach erstmal automatisch gesperrt wurde weil er in kurzer Zeit zwei ähnliche Angebote drin hatte mit Artikeln bei denen momentan vermehrt betrogen wird.

Wie bei dem Speicherhändler bei dem ich gekauft hatte und dem der Account zu gemacht wurde obwohl alles ordnungsgemäß gelaufen ist.

Space



Space


Antwort von ruessel:

Ich würde ja gern langsam mit meinem 6K Projekt anfangen. Geduld kommt da nicht gerade auf. ;-)

Ja, 3060 mit 12 GB soll es sein, habe gerade auf youtube gesehen das das Teil mit 8K wunderbar in Resolve läuft (aktueller CHip+Motherboard). Ein stärkeres Netzteil bringt mich finanziell auch nicht mehr um, nur das Trauma sollte bald dem Ende zugehen. Die Grafikkarte scheint ja frisch beim Händler eingetroffen zu sein und bestimmt nicht in hohen Stückzahlen. Klar, morgen warte ich noch mal ab, vielleicht passiert ein Wunder und ich bekomme eine DHL Trackingnummer wie mit dem Verkäufer vereinbart..... nur ich glaube daran nicht mehr.

Space


Antwort von prime:

MK hat geschrieben:
Und vielleicht solltest Du noch ein paar Tage warten ob Du bei Kleinanzeigen wirklich abgezogen wurdest... der Anbieter hatte auch eine kleinere GTX drin wo im Inserat schon nur Abholung angeboten wurde.
Ein Trugschluss. Betrüger bieten begehrte Ware zu guten Preis an. Angeboten wird Abholung, Test vor Ort und oder Versand/Überweisung an. Betrüger erhält dutzende Anfragen, reagiert nur auf Überweisung/Versand. Wenn die auf Abholung reagieren, dann kommt da nie was konkretes raus. Schon so oft beobachtet mit jemanden mit dem ich entsprechende "Schnäppchen" austausche.
MK hat geschrieben:
Möglich dass der einfach erstmal automatisch gesperrt wurde weil er in kurzer Zeit zwei ähnliche Angebote drin hatte mit Artikeln bei denen momentan vermehrt betrogen wird.
Sehr unwahrscheinlich. Man kann einen Artikel mehrfach inserieren und entweder kommt ne automatische Löschung bzw. ein andere Nutzer meldet es. In beiden Fällen wird nicht das Nutzerkonto gesperrt. In den genannten Fall ist das Konto aus 2013, also eher unwahrscheinlich das da jemand von heute auf Morgen die ebay kleinanzeigen Regeln nicht kennt bzw. eine Betrugsmasche durchführen will. Viel mehr ist es wohl so wie auch in der email von ebay kleinanzeigen genannt: das Konto wurde ohne Erlaubnis von Dritten verwendet worden (Passwort geknackt / geklaut etc).
ruessel hat geschrieben:
vielleicht passiert ein Wunder und ich bekomme eine DHL Trackingnummer wie mit dem Verkäufer vereinbart..... nur ich glaube daran nicht mehr.
Da wird nichts mehr kommen, leider. Solch alte Konten (aus 2013) zu kapern ist für Betrüger sehr lukrativ, denn diese haben oft gute Bewertungen und sind i.d.R. vertrauensvoll. Da wird dann eher schnell Geld hingeschickt als bei jemanden der erst seit letzter Woche dabei ist.

Space


Antwort von MK:

Er hat einen anderen Artikel AUSSCHLIEßLICH GEGEN ABHOLUNG angeboten... eher untypisch für Betrüger das direkt so zu inserieren da das schon den Kreis der Interessenten einschränkt... vielleicht wollte er ja auch jemandem vor Ort eins überbraten oder Barzahlung in Naturalien...

Und im Kontext dass mir auch schon Verkäufer mit dem gleichen automatisierten Text gesperrt wurden obwohl die Transaktion reibungslos über die Bühne ging ist es eben noch nicht sicher dass es Betrug war. Zumal das ja gerade mal zwei Tage zurückliegt mit Feiertagen etc. ?

Kann sein dass es Betrug ist, kann aber auch sein dass eBay mal wieder danebengehauen hat. Man kann aktuell nur mutmaßen.

Die Mail von eBay Kleinanzeigen dass ein Konto auf Verdacht eingeschränkt wurde ist jedenfalls noch nicht aller Tage Abend, das geht da momentan recht schnell. Außer warten kann man momentan eh nicht viel machen.


Ich bin in über 20 Jahren und über 3000 Transaktionen genau 2x richtig übers Ohr gehauen worden (Käuferschutz hat zum Glück geregelt) und 4x war es grenzwertig weil die Verkäufer extrem unzuverlässig waren und das Zeug erst nach Wochen und Monaten kam. Da musste man dann halt manchmal auch beim Arbeitgeber anrufen wenn man die Person anders nicht mehr erreicht hat... da kamen die Sachen dann plötzlich schneller als man schauen konnte... ;-)

Space


Antwort von MK:

ruessel hat geschrieben:
Wir haben das Nutzerkonto des Anbieters, mit dem du Kontakt hattest, eingeschränkt.
Konntest Du den Verkäufer eigentlich nochmal anschreiben? Bei dem wo ich damals eine Mail von eBay Kleinanzeigen bezüglich des eingeschränkten Kontos erhielt war die Kommunikation über die Nachrichten noch möglich, er konnte nur nichts mehr verkaufen.

Space


Antwort von prime:

MK hat geschrieben:
Die Mail von eBay Kleinanzeigen dass ein Konto auf Verdacht eingeschränkt wurde ist jedenfalls noch nicht aller Tage Abend, das geht da momentan recht schnell. Außer warten kann man momentan eh nicht viel machen.
Naja die haben schon für die entsprechenden Fälle fertige Textbausteine. Hier eine email die ich die Tage erhalten haben, bzgl. einer Sperrung von einen Nutzer mit den ich Kontakt hatte:
Der Zugang des Nutzers, mit dem du Kontakt hattest, wurde vorübergehend durch uns eingeschränkt.

Wann wird ein Nutzerkonto beispielsweise durch uns eingeschränkt?

Verstoß gegen unsere Nutzungsbedingungen, unsere Grundsätze oder geltendes Recht
Ware wurde nicht geliefert oder nicht bezahlt
Übernahme des Nutzerkontos durch einen Dritten
Vergleich nochmal mit der mail die ruessel bekommen hat. ruessel hat geschrieben:
Hallo,

am 23.12.2021 um 16:27 Uhr hattest du Kontakt zu einem Anbieter auf eBay Kleinanzeigen. Dies betraf die Anzeige 'GTX 1080 ti 11GB Founder Edition - PNY' (Anzeige 1969948325).

Wir haben das Nutzerkonto des Anbieters, mit dem du Kontakt hattest, eingeschränkt. Wir nehmen an, dass das Nutzerkonto missbräuchlich durch Dritte verwendet wurde. Ohne Wissen des eigentlichen Kontoinhabers wurden entweder seine bestehende Anzeigen verändert, neue Anzeigen aufgegeben, oder Nachrichten in dessen Namen versendet.
Die eine GraKa mag existiert haben, die andere wohl eher nicht.

Space


Antwort von ruessel:

CPU-Z sagt:
z.jpg Wie schaut das mit den 3060er Karten aus? Habe noch eine gefunden, scheint kürzer gebaut und 100,- günstiger:

ASUS GeForce RTX 3060 DUAL OC V2 LHR
https://www.alternate.de/ASUS/GeForce-R ... ct/1756796

Space


Antwort von MK:

ruessel hat geschrieben:
CPU-Z sagt:

z.jpg
Dieses Board hat mechanisch 3 PCIe 2.0 x16 Slots.

Der oberste ist elektrisch x16 solange der zweite Slot nicht belegt ist. Wenn der zweite mechanische x16 Slot belegt wird, machen der oberste und der zweite elektrisch nur noch x8.

Der dritte mechanische x16 Slot ist elektrisch nur ein x4 Slot.

Die Grafkkarte funktioniert auch mit PCIe 4.0 in allen drei 2.0 Slots, für die beste Performance auf diesem Board musst Du aber den obersten PCIe 2.0 x16 Slot verwenden und den zweiten leer lassen da die Karte sonst nur mit 8 Lanes angebunden ist.

Space


Antwort von MK:

ruessel hat geschrieben:

Wie schaut das mit den 3060er Karten aus? Habe noch eine gefunden, scheint kürzer gebaut und 100,- günstiger:

ASUS GeForce RTX 3060 DUAL OC V2 LHR
https://www.alternate.de/ASUS/GeForce-R ... ct/1756796
Preis ist ganz gut... in anderen Preisvergleichen kommt die mit 70,- EUR mehr. LHR bedeutet Light Hash Rate und bedeutet dass die Karte beim Mining von Etherium die Hash Rate auf die Hälfte reduziert um die Karte für Miner uninteressanter zu machen. Auf die sonstigen Funktionen hat das keine Auswirkung.

Sie belegt auch nur zwei Slots und hat einen 8-Pin Zusatzstromanschluss so dass du vielleicht mit deinem bestehenden Netzteil hinkommst wenn das ansonsten genug Leistung hat.

Space


Antwort von ruessel:

Also Paypalknopf drücken?

In das PC Gehäuse sollte es passen, sind alte Servergehäuse siehe Foto (ganz links unten). Was noch drin ist, die Intensity Pro 4K.

DSC_8125.jpg

Space



Space


Antwort von MK:

ruessel hat geschrieben:
Also Paypalknopf drücken?
In das PC Gehäuse sollte es passen, sind alte Servergehäuse siehe Foto (ganz links unten). Was noch drin ist, die Intensity Pro 4K.
Passen tun die kleinen Karten auf jeden Fall... geht eher darum dass man in einem Rechner der nicht nur für Gaming genutzt wird nicht so viel der verbleibenden Slots verbaut bzw. noch ein bisschen Luftzirkulation hat wenn noch weitere Karten im Rechner sind.

Die RTX 2080 Ti und 3080 Ti die ich in den anderen Rechner habe belegt jeweils 2.5 Slots in der Höhe... wäre das keine Workstation wo nochmal seitlich ein dicker Lüfter direkt auf die Karten bläst, hätte ich da Bauchschmerzen gehabt die nächste (zwar nur eine kleinere aber trotzdem) Karte nur mit 0.5 Slots Abstand unter der Grafikkarte zu verbauen...

Da ist immerhin noch ein zusätzlicher USB 3.2 Controller drin, eine SSD-Steckkarte und eine SDI I/O Karte... da wird das schon knapp wenn man das Zeug noch auf einigermaßen vernünftigen Temperaturen halten will.

Die Intensity müsstest Du dann in den schwarzen mechanischen PCIe 2.0 x16 Slot stecken. Der ist elektrisch mit x4 angebunden und klaut dem obersten x16 Slot keine Lanes.

Space


Antwort von ruessel:

Danke für die Beratung!
Konnte nicht widerstehen, Paypalknopf wurde gerade erfolgreich gedrückt.

Space


Antwort von ruessel:

Wow, Asus 3060 12GB Grafikkarte ist schon wieder beim Händler ausverkauft, bei Amazon nun 100,- teurer. Meine soll heute kommen, nur seltsam, sie ist auf 2 DHL Pakete verteilt, seltsam - sagte ich ja schon.

P.S.
Geheimnis gelüftet, ASUS hat wohl bei diesem stark erhöhten Preis ein klein wenig schlechtes Gewissen, im 2.ten DHL Paket ist ein Mousepad drin - als Geschenk.

Space


Antwort von ruessel:

DSC_2708.jpg Hmmm..... so wenig Plastik soll besser als der alte massive Kupferklotz sein? ;-)

Leider kein Praxistest machbar, die neuen Monitorkabel werden erst morgen geliefert..... DisplayPort DP auf DVI Kabel.

Space


Antwort von srone:

@rüssel

bist du dir sicher, dass die 3060 im richtigen slot steckt?

imho gehört die mit der asus karte getauscht.

vielleicht nochmal mit dem mainboard handbuch gegenchecken.

lg

srone

Space


Antwort von ruessel:

die steckt da drin, wo vorher die GTX570 war....

product_overview.jpg

Space


Antwort von roki100:

endlich kann es nun mit 6K BRAW und Blümchen Filmen losgehen?

Space


Antwort von ruessel:

wenns läuft........ja. Vielleicht sogar mit Resolve...... mal schauen wie die Lernkurve ist, habe schließlich den Key für die Vollversion.

Space


Antwort von roki100:

Hoffentlich! Ich habe letztens gesehen, die P6KPro ist ganz schön verstaubt.

Space


Antwort von ruessel:

Inzwischen nicht mehr...... grob gereinigt.

DSC_2710.JPG

Space


Antwort von MK:

ruessel hat geschrieben:
die steckt da drin, wo vorher die GTX570 war....
Der weiße Slot teilt sich die Lanes mit dem oberen dunkelblauen, also nur x8. Nur der obere dunkelblaue Slot macht x16 wenn der weiße nicht belegt ist. Das solltest Du ändern.

Space


Antwort von MK:

ruessel hat geschrieben:
Leider kein Praxistest machbar, die neuen Monitorkabel werden erst morgen geliefert..... DisplayPort DP auf DVI Kabel.
Wenn das ein passives Kabel ist, dann macht das aus Displayport nur Single-Link DVI (1920x1200). Für Höhere Auflösungen braucht man ein aktives Kabel das Dual-Link kann. Steht bei den meisten passiven Adaptern leider falsch dabei.

Space


Antwort von TheBubble:

ruessel hat geschrieben:
die steckt da drin, wo vorher die GTX570 war....
Nimm den oberen Slot, nahe an der CPU.

Space


Antwort von ruessel:

3060.jpg
So, neuer Test mit eingebauter 3060er Karte...... anscheinend 6K 24P Timeline kein Problem mehr, selbst 8K 25p Timeline - no problem ;-)

DANKE nochmal, an alle die mit Tipps und Tricks dabei waren.....!!

Space


Antwort von ruessel:

Vor dem Einbau der 3060er Karte konnte ich den PC ca.10% übertakten ohne weitere Probleme. Das geht nun nicht mehr, es kommt dann kein Bild mehr aus der Grafikkarte..... damit bleiben die Werte von oben aktuell, also CPU Werte etwas niedriger als mit der alten Grafikkarte.

Space


Antwort von rush:

Netzteil zu schwach?
Aber wenn Du nun eh mehr via Cuda auf der GraKa rechnest sollte das ja nicht so stark ins Gewicht fallen...

Space


Antwort von ruessel:

Glaube ich nicht, da die SSD normales Blinklicht abgibt, WIN10 scheint geladen zu werden.

Die alte GTX570 hat 20-30 Watt mehr verbraucht, hatte auch 2x Stromanschluss.
Aber wenn Du nun eh mehr via Cuda auf der GraKa rechnest sollte das ja nicht so stark ins Gewicht fallen... Ich wollte mich auch nicht beschweren - nur anmerken ;-)

Kann es sein, die ASUS Karte wurde vom Werk aus schon übertaktet..... ASUS GeForce RTX 3060 DUAL OC V2 LHR

Läuft im System sehr leise und schaltet Lüfter bei wenig Last komplett ab.

Space


Antwort von MK:

CPU per Multiplikator oder FSB übertaktet? Falls per FSB dann den PCIe Takt auf 100 MHz manuell festgesetzt damit der nicht mit übertaktet wird?

Space


Antwort von ruessel:

Keine Ahnung. Im Bios ist das Bildlich dargestellt, kann auf Power gestellt werden, dann startet ein "Hilfsprogramm" um zu sehen wo der Chip kurz vorm aussteigen ist und überschreibt das Bios mit diesen Werten. Das problem, wenn die Grafikkarte ausgestiegen ist, muss ich die BIOS Batterie ziehen, ansonsten bleibt die Karte dunkel, auch bei der BIOS Anzeige. Gleich schraube ich alles wieder in den Schrank, da kann ich nicht mehr experimentieren. Ich glaube, ob die CPU 3-4 Frames schneller läuft, macht den Kohl auch nicht mehr fett, oder?

Space


Antwort von TomStg:

ruessel hat geschrieben:
Die alte GTX570 hat 20-30 Watt mehr verbraucht, hatte auch 2x Stromanschluss.
Es geht nicht um die Leistungsaufnahme im Leerlauf, sondern unter Last.
Nvidia empfiehlt für GTX 570 ca 400 Watt, für GTX 3060 ca 550 Watt.
Bei um 40% erhöhtem Leistungsbedarf geht ein altes Netzteil sehr schnell in die Knie.

Space


Antwort von rush:

Das war eben auch mein Gedanke mit den Peaks - insbesondere beim Einschalten und Self Test wird die Karte vermutlich kurz mal hochballern... Das ist für etwas altersschwache Netzteile möglicherweise schon ein Problem.

Space


Antwort von ruessel:

Nvidia empfiehlt für GTX 570 ca 400 Watt, für GTX 3060 ca 550 Watt. ich habe mal geschaut, die 3060er 12 GB ist mit max. 170W angegeben. 600W ist eingebaut, reicht dicke. außerdem habe ich gestern noch so"n GPU Stresstest laufen lassen, die Grafikkarte lief einwandfrei durch.
War nun kurz am überlegen noch was mit M2 SSD einzustecken, will aber mein Glück nicht strapazieren, bin froh das nun alles so läuft..... ein alter Gaul wird kein Rennpferd.

Space


Antwort von ruessel:

Nun ist Resolve Studio installiert. Wahrscheinlich noch nicht richtig, da BMD 4K Karte vorher installiert war. Karte wird zwar erkannt aber es gibt Fehlermeldungen wenn ich DJI 4K Material laufen lasse, irgendwas mit Sound stimmt nicht. Außerdem auf Play gedrückt läuft die Timeline viel zu schnell ab...... Resolve friert dann nach einigen Minuten ein und es hilft nur noch der Taskmaster. Nachher mal mit 6K Material testen.

Space


Antwort von ruessel:

Habe nun den Desktoptreiber für die 4K Ausgabekarte nochmals installiert, siehe da, Resolve Studio 17 läuft nun in voller Pracht auf dem URalt PC. Wie man sieht, die CPU ist da nicht völlig raus, aber vorher war die Timeline nur eine Ruckelschau..... nun läuft es sanft durch. Bin erstmal begeistert!


3060resolve17.jpg

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


DaVinci Resolve 4k mit Notebook i5-8300H, 36 GB RAM Ruckler --- wie PC-System updaten?
Sicherheitslücke, macOS User sollten auf Davinci Resolve 19.1.3 updaten.
Grafikkarte mit h265 Beschleunigung?
Grafikkarte mit 8 GB für Davinci Resolve
NVIDIA RTX 5000 ADA - Grafikkarte mit 32 GB Ram in den Startlöchern
Asus präsentiert Grafikkarte mit integrierter M.2-SSD
AMD Radeon RX 7900 GRE mit 16GB und 256 Bit - preiswerte Grafikkarte für DaVinci Resolve?
AMD Radeon PRO W7900 PC-Grafikkarte ab Juli mit Dual-Slot-Design
Kaufberatung Grafikkarte
Grafikkarte gesucht: AMD System Upgrade für Resolve
Neue Nvidia RTX 6000 Profi-Grafikkarte: 48 GB VRAM und 18.176 CUDA Cores
Grafikkarte Erfahrungswerte
Intel ARC A770 Desktop-Grafikkarte ab 12.Oktober für ca. 400 Euro im Handel
Passende Grafikkarte für AE
Neue Grafikkarte für Premiere/AE CC
Welche Grafikkarte für eine KI-Video Workstation? Nvidia RTX4090 oder Radeon Pro W7900?
Intel Arc 770 Grafikkarte in der Videobearbeitung unter Davinci Resolve




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash