Die Titan war ja nicht schneller als eine übertaktete 2080TI. Von daher ist das auch nicht verwunderlich:
Die Titan war ja nicht schneller als eine übertaktete 2080TI. Von daher ist das auch nicht verwunderlich:
Nein - nochmal: das ist das Budget. Die Bandbreite an Leistung wird quasi weiter aufgespannt.
Naja, das Rendern bzw. Exportieren ist zumindest bei mir schon öfter mal der letzte Schritt. Danach vielleicht noch hochladen und dann ist der Rechner aus.iasi hat geschrieben: ↑Mo 07 Sep, 2020 23:06 Beim Spielen und auch beim Videoschnitt/Grading ist man ja ständig am werkeln - da ist dann eben nichts mit "schneller fertig".
Gerade hab ich übrigens gesehen, dass der Threadripper bzw die X399-Boards noch gar keine PCIe4.0 unterstützen.
Oder ist mir da etwas entgangen?
Wenn es denn überhaupt flüssig läuft. Es geht ja längst nicht mehr um die reine Rechenleistung. Nvidia hat das am 1. September veröffentlicht:
Aber wir reden hier von Gamer-Karten, die eben auch mal für Videoschnitt und Bildbearbeitung genutzt wird.markusG hat geschrieben: ↑Mo 07 Sep, 2020 23:28Nein - nochmal: das ist das Budget. Die Bandbreite an Leistung wird quasi weiter aufgespannt.
Beim Einzeleinsatz ist der Unterschied auch wirklich nicht das Thema - interessant wird es eher bei Rechenzentren bzw. Renderfarmen...wenn dann mal 10 Stück in einem Rack stecken usw.
Davon abgesehen: die (Gebraucht-)Preise der 2080Ti fallen gerade auf 3070-Niveau. Erstere hat mehr und schnelleren Speicher, kann je nach Anwendung also vielleicht interessant werden.
Klar - das ist natürlich klar.
Dann ist´s ja gut.rdcl hat geschrieben: ↑Mo 07 Sep, 2020 23:32Naja, das Rendern bzw. Exportieren ist zumindest bei mir schon öfter mal der letzte Schritt. Danach vielleicht noch hochladen und dann ist der Rechner aus.iasi hat geschrieben: ↑Mo 07 Sep, 2020 23:06 Beim Spielen und auch beim Videoschnitt/Grading ist man ja ständig am werkeln - da ist dann eben nichts mit "schneller fertig".
Gerade hab ich übrigens gesehen, dass der Threadripper bzw die X399-Boards noch gar keine PCIe4.0 unterstützen.
Oder ist mir da etwas entgangen?
Und PCIe 4.0 ist nicht nötig. Laut Nvidia ist der Leistungsunterschied zwischen 3 und 4 "weniger als ein paar Prozent".
wer sich die dreisten Kaufgebote für die nun plötzlich so absolut obsoleten RTX 2xxx Karten in den Kleinanzeigen anschaut, fasst sich echt an den Kopf.Gebraucht liegen einige 2070er ja schon im Bereich ab 250€.
Zur Vorbereitung gehört der komplette Workflow.
Die Frage der Notwendigkeit sollte doch an erster Stelle stehen.rush hat geschrieben: ↑Di 08 Sep, 2020 08:27
Meine damals als gebraucht erstandene GTX1070 wird noch eine Weile im Rechner bleiben - da müssen die Preisschilder der neuen RTX Generation schon noch deutlich im Preis sinken um für mich von Relevanz zu sein... Die 2000er Serie wird dadurch aber in der Tat interessanter wenn der Preis weiter so stark fällt... Gebraucht liegen einige 2070er ja schon im Bereich ab 250€.
...und Internet und GPS waren eigentlich für das Militär, und schau was wir jetzt haben.iasi hat geschrieben: ↑Di 08 Sep, 2020 01:02Aber wir reden hier von Gamer-Karten, die eben auch mal für Videoschnitt und Bildbearbeitung genutzt wird.markusG hat geschrieben: ↑Mo 07 Sep, 2020 23:28
Nein - nochmal: das ist das Budget. Die Bandbreite an Leistung wird quasi weiter aufgespannt.
Beim Einzeleinsatz ist der Unterschied auch wirklich nicht das Thema - interessant wird es eher bei Rechenzentren bzw. Renderfarmen...wenn dann mal 10 Stück in einem Rack stecken usw.
Davon abgesehen: die (Gebraucht-)Preise der 2080Ti fallen gerade auf 3070-Niveau. Erstere hat mehr und schnelleren Speicher, kann je nach Anwendung also vielleicht interessant werden.
Eben Desktop-Karten.
Ich zitiere mich Mal selbst... Kann man eigentlich irgendwo nachlesen ob Resolve z.b. eher von der Speicherbandbreite, dem VRAM oder den Cuda Kernen profitiert? Oder ist das eher immer die Gesamtkombination?
Das kommt immer auf den jeweiligen Task an. Editing is was anderes als Color und rausrendern noch mal ein anderes Paar Stiefel - je nach Codec sieht das alles nochmal ganz anders aus. Manche Sachen laufen nur auf den Tensor Kernen, ob die Speicherbanbreite was ausmacht, hängt vom Codec ab (also von den Datenmengen die du da drüber schaufelst) ARRI RAW is halt was anderes als H264 usw.
Aber der Speicher ist den Aufpreis wert, je nach Verwendungszweck.Frank Glencairn hat geschrieben: ↑Mi 09 Sep, 2020 06:35 Ich denke mal die 3080er ist der Sweetspot, der Aufpreis bei der 3090er steht dann in keinem Verhältnis zu gewonnenen Performance.
Lenovo ist kein Hersteller von Grafikkarten. Die schrauben nur das zusammen, was vorhanden ist.
Das ist richtig - aber häufig bekommen die Hersteller ja schon im Vorfeld weitere Informationen um dann passend zum Release auch liefern zu können.
Gibt es eigentlich aussagekräftige Tests zu der Speicherfrage?rdcl hat geschrieben: ↑Mi 09 Sep, 2020 06:41Aber der Speicher ist den Aufpreis wert, je nach Verwendungszweck.Frank Glencairn hat geschrieben: ↑Mi 09 Sep, 2020 06:35 Ich denke mal die 3080er ist der Sweetspot, der Aufpreis bei der 3090er steht dann in keinem Verhältnis zu gewonnenen Performance.
Solange du in einer 4K Timeline (oder HD) arbeitest, wirst du von den 24GB nix merken.
Bei Quellmaterial mit mehr als 6K Auflösung und komplexen Filtern wie z.B. Neat Video.
Wieviel 8K Bild im Bild KnoffHoff Show macht man denn in der Realität?
Also ich hatte mit der GTX1080ti in Resolve beim Graden schon des öfteren die "GPU Memory Full" Meldung. Zugegeben, da war auch NR und Retusche im Spiel, aber ändert ja nix an der Tatsache dass in Resolve der VRam voll läuft.Frank Glencairn hat geschrieben: ↑Mi 09 Sep, 2020 09:05Solange du in einer 4K Timeline (oder HD) arbeitest, wirst du von den 24GB nix merken.
Wenn Fusion im Spiel ist, dann schon eher, wobei selbst da die 10GB für das meiste reichen.
Grafikkarten = das neue KlopapierBetreiber riesiger Mining-Farmen kaufen ihre Karten allerdings nicht beim Shop um die Ecke, sondern beziehen diese direkt von Distributoren oder gar den Herstellern selbst. Für kleinere Geschäfte und vor allem für Endkunden kann dies in einer schlechteren Verfügbarkeit oder erhöhten Preisen resultieren.
Mit Neat Video Pro (temporal noise reduction in hoher Qualität und mit 4 Referenzframes) und 8K-RAW-Quellmaterial und der GTX 1080Ti kriege ich "GPU Memory Full".
Kann ich mir nicht recht vorstellen. Mining lohnt sich erst, wenn Anschaffungspreis, Stromkosten und Ertrag in einem möglichst guten Verhältnis stehen.Alex T hat geschrieben: ↑Mi 09 Sep, 2020 13:48 https://www.golem.de/news/cryto-boom-et ... 50752.html
ich bin auf die Verfügbarkeit gespannt, wenn sich die Mining-Betreiber mit den neuen Karten eindecken...Echt ein Jammer dieses "mining". Es wäre nicht das erste Mal, dass es wegen Kryptowährung zu Lieferengpässen und Aufpreisen kommt.
Daran könnte es liegen, ich brauche Neat nicht, deshalb hab ich das Memory Problem auch nicht.