Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Nvidia zeigt Muskeln - GTX1080 und 1070 mit erstaunlicher Leistung



Newsmeldung von slashCAM:


Mit der Ankündigung der GTX 1070 und GTX 1080 vollzieht Nvidia einen Preis-Leistungssprung der seit vielen Jah...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Nvidia zeigt Muskeln - GTX1080 und 1070 mit erstaunlicher Leistung


Space


Antwort von rudi:

Noch ein kleines Update:

Die maximale Display-Auflösung der neuen Nvidia-Karten wurde von bisher 5K/60Hz (Maxwell) auf 8K/60Hz angehoben. Genauer gesagt auf exakt 7680x4320@60Hz. An Anschlüssen gibt es Displayport 1.4, HDMI 2.0b, sowie Duallink-DVI

Dazu ist interessant, dass nur die GTX 1080 einen neuen Anschluss namens SLI HB (Hi Bandwith?) bekommt, von dem Nvidia verspricht, dass die GTX1080 hier die doppelte Bandbreite gegenüber Maxwell mit SLI nutzen kann. Sollte sich dahinter etwa eine abgespeckte Version von NVLink verbergen?

Space


Antwort von motiongroup:

Das kann die auch..

http://www.pcgameshardware.de/AMD-Radeo ... t-1193883/

Space


Antwort von DenK:

2 GTX 1080 wären immernoch billiger

Space


Antwort von motiongroup:

Das weis noch keiner weil noch keine sli Benchmarks verfügbar sind und die Steckplätze müssen auch verfügbar sein.. Was noch nicht ganz klar ist, kann die Radeon pro Duo 2x2 im crossfire arbeiten? Das wären dann 4xgpu Max 700 Watt und 32 GB Speicher... Was für ein Wahnsinn wird das eigentlich..;)

Space


Antwort von merlinmage:

Wenn Amd mit Polaris gut dagegen hält werden mal wieder Nvidias gestapelt. Aber ich warte auf jeden Fall den (Paper-) Launch von AMD ab.

Space


Antwort von leonhard dy kabrio:

Das man das "noch" erleben durfte!
Die kleine ist ja schon mal interessant und wird wenn Amd dazu kommt, ein
schönes Marktbild ergeben, mit wh. unzähligen Kartenvarianten rauf und runter
und welche wo zirpt und wie wieder 500 Watt verbrannt werden und..
Aber sie bewegen sich..

"mit erstaunlicher Leistung" SLASHCAM, bitte! Okay, net den Wortlaut den man euch
mit vorher nasser Mundlabung und Hostie darreicht aus der Neusprechabteilung NVIDA so
rein drücken.
Ich erwarte mir, das denen in den Arsch tretet und zuseht wie sie ins Loch fallen.
Die brauchen das. Dann wissen se wieder wer Herr (Kunde) ist und wer dafür hackelt, das
es den Kunden gibt.
Wann gibt es die billige Karte ab 199,- Euro?
Und gut ist.

Space


Antwort von rudi:

Das weis noch keiner weil noch keine sli Benchmarks verfügbar sind und die Steckplätze müssen auch verfügbar sein.. Was noch nicht ganz klar ist, kann die Radeon pro Duo 2x2 im crossfire arbeiten? Das wären dann 4xgpu Max 700 Watt und 32 GB Speicher... Was für ein Wahnsinn wird das eigentlich..;) Zwei Probleme dazu:

1. nur wenige Videoapplikationen unterstützen mehr als 2 GPUs (Resolve max 3). Und damit sind die GPU-Sockel gemeint, nicht die Karten.

2. Die 32 GB wären leider nur 16 GB (4x4). Und der nutzbare GPU-Speicher wird durch mehrere GPUs leider nicht mehr, sondern steht bei den meisten Anwendungen nur als eine Art Kopie zur Verfügung. Die Applikation sieht in der Regel also nur 4GB Hauptspeicher, den sich 4 GPUS teilen. Somit verhält sich die Pro unter Resolve nur wie eine 4GB Karte mit seeehr viel TFlops.

Beispiel zu 2: Wenn du 2 GPUs mit 4GB und 5 TFlops hast, sind die maximal so schnell wie 1 GPU mit 4GB und 10 TFlops.

Space


Antwort von rudi:

"mit erstaunlicher Leistung"
SLASHCAM, bitte! Okay, net den Wortlaut den man euch
mit vorher nasser Mundlabung und Hostie darreicht aus der Neusprechabteilung NVIDA so
rein drücken. Sagen wir mal, AMD bleibt uns als Underdog sympatischer, aber eine gewisse Begeisterung für diesen enormen Leistungssprung können wir auch nicht verbergen. 379 Dollar für 6,5TFlops mit 8 GB. Damit macht man 4,6K-RAW Debayering und schon einige Layer CC wahrscheinlich in butterweicher Echtzeit.

Space



Space


Antwort von Peppermintpost:

[379 Dollar für 6,5TFlops mit 8 GB. Damit macht man 4,6K-RAW Debayering und schon einige Layer CC wahrscheinlich in butterweicher Echtzeit. rechtsklick aufs footage, cache umstellen auf user, und schon kannst du auch 8k footage mit einer antiken gtx680 butterweich graden (bei mir zumindest).
was mich am meisten beeindruckt ist wie heftig die den stromverbrauch runter schrauben. 500watt für eine grafikkarte war absurd. 150-170watt ist da schon mal ne andere ansage.

Space


Antwort von Jost:

Das weis noch keiner weil noch keine sli Benchmarks verfügbar sind und die Steckplätze müssen auch verfügbar sein.. Was noch nicht ganz klar ist, kann die Radeon pro Duo 2x2 im crossfire arbeiten? Das wären dann 4xgpu Max 700 Watt und 32 GB Speicher... Was für ein Wahnsinn wird das eigentlich..;) Zwei Probleme dazu:

1. nur wenige Videoapplikationen unterstützen mehr als 2 GPUs (Resolve max 3). Und damit sind die GPU-Sockel gemeint, nicht die Karten.

2. Die 32 GB wären leider nur 16 GB (4x4). Und der nutzbare GPU-Speicher wird durch mehrere GPUs leider nicht mehr, sondern steht bei den meisten Anwendungen nur als eine Art Kopie zur Verfügung. Die Applikation sieht in der Regel also nur 4GB Hauptspeicher, den sich 4 GPUS teilen. Somit verhält sich die Pro unter Resolve nur wie eine 4GB Karte mit seeehr viel TFlops.

Beispiel zu 2: Wenn du 2 GPUs mit 4GB und 5 TFlops hast, sind die maximal so schnell wie 1 GPU mit 4GB und 10 TFlops. Richtig. Jede einzelne Grafikkarte hält sämtliche Daten im eigenen Speicher vor. Die arbeiten redundant.

Wird das Speicherlimit überschritten, gibt es richtig Theater.

Bin außerdem skeptisch. 700 Dollar sind etwa 610 Euro - die 980Ti startet ebenfalls mit 610 Euro. Die wäre damit nicht mehr verkäuflich. Ich rechne eher mit einem Preis von 700 Euro+ für die 1080.

Space


Antwort von rudi:


rechtsklick aufs footage, cache umstellen auf user, und schon kannst du auch 8k footage mit einer antiken gtx680 butterweich graden (bei mir zumindest).
was mich am meisten beeindruckt ist wie heftig die den stromverbrauch runter schrauben. 500watt für eine grafikkarte war absurd. 150-170watt ist da schon mal ne andere ansage. Hast ja recht (hatte auch mal nen slashCAM Artikel dazu verfasst). Allerdings muss man dann halt immer seine Rendercache-SSD sauber halten und vor dem Graden etwas Kaffee trinken, bis der gefüllt ist.

Natürlich kann man für 379 Dollar viel Kaffee kaufen, aber jetzt in einem Monat einfach quasi ne Titan für unter 400 Euro bekommen ist trotzdem irgendwie verlockend, oder?
Ich warte allerdings auch noch AMD ab, denn ich glaube, die werden da nicht kampflos einsteigen, sondern auch nochmal etwas Wind machen. Geschätzt müssen die ja jetzt eine vergleichbare Karte für 299 Euro anbieten oder für 399 Euro dann ebenfalls 8-9 TFlops liefern. Das macht ja heute schon eine Nano, aber eben nur mit 4GB.

Space


Antwort von merlinmage:

Und auch mal von Ihrer Heizluft TDP von 250 Watt runterkommen. Aber das packen die schon.

Space


Antwort von Peppermintpost:

Natürlich kann man für 379 Dollar viel Kaffee kaufen, aber jetzt in einem Monat einfach quasi ne Titan für unter 400 Euro bekommen ist trotzdem irgendwie verlockend, oder? hey rudi, kanz klar, keine frage. wir haben vor ein paar wochen noch eine titan gekauft und ich hab spass wie die abrockt. ich hab zu hause wie gesagt eine gtx680 und die ist natürlich deutlich langsamer. die jetzt für 400 takken auszutauschen, da hätte ich schon bock drauf. ich wollte nur verdeutlichen. auch mit antiker hardware kann man problemlos alles in echtzeit von rechts nach links bewegen. es ist in ganz vielen fällen eine frage des workflow bzw sich mal die funktionen der software genauer anzuschauen anstatt immer alles mit hardware zu erschlagen.

da ich in meinen rechner niemals eine ati bauen würde, selbst wenn man sie mir schenken würde muss ich auch auf nichts warten. mich macht die nvidia ankündigung glücklich.

was aber deutlich teurer ist als die grafikkarte oder der kaffee beim cachen ist der stromverbrauch. wenn ich von meiner 680 auf die neue umsteige, dann bekomme ich sie quasi kostenlos nur dadurch was ich am strom spare, und das macht mich richtig glücklich ;-)

Space


Antwort von motiongroup:

Hmmm interessant Rudi zumal im HW Configguide von einer GUI und bis zu 8 GPUs im Cubixverhau gesprochen wird.. Und klar wird jeder GPU die Hälfte des Speichers zugewiesen.. Interessant wäre der technische Hintergrund wie die Verteilung der Rechenlast umgesetzt ist..

Space


Antwort von SirRollingVonShutter:

Natürlich kann man für 379 Dollar viel Kaffee kaufen, aber jetzt in einem Monat einfach quasi ne Titan für unter 400 Euro bekommen ist trotzdem irgendwie verlockend, oder? was aber deutlich teurer ist als die grafikkarte oder der kaffee beim cachen ist der stromverbrauch. wenn ich von meiner 680 auf die neue umsteige, dann bekomme ich sie quasi kostenlos nur dadurch was ich am strom spare, und das macht mich richtig glücklich ;-) GTX 680 = 195w

Was erhoffst du dir denn genau für Angaben? Dass die neuen Karten 35watt verbrauchen?
Selbst wenn die träumerische 100 Watt wären, die müssten Jahre im System sein um die 400€ zu sparen

Space


Antwort von Peppermintpost:

nur 195watt? echt? aber im leerlauf oder bei vollast? ich dachte die liegt bei vollast über 400w. wieso hat das ding für 195w zwei stromanschlüsse?

Space


Antwort von merlinmage:

Volllast natürlich... und ja sind 195W Max, da reicht aber kein Single 8pin für aus;)

Space



Space


Antwort von rudi:

Hmmm interessant Rudi zumal im HW Configguide von einer GUI und bis zu 8 GPUs im Cubixverhau gesprochen wird.. Und klar wird jeder GPU die Hälfte des Speichers zugewiesen.. Interessant wäre der technische Hintergrund wie die Verteilung der Rechenlast umgesetzt ist.. Ich nehme mal an, du meinst den Resolve Configguide. 8 GPUs gelten nur für die Linux-Version mit Pult. Wenn du die beim Fachhändler inkl. Backbone-Hardware kaufst, schenkt er dir wahrscheinlich die 8 GTX 1070 dazu ;)

Wenn das RAM gespiegelt wird werden wahrscheinlich einfach alle Shader wie eine große GPU angesprochen. Ist vom Scheduling dann am einfachsten zu skalieren, wenn sich die Prozesse ansprechend fein aufspalten lassen.

Space


Antwort von motiongroup:

http://barefeats.com/gpu680v7.html Ja das meinte ich und bei Barefeats gab es ja auch mal einen Beitrag dazu

Und nein ich will das auch nicht kaufen, ich will eher wissen wirklich wissen wie das funktioniert.. ..ein segmentiertes aufteilen wie bei der cinebench CPU Core Verteilung .. Ich kanns nicht sagen wills aber wissen..;))))

Space


Antwort von DV_Chris:

Aus dem Artikel:

Für die Videobearbeitung dürften sich hiermit nun erstaunlich günstige Schnittsysteme bauen lassen.
========================

Geht schon länger, das mit dem günstig....mit Edius. Da reicht die in der CPU integrierte GPU.

Space


Antwort von merlinmage:

Ja? Dann switch ich sofort, yay!!!!

Space


Antwort von Rick SSon:

Darauf hab ich doch gewartet. Jetzt noch bitte Ende des Jahres eine 12 GB Variante und ich werfe meine gtx970 direkt weg :D

Space


Antwort von cantsin:

Geht schon länger, das mit dem günstig....mit Edius. Da reicht die in der CPU integrierte GPU. Ja? Auch z.B. für 4K CinemaDNG-Material?

Space


Antwort von TomStg:

Geht schon länger, das mit dem günstig....mit Edius. Da reicht die in der CPU integrierte GPU. Das hat speziell mit Edius nichts zu tun, sondern gilt natürlich für alle NLE. Unterschlagen wird dabei gerne, wieviel länger die CPU an manchen Effekten und vor allem an deren Kombinationen rumrechnet - für die Darstellung auf der Timeline genauso wie beim Export.

Space


Antwort von dienstag_01:

Das hat speziell mit Edius nichts zu tun, sondern gilt natürlich für alle NLE. Noch nie was von Edius und QuickSync gehört?
Macht nichts, ist auch wirklich kompliziert ;)

Space


Antwort von motiongroup:

Ist das jetzt was speziell Neues das Programme QSync nutzen..und wenn sie es nutzen sollte es auch funktionieren und nicht mit jedem neuen Treiberupdate oder Windowsupdate in Nirvana verschwinden.. Nö ich glaube nicht ;)

Space



Space


Antwort von Jost:

Wer einen Vierkerner hat, braucht GTX1080 und 1070 nicht.

Wer es nicht glaubt, lasse einfach mal das kostenlose Testprogramm GPU-Z bei einem Projekt mitlaufen.

Es wird wunderbar visualisiert, ob die aktuelle GPU limitiert oder nicht.

Und wenn die GPU nicht limitiert - welchen Sinn sollte dann eine noch schnellere GPU machen?


GTX1080 und 1070 sind lediglich ein Signal, die 980, 980Ti und TitanX möglichst schnell loszuwerden. Um von den zurzeit noch hohen Gebrauchtpreisen zu profitieren

Es ist übrigens sehr bedauerlich, dass es Nvidia bei synthetischen Benchmarks belässt.

Spannend wird es erst, wenn klar ist, welche CPU man benötigt, um die GTX1080 und 1070 auch auszufahren.

Soviel zu Thema "wir bauen uns jetzt mal schnell einen billigen Schnittrechner".

Space


Antwort von DenK:

Niemand behauptet dass man solche GPUs zum Schneiden braucht, obwohl natürlich auch im NLE ordentlich GPU Power nur ein Vorteil ist. Richtig interessant wirds doch aber erst im AE.

Space


Antwort von CameraRick:

Kein Wort zu 10bit... pokern wir auf AMD...

Space


Antwort von Jost:

Niemand behauptet dass man solche GPUs zum Schneiden braucht, obwohl natürlich auch im NLE ordentlich GPU Power nur ein Vorteil ist. Richtig interessant wirds doch aber erst im AE. Wenn eine GPU nicht limitiert, ist eine noch schnellere GPU nicht besser. Das gilt für jedes Programm.

Space


Antwort von DenK:

Ich arbeite hier auf einem i7 4930k (6 Kerne) und habe vor ca. 2 Jahren von einer GTX260 auf eine GTX970 aufgerüstet, und der Unterschied ist sowohl im NLE, im Encoder und am deutlichsten im AE zu spüren.
Ich kann mir nicht vorstellen dass es mit den neuen Karten keine weitere Verbesserung geben würde.

Space


Antwort von dienstag_01:

und der Unterschied ist sowohl im NLE, im Encoder und am deutlichsten im AE zu spüren. Im Encoder ja, aber nicht beim Encoding ;)

Space


Antwort von DenK:

Ich werde die Karten jetzt nicht nochmal tauschen, aber z.B. von MXF zu h264 geht im AME mit der neuen Karte schneller.

Space


Antwort von dienstag_01:

aber z.B. von MXF zu h264 geht im AME mit der neuen Karte schneller. Aber nicht das pure File, ohne Effekte.
Was man eben Encoding nennt ;)

Space


Antwort von Jörg:

DenK schreibt
und der Unterschied ist sowohl im NLE, im Encoder und am deutlichsten im AE zu spüren. na sicher ist das überdeutlich zu spüren....
Das kannst du aber einem Nutzer wie dienstag, der immer noch mit Hammer
und Meißel in roten Granit de-und encodiert,nicht erklären... für den sind alle Idioten, die solche Karten nutzen.

Lass ihn weiter hämmern...

Space



Space


Antwort von DenK:

Ich habe das reine encodieren gerade mal mit und ohne GPU getestet, da war tatsächlich kein Unterschied. Aber das encodieren interessiert mich da auch eher weniger. Jede Zeitersparnis im NLE oder vor allem im AE ist entweder Kohle oder Freizeit. Beides ist es mit Wert in eine neue GPU zu investieren, solange das Verhältnis stimmt.

Space


Antwort von Jörg:

Ich habe das reine encodieren gerade mal mit und ohne GPU getestet, da war tatsächlich kein Unterschied. Hängt vom verwendeten Exportmodul ab.

Space


Antwort von Rick SSon:

aber z.B. von MXF zu h264 geht im AME mit der neuen Karte schneller. Aber nicht das pure File, ohne Effekte.
Was man eben Encoding nennt ;) Das interessiert doch auch keinen, es geht doch um die Effekte ...

Space


Antwort von dienstag_01:

Hängt vom verwendeten Exportmodul ab. Dann empfiehl uns doch mal ein EXPORTMODUL.
Hier gibt es nämlich dummerweise gar kein EXPORTMODUL im Media Encoder CC2015 ;)

Space


Antwort von merlinmage:

Geh doch zu deinem QT7 Avid Exportmodul, da bringt ne GPU auch 0. ;)

Space


Antwort von dienstag_01:

Geh doch zu deinem QT7 Avid Exportmodul, da bringt ne GPU auch 0. ;) Naja, aber vielleicht kann ich die GPU da auch so wie manche Adobe Nutzer SPÜREN ;)

Space


Antwort von merlinmage:

Pack dochmal auf dein Master 2 alphakanal files wie Watermarks oder von mir aus nen Crop und mach die GPU aus. Happy Encoding!

Space


Antwort von dienstag_01:

Warum sollte ich?!
Ich muss nur encodieren und das findet nun mal ohne GPU statt ;)

Space


Antwort von merlinmage:

TomStg hatte dazu auch mal nen Link gepostet. Aber gut, log Files encodierst du ja auch komplett ohne CC und drückst es dem Kunden in die Hand, ich verstehe.

Space



Space


Antwort von dienstag_01:

Hier geht es eigentlich weniger um meinen persönlichen Workflow, sondern um die Frage, encodiert Adobe mit Hilfe der GPU oder nicht.
Ich weiss, Fakten helfen nicht jedem, für den einen oder anderen sind sie aber überraschenderweise dann doch ein Kriterium für oder gegen einen Neukauf ;)
Um mehr gehts gar nicht (Deshalb sollte man hier auch ohne große inneren Verrenkungen bei diesen Fakten bleiben können, schwierig, ich weiss)

Space


Antwort von merlinmage:

Du empfiehlst also bei Adobe CC Workflows keine GPU bei Neukauf weil bringt ja fürs Encoding nox? Alles klar, bist echt nen guter Berater!

Space


Antwort von dienstag_01:

Du empfiehlst also bei Adobe CC Workflows keine GPU bei Neukauf weil bringt ja fürs Encoding nox? Alles klar, bist echt nen guter Berater! Man spürt regelrecht, wie du dich körperlich windest, um meine Aussage dahingehend zu verdrehen.
Entspann dich ;)

Space


Antwort von merlinmage:

Ich bin entspannt ;)

Bissel trollen am Wochenende hat noch nie jemandem geschadet, solche Diskussionen hab ich sonst nämlich nirgendwo:D

Space


Antwort von Jörg:

dienstag schreibt am Sonntag
Hier geht es eigentlich weniger um meinen persönlichen Workflow, sondern um die Frage, encodiert Adobe mit Hilfe der GPU oder nicht. hier gehts um nichts anderes, als deinen workflow, oder deine Intention eines workflows, oder die Reflektion auf Gespräche deines Kontoführenden Geldinstituts, oder, oder ....

Ich habs dir schon so oft geraten,exportiere doch mal ein avc file mit und ohne GPU, nutze dazu die explizite Vorgabe im AME, mit der man CUDA deaktivieren kann.
Ich mach auch gern ein Bildchen...

Space


Antwort von dienstag_01:

Ich habs dir schon so oft geraten,exportiere doch mal ein avc file mit und ohne GPU, nutze dazu die explizite Vorgabe im AME, mit der man CUDA deaktivieren kann.
Ich mach auch gern ein Bildchen... Sag doch einfach, wann und wo das Encoding durch die GPU unterstützt wird, und gut ist. Ich finde es nämlich nicht.

Space


Antwort von cantsin:

Ich habs dir schon so oft geraten,exportiere doch mal ein avc file mit und ohne GPU, nutze dazu die explizite Vorgabe im AME, mit der man CUDA deaktivieren kann.
Ich mach auch gern ein Bildchen... Sag doch einfach, wann und wo das Encoding durch die GPU unterstützt wird, und gut ist. Ich finde es nämlich nicht. Schaltfläche links unter der Warteschlange.

Space


Antwort von dienstag_01:

Schaltfläche links unter der Warteschlange. Jetzt wirds langsam bizarr. Formate egal?
;)

Space


Antwort von DV_Chris:

Und so liest sich da bei einem seriösen IT Portal wie heise.de:

Nvidia-Gründer Jen-Hsun Huang war um große Worte nicht verlegen: Doppelt so schnell und drei Mal so effizient wie das Spitzenmodell Titan X der Vorgängergeneration soll die GTX 1080 sein. Doch wer das Kleingedruckte liest, erfährt, dass dieser Leistungswert sich auf die VR-Demo Mech VR bezieht. Immerhin soll eine einzige GTX 1080 fixer als zwei parallel betriebene GTX 980 sein – und auch eine Titan X bei herkömmlichen Spielen übertreffen. Von einer während der Präsentation gezeigten Folie kann man von einem Wert von 15 bis 20 Prozent mehr Leistung gegenüber einer Titan X ausgehen.

http://m.heise.de/newsticker/meldung/Tu ... 98470.html

Space



Space


Antwort von leonhard dy kabrio:

argh...) Es ist ja immer Marketingsprech. Ich habe eine Vorschau fürs
Quixxel wie es entgültig in Unreal ausschaut in der Gpu Umgebung der Nvida laufen, nur
wird nie erwähnt, wie lange ein Gpu solche Sachen rendern wird, im Sinn von wie lange er
hält. Und ob im furrybal oder im octane, der normale gut gekühlte 900 euro Chip hält mir
dann länger, als die jetzigen zwei Geforce gtx 980 sli ( weil noch "preiswert") die halt brühheiss werden.. mus jeder selber finden. Die GTX 19070 wird interessant, und da könnte es ja sein das Adobe wieder mal unter greift und uns entgegen kommen wird.
Nett auch wenn es bald mal ist.

Space


Antwort von Xergon:


Sagen wir mal, AMD bleibt uns als Underdog sympatischer, aber eine gewisse Begeisterung für diesen enormen Leistungssprung können wir auch nicht verbergen. 379 Dollar für 6,5TFlops mit 8 GB. Damit macht man 4,6K-RAW Debayering und schon einige Layer CC wahrscheinlich in butterweicher Echtzeit.
Ich versteh das nicht ganz - zum gleichen bzw. besseren Preis (368 Euro inkl. Mwst) bekommt man momentan eine herstellerübertaktete 390x von AMD
6.2 GFlops, 8GB (mit fast doppelter Speicherbandbreite...), für Compute effiziente GCN Architektur, etc.

Einziger Nachteil ist der Stromverbrauch :-)

Aber so wirklich neue Hammer-Angebote seh ich da ehrlich gesagt nicht.

Die 1080er könnte aber eine gute Karte sein für einen unserer nächsten Render-Server, wäre schön wenn wir unsere 4x 980ti Boliden mit Strom- und Lärmschonenderen Modellen ergänzen können. Mal sehen wie sich Pascal in Compute-Benchmarks schlägt, Mawell war da ja gegenüber Kepler teilweise eher Rück- als Fortschritt.

Space


Antwort von dienstag_01:

Ich habs dir schon so oft geraten,exportiere doch mal ein avc file mit und ohne GPU, nutze dazu die explizite Vorgabe im AME, mit der man CUDA deaktivieren kann.
Ich mach auch gern ein Bildchen... Sag doch einfach, wann und wo das Encoding durch die GPU unterstützt wird, und gut ist. Ich finde es nämlich nicht. Hm, kommt nicht so viel.
Sollte da vielleicht doch jemand En- mit De-coding verwechselt haben ;)

Space


Antwort von merlinmage:

Glaub die Leute sind wieder arbeiten gegangen. Ich bin dank dir aber endlich schlauer. Hatte bisher 2x GTX 980 mit nem Dual Core laufen und weiss jetzt warum es so langsam lief. DANKE!

Space


Antwort von Jost:

Jede Zeitersparnis im NLE oder vor allem im AE ist entweder Kohle oder Freizeit. Das gefällt mir ob des minimalistischen Ansatzes gut - keine Ironie.

Die Frage ist aber eine andere - Zeitersparnis hin oder her:

Läuft die Vorschau ruckelfrei oder nicht? Das ist entscheidend für User, die 3-Minuten-Clips produzieren.

Ihr kennt doch alle die Diskussionen, die im Forum in den nächsten Monaten ins Haus stehen:

Habe einen hoch übertakteten i5, der es mit jedem i7 aufnimmt - soll ich die 1070 oder 1080 kaufen, um dem System richtig Beine zu machen?

Keiner will die Antwort hören: Kauf Dir vorher eine andere CPU.

Wäre gut, wenn Slashcam die Möglichkeit hätte, bezüglich ruckelfreier Vorschau einen neuen Ratgeber zu verfassen.


Für Resolve - weil kostenlos.
Für Premiere - weil Platzhirsch.

Ist damit zu rechnen, Rudi?

Space


Antwort von merlinmage:

Was ist denn daran so schwer, sich ne CPU rauszupicken? Sollte eig klar sein, dass wenn man mit 5/6/8K rumschreddert vllt. mal mehr kaufen sollte, als nen gammeligen i7 Quad Core und Richtung 8Core oder direkt Xeon mit 10-12 Cores fährt.

Space


Antwort von Jost:

Was ist denn daran so schwer, sich ne CPU rauszupicken? Sollte eig klar sein, dass wenn man mit 5/6/8K rumschreddert vllt. mal mehr kaufen sollte, als nen gammeligen i7 Quad Core und Richtung 8Core oder direkt Xeon mit 10-12 Cores fährt. Mein 6700K samt Standard-Ram limitiert bereits auf einem FullHD-Monitor, wenn er 2,5-BM-Raw mit 30 Bildern und NR zum Fressen bekommt.

Dann bleiben in der Color-Vorschau nur noch 26 bis 28 Bilder übrig. Ton jault.

Trotz 980er mit 8GB Vram. Die schnarcht vor sich hin. Wobei Resolve ja sooo GPU-lastig sein soll.

Ein Slashcam-Ratgeber als Orientierungshilfe wäre schon wichtig.

Space


Antwort von cantsin:

Schaltfläche links unter der Warteschlange. Jetzt wirds langsam bizarr. Formate egal?
;) Ich weiss ja nicht, ob wir aneinander vorbeireden, aber hier nochmal Screenshots, falls es da irgendwelche Missverständnisse gibt.

Definiere "Formate"? Meinst Du Codecs? Das spielt keine Rolle, GPU-Beschleunigung greift bei folgenden Dingen:

- Rendern von Effekten (fast alle Effekte in Premiere CC sind GPU-beschleunigt, auch viele externe Plugins wie z.B. Filmconvert)
- Scaling
- Timecode filter
- Pixelformat-Konvertierung (z.B. RGB nach 4:2:2)
- Deinterlacing
- Veränderung des Seitenverhältnisses

Quelle:
https://helpx.adobe.com/media-encoder/u ... celeration

Space


Antwort von dienstag_01:

Ich weiss ja nicht, ob wir aneinander vorbeireden, aber hier nochmal Screenshots, falls es da irgendwelche Missverständnisse gibt. Encoding heisst das Stichwort, in deinem Beitrag weiter oben hast du es auch zitiert ;)

Space



Space


Antwort von cantsin:

Definiere Encoding. Dinge wie Farbraumkonvertierung und Skalierung gehören meistens dazu.

Space


Antwort von dienstag_01:

Definiere Encoding. Dinge wie Farbraumkonvertierung und Skalierung gehören meistens dazu. Das eine heisst enkodieren, dass andere skalieren ;)

Space


Antwort von rudi:

Ja Ratgeber hatten wir schon öfter, aber überholen sich auch schnell.

Hier war der letzte :

https://www.slashcam.de/artikel/Ratgebe ... html#Einle


und irgendwo in unserem Artikelnirvana befinden sich auch 4K-Playback Benchmarks mit diversen Codecs.

4 und 4,6K RAW Decoding hatten wir allerdings noch nicht.

Gefühlt, aber noch nicht nachgemssen kommt es mir persönlich übrigens so vor, dass der Prozessor-Cache beim Decoding eine größere Rolle spielt als die maximale Taktfrequenz. Zumindest fühlen sich die Xeons in Resolve IMHO oft flüssiger an, obwohl sie den gleichen Takt fahren oder sogar weniger als die Core i7. Aber wie gesagt: Das ist bis jetzt nur ein subjektiver Eindruck von mir, was wir noch nicht unter ansonsten unveränderten Umgebungsvariablen (=ähnliche Austattung) nachweisen konnten. Intel gibt leider für Tests praktisch keine Xeons raus.

Wir haben ja hier den Core i7-5820K, der hat 15 MB L3-Cache und der kommt aktuell bei 4,6K RAW von der URSA Mini auch ganz schön ins schwitzen, obwohl auf 4GHz übertaktet.

Folgenden Prozessor finde ich aktuell als Upgrade persönlich recht spannend und würde mal bei Interesse versuchen ihn für einen slashCAM Test zu bekommen:

http://geizhals.de/intel-xeon-e5-2630-v ... at&hloc=de

10 Cores, 25 MB Cache, HT und 3,1 GHz Turbo bei 2,2 Basis klingt für 669 Euro deutlich besser, als der kommende Xtreme 10 Core für 1500 Euro, oder?

Space


Antwort von DV_Chris:

Je mehr Kerne ein Xeon hat desto vorsichtiger ist die Maximalfrequenz zu genießen. Denn über einen langen Zeitraum können wegen der TDP nicht alle Kerne den Takt auch halten.

Deshalb konfiguriere ich Single Xeon Systeme immer mit einem hohen Grundtakt. Hier sticht derzeit diese CPU hervor:

http://ark.intel.com/products/91750/

(QPI spielt auch eine Rolle, bei dieser CPU volle 9.6GT/s)

Space


Antwort von rudi:


(QPI spielt auch eine Rolle, bei dieser CPU volle 9.6GT/s) Kannst du mal erklären, weshalb QPI bei einem Einsockel-System wichtig ist?

Space


Antwort von DV_Chris:

Das war als Hinweis gedacht für Dual Systeme, sorry.

Space


Antwort von motiongroup:

Na ja so unrecht hat er nicht denn das war mal relevant und würde ja 2009 auch für die i7 SingleCpu Systeme bereitgestellt da dieser nicht nur zwischen den CPUs als Beschleunigung dienen sollte..

Andere Frage, habt ihr irgendwo Informationen geparkt wie Resolve oder auch Fusion das multiGpu Prozedere handhabt.. Über SLI oder Crossfire wird dies wie es aussieht nicht umgesetzt da dies ja zumindest unter OSX nicht verfügbar ist.. Ich hab auch nach längerer Suche keine interessanten Hintergrundinformationen gefunden..

Zumindest die Infos auf barefeat zeigen eine quasi Verdopplung der Leistung bei Baugleicher Bestückung..

Space


Antwort von wolfgang:

4 und 4,6K RAW Decoding hatten wir allerdings noch nicht.

Wir haben ja hier den Core i7-5820K, der hat 15 MB L3-Cache und der kommt aktuell bei 4,6K RAW von der URSA Mini auch ganz schön ins schwitzen, obwohl auf 4GHz übertaktet. Also mit meinem i7 5960X und meiner R9 390X kommt mit dem neu erschienen Resolve 12.5 beta 2 der Prozessor auch bei dem 4.6K Testmaterial zur mini-Ursa der Prozessor noch nicht recht ins Schwitzen.

Zumindest mußte ich den nicht mal übertakten und das Material läuft flüssig.

Muß mir mal direkt ansehen wie der Prozessor ausgelastet ist und was passiert wenn ich den ein wenig stärker belaste.

Space


Antwort von DV_Chris:

Wolfgang, Du hast ja auch einen guten Systemintegrator ;-)

Space



Space


Antwort von rudi:


Andere Frage, habt ihr irgendwo Informationen geparkt wie Resolve oder auch Fusion das multiGpu Prozedere handhabt.. Über SLI oder Crossfire wird dies wie es aussieht nicht umgesetzt da dies ja zumindest unter OSX nicht verfügbar ist.. Ich hab auch nach längerer Suche keine interessanten Hintergrundinformationen gefunden..

Zumindest die Infos auf barefeat zeigen eine quasi Verdopplung der Leistung bei Baugleicher Bestückung.. Resolve geht einfach über PCIExpress. Bisher konnten wir dazu feststellen, dass PCIx16 2.0 bzw. PCIx8 3.0 ausreichen und kaum bremsen. SLI ist eigentlch mehr ein Sync-Anschluss, damit sich die GPUs bei der (Game-)Ausgabe besser abgleichen können. Für Numbercrunching braucht man kein SLI/Crossfire. Die GPUs werden einfach separat adressiert.
Wird in Fusion nicht anders sein (kann das überhaupt MultiGPU?)

Space


Antwort von rudi:

Update noch zum Stand der Dinge:

1. Bei "normalen Frequenzen" wie sie Boardpartner nutzen ( Chip clock: 1607MHz, Boost: 1733MHz) hat die GTX 1080 "nur 8200" GFLops zu bieten:

http://geizhals.eu/zotac-geforce-gtx-10 ... 39612.html

Die 9 TFLops beziehen sich wohl schon auf eine übertaktete Founders Edition. Das relativiert natürlich alles ein bisschen. Wenn dann auch die GTX 1070 erst in der Founders Edition 6.5 TFlops macht, dann ist die "normale" GTX1070 für 379 Dollar wahrscheinlich sogar etwas langsamer als eine AMD R9 390X, die es schon seit geraumer Zeit mit 8GB deutlich unter 400 Euro gibt.

2. Die zweite Spaßbremse wird gerade in anderer Gamer-Foren diskutiert. Nämlich dass die Umrechnung in Euro (wenn man sich an der Vergangenheit orientiert) den UVP in hierzulande auch nochmal deutlich unattraktiver machen werden. (auch weil der Dollar ja stärker geworden ist.)

So "rechnen" die Pessimisten zur Einführung für die "normalen" GTX 1080 Modelle mit einem Preis von bis zu 699 Euro. Founders Edition nochmal + 100 Euro.

Und GTX 1070 dann ebenfalls 450 Euro + "Founders Bonus".

Gerüchteweise wird AMD jetzt auch solange an der Frequenzschraube drehen und damit zumindest die Polaris 10 Top-Edition so puschen, dass sie für 299 Dollar neben GTX 1070 landet. Die neuen Modelle sollen ebenfalls noch diesen Monat vorgestellt werden. Also wahrscheinlich noch bewusst bevor Nvidias erste Karten im Handel stehen (ab am 27. Mai 2016 ).

Space


Antwort von motiongroup:

Laut BM Board in den kommenden Versionen
http://forum.blackmagicdesign.com/viewt ... PU#p275825

Interessantes Thema in jedem Fall..
Danke für die Rückmeldung
Zaubert mir gerade ein Schmunzeln ins Gesicht wenn ich so die Beiträge der mactrash Präsentation durchlese.. Wirklich Stolz da kann man nicht meckern das perlt aber so richtig..:-)))))

Space


Antwort von rudi:

4 und 4,6K RAW Decoding hatten wir allerdings noch nicht.

Wir haben ja hier den Core i7-5820K, der hat 15 MB L3-Cache und der kommt aktuell bei 4,6K RAW von der URSA Mini auch ganz schön ins schwitzen, obwohl auf 4GHz übertaktet. Also mit meinem i7 5960X und meiner R9 390X kommt mit dem neu erschienen Resolve 12.5 beta 2 der Prozessor auch bei dem 4.6K Testmaterial zur mini-Ursa der Prozessor noch nicht recht ins Schwitzen.

Zumindest mußte ich den nicht mal übertakten und das Material läuft flüssig.

Muß mir mal direkt ansehen wie der Prozessor ausgelastet ist und was passiert wenn ich den ein wenig stärker belaste. Ehrlich gesagt habe ich gerade die Quadro K5200 im Verdacht. Seit ein paar Versionen paart die sich nicht mehr sauber unter Resolve mit der zweiten GTX 770. Also habe ich die GTX rausgenommen und nun schaffe ich aktuell mit der einen GPU kanpp 23 fps. Teilweise auch 24 aber gibt es immer wieder etwas, was das system kurz ausbremst. CPU und CPU sind beide dabei am Anschlag.

Meine aktuelle Theorie ist: GPU beschäftigt CPU, d.h. wenn ich eine schnellere GPU einbaue, wird sich die CPU nicht mehr so verheddern. Wenn die neuen GPUs raus sind, werden wir sicherlich eine neue mal zum Test einbauen.

@wolfgang: Deine R9 390 ist ja auch rund doppelt so schnell wie unsere Quadro K5200, das könnte schon einiges erklären...

Space


Antwort von Jost:

4 und 4,6K RAW Decoding hatten wir allerdings noch nicht.

Wir haben ja hier den Core i7-5820K, der hat 15 MB L3-Cache und der kommt aktuell bei 4,6K RAW von der URSA Mini auch ganz schön ins schwitzen, obwohl auf 4GHz übertaktet. Also mit meinem i7 5960X und meiner R9 390X kommt mit dem neu erschienen Resolve 12.5 beta 2 der Prozessor auch bei dem 4.6K Testmaterial zur mini-Ursa der Prozessor noch nicht recht ins Schwitzen.

Zumindest mußte ich den nicht mal übertakten und das Material läuft flüssig.

Muß mir mal direkt ansehen wie der Prozessor ausgelastet ist und was passiert wenn ich den ein wenig stärker belaste. Ehrlich gesagt habe ich gerade die Quadro K5200 im Verdacht. Seit ein paar Versionen paart die sich nicht mehr sauber unter Resolve mit der zweiten GTX 770. Also habe ich die GTX rausgenommen und nun schaffe ich aktuell mit der einen GPU kanpp 23 fps. Teilweise auch 24 aber gibt es immer wieder etwas, was das system kurz ausbremst. CPU und CPU sind beide dabei am Anschlag.

Meine aktuelle Theorie ist: GPU beschäftigt CPU, d.h. wenn ich eine schnellere GPU einbaue, wird sich die CPU nicht mehr so verheddern. Wenn die neuen GPUs raus sind, werden wir sicherlich eine neue mal zum Test einbauen.

@wolfgang: Deine R9 390 ist ja auch rund doppelt so schnell wie unsere Quadro K5200, das könnte schon einiges erklären... Habe BM-4,6-Raw mit einem 6700K und 980er getestet. Die taugen unter Resolve nur noch als Bildbetrachter. 22-24 Bilder.
5 Nodes daruf - und es ruckelt in der Colorvorschau nur noch mit 17 Bildern vor sich hin.

GPU-Last ist von 55 auf 99 Prozent gestiegen. GPU-Speicherbelegung liegt allerdings bei mageren 2GB. Der Speicher limitiert die 980er also nicht.

Space


Antwort von cantsin:

Definiere Encoding. Dinge wie Farbraumkonvertierung und Skalierung gehören meistens dazu. Das eine heisst enkodieren, dass andere skalieren ;) Sorry, aber das ist Wortklauberei. Ja, die Codecberechnungen finden in der CPU statt, aber praktisch alle Encodiervorgänge umfassen mehr als das. Auch wenn man nur ein simples Transcoding von ProRes nach Consumer-h264 macht, muss bereits das Farbsampling umgerechnet werden; wenn die ProRes-Datei 4K hat und das Zielformat 1080p ist, muss skaliert werden etc.etc.

Wenn man also die Operationen, die man mit einem Programm wie ffmpeg, Apples Compressor oder Adobe Media Encoder erledigt, "encoding" nennt, so kann da die GPU ggfs. deutlichen Mehrwert bringen.

Space


Antwort von rudi:


Habe BM-4,6-Raw mit einem 6700K und 980er getestet. Die taugen unter Resolve nur noch als Bildbetrachter. 22-24 Bilder.
5 Nodes daruf - und es ruckelt in der Colorvorschau nur noch mit 17 Bildern vor sich hin.

GPU-Last ist von 55 auf 99 Prozent gestiegen. GPU-Speicherbelegung liegt allerdings bei mageren 2GB. Der Speicher limitiert die 980er also nicht. Irgendwie werde ich aber nicht schlau draus. Schließlich sollte bei RAW ja nicht die CPU sondern die GPU zum decodieren genutzt werden. Ich verstehe eben auch nicht, weshalb die CPU da bei mir so hochgeht. Ich teste mal kurz was...

Space


Antwort von dienstag_01:

Ja, die Codecberechnungen finden in der CPU statt, aber praktisch alle Encodiervorgänge umfassen mehr als das. Das mag bei dir so sein ;)
Auch wenn man nur ein simples Transcoding von ProRes nach Consumer-h264 macht, muss bereits das Farbsampling umgerechnet werden; Wenn ich 10bit DNxHD in 8bit h264 umwandel, findet Nullkommagarnichts auf der GPU statt.

Ich hatte ja schon weiter oben geschrieben, hier geht es nicht in erster Linie um Workflow. Wenn ich aber ein Upgrade meiner GPU plane und mir dafür das Verhältnis von Encoding und Effektberechnung beim Export eines Videos anschaue, dabei vielleicht feststelle, dass der Teil der Efektberechnung sowieso nur einen prozentual eher geringen zeitlichen Anteil am Gesamtergebnis ausmacht, dann kann ich mit einiger Sicherheit sagen, ob der Neukauf für mich lohnt oder ob ich das Geld auch gleich zum Fenster rauswerfen kann - nicht jeden macht die Ausgabe von einigen hundert Euro für das Absenken des Effektberechnungsanteils von beispielsweise 25 auf 19 Prozent glücklich;)
Ist das nun echt zu kompliziert oder gehts nur wieder um Rechthaberei ;)

Space


Antwort von DenK:

Hier geht's vor allem darum sich an einem Wort aufzuhängen. Egal ob exportieren oder encodieren - beide Schritte sind in vielen Projekten komplett uninteressant. Das ist der letzte Schritt des Projekts und man muss nichts dafür tun. Dann läuft es eben Nachts. Die entscheidenden Vorteile hat man, wie schon 1000x erwähnt, bei Effekten, Grading, AE etc.

Space



Space


Antwort von rudi:

...also wenn ich entweder Timeline- oder Debayering-Auflösung halbiere, dann geht die GPU von den 100 Prozent auf 30-40 Prozent runter, während die CPU ca. von 100 auf 80 Prozent runterkommt. Sieht also danach aus, als ob beim Debayering sowohl CPU als auch GPU mit anpacken.
Werde mir das nochmal näher ansehen, wenn Resolve 12.5 nicht mehr Beta ist und ich mal wieder schnellere GPUs "indaHouse" habe...

Jetzt aber Abgang ohne Abgesang...

Space


Antwort von Jost:

...also wenn ich entweder Timeline- oder Debayering-Auflösung halbiere, dann geht die GPU von den 100 Prozent auf 30-40 Prozent runter, während die CPU ca. von 100 auf 80 Prozent runterkommt. Sieht also danach aus, als ob beim Debayering sowohl CPU als auch GPU mit anpacken.
Werde mir das nochmal näher ansehen, wenn Resolve 12.5 nicht mehr Beta ist und ich mal wieder schnellere GPUs "indaHouse" habe...

Jetzt aber Abgang ohne Abgesang... Bin da eher Pragmatiker - in irgendeiner Vorschau will ich schon genau sehen, was ich gemacht habe. Wenn man dafür eine 1080 benötigt - dann sei es so.

Ansonsten bin ich wie dienstag_01 gestrickt:

Wenn ich vorher weiß, wie das Ergebnis aussehen müsste, ist es mir eher egal, ob das Rendern 5 oder 50 Minuten dauert. Wenn man mit einer 1080 einzig und allein 45 Minuten Renderzeit sparen kann - hör mir auf.

Die 45 Minuten sind schließlich keine verlorene Zeit. Gibt man sich Mühe, kann man ja auch was anderes machen als Warten.

Space


Antwort von leonhard dy kabrio:

bin ich auch bei Dir. In 45 Minuten kann man eine Menge machen.. Verführen einer schönen Frau, Teil1_Vorbereitung.. ( oh Schatzi..bin gleich soweit,musschnellwasgucke)
Und wenn der Nvidia-marketing-mensch seine heiligen Schwüre posaunt, ja dann wird der
Hobel sicher um 30% billiger 10% schneller die Titan abfetten. Aber erst wenn der Braten, der zu Weihnachten, in Fleisch / Glutenfrei/ Veggi verdaut ist und der Paketmensch von Amazon sich nach Silvester nicht im Schneesturm verrennt.
Und Resolve 13 ( sie werden "ES" doch 13.5 taufen?) wird hungrig wie eh und je, die kleine Karte verjausen..wetten?
Aber es tut sich was..... wett!!!

Space


Antwort von Jost:

c"t hat erste Preise veröffentlicht: 800 Euro für die werksübertaktete 1080, 500 Euro für die 1070.

Die 1080 soll doppelt so schnell sein wie die 980, die etwa 480 Euro kostet.

10 Bit soll unterstützt werden.

Space


Antwort von srone:

Ja, die Codecberechnungen finden in der CPU statt, aber praktisch alle Encodiervorgänge umfassen mehr als das. Das mag bei dir so sein ;)
Auch wenn man nur ein simples Transcoding von ProRes nach Consumer-h264 macht, muss bereits das Farbsampling umgerechnet werden; Wenn ich 10bit DNxHD in 8bit h264 umwandel, findet Nullkommagarnichts auf der GPU statt.

Ich hatte ja schon weiter oben geschrieben, hier geht es nicht in erster Linie um Workflow. Wenn ich aber ein Upgrade meiner GPU plane und mir dafür das Verhältnis von Encoding und Effektberechnung beim Export eines Videos anschaue, dabei vielleicht feststelle, dass der Teil der Efektberechnung sowieso nur einen prozentual eher geringen zeitlichen Anteil am Gesamtergebnis ausmacht, dann kann ich mit einiger Sicherheit sagen, ob der Neukauf für mich lohnt oder ob ich das Geld auch gleich zum Fenster rauswerfen kann - nicht jeden macht die Ausgabe von einigen hundert Euro für das Absenken des Effektberechnungsanteils von beispielsweise 25 auf 19 Prozent glücklich;)
Ist das nun echt zu kompliziert oder gehts nur wieder um Rechthaberei ;) rechthaberei, aber das sind wir ja von dir gewohnt. ;-)

lg

srone

Space


Antwort von fsm:

weiss man schon / kann man abschätzen wie sich premiere mit der 1080 / 1070 verhalten wird?
wegen der cuda unterstützung etc? oder wird das dann monate dauern bis die vorteile im programm ankommen?

Space


Antwort von Jörg:

Es wird so sein, wie immer...
Wenn die CPU die Karte schnell genug mit Material versorgt, wird sich der Effekt auch einstellen.

Space


Antwort von Jost:

weiss man schon / kann man abschätzen wie sich premiere mit der 1080 / 1070 verhalten wird?
wegen der cuda unterstützung etc? oder wird das dann monate dauern bis die vorteile im programm ankommen? Wird noch dauern. PCGH hat die erste 1080 bereits in Spielen getestet, aber nicht in Anwendungen.

http://www.pcgameshardware.de/Nvidia-Ge ... o-1195464/

Von der 1070 scheint es noch keine Testmuster zu geben.

Premiere wird wahrscheinlich wenig von den neuen GPUs profitieren. Dort limitiert die CPU.

Außerdem gilt weiterhin: Wer mehr Leistung will, muss mehr zahlen.
Laut PCGH ist die werksübertaktete 1080 rund 20 Prozent schneller als die schnellste 980Ti. Die kostet 630 Euro, die 1080 soll für 789 Euro verkauft werden.

Ob die werksübertaktete 1080 ein guter Kauf ist, steht mittlerweile auch dahin:
Unter Volllast röhrt die mit satten 4,0 Sone.

Space


Antwort von CameraRick:

Ob die werksübertaktete 1080 ein guter Kauf ist, steht mittlerweile auch dahin:
Unter Volllast röhrt die mit satten 4,0 Sone. Im Referenzdesign, wer kauft die denn? Da muss man mal abwarten.
Ich frage mich eher, wie es mit Spulenfiepen aussieht.

Wenn die 1080 allerdings wirklich so teuer wird, bringt es das bisherige Konzept ja irgendwie auseinander. Schade drum

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Nvidia's GTX 1070 und RTX 3080Ti parallel?
PIKA 1.0 angekündigt - Generative KI-Videos mit erstaunlicher Qualität
GTX 1070: nach 10 Minuten kein Bild mehr in Premiere
Nvidia bringt RTX3070 - RTX2080Ti Leistung zum halben Preis
Neuer Nvidia Studio Treiber optimiert GPU Leistung in DaVinci Resolve 17 und weiteren Apps
Nvidia RTX 3000 - Mobile Grafikchips: Leistung nun noch schwerer einschätzbar...
Nvidia RTX 4070 wird ausgeliefert - Gute Leistung, aber höhere Preise für die Mittelklasse
Nvidia zeigt Fugatto - KI-Sounddesigner, Audiotool und Mitmusiker
Blueprints und NIMs - Nvidia zeigt "3D-Guided Generative AI" für RTX GPUs
Apples M1-Nachfolger mit deutlich erhöhter GPU-Leistung erwartet
SmallRig RC 220: Tageslicht/BiColor COB-Spotlights mit mehr Leistung
Apple: Neue iPad Pros mit mehr Leistung sowie ProRes und Referenzmodus für Filmer - aber viel teurer
Neue Nvidia NVIDIA RTX 2000 Ada für $625
Blackmagic Resolve 17.1: Support für M1 Chip in neuen Macs bringt bis zu 5x höhere Leistung
Firmware 1.10 Update für Sony Alpha 1 behebt IBIS Problem und verbessert AF-Leistung und Stabilität
Überlege mir die Blackmagic 6k zu holen, reicht die Leistung meines Macs aus?
Die Leistung unter DaVinci Resolve optimieren - einige Tipps & kostenloses Blackmagic Webinar
Die besten Video-DSLMs nach Preis-Leistung: Von M43 über APS-C/S35 bis Vollformat




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash