Mehr als doppelt so schnell wie ne 3090, plus aktuelle Architektur mit den ganze Vorteilen für nur 400,- mehr?
Klar, wenn du nur ein paar Youtube-Videos schneidest und Logos bastelst - bin ich voll bei Dir!. Die 24GB RAM sollte man sich nur dann kaufen wenn man weiß warum - oder Geld überhaupt keine Rolle spielt ;-)
ah, ich mache da schon mehr, Fusion, Blender usw. alles kein Problem, kann auch 5 Minuten länger warten bzw. statt eine Tasse Kaffee, nehme ich gern noch ne zweite... ;)
Die RTX 6000 richtet sich nicht so wirklich an Cutter ;)
https://www.heise.de/meinung/Kommentar- ... 73912.htmlRTX-4000-Grafikkarten: Nvidia, wen wollt Ihr veralbern? - Ein Kommentar
https://www.golem.de/news/pcie-anschlus ... 68488.htmlLieber neue Mainboards statt GPU-Hebebühnen und -Heckspoiler
Wenn ich sowas schon lese. Ich mach den Job jetzt 9 Jahre im SoMe Bereich und find es echt nervig das sowas immer noch nicht ernst genommen wird.
Wir reden hier von Leuten die diese Leistung aus irgendeinem Grund tatsächlich wollen/brauchen, und die deshalb auch kein Problem mit dem Preis haben - für alle anderen gibt's ja genug Alternativen.
Das ist aber schon ziemliches Mimimimi...markusG hat geschrieben: ↑Fr 23 Sep, 2022 15:48
Zum Thema Preisgestaltung:https://www.heise.de/meinung/Kommentar- ... 73912.htmlRTX-4000-Grafikkarten: Nvidia, wen wollt Ihr veralbern? - Ein Kommentar
*edit:https://www.golem.de/news/pcie-anschlus ... 68488.htmlLieber neue Mainboards statt GPU-Hebebühnen und -Heckspoiler
Naja, finde ich persönlich nun auch nicht so dramatisch, aber kann trotzdem dieses "Mogelpackung" Argument nachvollziehen - Nvidia ist da ja kein Kind von Unschuld (GTX970...). Aber am Ende des Tages glaub ich nicht dass sich die Hauptzielgruppe - Gamer - da leichtgläubig verarschen lässt^^
Die Frage ist: Funktioniert so eine Lösung oder nicht?
Solche Konstruktionen hab ich schon vor über 20 Jahren in HighEnd Workstations mit irgendwelchen Spezialanwendungskarten gesehen, die auch ziemliches Gewicht hatten.Mit der RTX-4000-Serie hat die Industrie aber offenbar den Punkt erreicht, an dem dies kein optionales Zubehör mehr zu sein scheint, sondern zwingend notwendiger Bestandteil, der direkt mit der Karte ausgeliefert wird. Einige Hersteller wie HP, Dell oder Lenovo verbauen derartiges Equipment konsequent in ihren Profi-Serien.
Nein das ist nicht die Frage (gewesen). Zumindest nicht nur. Es geht z.B. um fehlende Standards, und dass die Lösungen halt etwas lächerlich/improvisiert wirken (es wird auch von Schnüren geschrieben!).Frank Glencairn hat geschrieben: ↑Fr 23 Sep, 2022 18:10 Die Frage ist: Funktioniert so eine Lösung oder nicht?
Steht ja im Artikel:Frank Glencairn hat geschrieben: ↑Fr 23 Sep, 2022 18:10 Solche Konstruktionen hab ich schon vor über 20 Jahren in HighEnd Workstations mit irgendwelchen Spezialanwendungskarten gesehen, die auch ziemliches Gewicht hatten.
Golem.de hat geschrieben: Einige Hersteller wie HP, Dell oder Lenovo verbauen derartiges Equipment konsequent in ihren Profi-Serien.
Ich finde zB die Lösung vom 2019er Mac Pro ganz chic (verwechsel Design mal nicht mit Aussehen ;) ). Die Krux bei PCs ist halt das ganze zu standarisieren. Apple hat ja die Bequemlichtkeit eine Boutique-Lösung durchzuboxen, bei PCs wäre es halt nett wenn alles miteinander kompatibel ist und man nicht bei GPU Wechsel direkt das Gehäuse, Mainboard etc. wechseln muss.Frank Glencairn hat geschrieben: ↑Fr 23 Sep, 2022 18:10 Wäre die Befestigung an den Löchern eleganter?
Womöglich - hängt vielleicht auch davon ab wie viel "Design und Bling" man in seinem Rechner meint haben zu müssen.
Aber die reine Funktion - abseits irgendwelcher Designwünsche - ist mit den Stützen genau so gut gegeben.
Ist halt wieder
Weil ich keine 2 GPUs habe und das Teil umsonst bei der Karte dabei war. Warum was anderes verwenden?
Das war nicht an dich gerichtet, sondern eine rhetorische Frage.
Ganz genau. Ich hab mich nur über die Aussage aufgeregt das man mit nem M1 / M2 zufrieden sein kann wenn man "nur Youtube" macht. Das impliziert eben unterschwellig "Die GPU is für Leute die nen echten Job haben".Frank Glencairn hat geschrieben: ↑Fr 23 Sep, 2022 17:40 Wir reden hier von Leuten die diese Leistung aus irgendeinem Grund tatsächlich wollen/brauchen, und die deshalb auch kein Problem mit dem Preis haben - für alle anderen gibt's ja genug Alternativen.
Noch mal. Für Youtub-Videoschnitt würde ich mir wahrscheinlich keine 3090 oder jetzt eben 4090 kaufen. Auch für Games braucht man noch keine 24GB RAM. Wenn du aber 3D Simulationen/VFX, Virtual Production, machst, Neurale Netwerke trainierst oder professionelles Color Grading mit RAW Material in Danvinci Resolve machst, dann schaut die Welt schon ganz anders aus ...aber dann reden wir hald auch nicht von 5 Minuten/einer Tasse Kaffe sondern oftmals 100 und mehr Tassen :D
Absolut richtig, war nur sehr ungünstig Formuliert mit "YouTube oder Logos". Ich würde mal sagen selbst ARD/ZDF Dokus und alles was RTL und co raus hauen sowieso sind auch auf nem M1 / M2 möglich (Wenn die nicht noch auf ihren AVID Workstations hängen? Aber da bin ich raus). Solche GPUs sind vermutlich eher schon in unserem Düsseldorfer Medienhafen und seiner Werbeindustrie gut aufgehoben als sonst wo im TV.patfish hat geschrieben: ↑Fr 23 Sep, 2022 19:58Noch mal. Für Youtub-Videoschnitt würde ich mir wahrscheinlich keine 3090 oder jetzt eben 4090 kaufen. Auch für Games braucht man noch keine 24GB RAM. Wenn du aber 3D Simulationen/VFX, Virtual Production, machst, Neurale Netwerke trainierst oder professionelles Color Grading mit RAW Material in Danvinci Resolve machst, dann schaut die Welt schon ganz anders aus ...aber dann reden wir hald auch nicht von 5 Minuten/einer Tasse Kaffe sondern oftmals 100 und mehr Tassen :D
genau das meinte ich... ;)
Ich sehe da momentan nur Apple und in der Zukunft vielleicht noch andere SoC-Entwickler als ernsthaften Gegenspieler. Wenn SoCs wie die M1/M2 zumindest für Kreativanwendungen eine ernsthafte (d.h. ausreichend performante & dazu noch preiswertere und stromsparendere) Alternative zu den Nvidia-Strom- und Geldfressern werden, könnten Grafikkarten irgendwann einmal so enden wie früher Soundblaster-Karten.Blackbox hat geschrieben: ↑Sa 24 Sep, 2022 00:01 Übergeordnet interessant finde ich die Ankündigung bzw. Auffassung von Nvidia, dass das Moorsche Gesetz für ihr Grafiksegment fortan keine Gültigkeit mehr habe.
Der Plan scheint offenbar zu sein die aktuellen und kommenden Leistungszuwächse mehr oder weniger linear in Preiserhöhungen umsetzen zu können?
Wobei in diesem Video der Youtuber 30p 25p und 50p Material in eine 24fps Timeline gibt, was schon mal ziemlich sinnlos ist - und vermutlich hat er in der Edit Page auch nicht "Show All Video Frames" aktiviert, was dann die ruckelige Wiedergabe erklären würde - die hatte ich hier an meinem PC deswegen auch, trotz Ryzen 9 5900X / 128 GB Ram und RTX A6000. Ist die Option aktiviert, dann läuft alles glatt.Frank Glencairn hat geschrieben: ↑Sa 24 Sep, 2022 07:53 Wenn du, sagen wir mal so 5000,- Öcken rum in einen Rechner investierst, bekommst du aktuell bei Apple so ungefähr die selbe Leistung wie bei einem PC für's gleiche Geld.
Inwiefern sich das Verhältnis in Zukunft dahin verschiebt, daß Apple zum Billigrechner wird, hängt hauptsächlich von der Entwicklung der GPU Preise ab, da die GPU meistens der teuerste Teil eines PCs ist.
Da hast Du recht.Frank Glencairn hat geschrieben: ↑Sa 24 Sep, 2022 10:07 Ja, dieser Test ist in einigen Belangen etwas fishy, aber mir gings eigentlich mehr darum daß man für 5000,- mittlerweile so ungefähr ne ähnliche Leistung bekommt - sprich bereits jetzt nicht mehr viel um ist, wenn man den selben Betrag ausgibt.
Die eigentliche Geldersparnis (und auch bessere Nachhaltigkeit/Umweltbilanz) von PCs liegt darin, dass man sie nicht alle paar Jahre komplett austauscht, sondern je nach Bedarf nur Mainboard/CPU/RAM und/oder GPU wechselt.