Frage von cantsin:Januar 2026
Die Preise für eine RTX 5070Ti gehen gerade durch die Decke.
Habe mir heute, aus reinem Pragmatismus, eine immer noch überteuerte RTX 5070 (ohne Ti) angeschafft, weil meine als GTX 1080Ti von Nvidias aktueller Treiberversion 590 nicht mehr unterstützt wird, und es nur eine Frage der Zeit ist, bis neue Resolve-Versionen diesen Treiber benötigen... Und die Situation nicht besser werden wird, bevor die KI-Investitinsblase platzt....
Antwort von slashCAM:
Üblicherweise erscheint zu dieser Zeit auf slashCAM jedes Jahr ein kommentierter Ausblick auf die kommenden Grafikkarten von AMD, Intel und Nvidia - und was dieser für Medienschaffende an sinnvollen Optionen bei neuen Hardware Anschaffungen bedeutet. Doch dieses Jahr ist alles anders...
Hier geht es zum slashCAM Artikel:
Aktuelles: Grafikkarten werden Mangelware - spürbar teurer und keine neuen Modelle am Horizont
Antwort von cantsin:
@slashcam - Ihr habt den Artikel zweimal gepostet...
Antwort von rudi:
cantsin hat geschrieben:
@slashcam - Ihr habt den Artikel zweimal gepostet...
Du bist nur kurz zu einem ungünstigen Zeitpunkt in die Spalte zwischen zwei slashCAM-Parallel-Universen geraten ;)
Ist alles korrigiert, nur dein Beitrag zur ersten Artikel-Version steckt jetzt im anderen Universum fest. Ich hole den mal rüber...
Antwort von Alex:
Obwohl ich über mein System nicht meckern konnte, hab ich aus dem gleichen Grund auch vor ner Woche upgegraded und die betagte 1080 Ti (die aber immer noch ein solides Arbeitspferd ist) gegen ne fast neue 4070 Ti Super, die mir günstig angeboten wurde, getauscht.
Um Flaschenhälse auszuschließen, habe ich dazu noch den R7 3700x gegen einen R9 5950x getauscht und mein Mainboard/Netzteil somit ausgemaxt. Die anderen verbauten Komponenten sollten ausreichen, um mich durch die Speicherkrise zu bringen.
Ist kein High-End-PC aber genug Power unter der Haube für alles, was ich so mache... Wegen des Upgrades kommt für mich ein komplett neuer PC (Board/RAM) erst in 2-3 Jahren infrage.
Maxon Cinebench hat mir jetzt 5x mehr GPU-Leistung bescheinigt im Gegensatz zu vorher.
Alt:
1. Ryzen 7 3700x - Aorus 1080 Ti.jpg
Neu:
2. Ryzen 9 5950x - Zotac 4070 Ti SUPER 16GB AMP AIRO.jpg
Antwort von cantsin:
Alex hat geschrieben:
Obwohl ich über mein System nicht meckern konnte, hab ich aus dem gleichen Grund auch vor ner Woche upgegraded und die betagte 1080 Ti (die aber immer noch ein solides Arbeitspferd ist) gegen ne fast neue 4070 Ti Super, die mir günstig angeboten wurde, getauscht.
Genau das tue ich gerade auch - mein Rechner ist in diesem Moment beim Computerschrauber, der neben dem Wechsel der 1080Ti auch noch ein paar andere Dinge updated. Nur ist es bei mir eine 4070 statt einer 4070 Ti geworden, weil die Preise der letzteren schon in den Mond gestiegen sind.
Bei Nvidia ist das Problem, dass die 1080Ti nicht mehr vom aktuellen Nvidia-Treiber Version 590 unterstützt wird, und es nur eine Frage der ist, bis Davinci Resolve diese Treiberversion voraussetzen wird.
Antwort von Alex:
cantsin hat geschrieben:
Nur ist es bei mir eine 4070 statt einer 4070 Ti geworden, weil die Preise der letzteren schon in den Mond gestiegen sind.
Ja, hab ich auch gesehen, neu hätte ich mir die zum jetzigen Zeitpunkt auch nicht zugelegt:
123.jpg
Wenn man aber den Berichten Glauben schenken darf, ist das Ende der Fahnenstange noch nicht erreicht und wird sich natürlich auch auf den Gebrauchtmarkt auswirken. Wie gesagt ich hatte "Glück", mir wurde die 4070 Ti Super für 600 € angeboten (6 Monate alt von nem Familienvater, der gerne wieder mehr zocken wollte, aber es aus zeitlichen Gründen dann doch nicht geschafft hat... Traurig für ihn, gut für mich :))
Antwort von ElSaso:
Braucht noch wer ne 1080 TI ? ;)
Ich hab im November noch eine Maschine gekauft, der Ram davon kostet jetzt fast das 10fache....
Ist ein i9 mit ausreichend Arbeitsspeicher und 5080- bei DaVinci läuft zu 99% nur die Grafikkarte beim Arbeiten, RAM und CPU werden kaum belastet. Das ist mir jetzt erstmal so aufgefallen, nachdem es keine weiteren beschränkenden Komponenten mehr gibt.
Antwort von Clemens Schiesko:
Ich finde die Preisentwicklung auch ziemlich erstaunlich. Für die RTX 4090 habe ich im Dezember 2022 2192 Euro hingeblättert. Heute, 3 Jahre später, kostet sie neu zwischen 3200 - 3500 € (
https://www.kaufland.de/product/447351026/) und gebraucht findet man Angebote um die 2200 - 2500 € als Risikokauf (
https://www.kleinanzeigen.de/s-rtx-4090-asus-tuf/k0).
Ach und stimmt. RAM habe ich auch mal nachgeschaut. Juli 2023 für 64 GB DDR5 = 195 Euro. Heute = 1012 Euro (
https://www.amazon.de/dp/B09WN2H42Y).
Antwort von MaxSchreck:
"Clemens Schiesko" hat geschrieben:
Ich finde die Preisentwicklung auch ziemlich erstaunlich. Für die RTX 4090 habe ich im Dezember 2022 2192 Euro hingeblättert.
Bei mir RTX 4090 im Oktober 2023: 1650 Euro. Ich könnte kotzen wenn ich sehe, was hier gerade wieder abgeht.
Antwort von Rick SSon:
Man kann es auch anders betrachten:
Die meisten Menschen zocken immernoch in 1080p, vielleicht noch 1440p. Dafür reicht auch eine 6800XT easypeasy aus um Multiplayergames in 100+ fps und singleplayer in 60fps+ zu zocken. Oberhalb vom 100fps gibts kaum noch benefits, aber natürlich behaupten die displayhersteller mit ihren 1000hz monitoren was anderes 😄
Dazu bauen alle Hersteller ihre Softwarelösungen zwecks Hochskalierung und framegenerierung weiter aus. Auch wenn die Leute sicherlich gerne noch schnellere Grafikkarten zu günstigeren Preisen kaufen würden, so ist der reale Benefit für die meisten Gamer vernachlässigbar, bis gar nicht vorhanden.
Wer dennoch unbedingt 4k120fps zocken will, der hat entweder schon tief in die Tasche gegriffen, oder begnügt sich vielleicht mit einer 5080 ;-)
Der Rest spielt Handy.
Antwort von cantsin:
"Rick SSon" hat geschrieben:
Man kann es auch anders betrachten:
Die meisten Menschen zocken immernoch in 1080p, vielleicht noch 1440p.
Naja, hier in diesem Forum geht es eher um die Leute, die in Resolve & Co. flüssig schneiden wollen...
Antwort von pillepalle:
Ich überlege ja auch noch schnell upzugraden. Da kann man gerade 900,-€ sparen 🙃
zum Bild
https://www.kaufland.de/product/4486341 ... term=pad-1
VG
Antwort von cantsin:
pillepalle hat geschrieben:
Ich überlege ja auch noch schnell upzugraden. Da kann man gerade 900,-€ sparen 🙃
zum Bild
https://www.kaufland.de/product/4486341 ... term=pad-1
Und die Karte kann nicht mal h264/h264 10bit 4:2:2 decodieren...
- Poste jetzt mit meiner frisch installierten RTX 5070. Die nötigen Treiber-Updates/Neuinstallationen für Debian GNU/Linux, Ubuntu LTS und Windows 11 auf meinem Triple-Boot-Rechner waren nicht gerade trivial und nichts für nervenschwache Menschen... Wieder neue Dinge gelernt wie z.B. dass man für RTX 5...-Karten unter Linux die mir noch völlig unbekannte BIOS-/UEFI-Einstellung "Resizable BAR (ReBAR)" setzen muss, wenn man nicht in einen schwarzen Bildschirm booten will...
Antwort von MaxSchreck:
Ach, da kaufe ich doch lieber einen Brocken Gold...
Antwort von Alex:
cantsin hat geschrieben:
"Rick SSon" hat geschrieben:
Man kann es auch anders betrachten:
Die meisten Menschen zocken immernoch in 1080p, vielleicht noch 1440p.
Naja, hier in diesem Forum geht es eher um die Leute, die in Resolve & Co. flüssig schneiden wollen...
Also bei mir war und ist es immer ein Crossover. 1-2 Mal die Woche zocke ich auch gern ne Runde PUBG, BF6 o.ä..
Native Auflösung ist bei mir 1440p, also nutze ich die auch so. 100 FPS ist dabei ein guter Wert.
Nach dem Wechsel der Graka hab ich jetzt viel mehr Möglichkeiten die Grafik zu tweaken und trotzdem die FPS ü100 zu halten. Over-/Supersampling z.B. macht sich sehr schön in Games bemerkbar, ist aber auch ein Performance-Fresser. Aber dank der neuen GraKa auch kein Problem mehr :)
Antwort von DKPost:
cantsin hat geschrieben:
Die Preise für eine RTX 5070Ti gehen gerade durch die Decke.
Habe mir heute, aus reinem Pragmatismus, eine immer noch überteuerte RTX 5070 (ohne Ti) angeschafft, weil meine als GTX 1080Ti von Nvidias aktueller Treiberversion 590 nicht mehr unterstützt wird, und es nur eine Frage der Zeit ist, bis neue Resolve-Versionen diesen Treiber benötigen... Und die Situation nicht besser werden wird, bevor die KI-Investitinsblase platzt....
Kurz nach Weihnachten hatte ich hier noch gepostet, dass ich sowas schon befürchtet hatte und deswegen die Asus 5070ti Prime noch für 780€ geholt habe um meine 3080 abzulösen. Mittlerweile ist das Ding fast 300€ teurer, in gerade mal 3 Wochen...
Bin sehr happy, dass ich noch zugeschlagen hatte.
Antwort von dienstag_01:
Ich glaube, mit meiner RTX 3050 sitze ich noch jede Krise aus ;)
Antwort von cantsin:
dienstag_01 hat geschrieben:
Ich glaube, mit meiner RTX 3050 sitze ich noch jede Krise aus ;)
Bis Du 4K 10bit 4:2:2 h265 in Resolve schneiden/graden musst...
Antwort von TomStg:
Und die Karte kann nicht mal h264/h264 10bit 4:2:2 decodieren...
Du meinst wahrscheinlich encodieren.
Antwort von cantsin:
TomStg hat geschrieben:
Und die Karte kann nicht mal h264/h264 10bit 4:2:2 decodieren...
Du meinst wahrscheinlich encodieren.
Nee, decodieren (=in der Timeline GPU-beschleunigt abspielen). Die Nvidia-Karten können 10bit 4:2:2 erst ab der RTX-5000-Generation decodieren.
Antwort von dienstag_01:
cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Ich glaube, mit meiner RTX 3050 sitze ich noch jede Krise aus ;)
Bis Du 4K 10bit 4:2:2 h265 in Resolve schneiden/graden musst...
Das geht seit vielen Jahren mit den Grafikchips der Intel CPUs.
Antwort von Totao:
Hallo @rudi kannst Du mal schauen, die Verlinkung vom Artikel zum Forum ist kaputt.
Was den Inhalt angeht, ich hatte mir im Herbst einen Strix Halo mit 128GB gekauft. Im Dezember dann unmittelbar vor der Preiserhöhung noch einen zweiten. Als Wertanlage! Verrückte Welt.
Antwort von tom:
Totao hat geschrieben:
Hallo @rudi kannst Du mal schauen, die Verlinkung vom Artikel zum Forum ist kaputt.
Danke - ist gerichtet!
Antwort von cantsin:
dienstag_01 hat geschrieben:
cantsin hat geschrieben:
Bis Du 4K 10bit 4:2:2 h265 in Resolve schneiden/graden musst...
Das geht seit vielen Jahren mit den Grafikchips der Intel CPUs.
Ja, aber nicht für Besitzer von AMD-CPUs...
Das ist dann halt eine Frage der Prioritäten. Will man fürs ungefähr gleiche Geld eine CPU, die die 10bit-4:2:2-h264/h265-Decodierung hardwarebeschleunigt übernimmt (=Intel) und braucht dann keine Nvidia 5x00-Karte dafür. Oder will man eine CPU, die bessere Multicore-Performance z.B. fürs Encoding mit ffmpeg hat (=AMD) und braucht dafür eine Grafikkarte (Nvidia 50x0, oder andere Karte + Intel-GPU) die 10bit-4:2:2 h264/h265 übernimmt.
Wobei die Nvidia-Karten der 40x0- und 50x0-Generation noch den qualitativ guten, extrem schnellen und auch mit ffmpeg nutzbaren Hardware-AV1-Encoder als Extra-Bonbon bieten...
Antwort von medienonkel:
Habe ich schonmal erwähnt, dass ich meine 3090 für 1199 Euro gekauft habe?
Da grinse ich heute noch regelmäßig.
Die ARC B580 für den Zweitrechner hat eine 1070ti ersetzt. Intel bietet mit dem AI Playground einen echten Mehrwert. Sogar comfyui kommt mit der Installation mit.
Nativ läuft comfy bei manueller Installation auch erstaunlich flott mit entsprechenden Modellen für die knappen 12 GB VRAM wenn man das Text encoding auf CPU und RAM verschiebt.
Resolve verhält sich auch in 4K unauffällig. Magic Mask läuft fast in Echtzeit.
Codec Unterstützung ist auch gut, inkl. AV1.
240 Euro hat die kleine gekostet. Und die original Intel Karte sieht auch noch am ehesten nach Workstation aus.
Beim großen Rechner bin ich jetzt auch zum ersten Mal auf Wasserkühlung mit Radiator außerhalb des Gehäuses gegangen.
Eine Wohltat, weil alles kühler UND kaum noch hörbar.
Und weil ich eh mit Strom heizen muss, nutze ich den Rechner tatsächlich auch als Heizung. Teilweise auch einfach nur mit Benchmarks im Hintergrund beim Surfen 😉
Wobei es zur Zeit eher wahllos Loras zu allem möglichen sind.
Hauptsache es ist warm.
Antwort von dienstag_01:
cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Das geht seit vielen Jahren mit den Grafikchips der Intel CPUs.
Ja, aber nicht für Besitzer von AMD-CPUs...
Das ist dann halt eine Frage der Prioritäten. Will man fürs ungefähr gleiche Geld eine CPU, die die 10bit-4:2:2-h264/h265-Decodierung hardwarebeschleunigt übernimmt (=Intel) und braucht dann keine Nvidia 5x00-Karte dafür. Oder will man eine CPU, die bessere Multicore-Performance z.B. fürs Encoding mit ffmpeg hat (=AMD) und braucht dafür eine Grafikkarte (Nvidia 50x0, oder andere Karte + Intel-GPU) die 10bit-4:2:2 h264/h265 übernimmt.
Wobei die Nvidia-Karten der 40x0- und 50x0-Generation noch den qualitativ guten, extrem schnellen und auch mit ffmpeg nutzbaren Hardware-AV1-Encoder als Extra-Bonbon bieten...
Ich vrstehe deine Überlegungen. Aber es gibt Alternativen.
Antwort von TheBubble:
cantsin hat geschrieben:
Die Preise für eine RTX 5070Ti gehen gerade durch die Decke.
Habe mir heute, aus reinem Pragmatismus, eine immer noch überteuerte RTX 5070 (ohne Ti) angeschafft
Ich habe gerade mal geschaut, was die 5070Ti und 5080 heute kosten. Ist ja reiner Wahnsinn. Und die 5090er erst.
Wichtig: Die 5070 und die 5070Ti verwenden trotz des ähnlichen Namens jeweils andere GPUs.
Antwort von cantsin:
TheBubble hat geschrieben:
Wichtig: Die 5070 und die 5070Ti verwenden trotz des ähnlichen Namens jeweils andere GPUs.
Das war mir beim Kauf klar, mit einer Träne im Knopfloch...
Aber für meine 5070 habe ich 588 EUR (Amazon, open box) bezahlt, während die Ti z.Zt. knapp das doppelte kostet... Und der Preis der schnöderen 5070 sicher auch noch hochgehen wird.
Antwort von Rick SSon:
cantsin hat geschrieben:
"Rick SSon" hat geschrieben:
Man kann es auch anders betrachten:
Die meisten Menschen zocken immernoch in 1080p, vielleicht noch 1440p.
Naja, hier in diesem Forum geht es eher um die Leute, die in Resolve & Co. flüssig schneiden wollen...
Das stimmt zwar, aber die sind nicht Hauptabnehmer für NVIDIA und Co. Das waren erstmal Gamer und danach kam alles andere.
Und insofern du keinen völlig ineffizienten Codec nutzt kann man doch mit sehr vielen Geräten auf Resolve flüssig schneiden. Gerade bezüglich Resolve arbeite ich viel lieber auf dem Mac, denn da stürzt und hängt es deutlich weniger als unter Windows mit der 4090.
Das was der Mac länger zum berechnen braucht warte ich unter Windows zweimal 😄
Antwort von HerrWeissensteiner:
@Alex: Ich bin auch gerade dabei meinen 3900x mit dem 5950x auszutauschen 4070ti super habe ich schon. Danke für die Screenshots. Wieviel RAM hast du?
Ich bin am überlegen, noch eine ARC310 fürs h.265 10 Bit decoden einzubauen.
Antwort von Alex:
HerrWeissensteiner hat geschrieben:
@Alex: Wieviel RAM hast du?
4 von denen: VENGEANCE® RGB PRO (4 x 16GB) DDR4-2132 Corsair CMW32GX4M2C3200C16 (läuft mit 3.200 MHz)
Antwort von Alex:
Western Digital hat Festplatten für 2026 fast ausverkauft
Der Boom rund um künstliche Intelligenz hat bereits Speichermodule teuer gemacht, nun droht das auch für Festplatten.
https://www.golem.de/news/preisexplosio ... 05421.html
Antwort von GaToR-BN:
medienonkel hat geschrieben:
Die ARC B580 für den Zweitrechner hat eine 1070ti ersetzt. Intel bietet mit dem AI Playground einen echten Mehrwert. Sogar comfyui kommt mit der Installation mit.
Nativ läuft comfy bei manueller Installation auch erstaunlich flott mit entsprechenden Modellen für die knappen 12 GB VRAM wenn man das Text encoding auf CPU und RAM verschiebt.
Resolve verhält sich auch in 4K unauffällig. Magic Mask läuft fast in Echtzeit.
Codec Unterstützung ist auch gut, inkl. AV1.
240 Euro hat die kleine gekostet. Und die original Intel Karte sieht auch noch am ehesten nach Workstation aus.
Ich bin auch auf die B580 gegangen. Der Preis ist jetzt noch bezahlbar bei 299 Eur. H265 läuft gut.
Nur H264 wird bei mir z.T. nicht unterstützt. Habe ich aber jetzt über die Kameraeinstellung einfach verändert. So komme ich vorläufig gut klar!
Vielleicht kommt der Tag, wo der KI-Hype eine Pause macht. Wir werden sehen...
Antwort von MaxSchreck:
GaToR-BN hat geschrieben:
Vielleicht kommt der Tag, wo der KI-Hype eine Pause macht. Wir werden sehen...
Ach, hör auf damit. Im Thread über Seedance 2.0 kann der Hype gar nicht groß genug werden. Ich hoffe bald kosten 16 Gb RAM 10.000 Euro und ne RTX 5090 50.000 Euro, das wird traumhaft!
Antwort von Darth Schneider:
Vielleicht naive Fragen:
Kann es sein das es in naher Zukunft gar nicht mehr möglich sein wird sich einen bezahlbaren PC selber zusammen zu stellen ?
Weil es die Einzelteile nicht mehr (bezahlbar) zu kaufen geben wird ?
Antwort von MaxSchreck:
"Darth Schneider" hat geschrieben:
Vielleicht naive Fragen:
Kann es sein das es in naher Zukunft gar nicht mehr möglich sein wird sich einen bezahlbaren PC selber zusammen zu stellen ?
Weil es die Einzelteile nicht mehr (bezahlbar) zu kaufen geben wird ?
In naher Zukunft? Du redest von der Gegenwart.
Antwort von Bluboy:
"Darth Schneider" hat geschrieben:
Vielleicht naive Fragen:
Kann es sein das es in naher Zukunft gar nicht mehr möglich sein wird sich einen bezahlbaren PC selber zusammen zu stellen ?
Weil es die Einzelteile nicht mehr (bezahlbar) zu kaufen geben wird ?
Nein, das kann nicht sein, weil alle Kosten, letztendlich beim Kunden oder in der Insolvezmasse landen
Antwort von HerrWeissensteiner:
Nachdem der Thread hier wieder auflebt, kann ich ein kurzes Update geben. Ich habe mich ja entschieden, meinen Schnitt PC noch einmal nachzurüsten, anstatt bald neu zukaufen. Die Preise werden wohl nicht besser.
Ich habe den 3900x mit dem 5950x ersetzt. Das ging glücklicherweise schmerzfrei. Dazu habe ich eine clean Windows 11 Pro Installation gemacht und zu meiner 4070TI Super noch eine Sparkle Arc 310 in den PC gesetzt, um in den Genuss von h.265 4.2.2 decoding zu kommen. Hoffentlich kann ich damit den Proxy-Workflow hinter mir zulassen.
Windows wurde neu installiert, da auf meine alte Disk (500GB) mit Topaz KI Modellen zugemüllt war und ich nicht dauernd aufräumen will, um 30–40 GB freizuhaben. Und trotzt der steigenden Festplattenpreise habe ich noch eine 8Tb m.2 SSD gekauft, damit da auf der Projekt-Festplatte auch erst mal Platz ist. Die war davor 1 GB (und dort liegt jetzt Windows).
RAM habe ich jetztmal meine 64GB behalten. Ich komme damit nicht richtig an die Grenzen und würde gegenfalls gebraucht auf 128Gb aufrüsten.
Das hat mich gesamt 1150,- Euro gekostet. Ich bin schon gespannt, wie viel Unterschied das macht.
Antwort von cantsin:
HerrWeissensteiner hat geschrieben:
Ich habe den 3900x mit dem 5950x ersetzt. Das ging glücklicherweise schmerzfrei.
Bringt ungefähr 30-40% mehr CPU-Performance. Ein Transcoding-Job mit ffmpeg/Handbrake, der mit dem 3900x zehn Minuten dauert, verkürzt sich dann auf ca. 7,5 Minuten.
Antwort von Darth Schneider:
@Bluboy
Die Frage ist ob die Hersteller überhaupt nachkommen, wenn man sich anschaut wie immens viel Technik in den riesigen AI Rechenzentren drin steckt..
Beziehungsweise ob es sich überhaupt noch lohnt die „kleinen“ Consumer zu beliefern..?
Antwort von Jott:
Das lohnt sich schon. Consumer zahlen ein Vielfaches mehr - extrem viel mehr - als ein Massenabnehmer. Das werden sie sich nicht entgehen lassen.
Verteuerung wegen (angeblicher?) Knappheit kann auch Marketing sein.
Antwort von TheBubble:
Alte Prospekte (einfach mal im Netz nach solchen suchen) legen nahe: Anfang der 90er hat ein (aus heutiger Sicht) technisch bescheidener, dafür umso unhandlicherer Laptop auch schon mal über über 5 000, manchmal über 10 000 DM gekostet. Irgendwer muss das ja bezahlt haben, damit das Angebot Sinn machte. Vielleicht kommt das ja wieder, nur eben aufgrund sonstiger Inflation 1:1 angepasst in Euro-Preisen?
Antwort von Bluboy:
In letzter Zeit werden mehr ud mehr Mini-PCs angeboten, vielleicht ist das de neue Trend
Antwort von Darth Schneider:
Sehe ich zumindest so.
3, 4 oder von mir aus 6 Mini PCs oder Mac Minis/Mac Studios zusammen. Die können auch zu einer potenten und modularer Workstation werden….Man könnte alle 5 Jahre einen dranhängen, oder einen alten Mini Rechner durch einen neueren ersetzen…
Antwort von Bluboy:
"Darth Schneider" hat geschrieben:
Sehe ich zumindest so.
3, 4 oder von mir aus 6 Mini PCs oder Mac Minis/Mac Studio zusammen, die können auch zu einer potenten und modularen Workstation werden….
Hab das Video vom Mac-Stapel geshen, denke aber mehr an die breite Masse, während z.B. Filmemacher weiteerhin das kaufen was sie vermeintlich benötigen
Antwort von Darth Schneider:
Die breite Masse, wird vermehrt nur noch auf Notebooks beziehungsweise auf iMac Style Rechner, oder Mini PCs oder Mac Minis setzen.
Grosse laute Desktop Kisten werden in naher Zukunft wahrscheinlich nur noch den Profis und den Nerds vorbehalten sein.
90% oder mehr, werden das doch gar nicht mehr benötigen…
Antwort von Jott:
Freiwilliger Verzicht auf die dicken Fönstations? Meinst du wirklich?
Antwort von Darth Schneider:
Gut für die Leute mit langem Haar könnten die Fonstations auch in Zukunft spannend bleiben.
Arbeit und Föhnfrisur in einem…;))))
Antwort von Drushba:
Ich sehe momentan überhaupt keine Vorteile von hochpreisigen Kisten/Grakas für zu Hause. Bei mir tut es ein MacBook Air M2 mit 24 GB RAM und 1TB sogar für den Schnitt mit Avid und Pro Tools, im Gegensatz zu früher reicht die Geschwindigkeit oftmals jetzt schon bei solchen Einsteigermodellen für den täglichen Schnittkram aus. Lustigerweise läuft über Ollama sogar lokale KI darauf, wenn auch nur experimentell, aber mit einigermaßen erträglicher Geschwindigkeit (dafür gefühlt auch mit weniger Halus als bei den großen Modellen)). Auf der anderen Seite kann KI-Content derzeit doch viel ökonomischer auf gemieteten Servern in der Cloud generiert werden. Eine H100 mit 80 GB kostet oft so um die zwei Euro pro Stunde und wird sekundengenau abgerechnet, eine RTX6000 mit 96GB monatsweise gemietet kostet um die 500 Euro. Das läuft i.d.R. beschwerdefrei und ohne viel Frickeln, die Preise lassen sich dabei ideal auf Projekte übertragen, können direkt mit einem Projekt verrechnet und auch sofort von der Steuer abgesetzt werden. Diese Mietserver sind aus meiner Sicht wie mit 9000 PS per (zuverlässig funktionierender)) Bahn auf Langstrecke zu fahren, statt jahrelang auf den vergleichsweise schwachbrüstigen Tesla zu sparen, um damit die gleiche Distanz im typischen deutschen Autobahn-Stress abzureißen. ;-)
Antwort von Darth Schneider:
Da bin ich voll bei dir.
Ich gehe da sogar noch weiter. Wer nicht oft 3D Animationen oder Ähnliches macht.
Der braucht heute eigentlich nicht mehr als ein M2, bis M4Pro Mac Mini mit ein paar externen Ssds kann.
Egal ob Profi oder Amateur.
Ausser es geht in Richtung 8K oder mehr K, oder um abendfüllende Kinofilme mit zig Spezial Effekten.