Newsmeldung von slashCAM:
Wer oft Videos bearbeitet, benötigt besonders leistungsfähige Hardware. Wir sagen, welche Systeme wir aktuell kaufen würden - und auch warum.
Hier geht es zum slashCAM Artikel:
Ratgeber: Die besten Videoschnitt-Rechner für 4K/8K und KI-Bearbeitung - Sommer 2024
Antwort von cantsin:
Ab diesem Artikel lässt sich gut ablesen, dass die Zeit von modularen Desktop-PCs langsam abläuft und SoCs in naher Zukunft das Arbeitsgerät von 90% aller Bild- und Videobearbeiter werden.
Es ging mit den M1-Macs los, und jetzt auch in der Windows-Welt mit den brandneuen Snapdragon ARM-Laptops. In nicht allzu ferner Zeit werden stationäre Rechner folgen, und klassische x86-PCs werden zu Dinosauriern...
Antwort von Frank Glencairn:
Mit solchen Prophezeihungen wäre ich vorsichtig.
Erinnert sich noch jemand daran:
Der PC stirbt einen langsamen Tod
Zum fünften Mal in Folge sinken die Verkaufszahlen pro Quartal. Auch wenn der PC in weiten Teilen der Welt einen zweiten Frühling feiert, wird er als zentrales Technik-Werkzeug zum Auslaufmodell. Die Zukunft gehört den Web-Handys.
2007
Der Computer auf dem Schreibtisch stirbt aus
Der Desktop war lange ein Prestigeobjekt – schwer und laut, aber mächtig. Das mobile Internet macht ihn überflüssig. Hersteller wie AMD und Intel kämpfen mit dem Wandel.
2013
Der Desktop-PC stirbt langsam aus
In immer weniger deutschen Haushalten steht ein Desktop-PC. Stattdessen setzen die Deutschen auf mobile Computer wie Notebooks und Tablet-PCs.
2013
Der PC stirbt einen schönen Tod
Auf einen PC kommen inzwischen fünf verkaufte Smartphones. Die Welt wird nicht nur digitaler, sondern auch immer mobiler.
Schon im sechsten Jahr in Folge ist der Absatz von Laptops und Desktop-Computern gesunken. Das hat das Marktforschungsunternehmen Gartner ausgerechnet.
2018
Antwort von MrMeeseeks:
Meine auch letztens gelesen zu haben dass die Verkäufe nun wieder ansteigen bei der PC Hardware.
Die großen stationären Kisten wird es noch lange geben weil sich mit diesen eben die größte Leistung abrufen lässt.
Vor einigen Tagen ist ein Spiel erschienen welches nur mit wirklich aktueller Hardware ordentlich läuft und dennoch hatte es direkt zum Release 2 Millionen aktive Spieler. Sowas würde auf einer Mac Gurke nie laufen.
Antwort von cantsin:
Ich schrieb ja nicht, dass die stationären Rechner aussterben, sondern die klassische PC-Architektur.
Lest Euch mal den Artikel oben vollständig durch und was darin über die architekturbedingt drastisch lahmere Hauptspeicheranbindung klassischer PCs ggü. modernen SoCs steht.
Es wird in der Zukunft immer noch eine Kiste auf oder neben dem Schreibtisch stehen, aber dann eben mit hochintegriertem Snapdragon/ARM-basierten Board + Chips (CPU, GPU, RAM) statt heutiger Boards mit aufgesteckten Intel-/AMD-CPUs, RAM-Riegeln und Grafikkarte.
Antwort von Bruno Peter:
Leute schön und gut die Hardwaretipps hier, aber:
Viel wichtiger ist erst einmal zu klären welche Eigenschaften hat das Videomaterial welches auf
dem PC jetzt und in Zukunft bearbeitet werden soll und ob die maßgeblichen Komponenten
kompatibel dazu sind. Wird z.B. HEVC, MOV oder ProRes, 8 oder 10/12bit, 4:2:0, 4:2:2 oder gar 4:4:4
im erweiterten Farbraum BT.2020 etc. editiert und soll die Vorschau bei einem hohen Timeline-Belastung
in 50/60p editiert werden. Nach dem man das abgeklärt hat, dann muss man halt dafür
geeignete Komponenten finden. Also den PC erst dann erst bauen, wenn abgeklärt wird was damit
bearbeitet werden soll.
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Ich schrieb ja nicht, dass die stationären Rechner aussterben, sondern die klassische PC-Architektur.
Lest Euch mal den Artikel oben vollständig durch und was darin über die architekturbedingt drastisch lahmere Hauptspeicheranbindung klassischer PCs ggü. modernen SoCs steht.
Es wird in der Zukunft immer noch eine Kiste auf oder neben dem Schreibtisch stehen, aber dann eben mit hochintegriertem Snapdragon/ARM-basierten Board + Chips (CPU, GPU, RAM) statt heutiger Boards mit aufgesteckten Intel-/AMD-CPUs, RAM-Riegeln und Grafikkarte.
Kann ich mir ehrlich gesagt nicht vorstellen.
Solche "fest verlöteten Systeme" sind starr, umständlich, unsicher, unflexibel und extrem einschränkend.
Du kannst keinen Speicher nachrüsten, oder nicht mal schnell eine kaputte Komponente tauschen (was mitten in einer zeitkritischen Produktion schnell ein Problem werden kann). Ne bessere GPU oder nen neuen Prozessor mal schnell rein stecken ist natürlich auch nicht drin etc.
Also alles nur Nachteile - wo soll da der Fortschritt sein?
Und das alles nur weil der Speicher etwas schneller angebunden ist?
Wie der Artikel zeigt, sind PCs mit entsprechender Ausstattung, den Macs trotzdem immer noch weit überlegen.
Ich frag mich bei sowas immer zuerst: was ist für mich dabei drin?
Ich finde beim besten Willen nix.
Antwort von Jörg:
Der klassische PC stirbt!,
genau wie micro 4 thirds...
Mögen beide noch lange leben.
Antwort von GaToR-BN:
Die Frage ist eher, ob und wann Intel/AMD bzw. neuen Arm-Chips die Performance von Apple erreichen.
Ich hätte gerne ein Notebook das mit unter 50 Watt der mein Desktop-Monster mit 250 Watt ersetzt. Mal sehen wie sich der Snapdragon Elite macht...
Antwort von iasi:
GaToR-BN hat geschrieben:
Die Frage ist eher, ob und wann Intel/AMD bzw. neuen Arm-Chips die Performance von Apple erreichen.
Ich hätte gerne ein Notebook das mit unter 50 Watt der mein Desktop-Monster mit 250 Watt ersetzt. Mal sehen wie sich der Snapdragon Elite macht...
Gibt´s doch schon längst.
Heutige Notebooks sind so leistungsfähig, wie Desktop-Monster vor wenigen Jahren. Testverarbeitung etc. sind längst kein Problem mehr.
Die Rechenleistung, die man jedoch für die heutigen Anwendungen benötigt, sind sehr viel höher.
8k/50p-Raw mal eben entrauschen, verlangt dem Rechner schon etwas ab.
Und mit der Rechen-Power nehmen auch in Zukunft die Anforderungen zu.
Relight in Resolve bringt heute auch den stärksten Desktop-Rechner ins schwitzen.
Antwort von markusG:
cantsin hat geschrieben:
Es wird in der Zukunft immer noch eine Kiste auf oder neben dem Schreibtisch stehen, aber dann eben mit hochintegriertem Snapdragon/ARM-basierten Board + Chips (CPU, GPU, RAM) statt heutiger Boards mit aufgesteckten Intel-/AMD-CPUs, RAM-Riegeln und Grafikkarte.
Wird nicht passieren - bei hochintegrierten SoCs wäre das reine Platzverschwendung. Und bei allem was modular sein muss macht so eine SoC keinen Sinn, da Modularität beschnitten wird, der KSP von den "Kisten". Siehe aktueller Mac Pro - Aufrüstung der GPU Leistung - geht nicht...(Okay ist zugegebenermaßen ein eher ein Apple-spezifisches Problem).
Wo es natürlich viel Sinn macht ist im mobilen Bereich und natürlich IoT. Da geht es um Effizienz, nicht um "Leistung first".
Und es fließen natürlich Technologien rüber, sieht man ja an der aktuellen Desktop CPU Generation, mit zunehmendem AI-Fokus, Effizienz-Kernen usw.
Antwort von iasi:
Wenn´s auf pure Leistung ankommt, ist Effizienz nicht mehr im Fokus:
zum Bild
https://www.pugetsystems.com/wp-content ... ble_DR.jpg
zum Bild
Antwort von cantsin:
markusG hat geschrieben:
cantsin hat geschrieben:
Es wird in der Zukunft immer noch eine Kiste auf oder neben dem Schreibtisch stehen, aber dann eben mit hochintegriertem Snapdragon/ARM-basierten Board + Chips (CPU, GPU, RAM) statt heutiger Boards mit aufgesteckten Intel-/AMD-CPUs, RAM-Riegeln und Grafikkarte.
Wird nicht passieren - bei hochintegrierten SoCs wäre das reine Platzverschwendung.
Ist doch in der Mac-Welt längst passiert?!? Mit den aktuellen Mac Mini/Mac Studio-Modellen?
Ich zitiere noch mal den Slashcam-Artikel:
Denn selbst die modernsten Mainboards für Desktop Rechner können nur mit zwei RAM-Bänken (Dual Channel RAM) bestückt werden, was bei günstigen DDR4-Modellen gerade mal Datenraten im Bereich von ungefähr 30 GB/s ermöglicht. Und sogar die teuersten Desktop-Boards mit zwei DDR5 Kanälen schaffen in Kombination mit dem teuersten RAM nur knapp 80 GB/s, was zwar für viele Fälle ausreichend scheint, jedoch nicht besonders zeitgemäß ist. Eine schnelle Hauptspeicheranbindung ermöglicht nicht nur besonders viele Farbkorrektur-Masken in Resolve, sondern erhöht auch allgemein den flüssigen/reibungslosen Ablauf vieler Funktionen der Bedienoberfläche.
Wirklich schlecht sind die typischen 70 GB/s natürlich auch nicht, aber wenn man auf Macs schielt, die aktuell bis zu 800 GB/s hinbekommen, sehen Desktop-PCs in dieser Disziplin einfach alt aus.
Bei den aktuellen Macbooks und dem Mac Mini sehen wir doch, dass SoCs hinreichende Leistung selbst für Resolve, 10bit-h265 und Raw-Video bieten und das selbst bei Apple niedrigeren Preisen als für PC-Systeme mit vergleichbarer Performance.
Da jetzt die erste Generation von ARM-Hochleistungs-SoC-Notebooks für WIndows auf den Markt kommt, wiederholt sich das ganze Spiel in der Windows-Welt. Und absehbar wieder so, dass die Windows-Systeme erheblich preiswerter als die Apple-Systeme sein werden.
Der Punkt ist nicht, dass sich jemand für höchste Workstation-Leistung immer noch einen PC für ein paar tausend Euro bauen wird. Sondern, was passiert, wenn wie bei Apple in der Windows-Welt ein SoC-ARM-Rechner für 700-1500 EUR Leistung bringt, die den meisten Videobearbeitern genügt und gleichpreisige klassische Intel-/AMD-PCs deutlich übertrifft. Dann ändert sich, wie bei Apple, der Normal- bzw. Regelfall.
Antwort von iasi:
cantsin hat geschrieben:
markusG hat geschrieben:
Wird nicht passieren - bei hochintegrierten SoCs wäre das reine Platzverschwendung.
Ist doch in der Mac-Welt längst passiert?!? Mit den aktuellen Mac Mini/Mac Studio-Modellen?
Ich zitiere noch mal den Slashcam-Artikel:
Denn selbst die modernsten Mainboards für Desktop Rechner können nur mit zwei RAM-Bänken (Dual Channel RAM) bestückt werden, was bei günstigen DDR4-Modellen gerade mal Datenraten im Bereich von ungefähr 30 GB/s ermöglicht. Und sogar die teuersten Desktop-Boards mit zwei DDR5 Kanälen schaffen in Kombination mit dem teuersten RAM nur knapp 80 GB/s, was zwar für viele Fälle ausreichend scheint, jedoch nicht besonders zeitgemäß ist. Eine schnelle Hauptspeicheranbindung ermöglicht nicht nur besonders viele Farbkorrektur-Masken in Resolve, sondern erhöht auch allgemein den flüssigen/reibungslosen Ablauf vieler Funktionen der Bedienoberfläche.
Wirklich schlecht sind die typischen 70 GB/s natürlich auch nicht, aber wenn man auf Macs schielt, die aktuell bis zu 800 GB/s hinbekommen, sehen Desktop-PCs in dieser Disziplin einfach alt aus.
Bei den aktuellen Macbooks und dem Mac Mini sehen wir doch, dass SoCs hinreichende Leistung selbst für Resolve, 10bit-h265 und Raw-Video bieten und das selbst bei Apple niedrigeren Preisen als für PC-Systeme mit vergleichbarer Performance.
Da jetzt die erste Generation von ARM-Hochleistungs-SoC-Notebooks für WIndows auf den Markt kommt, wiederholt sich das ganze Spiel in der Windows-Welt. Und absehbar wieder so, dass die Windows-Systeme erheblich preiswerter als die Apple-Systeme sein werden.
Der Punkt ist nicht, dass sich jemand für höchste Workstation-Leistung immer noch einen PC für ein paar tausend Euro bauen wird. Sondern, was passiert, wenn wie bei Apple in der Windows-Welt ein SoC-ARM-Rechner für 700-1500 EUR Leistung bringt, die den meisten Videobearbeitern genügt und gleichpreisige klassische Intel-/AMD-PCs deutlich übertrifft. Dann ändert sich, wie bei Apple, der Normal- bzw. Regelfall.
Wenn ein Rechner bis zu 4mal schneller die geforderte Aufgabe abarbeitet, als der Mac, dann ist das ein durchaus signifikanter Unterschied.
|
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Ich zitiere noch mal den Slashcam-Artikel:
Ich auch:
Wer viel nackte GPU Rechenleistung für seine Effekte sucht, bekommt am Mac "nur" maximal 27.2 TFLOPS FP32-Rechenleistung (M2 Ultra, ab ca. 6000 Euro) während man bei Nvidia aktuell unter 1.800 Euro rund die dreifache GPU-Rechenleistung erhält (85.03 TFLOPS (FP32), RTX 4090). "On top" bekommt man mit einer Nvidia Karte auch noch eine sehr gute Unterstützung für KI-beschleunigte Effekte.
Diese SoCs/Arm/M Technik ist hauptsächlich für Stromsparer interessant (also Laptops) - wenn es wirklich um reine Leistung geht (auch um Leistung per Euro) sind modulare Custombuild-Workstations nicht zu toppen.
Antwort von markusG:
cantsin hat geschrieben:
Ist doch in der Mac-Welt längst passiert?!? Mit den aktuellen Mac Mini/Mac Studio-Modellen?
Genau die Modelle sind ja eben nicht der "Desktop" - sondern Mini-PCs (okay das Studio ist nen Zwitter). Den Mac Pro gibt es ja auch noch, und da ist es Platzverschwendung. Der Mac Mini wird ja nun angeblich auch noch weiter geschrumpft, da macht das alles auch Sinn (ebenso bei nem AIO a la iMAC). Aber nicht bei einem Computer den man sich unterm Schreibtisch stellt.
cantsin hat geschrieben:
Da jetzt die erste Generation von ARM-Hochleistungs-SoC-Notebooks für WIndows auf den Markt kommt, wiederholt sich das ganze Spiel in der Windows-Welt.
Bisher hinkt ARM noch hinterher (ob's an Windows liegt...). Apple hat da eine andere Position.
cantsin hat geschrieben:
wenn wie bei Apple in der Windows-Welt ein SoC-ARM-Rechner für 700-1500 EUR Leistung bringt, die den meisten Videobearbeitern genügt und gleichpreisige klassische Intel-/AMD-PCs deutlich übertrifft. Dann ändert sich, wie bei Apple, der Normal- bzw. Regelfall.
Ist ja nicht der Fall wie im Artikel von Slashcam beschrieben (siehe Franks Post). Interessant sind ja nicht irgendwelche Specs wie Datendurchsatz, sondern das was am Ende dabei rauskommt. Und wenn Platz (oder Lautstärke :P) egal ist überholt ne Mittelklasse-GPU einen ARM-PC in höchster Ausstattung (aktuell Mac Studio). Oder genauer: kommt auf den Aufgabenbereich an (Blender anyone? Unreal Engine?). Zumal bei Apple zusätzlich keine eGPU möglich ist, k.A. wie es bei Qualcom & co ausschaut...
Für viele Arbeiten reicht das alles bisher schon alles längst, da geht es dann um sowas wie Akkulaufzeit. Das ist beim "Desktop" halt nicht unbedingt top prio...
*edit: mit den aktuellen AMD x86-APUs mit integrierter Grafikkarte soll es sich wohl auch bereits gut arbeiten lassen, hatten sogar neulich hier im Forum jmd der davon erzählt hat. Da würde ARM jetzt nichts beitragen außer Strom sparen (ist jetzt nicht verkehrt, aber primär für mobil interessant).
**edit: gerade Apple hat beim Umstieg auf ARM gezeigt, welche Probleme (Inkompatibilitäten, Instabilitäten bei Emulation usw.) es teils auch noch Jahre später gab; und da gibt es keine Zeichen, dass es bei Windows besser läuft, eher schlechter (insb. Performance)...
Antwort von GaToR-BN:
iasi hat geschrieben:
GaToR-BN hat geschrieben:
Die Frage ist eher, ob und wann Intel/AMD bzw. neuen Arm-Chips die Performance von Apple erreichen.
Ich hätte gerne ein Notebook das mit unter 50 Watt der mein Desktop-Monster mit 250 Watt ersetzt. Mal sehen wie sich der Snapdragon Elite macht...
Gibt´s doch schon längst.
Heutige Notebooks sind so leistungsfähig, wie Desktop-Monster vor wenigen Jahren. Testverarbeitung etc. sind längst kein Problem mehr.
Geben ja. Aber für 3.000 Eur plus X (14900hx 4090m) und nicht mit der Effizienz wie bei Apple.
Die Notebooks mit Snapdragon Elite beginnen ab 1000 Eur. Hoffe, dass Windows on Arm sich in 1 - 2 Jahren gut entwickelt hat. I
Antwort von iasi:
GaToR-BN hat geschrieben:
iasi hat geschrieben:
Gibt´s doch schon längst.
Heutige Notebooks sind so leistungsfähig, wie Desktop-Monster vor wenigen Jahren. Testverarbeitung etc. sind längst kein Problem mehr.
Geben ja. Aber für 3.000 Eur plus X (14900hx 4090m) und nicht mit der Effizienz wie bei Apple.
Die Notebooks mit Snapdragon Elite beginnen ab 1000 Eur. Hoffe, dass Windows on Arm sich in 1 - 2 Jahren gut entwickelt hat. I
Es gibt auch Notebooks für 300 Euro.
Es ist doch auch die Frage, welche Leistung benötigt und von den Notebooks auch geliefert wird.
Das Apple Notebook hier ist auch nicht gerade billig, hängt bei manchen Funktionen aber doch beträchtlich und dann auch merklich hinter:
zum Bild
Antwort von GaToR-BN:
iasi hat geschrieben:
Es gibt auch Notebooks für 300 Euro.
Sowas habe ich jetzt als Unterwegsrechner. Darauf läuft Resolve nur bis zur Version 17.4.
Keine Ahnung was hier das Limit ist. Ist ein alter i7-5600, 16 GB sollte eigentlich reichen.
Antwort von iasi:
GaToR-BN hat geschrieben:
iasi hat geschrieben:
Es gibt auch Notebooks für 300 Euro.
Sowas habe ich jetzt als Unterwegsrechner. Darauf läuft Resolve nur bis zur Version 17.4.
Keine Ahnung was hier das Limit ist. Ist ein alter i7-5600, 16 GB sollte eigentlich reichen.
GPU und ihr Speicher möglicherweise.
Selbst eine Nvidia 3080 kann nicht mehr alles, was Resolve mittlerweile so alles bietet.
Nur mal eben 8k abspielen zu können, reicht leider nicht mehr aus.
Antwort von cantsin:
markusG hat geschrieben:
Genau die Modelle sind ja eben nicht der "Desktop" - sondern Mini-PCs (okay das Studio ist nen Zwitter).
Dann missverstehen wir uns einfach. In meinem Sprachverständnis gibt es (a) Mobilrechner und (b) Desktop- (bzw. stationäre) Computer, wobei unter letztere auch Mini-PCs fallen.
(Und wenn ich mir den Wikipedia-Artikel "Desktop Computer" durchlese, habe ich wohl recht: https://en.wikipedia.org/wiki/Desktop_computer "Desktop computer" bedeutet ja auch im Wortsinne "Rechner, der auf dem Schreibtisch steht".)
Und wenn Platz (oder Lautstärke :P) egal ist überholt ne Mittelklasse-GPU einen ARM-PC in höchster Ausstattung (aktuell Mac Studio).
In Benchmarks. Was in der Praxis aber oft relevanter ist, dass z.B. der ARM-Mac 10bit 4:2:2-h265-Material hardwarebeschleunigt de- und enkodiert und der Rechner mit der fetten Nvidia-GPU nicht. Und die Mittelklasse-GPU kostet immer noch rund 600 EUR...
Antwort von iasi:
cantsin hat geschrieben:
markusG hat geschrieben:
Genau die Modelle sind ja eben nicht der "Desktop" - sondern Mini-PCs (okay das Studio ist nen Zwitter).
Dann missverstehen wir uns einfach. In meinem Sprachverständnis gibt es (a) Mobilrechner und (b) Desktop- (bzw. stationäre) Computer, wobei unter letztere auch Mini-PCs fallen.
(Und wenn ich mir den Wikipedia-Artikel "Desktop Computer" durchlese, habe ich wohl recht: https://en.wikipedia.org/wiki/Desktop_computer "Desktop computer" bedeutet ja auch im Wortsinne "Rechner, der auf dem Schreibtisch steht".)
Und wenn Platz (oder Lautstärke :P) egal ist überholt ne Mittelklasse-GPU einen ARM-PC in höchster Ausstattung (aktuell Mac Studio).
In Benchmarks. Was in der Praxis aber oft relevanter ist, dass z.B. der ARM-Mac 10bit 4:2:2-h265-Material hardwarebeschleunigt de- und enkodiert und der Rechner mit der fetten Nvidia-GPU nicht. Und die Mittelklasse-GPU kostet immer noch rund 600 EUR...
Aber genau das ist in der Praxis doch längst kein Problem mehr.
Ob das Prozessing von h265-Material nun mir 200 oder mit 330fps geschieht, merkt man nicht.
Wenn hingegen das Magic Mask-Tracking fast 4mal so lange dauert, weil der Rechner statt 40fps nur 11fps schafft, merkt man das ziemlich.
Wenn Relight mit 18fps läuft, ist das noch akzeptabel - bei 6fps wird´s schon zäh.
Antwort von markusG:
cantsin hat geschrieben:
Dann missverstehen wir uns einfach. In meinem Sprachverständnis gibt es (a) Mobilrechner und (b) Desktop- (bzw. stationäre) Computer, wobei unter letztere auch Mini-PCs fallen.
Nun, diese Mini-PCs mit ARM (ob Apple oder künftig Qualcom) haben keinen Vorteil gegenüber Laptops (außer evtl. mehr Anschlüsse), daher sehe ich sie nicht wirklich relevant als Unterscheidungsmerkmal ggü. "Tower" PCs. Und wie gesagt sind wir bereits bei ausreichender Leistung, egal ob Mac Mini oder AMD APU.
cantsin hat geschrieben:
In Benchmarks. Was in der Praxis aber oft relevanter ist, dass z.B. der ARM-Mac 10bit 4:2:2-h265-Material hardwarebeschleunigt de- und enkodiert und der Rechner mit der fetten Nvidia-GPU nicht. Und die Mittelklasse-GPU kostet immer noch rund 600 EUR...
Das übernehmen dann die Intel-CPUs (bz. iGPUs) afaik seit der 11. Generation - auch die Einstiegsmodelle; und bei einem Desktop mit AMD CPU kann man sich eine ARC GPU dazustecken, falls das wirklich notwendig ist; idR wird das unnötig sein da man ja nicht auf die Leistungsaufnahme schielen muss. Und bei der Pugetlist kommt man jedenfalls auch mit ner zB RTX3080 noch sehr gut weg - wie gesagt geht's nicht um nackte Zahlen aufm Papier, sondern was am Ende nutzbar ist und was man für Projekte/Assets nutzt.
Ich sehe da den Punkt bei Effizienz, keine Frage - aber nicht bei der reinen Leistung. Für die anderen ist dies wichtig, für die anderen das.
Antwort von cantsin:
markusG hat geschrieben:
Ich sehe da den Punkt bei Effizienz, keine Frage - aber nicht bei der reinen Leistung. Für die anderen ist dies wichtig, für die anderen das.
Ja, und die Frage ist halt, was dann zum Mainstream wird. Wenn zur Effizienz noch bessere Performance in der +/- 1000 EUR-Preisklasse hinzukommt, und die Geräte für die meisten Bildbearbeiter "genug gut" sind, wird sich das IMHO durchsetzen. Bei den Macs haben ich jedenfalls noch keine Klagen über den Architekturwechsel gehört, und der Anteil Mac-Nutzer in unser Community ist ja hoch.
Denn auch das Argument der Aufrüstbarkeit relativiert sich bei klassischen PCs ziemlich stark, wenn man nicht kontinuierlich nachrüstet, sondern nur ca. alle 5 Jahre mehr Leistung haben will. Dann sind i.d.R neben der neuen CPU und neuen GPU ein neues Mainboard, neuer passender RAM und oft auch ein neueres Netzteil nötig und bleibt vom alten Rechner kaum mehr als das Gehäuse und die Laufwerke.
Antwort von VBehrens:
Wer wirklich ein TOP System zum Videoschnitt möchte, muß deutlich mehr Geld ausgeben.
Die im Artikel genannten Geräte würde ich deswegen eher als "Spielzeug für Energiesparer" bzeichnen.
Ich spare nicht an Energie, um wirklich schnell Videos zu schneiden und zu rendern.
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Ja, und die Frage ist halt, was dann zum Mainstream wird. Wenn zur Effizienz noch bessere Performance in der +/- 1000 EUR-Preisklasse hinzukommt, und die Geräte für die meisten Bildbearbeiter "genug gut" sind, wird sich das IMHO durchsetzen.
Das ist als ob ich fragen würde ob sich eher ein Ferrari oder ein Traktor durchsetzten wird.
Wir reden von völlig verschiedenen Tools für verschiedene Anwendungen, die dann halt alle ihre Vor- und Nachteile haben.
Wenn jemand wirklich gezwungen ist mobil zu arbeiten (also auf Akkus angewiesen ist), dann ist Stromsparen halt das Wichtigste vor allem anderen.
Jemand der unter Zeitdruck möglichst viele Renderjobs durchpumpen muß, aber genug Steckdosen hat, wird dann sicher zu einer potenten Workstation greifen, weil der Strom gar keine Rolle dabei spielt.
Horses for courses halt.
Daß nicht das Bessere der Feind des Guten ist, sondern das "gut genug" der Feind des Besseren, da bin ich ganz bei dir.
Obendrauf kommt noch der Faktor Faulheit/Bequemlichkeit, der oft genug noch viel schwerer wiegt.
Auf Akku zu arbeiten - weil selbst wenn Steckdosen vorhanden sind - ist ein Kabel einstecken für viele ja schon eine unzumutbare Härte.
cantsin hat geschrieben:
Denn auch das Argument der Aufrüstbarkeit relativiert sich bei klassischen PCs ziemlich stark, wenn man nicht kontinuierlich nachrüstet ...
So lange es Gamer gibt (und das ist eine gigantische Industrie), so lange werden die Leute nicht 5 Jahre warten, bis sie das neueste Spiel endlich ruckelfrei zocken können. Und auch die Schwemme an AI Tools, die in immer mehr Programmen stecken, werden dafür sorgen, daß der Wunsch nach einer neuen GPU z.B. oder mehr RAM relativ schnell aufkommt.
IMHO ist auch die schnelle, bequeme und einfache Reparierbarkeit ein wichtiges Argument.
Wenn mal ne Komponente ausfällt kann ich die schnell selbst austauschen und weiter arbeiten.
Bei nem fest verlöteten System kannst du gar nix machen, das ist dann halt nur noch ein Türstopper - oder du mußt es irgendwohin einschicken und dann ewig auf die Reparatur warten, die dann bei so einem System entsprechend aufwändig ist und kostet.
Oft werden die Kosten dann den Zeitwert übersteigen, und wir sind wieder beim Türstopper.
Antwort von Skeptiker:
VBehrens hat geschrieben:
Wer wirklich ein TOP System zum Videoschnitt möchte, muß deutlich mehr Geld ausgeben.
Die im Artikel genannten Geräte würde ich deswegen eher als "Spielzeug für Energiesparer" bzeichnen.
Ich spare nicht an Energie, um wirklich schnell Videos zu schneiden und zu rendern.
Ich frage mich natürlich, warum es bei Dir so rasend schnell gehen muss:
a) Weil Deine Firmen-Kunden /Auftraggeber die Ergebnisse am liebsten sofort sehen möchten.
b) Weil Du stets 'auf heissen Kohlen sitzt' und Ungeduld Dein Naturell ist.
c) Einfach, weil man's kann - und weil das das Beste gerade gut genug ist (so wie der Ferrari in der Garage mit seinen 3 Sek. von 0 auf 100).
Antwort von pillepalle:
@ Skeptiker
Ich nehme Antwort a) und Frage das Publikum :)
Als ich noch auf dem Laptop geschnitten habe musste ich mir oft Ausreden einfallen lassen, warum etwas so lange dauert und super beschäftigt tun. In Wirklichkeit war einfach mein Laptop überfordert, aber das wollte ich als Grund nicht angeben. Es gibt nichts blöderes, als wenn man etwas erledigen muss und der Rechner streikt, bzw. ewig braucht um etwas zu erledigen. Jetzt komme ich langsam wieder in die Situation, wo mein Desktop für vieles schon etwas länger braucht. Das ist mir für meine eigenen Sachen egal, aber nicht wenn ich etwas fertig machen muss.
VG
Antwort von TomStg:
VBehrens hat geschrieben:
Ich spare nicht an Energie, um wirklich schnell Videos zu schneiden und zu rendern.
Natürlich nicht - schon gar nicht bei der vergleichsweise lächerlichen Leistungsaufnahme eines Rechners.
Antwort von Jost:
cantsin hat geschrieben:
markusG hat geschrieben:
Genau die Modelle sind ja eben nicht der "Desktop" - sondern Mini-PCs (okay das Studio ist nen Zwitter).
Dann missverstehen wir uns einfach. In meinem Sprachverständnis gibt es (a) Mobilrechner und (b) Desktop- (bzw. stationäre) Computer, wobei unter letztere auch Mini-PCs fallen.
(Und wenn ich mir den Wikipedia-Artikel "Desktop Computer" durchlese, habe ich wohl recht: https://en.wikipedia.org/wiki/Desktop_computer "Desktop computer" bedeutet ja auch im Wortsinne "Rechner, der auf dem Schreibtisch steht".)
Und wenn Platz (oder Lautstärke :P) egal ist überholt ne Mittelklasse-GPU einen ARM-PC in höchster Ausstattung (aktuell Mac Studio).
In Benchmarks. Was in der Praxis aber oft relevanter ist, dass z.B. der ARM-Mac 10bit 4:2:2-h265-Material hardwarebeschleunigt de- und enkodiert und der Rechner mit der fetten Nvidia-GPU nicht. Und die Mittelklasse-GPU kostet immer noch rund 600 EUR...
Ganz Deiner Meinung. Dazu kommen die aktuellen Stabilitätsprobleme bei Intel. Hardware-Bug ist Mist. Außerdem: In welchem Umfang wird gedrosselt, damit in den Mini-Gehäusen der Hitzetod nicht eintritt? Was an Komponenten verbaut ist, sagt nichts über die tatsächliche Leistungsfähigkeit aus. Bei Mobilgeräten bleibt im Grunde nur ein Apple. Was die sich aber traditionell sehr gut bezahlen lassen.
Ist kompliziert: Hier wird zum M2 Max geraten. Die Gerüchteküche will wissen, dass ein M4 zum Jahreswechsel kommen könnte. Dann liegt man beim Kauf zwei Generationen zurück. ASUS ExpertBook P5 mit neuem Intel Lunar-Lake-Chip soll angeblich Mitte September kommen. Qualcom kann angeblich ohnehin alles besser.
Antwort von rush:
Man sollte wahrscheinlich auch unterscheiden was man heute unter Videoschnitt versteht....
Viele heftige NR Nodes oder gar komplexe Animationen etc. die früher auf dedizierten Maschinen erledigt wurden verlagert man heute teils in den Prozess des NLE - auch weil Tools wie Resolve genau dies forcieren.
Persönlich sollte man dann aber einfach abwägen in welcher Richtung man tatsächlich unterwegs ist und ob man die Top of the Pop Maschine benötigt.
Ich habe meinen privaten Desktop PC vor einigen Jahren aus familiären Gründen "aufgegeben" und bin von Windows in die kompakte M1 Welt eines MacBook Air umgestiegen. Das war nicht immer ganz einfach - aber für das was ich mit der Kiste so treibe besteht kaum noch der Bedarf eine neue GraKa oder Speichererweiterung zu vollziehen.
Bedeutung im Umkehrschluss nicht das ich es gut finde das die SoC so schlecht bis gar nicht erweiterbar sind - das ist in der Tat ein Manko und sollte beim Kauf berücksichtigt werden wenn die Bedürfnisse steigen.
Hier wäre eine künftig potente Schnittstelle sicher eine sinnvolle Erweiterung - in der Apple Welt wird das nicht kommen denke ich. Aber vielleicht taugen TB5 oder auch andere Schnittstellen ja doch um damit künftig eine externe GraKa/zusätzliche Renderunit oder gar eine Art RAM Erweiterung vornehmen zu können.
Selbst beim SSD Speicher ist eine interne Erweiterung ja problematisch - am Standrechner kann man auch potente SSDs anbinden... Aber am mobilen Gerät empfinde ich externe SSDs zwar auch als praktisch - aber nicht immer ideal.
Wenn ich also irgendwann mal auf einen M4, M5 oder was auch immer upgraden sollte - dann muss die Kiste einige Mindest-Anforderungen in Hinblick auf den Festspeicher erfüllen und auch funkmäßig auf WiFi7 setzen - was bisher nicht gegeben ist.
Und auch wenn's nichts mit dem Videoschnitt zu tun hat: Die Entwickler von Games zielen häufig noch immer primär auf Windows Maschinen... Ohne virtuelle Kisten, Windows Emulatoren oder Cloud Gaming bleiben einem viele Dinge leider verwehrt. Ist wie gesagt eher eine Randnotiz und hier nicht relevant - aber ganz klar eine Prämisse von Windows basierten Systemen, auch weil Games häufig auf aktuellste Hardware hin optimiert werden.
Antwort von markusG:
rush hat geschrieben:
Und auch wenn's nichts mit dem Videoschnitt zu tun hat: Die Entwickler von Games zielen häufig noch immer primär auf Windows Maschinen...
Es hat insofern was damit zu tun, dass zB die Unreal Engine vermehrt in Filmproduktionen eingesetzt wird. Aber das dürfte für die meisten hier eine Randnotiz sein.
Jost hat geschrieben:
Außerdem: In welchem Umfang wird gedrosselt, damit in den Mini-Gehäusen der Hitzetod nicht eintritt? Was an Komponenten verbaut ist, sagt nichts über die tatsächliche Leistungsfähigkeit aus.
Hatte den Erfahrungsbericht weiter oben verlinkt:
viewtopic.php?p=1236256#p1236256
Antwort von cantsin:
"Frank Glencairn" hat geschrieben:
cantsin hat geschrieben:
Ja, und die Frage ist halt, was dann zum Mainstream wird. Wenn zur Effizienz noch bessere Performance in der +/- 1000 EUR-Preisklasse hinzukommt, und die Geräte für die meisten Bildbearbeiter "genug gut" sind, wird sich das IMHO durchsetzen.
Das ist als ob ich fragen würde ob sich eher ein Ferrari oder ein Traktor durchsetzten wird.
Wir reden von völlig verschiedenen Tools für verschiedene Anwendungen, die dann halt alle ihre Vor- und Nachteile haben.
Da gebe ich Dir ja recht, wobei der passende Vergleich eher Geländewagen (Workstation-PC) versus VW Golf (ARM-SoC-Mac und demnächst auch -PC) wäre.
Nur ist es so, dass es in der Windows- (und auch Linux-) Welt diese Wahl bisher noch nicht gibt und man daher zwangsläufig den Geländewagen fährt.
Auf der Mac-Plattform war es früher ja ebenso: Da nutzte jeder, der ernsthaft Video- und Bildbearbeitung machte, die klassischen silbernen Tower-Mac Pros mit Xeon-CPU und AMD-Grafikkarte (übrigens IMHO immer noch die bestaufgebauten stationären Computer, die mir jemals entgegengekommen sind, z.B. was den Einbau und Wechsel von Festplatten betrifft).
Haben heutige Mac-Nutzer in unserer Community ein Problem mit den heutigen M1/2/3-Macs? Sieht mir eher nach dem Gegenteil aus. Würde Apple neben diesen Geräten wieder einen modularen Tower-Mac Pro mit klassischem Mainboard + gesteckter CPU, RAM und Grafikkarte anbieten, würde wahrscheinlich nur eine Minderheit heutiger Mac-Video- und Bildbearbeiter darauf umsteigen.
So, und jetzt projizieren wir dieses Szenario mal auf die Zukunft der Windows-Plattform... (Wo ohnehin die große Masse von reinen PC-Büroarbeitern mit ARM-SoCs besser bedient sein wird, wegen Energieverbrauch, Platzverbrauch, Geräuscharmut und Preis-/Leistung.)
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Haben heutige Mac-Nutzer in unserer Community ein Problem mit den heutigen M1/2/3-Macs?
Die meisten Mac Besitzer die ich kenne sind extrem leidensfähig.
Außerdem wissen sie oft nicht, daß sie leiden, weil sie seit 20 Jahren keinen PC mehr angefaßt haben.
;-)
cantsin hat geschrieben:
Würde Apple neben diesen Geräten wieder einen modularen Tower-Mac Pro mit klassischem Mainboard + gesteckter CPU, RAM und Grafikkarte anbieten, würde wahrscheinlich nur eine Minderheit heutiger Mac-Video- und Bildbearbeiter darauf umsteigen.
Weil er 25.000 aufwärts kosten würde, und trotzdem nicht so wirklich Power hat - siehe den letzten Versuch von Apple.
Wie viele sind da drauf reingefallen, und haben sich hinterher schwarz geärgert?
cantsin hat geschrieben:
So, und jetzt projizieren wir dieses Szenario mal auf die Zukunft der Windows-Plattform... (Wo ohnehin die große Masse von reinen PC-Büroarbeitern mit ARM-SoCs besser bedient sein wird, wegen Energieverbrauch, Platzverbrauch, Geräuscharmut und Preis-/Leistung.)
Projektionen sind immer problematisch.
Energieverbrauch, Platzverbrauch etc. spielen bei Bürorechnern sowieso keine wirkliche Rolle, von beidem ist immer genug in Büros vorhanden. Nennenswerte Geräusche machen aktuelle Bürorechner jetzt auch nicht wirklich.
Da muß dann schon der Preis extrem niedrig sein, daß Arm-SOCs im kommerziellen Umfeld signifikant Fuß fasst.
Allein die Tatsache, daß ein defektes Gerät nicht mal schnell (durch einfachen Komponententausch) von einem Techniker repariert werden kann, ist bereits ein Problem in einer Firma.
Wobei die Anforderungen für Büroarbeit sowieso dermaßen lächerlich sind, daß Bürorechner ja jetzt bereits ziemlich billig sind.
Antwort von Skeptiker:
"Frank Glencairn" hat geschrieben:
cantsin hat geschrieben:
Haben heutige Mac-Nutzer in unserer Community ein Problem mit den heutigen M1/2/3-Macs?
Die meisten Mac Besitzer die ich kenne sind extrem leidensfähig.
Außerdem wissen sie oft nicht, daß sie leiden, weil sie seit 20 Jahren keinen PC mehr angefaßt haben.
;-)
...
...
Gab aber auch solche, die an ihren überhitzenden/übertaktenden (und deshalb dann drosselnden = throttle'nden') PC-Notebooks mit Intel-Prozessoren (Turbobooster = Turbopuster) bzw. den zu heissen Desktop-GraKa's darin litten und ganz froh waren, auf Apples schnelles & kühles & Akku-schonendes M-System umsteigen zu können! ;-)
Antwort von iasi:
Skeptiker hat geschrieben:
"Frank Glencairn" hat geschrieben:
Die meisten Mac Besitzer die ich kenne sind extrem leidensfähig.
Außerdem wissen sie oft nicht, daß sie leiden, weil sie seit 20 Jahren keinen PC mehr angefaßt haben.
;-)
...
...
Gab aber auch solche, die an ihren überhitzenden/übertaktenden (und deshalb dann drosselnden = throttle'nden') PC-Notebooks mit Intel-Prozessoren (Turbobooster = Turbopuster) bzw. den zu heissen Desktop-GraKa's darin litten und ganz froh waren, auf Apples schnelles & kühles & Akku-schonendes M-System umsteigen zu können! ;-)
Leider wahr - schaltet das Notebook auf höchste Leistung im Creater-Modus macht es einem Staubsauger Konkurrenz - ganz ohne übertakten, sondern von Haus aus.
Das notwendige Netzteil raubt dem Notebook dann auch noch die mobile Leichtigkeit.
Bei Notebooks scheinen Apples Ms die bessere Wahl.
Antwort von roki100:
iasi hat geschrieben:
Bei Notebooks scheinen Apples Ms die bessere Wahl.
Auf jeden Fall...auch mein Desktop-PC (hakintosh) verstaubt seit ich MBP M1 Pro nutze. Sehr praktisch das Ding, Akku hällt lange, ist für alles was ich so manche, schnell genug usw.
Antwort von GaToR-BN:
VBehrens hat geschrieben:
Die im Artikel genannten Geräte würde ich deswegen eher als "Spielzeug für Energiesparer" bzeichnen.
Ich spare nicht an Energie, um wirklich schnell Videos zu schneiden und zu rendern.
Es gibt natürlich Menschen, die Spaß daran haben mit einem lauten 300 PS Pickup durch die Stadt zu fahren und dabei das 4-fache an Energie zu verblasen.
Ich würde gerne den offensichtlichen Fortschritt der Macs auch in der Windows-Welt nutzen. Jeder Jeck ist anders.
Antwort von Frank Glencairn:
Allerdings gings eher um Jobs, welche die entsprechende Leistung einer richtigen Workstation tatsächlich brauchen (die haben dann auch meistens Steckdosen zur Verfügung), und nicht um Leute die an Projekten arbeiten, die mit deutlich weniger auskommen und auf Akkus angewiesen sind, weil sie z.B. am Strand oder sonstwo - fern abseits einer Stromquelle - arbeiten müssen.
Antwort von markusG:
GaToR-BN hat geschrieben:
Ich würde gerne den offensichtlichen Fortschritt der Macs auch in der Windows-Welt nutzen. Jeder Jeck ist anders.
Ich glaub nicht dass wir dafür auf ARM für Windows warten müssen. Für simple Aufgaben wie Videoschnitt reichen auch Laptop x86 CPUs, die inzwischen ähnlich sparsam laufen wie Apple Silicon/ARM, dank abgekupferten Technologien (big.Little, AI Subsystem...).
Für den gelegentlichem Ausflug ins Gelände (aufwändigere Projekte, zeitkritische Renderjobs) kann man dann den spritfressenden Turbo/Allradantrieb dazuschalten und kommt gut am Ziel an. Da ist die Tankfüllung halt schneller leer, kommt aber am Ziel an.
Zeitgenössische Laptops haben unterschiedliche Powerprofile und können dedizierte GPUs nach Bedarf ein-/ausschalten, und Mini-PCs ohne diese können teils mit eGPUs modular nachgerüstet werden, ohne zB 3 Jahre auf einen Nachfolger vom Gesamtsystem warten zu müssen, wenn mal ein Upgrade wünschenswert wäre. Von hochmodularen Tower-Systemen ganz zu schweigen.
Ich sehe da den Vorteil höchstens in ultramobilen (aka Ultrakompakten) und hochintegrierten Systemen mit der ganzen Co-Prozessor Unterstützung (AI...). Die natürlich mit der Software steht und fällt.
Die Leistungsfähigen Laptops sind ja nicht umsonst fett, brauchen ja die Kühlreserven "fürs Gelände". Ist halt nicht für jeden notwendig/wünschenswert. Und "für die Stadt" gibt es eine ganze Reihe an x-beliebigen Bauarten, Größen usw. Glaub nicht dass ARM da der Gamechanger wird, da in der Windows-Welt keine Beschränkungen durch Homogenität wie bei MacBooks Grenzen aufzeigt (Intel Ära MacBooks). Mit allen Vor- und Nachteilen.