Ich denke nicht, daß Apple an Nachhaltigkeit durch Aufrüstung interessiert ist.
Ich hab hier noch einen vollausgestatteten aus 2019 stehen. Der hat sogar noch den 3,5" slot für ne zweite Festplatte :Drkunstmann hat geschrieben: ↑Di 08 Mär, 2022 20:51Also was ich sagen will: In der aktuellen mehrfachen Krise ist Mac kein Massenprodukt mehr, anders als iOs und das finde ich schade, weil ich gerne noch einen Prosumer iMc 27 gehen hätte , aber ich glaube auch die Zeiten von Prosumer Kameras oder Macs sind halt vorbei... Liebe Grüße!rkunstmann hat geschrieben: ↑Di 08 Mär, 2022 20:38
Ich glaube Mac und Pc sind keine Konkurrenten really, aber für Apple vielleicht auch so uninteressant mittlerweile, weil zu umsatzschwach...
Gehe ich mit, aber nervt es dich dann nicht, dass es innerhalb von Apples Produktfamilie keinen erkennbaren, einheitlichen Designgedanken mehr gibt? Außer vielleicht "alles Alu"?
Ein wegen mir proprietärer und überteuerter neuer "Apple-Slot" im Inneren oder auch von außen zugänglich könnte da doch Abhilfe schaffen - Platz wäre vermutlich noch gewesen so klein wie SSD Medien heute sind.Frank Glencairn hat geschrieben: ↑Mi 09 Mär, 2022 09:51
Ich denke nicht, daß Apple an Nachhaltigkeit durch Aufrüstung interessiert ist.
Leute die bisher RAM und Speicher zum halben Preis von anderen Anbietern gekauft haben, unterminieren ja Apples Profit.
Dem wurde jetzt ein Riegel vorgeschoben
Eine mMn mal etwas abweichende Sicht bietet diese Sammlung - wenn auch nur oberflächlich:macaw hat geschrieben: ↑Mi 09 Mär, 2022 09:26 Als Windows User suchte ich bislang völlig vergeblich nach Tests, wo diese M1 CPU/GPU mit 3D renderern getestet wurden, auch im Vergleich zur RTX Serie, nicht einmal einen Test mit Blender Cycles konnte ich finden. Daher sind diese superlative erstmal nur hohle Phrasen. Oder hat hier jemand mal etwas derartiges gefunden?
Okay, vielen dank. Dazu sei erwähnt: Ich bin eigentlich sehr skeptisch Apple gegenüber (um es vorsichtig auszudrücken), die M1 Entwicklungen ließen mich aber aufhorchen und dachte auf mittlere Sicht (=jetzt mit M1 Ultra), daß da vielleicht doch etwas nutzbares dabei herauskäme. Ich bin aber im Comp und 3D Bereich unterwegs und habe mit meiner aktuellen Maschine mit 5950X und RTX3080Ti zum ersten Mal ein komplexeres 3D Projekt (depth of field, Global Illumination etc.) ohne externe Renderfarm abgeschlossen. Wäre Apple mit diesem kleinen Mac Studio Formfaktor dazu in der Lage die gleiche Leistung zum gleichen Preis zu bringen, hätte ich mir das durchaus angeschaut...aber so ist das ja nix.markusG hat geschrieben: ↑Mi 09 Mär, 2022 11:28Eine mMn mal etwas abweichende Sicht bietet diese Sammlung - wenn auch nur oberflächlich:macaw hat geschrieben: ↑Mi 09 Mär, 2022 09:26 Als Windows User suchte ich bislang völlig vergeblich nach Tests, wo diese M1 CPU/GPU mit 3D renderern getestet wurden, auch im Vergleich zur RTX Serie, nicht einmal einen Test mit Blender Cycles konnte ich finden. Daher sind diese superlative erstmal nur hohle Phrasen. Oder hat hier jemand mal etwas derartiges gefunden?
Detailierter wird es dann z.B. via reddit
Grundlegend ist gerade was 3D angeht der Tonus aber Apple = tot. Bzw. Tiefschlaf. Wenn es um 3D als alleiniges Feld geht und man vaD lokal rendert. Die Softwareoptimierung ist noch sehr weit entfernt um konkurrenzfähig zu sein. (Immer) Noch.
Sehe da kein Problem. Hast ja dann schon eine gute Basis zum arbeiten. Warte noch ein paar Jährchen bis die notwendigen Softwarehersteller ihre Optimierungen fertig gestellt haben.macaw hat geschrieben: ↑Mi 09 Mär, 2022 13:23 Ich bin aber im Comp und 3D Bereich unterwegs und habe mit meiner aktuellen Maschine mit 5950X und RTX3080Ti zum ersten Mal ein komplexeres 3D Projekt (depth of field, Global Illumination etc.) ohne externe Renderfarm abgeschlossen. Wäre Apple mit diesem kleinen Mac Studio Formfaktor dazu in der Lage die gleiche Leistung zum gleichen Preis zu bringen, hätte ich mir das durchaus angeschaut...aber so ist das ja nix.
https://www.digitaltrends.com/computing ... unt-on-it/Apple’s M1 Ultra is faster than an RTX 3090? Don’t count on it
über gutes Design lässt sich da natürlich immer streiten. die kleine Box ist zwar optisch alles andere als Revolutionär, aber mir gefällts auch ziemlich. Jedoch würde das Mac Studio meinerseits keinen Designpreis gewinnen. Beeindruckt bin ich allerdings vor allem, dass soviel Power in sowas kleines reinpasst.
Ich versteh den Vergleich nicht ganz? Ich glaub BlenderRender gehörte auch zu den Fällen, wo Dir der volle Ramausbau auch nutzt. Außerdem hat der Pro zum Beispiel nur die halbe Speicherbandbreite des Max und der Ultra soll die nochmal verdoppeln. Finde es sehr schwierig das jetzt abzuleiten.freezer hat geschrieben: ↑Mi 09 Mär, 2022 13:26 Ich hab nach ein bisschen googeln zum Thema Blender3D und M1 folgendes gefunden:
Die Implementierung von Metal hat mit der 3.1 Alpha begonnen.
Einer hat die Classroom Szene genommen und auf seinem Macbook Pro M1 Pro gerendert:
199,8 sec.
Testhalber bei mir auf dem R9 5900X 12-Core / 128 GB Ram mit der RTX A6000 / 48 GB Ram braucht die Szene
* 20,5 sec. mit Cycles OptiX CPU+GPU
* 18,8 sec. mit Cycles OptiX nur GPU
* 28,8 sec. mit Cycles CUDA nur GPU
* 265 sec. mit Cycles OptiX nur CPU
hatte allerdings währenddessen im Hintergrund von was anderem 28% CPU und 16% GPU Last.
Ein anderer mit dem M1 Max High Power:
* 111 sec CPU+GPU
Noch einer mit der Blender 3.2.0-alpha arm64:
MacBook Pro 14"
M1 Pro with 8-core CPU, 14-core GPU
RAM: 32 GB
Metal + MetalRT + CPU : 9:52.78 (592.78 sec)
Metal + MetalRT + GPU : 3:24.30 (204.30 sec)
MacBook Pro (2016)
Software: macOS 12.3 beta 3, Blender 3.2.0 (2022-02-22)
Hardware: 2,7 GHz Quad-Core Intel Core i7, 16 GB 2133 MHz LPDDR3, Radeon Pro 455 2 GB
eGPU: AMD Radeon RX 5700 XT 8GB
classroom
GPU (AMD Radeon RX 5700 XT only): 1:25.50 (85 seconds, Mem: 1367.73M, Peak: 1367.73M)
https://devtalk.blender.org/t/cycles-ap ... /21868/105
https://osong.xyz/benchmarking-m1-pro-w ... ith-metal/
Da haben wir wohl unterschiedliche Augen. Abgesehen davon, dass alle silber sind, sind die Designs im Detail sehr unterschiedlich. Sieh dir doch mal den 24" iMac im Vergleich zu den anderen Geräten an.
Das sogenannte Schweinebauch-Design halte ich persönlich für eine deutsche Erfindung. Es wird seit Jahrzehnten vom deutschen Handel penetrant durchgezogen und von den hiesigen Zielgruppen wöchentlich penibel nach Preishammern durchgeforstet. Beim Apple Event kann ich davon nichts wiederfinden :-)kling hat geschrieben: ↑Do 10 Mär, 2022 04:19 Eine durchaus ernst gemeinte Frage zum Event-Video hätte ich allerdings noch: Arbeiten bei Apple auch solche minderbegabten Praktikant:X*INNen wie in den PR-Abteilungen deutscher Discounter, die dort für die politbürokorrekt bunten Prospekte zuständig sind?
Same, same. Meine Kiste steht unten, wo sie nicht zu sehen ist, trotz schönem Design, überhaupt ist alles mattschwarz vor mir, Monitor, Lautsprecher, Keyboard, Maus und Wacom.markusG hat geschrieben: ↑Mi 09 Mär, 2022 14:48
Darüber hinaus brauche ich jeden mm auf dem Schreibtisch - wüsste nicht wieso ich einen Computer auf den Schreibtisch stellen würde. Halte das für so nen Influencer Unding, mal von AIOs abgesehen.
*edit:https://www.digitaltrends.com/computing ... unt-on-it/Apple’s M1 Ultra is faster than an RTX 3090? Don’t count on it
Die Supermarktketten haben eigene Grafikdesigner für ihre Flyer, und vor etlichen Jahren war ich mit etlichen von ihnen kegeln. Templates erstellen ist ihre Aufgabe, und es geht um Schweinebäuche für die Menschenbäuche, erwartet man da etwa "intelligentes Design" (Kreationistensprech)?Cinemator hat geschrieben: ↑Do 10 Mär, 2022 07:55Das sogenannte Schweinebauch-Design halte ich persönlich für eine deutsche Erfindung. Es wird seit Jahrzehnten vom deutschen Handel penetrant durchgezogen und von den hiesigen Zielgruppen wöchentlich penibel nach Preishammern durchgeforstet. Beim Apple Event kann ich davon nichts wiederfinden :-)kling hat geschrieben: ↑Do 10 Mär, 2022 04:19 Eine durchaus ernst gemeinte Frage zum Event-Video hätte ich allerdings noch: Arbeiten bei Apple auch solche minderbegabten Praktikant:X*INNen wie in den PR-Abteilungen deutscher Discounter, die dort für die politbürokorrekt bunten Prospekte zuständig sind?
Das war für macaw gedacht, der meinte, dass er keine Benchmarks dazu finden kann.Rick SSon hat geschrieben: ↑Do 10 Mär, 2022 07:19Ich versteh den Vergleich nicht ganz? Ich glaub BlenderRender gehörte auch zu den Fällen, wo Dir der volle Ramausbau auch nutzt. Außerdem hat der Pro zum Beispiel nur die halbe Speicherbandbreite des Max und der Ultra soll die nochmal verdoppeln. Finde es sehr schwierig das jetzt abzuleiten.freezer hat geschrieben: ↑Mi 09 Mär, 2022 13:26 Ich hab nach ein bisschen googeln zum Thema Blender3D und M1 folgendes gefunden:
Die Implementierung von Metal hat mit der 3.1 Alpha begonnen.
Einer hat die Classroom Szene genommen und auf seinem Macbook Pro M1 Pro gerendert:
199,8 sec.
Testhalber bei mir auf dem R9 5900X 12-Core / 128 GB Ram mit der RTX A6000 / 48 GB Ram braucht die Szene
* 20,5 sec. mit Cycles OptiX CPU+GPU
* 18,8 sec. mit Cycles OptiX nur GPU
* 28,8 sec. mit Cycles CUDA nur GPU
* 265 sec. mit Cycles OptiX nur CPU
hatte allerdings währenddessen im Hintergrund von was anderem 28% CPU und 16% GPU Last.
Ein anderer mit dem M1 Max High Power:
* 111 sec CPU+GPU
Noch einer mit der Blender 3.2.0-alpha arm64:
MacBook Pro 14"
M1 Pro with 8-core CPU, 14-core GPU
RAM: 32 GB
Metal + MetalRT + CPU : 9:52.78 (592.78 sec)
Metal + MetalRT + GPU : 3:24.30 (204.30 sec)
MacBook Pro (2016)
Software: macOS 12.3 beta 3, Blender 3.2.0 (2022-02-22)
Hardware: 2,7 GHz Quad-Core Intel Core i7, 16 GB 2133 MHz LPDDR3, Radeon Pro 455 2 GB
eGPU: AMD Radeon RX 5700 XT 8GB
classroom
GPU (AMD Radeon RX 5700 XT only): 1:25.50 (85 seconds, Mem: 1367.73M, Peak: 1367.73M)
https://devtalk.blender.org/t/cycles-ap ... /21868/105
https://osong.xyz/benchmarking-m1-pro-w ... ith-metal/
Mein MBP mit M1 Max schnurrt auf jeden Fall wie ne Katze mit Resolve.
Unterhalb von Eizo: BenQ SW270C.
Unkenrufen zu urteilen hat Nvidia einen so krassen Vorlauf, dass es fast unmöglich sein wird dass Apple (bzw Metal) aufholen wird.
Allerdings. OptiX ist übrigens von nVidia entwickelt worden - kein Wunder, dass das in Blender diese beeindruckende Leistung bringt - die hatten 13 Jahre OptiX zu optimieren.markusG hat geschrieben: ↑Do 10 Mär, 2022 10:18Unkenrufen zu urteilen hat Nvidia einen so krassen Vorlauf, dass es fast unmöglich sein wird dass Apple (bzw Metal) aufholen wird.
Ich hoffe dass diese Aussage schnell altert und das Nvidia Monopol endlich mal fällt. Nvidia braucht dringend mehr Konkurrenzdruck :)
Das meinte ich mit "nicht teuer". Siehe unten.
das thema bleibt immer: welcher anschluss, welches kabel. bei fast allen HDMI strecken kommt kein 10bit durch bei 4K 60hz, oft sogar nicht mal RGB (444). also entweder thunderbolt kompatibel (USB-C ist ja nur der name des steckers) oder ein thunderbolt auf displayport kabel. also, teurer monitor scheitert sehr oft daran, dass die menschen consumer HDMI anschliessen.Axel hat geschrieben: ↑Do 10 Mär, 2022 10:55Das meinte ich mit "nicht teuer". Siehe unten.
Man kann im Prinzip jeden Monitor nehmen, der die richtige Größe und Auflösung hat, sofern man ihn als Monitor für die Programmoberflächen benutzt und sich eh einen zweiten, gescheiten dazunehmen will. Ich selbst finde für einen 2- oder 3-Monitorbetrieb (aber auch für einen allein) eine frei schwebende Befestigung am besten, d.h. Wand- oder Tischmontage über Vesa. Deswegen habe ich selbst den LG 32" Ergo, den es aktuell ab ca. 560 € gibt. Man darf nicht glauben, dass das Ding HDR 10 kann, wie behauptet, oder dass die Farben hardwaremäßig halbwegs vernünftig sind. Das muss man dann über einen X-Rite/Spider o.ä. machen und das Farbprofil hinterlegen. Der Ton ist zehnmal schlechter als der aus meinem Smartphone, die Bedienung ist abysmal, alles nur über verschachtelte Menus mit einem Plastik-Joystick, der sich voll nach Plastik anfühlt. Aber so ist es halt in der Holzklasse. Der IQ-Direktvergleich mit einem 6-Jahre alten iMac-Display fällt erschütternd zugunsten des iMacs aus. Immerhin bietet er über USB-C einen Hub mit zwei USB-3 und einem 2. USB-C-Ausgang. Der Standfuß ist von der Wertigkeit her wie ein 70 € - Standfuß über Amazon (es gibt welche ab ca. 30 €, der Unterschied ist, dass man für die dann immer wieder die Gelenke mit einem Inbus nachziehen muss, falls man den Monitor in Position zu ziehen gewöhnt ist). So gesehen könnte man den hier irgendwo verlinkten 300 € Acer nehmen und einen guten Standfuß, dann hätte man 200 € gespart.
Ich meinte aber das Vorgängermodell SW270C (s.o.), das z.Zt. 800 EUR kostet.
Genau, für 2350 € bekommt man schon ein gutes RAID.
Was fehlt denn? Die Transparenz? Kannst ja auch einen G4-Cube auf Ebay holen, ihn aushöhlen und den Mac Studio da reinstellen. :P
Welchen Thunderbolt Monitor würdest Du für den Mac emfpehlen?hexeric hat geschrieben: ↑Do 10 Mär, 2022 11:06 das thema bleibt immer: welcher anschluss, welches kabel. bei fast allen HDMI strecken kommt kein 10bit durch bei 4K 60hz, oft sogar nicht mal RGB (444). also entweder thunderbolt kompatibel (USB-C ist ja nur der name des steckers) oder ein thunderbolt auf displayport kabel. also, teurer monitor scheitert sehr oft daran, dass die menschen consumer HDMI anschliessen.
Nvidia bräuchte dringend und ordentlich Feuer unterm Arsch. Aber 13 Jahre für die Optimierung von OptiX kann man so nicht allein stehen lassen. Was ist mit OpenCL und Radeon Prorender? Der kam vor über einem Jahrzehnt raus...Ich habe Jahrelang gehofft, daß da endlich mal der Durchbruch kommt und der mal brauchbare Renderzeiten schafft. Aber es passierte: Nix. Optimierungen sind schön und gut, aber die Basis muss vorhanden sein um diese überhaupt anpacken zu können.freezer hat geschrieben: ↑Do 10 Mär, 2022 10:50Allerdings. OptiX ist übrigens von nVidia entwickelt worden - kein Wunder, dass das in Blender diese beeindruckende Leistung bringt - die hatten 13 Jahre OptiX zu optimieren.markusG hat geschrieben: ↑Do 10 Mär, 2022 10:18
Unkenrufen zu urteilen hat Nvidia einen so krassen Vorlauf, dass es fast unmöglich sein wird dass Apple (bzw Metal) aufholen wird.
Ich hoffe dass diese Aussage schnell altert und das Nvidia Monopol endlich mal fällt. Nvidia braucht dringend mehr Konkurrenzdruck :)
Jetzt nochmals zum Vergleich Blender bei mir auf dem R9 5900X 12-Core / 128 GB Ram mit der RTX A6000 / 48 GB Ram
ohne andere Renderaufgaben im Hintergrund
* 18,3 sec. mit Cycles OptiX CPU+GPU
* 15,4 sec. mit Cycles OptiX nur GPU
* 23,1 sec. mit Cycles CUDA nur GPU
* 237 sec. mit Cycles nur CPU
Der Punkt ist auch - was wir sicherlich momentan noch alle belächeln - dass der apple silicon im vergleich zur Konkurrenz momentan SEHR energieeffizient ist, während die Grafikkarten vom Lederjackenchauvinisten einfach bloss immer nur größer, heißer und energiehungriger werden.macaw hat geschrieben: ↑Do 10 Mär, 2022 12:37Nvidia bräuchte dringend und ordentlich Feuer unterm Arsch. Aber 13 Jahre für die Optimierung von OptiX kann man so nicht allein stehen lassen. Was ist mit OpenCL und Radeon Prorender? Der kam vor über einem Jahrzehnt raus...Ich habe Jahrelang gehofft, daß da endlich mal der Durchbruch kommt und der mal brauchbare Renderzeiten schafft. Aber es passierte: Nix. Optimierungen sind schön und gut, aber die Basis muss vorhanden sein um diese überhaupt anpacken zu können.freezer hat geschrieben: ↑Do 10 Mär, 2022 10:50
Allerdings. OptiX ist übrigens von nVidia entwickelt worden - kein Wunder, dass das in Blender diese beeindruckende Leistung bringt - die hatten 13 Jahre OptiX zu optimieren.
Jetzt nochmals zum Vergleich Blender bei mir auf dem R9 5900X 12-Core / 128 GB Ram mit der RTX A6000 / 48 GB Ram
ohne andere Renderaufgaben im Hintergrund
* 18,3 sec. mit Cycles OptiX CPU+GPU
* 15,4 sec. mit Cycles OptiX nur GPU
* 23,1 sec. mit Cycles CUDA nur GPU
* 237 sec. mit Cycles nur CPU
Ich denke da gibt es bedeutend wichtigere Baustellen wo es tatsächlich auch mehr Relevanz hat: Server.
Seit wann kümmert es Postpro Firmen, was sie an Strom verbrauchen? Damals, als eine Flame auf einem SGI Onyx Ungetüm lief, das 2 und mehr KW zieht, lief das Teil 24/7 und wurde nur über Weihnachten abgeschaltet, auch heute kenne ich viele zu viele Buden, wo die Computer immer laufen, warum auch immer...
Noch in diesem Jahr bzw. in den nächsten Wochen und Monaten werden sich die Energiekosten bzw. Stromrechnungen wahrscheinlich so ändern, dass man darüber bald anders denken wird....macaw hat geschrieben: ↑Do 10 Mär, 2022 14:37Seit wann kümmert es Postpro Firmen, was sie an Strom verbrauchen? Damals, als eine Flame auf einem SGI Onyx Ungetüm lief, das 2 und mehr KW zieht, lief das Teil 24/7 und wurde nur über Weihnachten abgeschaltet, auch heute kenne ich viele zu viele Buden, wo die Computer immer laufen, warum auch immer...