Logo Logo
/// 

Erste Apple M1 Ultra Benchmarks: nur knapp hinter 64-Core Spitzenreiter Threadripper 3990X



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Apple: Mac / Final Cut Pro / FCPX / Motion-Forum

Newsmeldung von slashCAM:



Klar ist seit der Vorstellung von Apples neuem M1 Ultra Silicon im neuen Mac Studio, dass das neue System ganz weit vorne bei der CPU/GPU-Leistung aktueller Workstation...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Erste Apple M1 Ultra Benchmarks: nur knapp hinter 64-Core Spitzenreiter Threadripper 3990X




Antwort von roki100:

Mac-mini-Double



Antwort von floii:

Beeindruckend. In Relation mit dem Verbrauch, eine ungeheure Performance








Antwort von Borke:

Meine Güte sieht der häßlich aus. Aber eine Brotdose von Apple gab"s bis dato noch nicht.



Antwort von Paralkar:

Finds ehrlich gesagt nicht teuer,

Ein bekannter wollte spontan für ein Projekt ein MacPro 16 Core kaufen, gabs nicht im Store,

Glaube der ist im Moment heilfroh, weil jetzt kann er 2 mac studio dafür kaufen, weitaus potenter



Antwort von markusG:

Paralkar hat geschrieben:
Finds ehrlich gesagt nicht teuer
Erst recht wenn man sich aktuelle GPU Preise anschaut :D Und so einen Threadripper kriegt man ja auch nicht hinterher geschmissen.

Nichtsdestotrotz sollte man unterscheiden: teuer != überteuert. Der Ultra ist sicherlich nicht für jeden.



Antwort von medienonkel:

Schon beeindruckend.
Jedoch sehe ich bei uns keinen einzigen Mac im Einsatz... Doch, einer, falls mal ne Mac Platte angeliefert wird



Antwort von PrincipeAzzurro:

Sehe eher eine Pralinenschachtel als einen Brotdose ;-)
Falls es irgendjemanden interessiert (aber dafür sind ja Foren da, oder?): das wird DIE Lösung sein für meine Doku-Firma. Wenn's dafür demnächst auch eine innen weiche und aussen resistente Tasche gibt, kann ich das 20x20x9.5cm große Teilchen genauso gut mitnehmen wie ein MacBook. Ein Bildschirm findest sich immer irgendwo. Fazit: für kleine Produktion wie uns ist das absolut perfekt, auch rein finanziell (da war doch was: viewtopic.php?f=6&t=154693).

PS: finde es eigentlich ganz witzig aber vor allem ziemlich aus der Zeit gefallen, dass es hier bei Slashcam offenbar noch immer Streit gibt zwischen Mac-Ätzern und -Anhängern, speziell hier auf dem Forum und fast immer von den gleichen Leuten. Lasst es doch einfach, spart euch die Zeit zu tippen und uns Lebenszeit. Außerdem - jedem Kind sein Räbbelchen…!



Antwort von DeeZiD:

PrincipeAzzurro hat geschrieben:
Sehe eher eine Pralinenschachtel als einen Brotdose ;-)
Falls es irgendjemanden interessiert (aber dafür sind ja Foren da, oder?): das wird DIE Lösung sein für meine Doku-Firma. Wenn's dafür demnächst auch eine innen weiche und aussen resistente Tasche gibt, kann ich das 20x20x9.5cm große Teilchen genauso gut mitnehmen wie ein MacBook. Ein Bildschirm findest sich immer irgendwo. Fazit: für kleine Produktion wie uns ist das absolut perfekt, auch rein finanziell (da war doch was: viewtopic.php?f=6&t=154693).

PS: finde es eigentlich ganz witzig aber vor allem ziemlich aus der Zeit gefallen, dass es hier bei Slashcam offenbar noch immer Streit gibt zwischen Mac-Ätzern und -Anhängern, speziell hier auf dem Forum und fast immer von den gleichen Leuten. Lasst es doch einfach, spart euch die Zeit zu tippen und uns Lebenszeit. Außerdem - jedem Kind sein Räbbelchen…!
Finde das Teil auch mega für den Preis und Größe.
Der PC im Beispiel dürfte was die CPU angeht schneller sein, aber bei der GPU in etwa vergleichbar mit dem M1 Max Studio für ca. 2200 Euro sein.



Antwort von andieymi:

medienonkel hat geschrieben:
Schon beeindruckend.
Jedoch sehe ich bei uns keinen einzigen Mac im Einsatz... Doch, einer, falls mal ne Mac Platte angeliefert wird
Gibt mittlerweile HFS-Treiber für Windows, falls das die Operation je vereinfachen sollte.



Antwort von pixler:

Geekbench mag etwas über die Leistung aussagen. Mich interessieren aber praktische Werte - denn ich rendere nicht mit Geekbench (ist ja auch kein 3D Renderprogramm) sondern mit Maya, Vray, Cinema4D, Blender etc... Also wie schnell rendert der M1Ultra z.B. Effekte, Filmexporte und 3D Animationen?

Also schauen wir doch mal wo der M1Ultra beim Cinebench steht.

Mangels vorhandenem M1Ultra....bleibt mir derzeit nur eine Schätzung. Der M1Ultra besteht aus 2 gekoppelten M1Max CPU's...im Geekbench zeigt sich dadurch eine Verdoppelung des Leistungswertes von 12'400 auf etwa 24'000. Gehen wir mal naiverweise davon aus dass dies auch für Renderbenchmarks wie cinebench zutreffen wird. Die Cinebench Werte bilden direkt ab wie schnell ein Bild gerendert wird. Doppelter Wert = halbe Renderzeit.

Aktuelle Cinebench R23 Werte:
M1Max = 12'170 (selber gemessen)
M1Ultra = 24'000 (Schätzung)
AMD Threadripper 3970x - 32 Core = 46'000 (Wert aus Maxon Datenbank)
AMD Threadripper 3990x - 64 Core = 75'000 (Wert aus Maxon Datenbank)

Demzufolge dürfte der 32 Core Threadripper immer noch knapp doppelt so schnell wie der M1Ultra sein und der 64 Core sogar dreimal so schnell. Die Behauptung der M1Ultra wäre gleich schnell wie en 64 Core Threadripper mag bei einigen spezifischen Aufgaben stimmen, jedoch sicher nicht beim 3D Rendern.

Dann wäre da noch die Energiefrage: der M1Ultra ist sehr energieeffizient klar....gegenüber einem 64 Core Threadripper muss ich mit dem M1Ultra aber 3x so lange rendern lassen, oder ich kaufe 3 Stück Mac Studio welche parallel nebeneinander als Renderfarm agieren...wie sieht es dann mit der Energieeffizienz aus?...

ps. der Cinebench R23 ist Apple Silicon native !

ps.ps.
versteht mich bitte nicht falsch....ich mag die Macs und der Mac Studio sieht wirklich nach einem tollen Gerät zu einem vernünftigen Preis aus....derzeit render ich mein 3D Zeugs mit 5 parallel geschalteten 12-Core MacPro's (2012- Käsereiben) und natürlich hätte ich gerne eine Rendermaschine welche doppelt so schnell wie ein 3990x ist und nur 100 Watt säuft....aber da sind wir eben noch nicht!



Antwort von teichomad:

Geiles Teil, Leistung satt. Bleibt ab zu warten wie gut die Kiste kühlt. Mein Macbook Pro ist gestern wieder fast abgehoben obwohl nur YouTube und ein leeres Projekt in Logic lief. Optik top, Kühlung flopp.








Antwort von miscetc:

Geiles Teil, Leistung satt. Bleibt ab zu warten wie gut die Kiste kühlt. Mein Macbook Pro ist gestern wieder fast abgehoben obwohl nur YouTube und ein leeres Projekt in Logic lief. Optik top, Kühlung flopp.
Welches Modell? Mein MBP mit M1 höre ich selbst beim Rendern kaum. Das war bei den Intel-Modellen noch ganz anders, da kam der Lüfter schon bei Twitter in die Gänge.



Antwort von freezer:

@ pixler
Musst gar nicht raten, es gibt bereits Benchmarkergebnisse:
https://www.cpu-monkey.com/de/cpu-apple_m1_ultra_48_gpu

Apple M1 Ultra (48-GPU) / 20C 20T @ 3,20 GHz
Cinebench R23 (Multi-Core): 23.566
Cinebench R23 (Single-Core): 1.562
Geekbench 5, 64bit (Multi-Core): 24.055
Geekbench 5, 64bit (Single-Core): 1.793

AMD Ryzen 9 5900X / 12C 24T @ 3,70 GHz
Cinebench R23 (Multi-Core): 21.878
Cinebench R23 (Single-Core): 1.636
Geekbench 5, 64bit (Multi-Core): 14.650
Geekbench 5, 64bit (Single-Core): 1.646

AMD Ryzen 9 5950X / 16C 32T @ 3,40 GHz
Cinebench R23 (Multi-Core): 28.641
Cinebench R23 (Single-Core): 1.651
Geekbench 5, 64bit (Multi-Core): 16.942
Geekbench 5, 64bit (Single-Core): 1.657

Intel Core i9-12900K / 16C 24T @ 3,20 GHz
Cinebench R23 (Multi-Core): 27.472
Cinebench R23 (Single-Core): 1.997
Geekbench 5, 64bit (Multi-Core): 17.595
Geekbench 5, 64bit (Single-Core): 1.990

AMD Ryzen Threadripper 3970X / 32C 64T @ 3,70 GHz
Cinebench R23 (Multi-Core): 47.102
Cinebench R23 (Single-Core): 1.270
Geekbench 5, 64bit (Multi-Core): 22.727
Geekbench 5, 64bit (Single-Core): 1.274

AMD Ryzen Threadripper 3990X / 64C 128T @ 2,90 GHz
Cinebench R23 (Multi-Core): 74.422
Cinebench R23 (Single-Core): 1.254
Geekbench 5, 64bit (Multi-Core): 34.670
Geekbench 5, 64bit (Single-Core): 1.219



Antwort von R S K:

PrincipeAzzurro hat geschrieben:
… genauso gut mitnehmen wie ein MacBook. Ein Bildschirm findest sich immer irgendwo. Fazit: für kleine Produktion wie uns ist das absolut perfekt…
Ähm, verstehe die Logik grad nicht. Wie ein Macbook? Anstatt einfach ein MacBook?

Du willst stattdessen für mobil ein Studio kaufen? 😄 Wo das Studio bei gleicher Ausstattung fast so teuer ist wie mein Max MBP und nicht nur den mit Abstand besten (1600nit) Schirm den es momentan für einen Laptop gibt (ausser du hast natürlich einen 2017er HP!! 🤣), sondern auch Tastatur und Maus bzw. Trackpad hat? Alles Dinge die das Studio nicht hat, du also entweder immer finden oder halt mitschleppen musst. Ergibt für mich demnach überhaupt keinen praktischen Sinn, wenn es tatsächlich um Mobilität geht, wenn auch nur "Teilzeit". Und gerade für Doku-Arbeit dürfte das wahrlich noch viele Jahre weit mehr als ausreichend sein.


pixler hat geschrieben:
...wie sieht es dann mit der Energieeffizienz aus?
Ganz einfach: (max.) 180W (3x60) zu 280W… und letzteres ist nur die GPU. Völliger Irrsinn. Und für den Preis der einen GPU kriegt du auch ein Studio mit M1 Ultra, 64 GB RAM und 1 TB SSD, welcher deine Ansbach Macs auch mit einem müden lächeln schlagen dürfte. Wenn dir das nicht reicht, dann warte halt auf den dualen Ultra— wie auch immer der heißen mag—den es vermutlich für den Mac Pro geben wird.


teichomad hat geschrieben:
Mein Macbook Pro ist gestern wieder fast abgehoben obwohl nur YouTube und ein leeres Projekt in Logic lief.
Dann wird das auch kein Pro oder Max sein (also irrelevant), da ich bis dato nicht ein mal meinen Lüfter im Max wahrgenommen habe.



Antwort von teichomad:

miscetc hat geschrieben:
Geiles Teil, Leistung satt. Bleibt ab zu warten wie gut die Kiste kühlt. Mein Macbook Pro ist gestern wieder fast abgehoben obwohl nur YouTube und ein leeres Projekt in Logic lief. Optik top, Kühlung flopp.
Welches Modell? Mein MBP mit M1 höre ich selbst beim Rendern kaum. Das war bei den Intel-Modellen noch ganz anders, da kam der Lüfter schon bei Twitter in die Gänge.
2017



Antwort von markusG:

freezer hat geschrieben:
@ pixler
Musst gar nicht raten, es gibt bereits Benchmarkergebnisse:
Gibt nun übrigens neue Threadripper :

https://browser.geekbench.com/v5/cpu/co ... e=13330272

Threadripper PRO 5975WX 32c
SC:1686
MC: 27603

Apple M1 Ultra 20c
SC: 1793
MC: 24055

Die Threadripper wird es wohl wieder mal nur im Lenovo P620 geben, muss man schon mögen bzw. brauchen^^



Antwort von macaw:

"R S K" hat geschrieben:
pixler hat geschrieben:
...wie sieht es dann mit der Energieeffizienz aus?
Ganz einfach: (max.) 180W (3x60) zu 280W… und letzteres ist nur die GPU. Völliger Irrsinn. Und für den Preis der einen GPU kriegt du auch ein Studio mit M1 Ultra, 64 GB RAM und 1 TB SSD, welcher deine Ansbach Macs auch mit einem müden lächeln schlagen dürfte. Wenn dir das nicht reicht, dann warte halt auf den dualen Ultra— wie auch immer der heißen mag—den es vermutlich für den Mac Pro geben wird.
Irgendwie checke ich das obige auch nach xfachem lesen nicht. Für den Preis einer GPU soll so ein Studio Ding erhältlich sein? Das Teil steht mit 4450 Euro drin, meine 3080Ti kostet nur 1650, aber selbst mit der 5950x, 64Gb RAM, 1TB M.2 UND NOCHMAL 1TB SSD und allem anderen nötigen komme ich auf nur 3350 (im Oktober gekauft) - diese Maschine ist in der Realität (nicht der Apple Fantasiewelt) mehrfach schneller im 3D Bereich, wie es die Benchmarks zeigen.



Antwort von R S K:

macaw hat geschrieben:
meine 3080Ti kostet nur 1650
3080Ti? Hä? Dann evtl. den Titel des ganzen hier "xfach lesen"? Denn da steht, dass es hier um die Threadripper 3990X geht? Und wenn ich den kurz googele, sehe ich den für irgendwas um die 4200€ gelistet. Aber klar, bei PC GPUs gibt es ja immer eine unendliche, unüberschaubare, mir unerklärliche Spanne und ich stecke da nicht in der Materie noch will oder brauch ich das. Also wenn du die irgendwie, irgendwo, warum auch immer, für viel billiger oder 1650 bekommst, super für dich! Nur zu.

macaw hat geschrieben:
mehrfach schneller im 3D Bereich, wie es die Benchmarks zeigen
Ach wirklich? Mehrfach, ja? 😄 Bei welchen Benchmarks nochmal wo auch M1 native Apps benutzt wurden und vor allem auch nicht ausschließlich 3D Perfromance messen? Wobei, wie du scheinbar auch nicht verstanden hast, ging es um den vergleichbaren Stromverbrauch.

Wobei mir persönlich 3D am Ende so derart Latte ist, da kannst du es gerne geschenkt haben. Dann ist ein Threadripper 3990X schneller als mein Max oder Ultra in 3D. Hurra. 😴 Würde ich mein täglich Brot mit den ganzen Tag Rendern verdienen, würde ich mir auch irgendeine billig-hässliche WinPC-Frickelplastikkiste hinstellen mit entsprechender GPU als Sklaven. Na und? Dann bleibt halt bei deiner 3080Tisonstwas, bleib von den oh-so-überteuerten und hässlichen Macs weg und werd glücklich. Wen juckt's?

Für die Dinge die ich und viele andere wiederum täglich so machen ist ein M-Mac aber mit Abstand die beste Wahl, da tatsächlich mehrfach schneller.

So kann's gehen. Horses for courses!



Antwort von science:

"R S K" hat geschrieben:
macaw hat geschrieben:
meine 3080Ti kostet nur 1650
3080Ti? Hä? Dann evtl. den Titel des ganzen hier "xfach lesen"? Denn da steht, dass es hier um die Threadripper 3990X geht? Und wenn ich den kurz googele, sehe ich den für irgendwas um die 4200€ gelistet. Aber klar, bei PC GPUs gibt es ja immer eine unendliche, unüberschaubare, mir unerklärliche Spanne und ich stecke da nicht in der Materie noch will oder brauch ich das. Also wenn du die irgendwie, irgendwo, warum auch immer, für viel billiger oder 1650 bekommst, super für dich! Nur zu.

macaw hat geschrieben:
mehrfach schneller im 3D Bereich, wie es die Benchmarks zeigen
Ach wirklich? Mehrfach, ja? 😄 Bei welchen Benchmarks nochmal wo auch M1 native Apps benutzt wurden und vor allem auch nicht ausschließlich 3D Perfromance messen? Wobei, wie du scheinbar auch nicht verstanden hast, ging es um den vergleichbaren Stromverbrauch.

Wobei mir persönlich 3D am Ende so derart Latte ist, da kannst du es gerne geschenkt haben. Dann ist ein Threadripper 3990X schneller als mein Max oder Ultra in 3D. Hurra. 😴 Würde ich mein täglich Brot mit den ganzen Tag Rendern verdienen, würde ich mir auch irgendeine billig-hässliche WinPC-Frickelplastikkiste hinstellen mit entsprechender GPU als Sklaven. Na und? Dann bleibt halt bei deiner 3080Tisonstwas, bleib von den oh-so-überteuerten und hässlichen Macs weg und werd glücklich. Wen juckt's?

Für die Dinge die ich und viele andere wiederum täglich so machen ist ein M-Mac aber mit Abstand die beste Wahl, da tatsächlich mehrfach schneller.

So kann's gehen. Horses for courses!
Und der Beißteflex unseres Forengläubigen wieder.
Du sprachst von dem Preis einer GPU und nicht einer CPU. Ganz einfach: (max.) 180W (3x60) zu 280W… und letzteres ist nur die GPU. Völliger Irrsinn. Und für den Preis der einen GPU kriegt du auch ein Studio mit M1 Ultra, 64 GB RAM und 1 TB SSD, welcher deine Ansbach Macs auch mit einem müden lächeln schlagen dürfte. Wenn dir das nicht reicht, dann warte halt auf den dualen Ultra— wie auch immer der heißen mag—den es vermutlich für den Mac Pro geben wird. Vielleicht einfach mal Deinen Narzismus runterfahren und einsehen, dass Du hier einfach was falsches geschrieben hast. Da nützt Dein postfaktisches Gebrüll auch nichts.



Antwort von R S K:

LOL… alles klar. Ob GPU, CPU oder Floppy Disk, wenn es hier um die 3990x geht (um dessen Preis ging es, ja… stell dir vor, das eigentliche Thema. Sorry wenn das zu hoch für dich ist, dass du sowas simples nicht davon ableiten kannst) und du mit deiner 3080Ti und dem üblichen ad hominem "Forengläubigen" Ablenkungs-Geseire als Argument um die Ecke kommst um geschickt keine einzige Frage beantworten zu müssen,… dann bin ich Narzisst. Eine wirklich geniale Logik. Danke.








Antwort von markusG:

"R S K" hat geschrieben:
wenn es hier um die 3990x geht (um dessen Preis ging es, ja…
wenn es nur um die reine Leistung beim Cpu rendern angeht: im cinebench r23 ist ein in etwa vergleichbarer Threadripper (3960x mit 24c) dem M1 Ultra um ca. 30% überlegen (multicore), und nun steht ja die neue Generation mit besserer Single Core Leistung an.

Für Menschen die damit Geld verdienen wollen und eher wirtschaftlich rechnen und nicht darauf angewiesen sind, das alles möglichst kompakt ist, gibt es auf jeden Fall genug Alternativen. Und für Videoschnitt braucht es sicher keinen M1 Max oder Ultra, da reicht auch ein "popliger" M1 Pro. Da kann man das Geld sicher sinnvoller investieren als in den Sprung zum M1 Ultra.



Antwort von roki100:

markusG hat geschrieben:
Und für Videoschnitt braucht es sicher keinen M1 Max oder Ultra, da reicht auch ein "popliger" M1 Pro. Da kann man das Geld sicher sinnvoller investieren als in den Sprung zum M1 Ultra.
Eben. Ich habe zuerst M1 bestellt und dann hmm... hab mich dann kurzfristig für M1 Max entschieden und am Ende wurde dann doch ein M1 Pro (bei meine Tests war der speed unterschied nicht so groß). Zweite MacBook M1 Pro werde ich (für Sohn) demnächst wahrscheinlich auch bestellen.



Antwort von macaw:

Angesichts der doch völlig verzerrten und verfälschten Benchmarks seitens Apple, die keinerlei Vergleichen auf anderen Plattformen standhalten, wunderte mich die weiterhin starke Hörigkeit und komplette Ignoranz der Konsumenten. In einem anderem Forum brachte das ein User dann aber sehr gut auf den Punkt:

"Die 10%, die Apple kaufen sind technisch so minderbemittelt dass sie keine Ahnung haben was ein Computer wert ist, vergleichen können sie auch nicht, so dass sie deshalb viel zu viel zahlen."



Antwort von Mediamind:

macaw hat geschrieben:
Angesichts der doch völlig verzerrten und verfälschten Benchmarks seitens Apple, die keinerlei Vergleichen auf anderen Plattformen standhalten, wunderte mich die weiterhin starke Hörigkeit und komplette Ignoranz der Konsumenten. In einem anderem Forum brachte das ein User dann aber sehr gut auf den Punkt:

"Die 10%, die Apple kaufen sind technisch so minderbemittelt dass sie keine Ahnung haben was ein Computer wert ist, vergleichen können sie auch nicht, so dass sie deshalb viel zu viel zahlen."
Warum habe ich diese Perle der Weisheit nicht schon vor Jahren gelesen? Das hätte mir so endlos viel Geld gespart. Aber was soll ich sagen, man ist eben einfach begrenzt. Und weil ich so dumm bin, wird es wohl auch der neue Studio. Nachdem ich schon total überteuert den M1 im MB Air für 1000 Euro gekauft habe, tappe ich gleich in die nächste Falle.
Ich habe einfach nur Glück, dass ich so viel verdiene, dass ich mir meine Blödheit auch erlauben kann.



Antwort von science:

doppelter beitrag



Antwort von Jott:

macaw hat geschrieben:

"Die 10%, die Apple kaufen sind technisch so minderbemittelt dass sie keine Ahnung haben …
Laut aktuell laufender Foren-Umfrage liegt die hiesige Minderbemitteltenquote aber bei über 42%! Nicht so maßlos untertreiben.



Antwort von freezer:

macaw hat geschrieben:
Angesichts der doch völlig verzerrten und verfälschten Benchmarks seitens Apple, die keinerlei Vergleichen auf anderen Plattformen standhalten
Man kann Apple viel vorwerfen, aber bei den Benchmarks sind sie seit Jahrzehnten transparent. Es wird alles ganz genau aufgeschlüsselt und nachlesbar angegeben.

Woher nun Deine "völlig verzerrten und verfälschten Benchmarks seitens Apple"-Behauptung kommt, ist völlig unklar.



Antwort von Axel:

Mediamind hat geschrieben:
macaw hat geschrieben:
Angesichts der doch völlig verzerrten und verfälschten Benchmarks seitens Apple, die keinerlei Vergleichen auf anderen Plattformen standhalten, wunderte mich die weiterhin starke Hörigkeit und komplette Ignoranz der Konsumenten. In einem anderem Forum brachte das ein User dann aber sehr gut auf den Punkt:

"Die 10%, die Apple kaufen sind technisch so minderbemittelt dass sie keine Ahnung haben was ein Computer wert ist, vergleichen können sie auch nicht, so dass sie deshalb viel zu viel zahlen."
Warum habe ich diese Perle der Weisheit nicht schon vor Jahren gelesen? Das hätte mir so endlos viel Geld gespart. Aber was soll ich sagen, man ist eben einfach begrenzt. Und weil ich so dumm bin, wird es wohl auch der neue Studio. Nachdem ich schon total überteuert den M1 im MB Air für 1000 Euro gekauft habe, tappe ich gleich in die nächste Falle.
Ich habe einfach nur Glück, dass ich so viel verdiene, dass ich mir meine Blödheit auch erlauben kann.
Ähnliche Anwürfe der technisch Begabten (warum nur fühlen sie sich immer veranlasst, so steilzugehen?) und eine im Stil ähnliche Antwort von mir von vor 14 Jahren:
Axel hat geschrieben:
Die Zeiten wo Mac-> Apple war sind vorbei !
Mac= ein schöner PC mit utopischen Luxuspreisen und eigenem Betriebsystem .. (mehr nicht)
Zack! Dieser Hieb zizt, äh, sitzt! Drei, zwo, eins, ich wache auf, und sieh da, alle Doofheit fällt ab von mir, ich kann klar erkennen, was da vor mir hockt. Es wird Zeit, es vor allen zuzugeben, ich bin einer Täuschung aufgesessen. Weil ich ein kleiner, wichtigtuerischer Konsumheini bin, hat Apples Gehirnwäsche-Kampagne bei mir verfangen. Aber nicht länger! Jetzt, wo mir die Augen geöffnet wurden, will ich andere auch befreien. Ich eröffne gleich mal einen neuen Thread. Na und? Im Fernsehen wird ja auch alles wiederholt ...
(muss diesen Spruch mal irgendwann der Epoche anpassen. Vorschlag?)



Antwort von pillepalle:

Gegen den 'Glaubenskrieg' in Sachen Computer sind alle RAW-, Richtige-Kamera-Marke und Politik-Threads hier fast harmlos und entspannt... Warum es gerade bei dem Thema immer so emotional zugeht ist mir ein Rätsel.

VG








Antwort von markusG:

freezer hat geschrieben:
Man kann Apple viel vorwerfen, aber bei den Benchmarks sind sie seit Jahrzehnten transparent. Es wird alles ganz genau aufgeschlüsselt und nachlesbar angegeben.
naaajaaa selbst bei Maxtech haben sie da so ihre Bedenken…





Antwort von Mediamind:

Ich arbeite nun schon eine Weile mit dem M1. Mir sind die Benchmarks total schnuppe. Meine Reral-World Erfahrung: das Arbeiten ist lautlos und zügig. Mir fehlt es bei diesem Einsteigermodell bei rechenintensiven Aufgaben (Denosing, 10 Bit rendern,...) ein wenig an Rechenleistung. Der Studio wird voraussichtlich für mich die optimale Aufrüstung sein, mein Intel MB Pro darf dann jetzt gehen, meine Tochter bekommt das MB Air mit dem M1 und alle sind zufrieden.
Diese Diskussionen sind in der Tat für die Tonne.



Antwort von Axel:

Mediamind hat geschrieben:
Ich arbeite nun schon eine Weile mit dem M1. Mir sind die Benchmarks total schnuppe. Meine Reral-World Erfahrung: das Arbeiten ist lautlos und zügig. Mir fehlt es bei diesem Einsteigermodell bei rechenintensiven Aufgaben (Denosing, 10 Bit rendern,...) ein wenig an Rechenleistung. Der Studio wird voraussichtlich für mich die optimale Aufrüstung sein, mein Intel MB Pro darf dann jetzt gehen, meine Tochter bekommt das MB Air mit dem M1 und alle sind zufrieden.
Diese Diskussionen sind in der Tat für die Tonne.
Studio Max Einstiegsmodell? Wie ist dein Denkprozess dazu (ich weiß, langsam, da minderbemittelt, aber da sind wir ja unter uns)?



Antwort von freezer:

markusG hat geschrieben:
freezer hat geschrieben:
Man kann Apple viel vorwerfen, aber bei den Benchmarks sind sie seit Jahrzehnten transparent. Es wird alles ganz genau aufgeschlüsselt und nachlesbar angegeben.
naaajaaa selbst bei Maxtech haben sie da so ihre Bedenken…
Du kannst auf Apples Webseite selbst nachlesen, welche Benchmarks sie wie gemacht haben - da muss man sich kein Video von einem Youtuber anschauen der einem vorsagt, was man auch selbst erlesen kann.



Antwort von markusG:

Ich glaube wir haben eine unterschiedliche Definition von Transparenz :D
Getestet mit Boris FX Sapphire 2022.01 Plug?in und Adobe After Effects Beta 22.3.0 mit einem Videoprojekt mit zehn Kompositionen und unterschiedlichen Effekten.

Getestet mit einer Vorabversion von DaVinci Resolve Studio 17.4.4 mit einem 10?sekündigen UHD Projekt bei einer Auflösung von 3840 x 2160 Pixeln und 24 fps.

Vorabversion von Final Cut Pro 10.6.2 getestet mit einem 5 Minuten langen komplexen Projekt mit 8K ProRes 422 Medien
Also noch unpräziser geht kaum noch. Benchmarks die nicht transparent sind, sind den Speicher auf der Website nicht wert. Dann lieber genormte, unabhängige Tests. Alles andere ist das übliche Marketing-Gewäsch ("noch weißer als die Konkurrenz")



Antwort von Axel:

markusG hat geschrieben:
Getestet mit einer Vorabversion von DaVinci Resolve Studio 17.4.4 mit einem 10?sekündigen UHD Projekt bei einer Auflösung von 3840 x 2160 Pixeln und 24 fps.
Aktuell ist 17.4.5. Seltsam. Warum nimmt man die Beta einer Vorversion?
markusG hat geschrieben:
Vorabversion von Final Cut Pro 10.6.2 getestet mit einem 5 Minuten langen komplexen Projekt mit 8K ProRes 422 Medien
Aktuell ist 10.6.1. Da es mW keine schlimmen Bugs gibt und da ja angeblich für Ultra softwaremäßig nichts optimiert werden muss, könnten mal wieder Features anstehen. Spannend.



Antwort von pillepalle:

Mist! Der M1 Ultra schlägt im Benchmark meinen anderthalb Jahre alten Mittelklasse PC (Ryzen 9 3900x mit RTX 2060 Super).

Cinebench R23
Oller PC: 18388 pts
M1 Ultra: 25120 pts

Geekbench 5.4.4
Single Core
Oller PC: 1288
M1 Ultra: 1793
Multicore
Oller PC: 10908
M1 Ultra: 24055

Eigentlich bin ich mit dem Rechner total zufrieden und er macht was er soll... aber diese Benchmarks. Was sollen die Leute nur von mir denken? Ist ja fast so peinlich wie mit einer Nikon zu filmen :)

VG



Antwort von MK:

Benchmarks wurden übrigens im Jahr 1991 in Deutschland von Ben Schmark erfunden.



Antwort von rush:

Wer mit einem halbwegs aktuellen PC oder Mac nicht in der Lage ist Videos zu editieren hat sowieso andere Probleme oder dreht in der Praxis effektiv vielleicht gar nichts ;-)

Die gängigen NLEs kann man zudem in beiden Welten nutzen - das sollte allein schon vom Kopf her unabhängig machen.

Gut, wer nun Final Cut bevorzugt oder iPhone und Co verwendet wird halt eher zum Mac greifen- aber ansonsten gibt es doch sehr viele Kreativtools auf beiden Plattformen und auch die Performance ist auf halbwegs modernen Maschinen selten ein Problem.

Für mich war der PC über Jahrzehnte das spannendere Tool - auch weil Gaming eine Zeit lang durchaus ein Thema gewesen ist.

Irgendwann veränderten sich die Lebensumstände und Rahmenbedingungen - und vor allen die Zeit sich mit den Geräten zu befassen.
In diese Bresche sprang dann kurzerhand der "kleine" M1er im Air - umständehalber sozusagen und vor allen Dingen weil lüfterlos.

Einen Großteil meiner bevorzugten Programme kann ich weiter nutzen - Gaming dagegen ist und bleibt Murks, vieles meiner Steam Bibliothek etwa ist nicht nutzbar.
Aber: Cloud Gaming wird langsam besser - für das bissl Zeit was zum zocken bleibt könnte das langen.

Ansonsten: it's a tool. Läuft, mit kleineren Software Problemen hier und da - aber eigentlich ganz rund.

Hätte es einen Windows Laptop mit vergleichbarem lüfterlosen Design/SoC bei entsprechender Leistung gegeben wäre es wohl eher ein solcher geworden. Denn auch in der PC Welt hatte ich wenige Probleme in den letzten Dekaden. Der Mac muss sich erst noch über die Zeit behaupten um abschließend urteilen zu können.

Der Studio wird Leistung satt haben - die ganzen hippen Zahlenvergleiche die Apple gern angibt sind doch eher zweitrangig. Sie schreiben doch selbst in jeder Fußnote:

Leistungstests werden mit speziellen Computersystemen durchgeführt und spiegeln die ungefähre Leistung des Mac Studio, des Mac Pro und des iMac wider.


Damit ist doch alles gesagt. Kaufen und nutzen wer meint die Leistung oder einfach Mal was neues zu benötigen.

Im Zeichen der Nachhaltigkeit macht es aber sicher ebenso Sinn bestehende Hardware durchaus noch zu nutzen sofern der Schuh nicht massiv drückt.

keep the 3900x 'running @ pille!
Ich hätte meinen gewiss auch noch, aber siehe oben.

Viele andere werden den virtuellen Bestellknopf vermutlich zeitnah drücken weil die fancy Zahlen auf der Apple Seite eben doch zum triggern verleiten. Auch ok.

Mal gucken wo die ganzen 8K Kameras bleiben um die Geräte dann auch wenigstens auf halber Flamme nutzen zu können.








Antwort von Mediamind:

Axel hat geschrieben:
Mediamind hat geschrieben:
Ich arbeite nun schon eine Weile mit dem M1. Mir sind die Benchmarks total schnuppe. Meine Reral-World Erfahrung: das Arbeiten ist lautlos und zügig. Mir fehlt es bei diesem Einsteigermodell bei rechenintensiven Aufgaben (Denosing, 10 Bit rendern,...) ein wenig an Rechenleistung. Der Studio wird voraussichtlich für mich die optimale Aufrüstung sein, mein Intel MB Pro darf dann jetzt gehen, meine Tochter bekommt das MB Air mit dem M1 und alle sind zufrieden.
Diese Diskussionen sind in der Tat für die Tonne.
Studio Max Einstiegsmodell? Wie ist dein Denkprozess dazu (ich weiß, langsam, da minderbemittelt, aber da sind wir ja unter uns)?
Für den Videoschnitt bekomme ich erst ab dem Ultra deutlich mehr Rechenleistung geboten. Ist der Aufpreis es wert? Mir reicht der M1 im MB Air für die allermeisten Anwendungen bereits aus. Der Max ist schon eine so deutliche Steigerung, die für meine Zwecke reicht. Allein die SSD werde ich wohl eine Nummer größer wählen. Ich arbeite jetzt schon mir 5 TB SSD extern, mehr brauche ich nicht. Mehr Arbeitsspeicher? Ich komme (zu meinem eigenen Erstaunen) mit 8 GB bestens klar, die 32 im neuen Modell sind vor dem Hintergrund mehr als ausreichend. Für mich scheint die Einstiegskonfiguration genau das zu sein, was ich mir wünschte.



Antwort von Axel:

Das sehe ich auch so. Ich warte aber auf jeden Fall Erfahrungsberichte ab. FCP ist ja klar, schon mit M1 Mini bei UHD kein echter Flaschenhals mehr, aber zum Beispiel in Resolve bei Nodes.

Genau weil die Zeit nicht drängt, würde ich auch gerne bis zur WWDC im Juni warten. Zu diesem Zeitpunkt ("another day") wird der Mac Pro vorgestellt. Ich weiß zwar schon jetzt, dass ich den nicht brauche, es gibt aber Randspekulationen dazu. Eine wäre, dass sie nicht den Max einfach nochmal um einen Riegel verlängern, sondern einen M2 benutzen, der theoretisch mehrere Ultra-Fusion-Kanten haben könnte. Und dieser noch effizientere Chip könnte auch a) in einem neuen MBAir sitzen und/oder b) in einem neuen Mini. Denn es wurde genau gesagt, der MacPro wird das letzte Produkt der Apple-Silicon-Transition (ergo tschüss iMac Pro, für’s erste jedenfalls), aber nicht, dass nicht bereits die nächste Runde beginnt. Wäre ja wohl auch ein ziemlich untypisches Apple-Event, wenn es nur eine Handvoll minderbemittelte Profis ansprechen würde. Unser Einstiegsmodell startet heute bei 8000 Dollar, awesome.

Und, ob M2 Mini oder M1 Mini Pro, bei beiden Varianten könnte es sein, dass ich mich mit einem brandneuen Studio ärgern würde, wenn mir Alex Jordan von Learn Color Grading zeigt, dass ich mit einem etwa 800€ billigeren Gerät dasselbe erreicht hätte (noch schlimmer: mehr! Bei Apple Silicon besagen Spec-Eckdaten wenig). Speziell bei dem von dir angesprochenen Denoising wird es wahrscheinlich auch bei Ultra keine Echtzeit geben, sondern bloß schnelleres Rendern.



Antwort von Jott:

Dass es offensichtlich keinen iMac 27" mehr geben wird, stimmt traurig. Das war (und ist) ein wunderbares Arbeitstier mit sehr gutem Monitor (was beim üblichen Macs-sind-viel-zu-teuer-Sermon immer vergessen wurde). Natürlich gab es immer Nörgler, aber die hatten nie Einfluss auf den Verkaufserfolg. Die Dinger stehen gefühlt überall im Kreativbereich.

Nun denn. Wenn Rechner und Monitor jetzt wieder getrennt sind (abgesehen vom "Kleinen"), dann macht das den Spaß teurer. Sofern man nicht freudig auf einen Billigmonitor downgradet. Die Freiheit besteht ja jetzt.



Antwort von dnalor:

Jott hat geschrieben:
Dass es offensichtlich keinen iMac 27" mehr geben wird, stimmt traurig. Das war (und ist) ein wunderbares Arbeitstier mit sehr gutem Monitor (was beim üblichen Macs-sind-viel-zu-teuer-Sermon immer vergessen wurde). Natürlich gab es immer Nörgler, aber die hatten nie Einfluss auf den Verkaufserfolg. Die Dinger stehen gefühlt überall im Kreativbereich.

Nun denn. Wenn Rechner und Monitor jetzt wieder getrennt sind (abgesehen vom "Kleinen"), dann macht das den Spaß teurer. Sofern man nicht freudig auf einen Billigmonitor downgradet. Die Freiheit besteht ja jetzt.
Der iMac Monitor war zwar super, aber leider nicht nicht entspiegelt. Deshalb hatte ich beim iMac auch immer noch einen zweiten, matten Monitor. Den Unterschied merkt man, wenn man den ganzen Tag davor sitzt.



Antwort von Mediamind:

Ich werde auch die ersten Tests abwarten. Auch wenn ich ihn etwas anstrengend finde, Maxtech macht das ganz gut. Gerade echte Ergebnisse in FCPX sind interessant. Der neue Macmini könnte eine Alternative sein. Bekommt man aber einen Mini mit den Spezifikationen des Studio zu einem günstigeren Preis? Ich denke nicht. Das wäre inkonsequent. Lohnt sich ein Upgrade vom M1 zu einem Gerät, welches leistungsmäßig unter dem kleinen Studio läge? Für mich eher nicht. Ich glaube, der Sweetspot wird für mich der Studio darstellen. Denoising und das Rendern von Material in 10 Bit sind Aufgaben, die schneller laufen sollten. Der Rest ist, wie gesagt, jetzt schon mit dem M1 schnell genug.



Antwort von andieymi:

Jott hat geschrieben:
Die Dinger stehen gefühlt überall im Kreativbereich.
Gefühlt aber auch nur bei diesen "Kreativagenturen" die dann "Mediendesigner für Grafik/Foto/Video" haben. Welche Spezialisten arbeiten mit iMac-Displays?

Jeder halbwegs gute Fotograf den ich persönlich kenne hat zumindest einen matten Eizo/Benq stehen. Jeder Colorist irgendwas zwischen Flanders/Sony und 55" OLEDs am Low-End, allein die fehlende Entspiegelung ist doch für kritische Arbeiten (selbst in kontrollierter Umgebung) ein Desaster.

Ich persönlich finde es super, dass Apple jetzt auch die Mac Minis (selbst M1 Basis geht in eine gute Richtung) & den Mac Studio als Standalone relativ mit gutem Preis/Leistungsverhältnis anbietet.



Antwort von markusG:

Jott hat geschrieben:
Dass es offensichtlich keinen iMac 27" mehr geben wird, stimmt traurig. Das war (und ist) ein wunderbares Arbeitstier mit sehr gutem Monitor
Es gibt eine "Theorie" die besagt, dass der iMac quasi unabsichtlich dazu gewachsen ist, da der Mac Pro 2013 ("Trashcan") nicht an den Erfolg der ersten Mac Pros anknüpfen konnte und es ja erstmal ne Durststrecke gab - der iMac hat sich dadurch schnell zum P/L "Sieger" gemausert. Der iMac Pro müsste dann auch so ein Lückenbüßer gewesen sein, einfach mangels Alternative, da der 2019er Mac Pro ja noch nicht veröffentlicht war. Und die P/L + mehr Leistung als iMac Fraktion ist dann halt zu PCs gewechselt, gerade im 3D Bereich nach Apples Abkehr von Nvidia...

Von daher frage ich mich welche Zielgruppe Apple noch mit dem Mac Pro ansprechen soll, wo doch der Mac Studio für Videoschnitt + Musikproduktion usw. schon ziemlich alles bietet und auch schnell 7000+ € teuer werden kann, was dann auch die Zielgruppe schon dort schmälert ggü. der früheren iMac (non-pro) Linie, bei einem Mac Pro der wahrscheinlich dort es anfängt ganz zu schweigen. Im 3D Bereich muss sich da noch viel tun, sonst ist der Mac Pro in dem Bereich einfach nicht sinnvoll (sprich: unrentabel).

andieymi hat geschrieben:
Gefühlt aber auch nur bei diesen "Kreativagenturen" die dann "Mediendesigner für Grafik/Foto/Video" haben. Welche Spezialisten arbeiten mit iMac-Displays?
Ja so habe ich mehr oder minder "angefangen" :D wenn Fachfremde Menschen für die Technik verantwortlich sind...es spricht auch Bände dass es keine verspiegelten Profimonitore abseits von Apple gibt. iMacs sind ja eigentlich als Consumergeräte gestartet...und afaik im Bildungsbereich.



Antwort von Axel:

dnalor hat geschrieben:
Jott hat geschrieben:
Dass es offensichtlich keinen iMac 27" mehr geben wird, stimmt traurig. Das war (und ist) ein wunderbares Arbeitstier mit sehr gutem Monitor (was beim üblichen Macs-sind-viel-zu-teuer-Sermon immer vergessen wurde). Natürlich gab es immer Nörgler, aber die hatten nie Einfluss auf den Verkaufserfolg. Die Dinger stehen gefühlt überall im Kreativbereich.

Nun denn. Wenn Rechner und Monitor jetzt wieder getrennt sind (abgesehen vom "Kleinen"), dann macht das den Spaß teurer. Sofern man nicht freudig auf einen Billigmonitor downgradet. Die Freiheit besteht ja jetzt.
Der iMac Monitor war zwar super, aber leider nicht nicht entspiegelt. Deshalb hatte ich beim iMac auch immer noch einen zweiten, matten Monitor. Den Unterschied merkt man, wenn man den ganzen Tag davor sitzt.
Ich habe noch nie das XDR-Display "matt" und "brilliant" (alte Fotopapier-Optionsnamen) live nebeneinander gesehen, dafür aber viele andere Displays. Wegen der permanenten Meckerei, dass die iMacs Hochglanzoberflächen haben, gibt es jetzt also auch das Studio Display in matt. Hier ein drei Tage alter Clip:


Schon eigenartig, wenn Leute, die mit einem Sichtgerät für visuelle Kreativität arbeiten, ihren eigenen Augen nicht trauen. Gut wäre ein Tutorial zur Schnittplatzbeleuchtung. Indirektes und Ambient-Licht haben sich bewährt, die hier sichtbare Leuchtröhre gegenüber dem Monitor nicht. Der Effekt auf dem "brilliant"-Gerät ist, wen wundert's?, eine Spiegelung. Auf dem matten Schirm ist es ein gestreuter Lichtfleck, der den Kontrast killt. Na, das hat ja was gebracht!



Antwort von pillepalle:

@ Axel

Der hat aber auch nicht wirklich verstanden wie man Raumbeleuchtung einsetzt. Wer installiert denn seine Röhren direkt vor den Monitor und ohne Blendschutz? Eigentlich nur Laien ;) Kann ja jeder machen wie er möchte. Um einen zusätzlichen Referenzmonitor kommt man auch mit einem iMAC nicht vorbei. Zumindest ab einem gewissen Niveau. Aber als Arbeitsflächenerweiterung ist er gut geeignet und zudem schick. Man möchte ja ohnehin meist in einem Dual-Monitor-Setup arbeiten.

VG








Antwort von Axel:

pillepalle hat geschrieben:
@ Axel

Der hat aber auch nicht wirklich verstanden wie man Raumbeleuchtung einsetzt. Wer installiert denn seine Röhren direkt vor den Monitor und ohne Blendschutz?
Nicht zuende geguckt? Er schafft für beide worst-case-scenarios. Er selbst ist übrigens ratlos, warum so viele Oberflächen matt sind. Aber er kommt, wie jeder, der Augen hat zu sehen, zu dem Schluss, dass glossy kontrastreicher und schärfer ist.



Antwort von Frank Glencairn:

Der Flaschenhals beim Editing und Grading sitzt meisten vor dem Bildschirm - kaum eine halbwegs aktuelle Hardware bremst einen da irgendwie wirklich aus, und das schon seit Jahren. Selbst auf ner 10 Jahre alten Workstation kann ich heute ohne Probleme immer noch einen Kinofilm finishen.

Trotzdem gibt es - wie bei Kameras auch - immer den festen Glauben daran, daß man die vorhandenen tatsächlichen Defizite, durch irgendwelche magische neue Technik ausbügeln kann.

Von denjenigen, die hier immer nach "mehr Performance beim Editing" reden, höre ich nie irgendwelche Fragen die sich mit dem eigentlichen Editing auch nur am Rande beschäftigen. Da geht's bestenfalls immer nur darum das die 8K timeline nicht ruckelt.



Antwort von pillepalle:

Nee, nicht zuende geguckt, weil ein Display ohne Blendschutz für den Popo ist :)
Axel hat geschrieben:
Aber er kommt, wie jeder, der Augen hat zu sehen, zu dem Schluss, dass glossy kontrastreicher und schärfer ist.
Genau das ist ja auch das Problem beim iMAC Monitor. Gut für's Wohnzimmer, aber nicht zum Arbeiten. Da ist alles immer etwas zu bunt, knackig und undifferenziert. Manchmal ist das iMAC Display gut um zu beurteilen wie es manche Kunden sehen werden. So ähnlich wie das Gegenchecken auf verschiedenen Lautsprechern bei einem Mix.

VG



Antwort von markusG:

pillepalle hat geschrieben:
Der hat aber auch nicht wirklich verstanden wie man Raumbeleuchtung einsetzt. Wer installiert denn seine Röhren direkt vor den Monitor und ohne Blendschutz?
Kleine Anekdote aus Hochschulzeiten: da gab es einen Rechnerpool für Dinge außer Videoschnitt und 3D. Also eher sowas wie Bildbearbeitung, DTP etc.

Seitlich von dem Rechnerpool waren große Fenster, und die Wände waren weiß gestrichen, das übliche Bürolicht von oben. Der Studiengang war zu dem Zeitpunkt in bestehende Räumlichkeiten verfrachtet worden.
Es musste jedes mal der Raum "abgedunkelt" werden, damit man nicht den Schminkspiegeleffekt hatte.

So gut wie alle anderen Räumlichkeiten waren nicht besser von der Lichtsituation, aber sie hatten matte Screens, inklusive der alten Cinema Displays von Apple im Videoschnitt-Pool. Da gab es null Probleme.

Und wie gesagt: Profimonitore sind per default matt, und das hat auch seine Gründe. Und die werden ja sicher nicht ausschließlich in unkontrollierter Umgebung eingesetzt...Und Apple bietet das extra Coating sicher nicht grundlos an...



Antwort von Jott:

Spannend, was da so alles kommt. Nichts Neues. Obsolet jetzt - aber die Mär vom spiegelnden iMac ist schon erstaunlich. In den letzten Jahren wurde so kräftig entspiegelt, dass man schon absichtlich ein Fenster oder irgendwelche heftigen Leuchten hinter sich haben muss, um motzen zu können.

Geschichte. Jetzt freie Wahl für Profis und Minderbemittelte. Ein Nörgelpunkt weniger, neue Überlebenschance für Apple! :-)



Antwort von Axel:

@pillepalle
Kannst du diese abenteuerliche Erklärung irgendwo untermauern?
Wir hatten das auch schonmal mit Farbtreue. Ob es nicht besser ist, auf einem TV mit den üblichen Bildverbesserungs-Optionen zu graden, also mit dem der Wirklichkeit nicht fernen schlimmsten anzunehmenden Bild. Antwort: nein.
@markusG
Belege es. Die Anekdote vom frisch gekalkten Schulflur lasse ich nicht gelten. Genauso wenig wie, Eizos sind matt, also ist matt besser.



Antwort von markusG:

Axel hat geschrieben:
@markusG
Belege es. Die Anekdote vom frisch gekalkten Schulflur lasse ich nicht gelten. Genauso wenig wie, Eizos sind matt, also ist matt besser.
D.h. du bezichtigst mich der Lüge? Womit soll ich das bitte belegen? Das ist Ewigkeiten her und die Räumlichkeiten existieren inzwischen gar nicht mehr. Wie die neuen ausgestattet sind - keine Ahnung. Probier es halt selbst aus.

Dass sich das inzwischen arg verbessert hat kann ich aber nicht bestätigen - der 24er m1 iMac spiegelt ebenfalls genug, dass es problematisch ist.

Und Eizo ist noch nicht pleite, also scheinen sie ja was richtig zu machen. Aber es sind eigentlich sämtliche Hersteller, die in dem Bereich Geräte anbieten - da spiegelt keiner, selbst mit OLED nicht
https://www.lg.com/de/monitore/lg-32ep950-b

Willst du damit sagen dass Apple bullshit verkauft in dem sie das Matt Finish Upgrade verkaufen? Alles Idioten in der Ingenieursabteilung?

Eizos sind nicht matt = besser, sondern Eizos sind akurat, wieso durch Hochglanz vermasseln...



Antwort von Axel:

Von einer BenQ-Seite. Argumente für matte Displays, von Google übersetzt:
Monitore mit hellen und glänzenden Bildschirmen verwenden reflektierendes Glas oder Polymere. Ihr hoher Grad an Transparenz lässt fast die gesamte Lichtleistung des Displays durchscheinen, was zu einem sehr lebendigen Bild führt. Glänzende Bildschirme zeigen tiefere Dunkelheiten, helleres Weiß und sattere Farben als ihre matten Gegenstücke. Sie tun dies jedoch zu einem Preis. Selbst bei einer modernen Blendschutzbehandlung mit Magnesiumfluorid und ähnlichen Materialien ergibt sich der Nachteil der glänzenden Bildschirmschönheit aus der Reflektivität. Das bedeutet, dass Ihr Hochglanzmonitor oder Fernseher jede Lichtquelle in Ihrer Umgebung direkt in Ihre Augen scheint. Raumleuchten und Fenster reflektieren sehr deutlich auf glänzenden Materialien. Anstatt Spielgrafiken zu genießen oder sich auf Arbeitsinhalte zu konzentrieren, starren Sie mit glänzenden Bildschirmen oft auf Ihre eigene Reflexion, während Sie sich bemühen, Schreibtischlampen zu bewegen, damit sie den Bildschirm nicht verschönern.

Das führt nicht nur zu viel Aufhebens, es ist auch schlecht für Ihre Augen. Es wurde wiederholt gezeigt, dass Blendung Müdigkeit und Augenbelastung verursacht. Es gibt einen Grund, warum sich Büros auf der ganzen Welt fast universell für matte Monitore entscheiden. Darüber hinaus haben glänzende Oberflächen das zusätzliche Problem mit Flecken und Fingermagnetismus. Berühren Sie einen glänzenden Bildschirm und Öl aus Ihren Fingern zeigt ganz offensichtlich. Staub neigt in ähnlicher Weise dazu, an glänzenden Bildschirmen zu kleben, so dass sie erhebliche Wartung benötigen, um sauber zu bleiben.

Wenn Sie jedoch die Beleuchtung in Ihrer Umgebung WIRKLICH steuern und sicherstellen können, dass keine Lichtquellen auf einen Bildschirm reflektieren, dann bietet glossy die bessere Bildwiedergabe.
Hervorhebung von mir. Ergebnis: für ein besseres Bild auch die Anpassung des Arbeitsplatzes und einen Staubwedel in Kauf zu nehmen ist ein weiteres Merkmal der Minderbemittelung (der geistigen, nicht der finanziellen).



Antwort von pillepalle:

@ Axel

Natürlich. Im Studio arbeiten wir seit Generationen mit Apple Rechnern aller Klassen, aber nie ohne Referenzmonitor. Nicht weil wir andere Firmen unterstützen wollen, sondern weil wir Farbgenau arbeiten müssen. Allerdings im Still-Bereich, nicht für Video/Film. Egal wie man den iMAC, MacBookPro ect. kalibriert, die kommen im direkten Vergleich nie an die Referenzmonitore heran. Und wenn man professionell arbeitet orientiert man sich nun mal an Standards und nicht daran was gut aussieht.

Das soll auch kein Apple-Bashing sein. Die Monitore sind schon recht gut und sehen auch gut aus. Sie sind nur in den Feinheiten/Nuancen nicht so gut und die spiegelnde Oberfläche hat eben Nachteile. Natürlich kann man sein Video auch auf einem iMAC-Display graden und wird da keine eklatanten Unterschiede haben. Man sieht es nur im direkten Vergleich. Deshalb schrieb ich ja auch, ab einem gewissen Niveau.

Und bei Video ist das ja ohnehin nochmal anders. Wer gradet denn hier überhaupt nach irgendeinem Standard? REC709 mit Gamma 2.4, oder doch sRGB mit Gamma 2.2? Nutzt man ein 8 Bit, oder ein hardware-kaibrierbares 10 Bit (8Bit FRC oder echte 10BIT) Display? Wer passt seine Raumbeleuchtung an (nicht mit irgendwelchen bunten Lämpchen)? Man kann immer nur versuchen möglichst nah am Standard zu sein um eine gewisse Konstanz zu haben und der Norm möglichst nahe zu kommen. Das braucht man aber nicht als Hobbyfilmer und davon wird auch nicht abhängen ob das Grading gut oder schlecht war. Nur ob das was man sieht halbwegs einer Norm entspricht.

VG








Antwort von markusG:

Axel hat geschrieben:
Merkmal der Minderbemittelung (der geistigen, nicht der finanziellen).
Ah okay also alle die ProfiMonitore von Eizo, LG & co kaufen sind einfach nur alle zu minderbemittelt um ihre Lichtsituation zu kontrollieren? Ebenso diejenigen die sich ein mattes finish bei Apple dazubuchen?

Vielleicht möchte nicht jeder in einer dunklen Kammer mit schwarzer Kleidung usw. arbeiten :P es muss auch nicht jeder farbkorrekt arbeiten, aber dass man Bildschirminhalte erkennt sollte schon sowas wie ein Mindesstandard sein :D und nicht was sich davor befindet.



Antwort von Axel:

Gute Erklärungen, akzeptiert. Nicht, dass ich eine großartige Wahl hätte. Die Displays, die ich im Auge habe, sind matt, sowieso.



Antwort von Jott:

"Wenn Sie jedoch die Beleuchtung in Ihrer Umgebung WIRKLICH steuern und sicherstellen können, dass keine Lichtquellen auf einen Bildschirm reflektieren, dann bietet glossy die bessere Bildwiedergabe."

Wenn das BenQ sagt, und das stimmt natürlich (wer widerspricht?), dann kann man das "Profi gleich matt und Volldepp gleich glossy"-Getue doch eigentlich wegstecken. Jeder wie er mag ...



Antwort von R S K:

freezer hat geschrieben:
Woher nun Deine "völlig verzerrten und verfälschten Benchmarks seitens Apple"-Behauptung kommt, ist völlig unklar.
Von wo auch das "mehrfach" herkam. Man zieht sich das alles einfach irgendwo aus'm…

Und auch da wieder: Nachweis der völlig substanzlosen Behauptung (wie ironisch in dem Kontext), Fehlanzeige. Irgendeins der detailliert aufgeführten Tests nachgemacht und nachweislich als "völlig verzerrt und verfälscht" nachgewiesen? Natürlich nicht. Apple vertrauen? Du Trottel! Du musst ihm und seine beweisfrei überlegene Expertise vertrauen! :-))))

Echt schade, dass "false advertising" in den USA nicht strafbar ist, denn sonst müssten sie echte Zahlen nennen und könnten uns unverbesserlich DUMMEN Mac-Jünger nicht wieder so leicht Hopps nehmen!


markusG hat geschrieben:
wenn es nur um die reine Leistung beim Cpu rendern angeht: im cinebench r23 ist ein in etwa vergleichbarer Threadripper (3960x mit 24c) dem M1 Ultra um ca. 30% überlegen (multicore)…
Eben. So viel auch zum "mehrfach" Geschwätz. Leeres Wunschdenken (weil's nicht sein darf) ohne Substanz.


markusG hat geschrieben:
Und für Videoschnitt braucht es sicher keinen M1 Max oder Ultra, da reicht auch ein "popliger" M1 Pro. Da kann man das Geld sicher sinnvoller investieren als in den Sprung zum M1 Ultra.
Tja, das sehe ich wiederum anders. Meine Arbeit besteht nämlich nicht einzig aus einfach nur abspielen von einer x-Anzahl von Streams.


roki100 hat geschrieben:
am Ende wurde dann doch ein M1 Pro (bei meine Tests war der speed unterschied nicht so groß).
Nun, für mich wiederum ist doppelt so schnell, allein wenn es um "Media Engine" relevante Aufgaben geht, schon ziemlich groß. Habe gerade über 10 Stunden Material in 10bit-HEVC in unter einer Stunde ausgegeben. Die paar hundert Euro Unterschied habe ich also jetzt schon wieder raus. In 3-6 Monaten die gesamte Summe im Vergleich zu wenn ich beim alten Intel geblieben wäre.

Axel hat geschrieben:
Aktuell ist 17.4.5. Seltsam. Warum nimmt man die Beta einer Vorversion?
Dir ist aber schon klar, dass sie die ganzen Tests bereits vor Wochen wenn nicht Monaten gemacht haben werden und die 17.4.5 ist gerade mal eine Woche alt, oder?

Axel hat geschrieben:
Aktuell ist 10.6.1. Da es mW keine schlimmen Bugs gibt und da ja angeblich für Ultra softwaremäßig nichts optimiert werden muss…
Da irrst du dich aber. Auch wenn es nicht mehr viel und vergleichsweise Kleinigkeiten sind, es gibt noch einige Baustellen, vor allem bei Motion, wo noch optimiert werden muss. Für alle Chips. Für den Ultra muss natürlich wenig gemacht werden, aber auch nicht "nichts".

Und trotzdem sind sie so unfassbar schnell. Das soll was heißen.



Antwort von Axel:

Jott hat geschrieben:
"Wenn Sie jedoch die Beleuchtung in Ihrer Umgebung WIRKLICH steuern und sicherstellen können, dass keine Lichtquellen auf einen Bildschirm reflektieren, dann bietet glossy die bessere Bildwiedergabe."

Wenn das BenQ sagt, und das stimmt natürlich (wer widerspricht?), dann kann man das "Profi gleich matt und Volldepp gleich glossy"-Getue doch eigentlich wegstecken. Jeder wie er mag ...
Der Artikel geht noch weiter. Es lohnt sich nicht, sich deswegen zu streiten, ich find nur das Lemming-Argument "so machen’s die Profis" nie sehr einleuchtend.
Ja, matte Bildschirme sehen objektiv gesehen nicht so gut aus wie glänzende. Aber das ist in einer stark kontrollierten Umgebung. In der realen Welt sind matte Monitoroberflächen der einzig praktikable und rationale Weg.

Matte Monitore verwenden Kunststoffoberflächen aus verschiedenen Polymeren, die einem Ätzprozess unterzogen werden. Ob chemisch oder mechanisch, das Ätzen erzeugt eine enorme Anzahl von Rillen oder Vertiefungen in der Sieboberfläche. Diese dienen dazu, die Reflektivität zu reduzieren, indem Licht, das auf den Monitor trifft, gestreut wird. Es kann zwar immer noch zu geringfügigen Blendungen kommen, aber es kommt nie annähernd an die vollen Reflexionen heran, die Sie bei glänzenden Displays haben.

Aber ein Bildschirm, der Licht zurückweist, blockiert unweigerlich auch Licht. Während glänzende Bildschirme alles, was das Display anzeigt, nahezu ungefiltert durchlassen, blockieren matte Bildschirme viel mehr Lichtleistung des Monitors. Im Wesentlichen erhalten Sie mit matten Bildschirmen weniger Bildbeleuchtung oder einfach weniger Bild. Einige kleine Details werden möglicherweise verringert, der Kontrast wird verringert und die Farben erscheinen nicht so lebendig wie bei einem glänzenden Bildschirm.

Aber auch Ihre armen Augen müssen sich nicht mit störenden Reflexionen und lästigem Blenden abfinden. Sie müssen sich auch nicht davor fürchten, den Bildschirm zu berühren, da matte Displays Fingerabdrücke nicht so leicht erfassen wie glänzende Bildschirme. Daher ist für Monitore matt die bessere Option. Sie müssen sich keine Sorgen machen, eine Lampe auf Ihrer Arbeits- oder Spielstation zu platzieren, da Reflexionen kein Problem darstellen. Sie müssen nicht lange überlegen, bevor Sie die Vorhänge öffnen und etwas Licht hereinlassen. Mit matten Bildschirmen ist Licht nicht Ihr Feind.

Im Gegensatz zu Fernsehern ist Matt für Monitore eine absolut offensichtliche Wahl, zumal moderne Monitore weiterhin Helligkeit hinzufügen. Während noch vor fünf Jahren ein 300-nit-Monitor gut war, bekommt man heute problemlos 500-1000-nit-Panels, die die Anforderungen von DisplayHDR 400 und DisplayHDR 1000 erfüllen. Während Monitore heller werden, bleiben matte Materialien gleich und so scheint effektiv mehr Licht durch den Blendschutz. Einfach gesagt, die Bildqualität auf matten Monitoren wird immer besser. In den meisten Fällen fällt es Ihnen schwer, den Unterschied zu erkennen.

Fürchte das Licht nicht
Ob arbeiten, spielen oder einen Film schauen, wenn Sie dies auf einem Monitor tun, sind Sie mit einem matten Display am besten bedient. Bewahren Sie den Glanz im Wohnzimmer dort auf, wo er hingehört. In Bezug auf Monitore befreien Sie matte Materialien von der Sorge um Blendung und Überanstrengung der Augen. Warum würden Sie sich anders entscheiden?
Zu "Licht ist nicht Ihr Feind" fällt mir der doofe Spruch des Chefs ein, der mich im Fotolabor angelernt hat: "Licht ist unser schlimmster Feind".



Antwort von R S K:

markusG hat geschrieben:
naaajaaa selbst bei Maxtech haben sie da so ihre Bedenken…
Na wenn MaxTech es sagt.

Und die wissen woher genau, dass die Chips nicht z.B. 50 oder mehr Prozent höher getaktet sind? Denn warum in aller Welt sollten die bei DER Kühlung gleich schnell wie im MacBook Pro laufen müssen? Die nehmen auch einfach alles x2 ohne das oder die doppelte Geschwindigkeit des RAMs oder oder oder in Betracht zu ziehen und rufen "Kann nicht sein!". 🙄 Wenn's nicht auf Twitter steht…

Hätte Apple stattdessen die Kühlung vom MBP da eingebaut, oder auch nur eine etwas verbesserte (d.h. auch nur halb so große) für den Ultra, dann hätten sie wahrscheinlich nicht mal den Formfaktor groß ändern müssen und es wäre tatsächlich ein "Mini Pro" geworden.

Abwarten.



Antwort von markusG:

"R S K" hat geschrieben:
Eben. So viel auch zum "mehrfach" Geschwätz. Leeres Wunschdenken (weil's nicht sein darf) ohne Substanz.
Hab ja eine andere CPU ausgesucht, die featuretechnisch und preislich vergleichbarer ist, aber dafür ist sie schon was älter als die M1-Reihe. Der 3990X dürfte im Rendering schon "ne Ecke" schneller sein (spoiler: 54% ggü 3960X, im Cinebench R36 MC)...Das "mehrfach" kannst du dir im Blender GPU Rendering anschauen. Habe ich ja bereits an anderer Stelle erwähnt. Da macht sich der Rückstand eher bemerkbar als in reiner CPU Leistung. Gerade wenn es um RT geht - da ist Apple (und auch AMD) noch das Schlußlicht. Das macht sich vaD in dem Viewport bemerkbar, da profitiert bereits eine Einstiegs-RTX3060. Sieht bei den anderen GPU Renderern (Octane, Redshift) im übrigen auch nicht groß anders aus.

So spannend ich den Studio auch finde - ich warte erst noch auf die weitere Softwareentwicklung ab. Das geht alles nicht so schnell wie ich das erhofft habe :(
Auf der Gegenseite kriegt man zum Mini M1 Preis bereits eine potente 3D-Kiste, von der man vor Jahren geträumt hätte. Aber das ist eine andere Geschichte.



Antwort von freezer:

Aus dem Alexis Van Hurkmans "Color Correction Handbook" 2nd Edition über die Monitorwahl im professionellen Bereich:
For displays without an ND filter, glossy panels provide a perceptible improvement in contrast by eliminating the extremely slight veiling glare that antiglare coatings introduce as a function of how they work. However, the debate between antiglare and glossy monitors should really be settled based on your ambient environment. If you're a colorist in a room with controlled lighting (as you should be), glossy monitors shouldn't pose any problems because reflections should be minimal. However, if you're forced to work in an environment with more ambient lighting, antiglare screens have value, and in any case the overall effect on the image being output is so minor as to make this largely a case of individual preference.




Antwort von Jott:

So isses.

Ich ziehe Glossies (mit guter Entspiegelung natürlich wie bei den letzten großen iMacs) vor, der Direktvergleich mit einem matten daneben zeigt wieso.

Und ja, natürlich stehen unsere Schnittplätze in halbdunklen Räumen ohne Leuchten oder gar Fernster im Rücken. Wände und Türen sind weiß, die iMacs (aus) sind einfach nur tiefschwarze Rechtecke ohne jeden Reflex. Auch nicht von den Wänden. Das darf sich die Profipolizei gerne ansehen, allerdings nur mit Durchsuchungsbefehl.

Aber ich bin ja auch ein Querulant, der zu behaupten wagt, dass man durchaus auch mit einer ollen 8Bit-Kamera gaaaanz tolle Sachen drehen kann, wenn sonst nichts zur Hand ist. Oder gar mit fcp x schneiden und produzieren - huaaaa. Dogmen sind immer schwierig, vor allem nachgeplapperte.

Aber der 27er ist Geschichte, und der Thread dreht sich ja eigentlich um Grafikkarten und irgend welche Benchmarks. Viel spannender.








Antwort von markusG:

Jott hat geschrieben:
Ich ziehe Glossies (mit guter Entspiegelung natürlich wie bei den letzten großen iMacs) vor,
Schon ein wenig widersprüchlich :D

Hatten die letzten 27er ein anderes Finish als die 24er M1?

Jott hat geschrieben:
der Thread dreht sich ja eigentlich um Grafikkarten und irgend welche Benchmarks. Viel spannender.
eben, der studio monitor hat einen eigenen thread :P husch!



Antwort von Jott:

"Schon ein wenig widersprüchlich :D"

Nö. Entspiegeltes Glas. Wie bei sehr guten Brillengläsern. Die sind auch nicht matt, you know. Aber wieso schreibe ich so was überhaupt hin … sinnlos.

"Hatten die letzten 27er ein anderes Finish als die 24er M1?"

Weiß ich nicht. Den 24er hatte ich mir mangels Interesse nie angesehen.



Antwort von markusG:

Jott hat geschrieben:
Die sind auch nicht matt, you know. Aber wieso schreibe ich so was überhaupt hin … sinnlos.
Nano-texture glass is a relatively new matte display option that helps further reduce reflectivity in challenging environments with a lot of uncontrolled lighting. Also scheinst du ja schon Probleme mit dem Glossy zu haben und bevorzugst nicht glänzende Displays (bzw. Finishs). Darum ging es.

Wie gut jetzt alle möglichen Displayymaterialen sind hab ich nicht testen können. Einen iMac oder Studio Monitor ohne diese Nanotextur würde ich nicht mehr benutzen wollen. Arbeite aber auch nicht im Dunkeln usw.



Antwort von pillepalle:

@ markusG

Ist nur ein Hanyschnappschuß, aber ich hatte heute Nachmittag mal was in den iMac Pro eingespiegelt. Da kann man ganz gut sehen wie 'Matt' er ist. Wenn er richtig steht, spiegelt sich da natürlich nichts direkt ein. Der iMAC Pro ist 4 Jahre alt, weiß nicht ob sie mittlerweile etwas an der Oberfläche verändert haben. Die Normalen iMACs kamen mir davor auch nicht sonderlich anders vor.

zum Bild https://www.nikon-fotografie.de/communi ... 38299/full

Soll jeder so arbeiten wie er mag und damit glücklich werden :)

VG



Antwort von Jott:

" Also scheinst du ja schon Probleme mit dem Glossy zu haben."

Eben nicht. Regt dich das so auf, bringt dich das echt so auf die Palme? Ich setze einen drauf: der nächste Monitor für den nächsten Mac wird auch wieder Glossy sein. Apple baut so was extra für mich, und um alle anderen zur Weißglut zu bringen.

Währenddessen konstruiert die Profipolizei eine Anklage und kippt den iMac extra zu einer fiesen Büro-Deckenleuchte, die da nichts zu suchen hat. Ab einem bestimmten Niveau! :-)

Spaß muss sein.



Antwort von science:

Jott hat geschrieben:
" Also scheinst du ja schon Probleme mit dem Glossy zu haben."

Eben nicht. Regt dich das so auf, bringt dich das echt so auf die Palme? Ich setze einen drauf: der nächste Monitor für den nächsten Mac wird auch wieder Glossy sein. Apple baut so was extra für mich, und um alle anderen zur Weißglut zu bringen.

Währenddessen konstruiert die Profipolizei eine Anklage und kippt den iMac extra zu einer fiesen Deckenleuchte, die da nichts zu suchen hat. In der Profiumgebung! :-)

Spaß muss sein.
Jott, fragen wir uns einfach mal, warum High End Coloristinnen Displays wie die FSI, Canon, Sony, TVLogic, etc alle Matt sind. Weil Leute die 10000+ € für ein Display ausgeben, alle keine Ahnung haben? Weil die Firmen, die so etwas herstellen, alle Hochstapler sind? Weil Apple die einzige Firma ist, die die physikalischen Grundlagen der Optik verändern kann?
Oder liegt es einfach daran, dass Matte Displays vielleicht einfach die bessere Wahl sind?
Ist halt auch der selbe Grund, warum man keine wirkliche Gradingsuite in einem lichtdurchfluteten Loft finden wird.
Aber jeder darf für sich selbst entscheiden, was man selbst gut findet. Nur sollte man seinen Geschmack nicht als Fakt verkaufen. Wenn Du mit den Glosy zufrieden bist, top für Dich. Gibt auch Gewerke, da ist Matt gefragt. Vor allem, wenn es um akkurate Farbbearbeitung geht, wenn man als Coloristin unterwegs ist.



Antwort von Jott:

Klar. Es geht nur darum: in einer kontrollierten Umgebung (die man doch hoffentlich hat als Profi) spiegelt nichts im Glossy, die Farben sind brillanter, Schwarz ist wirklich Schwarz, Schrift ist schärfer (gerade bei den 5K-Monitoren). Wer das vorzieht, der soll das doch dürfen. Auch wenn die meisten matt vorziehen. Denen werfe ich das ja nicht vor. Ich hasse lediglich Dogmen und bin froh, dass Apple weiterhin einen hochwertigen Glossy-Monitor anbietet. Was auch belegt, dass ich durchaus kein einsamer Vollpfosten bin auf weiter Flur.



Antwort von pillepalle:

Jott hat geschrieben:
Währenddessen konstruiert die Profipolizei eine Anklage und kippt den iMac extra zu einer fiesen Büro-Deckenleuchte, die da nichts zu suchen hat. Ab einem bestimmten Niveau! :-)

Spaß muss sein.
Deine Büro-Deckenleuchte ist eine Abmusterungsleuchte mit Normlicht (5500K). Mache ich Dir nicht zum Vorwurf, denn als 'Filmfritze' kannst Du das auch nicht nicht wissen :) Wir Fotofuzzies sizten beim Retuschieren auch nicht wie die Maulwürfe in einem dunklelen Loch, sondern es braucht eine bestimmte Raumhelligkeit ...ab einem gewissen Niveau.

Alles gut. Man sollte jedem sein Glossy-Display lassen das 'besser' aussieht. Im Gradingraum kann man ja es tatsächlich dunkel machen und damit glücklich werden. Hast Du jetzt sogar polizeilich beglaubigt ;)


zum Bild


VG



Antwort von Jott:

Und wieder unterstellst du was: Sitzen im dunklen Loch. Aber nein. Filmfritzen haben indirekte Raumbeleuchtung. Gut für Glossy und auch gut für matte Exemplare. Man will ja deren prinzipbedingten Grauschleier so gering wie möglich halten.








Antwort von pillepalle:

Schon klar, ich dachte Du hättest die Ironie darin verstanden. Der iMac spiegelt selbst bei uns kaum. Nur wenn man ihn direkt in etwas helles hinein dreht.

VG



Antwort von Jott:

Alles gut!



Antwort von markusG:

Jott hat geschrieben:
" Also scheinst du ja schon Probleme mit dem Glossy zu haben."

Eben nicht. Regt dich das so auf, bringt dich das echt so auf die Palme?
Nein mir ist es wumpe was du benutzt. Nur redest du einmal von Glossy, und einmal von entspiegelt (also Matt). Das sind zwei verschiedene Paar Schuhe, die du da in einen Topf schmeißt. Wenn Apple keine Rolle rückwärts gemacht hat ist der Standard glossy, und eben nicht entspiegelt. Das lässt sich per Upgrade ja dazu buchen.

Apple hat eben gemerkt dass sich die Käufer nicht diktieren lassen wollen, was sie einsetzen (glossy vs entspiegelt) und bietet eine Wahl, und das ist gut so. Aber es ist eben auch nicht "niveaulos" dafür dann drauf zu zahlen.

P. S. Zu BenQ, die schreiben halt auch sowas :
Ein Anti-Glare-Bildschirm ist grundlegend genauso aufgebaut wie ein nicht entspiegelter Monitor. Den Unterschied sehen und fühlen Sie hier in der Beschichtung. Diese ist rau und nicht glatt, wie es bei Glare-Monitoren der Fall ist. Lichtstrahlen, die auf diese Oberfläche prallen, werden gespalten und verteilen sich in verschiedene Richtungen. Dadurch wirken dargestellte Inhalte natürlicher und farbechter. Diese Eigenschaft ist für professionelle Video- und Bildbearbeitung unabdingbar, weshalb sich derartige Monitore gut für Foto- und Videografen eignen.
https://www.benq.eu/de-de/knowledge-cen ... glare.html

Je nachdem was gerade verkauft wird :P



Antwort von Jan Onderwater:

DeeZiD hat geschrieben:
PrincipeAzzurro hat geschrieben:
Sehe eher eine Pralinenschachtel als einen Brotdose ;-)
Falls es irgendjemanden interessiert (aber dafür sind ja Foren da, oder?): das wird DIE Lösung sein für meine Doku-Firma. Wenn's dafür demnächst auch eine innen weiche und aussen resistente Tasche gibt, kann ich das 20x20x9.5cm große Teilchen genauso gut mitnehmen wie ein MacBook. Ein Bildschirm findest sich immer irgendwo. Fazit: für kleine Produktion wie uns ist das absolut perfekt, auch rein finanziell (da war doch was: viewtopic.php?f=6&t=154693).

PS: finde es eigentlich ganz witzig aber vor allem ziemlich aus der Zeit gefallen, dass es hier bei Slashcam offenbar noch immer Streit gibt zwischen Mac-Ätzern und -Anhängern, speziell hier auf dem Forum und fast immer von den gleichen Leuten. Lasst es doch einfach, spart euch die Zeit zu tippen und uns Lebenszeit. Außerdem - jedem Kind sein Räbbelchen…!
Finde das Teil auch mega für den Preis und Größe.
Der PC im Beispiel dürfte was die CPU angeht schneller sein, aber bei der GPU in etwa vergleichbar mit dem M1 Max Studio für ca. 2200 Euro sein.
Mich interessiert die CPU/GPU Geschwindigkeit kaum, genau so wenig wie die Benchmarks
Was mich interessiert ist wie schnell Video Editing geht, und nein, das ist nicht dasselbe.



Antwort von Jott:

"Nur redest du einmal von Glossy, und einmal von entspiegelt (also Matt). Das sind zwei verschiedene Paar Schuhe"

Himmel, MarkusG, stehst du auf dem Schlauch?
Glossy ist Glas mit Antireflexbeschichtung, das kann Apple sehr gut. Ist dann immer noch Glossy. So was von glossy. So glossy, dass der "Profi" sich mit Grausen abwendet! :-)

Stell dich doch nicht absichtlich doof.

Ab ins Off-Topic? Gerne.



Antwort von Jott:

"Jan Onderwater" hat geschrieben:
Mich interessiert die CPU/GPU Geschwindigkeit kaum, genau so wenig wie die Benchmarks
Was mich interessiert ist wie schnell Video Editing geht, und nein, das ist nicht dasselbe.
Pragmatische Einstellung. Ich beurteile diese Dinge so:

Eigenes typisches Projekt, gerne mit Schikanen wie 4K Multicam, auf eine SSD packen (fcp, Adobe, BM - egal), mit dem typisch verwendeten Rohmaterial, gerne auch ein paar besonders schwierige Testkandidaten mit dazu. Testen der "Schwuppdizität" (© Frank Glencairn) im nächsten Apple Store. Demotermin machen. Nur so kann man genau feststellen, was man für ein paar Tausender bekommt oder auch nicht. Konkret, individuell, ganz ohne nerdige Benchmarks und aufgeregte YouTuber.



Antwort von markusG:

Jott hat geschrieben:
Glossy ist Glas mit Antireflexbeschichtung
Nein Glossy ist Glossy, Antireflex ist Antireflex: imac_glossy_antiglare.png Links ist mit Antireflexbeschichtung, rechts ohne. Also für mich ist das Display links matt, das rechts dagegen glänzend ("glossy"). Aber vielleicht verwendest du ja für alles "glossy", auch wenn es eigentlich matt ist.



Antwort von Axel:

Jott hat geschrieben:
Stell dich doch nicht absichtlich doof.
Sehr freundlich, dass du das so formulierst. Einige argumentieren hier, wie du weiter oben erwähnst, dogmatisch, aber andere in unredlicher Absicht.
science hat geschrieben:
Fragen wir uns einfach mal, warum High End Coloristinnen Displays wie die FSI, Canon, Sony, TVLogic, etc alle Matt sind.
Du zum Beispiel nennst dich "science", kommst aber mit einem typischen Dogmatiker-Argument. If it's good enough for Jesus, it's good enough for me. Dabei haben einige matt-Befürworter, z.B. pillepalle, bereits differenzierte Argumente gebracht. Mit Dogmatikern zu diskutieren ist wie mit Zeugen Jehovas zu diskutieren. Warum ist das so? Steht so in der Bibel.
Jott hat geschrieben:
Ab ins Off-Topic? Gerne.
Dann schlage ich als Off-Topic-Thema "Schnittplatzergonomie" vor, ein super wichtiges Thema. Es gibt in Deutschland eine Bildschirmarbeitsplatzverordnung, die von Loriot hier so erklärt wird:


Zitat: "Ich möchte Sie nicht mit 50 in Rente schicken!"
Arrrghhh!

Dann, du Arsch, sorg als Chef selbst mal dafür, dass du einen menschenwürdigen Arbeitsplatz schaffst!

Weitere Ergonomie Themen:
> benutzt du generell eher einen hellen oder dunklen Modus, und wenn, machst du Unterschiede, ob es Tag oder Nacht ist und ob du Videos (etwa Youtube) guckst oder Text schreibst/liest?
> bevorzugst du eine helle oder dunkle Umgebung beim Schneiden?
> benutzt du einen normalen Bürostuhl, einen Gamingsessel, einen Balanceball oder stehst du wie Walter Murch?
> verstellst du eher die Monitorposition (mMn ein echter Schwachpunkt beim iMac) oder änderst du deine Position relativ zum Monitor oder lässt du deinen Körper sich durch Kontrakturen den Bedingungen anpassen?
> guckst du nur auf den Monitor oder musst du hin- und hergucken, weil du z.B. nicht blind tippen kannst?
> benutzt du für's Colorgrading ein spezialisiertes Eingabegerät?
> missachtest du für ein 709 & BT 1886 - Grading die Monitorhelligkeit von 100 nits, siehe BenQ-Argument:"Im Gegensatz zu Fernsehern ist Matt für Monitore eine absolut offensichtliche Wahl, zumal moderne Monitore weiterhin Helligkeit hinzufügen. Während noch vor fünf Jahren ein 300-nit-Monitor gut war, bekommt man heute problemlos 500-1000-nit-Panels, die die Anforderungen von DisplayHDR 400 und DisplayHDR 1000 erfüllen. Während Monitore heller werden, bleiben matte Materialien gleich und so scheint effektiv mehr Licht durch den Blendschutz."
> und da wir bei HDR sind, wo es bei "Black" (Resolve HDR-Tools) auf den Bereich zwischen 0 und und knapp darüber geht: das scheint ja genau der Bereich zu sein, der unten von den Black-Pro-Mist Oberflächen gefressen wird.
Jott hat geschrieben:
Testen der "Schwuppdizität" (© Frank Glencairn)
Super Begriff.



Antwort von Jott:

Axel hat geschrieben:
Sehr freundlich, dass du das so formulierst.
Aber ja. Ich bin wohl erzogen. Im realen Leben würde ich einen Herrn G gerne bei uns auf einen der Schnittplatzsessel verfrachten und ihn stundenlang nach Reflexen auf glossigen iMacs suchen lassen. Im virtuellen Leben aber ist mir ein virtueller Herr G natürlich egal. Und ehrlich, für mich sind solche Dispute primär Unterhaltung und vor allem auch "Menschenkunde". Unsere Branche ist voll von seltsamen Exemplaren.

Ein Schnittplatzergonomie-Thread wäre in der Tat interessant.








Antwort von markusG:

Axel hat geschrieben:
Sehr freundlich, dass du das so formulierst. Einige argumentieren hier, wie du weiter oben erwähnst, dogmatisch, aber andere in unredlicher Absicht.
Sich auf Konventionen zu einigen - z.B. Sprache - halte ich nicht gerade für dogmatisch, sondern für die Grundlage dessen, ohne Mißverständnisse zu kommunizieren. "Glare = Anti-Glare" ist dann so eine Monstrosität die dessen gegenläufig ist, nur um was genau zu bewerkstelligen? Eben: irgendwas unredliches.
"Jott"] Ein Schnittplatzergonomie-Thread wäre in der Tat interessant.
Jupp und absolut kein Offtopic :)

[quote=Jott hat geschrieben:

Und ehrlich, für mich sind solche Dispute primär Unterhaltung Das sagt mehr über dich aus als über diejenigen, mit denen du die "Dispute" hälst...schlägst du jetzt noch in die Kerbe des Users mit den drei Buchstaben? ich hoffe doch nicht!
ok, das ist jetzt offtopic.



Antwort von Axel:

markusG hat geschrieben:
Axel hat geschrieben:
Sehr freundlich, dass du das so formulierst. Einige argumentieren hier, wie du weiter oben erwähnst, dogmatisch, aber andere in unredlicher Absicht.
Sich auf Konventionen zu einigen - z.B. Sprache - halte ich nicht gerade für dogmatisch, sondern für die Grundlage dessen, ohne Mißverständnisse zu kommunizieren. "Glare = Anti-Glare" ist dann so eine Monstrosität die dessen gegenläufig ist, nur um was genau zu bewerkstelligen? Eben: irgendwas unredliches.
Zuerst zu "unredlich". Bin ich zugegebenermaßen selbst, wenn ich weiter den Sturm im Wasserglas anschüttele, obwohl ich weiter oben schon gesagt habe, dass ich eh meine Wunschmonitore nicht in glossy kriege und dass mir das nicht so wichtig ist. Zur (offenbar von dir bestrittenen) Anti-Glare-Beschichtung des alten iMac: dass das kein einfaches Fensterglas ist wie bei einer nicht entspiegelten Brille ist jedem klar, der einen besitzt. Beweis? Kann ich nicht bringen, ist, wenn dokumentiert, dann irgendwie in Google verschütt. Nur sollte Jotts Brillenbeispiel jedem klar machen, dass entspiegelt nicht matt bedeuten muss, sogar dir.
markusG hat geschrieben:
Ein Schnittplatzergonomie-Thread wäre in der Tat interessant.
Jupp und absolut kein Offtopic :) In einem Chip-Gehäuse-Thread schon.



Antwort von markusG:

Axel hat geschrieben:
Zur (offenbar von dir bestrittenen) Anti-Glare-Beschichtung des alten iMac: dass das kein einfaches Fensterglas ist wie bei einer nicht entspiegelten Brille ist jedem klar, der einen besitzt. Beweis?
Es geht ja um die Unterscheidung zwischen Glare vs. Antiglare. Dass ein iMac nicht zu 100% einem Spiegel entspricht ist ja wohl logisch, "Schminkspiegel" ist ein geflügeltes Wort. Ich habe ja einen Screenshot von dem iMac 2020 gepostet, da sollte der Unterschied doch klar sein, und auch was mit Glossy/Glare gemeint ist. Und gegenüber der Nanotextur sieht man ja was mit Glossy gemeint ist. Es wirkt als sei Glossy irgend ein Schimpfwort oder ein Verein, wo man nicht zugeben möchte Mitglied zu sein und deshalb irgendwelche Abstrusitäten erfindet. Statt einfach zu sagen dass man mit Glossy wunderbar arbeitet wird sowas wie Glare = Anti-Glare verbreitet, was halt - siehe Bildbeispiel - die Diskussion ad absurdum führt. Man braucht schon eine Grundlage auf die man sich einigen kann.

Woher soll ich wissen womit Jott gut arbeiten kann wenn ich nicht weiß ob er den "normalen" Bildschirm meint oder den "behandelten" mit Nanotextur? Er redet mutmaßlich bei beidem ja von Antiglare, ich jedoch nur bei letzterem. Es geht nicht darum dass ich anderer Meinung bin, sondern es mir nicht klar ist was er denn nun meint. Und da er darauf immer noch nicht eingegangen ist muss ich von Unredlichkeit und nicht von simplem Mißverständnis ausgehen.
Axel hat geschrieben:
markusG hat geschrieben:
Jupp und absolut kein Offtopic :)
In einem Chip-Gehäuse-Thread schon.
Ich meinte das als eigenständigen Thread - und Jott auch (s.o.). Da du das geflissentlich ignoriert hast unterstelle ich dir unredlich Absichten. Also hold your horses.



Antwort von Jott:

markusG hat geschrieben:
Woher soll ich wissen womit Jott gut arbeiten kann wenn ich nicht weiß ob er den "normalen" Bildschirm meint oder den "behandelten" mit Nanotextur?
Weil wir ganz unredlich nur vom 27er iMac in glossy geredet haben - ständig und immer. Von Apple's Nanotextur-Option war nie die Rede. Damit sind übrigens viele unglücklich, da extrem empfindlich. Aber nochmal für's Protokoll: Jott - glossy. Jott - glossy. Jott - glossy. Got it? Okay, wahrscheinlich nicht.



Antwort von markusG:

Jott hat geschrieben:
Von Apple's Nanotextur-Option war nie die Rede.
Von Antiglare Beschichtung. Das nennt Apple eben Nanotextur. Andere halt schlicht (u.a.) Antiglare Beschichtung. Aber gut, dann weiß ich endlich dass du die nicht meinst.

Freut mich dass du damit klar kommst. Aber schade dass die Apples Beschichtung problematisch ist :(



Antwort von Jott:

Von der Website des Satans.

Normal:
"Das Standardglas hat eine Antireflex-Beschichtung, die für angenehmes Sehen und Lesbarkeit sorgt."
Extra für den Jott.


Variante gegen Aufpreis:
"Das Nanotextur­glas minimiert Blend­effekte und sorgt dabei für eine beeindruckende Bildqualität an Arbeits­plätzen mit hellen Lichtquellen."

Die Nanotextur wird ins Glas geätzt, das ist keine Beschichtung. Lies mal nach, ist interessant.



Antwort von markusG:

Jott hat geschrieben:
Die Nanotextur wird ins Glas geätzt, das ist keine Beschichtung. Lies mal nach, ist interessant.
Ehrlich gesagt kann es mir nicht egaler sein was Apple da anstellt. Können sie gerne zu Vollmond auf den Fidschi Inseln am Fuße eines Vulkans aus frischer Lava gießen - ändert nix daran dass es am Ende auf die Wahrnehmung vom Ergebnis ankommt.

Für mich relevant ist ob ich damit arbeiten kann. Und wenn sich Apple schon die Mühe damit macht das Standardglas mit einer Antireflex-Beschichtung zu versehen, und es dennoch ausgeprägt* reflektiert - dann macht es für mein "helles" Einsatzgebiet eben keinen Sinn. Da käme ja dann theoretisch das mit der Nanotextur ins Spiel. Egal ob aufgebügelt, reingeätzt oder aufgemalt.


*subjektiv! hab mir dazu den M1 24 iMac angeschaut, deswegen meine Frage neulich. Ich sag wie es ist - ich bin in dem Bereich eben ne Mimose



Antwort von freezer:

science hat geschrieben:
Jott, fragen wir uns einfach mal, warum High End Coloristinnen Displays wie die FSI, Canon, Sony, TVLogic, etc alle Matt sind. Weil Leute die 10000+ € für ein Display ausgeben, alle keine Ahnung haben? Weil die Firmen, die so etwas herstellen, alle Hochstapler sind? Weil Apple die einzige Firma ist, die die physikalischen Grundlagen der Optik verändern kann?
Oder liegt es einfach daran, dass Matte Displays vielleicht einfach die bessere Wahl sind?
Schon ironisch, dass Du Sony mit aufzählst, da deren Highend-Grading-Trimaster-Displays glossy sind.
Auch das von mir gepostete Van Hurkmans Buchzitat scheint an Dir vorübergegangen zu sein.
science hat geschrieben:
Ist halt auch der selbe Grund, warum man keine wirkliche Gradingsuite in einem lichtdurchfluteten Loft finden wird.
Aber jeder darf für sich selbst entscheiden, was man selbst gut findet. Nur sollte man seinen Geschmack nicht als Fakt verkaufen. Wenn Du mit den Glosy zufrieden bist, top für Dich. Gibt auch Gewerke, da ist Matt gefragt. Vor allem, wenn es um akkurate Farbbearbeitung geht, wenn man als Coloristin unterwegs ist.
Warum genau sollte das matte Display akkuratere Farbdarstellung ermöglichen als das glossy Display?



Antwort von dnalor:

dnalor hat geschrieben:
Der iMac Monitor war zwar super, aber leider nicht nicht entspiegelt. Deshalb hatte ich beim iMac auch immer noch einen zweiten, matten Monitor. Den Unterschied merkt man, wenn man den ganzen Tag davor sitzt.
Da ich ja die ganze Diskussion matt<-> verspiegelt wohl in Gang gebracht habe, will ich noch mal anmerken, dass es aus meiner Sicht total egal ist was professioneller ist. Wenn ich den ganzen Tag vor einem Glossy Bildschirm sitze finde ich das wesentlich anstrengender für die Augen.
Für bildbearbeitung waren alle brauchbar.



Antwort von Frank Glencairn:

Ist es wirklich für euch so ein Problem, einfach keine Lichtquellen im Rücken zu haben?



Antwort von Darth Schneider:

Das geht gar nicht.
Schliesslich möchte man doch auch beim Colorgrading sexy aussehen.
Man weiss ja nie wer spontan rein so platzt.;)))
Wo bleibt die Colorgrading Brille oder ein Headset ?

Wäre eigentlich ein Beamer nicht am effizientesten, speziell so ab 50, wenn die Augen eh langsam schwächer werden ?
Oder schon alleine wegen der möglichen Bildgrösse ?
Natürlich dann ganz ohne andere grosse Lichtquelle..
Gruss Boris



Antwort von pillepalle:

"Darth Schneider" hat geschrieben:
Das geht gar nicht.
Schliesslich möchte man doch auch beim Colorgrading sexy aussehen.
Man weiss ja nie wer spontan rein so platzt.;)))
Gruss Boris
Oh no... jetzt hab' ich Kopfkino! 🙈

VG



Antwort von Darth Schneider:

Das kenne ich.
Wenn du Zeit hast, setz es einfach spontan um.
Das baut zumindest den ganzen inneren Druck ab….D
Gruss Boris



Antwort von Funless:

Ihr Ferkl ...



Antwort von pillepalle:

@ Darth

Nee... ich hab' mir gerade nur vorgestellt wie Du 'sexy' beim Colorgrading sitzt 😅 Das hatte wenig mit Erotik zu tun...

VG



Antwort von markusG:

"Frank Glencairn" hat geschrieben:
Ist es wirklich für euch so ein Problem, einfach keine Lichtquellen im Rücken zu haben?
3-Punkt Ausleuchtung. Und weißes T-Shirt und blasse Haut + Ringlicht für Twitch. Mindestens :D


Und zum Thema Vergleich - schon wieder so ein Benchmark Gedöhns...
https://www.youtube.com/watch?v=FS0bnE5Yf1k

Aber bald kommen ja sicher die Reviews mit echten Anwenderszenarien. VaD Kühlung/Lüfter sind ja noch unbekannt.



Antwort von Frank Glencairn:

Cinebench mit 17573! Ned schlecht.
Auf der anderen Seite, wer nutzt schon den C4D Renderer?

Während dessen rendert Cinema mit V-Ray auf einer 10 Jahre alten Workstation hier wacker vor sich hin.
Mit 1:50 rum pro Frame kann ich leben. Läuft ja quasi nebenher, während ich auf den anderen Rechnern arbeiten kann.


IMG_20220315_202721.jpg IMG_20220315_202756.jpg



Antwort von medienonkel:

andieymi hat geschrieben:
medienonkel hat geschrieben:
Schon beeindruckend.
Jedoch sehe ich bei uns keinen einzigen Mac im Einsatz... Doch, einer, falls mal ne Mac Platte angeliefert wird
Gibt mittlerweile HFS-Treiber für Windows, falls das die Operation je vereinfachen sollte.
Ja, Mac Drive gibt"s hier an jeder Ecke.
Trotzdem wird Wert auf die gebotene Dekadenz gelegt, nen Mac Pro nur als Festplattenbetriebsstation für einmal im Jahr vorzuhalten ;-)



Antwort von medienonkel:

"Frank Glencairn" hat geschrieben:
Cinebench mit 17573! Ned schlecht.
Auf der anderen Seite, wer nutzt schon den C4D Renderer?

Während dessen rendert Cinema mit V-Ray auf einer 10 Jahre alten Workstation hier wacker vor sich hin.
Mit 1:50 rum pro Frame kann ich leben. Läuft ja quasi nebenher, während ich auf den anderen Rechnern arbeiten kann.



IMG_20220315_202721.jpg


IMG_20220315_202756.jpg
Naja, in 720p halt ;-)

Wenigstens hats in 3dsmax jetzt endlich mal nen realtime fluid simulator von cebas!!



Antwort von MK:

medienonkel hat geschrieben:
Ja, Mac Drive gibt"s hier an jeder Ecke.
Dafür habe ich vor 10+ Jahren auch mal eine Lizenz gekauft... war leider die Zeit wo Mac Drive hin und wieder mal das ganze Betriebssystem nach Lust und Laune zerschossen hat, seitdem nicht mehr benutzt.



Antwort von Frank Glencairn:

MK hat geschrieben:


Dafür habe ich vor 10+ Jahren auch mal eine Lizenz gekauft... war leider die Zeit wo Mac Drive hin und wieder mal das ganze Betriebssystem nach Lust und Laune zerschossen hat, seitdem nicht mehr benutzt.
Ja, das war immer etwas schwindlig, und hat tiefer ins System eingegriffen als einem lieb war.
Wenn's nur um's lesen geht, hab ich mit dem kostenlosen HFS Explorer gute Erfahrungen gemacht, mittlerweile benutze ich hauptsächlich TransMac was etwas komfortabler ist. https://www.acutesystems.com/scrtm.htm



Antwort von markusG:

Jott hat geschrieben:
Dass es offensichtlich keinen iMac 27" mehr geben wird, stimmt traurig. Das war (und ist) ein wunderbares Arbeitstier mit sehr gutem Monitor
Eigentlich hatte ich mich nicht weiter mit dem iMac befasst, aber dann kam das Video in die Timeline gespült:

https://www.youtube.com/watch?v=mqHHx3QmuVM

Der "alte" 27er iMac ist einfach noch zu gut, da braucht Apple Silicon wohl noch mehr Abstand, damit sie es dann wieder einführen. Denn so ein oldschool Gehäuse, um da einen Max/Ultra reinstopfen zu können (wegen Kühlung) will am Ende sicher auch wieder keiner. Ist in meinen Augen eine plausible Theorie.

Also an die Fans des 27er: Gebt die Hoffnung nicht auf!



Antwort von MK:

"Frank Glencairn" hat geschrieben:
mittlerweile benutze ich hauptsächlich TransMac was etwas komfortabler ist
Hatte ich auch eine Zeit lang in Verwendung, da ich aber nur noch Lesezugriff benötige benutze ich aktuell IsoBuster um mir die Daten umzukopieren da ich den sowieso für andere Sachen auf dem Rechner habe.



Antwort von Mediamind:

Die ersten Geräte sind ausgeliefert worden. Eine recht sympathische Review auf Deutsch, die den realtiäten wahrscheinlich sehr nahe kommt:


https://www.youtube.com/watch?v=VcaieaQq_kA



Antwort von roki100:

https://www.youtube.com/watch?v=aBDhPoUFYls



Antwort von freezer:

Mediamind hat geschrieben:
Die ersten Geräte sind ausgeliefert worden. Eine recht sympathische Review auf Deutsch, die den realtiäten wahrscheinlich sehr nahe kommt:


https://www.youtube.com/watch?v=VcaieaQq_kA
Und der nächster Youtuber mit wenig bis gar keiner technischen Ahnung. Schnarch.
Dass zB der Blendervergleich derzeit noch sinnlos ist (da Metalsupport derzeit erst Beta und nicht optimiert), habe ich ja schon vorher ausgeführt.



Antwort von markusG:

freezer hat geschrieben:
da Metalsupport derzeit erst Beta und nicht optimiert
Nein die Version ist "final". Aber es wird mit 3.2 ein besserer Support prognostiziert. Afaik wird z.B. nicht die Neural Engine genutzt, was ja im Falle von Optix @ Nvidia auch nochmal einen deutlichen Schub gegeben hat. Aber es fehlt angeblich auch simpel an RT Performance, und das liegt dann schlicht an der Hardware, da kann man dann nicht "herumoptimieren". Generell ist der Tonus, dass die rohe GPU-Performance noch nicht ganz dort ist wo sie sein müsste, um unoptimiert konkurrenzfähig zu sein. Wenn man denn diese Use Cases hat.

Man muss halt auch entscheiden, was man jetzt benötigt, oder ob man z.B. auch noch warten kann bis alles perfekt und harmonisch optimiert ist und wie butter läuft. Am Ende des Tages kann es einem im Detail egal sein woran es hapert - es muss halt schlicht laufen. Daher gibt es auch noch 2022 Menschen mit dem Original Cheese Grater MP + Nvidia + High Sierra. Horses of Courses.

Aus dem Grund habe ich mir letztes Jahr einen Einstiegs-PC geholt, der Dank Optix & Co alles brav meistert, bis dann die Softwarehersteller nachgezogen sind und ich bei Bedarf später freie Wahl hab. Und wer z.B. einen gut ausgestatteten iMac aus 2020 hat muss ja auch nicht sofort wechseln, nur weil es was neues gibt. G.A.S. lässt grüßen.

https://www.youtube.com/watch?v=irjc1nJ1eJs



Antwort von NurlLeser:

jetzt bin ich grad mal fast ein Jahr nur noch lesend unterwegs und geändert hat sich zu dem Thema genau nichts.
Mit Sicherheit ist gerade flaute bei den meisten, aber es ist dennoch interessant wie viel Energie in das schlecht machen in die Produkte eines speziellen Anbieters gesteckt wird ohne diese zu verwenden und oder die Intension zu haben etwas zu kaufen.

Strange und das war auch wieder das Zeichen nur lesend und sich wundernd unterm Radar zu wandern. wirklich schrill Leute



Antwort von rush:

Im Gegenteil - ich finde es eigentlich gut und bemerkenswert das auch Apple Nutzer nicht immer nur am goldenen Nektar hängen und alles abnicken sondern auch Mal Dinge ansprechen die eben weniger gut sind oder Kritik äußern.

Sowohl auf YT als auch hier im Forum gibt es durchaus Nutzer die Apple nutzen/mögen. Dennoch oder insbesondere deswegen sollten jene Nutzer doch auch Mal kritische Töne ansprechen dürfen ohne dafür immer wieder einen auf den Deckel zu bekommen. Das ist doch die eigentliche Problematik das jeder Hauch von Kritik als "Anti-Haltung" gewertet wird anstatt das ganze pragmatisch oder wenigstens sachlich zu sehen

Das Ding (also der Ultra) hat für die meisten Anwendungen Leistung satt. Mehr als genug.
Es gibt aber nun Mal Stand heute offenbar auch Anwendungen wo der Ultra nicht so glänzt wie die Zahlen von Apple es her vermuten lassen haben.
Ich nagel Apple nicht auf sowas fest weil man dieses Gebahren ja durchaus kennt wenn es um Superlative (bei welchem Hersteller auch immer) geht.

Die wirklichen Vorteile sind doch bei dieser Leistung eher jene welche man nicht sieht und/oder nicht hört...
Wenig Energieverbrauch bei hoher Leistung und eine sehr unaufdringliche Geräuschkulisse. Das sind in meinen Augen eklatante Vorteile gegenüber einem PC. Und daher bin ich ja auch beim M1 Air im letzten Jahr gelandet.

Rein leistungsmäßig kommt man in der PC Welt mit entsprechend optimierter Software doch genauso ans Ziel - und in einigen Bereichen wohl auch flotter wie obige Videos zeigen. Mal gewinnt das eine, Mal das andere System. So what?

Thema Upgrades? Fehlanzeige. Kann man toll finden weil das Gehäuse dafür so adrett ausschaut- kann man aber genauso in Frage stellen wenn man eine langjährige Nutzung anstrebt und vielleicht nicht heute direkt in die Vollausstattung investieren möchte.

Und vom Gaming spricht ja noch gar keiner - der Großteil meiner Steam Bibliothek des letzten Jahrzehnten ist unspielbar bzw. faktisch nicht nutzbar ohne Workarounds.
Das finde ich zumindest schade und definitiv ausbaufähig.

Ich mag den kleinen M1er weiterhin - bin aber deswegen noch lange kein Apple-Jünger und habe dies auch nicht vor zu werden.
Ich werde Tools nicht nach Marke sondern nach Nutzen verwenden und mag es die Wahl zu haben :-)



Antwort von markusG:

rush hat geschrieben:
Im Gegenteil - ich finde es eigentlich gut und bemerkenswert das auch Apple Nutzer nicht immer nur am goldenen Nektar hängen und alles abnicken sondern auch Mal Dinge ansprechen die eben weniger gut sind oder Kritik äußern.Das ist doch die eigentliche Problematik das jeder Hauch von Kritik als "Anti-Haltung" gewertet wird anstatt das ganze pragmatisch oder wenigstens sachlich zu sehen
Das kann man eigentlich als Disclaimer an jeglichen Thread über Neuheiten jeglicher Couleur anpinnen :D
rush hat geschrieben:
Und vom Gaming spricht ja noch gar keiner - der Großteil meiner Steam Bibliothek des letzten Jahrzehnten ist unspielbar bzw. faktisch nicht nutzbar ohne Workarounds.
Eigentlich war es bei mir nicht geplant, aber viele der interessanten Neuerscheinungen nicht mehr für die PS4 erscheinen und die PS5 immer noch überteuert verkauft wird dachte ich mir auf Steam umzusteigen - allerdings mit Linux als Host* ähnlich problematisch. Aber dafür kann man sich im Zweifel via Dualboot immer noch "retten" - vielleicht wird das auch für Apple Silicon irgendwann wieder möglich - an Power für x86 Emulation sollte es mMn ja nicht hapern. Schöner wäre nativer Support natürlich trotzdem, aber vlt tut sich im Zuge vom Steamdeck ja auch was in dem Bereich (optimistisch betrachtet).

*edit: immerhin gibt es nun zumindest rudimentäre Hostingfunktionen von Parsec unter Mac



Antwort von NurlLeser:

Im Gegenteil - ich finde es eigentlich gut und bemerkenswert das auch Apple Nutzer nicht immer nur am goldenen Nektar hängen und alles abnicken sondern auch Mal Dinge ansprechen die eben weniger gut sind oder Kritik äußern.
legitim solange es nicht zur Manie wird und leider ist dem so und das nicht nur hier sondern überall.
Das Gros der Meinung nährt sich an dem was jemand gelesen hat von jemand der etwas gelesen hat der etwas usw. usw.
Fakten sind meinst nicht vorhanden und es dreht sich in der Masse eben nur um so leid es mit tut Falschaussagen ohne Verifizierung durch eigene Erfahrung weil man dies Teil wirklich besitzt und verwendet.

Es ist im Muster immer der selbe Ablauf und es sind auch immer die gleichen Protagonisten am werken.
In der Summe eine Gruppierung aus Angriff und Verteidigung welche meist in Animositäten und Beleidigungen gipfelt.
Ein Unding gepaart mit teils extremen Ansichten wie es sich vor allem in politischen Orientierungen widerspiegelt und mich wirklich zu einem leicht angewiderten Ausscheiden nötigte.

Bin auch schon wieder weg, denn wie es aussieht hat sich nicht aber auch gar nichts geändert.



Antwort von Mediamind:

Hast schon Recht. Ist manchmal rauh und emotional in der Welt. Apple gehört (ebenso wie RAW, Politik und Klima) zu den Reizthemen. Das geht es mal gerne ab... auf der anderen Seite sind hier viele gestandene Männer, die im Leben einstecke und austeilen müssen. Dagegen ist das Forum hier ein Ponnyhof.



Antwort von rush:

NurlLeser hat geschrieben:

In der Summe eine Gruppierung aus Angriff und Verteidigung welche meist in Animositäten und Beleidigungen gipfelt.

Was doch aber eher am zu großen Ego einiger und/oder der fehlenden Weitsicht zu liegen scheint wenn man direkt zumacht und keine Kritik am "eigens" genutzten System zulässt.

Was natürlich wenig sinnvoll ist da viele sogar in mehreren Welten tanzen und Apple als auch PC oder Android/Linux etc parallel nutzen und nicht eingleisig fahren.

Wenn dagegen jeder Anflug von Kritik oder Anregung direkt als (persönlicher) "Angriff" gesehen wird kann das hier - und auch anderswo kaum funktionieren.

Ich betrachte das ganze hier sowieso oft mit 'ner gehörigen Prise Humor und gebe auch gern mal 'ne Spitze ab - was in der Tat das ein oder andere mal falsch rüberkommt und es dann tatsächlich unnötig kompliziert wird ;-)

Aber hier im Thread geht's laut Titel um die Benchmarks im Vergleich - und da finde ich es nur gerechtfertigt wenn verschiedenste Nutzer oder auch die gängigen YouTube Kanäle Ihre Beobachtungen zu den von Apple genannten Zahlen teilen. Die wenigsten hier haben den Studio ja bereits auf dem Schreibtisch.

Die Essenz bzw. eigene Meinung kann sich daraus hoffentlich jeder selbst bilden und dann entscheiden ob der Ultra aka Studio das passende Gerät ist oder ggfs. ein MacBook oder künftiger Pro nochmals spannender sein könnte. Oder vielleicht doch eine schwarze Kiste aus dem PC Bereich.
Mit allen kommt man gut ans Ziel aber am Stammtisch darf auch Mal diskutiert werden sonst isses doch lame :-D



Antwort von freezer:

rush hat geschrieben:

Aber hier im Thread geht's laut Titel um die Benchmarks im Vergleich - und da finde ich es nur gerechtfertigt wenn verschiedenste Nutzer oder auch die gängigen YouTube Kanäle Ihre Beobachtungen zu den von Apple genannten Zahlen teilen. Die wenigsten hier haben den Studio ja bereits auf dem Schreibtisch.
Das ist aber genau das Problem. Der Youtuber mockiert sich dass Apple damit wirbt, dass der Ultra 60% schneller ist - und macht dann einen Benchmark mit Blender - obwohl Apple Blender nicht mal erwähnt. Was soll das? Apple listet ja auf deren Webseite welche Benchmarks wie verwendet wurden.
Wenn man vergleicht, dann bitte richtig und nicht Hauptsache mal schnell ein Video veröffentlicht. Diese Labertaschen sind echt nicht auszuhalten.

Von mir aus sollte es jeder wie Andrew Lock machen - gleich zu Beginn Pro und Contra, dann gezielt auf die Details eingehen, kein unnützes oder gar unqualifiziertes Gelaber. Aus seinen Videos ziehe ich echt immer den größten Nutzen.



Antwort von rush:

Eventuell ist die SSD doch erweiterbar? Zumindest ist sie nicht aufgelötet und nach diesem Teardown Video ist wohl sogar ein zweiter Slot vorhanden.

https://www.youtube.com/watch?v=IY0gRMpT4AY



Antwort von R S K:

Wenn, dann wie bei jedem anderen aktuellen Mac, d.h. Mac mit T2 Chip, nur von Apple bzw. nur wenn es ein entsprechendes Apple Original ist.



Antwort von rush:

Wenn Apple das offiziell machen würde: Super, warum nicht? Gern her mit einer proprietären (Aufrüst)-Lösung! Wegen mir auch verbunden mit dem Gang in einen Apple Store.

So könnte man heute in einer günstigeren SSD Konfiguration starten und bei Bedarf zu einem späteren Zeitpunkt ein entsprechendes Massenspeicher-Upgrade vollziehen. Ich würde das massiv begrüßen.
Wird wahrscheinlich dennoch nicht passieren - sonst hätte man das wohl schon so kommuniziert.

Vielleicht dann am "Pro"...



Antwort von Mediamind:

Ich weiss auch nicht, ob das Aufrüsten mit SSD relevant ist. Beim Max kann man für überschaubares Geld auf 1 TB aufrüsten, beim Ultra hat man 1 TB als Standard. Ich komme mit 256 GB gut klar, hinter dem Bildschirm hängen 2 T5 mit insgesamt 4 TB. Beim Schnitt sehe ich keinen Unterschied zwischen interner und externen Medienhaltung. Ich würde das nicht als wichtig einstufen.



Antwort von rush:

Das mag jeder individuell sehen und an einem festen Arbeitsplatz isses wohl auch weniger relevant, ja.

Aber im Audio Bereich etwa könnte man schon vom Speed der internen SSD profitieren wenn ich an entsprechend groß dimensionierte Sample Libraries denke die schnell gelesen werden müssen, insbesondere beim Wechsel von Instrumenten mit zig GB an Daten. Ja, Use Case abhängig aber nicht völlig abwegig.

Und was mir auch schon passiert ist: der Mac hat eine bekannte externe Platte nicht mehr korrekt zugeordnet sodass ich die Pfade innerhalb eines Plugins neu setzen musste, also relinken.
Kann natürlich auch am Plugin oder dem externen Datenträger gelegen haben - aber sowas ist dann durchaus nervig und passiert intern eigentlich überhaupt nicht.

Dennoch interessant zu sehen wie der kleine Hobel von innen ausschaut.



Antwort von R S K:

Mediamind hat geschrieben:
Beim Schnitt sehe ich keinen Unterschied zwischen interner und externen Medienhaltung. Ich würde das nicht als wichtig einstufen.
Beim Arbeiten wird es vermutlich, zumindest bei einem durchschnittlichen Videoprojekt, wohl kaum einen messbaren Unterschied geben, nein. Aber z.B. bei Exportieren kann es durchaus Minuten wenn nicht gar Stunden ausmachen bei einem großen Projekt, durch die unglaubliche Schreib-/Lesegeschwindigkeit, wo deine externe mit Sicherheit nicht mithalten kann.


rush hat geschrieben:
Wird wahrscheinlich dennoch nicht passieren - sonst hätte man das wohl schon so kommuniziert.
Natürlich wird es für Normalsterbliche möglich sein, im Rahmen des neuen "Right to Repair" Programms. Da muss man nichts gesondert kommunizieren. Also… ja, wirst auch DU machen können. Kostet halt mehr, als wenn du eine 08/15 SSD von der Stange nehmen würdest, was eben nicht geht.



Antwort von markusG:

rush hat geschrieben:
Eventuell ist die SSD doch erweiterbar?
Leider nein* - es sind nur die NAND Speicherchips. Die Controller sind nach wie vor auf dem SoC:

https://www.golem.de/news/kein-user-upg ... 64035.html

*also nicht selber. Ob Apple später Upgrademodule rausbringt...




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Apple: Mac / Final Cut Pro / FCPX / Motion-Forum

Antworten zu ähnlichen Fragen:
Benchmarks zum neuen 64core Threadripper
CPU-Trends für Schnittcomputer - Core i9 vs. Threadripper
AMD Ryzen Threadripper 2990WX: 32 Kerne und billiger als ein Intel 18 Core
Dell Precision 7865: Workstation mit 64 Core Threadripper Pro 5995WX, 1 TB RAM und 48 GB Nvidia RTX A6000
Apple M1 (Pro/Max/Ultra) vs Intel/Amd/Nvidia...wirklich schneller?
Erste Zeichen für neue Intel-Desktop-Prozessoren der Core i9000-Serie
Apple: Neues MacBook Air etwas günstiger, mit besserer Tastatur und max. Quad-Core CPU
Wann kommet der erste MacBook Pro mit M2 Apple Silicon?
Wann kommet der erste MacBook Pro mit M2 Apple Silicon?
Premiere Pro/Rush und Audition: Erste Beta für Apple M1 bringt deutliche Beschleunigung
Apple iPhone 13 Pro/Max vs Standard und Mini im Videobetrieb: Worauf achten? Erste Erfahrungen
Endlich Desktop-Achtkerner von Intel - Core i9-9900K und Core i7-9700K
Apple TV+ Streamingdienst startet im November für nur 4.99 Euro pro Monat
Beeindruckende Entwicklung bei den CPUs - 3990X ?
Netflix erstmals Spitzenreiter bei Nominierungen für Fernsehpreis Emmy
Intel relativiert Apples M1 Benchmarks
GH5s im EBU Test - Knapp daneben ist auch vorbei?
Sat-Antenne hinter Glas?
Bare Feats Benchmarks mit neuem Mac Pro 2019
COMPUTEX 2021 für Editoren - AMD imponiert mit stacked Cache CPU , GPUs bleiben knapp
RED Komodo: Erste Modelle sind ausgeliefert und erste Footage im Netz
Nachvertonung von Geräuschen - Blick hinter die Kulissen eines Naturfilmers
TRAMP CHAMP: Hinter jedem Bild steckt eine Geschichte GH5
Apple: Neues 7K Studio Display mit integriertem Apple Silicon in Entwicklung?
Die Highlights der Apple WWDC: iOS 12, Apple TV 4K mit Dolby Surround, macOS Mojave
Auch hinter Nikons neuem Video RAW Codec verbirgt sich TICO RAW

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom