Newsmeldung von slashCAM:
Heute Nacht war es soweit: Apple hat mit seinen neuen M3, M3 Pro und M3 Max Chips die ersten 3 nm CPUs der Branche für Desktop-Rechner vorgestellt. Erstmalig verbaut find...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Apple stellt neue iMacs und MacBook Pros mit erstmalig 3 nm M3 CPUs vor
Antwort von SonyTony:
Großer Mist. Habe das MBP M2 Pro Max mit 32 gb gekauft und gemerkt, dass HEVC der Sony FX3 ganz schön hakt.. mehrmals bei Apple nachgefragt.. Jetzt höre ich, dass sie ausgerechnet HEVC beim M3 beschleunigen.. Mist.
Antwort von markusG:
SonyTony hat geschrieben:
Großer Mist. Habe das MBP M2 Pro Max mit 32 gb gekauft und gemerkt, dass HEVC der Sony FX3 ganz schön hakt.. mehrmals bei Apple nachgefragt.. Jetzt höre ich, dass sie ausgerechnet HEVC beim M3 beschleunigen.. Mist.
Hevc wird doch bereits beim m2 beschleunigt (iirc auch bereits seit dem m1):
Die Media Engine hat einen Video-Decoder mit höherer Bandbreite, der 8K H.264 und HEVC Video unterstützt.
https://www.apple.com/de/newsroom/2022/ ... abilities/
Antwort von rush:
SonyTony hat geschrieben:
Großer Mist. Habe das MBP M2 Pro Max mit 32 gb gekauft und gemerkt, dass HEVC der Sony FX3 ganz schön hakt..
Ich nehme an das war ironisch gemeint?
Zumindest nativ und ohne große Effekthascherei läuft 4K 50p 10bit HEVC aus den Sonys wie A7SIII/FX3 bereits seit der M1 Plattform mit 8GB RAM absolut flüssig im Playback - sowohl in diversen Playern als auch Resolve.
Wenn da bei dir was hakelt - müsste das Problem eher an anderer Stelle zu suchen sein...
Bei mir geht der M1er bei Anwendung von z.B. Rauschreduzierung Nodes massiv in die Knie - dahingehend könnte der M3 tatsächlich einen spürbaren Sprung machen.
Aber mit deaktivierten Effekten loooft dit.
Antwort von SonyTony:
Kriege beim m2 in Xavc hs uhd 10 Bit 422 gelegentlich dropped frames Warnungen im Playback in fcpx. Auch auf der internen ssd. Vom übers Material shuttlen ganz zu schweigen, das ist sehr träge. Wenn ich also eine Doku aus 10 Stunden und mehr Material schneiden muss ist mir das deutlich zu langsam. Apple Support sagt: dann schneiden sie halt mit proxies. Dafür kaufe ich aber kein 3600 euro macbook mit 32 gb ram. Der Prozessor wird dabei maximal zu 5 bis 10 Prozent ausgereizt, es ist also die Hardware Beschleunigung des Codecs die nicht optimiert ist. Nach einem Update der Codecs seitens Apple lief es minimal besser aber immer noch nicht gut.
Antwort von andieymi:
Der Eindruck drängt sich überhaupt auf:
Bei allem was Apple vielleicht auch noch nicht ideal gelöst hat (wobei da nach 3 Generation echt nicht mehr viel zu bemängeln ist) - im Moment hakt es eher an der Software-Implementierung der Möglichkeiten, die Apple Silicon bieten würde, denn an der Hardware. Da reden wir jetzt nicht über die Dual 3090 Setup-letztes-Quäntchen-Leistung-Liga, aber dass HEVC nicht seit M1 funktionieren würde, liegt nicht an Silicon, sondern an der Software.
Ähnlich verhält es sich mit vielem, was mit AI um die Ecke kommt (so z.B. bei der Adobe der Lightroom-Denoiser) - da ist klar die Einschränkung die Software, welche die Möglichkeiten der Apple SoCs nicht ausschöpft, als wie die eigentlich vorhandene Leistung dieser.
Antwort von markusG:
andieymi hat geschrieben:
wobei da nach 3 Generation echt nicht mehr viel zu bemängeln ist
Dass beim Basis-Chip nach wie vor nur 1 nativer externer Monitor möglich ist, ist imho ein verbliebener bedeutender Mangel und durch nichts zu rechtfertigen, in 2023
Antwort von andieymi:
markusG hat geschrieben:
andieymi hat geschrieben:
wobei da nach 3 Generation echt nicht mehr viel zu bemängeln ist
Dass beim Basis-Chip nach wie vor nur 1 nativer externer Monitor möglich ist, ist imho ein verbliebener bedeutender Mangel und durch nichts zu rechtfertigen, in 2023
Da wage ich zu widersprechen. Der Basis-Chip ist einfach für 0815-Laptop-Office-User gedacht.
Dass man damit sogar irgendwie Fotos bearbeiten und teilweise schneiden kann, sagt mehr über die Performance der Basisversion aus, als das man dies Apple vorhalten könnte. Die meisten Leute in meinem Umfeld (ich weiß,... anekdotisch), die nichts mit Medien machen, haben oft nur mehr einen Rechner pro Haushalt (neben diversen Smartphones, Tablets, etc.), wenn dann überhaupt mit einem Monitor. Von der Notwendigkeit, 2 externe Monitore anzuschließen sind wir da recht weit entfernt.
Bei wie vielen Windows-Laptops in dem Preis-Segement geht das? (Die Frage ist ernst gemeint, ich weiß es nicht...)
Antwort von markusG:
andieymi hat geschrieben:
Da wage ich zu widersprechen. Der Basis-Chip ist einfach für 0815-Laptop-Office-User gedacht.
Gerade das Air ist sehr verbreitet im Officebereich, und gerade da ist der Bedarf an einem Mehrmonitorbetrieb gerade in der Coronazeit mit Homeoffice und allem Brimborium gestiegen. Und ob die existierenden Workarounds für diese Zielgruppe zugänglich sind wage ich zu bezweifeln.
andieymi hat geschrieben:
Bei wie vielen Windows-Laptops in dem Preis-Segement geht das? (Die Frage ist ernst gemeint, ich weiß es nicht...)
Weiß nicht ob der Vergleich sinnvoll ist. Jedenfalls muss man für einen integrierten HDMI-Ausgang nicht 2000€ blechen. Muss ja nicht erwähnen dass gerade im Officebereich ein HDMI -Ausgang essenziell ist...klar, der Trend ist natürlich bei anderen Herstellern auch angekommen, aber nicht flächendeckend. Die Wahl hat man immer.
Und Multimonitor ist spätestens mit DisplayPort über USB-C auch kein Thema mehr. Davor hatte man mitunter beides (mDP+HDMI), hat sogar mein betagtes Spectre 2in1 von 2016. Zumal es bei Intel-Macbooks auch noch ging...
Antwort von MK:
markusG hat geschrieben:
Und Multimonitor ist spätestens mit DisplayPort über USB-C auch kein Thema mehr.
Der Trend ist schon wieder rückläufig... bei meinem HP wurde das schon wieder weggespart... die Beschaffenheit des USB-C Ports wird selbstredend auch in den Datenblättern nicht erwähnt.
Für so arme Schweine wie mich gibt es dann Dockingstationen mit DisplayLink wo das Bild über einen Treiber auf die USB-Ports geschickt wird (mit entsprechender Systemlast).
Antwort von SonyTony:
andieymi hat geschrieben:
Der Eindruck drängt sich überhaupt auf:
Bei allem was Apple vielleicht auch noch nicht ideal gelöst hat (wobei da nach 3 Generation echt nicht mehr viel zu bemängeln ist) - im Moment hakt es eher an der Software-Implementierung der Möglichkeiten, die Apple Silicon bieten würde, denn an der Hardware. Da reden wir jetzt nicht über die Dual 3090 Setup-letztes-Quäntchen-Leistung-Liga, aber dass HEVC nicht seit M1 funktionieren würde, liegt nicht an Silicon, sondern an der Software.
Ähnlich verhält es sich mit vielem, was mit AI um die Ecke kommt (so z.B. bei der Adobe der Lightroom-Denoiser) - da ist klar die Einschränkung die Software, welche die Möglichkeiten der Apple SoCs nicht ausschöpft, als wie die eigentlich vorhandene Leistung dieser.
Leider passiert das hevc decoding hardwareseitig. Da ist es mit einem einfachen Software Update nicht getan. Kann sein dass ein Chip hevc uhd 8 bit beschleunigt aber 10 bit nicht, dann wieder 420 aber nicht 422 oder einfach eine bestimmte Variante des hevc Codecs nicht. Und der m2 scheint nicht besonders auf sony optimiert zu sein. Hevc aus dem iPhone läuft natürlich flüssig.
Premiere stürzt meist schon beim Import eines Clips ab. Keine Ahnung warum. Auf jeden Fall alles sehr instabil. Deshalb bin ich bei fcpx geblieben. Das hatte bisher auch immer die beste Performance. Auch im Vergleich zu resolve war alles stabiler und flüssiger. Aber eben nicht so schnell wie ich es mir gewünscht habe, daher trotzdem wieder proxies und optimised media.. da hätte ich auch beim Alten Rechner bleiben können
Antwort von markusG:
SonyTony hat geschrieben:
Leider passiert das hevc decoding hardwareseitig. Da ist es mit einem einfachen Software Update nicht getan.
Bin jetzt kein Apple Experte, aber Software scheint den Löwenanteil der Probleme auszumachen, exemplarisch zB:
https://discussions.apple.com/thread/254880408
Es kann also eher sein dass es ein verbuggtes Update gab, hier wäre dann ein Rollback testenswert. Andere lösen das Problem, indem sie komplett andere Software nehmen zB Resolve statt FCP. Einen Test wäre es doch wert!
Antwort von rush:
SonyTony hat geschrieben:
Leider passiert das hevc decoding hardwareseitig. Da ist es mit einem einfachen Software Update nicht getan. Kann sein dass ein Chip hevc uhd 8 bit beschleunigt aber 10 bit nicht, dann wieder 420 aber nicht 422 oder einfach eine bestimmte Variante des hevc Codecs nicht. Und der m2 scheint nicht besonders auf sony optimiert zu sein.
Ich kann dieses Verhalten weiterhin nicht wirklich wirklich nachvollziehen, nutze aber weder Premiere noch FCP(X).
In Resolve Studio läuft das XAVC HS 10bit 422 UHD 50p Material aka HEVC auf dem M1 Air absolut flüssig - ohne dropped Frames wenn keine Effekte auf der Timeline liegen. Auch mit aktivierter LUT: keine Probleme.
Meine Rohdaten liegen zudem auf einem per WiFi angebundenen NAS welches maximal 100Mb/s drahtlos an das Air M1 beamt - die Datenrate ist hier also ebenfalls kein Problem und ermöglicht genau diesen Workflow für den einfachen Vorschnitt. In Resolve habe ich in der Timeline (Original Files bevorzugen eingestellt...) - also ohne Proxys.
Natürlich hat man beim "scrubben" von langen Takes keine 100% flüssige Wiedergabe sondern ein leichtes Nachziehen - aber sobald man auf Play geht - läuft es - zumindest bei mir - tadellos. Für mich ist UHD 10bit 422 HEVC aus den Sonys daher eigentlich das ideale Format am M1er Air mit 8GB Ram.
Hast du die (bereits vorgeschlagene) Möglichkeit Resolve zu testen? Keine Ahnung ob die Standard Version dahingehend Einschränkungen hat auf die HEVC Kompatibilität - aber einen Versuch wäre es allemal Wert.
Weiterer test: Dein Material mal bei Bekannten oder in einem Store auf einem vergleichbaren System wie Deinem testen um zu sehen ob es womöglich flutscht und Du irgendwo ein Bottleneck im System hast..
Antwort von SonyTony:
Es kann sein, dass die Dropped-Frames-Warnungen beim Einfach-Playback durch die Software kamen. Aber ich sichte auch viel in doppelter Geschwindigkeit und scruppe viel durch das Material. Da habe ich vielleicht einfach zu viel erwartet. Bei mehr als 10 Stunden Rohmaterial muss man halt sehr schnell scrubben - und da habe ich es lieber sehr flüssig. Vermutlich müsste ich aber dann doch mit proxies in der ersten phase arbeiten. Es ist halt erstaunlich wie gut das Iphone-Material optimiert ist. Auch 60p UHD HEVC läuft absolut flüssig und scrubbt verzögerungsfrei wie proxies.
Antwort von SonyTony:
rush hat geschrieben:
Für mich ist UHD 10bit 422 HEVC aus den Sonys daher eigentlich das ideale Format am M1er Air mit 8GB Ram.
Hast du die (bereits vorgeschlagene) Möglichkeit Resolve zu testen? Keine Ahnung ob die Standard Version dahingehend Einschränkungen hat auf die HEVC Kompatibilität - aber einen Versuch wäre es allemal Wert.
Ich vermute es war der große Trugschluss zu denken dass ein m2 max mit 32 gb irgendeine bessere Playback Performance bietet als das air mit 8. stimmt leider nicht weil es nur von der Hardware Beschleunigung des Codecs abhängt.
Antwort von Axel:
SonyTony hat geschrieben:
Es ist halt erstaunlich wie gut das Iphone-Material optimiert ist. Auch 60p UHD HEVC läuft absolut flüssig und scrubbt verzögerungsfrei wie proxies.
Das kommt wohl daher, dass die M-Chips aus iPhone-Chips entwickelt wurden und HEVC dort der Codec ist. Ich kann auch bestätigen, dass HEVC 10-bit 4:2:2 schlechter läuft als 4:2:0 und auch, dass ersteres in Resolve Studio etwas besser als in FCP. Anstatt umständlich auf Proxies auszuweichen würde ich XAVC-S nehmen, was visuell keinen Unterschied macht.
Antwort von Jott:
SonyTony hat geschrieben:
andieymi hat geschrieben:
Der Eindruck drängt sich überhaupt auf:
Bei allem was Apple vielleicht auch noch nicht ideal gelöst hat (wobei da nach 3 Generation echt nicht mehr viel zu bemängeln ist) - im Moment hakt es eher an der Software-Implementierung der Möglichkeiten, die Apple Silicon bieten würde, denn an der Hardware. Da reden wir jetzt nicht über die Dual 3090 Setup-letztes-Quäntchen-Leistung-Liga, aber dass HEVC nicht seit M1 funktionieren würde, liegt nicht an Silicon, sondern an der Software.
Ähnlich verhält es sich mit vielem, was mit AI um die Ecke kommt (so z.B. bei der Adobe der Lightroom-Denoiser) - da ist klar die Einschränkung die Software, welche die Möglichkeiten der Apple SoCs nicht ausschöpft, als wie die eigentlich vorhandene Leistung dieser.
Leider passiert das hevc decoding hardwareseitig. Da ist es mit einem einfachen Software Update nicht getan. Kann sein dass ein Chip hevc uhd 8 bit beschleunigt aber 10 bit nicht, dann wieder 420 aber nicht 422 oder einfach eine bestimmte Variante des hevc Codecs nicht. Und der m2 scheint nicht besonders auf sony optimiert zu sein. Hevc aus dem iPhone läuft natürlich flüssig.
Premiere stürzt meist schon beim Import eines Clips ab. Keine Ahnung warum. Auf jeden Fall alles sehr instabil. Deshalb bin ich bei fcpx geblieben. Das hatte bisher auch immer die beste Performance. Auch im Vergleich zu resolve war alles stabiler und flüssiger. Aber eben nicht so schnell wie ich es mir gewünscht habe, daher trotzdem wieder proxies und optimised media.. da hätte ich auch beim Alten Rechner bleiben können
Der spießige Gedanke, bei Problemen während des Schnitts einfach in einer HD-Timeline zu arbeiten, kommt dir nicht? Dann flutscht alles, am Ende einfach wieder auf 4K stellen. Keine Proxies.
Ansonsten: Proxies sind super schnell im Hintergrund gerechnet, während man schneidet (und auch recht klein, wenn man h.264 nimmt, also kein Vollscheißen der SSD)). Dass man in fcp jederzeit hin und her schalten kann weißt du ja.
Auch für diese Option sollte man sich an einem Laptop nicht zu fein sein, finde ich, das hat immer nur Vorteile, auch bei Rechnern mit eigentlich genug Power. Es ist immer flutschiger. Letztlich kriegt man gar nichts mit davon.
Aber jeder ist seines eigenen Glückes Schmied.
 |
Antwort von SonyTony:
Jott hat geschrieben:
Der spießige Gedanke, bei Problemen während des Schnitts einfach in einer HD-Timeline zu arbeiten, kommt dir nicht? Dann flutscht alles, am Ende einfach wieder auf 4K stellen. Keine Proxies.
Schneide immer in 1080i, also in der halben HD-Auflösung. Bringt aber nix. Und zum Sichten des Rohmaterials erst recht nichts.
Zwischen XAVC-HS und XAVC-S kann ich keinen gewaltigen Unterschied feststellen. Aber qualitativ sehe ich den bei der FX3 tatsächlich schon. Insbesondere wenn ich aus den Schatten wieder Details holen will, gibt HS mehr her.
Proxies erstelle ich für längere formate weiterhin, das ganze Material würde ja auch niemals auf die interne SSD passen - aber die proxies locker, das macht das mobile arbeiten auf dem MBP sehr praktisch.
Dafür hätte ich dann aber tatsächlich gar kein neues Macbook gebraucht.. Nur etwas zeit zum Rendern der Proxies über Nacht.
Antwort von Frank Glencairn:
1080i - WTF?
Und wieso soll das halbe HD Auflösung sein?
Antwort von Axel:
SonyTony hat geschrieben:
Proxies erstelle ich für längere formate weiterhin, das ganze Material würde ja auch niemals auf die interne SSD passen - aber die proxies locker, das macht das mobile arbeiten auf dem MBP sehr praktisch.
Dafür hätte ich dann aber tatsächlich gar kein neues Macbook gebraucht.. Nur etwas zeit zum Rendern der Proxies über Nacht.
Die FX3 wird wie die A7SIII auch die Option haben, Proxies gleich parallel aufzuzeichen, z.B. HEVC 10-bit in 1080.
Antwort von andieymi:
Irgendwie sind halt Proxy-Workflows auch ziemlich 1994, oder?
Gibt schon Projekte, wo das Sinn macht, aber beim normalen 2-Spur Editing will man sich doch eigentlich nicht sonderlich damit aufhalten. Ich hab's heuer das letzte Mal bei einem Projekt gebraucht, da ging's um einen Musikvideo-Edit mit 9 Raw-Spuren parallel, das ging irgendwann nicht mehr mit den üblichen Tricks (Auflösung, etc.) - aber so generell?
Und besondere Betonung auf dieses Zitat von Frank - WTF Sony?
"Frank Glencairn" hat geschrieben:
1080i - WTF?
Antwort von Jott:
Wenn Proxy-Workflows wie bei fcp so unmerklich im Hintergrund laufen - ohne Zeitverlust - muss man diese Option nicht belächeln.
Stichworte: mobiles Editing ohne Zusatzgeraffel, Remote-Editing ...
Antwort von Jott:
SonyTony hat geschrieben:
Schneide immer in 1080i, also in der halben HD-Auflösung
Hierzu ein herzhaftes "hä?"
Ich weiß es jetzt nicht, aber es könnte sein, dass dieser Retro-Style wegen Live-Deinterlacing/Re-Interlacing bremst. Wie kommst du da drauf? Das ist völlig sinnbefreit.
Antwort von SonyTony:
Nennt sich Rundfunk-Standard. 1080i hat im Vergleich zu 1080p 50fps die halbe Auflösung.
Mal davon abgesehen: Läuft bei euch Premiere auch so schlecht?
Wenn ich HEVC reinziehe, stürzt es meist schon ab.
Playback von XAVC HS ist eine echte Katastrophe..
Antwort von Frank Glencairn:
SonyTony hat geschrieben:
1080i hat im Vergleich zu 1080p 50fps die halbe Auflösung.
Mich wundert nix mehr.
Antwort von TomStg:
SonyTony hat geschrieben:
Nennt sich Rundfunk-Standard. 1080i hat im Vergleich zu 1080p 50fps die halbe Auflösung.
Mal davon abgesehen: Läuft bei euch Premiere auch so schlecht?
Wenn ich HEVC reinziehe, stürzt es meist schon ab.
Playback von XAVC HS ist eine echte Katastrophe..
Mach Dich mal mit den Grundlagen der Videotechnik vertraut. Dann wirst Du merken, dass 1080i und 1080p etwas ganz anderes bedeuten, als Du glaubst.
Playback von XAVC HS läuft bei mir in Premiere mit Windows genauso geschmeidig wie mit MacOS - natürlich ohne Absturz.
Antwort von SonyTony:
1080i besitzt eine Auflösung von 1920 x 1080 Bildpunkten im Zeilensprungverfahren, d.h. es zeigen immer nur die Hälfte der maximal möglichen 1080 Zeilen etwas an, der Rest bleibt dunkel.
Im Vergleich zu 1080p 50 müssen bei 1080i also halb so viele Pixel pro Sekunde verarbeitet werden. Ich dachte, es geht hier um praktische Hilfe und nicht um Wortklauberei.
Antwort von Frank Glencairn:
image_2023-11-07_134118364.png
Antwort von Jott:
SonyTony hat geschrieben:
Im Vergleich zu 1080p 50 müssen bei 1080i also halb so viele Pixel pro Sekunde verarbeitet werden. Ich dachte, es geht hier um praktische Hilfe und nicht um Wortklauberei.
Wenn du meinst. Ist aber für das, was du willst, wirklich eine Denkschraube.
Und wie gesagt: kann gut sein, dass das bremst, weil du ja fcp zwingst, progressives Material als interlaced zu verwursten.
Aber mach dein Ding.
In der realen Welt würdest du einfach zwei Kreuzchen machen und flüssig weiter arbeiten.
Antwort von Axel:
Ich denke auch, dass die von SonyTony zuvor berichteten Probleme eher von einem Bedienungsfehler kommen als von der Hardware. Afaik testete ich XAVC HS schon auf meinem M1 Mini und schrieb irgendwo “wie DV” oder sowas.
Antwort von SonyTony:
Gut dann hier nochmal aus einem anderen Forum bei fcp.co.
Hatte damals sogar ein Video hochgeladen und andere Nutzer haben bestätigt dass der lag bei ihnen genau so ist.
Hier eine Antwort:
I got your iPhone video showing the M2 Max screen playback. Thanks for showing proxy mode, better quality and better performance.
IMO that is normal. It is roughly similar to my M1 Ultra.
Every codec is different. Even two 4k/50p 10-bit 4:2:2 H.264 codecs can be drastically different internally. E.g, the GOP length can differ, or the number of reference frames can differ. Certain Long-GOP codecs use "Open GOPs", which means each GOP references data in another GOP, which means hardware accelerators cannot process those in parallel. It is inherently sequential.
Other codecs use "Closed GOPs", where each one is stand-alone and can be decoded without referencing other GOPs.
Those things can have major ramifications about decode performance.
Within a GOP, the decode/encode algorithm is inherently sequential. It cannot be parallelized or improved by GPU processing. It can only be improved by "fixed function" logic (IOW hardwired circuitry) which runs parts of the sequential algorithm faster. A video accelerator cannot be programmed with a different algorithm like a GPU can. When the logic is designed it can only work for certain types of certain codecs. There is no such thing as an accelerator that works equally well for all the hundreds or thousands of H264 variants.
If you took five different 4k/50 10-bit 4:2:2 H264 codecs from different cameras, there would likely be a significant performance difference in decode/encode performance on a given NLE and hardware platform. The codec designers trade-off many different things.
A hardware video accelerator is a full-custom ASIC. It takes years to design one. If a camera company adds a new codec or tweaks an existing codec, and if they do not communicate their design details to Apple, Intel, etc, years in advance, people buy the new camera then find out some codec doesn't work, or is slow.
Before Apple Silicon this was exacerbated by Intel's sluggish support for hardware video acceleration. E.g, almost no Xeon CPU has QuickSync, which is why the 2013 Mac Pro was so slow on H264 and H265. The 2017 iMac Pro used a Xeon CPU, which forced Apple in a stop-gap measure to cram a video accelerator on the T2 chip, but it didn't work that well.
Your camera will shoot XAVC-SI which is All-Intra. You could try that. It is similar to the XAVC-I our FX6 cameras use.
Antwort von Jott:
Trotzdem hast du keine Lust, zwei Kreuzchen zu machen.
Antwort von Frank Glencairn:
LOL - und wenn ich ímmer sage. daß LongGOP codecs nicht als Aufnahme- nd Editing Codec taugen, bekomme ich wieder Flak von der Datensparer Fraktion.
Antwort von markusG:
Frank es geht nicht ums Daten sparen am Schnittplatz, und es gibt auch mehr als die eine Implementation als die von Sony. Sehe das Flak daher als gerechtfertigt :P
Und niemand wird gezwungen Final Cut zu nutzen.
Antwort von SonyTony:
Stimmt: Für schnelle Speicherkarten für XAVC-i 40p UHD müsste ich locker nochmal über 5000 hinlegen. Und dazu kommt die langfristige Datensicherung die bei Dokus häufig nötig ist.. Da summieren sich auch die Festplatten.
Mit Proxies arbeite ich bei den Dokus gerne, wie gesagt alles lokal auf der internen Platte.
Optimized Media wäre bei diesen Datenmengen für alles Rohmaterial einer Doku eine externe 8TB SSD, wäre langfristig auch eine Option. Gerade fallen die Preise im 4TB-Bereich stark.
Alternativ kann man natürlich immer nur genutzten Medien der aktuellen Timeline gegen Ende optimieren.
Antwort von SonyTony:
Ps: Ich habe jeweils ca. 3 Jahre nacheinander mit den "großen Vier" geschnitten.
Für mich ist das Performance- und Stabilitäts-Ranking am Mac eindeutig.
1. FCPx
2. Resolve
3. Premiere
4. Avid
Avid läuft mit optimierten Medien relativ stabil und ist auch kompatibel mit professionellem workflow.
Tagesaktuell aber halt sehr langsam, wenn immer erst konvertiert werden muss und AvidLink war nicht brauchbar.
Premiere war damals einfach sehr instabil geworden durch zig neue features, ist ein paar Jahre her, aber erst vor kurzem neu installiert auf dem M2 und schon dreimal beim Hochfahren abgestürzt, dann 3-4 Mal beim Importieren des Materials innerhalb der ersten 30 Minuten.. dann habe ich aufgegeben.
Resolve Studio läuft häufig auch relativ schnell, aber im direkten vergleich zu FCPx halt nicht ganz so und ist instabiler.
XAVC HS flippte da noch deutlich weniger.
Ich hoffe, dass Apple weiter an FCPx arbeitet, besonders für tagesaktuelle workflows nicht zu schlagen wenn man sich an die Bedienung gewöhnt.
Antwort von Frank Glencairn:
SonyTony hat geschrieben:
Und dazu kommt die langfristige Datensicherung die bei Dokus häufig nötig ist.. Da summieren sich auch die Festplatten.
Die aktuelle Folge einer Doku an der ich arbeite hat ungefähr 14 TB (was ziemlich typisch ist, für das was ich so mache), und ist auf 3 externen USB Platten zu mir gekommen.
Ich hab den Inhalt auf das interne RAID geschoben und arbeite von da.
Weder das interne RAID noch die externen USB Platten müssen jedesmal neu gekauft werden - man kann die Dinger über Jahre nutzen, was die Kosten für sowas auf Centbeträge per Tag drückt (und außerdem noch steuerlich absetzen). Für die Kamera Speicherkarten gilt das selbe.
Jeder einzelne Aspekt dieser Doku kostet ein zigfaches von dem was der Speicher kostet. Flüge, Hotels, Essen, Transport vor Ort, Genehmigungen,Übersetzer, Gehälter sowieso etc.
Wenn ich dann solche Sätze lese:
müsste ich locker nochmal über 5000 hinlegen. Und dazu kommt die langfristige Datensicherung die bei Dokus häufig nötig ist.. Da summieren sich auch die Festplatten.
..frage ich mich dann immer, was für eine Art von Produktionen das sind, und mit was für Budgets ihr so arbeitet, daß die paar Peanuts für (dazu noch weitgehend mehrfach nutzbarem) Speicher schon ein finanzielles Problem werden?
Antwort von SonyTony:
Tja, jeder arbeitet anders. (Daher für dieses Forum meine Signatur..)
Eigentlich war die Frage nur, wie XAVC HS in FCPx bei anderen so läuft..
Material Sichern in einem Hotel Zimmer könnte auch etwas länger dauern, wenn man um 23 Uhr ankommt und am nächsten Morgen wieder raus muss, und da sicher sein muss, dass man die Speicherkarten wieder formatieren kann.
Antwort von SonyTony:
Aber fürs nächste Mal wäre für mich eh die Lösung: Einfach Optimized Media für alles auf eine mindestens 8 TB SSD und fertig.
Keine lautes HDD-RAID einrichten mit geklackere.. Oder einfach mehrere bestehende SSDs über JBOD kombinieren - geht auch.
Ich ging nur davon aus, dass ein M2 Max 32gb heutzutage mit allen XAVC Varianten gut klarkommt.
Antwort von SonyTony:
Mal davon abgesehen: Falls du archivieren willst, kommen in XAVC-I UHD 50p pro Drehtag schnell mehrere TB zusammen.
Das kostet dich dann selbst mit billigsten Festplatten mal locker 100 Euro pro Tag. Wäre gespannt, ob sich die Kosten weitergeben lassen.
Antwort von Frank Glencairn:
SonyTony hat geschrieben:
Mal davon abgesehen: Falls du archivieren willst, kommen in XAVC-I UHD 50p pro Drehtag schnell mehrere TB zusammen.
Das kostet dich dann selbst mit billigsten Festplatten mal locker 100 Euro pro Tag. Wäre gespannt, ob sich die Kosten weitergeben lassen.
Offensichtlich mußt du deine Drehratio Disziplin deutlich verbessern.
Beim letzten Projekt waren es 8 TB von 12 Drehtagen - je nach Thema und Motiv halt mal ein bisschen mehr oder weniger - aber "mehrere TB pro Tag" wie bei dir ist extrem ausufernd.
Wenn dein Auftraggeber unbedingt eine Vollarchivierung haben will, trägt er natürlich auch alle Kosten dafür- wer denn sonst?
Wer bestellt der zahlt - weiß doch jeder.
Auf der anderen Seite macht es natürlich ohnehin keinen Sinn, das ganze Material das beim Editing der Schere zum Opfer gefallen ist aufzuheben. Wurde ja nicht ohne Grund raus geschnitten.
Wir machen normal nur ein Consolidate und fertig, alles andere wird umgehend gelöscht, und der Speicher somit für neue Projekte frei.
Diese Vorgehensweise sich über Jahre bewährt.
Antwort von Jott:
SonyTony hat geschrieben:
Aber fürs nächste Mal wäre für mich eh die Lösung: Einfach Optimized Media
Aber nein.
Proxys H.264, nicht Optimized Media. Rechnet im Hintergrund um, du merkst gar nichts davon. Kein exzessiver Plattenplatz. Die Ausgabe greift automatisch auf die Originale zurück. Nachteile: Null. Den Unterschied kannst du am Laptop nicht sehen.
(bezieht sich auf fcp)
Antwort von Frank Glencairn:
Jott hat geschrieben:
Rechnet im Hintergrund um, du merkst gar nichts davon.
Das wird immer einfach so gesagt. Aber wo kommen dann in der Realität die Hardware Ressourcen für sowas her?
Gibts da heimlich ne zweite GPU/CPU die dann plötzlich aufwachen und das dann übernehmen?
Das wär die einzige Möglichkeit, um "nichts davon zu merken".
Die andere Möglichkeit ist, daß die Optimierung der Anwendung im Vordergrund so miserabel ist, daß sie die normalen Ressourcen nicht mal annähernd ausschöpfen kann, nur auf ein-zwei cores läuft und auch sonst nicht viel bindet, was natürlich dann Raum für "nichts davon merken" läßt.
Von welchem Fall sprechen wir hier also?
Antwort von Jott:
Jeder fcp-Nutzer kann selber ausprobieren, ob du es als Nicht-Nutzer besser weißt oder nicht! :-)
Spoiler: funktioniert wie beschrieben.
Antwort von Frank Glencairn:
Sei mir nicht böse, aber das ist so als ob jemand behauptet sein Auto würde - wenn er einen 2 Tonnen Bootsanhänger zieht - genauso viel Sprit brauchen wie ohne. Physik kann man halt nur schlecht wegdiskutieren.
Antwort von markusG:
"Frank Glencairn" hat geschrieben:
..frage ich mich dann immer, was für eine Art von Produktionen das sind, und mit was für Budgets ihr so arbeitet, daß die paar Peanuts für (dazu noch weitgehend mehrfach nutzbarem) Speicher schon ein finanzielles Problem werden?
Okay jetzt weniger bzgl. Budget, aber ganz einfach Datenmengen:
du erinnerst dich sicher noch an die Leute, denen selbst ein Laptop zum wranglen zu sperrig ist (war glaub ich irgendas direkt im Auto?). Da kommst du mit hoch komprimierten Material eben besser bei weg, ist doch logisch. Musste auch vor Ewigkeiten mal mit nem Dinosaurier-Macbook einen Musikvideodreh wrangeln, natürlich R3D, HFR...Spoiler: am falschen Ende gespart, war nicht die Menge als solche das Problem, sondern die Datenrate. Weiß jetzt nicht ob sich "Geld sparen" (bzw. am falschen Ende) inzwischen erledigt hat, aber in meiner Erfahrung hat es das nicht. Und in dem Forum hier geht es ja denke ich mal um alle möglichen Produktionen. Ob man solche Bedingungen haben möchte ist ne andere Frage^^ und auch nicht jeder hier macht das (haupt-)beruflich, auch nochmal andere Rahmenbedingungen...
"Frank Glencairn" hat geschrieben:
Sei mir nicht böse, aber das ist so als ob jemand behauptet sein Auto würde - wenn er einen 2 Tonnen Bootsanhänger zieht - genauso viel Sprit brauchen wie ohne. Physik kann man halt nur schlecht wegdiskutieren.
Dank Medienengines & co sollte das doch erst Recht "fluppen". Ich bin ja primär in AE (unoptimierter geht's imho nicht^^) unterwegs, da render ich munter im Hintergrund, während ich im Vordergrund weiter arbeite. Dank genügend CPU-Kernen und RAM ist das alles überhaupt kein Problem (natürlich Projektabhängig). Aber klar, mit den alten Rechnern (=weniger Ressourcen) ging das nicht so locker flockig. Stell es dir einfach wie das Autoradio, oder von mir aus die Klimaanlage im Auto vor. Dafür musst du ja nicht jedes mal den Wagen anhalten oder langsamer fahren. Machst du dir da Sorgen wegen dem Mehrverbrauch?
Antwort von Axel:
Jott hat geschrieben:
Jeder fcp-Nutzer kann selber ausprobieren …
Spoiler: funktioniert wie beschrieben.
Es ist ja so, dass das reine Playback aller möglichen Codec-Varianten Clip für Clip immer funktioniert, verzögerungsfrei und mit hemmungslosem Skimming. Das wurde für den 600 € Mini M1 ja oft genug mit z.B. 8k R5-Footage demonstriert. Im Zuge der weiteren Bearbeitung kommt peu à peu Reibungswiderstand hinzu. Natürlich verlangsamt paralleles Sichten, Bewerten und grob Schneiden (der durch FCP nahegelegte Workflow) die Umcodierung zu Proxies, aber in der Praxis ist das ohne Bedeutung. Um einen Vergleich zu bringen: das Sichten via Source Tape (ähnlich wie FCPs „kontinuierliche Wiedergabe“) und Vorschneiden in Resolves Cut Page ist nicht prozessorintensiv, und könnte Resolve parallel umcodieren, wären die Proxies dann für den nächsten, stärker ausbremsenden Schritt schon fertig - oder zumindest der Löwenanteil.
Allerdings frage ich mich, warum das überhaupt noch diskutiert wird. Es mag gute Gründe geben, auch ohne Performance-Sorgen Proxy zu verwenden, z.B. bei sehr viel Footage auf einem mobilen Gerät. Das ist bei der hier erwähnten FX3 nicht eine Frage von Hintergrundgeschwindigkeit beim Umcodieren, sondern vom Batch-Umbenennen der miterzeugten Proxies im Finder, was für 1000 Clips 2 Minuten braucht, während ich mit Links noch die Kaffeetasse hebe.
Antwort von Jott:
"Frank Glencairn" hat geschrieben:
Sei mir nicht böse, aber das ist so als ob jemand behauptet sein Auto würde - wenn er einen 2 Tonnen Bootsanhänger zieht - genauso viel Sprit brauchen wie ohne. Physik kann man halt nur schlecht wegdiskutieren.
Ich bin dir nicht böse. Wir arbeiten ja zuweilen so. Würde es bremsen, würden wir Proxies nachts starten. Der Trick dürfte sein, dass Edit-Tasks immer Vorrang gegeben wird. Beim Schneiden wird ja nicht oder nur selten gerendert.
Es gibt auch viele, die Time Maschine nicht nutzen, weil sie meinen, das würde bremsen.
Deal: ausprobieren!
Antwort von Frank Glencairn:
Axel hat geschrieben:
Allerdings frage ich mich, warum das überhaupt noch diskutiert wird.
Wahrscheinlich weil hier (und auch anderswo) ständig irgendwelche Leute am jammern sind, daß irgendwas ruckelt, zäh oder zu langsam ist.
Gefühlt less ich das jeden Tag 20 mal auf's neue irgendwo im Netz. Scheint also enormer Bedarf zu bestehen.
Antwort von Frank Glencairn:
markusG hat geschrieben:
Ich bin ja primär in AE (unoptimierter geht's imho nicht^^) unterwegs, da render ich munter im Hintergrund, während ich im Vordergrund weiter arbeite. Dank genügend CPU-Kernen und RAM ist das alles überhaupt kein Problem (natürlich Projektabhängig).
Ja, aber das ist doch genau das was ich oben - hinsichtlich der Optimierung - bereits gesagt hatte.
Wenn AE so optimiert wäre (haha), daß es für die Arbeit alles an Hardware-Ressourcen ausnutzt, dann wäre ja nix mehr übrig, um im "Hintergrund" noch irgendwas zu rechnen.
Oder umgekehrt, wenn dann Ressourcen die dir vorher noch im "Vordergrund" zum Arbeiten zur Verfügung standen, plötzlich für "Hintergrund Rechnen" abgezweigt werden, dann merkst du das natürlich auch irgendwann.
Antwort von Jott:
Was das böse Sony-Format angeht: das schneidet jemand zuhause gerade sogar auf einem MacBook Pro von 2017. Läuft ohne Aussetzer, scrubben klemmt natürlich. Kein Zustand für jeden Tag. Aber 2017! Auf den "großen" Rechnern im Studio geht alles wie Butter. Weiß jetzt nicht, was das Problem sein soll.
Proxies nutzen wir bei 8K-Sachen und so was. Ganz ohne Scham!
"Wenn AE so optimiert wäre (haha), daß es für die Arbeit alles an Hardware-Ressourcen ausnutzt, dann wäre ja nix mehr übrig"
Schlechtes Beispiel. Wir reden nicht von der Schnarchnummer AE. fcp braucht beim reinen Schneiden kaum Ressourcen. Wozu auch? Im Gegensatz zu solchen Sauriern wie AE läuft ja nahezu alles Realtime.
Antwort von markusG:
"Frank Glencairn" hat geschrieben:
Oder umgekehrt, wenn dann Ressourcen die dir vorher noch im "Vordergrund" zum Arbeiten zur Verfügung standen, plötzlich für "Hintergrund Rechnen" abgezweigt werden, dann merkst du das natürlich auch irgendwann.
Klar, aber für den Fall dass es irgendwann spürbar ist wird es dann eben ausgelagert. Bis dahin managet das AE schon recht praxisgerecht ;) Ist jetzt also kein "Bruch der Physik" oder dergleichen...
Als der 2019er Mac Pro vorgestellt wurde, haben sie den mal so ordentlich getreten, mit diversen Programmen parallel (glaub es war ne Blomberg Reportage?) - da wurden die Ressourcen ganz gut geteilt. ZB wurden iirc im Hintergrund irgendwelche Sachen in Houdini berechnet, während im Vordergrund mehrspurig geschnitten wurden etc. Solange man nichts merkt und die Deadline nicht unbedingt 100% Renderkapas braucht (wie gesagt gibt es dann andere Möglichkeiten) ist das schon ziemlich alltagstauglich, imho.
Und wenn es in AE schon fluffig ist, wird es das in FCP erst recht sein ;) Und warum sollte man die Ressourcen nicht nutzen, die man sich wortwörtlich teuer erkauft hat...
Antwort von SonyTony:
Genau das war ja das Problem: für das decoding nutzt fcpx nur fünf Prozent der Prozessorleistung und das scrubbing ist nicht flüssig. Ich kann parallel transcodieren. Normalerweise pausiert der Prozess während der Wiedergabe aber auch das kann man ausschalten per Plugin sodass er auch während der Wiedergabe proxies rechnet. Es macht tatsächlich kaum einen unterschied ob was im Hintergrund läuft oder nicht, weil das decoding nicht gut implementiert ist.
Antwort von dienstag_01:
SonyTony hat geschrieben:
Genau das war ja das Problem: für das decoding nutzt fcpx nur fünf Prozent der Prozessorleistung und das scrubbing ist nicht flüssig. Ich kann parallel transcodieren. Normalerweise pausiert der Prozess während der Wiedergabe aber auch das kann man ausschalten per Plugin sodass er auch während der Wiedergabe proxies rechnet. Es macht tatsächlich kaum einen unterschied ob was im Hintergrund läuft oder nicht, weil das decoding nicht gut implementiert ist.
Eine bessere Implementierung des Decoding als über die Hardware geht eigentlich nicht. Zumindest nicht über die CPU. Vielleicht erwartest du einfach etwas, was es gar nicht gibt.
Antwort von SonyTony:
Stimmt: ich habe erwartet das sony Xavc hs so flüssig läuft wie iPhone hevc. Das ist besser implementiert und läuft so schnell wie proxies. Auch in UHD 60p. Das war wohl zu viel erwartet.
Und genau das war der Grund warum ich bei der Ankündigung des m3 mit angeblich verbesserter hevc Beschleunigung aufgehorcht habe. Da ist nämlich Luft nach oben.
Antwort von markusG:
SonyTony hat geschrieben:
Und genau das war der Grund warum ich bei der Ankündigung des m3 mit angeblich verbesserter hevc Beschleunigung aufgehorcht habe. Da ist nämlich Luft nach oben.
The Media Engine has also not seen many upgrades, except that now it comes with AV1 decoding support. You can stream AV1-encoded videos on streaming platforms like Twitch and YouTube, which should translate into better battery life. And there is the usual support for H.264, HEVC, ProRes, and ProRes RAW video codecs.
The Apple M3 seems to be a decent upgrade over the M2. It delivers moderate upgrades in CPU and GPU and has, in fact, regressed in the memory department. The Neural Engine is also more or less the same, however, you can now get the 128GB option to run large AI models locally. The Media Engine, except for AV1 decode, is also the same. It has not seen breakthrough improvements, as we noted in our earlier comparison between Apple M2 and M1.
https://beebom.com/apple-m3-vs-m2/
Wo hast du das mit HEVC aufgeschnappt? In der Präsentation geht es doch um AV1?
Antwort von dienstag_01:
SonyTony hat geschrieben:
Stimmt: ich habe erwartet das sony Xavc hs so flüssig läuft wie iPhone hevc. Das ist besser implementiert und läuft so schnell wie proxies. Auch in UHD 60p. Das war wohl zu viel erwartet.
Und genau das war der Grund warum ich bei der Ankündigung des m3 mit angeblich verbesserter hevc Beschleunigung aufgehorcht habe. Da ist nämlich Luft nach oben.
Ja, das ist verständlich. Allerdings wird einen der Blick auf die Auslastung der CPU oder die Größe des Arbeitsspeichers da nicht weiterbringen. Technisch gesehen liegt Hardwaredecoding vorn. Wieso es dann trotzdem Unterschiede zwischen verschiedenen HEVC-Formaten auf ein und der selben Hardware gibt, darüber kann man nur spekulieren.
Antwort von vaio:
SonyTony hat geschrieben:
… 1080i… Ich dachte, es geht hier um praktische Hilfe…
dienstag_01 hat geschrieben:
SonyTony hat geschrieben:
Stimmt: ich habe erwartet das sony Xavc hs so flüssig läuft wie iPhone hevc…
… Wieso es dann trotzdem Unterschiede zwischen verschiedenen HEVC-Formaten auf ein und der selben Hardware gibt, darüber kann man nur spekulieren.
1080p getestet?
Antwort von Frank Glencairn:
Antwort von markusG:
https://www.youtube.com/watch?v=0PK9RzSl9O0
Nicht am falschen Ende sparen!
Antwort von markusG:
Wohl kein 27" iMac absehbar:
https://www.youtube.com/watch?v=L67U3zVztKw
Antwort von Axel:
Ohne jetzt das Video gesehen zu haben: ich denke, Apple hat mit einem 27“ iMac mit Silicon zulange gewartet. Wer einen Intel hatte und mehr als Bürokram damit gemacht hat, hat inzwischen einen MX Mini oder Studio und vielleicht ein Studio Display (was, alles in allem, sich nicht als sooo überteuert herausgestellt hat) - oder halt ein anderes, vergleichbares Display.
Und was M3 MacBooks betrifft, da ist das Problem für die meisten, selbst professionellen User der einerseits nicht spürbare Flaschenhals und andererseits, dass die Dinger genau dieselben Geräte sind. Du kaufst dir ja auch nicht jedes Jahr dasselbe Auto neu, weil der in jeder Hinsicht identische Nachfolger einen halben Liter weniger Sprit säuft.
Antwort von Frank Glencairn:
Jedes mal wenn ich diesen schwachsinnigen "ich schalte ihn an und er funktioniert einfach" Spruch höre, ist klar das ich das Video nicht weiter anschauen muß.
Jeder einzelne verdammte Rechner den ich in den letzten (über) 40 Jahren besessen habe, hat nach dem einschalten einfach funktioniert. Also ob das was besonderes oder seltenes wäre.
Antwort von TomStg:
"Frank Glencairn" hat geschrieben:
Jedes mal wenn ich diesen schwachsinnigen "ich schalte ihn an und er funktioniert einfach" Spruch höre, ist klar das ich das Video nicht weiter anschauen muss.
Es ist einer der dämlichsten Marketingsprüche, die es von den Apple-Jüngern gibt.
Antwort von markusG:
"Frank Glencairn" hat geschrieben:
Jedes mal wenn ich diesen schwachsinnigen "ich schalte ihn an und er funktioniert einfach" Spruch höre, ist klar das ich das Video nicht weiter anschauen muß.
Ja gibt sicher bessere Videos. Mir ging es in erster Linie darum, dass Apple mehr oder weniger bekannt gab dass der 27er iMac Geschichte ist. Da der ja nicht unbeliebt war und sicher viele darauf gehofft hatten sicher eine wichtige Erkenntnis, wenn sie nicht längst geschehen ist und die Leute wie Axel schrieb nicht längst umgestiegen sind.
Was das „it just works“ angeht kann ich es bedingt schon nachvollziehen ("frictionless" würde es imho besser treffen). Monitore neigen dazu, dass sie verzögert einschalten, manchmal eine Gedankenpause brauchen das Signal zu erkennen (da eben nicht nur eine Quelle möglich ist), und noch die ein oder anderen Eigenheiten. Aktuell habe ich zwei unterschiedliche Monitore im privaten Einsatz, und da braucht der Hauptmonitor ne ganze Ecke länger als der Sekundärmonitor. Nur auf dem Hauptmonitor findet halt der Login statt…oder ein Monitormodell im Studio, dass sich nur „soft“ ausschalten lässt und man die Reihenfolge beachten muss, sonst wird er wieder eingeschaltet…bei älteren Modellen lässt sich das Menü nicht drehen, was im Pivotmodus super nervig ist. Oder auch den Inhalt selbst (Autopivot), unterstützt auch nicht jeder Monitor. Andere Modelle haben grauenhafte fummelige Buttons.
Könnte zig Beispiele nennen wo Monitore all ihre Eigenheiten haben. Funktionieren tun die Monitore alle, aber es ist eben keine saubere Erfahrung, im Sinne von „Mensch-Maschine-Interaktion“. Dieter Rams würde jedenfalls die Nase rümpfen^^
P.s. bei AIOs oder Notebooks gibt es diese "Reibung" natürlich genausowenig
Antwort von vaio:
"Frank Glencairn" hat geschrieben:
Jedes mal wenn ich diesen schwachsinnigen "ich schalte ihn an und er funktioniert einfach" Spruch höre, ist klar das ich das Video nicht weiter anschauen muß.
Jeder einzelne verdammte Rechner den ich in den letzten (über) 40 Jahren besessen habe, hat nach dem einschalten einfach funktioniert. Also ob das was besonderes oder seltenes wäre.
Wie es in den letzten 40 Jahren war, kann ich nicht sagen. Aber für die letzten 30 Jahre, bzw. 11 Jahre beim Mac schon. Schalte nach einer Abwesenheit von 2 oder 3 Wochen einen Windows-PC ein und mach das Selbe mit einem Mac. Dann wisst ihr, was damit gemeint ist.
Beim Windows-PC wirst du im besten Fall eine Minute herumklicken - in Abständen von wenigen Minuten immer wieder die eingeblendeten Mitteilungen wegklicken. Im schlechtesten Fall gibst du nach und bestätigst… um dann mal eben 15 bis 30 Minuten zu warten. An meinem Arbeitsplatz mit Windows 10 ist das im Prinzip immer noch genauso.
Beim Mac machst du genau das, weshalb du ihn eingeschaltet hast. Vielleicht fällt dir irgendwann eine kleine rote „1“ auf - schei… egal, du arbeitest einfach weiter. Null klicken und keine eingeblendeten Mitteilungen. Wenn du fertig bist, wird macOS die im Hintergrund geladene Aktualisierung installieren - je nach Einstellung automatisch oder nach Rückfrage.
Klar gibt es User, die den Rechner 24 / 7 laufen haben. Die machen keinen Urlaub, sind nie krank und vermutlich waschen sie sich auch nicht und laufen zu Haus in weißen Doppelripp-Schlüppi herum. Ascher voll, Abwasch in der Spüle steht auch schon seit einer Woche rum… Dennoch werden auch diese User irgendwann merken, dass sich das Betriebssystem aktuell halten möchte. Selbst bei Systemen die „off“ sind, wird sich jedes moderne Betriebssystem regelmäßig melden. Auch jegliche moderne Software verlangt zumindest beim Start ebenfalls eine aktive Datenverbindung. Klar, gibt es Wege das zu unterbinden, nur ist man dann genauso beschäftigt. Bei jeder Software-Installation, bei jeden Update etc pp…. Von wegen „ich sehe mein Betriebssystem nie, quasi nur wenn ich etwas kopiere“. Schönes Märchen.
Antwort von Bluboy:
Ein User hat mal geschrieben: Apple - enschalten und Spass haben ;-))
Antwort von markusG:
vaio hat geschrieben:
Beim Windows-PC wirst du im besten Fall eine Minute herumklicken - in Abständen von wenigen Minuten immer wieder die eingeblendeten Mitteilungen wegklicken. Im schlechtesten Fall gibst du nach und bestätigst… um dann mal eben 15 bis 30 Minuten zu warten. An meinem Arbeitsplatz mit Windows 10 ist das im Prinzip immer noch genauso.
Ich kann dir da nicht wirklich folgen. Was für Mitteilungen? Auf dem Mac zB benutze ich keine iCloud und kriege da immer ne Mitteilung, auch auf dem iPad, dass ich das auch bitte aktivieren soll. Unter Windows krieg ich die Mitteilungen von den Apps die das so eingestellt haben (kann man ja abwählen), und auch Updates kriegt man ja nur dann mit wenn es im Windows-Menü beim herunterfahren/neustarten dabei steht (wenn man sie nicht sowieso suspendiert hat und nur nach Bedarf anstößt)... Beim Mac gibt es das Pop-up man möge doch bitte das System updaten, weil die neue Version ach so toll wäre. Und Neustarts bei Updates verlangt zumindest mein Mac auch.
Insgesamt sehe ich da nicht wirklich einen großen Unterschied? Aber vllt sieht das in der Windows Home Version anders aus? Die benutze ich aber nicht, und auch Windows 11 nicht. Irgendwie scheinen hier die Erfahrungen sehr inkonsistent zu sein o.O
Das einzige System dass bei mir wirklich 100% unauffällig und genau so gelaufen ist wie ich es mir vorgestellt habe und keine weiteren Dienstleistungen aufschwatzen wollte war Fedora, aber darauf laufen ja viele mir wichtige Programme nicht nativ :(
Antwort von NurlLeser:
Das einzige System dass bei mir wirklich 100% unauffällig und genau so gelaufen ist wie ich es mir vorgestellt habe und keine weiteren Dienstleistungen aufschwatzen wollte war Fedora, aber darauf laufen ja viele mir wichtige Programme nicht nativ :(
Das ist so mit wichtigen Programmen, aber es gibt für alles Ersatz, man muss sich nur darauf einlassen wollen.
Antwort von vaio:
markusG hat geschrieben:
vaio hat geschrieben:
Beim Windows-PC wirst du im besten Fall eine Minute herumklicken - in Abständen von wenigen Minuten immer wieder die eingeblendeten Mitteilungen wegklicken. Im schlechtesten Fall gibst du nach und bestätigst… um dann mal eben 15 bis 30 Minuten zu warten. An meinem Arbeitsplatz mit Windows 10 ist das im Prinzip immer noch genauso.
Ich kann dir da nicht wirklich folgen. Was für Mitteilungen?
Das kann jeder selbst testen. Schalte ihn einfach mal nach 2 Wochen ein. Das Windows wird sich zu 100 % melden.
markusG hat geschrieben:
Auf dem Mac zB benutze ich keine iCloud und kriege da immer ne Mitteilung, auch auf dem iPad, dass ich das auch bitte aktivieren soll.
Bei mehreren Apple-Geräten ist die iCloud eigentlich Pflicht, da liegen die Vorteile auf der Hand. Und ja, sie ist nicht kostenlos, bringt mit mehreren Geräten aber sehr, sehr viele Vorteile. Alternativ gibt es andere Systeme (ich bin so u.a. auf apple gekommen).
markusG hat geschrieben:
Beim Mac gibt es das Pop-up man möge doch bitte das System updaten, weil die neue Version ach so toll wäre.
Kann ich bei mir nicht bestätigen. Meine Erfahrung ist genau umgekehrt.
markusG hat geschrieben:
Windows Home Version anders aus?
Bei mir auf Arbeit wird kein „Home“ verwendet, sondern „Enterprise“.
Es sind meine Erfahrungen aus 30 Jahre Windows, bzw. 11 Jahre Mac. Die BS haben sich ohne Frage angeglichen, dennoch gibt eben gewisse Unterschiede. Das von mir beschriebene Szenario gehört dazu.
Antwort von Frank Glencairn:
vaio hat geschrieben:
Schalte nach einer Abwesenheit von 2 oder 3 Wochen einen Windows-PC ein und mach das Selbe mit einem Mac. Dann wisst ihr, was damit gemeint ist.
Beim Windows-PC wirst du im besten Fall eine Minute herumklicken - in Abständen von wenigen Minuten immer wieder die eingeblendeten Mitteilungen wegklicken. Im schlechtesten Fall gibst du nach und bestätigst… um dann mal eben 15 bis 30 Minuten zu warten.
Egal wie lange meine Workstations aus waren, da gibt es nach dem Einschalten weder irgendwelche Meldungen wegzuklicken noch 30 Minuten auf irgendwas zu warten. Was sind das für Märchen, die du uns hier wieder mal auftischen willst?
Antwort von markusG:
vaio hat geschrieben:
Das kann jeder selbst testen. Schalte ihn einfach mal nach 2 Wochen ein. Das Windows wird sich zu 100 % melden.
Hab das Szenario ja zB immer nach dem Urlaub und weiß halt nicht was du meinst?
vaio hat geschrieben:
Bei mehreren Apple-Geräten ist die iCloud eigentlich Pflicht
Und wenn man das nicht hat? Hab zb nur noch ein iPad und habe keinen Bedarf nach einer Cloud-Lösung. Muss mir das OS denn unbedingt was aufzwingen? Bei Windows ist es ja ähnlich mit One Drive, nur dass es dann halt beleidigt im System tray verweilt statt mich jedes mal zu nerven. Auch wenn es kostenlos ist.
vaio hat geschrieben:
Kann ich bei mir nicht bestätigen. Meine Erfahrung ist genau umgekehrt.
Bin ja noch recht neu (M1) beim regelmäßigen Mac nutzen, das letzte davor war glaub ich...High Sierra? Da war's afaik nicht so nervig. Vllt mach ich ja was falsch? Oder muss draufzahlen? Und gehen die iCloud Meldungen auch weg wenn ich zB nextcloud benutzen möchte? Überlege nämlich das zu nutzen, falls ich doch mal Bedarf nach einer Cloud-Lösung habe. Das geht dann auch on-premise.
Antwort von Axel:
markusG hat geschrieben:
Bin ja noch recht neu (M1) beim regelmäßigen Mac nutzen, das letzte davor war glaub ich...High Sierra? Da war's afaik nicht so nervig. Vllt mach ich ja was falsch? Oder muss draufzahlen? Und gehen die iCloud Meldungen auch weg wenn ich zB nextcloud benutzen möchte? Überlege nämlich das zu nutzen, falls ich doch mal Bedarf nach einer Cloud-Lösung habe.
iCloud Meldungen kann man wie alle Meldungen (z.B. auch Updates) in den Einstellungen des Gerätes deaktivieren. Ich habe den Eindruck, du missverstehst iCloud. Wie vaio möchte ich selbst iCloud nicht mehr missen. Ich entscheide ja selbst, was dort automatisch gesichert und/oder synchronisiert wird. Ein Beispiel von gestern. Ich musste im Urlaub eine Skizze auf ein iPhone-Foto machen, mit Zeichnung und erläuterndem Text. Das gerade gemachte Foto war schon auf dem iPad, wo ich mit Pen präziser arbeiten konnte. Das bearbeitete Bild war bereits auf dem iPhone zurück, von wo ich es per Whatsapp teilen konnte. Dasselbe gilt für alle Dokumentenarten (und selbstverständlich auch für Einstellungen selbst, also für persönliche Gerätekonfigurierung). Musik teile ich z. B. nicht auf meinen Desktop, weil ich Musik als mobil verstehe. „Draufzahlen“ muss man, wenn einem der Platz von 5 GB nicht reicht:
50 GB bei 99 Cent im Monat.
200 GB 2,99 Euro
2 TB für 9,99 Euro.
Antwort von markusG:
Axel hat geschrieben:
iCloud Meldungen kann man wie alle Meldungen (z.B. auch Updates) in den Einstellungen des Gerätes deaktivieren.
Na das ist doch schon mal was! Danke!
Axel hat geschrieben:
Ich habe den Eindruck, du missverstehst iCloud.
Ihr missversteht einfach wie ich den Mac benutze. Habe auch zB kein iPhone. Habe einfach keinen Bedarf an einer Cloud, und wenn doch (zB als Filmdatenbank, wobei es dann auch keine Cloud braucht), dann on-premise, das geht mit iCloud afaik nicht.
Antwort von Jott:
Die kriegst die Cloud als Backup-System quasi geschenkt und willst sie nicht nutzen? Kann man machen. Man kann auch Time Machine verweigern. Man kann vieles bekämpfen, was bei Apple das Leben einfach macht. Am besten alles von Apple bekämpfen, dann ist Ruhe! :-)
Antwort von markusG:
Jott hat geschrieben:
Die kriegst die Cloud als Backup-System quasi geschenkt und willst sie nicht nutzen?
Brauch ich für den Mac nicht. Nicht in diesem konkreten Fall. Ist es so schwer zu verstehen dass es unterschiedliche Use Cases gibt? Und was heißt geschenkt? Ich dachte man muss dafür zahlen?
Zumal wie gesagt: on-Premise. Man kann das natürlich auch ignorieren und einem seine eigene Denk- oder Arbeitsweise aufzwingen. Nein danke.
Antwort von Axel:
Wäre gut, wenn du erläutern würdest, was dieses on-premise Speichersystem dir bringt. Ich musste das googeln. Wenn ich es richtig verstanden habe (?), dann sind es in erster Linie Sicherheitsbedenken, die damit zu tun haben. Vergleichbar mit dem Intranet, das in meinem Betrieb alle Kommunikation zuverlässig nach außen abriegelt und zum Beispiel dazu führt, dass sensible Patienteninformationen an Ärzte per Fax (!) übermittelt werden müssen.
Antwort von markusG:
Axel hat geschrieben:
Wäre gut, wenn du erläutern würdest, was dieses on-premise Speichersystem dir bringt.
Zb Dass ich nicht von einem Anbieter abhängig bin. Oder dieser plötzlich die Preise erhöht oder den Speicher beschneidet, alles in der Vergangenheit schon erlebt. Benutze zudem mobil ausschließlich Android, da nützt mir wenn ich das richtig sehe dann iCloud nichts bzw nicht im gleichen Umfang.
Außerdem gibt es Hybrid-Modelle...
Fühle mich wie bei einem Verkaufsgespräch :D
Antwort von rush:
markusG hat geschrieben:
Benutze zudem mobil ausschließlich Android, da nützt mir wenn ich das richtig sehe dann iCloud nichts bzw nicht im gleichen Umfang.
Bei mir läuft das auch entweder über die private Cloud/NAS oder unterwegs alternativ über die google-cloud/drive um entsprechend auf mehreren Systemen (Android, Win, Mac) vollständigen Zugriff zu haben.
DIe Apple Clound habe ich nicht aktiviert - nervige Meldungen dahingehend kommen aber auch keinerlei weil generell deaktiviert.
Es ist hier nur ein einziges Apple Gerät im Haushalt und die Google-Cloud war halt schon vorhanden und wird seit Jahren mitgenutzt. Daher besteht hier kein Bedarf für eine weitere Bezahl-Wolke.
Backups des Air M1 laufen aber in die TimeMaschine sowie auch regelmäßig auf externen Speicher (NAS).
Wer dagegen mehrere oder gar ausschließlich nur Geräte aus dem Apple Kosmos nutzt - ja der wird mit der Apple CLoud natürlich bestens bedient sein.
Aber das ist eben nicht pauschal der Fall wie das Beispiel von markusG oder mir aufzeigt.
Antwort von Axel:
@Markus
Das erklärt es doch gut. Bei „steigenden Preisen“ hast du glaube ich Recht. Die Gastro rechnet z.B. damit, dass durch die MWST-Erhöhung im Januar nun nach Covid die nächste Flurbereinigung stattfindet und - egal ob die Restaurants das in vollem Umfang an die Gäste weitergeben oder nicht - Mitte 2024 weitere 40-50% der Betriebe schließen müssen. Döner und Papp-Pizza werden überleben. Glaube nicht, dass Apple eines der Argumente für ihr „Ecosystem“ krass verteuert. Denen geht sowieso glaube ich gerade der Arsch auf Grundeis.
Antwort von Jott:
„Fühle mich wie bei einem Verkaufsgespräch :D“
Keine Sorge. Mich interessiert nur immer die Seele von Verweigerern simpelster Backup-Methoden. Das finde ich halt spannend!
Antwort von rush:
Jott hat geschrieben:
Mich interessiert nur immer die Seele von Verweigerern simpelster Backup-Methoden. Das finde ich halt spannend!
Interessant ist doch eher das Nutzer anderer Workflows und Backup-Strategien von einigen Anwendern hier gern erstmal per se als "Verweigerer" abgestempelt werden ohne die Hintergründe/Use-Cases dahinter zu kennen.
Natürlich ist die icloud bequem und praktisch in der Nutzung - aber es gibt links und rechts davon auch noch andere Wege die entspannt zum Ziel führen.
Und zu Time Machine - markusG erwähnte zumindest hier im Thread nicht ob er sie nutzt oder verweigere (oder ich habe es überlesen) - letzteres wäre eine reine Mutmaßung Deinerseits bzw. Verallgemeinerung.
Antwort von Jott:
Natürlich Verallgemeinerung.
"Hilfe, mein Projekt ist weg" und ähnliches kommt hier viel zu oft - also ist Back up-Verweigerung - automatisches Backup mindestens stündlich - immer noch schwer in Mode. Unter Windows natürlich genauso. Nur muss man sich am Mac "ab Werk" wirklich anstrengen, um kein automatisches Backup zu erzeugen.
Antwort von Axel:
Weil Timemachine nicht weh tut, habe ich es auch. Tatsächlich genutzt habe ich es, wenn ich mich recht erinnere, in vielen Jahren nur einmal: von Snowleopard zurück (weil es da den „torn canvas-Bug“ - nichts Biblisches- gab).
Gemütsruhe hin oder her, die Einschränkung bei Timemachine ist halt wie bei der aus der Science Fiction, dass man schon genau wissen muss, wann der Fehler passiert ist. Und meistens auch warum. Sonst erzeuge ich entweder ein Paradoxon oder laufe in einem Zeitschleifen-Hamsterrad.
Oft benutzt habe ich dagegen Mediatheken/Projekt-Backups, und es ist schön, dass man auch diese in der Cloud haben kann. Nicht nur bei FCP!
Antwort von andieymi:
"Frank Glencairn" hat geschrieben:
vaio hat geschrieben:
Schalte nach einer Abwesenheit von 2 oder 3 Wochen einen Windows-PC ein und mach das Selbe mit einem Mac. Dann wisst ihr, was damit gemeint ist.
Beim Windows-PC wirst du im besten Fall eine Minute herumklicken - in Abständen von wenigen Minuten immer wieder die eingeblendeten Mitteilungen wegklicken. Im schlechtesten Fall gibst du nach und bestätigst… um dann mal eben 15 bis 30 Minuten zu warten.
Egal wie lange meine Workstations aus waren, da gibt es nach dem Einschalten weder irgendwelche Meldungen wegzuklicken noch 30 Minuten auf irgendwas zu warten. Was sind das für Märchen, die du uns hier wieder mal auftischen willst?
Wie denn auch, wenn Deine Workstations nicht am Internet hängen, was sollen die da Benachrichtigen? ;o
Aber ich teile Franks Meinung, dass Windows mittlerweile extrem stabil ist (selbst DIY-Rechner mit relativ zusammengewürfelten Komponenten) und wenn Software-Probleme macht ist das eher die Software an sich als das Betriebssystem. Kann mich im letzten Jahrzehnt Nutzung jetzt nicht wirklich an gröbere, auf Windows zurückzuführende Bugs erinnern.
Im Gegenteil, das erste Jahr M1 Macbook war etwas holprig. Neustartende Update-Loops (die ohne erkennbaren Grund irgendwann tatsächlich funktioniert haben), der Apple-Account-AGB-Bug, in einer OS-Version gabs mal ein paar Wochen/Monate "Fringing" (Ähnlichkeit zum optischen Phänomen beschreibt es am besten) beim ersten Drittel vom OS-Ladebalken beim Booten, in einem vorkonfigurierten, unmodifizierten SoC-Laptop. Naja. Ich mag beide Systeme. Aber die Mär vom grundstabilen Mac OS und vom fehleranfälligen Windows hat sich wirklich überholt.
Antwort von Jott:
Time Machine wird gar nicht erst verstanden …
Antwort von markusG:
rush hat geschrieben:
Und zu Time Machine - markusG erwähnte zumindest hier im Thread nicht ob er sie nutzt oder verweigere (oder ich habe es überlesen)
Mir ging es einzig um die ständigen Meldungen von u.a. iCloud. Axel hat es aufgelöst :) und eigentlich ist es quasi das gleiche Vorgehen wie unter Windows, hätte ich mal selber drauf kommen können. Naja ist halt nicht wirklich mein Daily Driver. Probier ich bei Gelegenheit mal aus.
Antwort von Axel:
Kein Zweifel, viele Lösungen kommen dem Apple-User als überlegen vor, weil er eventuell gar nichts anderes kennt. Und viele dieser Lösungen sind für Hybriduser gar nicht relevant.
Antwort von Frank Glencairn:
Axel hat geschrieben:
Kein Zweifel, viele Lösungen kommen dem Apple-User als überlegen vor, weil er eventuell gar nichts anderes kennt.
...und das dann in einem Dunning-Kruger Anfall auch noch für top of the cream hält :D
Antwort von Skeptiker:
Der ewige Kampf der (Computer)Systeme !
Mir ist im Prinzip nur wichtig, dass die Maschine nicht nervt (dehalb sind bei meinem Mac irgendwelche (möglichen) Auto-Updates abgeschaltet) und dass sie keine lästigen Bugs hat, die bei der Anwendung stören. Was die Hardware betrifft (im Zusammenspiel mit der Software), dass nicht permanent ein Lüfter hörbar läuft.
Ob das dann Windows ist oder Mac OS, ist mir im Prinzip egal.
Mit einer Ausnahme: Solange bei Windows dieser Deskop-Icon Bug noch existiert, dass bei Umordnen von Icons sich plötzlich die Umgebung auch umordnet (weil sich 2 Icons zu nahe gekommen sind), bleibe ich lieber beim Mac (dessen sogenanntes Look & Feel mir nach wie vor besser zusagt).
Kommt dazu, dass ich mich im Internet wohler fühle als mit x Online-Sicherheitsblockaden und -Auto-Updates wie bei Windows (letztere habe ja schon ganze Vorträge versaut, wenn der Vortragende vergessen hat, die Auto-Updates vorher abzuschalten). Kann auch eingebildet sein, wer weiss.
PS:
Der Win-Murks (sorry!) mit den Treiber-Installationen lässt meine Sympathien auch nicht unbedingt auf diese Seite kippen.
Antwort von Frank Glencairn:
Skeptiker hat geschrieben:
Mit einer Ausnahme: Solange bei Windows dieser Deskop-Icon Bug noch existiert, dass bei Umordnen von Icons sich plötzlich die Umgebung auch umordnet (weil sich 2 Icons zu nahe gekommen sind), bleibe ich lieber beim Mac
Könnte alles so einfach sein, wenn man nicht komplett ignorant wäre.
image_2023-11-21_152624513.png
Antwort von Skeptiker:
Bin ich nicht. Habe schon alles Mögliche probiert, und das hilft (half) leider nicht immer (dauerhaft)!
So ein erratisches Icon-Verhalten sollte "out of the box" gar nicht vorkommen.
Bevor Du jetzt schreibst: "Typisch Mac User - bei einfachsten Einstellungen überfordert!" - sage ich: Warum nicht einfach von vornherein richtig eingestellt (Mac), wenn's auch kompliziert geht (Win)?
Aber es gibt bestimmt(?) auch Beispiele, wo's genau andersherum ist.
Ich sehe bei genauerem Hinschauen gerade, dass Du ja den Grid (das fixe Raster für die Anordnung der Icons) empfiehlst. Das will in ja genau nicht (sondern die Icons frei positionieren - danke trotzdem für den Hinweis, den ich schon kannte!) und konnte die fixen Abstände zwischen den Icons (im Hintergund immer noch aktiv) trotz Abstellen des Grids teils nicht verhinden.
Antwort von cantsin:
Der große Pferdefuß von Windows sind die Systemupdates (und die Tatsache, dass systemnahe Software wie Treiber händisch aus dem Internet heruntergeladen und installiert wird, was es bei einem modernen und sicheren Betriebssystem niemals geben sollte) und die forcierte Abwärts-Kompatibilität zu Steinzeit-Versionen sowohl von Windows, als auch von Windows-Anwendungssoftware; bis hin zur Tatsache, dass sich unterhalb des heutigen Win8/10/11-Desktops bei etwas Grafikadventure-Durchklicken noch die alte Win7-Oberfläche verbirgt, sogar in einigen manchmal systemkritischen Einstellungsdialogen. Oder in den gesonderten Systemordnern und -Bibliotheken für 32bit-Software, die ebenfalls nicht totzukriegen ist...
Microsoft hätte hier schon längst einmal, wie die Entwickler von MacOS und Linux, alte Zöpfe abschneiden sollen und alles, was älter als Win10 ist (bzw. Bibliotheken und APIs aus der Vor-Win10-Zeit verwendet), in eine virtuelle Maschinen-Emulationsumgebung (à la Apples Rosetta) verbannen sollen.
MacOS hingegen schleppt sich mit einem völlig veralteten Kernel-Design (Mach + BSD) herum, weil bei Apple offenbar niemand Resourcen in wirkliche Systementwicklung steckt. Das Prinzip ist sozusagen "außen hui, innen pfui".
Beide Systemen schleppen außerdem unglaublich viel Systemdienst-Ballast mit sich, oft wegen irgendwelcher Funktionen, die kein Mensch braucht (wie z.B. DRM-Medienkopieschutz, oder selbst das Drucker-Subsystem auf einem Videoschnittrechner, das man unter Linux - wenn man will - komplett deinstallieren kann).
Beides kostet MacOS und Windows unnötig Performance, weshalb Rechner sich unter Linux doppelt so schnell anfühlen.
Linux wiederum hat das Problem der Fragmentation der Distributionen und Desktops und fehlender kommerzieller Anwendungssoftware und dann wiederum Installationsproblemen der wenigen kommerziellen Software, die es gibt. Z.B. ist die aktuelle Linux-Version von Resolve für eine RedHat Enterprise-Distribution kompiliert, die kein normaler Mensch verwendet und ziemlich alte Versionen von Systembibliotheken hat. Weil bei Linux im Gegensatz zu MacOS und Windows nicht binärkompatibel (bzw. mit binärkompatiblen Systembibliotheken und APIs) entwickelt wird, um alten Kompatibilitätsschrott (s.o.) nicht mitschleppen zu müssen, brauche ich mittlerweile Hack-Akrobatik (mit händisch ins Resolve-Programmverzeichnis kopierten, von RedHat heruntergeladenen Systembibliotheksdateien), um aktuelle Versionen von Resolve Studio noch unter meinem aktuellen Debian-Linux zum Laufen zu kriegen. Deswegen wird kein normaler Nutzer in absehbarer Zeit auf Linux umsteigen.
Was die Desktop-Bedienung angeht, gibt es IMHO signifikante Unterschiede oder Schmerzpunkte - siehe die Diskussion über einrastende Icons weiter oben - wenn man Computer noch immer klassisch im 80er/90er Jahre Desktop-Paradigma bedient, mit Icons, Werkzeugleisten, Systemmenüs, schwerer Mausbedienung, hin- und hergeschobenen Fenstern etc.
Ich nutze Windows 11, MacOS und Linux (mit Gnome-Desktop) nur mit völlig leerer, ablenkungsfreier Desktopoberfläche sowie deaktiviertem/unsichtbarem Dock/Windows-Menü und starte alle Programme über Texteingabe , was sowieso viel schneller geht, und schalte mit Win-/Apple-Tab zwischen Programmen und Fenstern. Dann ist es ziemlich egal, welches Betriebssystem gerade läuft. Manchmal bin ich dann sogar in einem OS und habe vergessen, dass ich nicht im anderen bin.
Antwort von Frank Glencairn:
Skeptiker hat geschrieben:
Warum nicht einfach von vornherein richtig eingestellt (Mac), wenn's auch kompliziert geht Win?
Ja, als Mac User könnte man jetzt genauso jammern und sagen, wieso ordnen sich die Icons nicht automatisch wie von Zauberhand ordentlich und sauber and dem Grid an - warum ist das nicht von vorne herein richtig eingestellt?
Beim Mac kannst du das ganz genau so wie bei Win einstellen - und danach verhält es sich auch genau so.
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Der große Pferdefuß von Windows sind die Systemupdates...
Schon wieder vergessen, was das letzte Mac Update alles zerschossen hat - die Foren waren voll davon?
Antwort von Skeptiker:
"Frank Glencairn" hat geschrieben:
Skeptiker hat geschrieben:
Warum nicht einfach von vornherein richtig eingestellt (Mac), wenn's auch kompliziert geht Win?
Ja, als Mac User könnte man jetzt genauso jammern und sagen, wieso ordnen sich die Icons nicht automatisch wie von Zauberhand ordentlich und sauber and dem Grid an - warum ist das nicht von vorne herein richtig eingestellt?
Beim Mac kannst du das ganz genau so wie bei Win einstellen - und danach verhält es sich auch genau so.
Beim Mac geht man offenbar davon aus, dass die User die Icons lieber frei positionieren möchten. Geht mir jedenfalls in Mac OS und Windows (wo es leider trotz Abschalten des Grids (Icon-Rasters) teils nicht funktioniert hat -> oben) so.
Aber ich bin längst dazu übergegangen, die Icon Positionen für Mac und Win grundsätzlich abzuspeichern - es passiert z. B. bei beiden Systemen, dass nach einem Wechsel der Bildschirmauflösung und wieder zurück die Icons nicht mehr an der richtigen Stelle sind.
Antwort von cantsin:
"Frank Glencairn" hat geschrieben:
cantsin hat geschrieben:
Der große Pferdefuß von Windows sind die Systemupdates...
Schon wieder vergessen, was das letzte Mac Update alles zerschossen hat - die Foren waren voll davon?
Mir geht's da bei Windows eher um die Tatsache, dass plötzlich im laufenden Betrieb der Rechner rebooten will, weil Windows Update ein wichtiges Update installieren will, oder - schlimmer noch - dass man beim Hochfahren plötzlich die (völlig stockende, im irregulären Rhythmus hochlaufende und gelegentlich sich aufhängende) 0-100% Update-Installationsmeldung bekommt, und zwar am liebsten auf einem Laptop, in dem man in 5 Minuten eine Powerpoint-Präsentation geben muss.
Wer auch immer den Update-Installationsprozess bei Microsoft entwickelt hat, gehört hochkant gefeuert.
Antwort von Frank Glencairn:
Einfach abschalten, ich hab solche Kapriolen nie auf meinen Kisten - die Workstations sowieso nicht, aber auch den Rechnern die am Netz hängen erlaube ich nicht, irgendwelche Updates auf eigene Faust zu machen - wär ja noch schöner.
Antwort von Jott:
Für alle außer Frank:
Mac-Updates erfolgen nicht automatisch. Einfach abschalten.
"Zerschießen" ist uns in 30 Jahren Mac nicht passiert, aber bitte.
Kann natürlich nur Time Machine-Verweigerern passieren. Eine ganz besondere Spezies.
Die Allerbesten sind Leute, die Beta-Versionen aufspielen. Muss so eine Art Mutprobe sein.
Antwort von Axel:
Jott hat geschrieben:
Mac-Updates erfolgen nicht automatisch. Einfach abschalten.
Eine sehr dezente Form des Hinweises ist die kleine rote „1“ über dem Systemeinstellungs-Icon im Dock. Das Dock nutze ich bei häufig genutzten Apps. Es ist, ähm, maximal minimiert und verschwindet nach Benutzung wieder (alles Einstellungen, die man in der Cloud sichern kann).
Ich gucke mir dann an, worum es sich handelt. Sicherheits-Updates, die meist in drei Minuten aufgespielt sind, mache ich sofort. Das wird seinen Sinn haben, nehme ich an, hat vermutlich was mit Sicherheit zu tun. Irgendwelche Bugfixes können dann auch mal ein paar Tage warten.
Jott hat geschrieben:
"Zerschießen" ist uns in 30 Jahren Mac nicht passiert, aber bitte.
Kann natürlich nur Time Machine-Verweigerern passieren. Eine ganz besondere Spezies.
Das würde natürlich stimmen, wenn Software-Updates Grund für das Zerschießen sind.
Jott hat geschrieben:
Die Allerbesten sind Leute, die Beta-Versionen aufspielen. Muss so eine Art Mutprobe sein.
Und in der anderen Kellerecke kauern die Update-Verweigerer, auf einem bestickten Seidenkissen, das sagt: „Ah, es läuft! Jetzt nicht mehr anfassen!“ Der Grund ist nicht, dass OS- und SW-Updates gefährlich währen und sich notorisch gegenseitig zerschießen würden: der Grund sind Plugins. Plugins lassen auch MacOS-Nutzer spüren, was Update-Phobie heißt, auch ohne wilde Treiber und sowas.
EDIT: Doch, einmal, kürzlich. Die Sondertasten funktionierten nicht mehr nach MacOS-Update. Aber nur mit dem qwertz-Logitech-Board nicht. Stellte sich raus, die Logitech-Software brauchte ein Update. Auf den Gedanken, deswegen in der Zeit zurückzugehen wäre ich aber eh nicht gekommen.
Antwort von Skeptiker:
Axel hat geschrieben:
Jott hat geschrieben:
Mac-Updates erfolgen nicht automatisch. Einfach abschalten.
Eine sehr dezente Form des Hinweises ist die kleine rote „1“ über dem Systemeinstellungs-Icon im Dock. Das Dock nutze ich bei häufig genutzten Apps. Es ist, ähm, maximal minimiert und verschwindet nach Benutzung wieder (alles Einstellungen, die man in der Cloud sichern kann).
Über dem Software-Update Icon in den System-Einstellungen.
Die rote 1 'leuchtet' bei mir seit langem permanent auf. Ich habe sie online gerade angeklickt, um mal wieder nachzuschauen, ob sich dahinter noch das gleiche Sicherheitsupdate verbirgt.
Tut es. Und ich hätte es gerne längst installiert, musste den Versuch aber nach mehreren Fehlschlägen schon früh aufgeben.
Jedesmal war mein macOS 10.14.6 (noch Mojave) danach instabil und mit "Beachball"-Pausen (unreaktiv). Natürlich habe ich dann online nach dem Fehler gesucht, aber nichts Weiterhelfendes gefunden.
Nach jedem erneuten Versuch blieb mir dann nichts anderes übrig, als mein ganzes bereits bevölkertes System komplett von einem externen CCC-Clone wiederherzustellen, um nicht alles komplett von Grund auf neu installieren zu müssen.
Keine Ahnung, ob's am T2-Sicherheitschip in meinem iMac Pro liegt oder an der eher exotischen Graphikkarte (AMD Vega Pro 56), oder ob ich einfach Pech hatte.
Als ich vorhin leichtsinnigerweise online wieder auf die genannte rote "1" klickte, wollte der erfreute Mac sofort auf das neuste macOS 14 "Sonoma" upgraden - ich konnte es gerade noch verhindern! Das läuft dann, wenn gewünscht, zunächst mal auf externer SSD!
Antwort von Axel:
Mit allem über Big Sur, ich würde sogar sagen Catalina, könntest du dir mit Intel Probleme einhandeln.
Das wird von Apple nicht gut kommuniziert und findet sich meist nur, wenn man danach speziell googelt.
Skeptiker hat geschrieben:
Als ich vorhin leichtsinnigerweise online wieder auf die genannte rote "1" klickte, wollte der erfreute Mac sofort auf das neuste macOS 14 "Sonoma" upgraden …
Online spielt keine Rolle. Ich sitze gerade nicht am Desktop, aber mW unterscheiden die Einstellungen zum Software-Update automatisch, fragen und manuell. Bei letzterem müsste man mindestens noch einmal bestätigen, bevor das Update gestartet wird.
Antwort von Skeptiker:
Axel hat geschrieben:
Mit allem über Big Sur, ich würde sogar sagen Catalina, könntest du dir mit Intel Probleme einhandeln.
Das wird von Apple nicht gut kommuniziert und findet sich meist nur, wenn man danach speziell googelt.
Ich werde's sehen.
macOS 11 Big Sur läuft extern bereits, aber ist noch nicht wirklich getestet.
10.15 Catalina ist/war teils vorinstalliert, aber ich meide es.
Das (für mich) fehlerhafte Sicherheitsupdate war für die letzte Mojave-Version 10.14.6.
Mit meinem iMac Pro 8-Kerner (mit T2-Sicherheits-Chip) kann ich mit einer Win10-Installation ("To Go") extern (Samsung T5 SSD) aufstarten, was gegenüber Parallels den Vorteil hat, dass die Graphikkarte (Hardware) unterstützt wird (falls das aktive Programm sie auch unterstützt). Bisher ist allerdings jeder Versuch missglückt, mit den heruntergeladenen Bootcamp-Treibern (für den iMac Pro) einen funktionierenden Audio-Treiber zu installieren.
Das geht mit iMacs ohne den T2-Chip (der neben der Sicherheit auch H.264/H.265 De- und En(?)coding unterstützt) und mit weniger exotischer Audio-Hardware problemlos.
Mit dem iMac Pro meldet Windows hingegen im Geräte Manager: "Alles ok, Treiber installiert (das stimmt, aber es sind die offensichtlich die falschen) und funktionsfähig", aber der Ton bleibt weg. Alle Tricks, wie vorinstallierte Audio-Treiber vor der nächsten Treiber-Installation komplett zu deinstallieren, nützten leider nichts.
Falsche, installierte Treiber: AMD High Definition Audio
Vermutlich richtige Treiber (AppleAudio oder AppleAudio_1803106B) mit folgender Fehlermeldung:
"Windows hat Treiber für das Gerät gefunden, bei der Installation ist jedoch ein Fehler aufgetreten.
Apple Audio Device
Das Gerät kann nicht gestartet werden. (Code 10)"
Bei Standard-iMacs (und ohne T2-Chip) heissen die Audio-Treiber "Cirrus", funktionieren aber nur dort.
Des weiteren ist es mit dem letzten Intel Mac mini von 2018 (mit 4 Thunderbolt 3 Anschlüssen - neben dem tiefen Preis der Hauptgrund, warum ich ihn damals gekauft habe) anscheinend nicht möglich (ebenfalls mit OS Mojave 10.14.6) , extern von derselben Win10-SSD zu starten (wie beim iMac Pro) - ich lande bereits beim Aufstarten jedesmal in Endlos-Schleife. Dies, obwohl ich das externe Starten prinzipiell erlaubt habe. Ich nehme an, dass der T2-Chip dabei im Wege steht. Eine Update-Möglichkeit für diesen Chip konnte ich nicht finden.
Für solche sytemübergreifenden Probleme fühlt sich niemand zuständig: Microsoft verweist auf Apple und Apple schiebt's auf Microsoft.
So stösst man auch am Mac an seine Grenzen (die eigenen und die des Computers).
PS:
Zum Schluss noch was Positives zu Windows:
Die Möglichkeit zum Setzen eines System-Rückstellungspunktes vor grösseren Installationen finde ich nach wie vor vorbildlich. Vor allem, weil man damit präzise (seither gespeicherte, sonstige Files ausgenommen) zum Zustand vor der Installation zurückkehren kann (normalerweise samt Registry-Bereinigung).
Antwort von vaio:
"Frank Glencairn" hat geschrieben:
vaio hat geschrieben:
Schalte nach einer Abwesenheit von 2 oder 3 Wochen einen Windows-PC ein und mach das Selbe mit einem Mac. Dann wisst ihr, was damit gemeint ist.
Beim Windows-PC wirst du im besten Fall eine Minute herumklicken - in Abständen von wenigen Minuten immer wieder die eingeblendeten Mitteilungen wegklicken. Im schlechtesten Fall gibst du nach und bestätigst… um dann mal eben 15 bis 30 Minuten zu warten.
Egal wie lange meine Workstations aus waren, da gibt es nach dem Einschalten weder irgendwelche Meldungen wegzuklicken noch 30 Minuten auf irgendwas zu warten. Was sind das für Märchen, die du uns hier wieder mal auftischen willst?
Märchen?
Da bist du doch der Experte. Von wegen deine Rechner… äh sorry… Workstations sind sowie alle offline. Ja, klar. Wie ist das eigentlich mit der BM Cloud? Du bist doch der Resolve-Experte. Zeit für ein neues Märchen von dir…
Antwort von vaio:
markusG hat geschrieben:
vaio hat geschrieben:
Das kann jeder selbst testen. Schalte ihn einfach mal nach 2 Wochen ein. Das Windows wird sich zu 100 % melden.
Hab das Szenario ja zB immer nach dem Urlaub und weiß halt nicht was du meinst?
vaio hat geschrieben:
Bei mehreren Apple-Geräten ist die iCloud eigentlich Pflicht
Und wenn man das nicht hat? Hab zb nur noch ein iPad und habe keinen Bedarf nach einer Cloud-Lösung. Muss mir das OS denn unbedingt was aufzwingen? Bei Windows ist es ja ähnlich mit One Drive, nur dass es dann halt beleidigt im System tray verweilt statt mich jedes mal zu nerven. Auch wenn es kostenlos ist.
vaio hat geschrieben:
Kann ich bei mir nicht bestätigen. Meine Erfahrung ist genau umgekehrt.
Bin ja noch recht neu (M1) beim regelmäßigen Mac nutzen, das letzte davor war glaub ich...High Sierra? Da war's afaik nicht so nervig. Vllt mach ich ja was falsch? Oder muss draufzahlen? Und gehen die iCloud Meldungen auch weg wenn ich zB nextcloud benutzen möchte? Überlege nämlich das zu nutzen, falls ich doch mal Bedarf nach einer Cloud-Lösung habe. Das geht dann auch on-premise.
Bleib stur, wenn es dir dabei besser geht.
 |
Antwort von markusG:
vaio hat geschrieben:
Bleib stur, wenn es dir dabei besser geht.
Bleib übergriffig - da bin ich raus. Keinen Bock auf solche "Diskussionen" die keine sind weil es ja nur "den einen Weg" gibt. Ist ja schlimmer als ne Sekte bei einigen hier. Aber schön dass nicht alle so drauf sind.
Antwort von rush:
Hier gibt es einen interessanten Artikel der an verschiedenen Beispielen aus dem Audio-Bereich verdeutlicht das die jeweilige Softwareanpassung extrem wichtig ist und aktuell der M3 Pro in einigen Aspekten wohl noch dem M1 Pro "hinterherläuft" - darunter sogar im Vergleich der hauseigenen Logic DAW zwischen M1Pro / M3 Pro.
Dies sei offenbar der veränderten Struktur bzw. der Reduktion von "Power"-Kernen geschuldet auf die noch nicht alle DAW's hin optimiert sind.
applem1core_01.jpg
Bildquelle: gearnews.de
Da erste Hersteller wie Cockos (Reaper) oder aber auch Steinberg (Cubase) damit jedoch bereits umgehen können und dem M3 Pro eine effektiv erhöhte Leistung entlocken, zeigt wie elementar und wichtig die kontinuierliche Anpassung auf Code Ebene für die Software-Hersteller ist.
applem1core_02.jpg
Bildquelle: gearnews.de
Ist jetzt vermutlich kein großes Ding und die Grundperformance ist ja bereits allemal hoch - aber dennoch irgendwie interessant und zeigt ganz plastisch das ein neueres System ab Start nicht automatisch in allen Belangen besser sein muss. Im Videobereich könnte sich dies bei NLE's möglicherweise äquivalent verhalten bis die Hersteller dann Ihre Software entsprechend anpassen.
Allein der Aspekt das Logic bisher wohl noch kein Update dahingehend erhalten hat dürfte einen etwas faden Beigeschmack nach sich ziehen...
Alle Info: https://www.gearnews.de/apple-m1-pro-sc ... pro-tools/
Antwort von TomStg:
rush hat geschrieben:
Allein der Aspekt das Logic bisher wohl noch kein Update dahingehend erhalten hat dürfte einen etwas faden Beigeschmack nach sich ziehen...
Da im Audiobereich schon ein MacBook von 2013 vollständig ausreichend performant funktioniert, gibt es keinerlei zwingende Notwendigkeit, aktuelle Audio-Software auf aktuelle Prozessoren anpassen zu müssen.
Auch 100 Audio-Spuren in einem Final-Mix sind keine Herausforderung für 10 Jahre alte Hard- und Software.
Antwort von rush:
Keine Ahnung ob Du den Artikel wirklich gelesen hast - denn Deine Aussage trifft eindeutig nicht für alle Plug-ins zu.
Es ging im Artikel nicht um die mögliche Anzahl "reiner" Audiospuren.
Man kann auch ausschließlich mit Apple Boardmitteln arbeiten - in der Praxis machen das jedoch die wenigsten Produzenten und nutzen stattdessen entsprechende Plug-Ins - idealerweise "M" angepasste AU's.
Doch auch hier kann es eben zu Latenzen kommen - insbesondere wenn man einen niedrigeren Buffer zum Einspielen benötigt - der im Artikel genannte 1024er Buffer ist schon extrem großzügig bemessen - und dennoch schafft Logic in diesem genannten Szenario alles andere als 100 Spuren... Natürlich kann man Spuren abschalten/bouncen etc pp - aber der "simple" additive Vorgang des Test-Setups zeigt ganz banal das Logic eben noch nicht auf die neuen Chips hin optimiert zu sein scheint.
Warum man das nun wieder wegdiskutieren möchte erklärt sich mir nicht so ganz.
Wie gesagt - das ist kein großes Ding - aber allemal interessant zu sehen das eine Prozessorgeneration eben auch softwareseitig erst wieder richtig angepasst werden muss um das volle Potential zu entfalten. Wenn das dann der Fall ist, performed der M3 Pro ja entsprechend potenter - das sollte doch die Essenz dessen sein.
Beim Denoising in einer NLE könnte das bspw. den entsprechenden Punch bringen wenn die Kerne korrekt adressiert und genutzt werden können.