Logo Logo
/// 

AMD Ryzen mit 16 Kernen und vier Speicherkanälen



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten und mehr-Forum

Frage von iasi:


https://www.heise.de/newsticker/meldung ... 60131.html

Wenn der Prozessor und der Chipsatz wirklich kommen, wird"s interessant.
Zwar taktet er nicht so hoch, aber wenn die 16C/32T von der Software reichtig genutzt werden, wird"s spannend.
Zumal dann hoffentlich auch mehrere Grafikkarten besser angebunden sind.



Antwort von Valentino:

Hört sich interessant an, während aber schon die ersten X299 bei den Boardpartner getestet werden wird AMD mindestens noch ein Jahr brauchen.

Dazu wird AMD bei einer echten Enterprise Plattform auch die Preis anpassen.



Antwort von iasi:

Hört sich interessant an, während aber schon die ersten X299 bei den Boardpartner getestet werden wird AMD mindestens noch ein Jahr brauchen.

Dazu wird AMD bei einer echten Enterprise Plattform auch die Preis anpassen. Die Rede ist von einigen Monaten und von 1000$ - aber bisher ist es nur ein Gerücht.

Denkbar wäre es schon - eben entsprechend Vega, die nun der 400er-Reihe folgen wird und diese nach oben hin ergänzt.

Eben Konkurrenz für den 6950X.
Wobei dann der X399-Chipsatz interessant wäre und es auch gerne eine Variante mit 10 oder 12 Kernen und etwas höheren Taktraten geben könnte.








Antwort von iasi:

64 PCIe Gen3 lanes
Na das hört sich doch schon besser an.
Und 3,1 bis 3,6GHz

http://www.pcgamer.com/amds-rumored-16- ... -to-36ghz/



Antwort von Frank Glencairn:

Am Ende läuft es immer drauf raus, welche Software man mit welchem Material benutzt.

REDraw ist extrem prozessorlastig und profitiert von mehreren Kernen, während sich der Prozessor bei DNG weitgehend langweilt, und eher Datendurchsatz und GPU gefragt sind.

Andere Kombinationen profitieren von hoher Taktzahl, wobei dann die Anzahl der kerne kaum eine Rolle spielt, weil das Programm oder der CodecCodec im Glossar erklärt schlecht skaliert.


Die Eierlegende Wollmilchsau, ist mir bisher noch nicht untergekommen, es läuft immer auf einen Kompromiss, bzw. Optimierung auf den eigenen Workflow raus.



Antwort von iasi:

Dieser 16 Kerner bietet ja nicht nur 16 Kerne, sondern bringt eben besser Anbindungen mit sich - 64 Lanes bedeuten z.B. eine ordentliche Anbingung von mehreren GPUs, SSDs etc.

12 Kerner (von denen auch schon die Rede ist) mit höherem Takt wären vielleicht sogar die bessere Alternative.



Antwort von Frank Glencairn:

Ich hab mir früher auch immer Sorgen um die Lanes gemacht, aber realworld Tests zeigen, daß die Auswirkung eher gering ist, höherer Takt auf weniger Kernen macht sich allerdings deutlich bemerkbar.

So kann ein I76800K, einen 24Kern Xeon beim Video rendernrendern im Glossar erklärt aus dem Wasser blasen.

https://www.youtube.com/watch?v=9mlloZT ... usTechTips



Antwort von iasi:

Ich hab mir früher auch immer Sorgen um die Lanes gemacht, aber realworld Tests zeigen, daß die Auswirkung eher gering ist, höherer Takt auf weniger Kernen macht sich allerdings deutlich bemerkbar.

So kann ein I76800K, einen 24Kern Xeon beim Video rendernrendern im Glossar erklärt aus dem Wasser blasen.

https://www.youtube.com/watch?v=9mlloZT ... usTechTips Flaschenhälse sind immer schlecht.
Aber 2 Titan mit x8/x8 zu betreiben, ist eben doch auch eine eher schlechte Investition.
https://www.pugetsystems.com/labs/artic ... nciResolve



Antwort von motiongroup:







Antwort von motiongroup:



Das perlt aber richtig..:)))



Antwort von Valentino:

Naja mal wieder einer dieser typischen Pen*svergleiche.

Interessant wäre mal ein Test bei dem z. B. ein Kurzfilm mit 15min TimelineTimeline im Glossar erklärt und 1Tb RAW oder ProResProRes im Glossar erklärt HQ Daten, mit ein paar Effekten und Titeln dahinter stecken.

Das QickSync so viel schneller ist, verwundert auch nicht wirklich, es ist halt ein Standard Hardware-Encoder, der aber halt auch seine Grenzen hat.
Ein reiner Softwareencoder der über die CPU rechnet ist je nach Einstellung langsamer, ist flexibler in den Einstellungen und liefert meist auch etwas bessere Ergebnisse.

Wer täglich Webcontent raushaut, für den ist Qick-Sync in Verbindung mit FCP-X nicht mehr wegzudenken.
Wer hingegen an einem Schnitt eines Langfilm arbeitet, der exportiert wie gewohnt in der Mittagspause oder halt nach Arbeitsende und hat auch nicht diesen extremen Zeitdruck.



Antwort von motiongroup:

sorry Valentino aber das ist doch auch schon lange gegessen.. Prores egal welchen Typs sind unter fcpx so oder das Material erster Wahl und in den Filmchen wird es auch beschrieben.. ebenso wie der Sinn oder Unsinn der 4xTitan Konfiguration .. Das ist auch mit ein Grund warum es aktuell noch nicht notwendig ist einen neuen NMP herbeizusehnen wenn man unter fcpx und oder auch unter Resolve arbeitet..
Das das ganze auch mit langen resp umfangreichen Projekten funktioniert ist doch so oder so selbstverständlich und lässt sich im NETZ leicht herausfinden..

legst Du die ganzen angeblichen Tests übereinander, vergleichst und evaluierst das Ergebnis, erübrigt sich jeder Neuanschaffungsgedanke..:)))








Antwort von Valentino:

Stimme dir dabei zu das eine Neuanschaffung von 2013 auf heute nicht so viel Geschwingkeitsgewinn mit sich bringt.

So um 2018 sollte man gerade den Neukunden eine überarbeiteten mit TB3 und aktuellen GPUs ein neuen nMacPro anbieten können oder der Workstation Sparte bei Apple halt den Todesstoß verpassen.



Antwort von motiongroup:

Wir werden sehen.. tb3 muss und wird in allen Geräten Einzug halten.. Mini, iMac und nmp .. der Ryzen scheidet dadurch aus und auch die Nvidias vermutlich..

In den neuen nmps werden die Vegas vernbaut werden.. und in den kleinen Varianten die adaptierten 500 ...



Antwort von Valentino:

Naja wenn man dann noch auf die vollen 40 PCIe Lanes der CPU zurückgreift, dann sollte es doch ein leichtes sein endlich mal ein paar externe GPUs für Davinci und Co zu betreiben.

Kann man eigentlich zwei neue MacBook Pro Geräte über ein TB3 Kabel zum 10Gbit-Netzwerk verbinden?
Habe das bei HP mal auf einem Messestand unter Windows10 gesehen und gerade für die Postpro und Arbeit am Set sind die 10Gbit ein echtes Wort.

Jetzt kommt bei Apple auch erst mal das neue Dateisystem APFS, das ja eigentlich schon vor Jahren implementiert werden sollte.
https://www.hardwareluxx.de/index.php/n ... aeten.html

Dabei sind die bei MS mit NTFS auch ordentliche Schlafmützen, den ZFS gibt es ja nicht erst seit Vorgestern.



Antwort von motiongroup:

Das ging doch schon seit thb1 das du die Rechner via THB vernetzen kannst..

Was aus den Multi GpU Setups als Ergebnis über bleibt habe ich oben schon als Filmchen verlinkt.. viel von der Investition bleibt dir da als Gewinn nicht übrig..

Apfs haben sie aktuell in die iOS gesteckt da merken wir noch recht wenig..
Obwohl, seit dem Update laufen auch die 5c5s wieder wie geschmiert.. das iPad Pro kommt mir auch flinker vor.. subjektiv.. alles neue muss nicht besser sein..

Ich reiße demnächst die 970er aus dem Hack und pflanze eine 480er ein in meinen Woipadinger .. fcpx will nur AMD, darauf wurde es zugeschnitten..
Da auf dem nur Prores verwurstet wird, ist Qsync nicht von Belang und wird wenn nötig über ein mbair zu h264 mit Qsync verwurstet..



Antwort von Valentino:

Das mit den 10Gbit-Netzwerk geht seit TB1, das ist mir neu.
Ich meine nicht die teuren 10Gbit zu TB-Adapter, sondern direkt von PC zu PC.

Braucht es dazu bestimmte Kabel oder geht das mit den normalen, hast da mal ein Artikel oder so dazu?



Antwort von motiongroup:

https://macperformanceguide.com/Thunder ... ingUp.html



Antwort von Valentino:

Danke dir, wenn ich den Artikel richtig verstanden habe scheint die Sache noch nicht so gut zu funktionieren. Die Geschwindigkeit fällt fast auf 1Gbit Niveau und die CPU wird sehr stark belastet. Also gleichzeitig über TB-Netzwerk lesen und Davinci Playback ist eher nicht möglich. Dann doch besser gleich ein externen 10Gbit-Kontroller, die so um 400 Euro kosten.

Auf dem HP-Messtand konnte wir ohne Probleme 4k DNxHR Material von dem einem ZBook auf dem anderen in Davinci wiedergeben.
Dabei lag das Material auf der internen m.2 PCIe SSD und bei direktem hin und her kopieren haben wir bei 100GB großen Videofiles keine großen Geschwindigkeitseinbrüche bemerken können.



Antwort von motiongroup:

http://www.macworld.com/article/2142073 ... rbolt.html

Wir haben das zwischen zwei nmp laufen.. problemlos..
Ab und an ziehe ich dabei auch Files auf die mbp und mein Air..



Antwort von studiolondon:

Danke dir, wenn ich den Artikel richtig verstanden habe scheint die Sache noch nicht so gut zu funktionieren. Die Geschwindigkeit fällt fast auf 1Gbit Niveau und die CPU wird sehr stark belastet. Also gleichzeitig über TB-Netzwerk lesen und Davinci Playback ist eher nicht möglich. Dann doch besser gleich ein externen 10Gbit-Kontroller, die so um 400 Euro kosten.

Auf dem HP-Messtand konnte wir ohne Probleme 4k DNxHR Material von dem einem ZBook auf dem anderen in Davinci wiedergeben.
Dabei lag das Material auf der internen m.2 PCIe SSD und bei direktem hin und her kopieren haben wir bei 100GB großen Videofiles keine großen Geschwindigkeitseinbrüche bemerken können. Ja, 10Gbit hat zahlreiche Vorteile. Einerseits am wichtigsten- wenn man nicht nur mini/mikro Installationen hat - natürlich das es switchbar ist. Daisychain a la TB ist nicht nur riskant, sondern verstopft eben auch wenn mehrere schnelle Devices an der Kette hängen sollen/müssen.

Und da die Preise pro 10G NIC inzwischen auf den Korridor 150-200€ gesunken sind, switched 10G Port sogar noch weniger... sehe ich ausserhalb von Notebooks und mini-installationen mit 2 rechnern kaum mehr Nischen für TB. Ich wünschte nur, ein ähnlicher Preisverfall wie bei 10G würde auch bei Infiniband herrschen :)








Antwort von motiongroup:

sehe ich.... kaum mehr Nischen..
;) ohhh ja und was haben wir nicht alles kommen und gehen sehen hier und anderswo..;)



Antwort von iasi:

Interessant wäre mal ein Test bei dem z. B. ein Kurzfilm mit 15min TimelineTimeline im Glossar erklärt und 1Tb RAW oder ProResProRes im Glossar erklärt HQ Daten, mit ein paar Effekten und Titeln dahinter stecken. Da stimm ich dir zu.
Flüssiges Arbeiten muss möglich sein - bei einem realen Projekt.

Export am Ende juckt mich nicht so sehr.



Antwort von PowerMac:

Karten kriegt man für 100-150 Euro. X520 und X540. Habe diverse im Einsatz. Von Netgear gibt es ein gutes Switch für ungefähr 700 Euro. Base T ist teuer, mit LC und Fibre wird es billiger.



Antwort von iasi:

Karten kriegt man für 100-150 Euro. X520 und X540. Habe diverse im Einsatz. Von Netgear gibt es ein gutes Switch für ungefähr 700 Euro. Base T ist teuer, mit LC und Fibre wird es billiger. aha - und was hat das Zusammenpfrimeln von 2 Macs nun eigentlich mit dem Ryzen zu tun?
Das ist ja wie bei den Kameras: Alles muss irgendwie drangehängt werden. :)



Antwort von motiongroup:

Nun ja Iasi, wir sind über deine Flaschehälse dazu gekommen.. Valentino hat ne frage dazu gestellt und eine Antwort bekommen... was wäre daran falsch gewesen ?



Antwort von studiolondon:

sehe ich.... kaum mehr Nischen..
;) ohhh ja und was haben wir nicht alles kommen und gehen sehen hier und anderswo..;) An was denkst du? Spontan fällt mir eigentlich bei data i/o nur FirewireFirewire im Glossar erklärt und ADB ein, die ausgestorben sind.

Ethernet und USB sind überall, (i)Scsi dazu so oder so, selbst PS/2 und RS232, ach was, sogar völlige Oldtimer wie parallelports sind bei Neugeräten erheblich verbreiteter als *alle* TB Versionen zusammen inzwischen.

Ist ja auch nicht verwunderlich:
Intels Versuch, ihre *propietären* TB-Technik gegen offene, bestehende und schnellere Standards mit mehr Funktionen, die zudem noch (siehe USB, Ethernet etc) milliardenfach im Markt und günstiger sind und von allen Herstellern unterstützt werden zu etablieren, ist ähnlich, hm, wie soll man diplomatisch sagen... Ehrgeizig wie ihr Versuch X86 durch Itanium abzulösen :)

Die Nischen für TB die ich sehe sind/waren:
- eGpu, da man aber heute zum Mitnehmen solide Notebooks mit Geforce GTX 1080 von der Stange um 2300-2400€ zzgl bekommt - die zudem mit pcie3 * 16 gekoppelt sind - bleibt das ne Nische in der Nische. TB bleibt da dauerhaft satt gebremst im Vergleich zu richtigem pcie + wird treiberseitig immer stiefmütterlich bleiben, also eben zweitklassig.
- mobiles 6G/12G SDISDI im Glossar erklärt auf Notebookbasis, dafür ist TB praktisch und IMHO eine der besten Lösungen, aber auch da sehe ich keinerlei relevante Stückzahlen mehr, das ist eine Nische in der Nische in der Nische sozusagen.
- schnelles LAN am Notebook, bloss: wenn das nicht nur oneman-shows sind, mehr als 2 rechner zugreifen sollen, längere Kabelwege als paar Meter gefragt sind, SAN mit iscsi usw das Ziel ist geht das so oder so auf 10G, egal ob per pcie/usb dock oder tb.

- RAID/NAS usw ist vorbei, der Zug ist weg: Da stehen 100erten 10G und zigtausenden USB3.x Lösungen noch was... 2 dutzend? TB Offerten gegenüber.
- Monitor ist ebenso vorbei: weit unter 1% Marktanteil, selbst Apple ist ausgestiegen und verkauft ihre TB-Monitore nicht mehr. Und Apple spart auch bei den Macbooks Thunderbolt ein, wenn ich mich recht entsinne, und es gibt nur noch usb.



Antwort von studiolondon:

Karten kriegt man für 100-150 Euro. X520 und X540. Habe diverse im Einsatz. Von Netgear gibt es ein gutes Switch für ungefähr 700 Euro. Base T ist teuer, mit LC und Fibre wird es billiger. aha - und was hat das Zusammenpfrimeln von 2 Macs nun eigentlich mit dem Ryzen zu tun?
Das ist ja wie bei den Kameras: Alles muss irgendwie drangehängt werden. :) Also so klasse AMDs Ryzen ist (und Naples wird) - für Macs würde ich den nicht nutzen. Das Betriebssystem hat von A-Z lücken in der unterstützung, da sollte man Intel kaufen.

Die Ryzen sind für VFX, Compositing, 3D und Encoding eine grossartige Sache, für Editing eine sehr gute. Ein riesen-Pries/Leistungssprung. Aber wenn man mit geringerer Güte liefern kann/will/muss sind, reichen fürs encoding mit wenig Geld auch quicksync, bzw mit mehr Geld hochwertige AMD & Nvidias.

Das Schicke an den Ryzen ist - wenn man ganze Racks füllen muss, kann man nun bequem für je unter 1000€ rasante 8-cores die zudem schön effizient in der Leistungsaufnahme sind bestücken, bzw wenns mit 1500-3000€ Etat für eine 8 core Workstation eng wurde geht das nun prima.

Direkt gesagt: im Segment 8core ist Ryzen schlichtweg eine Quantensprung.

Aber wenn man hunderte GBytes (oder mehrere Tbytes) an RAM bestücken muss/will (was gar nicht so selten ist btw -> Ramdisk) oder gleich 2-3 dicke NICs und 2-3 dicke GPUs fährt... also eine Klasse überhalb... dann sieht Naples soweit sogar noch exzellenter aus.



Antwort von studiolondon:

Interessant wäre mal ein Test bei dem z. B. ein Kurzfilm mit 15min TimelineTimeline im Glossar erklärt und 1Tb RAW oder ProResProRes im Glossar erklärt HQ Daten, mit ein paar Effekten und Titeln dahinter stecken. Da stimm ich dir zu.
Flüssiges Arbeiten muss möglich sein - bei einem realen Projekt. Massiv datenreduzierte H264 und ähnliches wie Avid DNA & prores sollte doch heute kaum mehr ein System vor Probleme stellen.
Export am Ende juckt mich nicht so sehr. Andere (hust) haben 5 sprachfassungen a je 3 schnittfassungen, die je in LQ MQ HQ FHD 4K +4K HDR pro folge, davon 26 pro staffel, das ganze je für 7 staffeln derzeit im encode - das für mehrere Franchises.

Und nach Murphys Law kommt nach der QA dann ne Änderung der Deliveries-formate für 2 egionen und 50% wieder von vorn...

... die Hälfte seines Lebens rendert man vergebens :)



Antwort von iasi:

Nun ja Iasi, wir sind über deine Flaschehälse dazu gekommen.. Valentino hat ne frage dazu gestellt und eine Antwort bekommen... was wäre daran falsch gewesen ? Aha - aber TB und Mac sind doch ziemlich weit von einem AMD-Flaschenhals entfernt. :)








Antwort von iasi:

Interessant wäre mal ein Test bei dem z. B. ein Kurzfilm mit 15min TimelineTimeline im Glossar erklärt und 1Tb RAW oder ProResProRes im Glossar erklärt HQ Daten, mit ein paar Effekten und Titeln dahinter stecken. Da stimm ich dir zu.
Flüssiges Arbeiten muss möglich sein - bei einem realen Projekt. Massiv datenreduzierte H264 und ähnliches wie Avid DNA & prores sollte doch heute kaum mehr ein System vor Probleme stellen.
Export am Ende juckt mich nicht so sehr. Andere (hust) haben 5 sprachfassungen a je 3 schnittfassungen, die je in LQ MQ HQ FHD 4K +4K HDR pro folge, davon 26 pro staffel, das ganze je für 7 staffeln derzeit im encode - das für mehrere Franchises.

Und nach Murphys Law kommt nach der QA dann ne Änderung der Deliveries-formate für 2 egionen und 50% wieder von vorn...

... die Hälfte seines Lebens rendert man vergebens :) Selbst wenn du derart viele Varianten rausrechnen musst, ist die Zeit, die du vor dem Rechner sitzt und am Projekt arbeitest, dann doch länger (und teurer).
Der Unterschied ist doch, dass es dem Rechner egal ist, wenn es beim Exportieren nur mit 12fps voran geht, ich aber beim Arbeiten am Projekt damit ziemliche Probleme bekomme.
Ob der Rechner nun 1, 2 oder 7 Stunden rendert, während ich schlafe, ist mir egal. Wenn ich aber vor dem Ding sitze, stört mich schon 1 Minute, die mich das Gerät warten lässt.

Adobe sollte (wie in den verlinkten Videos mehrmals gesagt) wirklich mehr an der Leistung der Programme arbeiten, statt andauernd neues Zeug rauszuhauen. Der Premiere-Stabi ist z.B. wirklich furchtbar lahm.



Antwort von studiolondon:

Interessant wäre mal ein Test bei dem z. B. ein Kurzfilm mit 15min TimelineTimeline im Glossar erklärt und 1Tb RAW oder ProResProRes im Glossar erklärt HQ Daten, mit ein paar Effekten und Titeln dahinter stecken. Da stimm ich dir zu.
Flüssiges Arbeiten muss möglich sein - bei einem realen Projekt. Massiv datenreduzierte H264 und ähnliches wie Avid DNA & prores sollte doch heute kaum mehr ein System vor Probleme stellen.
Export am Ende juckt mich nicht so sehr. Andere (hust) haben 5 sprachfassungen a je 3 schnittfassungen, die je in LQ MQ HQ FHD 4K +4K HDR pro folge, davon 26 pro staffel, das ganze je für 7 staffeln derzeit im encode - das für mehrere Franchises.

Und nach Murphys Law kommt nach der QA dann ne Änderung der Deliveries-formate für 2 egionen und 50% wieder von vorn...

... die Hälfte seines Lebens rendert man vergebens :) Selbst wenn du derart viele Varianten rausrechnen musst, ist die Zeit, die du vor dem Rechner sitzt und am Projekt arbeitest, dann doch länger (und teurer).
Der Unterschied ist doch, dass es dem Rechner egal ist, wenn es beim Exportieren nur mit 12fps voran geht, ich aber beim Arbeiten am Projekt damit ziemliche Probleme bekomme.
Ob der Rechner nun 1, 2 oder 7 Stunden rendert, während ich schlafe, ist mir egal. Wenn ich aber vor dem Ding sitze, stört mich schon 1 Minute, die mich das Gerät warten lässt. Ja und nein.
Die Themen sind eher:
Vertrag beginnt am 1ten des Monats.
Man kriegt vertragsgemäß die Master 48h zuvor.
Jetzt müssen 1000, 2000, 3000+ Versionen abgeleitet werden.

Natürlich könnte man THEORETISCH das ganze auf S3 legen, und dann via EC2 abarbeiten lassen, bzw voll auf Azure zu setzen.

Aber a) das kostet und viel wichtiger b) ist bei vielen Lizenzgebern nicht im AUDIT enthalten / erlaubt.

c) Ganz aktuell heute hier:
Zudem schaffen es kleinere Lizenzgeber in der Regal oft, nicht 48 sondern 16h Stunden vor Programmstart anzuliefern (wie heute nacht), und da fehlt dann die Zeit alles uncompressed hochzuladen, sprich, wenn man Azure, S3/EC2 nutzt MUSS man wegen bandbreite alles vorreduziert hochladen - und dann haben die Kunden schlechtere Bild&tongüte, die QA rebelliert usw.

Insofern bin ich für Distribution & mastering HEILFROH *lokal* jetzt 100erte Kerne die Nacht über laufen lassen zu können, wenn es hart auf hart kommt werden es auch 1000+ (was dramatischer klingt als es ist, das sind heute 2,3,4 racks die weniger kosten als ein HDCAM SE player + HDCAM SR Rekorder +Alchemist vor weniger Jahren).

Ausserdem ist es vglw. lockere arbeit (man kann nebenher surfen usw) und gut bezahlt.
[
Adobe sollte (wie in den verlinkten Videos mehrmals gesagt) wirklich mehr an der Leistung der Programme arbeiten, statt andauernd neues Zeug rauszuhauen. Der Premiere-Stabi ist z.B. wirklich furchtbar lahm. Auch Jein.

Also klares JA: die optimierung auf mehrkerne ist teilweise echt schwach bei PPro und Pshop, AE ME usw gehen teilweise prima.

Da also 100% ja.

aber nein: was mich am meisten stört an Adobe sind 2 dinge.
a) wegen dem lizenzmodell schaff ich es nirgendwo, mehr als die typischen frontendlizenzen auf aktuellem stand zu halten, da ja die 5.5/6er nix kosten für immer und 1a 95% m backbone abdecken.

und b) das einfach funktionen entschwinden... ich sag nur motion estimation slowmo. das geht einfach vorne und hinten nicht. Oft installiert man dann ALTE versionen um die funktion wieder nutzen zu können / archiv zugreifen zu können erneut. au.

also die beiden punkte fände ich noch wichtiger als optimierung. Optimierung kann man durch massives computing ersetzen, und das kostet ja kaum mehr, workflow (wie in b)) und lizenz (wie in a)) nicht.



Antwort von iasi:

na ja - wenn die Zeitfenster derart eng sind und viel rausgehauen werden muss, ...
Ich muss da immer an Shane denken, für dessen Schnitt sich die Macher sehr viel Zeit genommen hatten.
Beeindruckt bin ich von den echten Könnern, wenn sie z.B. in Resolve eine Aufnahme bis ins Detail gestalten und verfeinern - das braucht Zeit. Und gerade auf diese Zeit kommt es an. Da darf die Maschine nicht bremsen.

In welchen und wie vielen Formaten dann am Ende rausgerechnet wird, ändert an der Qualität des Filmes nicht wirklich etwas.



Antwort von studiolondon:

na ja - wenn die Zeitfenster derart eng sind und viel rausgehauen werden muss, ...
Ich muss da immer an Shane denken, für dessen Schnitt sich die Macher sehr viel Zeit genommen hatten.
Beeindruckt bin ich von den echten Könnern, wenn sie z.B. in Resolve eine Aufnahme bis ins Detail gestalten und verfeinern - das braucht Zeit. Und gerade auf diese Zeit kommt es an. Da darf die Maschine nicht bremsen.

In welchen und wie vielen Formaten dann am Ende rausgerechnet wird, ändert an der Qualität des Filmes nicht wirklich etwas. Stimmt absolut.

Aber, sehe das mal industriell.
Wenn hier bspw. ne komplette Anime-Serie ankommt...
... dutzende Folgen
... zig Staffeln
...mono, stereo, 5.1

dann, und jetzt wirds bitter:

- normale CC/sub auch HARDCODED CC machen...
- aus 23.9x, 24, 25, 30, 50i, 59.xi, 60i wiederum 23.9x, 24, 25, 30, 50i, 59.xi, 60i ableiten - und twar in bester güte

dann das ganze

für mobile

für low und mid und high res screen
das wiederum in low mid high datarate

für stationary
für pc/legacy/settop/smart-tv
das wiederum in low high mid data
in low high mid res

und das ganze dann zudem in e, d, fr, cn, jpn, sp sprachfassungen...

... das ganze am besten pronto, nebst vollprofessioneller QA der lizenzgeber an den pobacken.

Ich denke jetzt wird klar warum wir VIEL lokale rechenpower und bandbreite GERNE haben.

edit/ps: Und das ganze konstant, schnell in 48h NEBEN dem cgi/vfx arbeiten, jede woche, jeden monate, viele jahre lang. Ich würde auch lieber nur dci 4K / 3D 48P master 100% sicher abgeben. Aber - das Kaliber macht wenn es hochkommt 15-20% der arbeit aus. Alleine schon stationary / legacy (was elaboriert für MPEG2MPEG2 im Glossar erklärt ist) ist da in etwa gleichhäufig, egal welche preis & güteklasse bei Kunden wie Inhalt.



Antwort von studiolondon:

Nun ja Iasi, wir sind über deine Flaschehälse dazu gekommen.. Valentino hat ne frage dazu gestellt und eine Antwort bekommen... was wäre daran falsch gewesen ? Aha - aber TB und Mac sind doch ziemlich weit von einem AMD-Flaschenhals entfernt. :) stimmt, AMD Ryzen hat 24 pcie-lanes minimum frei, Apple exakt 0 frei, da PciE komplett für alle Maschinen für alle Käufer komplett geblockt ist.

TB hat max 4 pcie statt 24 pcie bei Ryzen und >60 bei Naples.
Das sind in der Tat ganz unterschiedliche Welten, bei apple/macos gibt es max 12.5% der bandbreite eines +-300€ AMD Ryzen zu verteilen.



Antwort von motiongroup:

sehe ich.... kaum mehr Nischen..
;) ohhh ja und was haben wir nicht alles kommen und gehen sehen hier und anderswo..;) An was denkst du? Spontan fällt mir eigentlich bei data i/o nur FirewireFirewire im Glossar erklärt und ADB ein, die ausgestorben sind.

Ethernet und USB sind überall, (i)Scsi dazu so oder so, selbst PS/2 und RS232, ach was, sogar völlige Oldtimer wie parallelports sind bei Neugeräten erheblich verbreiteter als *alle* TB Versionen zusammen inzwischen.

Ist ja auch nicht verwunderlich:
Intels Versuch, ihre *propietären* TB-Technik gegen offene, bestehende und schnellere Standards mit mehr Funktionen, die zudem noch (siehe USB, Ethernet etc) milliardenfach im Markt und günstiger sind und von allen Herstellern unterstützt werden zu etablieren, ist ähnlich, hm, wie soll man diplomatisch sagen... Ehrgeizig wie ihr Versuch X86 durch Itanium abzulösen :)

Die Nischen für TB die ich sehe sind/waren:
- eGpu, da man aber heute zum Mitnehmen solide Notebooks mit Geforce GTX 1080 von der Stange um 2300-2400€ zzgl bekommt - die zudem mit pcie3 * 16 gekoppelt sind - bleibt das ne Nische in der Nische. TB bleibt da dauerhaft satt gebremst im Vergleich zu richtigem pcie + wird treiberseitig immer stiefmütterlich bleiben, also eben zweitklassig.
- mobiles 6G/12G SDISDI im Glossar erklärt auf Notebookbasis, dafür ist TB praktisch und IMHO eine der besten Lösungen, aber auch da sehe ich keinerlei relevante Stückzahlen mehr, das ist eine Nische in der Nische in der Nische sozusagen.
- schnelles LAN am Notebook, bloss: wenn das nicht nur oneman-shows sind, mehr als 2 rechner zugreifen sollen, längere Kabelwege als paar Meter gefragt sind, SAN mit iscsi usw das Ziel ist geht das so oder so auf 10G, egal ob per pcie/usb dock oder tb.

- RAID/NAS usw ist vorbei, der Zug ist weg: Da stehen 100erten 10G und zigtausenden USB3.x Lösungen noch was... 2 dutzend? TB Offerten gegenüber.
- Monitor ist ebenso vorbei: weit unter 1% Marktanteil, selbst Apple ist ausgestiegen und verkauft ihre TB-Monitore nicht mehr. Und Apple spart auch bei den Macbooks Thunderbolt ein, wenn ich mich recht entsinne, und es gibt nur noch usb.
nun ja, die eGPU Schiene ist doch kein Konstrukt seitens Apple sondern der Windowswelt und sind jetzt erst richtig Marktreif geworden(razer,usw)

Bei Laptop und auch im Desktopbereich hat sich in Verbindung mit USB3.1 Type C/ Thb3 die Türe für alle geöffnet und Apple wie auch die PC Hersteller verbauen sie... und nein Apple verbaut THB3 einzig der MB 12" Verträterminni verfügte über genau 1xusb3.1C und die Welt heulte auf..

Du gehst auch von in deinen Ausführungen von Szenarien aus die genau im einstelligen Prozentbereich greifen wie sonst möchtest Du deine ewig propagierten Infinniband Einlassungen rechtfertigen.. Das ihr bei eurem Aufwendungen andere Ansprüche an Equipment und Automation anstellt, steht doch außer Zweifel... Es steht aber auch außer Zweifel das selbst mit OSX Infrastrukturen in den Senderlandschaften problemlos,(was auch immer das heißt) gearbeitet wird.

ich kann mich noch gut an deine Ausführungen zu Opteron Systemen und auch zu Windows Mobiles an anderer Stelle erinnern.. was ist davon geblieben.. aus dem einen wurden Heizlüfter da sie die Leistung im Videobereich niemals effektiv ausgenutzt hatten und mit der Win Mobile/Phone Sparte ....? Besser man spricht nicht drüber.. ;)

Aber Du hast vollkommen Recht nach oben gibt es keine Grenzen..

Der iasi hats auf den Punkt gebracht... wenn ich davor sitze darf ich nicht warten müssen ob ich die nächste Aktion starten kann und oh schreck, dass funktioniert schon seit Jahren ohne Probleme zumindest während der Bearbeitungsprozesse am Projekt..

Aha - aber TB und Mac sind doch ziemlich weit von einem AMD-Flaschenhals entfernt. :)
nochmals iasi... Valentino hat eine explizite Frage danach gestellt und hat darauf eine Antwort bekommen.. ich werde dich aber nächstes mal vorher fragen ob dir das genehm ist.;)



Antwort von Valentino:

...und so langsam wandert mal wieder ein solcher Artikel Richtung Off-Topic, bin ja auch nicht ganz unschuldig...

BTW: Habe gestern mal zum Spaß zwei Win7 Systeme per Thunderbolt-1 verbunden. Trotz neuer Treiber ist genau nichts passiert ;-)

Wie glaube ich Nic7 schon geschrieben hat, wenn dann gleich zu echten 10Gbit Karten und 10Gbit Switch greifen. Für unter 2k Euro kann man da schon drei Rechner mit einem Hub verbinden. So langsam sollten halt auch die Mainboard Hersteller auf 10Gbit TBase setzten, BandbreiteBandbreite im Glossar erklärt haben die ja langsam alle genug und wenn nur reale 5Gbit drin sind, ist es eine deutliche Verbesserung.



Antwort von motiongroup:

Gebe dir vollkommen recht

OFF



Antwort von Frank Glencairn:

Leckmichamarsch - Studio London is back in town :D

Das freut mich.








Antwort von iasi:

Leckmichamarsch - Studio London is back in town :D

Das freut mich. bei dem Thema konnte er sich wohl nicht mehr zurückhalten :)



Antwort von iasi:

nochmal zurück zum Thema:

ich bin verwirrt:

nun sollen also viele CPU-Kerne nichts bringen
und
mehrere GPUs würde es auch nicht brauchen

merkwürdig



Antwort von Frank Glencairn:

Wie ich schon geschrieben habe, kommt auf dein Programm an, sowie auf den CodecCodec im Glossar erklärt, sowie darauf, wie gut eventuelle Plug-Ins skalieren. Ne Pauschal Lösung für alles gibt's genauso wenig, wie die Eierlegende Wollmilchsau.



Antwort von iasi:

Wie ich schon geschrieben habe, kommt auf dein Programm an, sowie auf den CodecCodec im Glossar erklärt, sowie darauf, wie gut eventuelle Plug-Ins skalieren. Ne Pauschal Lösung für alles gibt's genauso wenig, wie die Eierlegende Wollmilchsau. na ja - von aktuellen Programmen sollte man mittlerweile erwarten dürfen, dass sie auch mehrere CPU-Kerne zu nutzen wissen - nur weil der Premiere Stabi nicht mehr als einen Kern nutzt, bedeutet es ja nicht, dass viele Kene nichts bringen.

GPUs - das ähnliche Spiel - 2 sind so oder so von Vorteil, denn eine muss die Monitore beliefern, damit sich die andere aufs Rechnen konzentrieren kann.



Antwort von Frank Glencairn:

..sollte man erwarten dürfen...

Das hilft mir nix bei der Arbeit.

Erwarten darf man viel, wenn der Tag lang ist - entscheidend ist wie die jeweiligen Programme/PlugIns tatsächlich mit CPU/GPU/Speicher umgehen, und das ist halt oft noch eher suboptimal.

Ein 16Kerner bringt dir was bei Red Material, weil das (in Resolve) auf der CPU debayert wird, bei raw DNG langweilt sich die CPU zu Tode, und wartet auf die GPU.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten und mehr-Forum

Antworten zu ähnlichen Fragen:
AMD Ryzen Threadripper CPU mit bis zu 16 Kernen schon diesen Sommer
Neuer AMD Ryzen Threadripper 3970X: Schnellste High End Desktop CPU mit 32 Kernen
Neue iMacs mit bis zu 8 Kernen und AMD Vega-Grafik
AMD nennt Preise und Termine für Ryzen 3 und Threadripper
AMD liefert 7nm GPUs und CPUs aus: Radeon 5700(XT) und Ryzen 3xxx Serie
AMD Ryzen Threadripper 2990WX: 32 Kerne und billiger als ein Intel 18 Core
INTEL i9-9900k vs AMD Ryzen 9 3900x
Welche AMD Ryzen CPU für Videobearbeitung
AMD Ryzen - Startet Intel schon jetzt den Preiskampf?
AMD Zen 3 Ryzen 5000 CPUs - jetzt durch die Bank schneller als Intel
Gerücht: Intel Core i9-9900K mit 8 Kernen und 5 GHz Turbo
Neuer MacBook Pro 15 mit 8 CPU Kernen, 5 GHz Turbo und verbesserter Tastatur
Intel: neue i9-9980HK CPU mit 8 Kernen und 5 GHz für mobile Workstations
Apple: iMac Pro mit bis zu 18 Xeon Kernen und 11 TFlop Vega GPU angekündigt
Vier neue mobile Workstations von MSI mit 8-Kern i9 CPUs und Nvidia RTX 5000
Kommerzieller Hackintosh mit AMD CPUs und Win 10
AMD Zeppelin CPU mit 32 Cores und Vega GPU
Rodelink Langzeittest und vier Empfänger - Erfahrungen?
Intel Core i7-8700K - Ab jetzt auch mit 6 Kernen im Mainstream
Killer-Workstation Prozessoren und Grafikkarten von AMD - Threadripper II mit 32 Cores
Premiere CC: Ryzen rechnet nur mit 57%???
Red Giant Universe 2.0 mit vier neuen VFX-Plugins
Vier neue Samsung S10 Smartphones mit bis zu 6 Kamera-Sensoren
Viele Leaks und Gerüchte um AMDs Ryzen
Vollformat und extrem lichtstark - vier neue SLR Magic MicroPrime Optiken // NAB2018
Ricoh unternimmt neuen 360° Versuch - Vecnos mit vier Objektiven vorgestellt

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
1. April - 30. September / Düsseldorf
Young Film Lab
12-15. Mai / Thalmässing
27. Kurzfilmtage Thalmässing
12-16. Mai / Bremen
realtime, festival für neue musik
19-30. Juni / Düsseldorf
24h to take
alle Termine und Einreichfristen