Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Neue Workstation



Frage von tatita:


Hi,

ich bearbeite momentan alle Videos auf einem MacBook Pro will mir aber nun auch einen Deskopt PC kaufen. Die MacPros sind mir leider zu teuer aber ein Freund hat mir diese Workstation hier empfohlen.

Ich arbeite hauptsächlich mit der Adobe CS5 Production Premium und DVCProHD.

Lenovo IBM ThinkStation S20:

Xeon UP W3530 4x 3.06GHz
6GB RAM
Festplatte 1 x 500 GB
Windows 7 Pro 64-Bit

http://www.ba-computer.at/product_info. ... id=1206671

RAM und Festplatten würde ich noch aufrüsten. Als Grafikarte hätte ich eine GTX470 eingeplant.


Was haltet ihr davon?


Lg

Space


Antwort von prime:

DVCProHD hat so weit ich weis keine großen Hardwareanforderungen. Ansonsten... die Festplatte könnte definitiv größer sein.

Space


Antwort von jwd96:

Wenn du vorher auf einem Mac gearbeitet hast, dann musst du ja aber die Production Premium nochmal für Windows kaufen. Oder hast du auf dem MacBook ein Windows laufen lassen?

Space


Antwort von tatita:

@prime:

Stimmt, ich habe auf meinem MacBook auch keine Probleme beim schneiden damit aber ich möchte einfach einen Rechner haben den ich wirklich nur zum Videobearbeiten verwende. Außerdem hab ich auch hin und wieder anderes Material zum bearbeiten, da möchte ich dann auch genug Reserven haben.

Festplatten hätte ich sowieso noch nachgerüstet, momentan hab ich all mein Rohmaterial auf externen UBS2 Platten (ich weiß nicht ideal...).
Bin noch am überlegen ob sich eine 80GB SSD für Programme und System lohnen würde...

@ jwd96

Ich hab am MacBook momentan die CS4 Student Edition (kann man nicht upgraden, ist dafür sehr billig). Für den neuen PC würde ich mir dann einfach die CS5 Student Edition kaufen.


Danke für eure Antworten!
Lg

Space


Antwort von Roddie:

Hallo,

ich hatte auch schon an eine Lenovo S20 oder eine Dell Precision-Workstation gedacht.

Gerade habe ich mir mal einen Vorschlag auf Alternate zusammengestellt, der sich an diesem hier orientiert:

http://www.hennek-homepage.de/video/i7- ... mputer.htm

Ich habe nur leichte Veränderungen vorgenommen. Ein anderes Gehäuse (Antec P138), ein be-quiet-Netzteil und die Grafikkarte
NVIDIA GeForce GTX EVGA GeForce GTX 470 (für CS5 zertifiziert).

Für 79 Euro montiert Alternate das System.

Vielleicht wäre das auch etwas für Dich?

Space


Antwort von BriLLe:

kein Sandy Bridge Prozessor? Wenn gewollt, würden mich die Gründe interessieren.


LG,
Britta

Space


Antwort von tatita:

Hi,


danke für eure Antworten, ich werde mir deine Zusammenstellung später mal genauer ansehen.

Ich habe übrigens hier ebenfalls ein paar interessante Informationen bekommen, falls es jemanden interessiert:

http://forums.adobe.com/thread/774918


Lg

Space


Antwort von Roddie:

Gegen den Sandy-Bridge-Prozessor spricht:

1. Die integrierte Grafikfunktionen, die man für teures Geld mitkauft. Bei einem Office-PC kann man sich damit zwar eine Grafikkarte sparen, diese integrierten Funktionen sind für die Anforderungen von Videoschnitt nicht ausreichend und werden bei Verwendung einer externen Grafikkarte kurzerhand deaktiviert. Warum soll ich etwas kaufen, dass ich doch niemals nutze?

2. Die Prozessoren sind noch recht neu und noch nicht erprobt. Ich betrachte eine neue Technik erst dann als brauchbar, wenn die ersten Office-Computer bzw. Workstations für den gewerblichen Einsatz damit auf den Markt kommen.

3. Integriertes DRM, damit Radio- und Filmsendungen nicht mit dem PC mitgeschnitten werden können. Das ist ja ein Rückschritt in die Zeit, als es noch kein Video und Kofferradios mit eingebautem Kassettenrecorder gab.

4. Und wieder mal ein anderer Sockel ...

5. Ich meine irgendwo gehört zu haben, dass man einen Sandy Bridge Prozessor über GSM-Netz deaktivieren kann, auch wenn der Computer ausgeschaltet ist.

Space


Antwort von BriLLe:

Alsooooo ... mal ganz langsam:

zu 1.
Die Grafikfunktion ist NUR in den H67 Boards und nicht in den P67 Boards freigeschaltet, und KANN im Preisleistungsverhältnis zur Gesamtrechnung getrost weggelassen werden. Sonst würde sich kein Gamer diesen Chip holen, da er Mama's Geld genau aufteilen muss zw. Chip und Graka. Der Grund warum gerade Gamer den neuen Chip kaufen wie verrückt (gibt gerade Lieferschwierigkeiten!) liegt in seinem unschlagbaren Preisleistungsverhältnis und Prozessor Speed. Die K Chips sind in den Benchs direkt hinter den letzten Xeons und führen die Benchmarklisten auf den 2. und 3. Plätzen mit an, und das für nicht einmal ein Drittel des Preises! Und sie sind dabei auch noch stromsparender und erzeugen weniger Hitze. Ob da jetzt noch ne Grafikprozedur mitdudelt oder nicht interessiert ehrlich gesagt niemand da draußen bei den Verhältnissen zum Speed und dazu dass heute eh die CPU mehr zählt als die Graka.

zu 2. Naja, "neu" sind sie, das stimmt. Im besten Sinne des Wortes. Aber "nicht recht erprobt" stimmt nicht. Die Foren sind voll mit Signaturen von Leuten die den Chip längst haben (was auch erklärt warum ich gerade überall auf 4-6 Tage Wartezeit komme). Und Workstations gabs fast zeitgleich mit Einführung. Zwar ohne K aber mit Sandy Bitch *g*

zu 3.
Also DRM interessiert echt niemanden, da fast alle wissen wie man es umgeht. Davon abgesehen stimmt es auch nicht: It isn't for Netflix IIRC. Its for Intels streaming service and basically doesn't effect anyone. --> Link

zu 4.
Ja und?? Wer stehen bleibt kann sich nicht weiterentwickeln. DAvon abgesehen ist das doch völlig wurscht wenn man sich einen neuen Rechner zusammenbaut. Immernoch besser als was ich mit PPC Mac zu Intel Mac erlebt habe, kurz nachdem ich das letzte gr. PPC Flagschiff gekauft hatte. Chip und BOard ist ein Witz dagegen. Aber stell dir mal vor wir würden heute auf den Boards von vor 10 Jahren immernoch rumm kratzen? Oh jeee ...

zu 5.
Ich denke mal du sprichst von Bluetooth Control des UEFI (das neue BIOs). Aber mal davon abgesehen, dass du eben noch gesagt hast es wäre nicht erprobt und man sich Fragen muss woher dieses Gerücht dann kommt, wäre es dann auch a) davon abhängig ob du ein Board mit Bluetooth nimmst und b) ob du eines mit UEFI nimmst und c) ob du Blootooth freigegeben hast. Und d): wozu sollte jemand in Bluetooth oder was auch immer ...Reichweite deinen Rechner abschalten? Ich denk mal, das kann dir nur Scully und Mulder beantworten! Aber soviel ich weiß, lässt David Duchovny sich gerade gegen Sexsucht behandeln. X-) ... Und außerdem: mal Etwas gehört zu haben ... ? C'mon! .... Ich habe auch gehört, dass die RED wohl heimlich Bilder zu googlemaps schickt. *ggg* (ein bisschen Spass muss sein)

Ein Argument was gegen Sandy sprechen würde, wäre, wenn du gesagt hättest du willst Sandy E abwarten. Aber du widersprichst dir eh selbst, wenn du a) bemängelst dass immer sofort neue Technologien angewandt und auf den Markt gebracht werden und b) sie für Dich noch nicht ausgereift sind. Der Widerspruch darin ist dass du die Zeit nicht mehr haben wirst zu warten. Denn bis du dich entschieden hast, ist längst die nächste Generation an Chips da.

Grundsätzl. bin ich auch dafür nicht immer alles mitzumachen oder jeweils einmal auszusetzen (zu überspringen), aber da Sandy Bridge nu wahrlich nicht teuer ist, bin ich in dem Falle dafür mitzuziehen, weil die Technologien sich immer gegenseitig vorantreiben. Was heißen soll, dass die Software früher oder später auf neue Chips hin optimiert.

just my 2 cents ...

Space



Space


Antwort von ratoe66:

Hi Britta,

was zahlt Intel denn für so eine Werbung ?

Space


Antwort von BriLLe:

Kannst mir ja ein Gegenangebot machen. OMG ...

traurige Welt ...

Space


Antwort von Alf_300:

Wenn ich mir das so anschaue, gehts wieder mal um Billiger bei gleicher Leistung, da ist Intel entweder schön Blöd oder möchte eine Technik durchdrücken und wird Subventioniert.
Die Vergleichswerte zum I7@960 übrerzeugen mich auch nicht
Aber wer einen Aldie-Rechner will soll zuschlagen (Febr/März)

Space


Antwort von tommyb:

Hi Britta,

was zahlt Intel denn für so eine Werbung ? Meinst Du Apple-Fanboys kriegen auch monatlich eine Überweisung fürs trollen?

Die Sandy Bridge Prozessoren sind nun mal leistungsmäßig besser als die Core i7 9xx (außer vielleicht die Six-Cores - da eher nicht) bei niedrigerem Stromhunger.

Space


Antwort von Valentino:

@tatita
Hört sich als Gesamtes System sehr gut an.
Hab vor drei Monaten ein fast identisches System zusammengebaut.
Den Xeon W3550, GTX470 usw.
Wobei bei mehr RAM und einer SSD+Blu-Ray Brenner so ein System mal locker 1800 Euro kostet.
Da meine alte Workstation schon knapp 7 Jahre auf dem Buckel hatte, war es mir das Geld aber auch wert.

Die Sandybridge ist doch zur Zeit nur für Consumer Rechner gedacht oder?
Da habe ich lieber ein Gigabyte Board mit X58 Chipsatz, den es nicht erst seit einem Monat gibt.
Alleine die Befürchtung, das sich der AVID MC5 sich mit dem neuen Chipsatz nicht so gut versteht, reicht bei mir als Grund vollkommen aus.

Ganz abgesehen davon das ich per GTX470 mit der CUDA schon eine eingebaute Videobeschleunigung habe und keines der Programm die ich zur Postproduktion benutzte aber nur ansatzweise schneller werden würden durch die Sandy Bridge. Warum auch, AVCHD geht per AMA super flüssig und bei der Blu-Ray Wiedergabe habe ich auch nur 1-2 Prozent CPU last.

Was ich schade finde das Intel irgendwie mit dem neuen X78(x69?) Chipsatz und der nativen USB 3.0 Unterstützung nicht so ganz zu Potte kommt.
Der Sockel soll ja dann 2011 Pin haben oder?

Space


Antwort von BriLLe:

@tatita
Hört sich als Gesamtes System sehr gut an.
Hab vor drei Monaten ein fast identisches System zusammengebaut. Deswegen wirst du dich auch hüten, etwas positives zu Sandy zu sagen ...
Die Sandybridge ist doch zur Zeit nur für Consumer Rechner gedacht oder? Undw wen interessiert das, wenn er gut ist?? DIe meisten Slashcam Kameras sind das auch. Auch die Tops.
Alleine die Befürchtung, das sich der AVID MC5 sich mit dem neuen Chipsatz nicht so gut versteht, reicht bei mir als Grund vollkommen aus. tuts aber :-)))
Ganz abgesehen davon das ich per GTX470 mit der CUDA schon eine eingebaute Videobeschleunigung habe und keines der Programm die ich zur Postproduktion benutzte aber nur ansatzweise schneller werden würden durch die Sandy Bridge. Wieder falsch ... sagt mal habt ihr alle kein Googel oder sind das so'ne Art Internetscheuklappen?
Was ich schade finde das Intel irgendwie mit dem neuen X78(x69?) Chipsatz und der nativen USB 3.0 Unterstützung nicht so ganz zu Potte kommt. Sandy hats, und zwar viiiiel. Ich hab hier schon vorn allein 3 und hinten auch noch'n paar :) Hm, ... woran mag das wohl liegen ...

Natürlich sind die ersten Sandy Bridge Mittelklasse, aber sie sind gleich auf wie die letzten Tops aber tausendmal billiger. Das ist a der Gag an der ganzen Sache und ich Doofi töns auch noch groß rumm um zu helfen und krieg zur Quittung noch'n doofn Spruch von wegen Werbung ...

Naja, Monty Python pur wie's leibt und lebt mal wieder - "Judeische Volksfront" lässt grüßen ...

Viel Glück weiterhin ...

Es grüßt die Britta und macht sich'n Melitta ...

Space


Antwort von BriLLe:

Wenn ich mir das so anschaue, gehts wieder mal um Billiger bei gleicher Leistung, da ist Intel entweder schön Blöd oder möchte eine Technik durchdrücken und wird Subventioniert.
Die Vergleichswerte zum I7@960 übrerzeugen mich auch nicht
Aber wer einen Aldie-Rechner will soll zuschlagen (Febr/März)

Was ich mich beim lesen sofort gefragt habe ist: Und was würde deiner dann im Febr/März im Aldi kosten ?? ;-))

Im übrigen gehts bei der RED und anderen 2-4K Digital Kameras auch darum ... und es hat nennenswerte Kinoerlebnisse damit gegeben. Und eine Seagate Barracuda Festplatte mit 4 GB (liegt hier auch noch rumm) hat vor nicht wenigen Jahren ein halbes Vermögen gekostet.

Es gibt einfach Leute, die wollen nicht lesen, und nicht lernen. Sie wollen nur glauben. Wie mein Vater schon zu sagen pflegte (Maler & Grafiker), es gibt Leute, die kaufen das Bild nicht, es sei denn du machst es 1000 EUR teurer. Dann glauben sie's und kaufen es.

Selbst wenn die Benchs nur halb so wahr sind, ist das im Preis Leistungsanstiegs-Verhältnis eine völlig klare und völlig undiskutable Sache. Aber wer nicht will, muss ja nicht. Mitte des Jahres werden die Upperclass Sandy E kommen, und wie ich euch kenne, spätestens da werdet ihr euch ärgern, dass ihr jetzt in alte Prozessoren investiert habt. Denn die werden teuer und die Takt-Zahlen da drauf sind auch sehr nach eurem Geschmack. Sehr :)

Intel ist einfach schlau: Es bietet jedem was er braucht um zu kaufen. Und wer zu Alternativopposition neigt, der kauft AMD. Auch das ist ein nachvollziehbares Kaufverhalten und mich würde nicht wundern wenn es da nicht auch längst Absprachen gibt. Wie bei meinem Vater, der hat 2 gleichwertige Bilder zu unterschiedlichen Preisen an zwei unterscheidliche Typen verkauft. :-)))

Jeder wie ers braucht ...

Space


Antwort von Alf_300:

Habs bei AreaDVD.de gelesen - Preis steht noch nicht fest, aber ggf sollte man mal abwarten ob es sich lohnt den zu beschaffen und entsprechend um/aufzurüsten. Im übrigen ist es aber nicht Sinn des Lebens ständig darüber nachzudenken ob man irgendwo einen Euro zuviel bezahlt hat, ob wichtig ist ob man zufrieden ist

Space


Antwort von BriLLe:

bei geizhals kriegst du auch schon Komplettrechner für 800 mit Sandy Bridge. Aber da ist nichts taugliches drinn außer der Chip. Wenn du nachrüstest wirds teurer weil du den ganzen Billigkram da drinn noch mitbezahlt hast.

Ich lieg mit den wesentlichen Sachen unter 600 EUR top Quali: Chip, Board, Netzteil. Mit SSD bei 700. Der Rest ist entweder schon da (Graka ist egal, wird eh bald nicht mehr wichtig sein) oder kann auch günstig dazugeholt werden. ATX Gehäuse von Chieftec kostet 50 und alles andere kann ja bleiben. Ein billiges Komplettsystem besteht aus lauter Flaschenhälsen und Lärmmachern.

Wenn du noch warten kannst, ich kanns halt grad leider nicht. In 4 Wochen kostet der i7 2600k wahrscheinlich (steigende Kupferpreise mit gegengerechnet) nicht mal mehr 250. Drinn steht er bei Geizhals zwar für 290, aber die die liefern können, verkaufen ihn momentan für 340-360.

Space



Space


Antwort von Alf_300:

Wenn ich den Thread richtig verstanden habe möchtest "Du" einen neuen Rechner, bist inzwischen gut motiviert und zumindest theoretisch Informiert, dann paßt's ja

Space


Antwort von Valentino:

Ganz abgesehen davon das ich per GTX470 mit der CUDA schon eine eingebaute Videobeschleunigung habe und keines der Programm die ich zur Postproduktion benutzte aber nur ansatzweise schneller werden würden durch die Sandy Bridge. Wieder falsch ... sagt mal habt ihr alle kein Googel oder sind das so'ne Art Internetscheuklappen?
. Ich fnde es sehr interessant von dir, das du ganz genau weißt mit was für Software ich arbeite.
Meine Aussage bezog sich nur auf Videobeschleunigung von MC5 mit den jeweiligen dazu gehörigen Tools und die profitieren kein Stück von der Videobeschleunigung der Sandy Bridge.
Das hat auch nichts mit Internetscheuklappen zu tun. Ich habe mich mit dem Thema Sandy Bridge sehr ausführlich beschäftigt und zu dem Fazit gekommen, das es für meine Bedürfnisse keinen Sinn macht. Es ging bei mit um ein NLE das auf bekannter Hardware/Software läuft und nicht um ein "Testsystem" das gerade mal einen halben Monat alt ist.
Das NLE muss zuverlässig funktionieren, den es interessiert meinen Kunden nicht wenn mir die Kiste abschmiert.

Mal eine Gegenfrage was für Nachteile hat den der X58 Chipsatz außer das die Boards 50 Euro mehr kosten?
USB 3.0, 6xSATA II, 2x Sata III, 6x DDR3 Bänke und genug PCI-Express Steckplätze.

Space


Antwort von tommyb:

Er frisst mehr Strom und erzeugt mehr Abwärme.

Space


Antwort von BriLLe:

Er frisst mehr Strom und erzeugt mehr Abwärme. Richtig. Was wieder einmal zeigt dass es richtig ist die neue Technologie entgegen der Stimmungmache einzusetzen und dass sie weniger Anstrengung braucht um die selbe Leistun gzu erzielen. Bin gespannt wie die Stimmgn hier sein wird, wenn die ersten Sandy E rauskommen, mit 6-12 Kernen und HT bei 10 facher Benchüberrundung der letzten Topchips, und dabei kalt wie'n toter Fisch. :-)) Hehe, Es ist schön zu sehen, dass die Technik Hersteller da endlich dem langersehnten Userwunsch und Trend nachgehen und auf Umweltbewusstsein setzen und dafür auch zu Recht KUDO's in der Nutzergemeinde bekommen. Bei den Moddies ist das ja schon seid Jahren die Königsdisziplin. Jetzt wäre ich nur noch für eine Coltanerz-Überwachung mit Siegel (so wie die Goldsiegel bei den Netzteilen) und für Transparenz wo das Erz herkommt und ob es fair bezahlt wurde, aber das wird wohl noch ein paar weitere Jahre dauern. Und die Chips werden wohl dann auch wieder teurer. Aber das wäre mehr als ok, finde ich, wenn dafür MIttelafrika endlich aufatmen kann!
Wenn ich den Thread richtig verstanden habe möchtest "Du" einen neuen Rechner, bist inzwischen gut motiviert und zumindest theoretisch Informiert, dann paßt's ja Richtig und falsch. Hab das System exakt so in der Konstellation bei einem etwas schnelleren Kollegen getestet da mein Dual G5 Mac in Rente geht und wir waren beide trotz seiner Kaufentscheidung noch einmal positiv überrascht vom Gesamteindruck und speziellen Anwendungen wie MC5 und Adobe Premiere, Nuke oder Lightworks. Die Testergebnisse klemm ich mir jetzt mal, steht ja alles hier auf Slashcam und in tausend anderen Userberichten. Alles lief rasend schnell ohne dass da im Karton ein Flugzeug abhebt. Renderzeiten, Vorschau auf 2 24" Full HD und sonstige altbekannte CPU Hogs ... Naja und wens interessiert (mich weniger) auch die Gamerberichte können von uns mit einem "UFFFF...!" betätigt werden.

Wenn mein Rechner da ist werd ich aber ein bisschen ausgiebiger und auch kritisch berichten. KÖnnte nur sein dass ich ersteinmal in ein paar Tage Arbeit abtauche. Muss aufholen! Weil Intel zahlt so schlecht für die Werbung! :-))))

Mein Start-Thread dazu steht ja auch hier bei Hardware drinn.

Space


Antwort von Alf_300:

Ja Ja ... Alles ging rasend Schnell. Vielleicht im Vergleich mit einem X8088.
Leider hört sich das beim kopieren der inzwischen anfallenden Datenmengen und brennen von Ble Ray wieder auf, so dass ich mir über 20% mehr Speed keine Gedanken mach. Positiv wäre allerding der geringere Stromverbrauch

Space


Antwort von vaio:

Valentino hat folgendes geschrieben:
Was ich schade finde das Intel irgendwie mit dem neuen X78(x69?) Chipsatz und der nativen USB 3.0 Unterstützung nicht so ganz zu Potte kommt.
Britta Leuchner hat folgendes geschrieben:
Sandy hats, und zwar viiiiel. Ich hab hier schon vorn allein 3 und hinten auch noch'n paar :) Hm, ... woran mag das wohl liegen ...
Britta Leuchner, lese mal hier:
http://www.heise.de/newsticker/meldung/ ... 75415.html
oder
http://www.heise.de/newsticker/meldung/ ... 41655.html
Britta Leuchner hat folgendes geschrieben:
sagt mal habt ihr alle kein Googel oder sind das so'ne Art Internetscheuklappen?
Doch, doch. Nur haben und richtig nutzen sind wohl zweierlei Dinge...
Britta Leuchner hat folgendes geschrieben:
...Alles lief rasend schnell ohne dass da im Karton ein Flugzeug abhebt....
Wir schreiben das Jahr 2012:
... Alles lief rasend schnell ohne dass da im Karton ein Flugzeug abhebt...

Wir schreiben das Jahr 2013:
...Alles lief rasend schnell ohne dass da im Karton ein Flugzeug abhebt....

Den Rest spare ich mir. Ach so, einen hab ich noch: Dann natürlich mit volle Unterstützüng von USB 3.0. Ich meine keine Krückenlösung...

Viel Spass beim weiterlesen.

Gruß
Michael

Space


Antwort von BriLLe:


Britta Leuchner, lese mal hier:
http://www.heise.de/newsticker/meldung/ ... 75415.html
oder
http://www.heise.de/newsticker/meldung/ ... 41655.html
Britta Leuchner hat folgendes geschrieben:
sagt mal habt ihr alle kein Googel oder sind das so'ne Art Internetscheuklappen?
Doch, doch. Nur haben und richtig nutzen sind wohl zweierlei Dinge... Die Artikel kenne ich bereits, ja und nu? Welche Nutzung von Google hast du da jetzt sonderlich gut gemeistert indem due bei heise mal 2 intel Artikel gelesen hast? :-))

:-) Jepp nicht nur Google nutzen sondern auch lesen können scheinen zweierlei Dinge zu sein :-) denn

Es geht in den Artikeln darum, dass die USB 3.0 Unterstützung nicht nativ stattfindet, die Sandy Bridge Technologie an sich aber USB 3.0 implementieren kann und die Boards das auch tun. Da es defakto auch nur wenige wirkliche USB 3.0 Geräte bereits gibt, macht es auch wenig obs so herum ist oder andersherum.

Letztenendes iss mir das hier mit Sandy Bitch in oder her auch ehrlich gesagt wurscht und mir auch langsam aber sicher zu nervig hier als Pin-Up-Girl ständig wieder hochgeholt zu werden in den Threads, nur weil ich den Vorschlag unterbreitet habe auf die kostengünstige aber verhältnismäßig leistungstarke SB tech zu setzen und mir nach einigen Kommentaren ein wenig Zynismus geleistet habe.

Damit du sicher sein kannst, dass du nichts kaufst, was noch keiner getestet hat oder wo die Benchtests umstritten sind, empfehle ich Dir hiermit eines meiner Sammlerstücke aus'm Schrank (Das Foto ist aber nicht von mir)

--> http://www.stcarchiv.de/stc1999/images/12_amegast.jpg

Da kannste nichts falsch machen, denn die Technologie ist mit Sicherheit bis zum Ende ausgereift :-) Unterstützt sogar schon SCSI ... damit + Notator habe ich damals meine erste Platte aufgenommen.

Viel Spaß

Space


Antwort von Valentino:

@Britta
Ist ja schön und gut, das du einer der ersten bist, die sich freiwillig zum testen der Sandy Bridge zur Verfügung stellen.

Trotzdem bleibt und ist der X58 Chipsatz neben den anderen Workstations Chipsätzen als einziger mit Xeon CPUs kompatibel.

Dem x58 fehlt außer der Videobeschleunigung, welche bei der Sandy Bridge nur ohne zusätzliche Grafikkarte funktioniert eigentlich nichts bzw. hat sogar ganze zwei Ram Bänke mehr.

Der Geschwindigkeitszuwachs ist natürlich extrem gegenüber der CUDA, wobei die große Schwäche des THG Artikel darin liegt, das keine große Aussage über die Encoder/Bild Qualität gemacht wird.
Am Ende arbeitet der Encoder schneller, erreicht aber nicht die gleiche Bildqualität.
Auf der anderen Seite gehören die Renderzeiten irgendwie zum Teil der Postproduktion. Wenn die wegfallen, was wird dann auch unseren Kaffee und Raucherpasuen?
Bei ProTools funktioniert das Rendern(Bouncen) wegen den DSPs auch fast nur in Echtzeit. Bis jetzt hat sich da noch keiner bei mir deswegen beschwert.

Space


Antwort von BriLLe:

@Britta
Trotzdem bleibt und ist der X58 Chipsatz neben den anderen Workstations Chipsätzen als einziger mit Xeon CPUs kompatibel. sehr wahr ... leider Der Geschwindigkeitszuwachs ist natürlich extrem gegenüber der CUDA, wobei die große Schwäche des THG Artikel darin liegt, das keine große Aussage über die Encoder/Bild Qualität gemacht wird.
Am Ende arbeitet der Encoder schneller, erreicht aber nicht die gleiche Bildqualität. Jepp. stimmt. Würd ich auch nicht drauf setzen. Auf der anderen Seite gehören die Renderzeiten irgendwie zum Teil der Postproduktion. Wenn die wegfallen, was wird dann auch unseren Kaffee und Raucherpasuen? Hehe, stimmt. Aber ich bin mir sicher da wird sich die digitale Filmindustrie schon wieder was einfallen lassen, damit die Renderzeiten wieder nach oben gehen ;-) Letztenendes haben sich ja die Wartezeiten im techn. Zeitalter nie verbessert, weil mit jedem Leistungszuwachs die Ansprüche ans Ergebnis wuchsen. Bei ProTools funktioniert das Rendern(Bouncen) wegen den DSPs auch fast nur in Echtzeit. Bis jetzt hat sich da noch keiner bei mir deswegen beschwert. Ich vermute mal, dass liegt daran dass euer Kaffe gut schmeckt ;-) Vielleicht sollte ich mal bei euch "Rendern" kommen ... ;-) *g*

Liebe Grüße aus dem verregneten Berlin
von einem Kaffee-Junkie :-)

Space



Space


Antwort von Rosinator:

Auch ich denke zur Zeit darüber nach, mir einen neuen PC mit Sandy-Bridge-Technologie zusammenzustellen. (hauptsächlich für Videoanwendungen/schnitt, bin kein "Gamer")
Da ich mich wohl für den 2500K entscheiden würde, frage ich mich nun, welches Mainboard ich wählen soll.
Wie auch hier schon erwähnt wurde, ist es ja mit dem H67-Board möglich, die iGPU des Prozessors zu nutzen (bei dem 2500Ker mit HD 3000), was ja für einen Videoschnitt-PC völlig ausreichte.
Da man aber nur mit dem P67-Board den freien Mulitplikator des Prozessors nutzen kann, welches das Übertakten ermöglicht, überlege ich nun, dieses Mainboard zu wählen und weiterhin meine Geforce 6600 GT-Grafikkarte zu benutzen.

Deshalb nun meine Frage: Reichte jene, schon recht alte, Grafikkarte wohl für flüssigen 1080p-Schnitt und -Wiedergabe, oder sollte ich lieber zu einem H67-Board greifen, bei dem ich die iGPU benutzen kann, welche, wie gesagt, für Videoanwendungen ausreicht!?

Mein Schnittprogramm ist Vegas 10, welches ja bei den Anforderungen das Hauptaugenmerk auf eine starke CPU legt.

Space


Antwort von Roddie:

Was haltet ihr von dem hier:

http://www1.euro.dell.com/de/de/heimbur ... hs1&~ck=mn

Mit i7-2600, 8 Gigabyte Arbeitsspeicher und vieleicht den Raid-Festplatten, 2 TB striping. Ich denke das sollte doch für die meisten Hobbyisten und Amateure mehr als locker ausreichen.

Space


Antwort von DSLR-Freak:

Leute,

interessant ist derzeit vor allem eine Frage:

Wird die Quick Sync Technologie von Intels interner Grafiklösung noch im Februar bei den einschlägigen Softwareanbietern implementiert? Wenn ja, dann schmeiß das Bügeleisen von Nvidia gleich in die Tonne und kauft Euch das richtige Board! Oder ein Notebook!

Bis zu 4 mal schneller als die schnellste Nvidia!!!! Hallo? Worüber reden wir dann noch hier? Dass da die Qualität evtl. nicht stimmt, glaubt Ihr doch wohl selber nicht, oder?

Space


Antwort von tommyb:

Es hat nichts mit Glauben zu tun - eher schon mit Tricks.

Mit niedrigen/schlechten Settings wird auch jede CPU zum Überflieger beim Codieren/Decodieren. Die ganzen super schnellen "wir-nutzen-die-Grafikkarte"-Encoder sind zwar auch sehr schnell, liefern aber nur dürftige Bildqualität. Auch Decoding lässt sich beschleunigen, in dem etwa diverse Postprocessing-Verfahren umgangen werden (z.B. Deblocking).

Space


Antwort von Alf_300:

Es kann durchaus Möglich sein dass irgendwo ein Hacken ist.
Der Film-Industrie ist es längst ein Dorn im Auge, dass Leute Filme in HD mitschneiden und hat es endlich geschafft dass zumindest für VOD ein Kopierschutz implementiert wurde. So ein Kinder-Codec wäre dann auch denkbar. Aber es kann ja nicht mehr lange dauern bis genaueres berichtet wird

Space


Antwort von DSLR-Freak:

Es hat nichts mit Glauben zu tun - eher schon mit Tricks.

Mit niedrigen/schlechten Settings wird auch jede CPU zum Überflieger beim Codieren/Decodieren. Die ganzen super schnellen "wir-nutzen-die-Grafikkarte"-Encoder sind zwar auch sehr schnell, liefern aber nur dürftige Bildqualität. Auch Decoding lässt sich beschleunigen, in dem etwa diverse Postprocessing-Verfahren umgangen werden (z.B. Deblocking). Ok, prinzipiell bin ich von Deinem Sachverstand sehr überzeugt. Aber hast Du dieses Thema betreffend irgendwelche Hinweise darauf, dass die Qualität hier wirklich eingedampft wurde? Das Prinzip der dedizierten Hardware ist ja nicht neu und war schon auch bei anderen Bereichen häufig stark überlegen. Liegt ja auch in der Natur der Sache.

Zudem gibt es zahlreiche (Insider-) Berichte darüber, dass Nvidia und Co. von Quick Sync völlig überrascht wurden und nun krampfhaft an einer wettbewerbsfähigen Lösung entwickeln, was wohl noch mindestens 1 Jahr in Anspruch nehmen wird.

Space


Antwort von tommyb:

Ich habe mir die Sachen selbst angeschaut und verglichen - es gibt ja mitlerweile genug Encoder die rein auf der Grafikkarte werkeln. Mit x264 als Encoder habe ich auf einem Q9300 bei ähnlicher Geschwindigkeit bessere Bildqualität erhalten.

Die Experimente liegen ein Jahr zurück - jedoch denke ich trotzdem nicht, dass sich da viel getan hat, zumindest was das Encoding betrifft. Das Decoding funktioniert ja ziemlich gut (siehe Premiere) ist aber wiederum eine simple Angelegenheit.

Fürs Decoding sehe ich daher positiv - fürs Encoding nicht besonders.

Space


Antwort von Valentino:

Ist etwas Off-Topic:

Habe gestern bei der Arbeit etwas mit einer Testversion des Reference Encoder von Mainconcept herum probiert. PC war ein älterer MAC Pro mit 16GB Ram und 4 Kernen.

Dabei komme ich mit Win7 bei H264 Main Level auf etwa 19 Frames/Sekunde, bei DVD MPEG2 sind es ohne 2Pass ganze 110Bilder, mit 2Pass nur 10.
Nach dem ich heute die Version für MAX OSX installiert habe, ist diese Version bei ein und dem selben Video etwa 10 bis 30 Bilder schneller!
Beim H264 Main Level kommt er auf 25Bilder, bei DVD MPEG2 auf 120 ohne 2Pass und mit auf ganze 40 Bilder!
Encoding bei beiden OS nur über die CPUs, keine GPU Beschleunigung.

Kann sich das jemand erklären?

Space


Antwort von Roddie:

Hallo zusammen,

ich habe mich inzwischen umorientiert und werde wohl den i7 2600 (sandy) nehmen. Dell gibt keine Auskünfte, welche HW im Einzelnen verbaut wird (also Mainboard, Netzteil, Prozessorlüfter usw.) und ich schon leidliche Erfahrungen mit Dell-Gehäusen gemacht habe (die seitliche Gehäusewandung schwingt und brummt laut und nach ein paar Monaten beginnt die Plastikblende an der Front zu scheppern). Darum will ich selbst bauen. Zur Zeit studiere ich gerade die Datenblätter und Anleitungen, bevor ich kaufe.

Ich dachte an diese Konfiguration:

Gehäuse: Antec P183
Netzteil: be quiet! Dark Power Pro P9 750W
Intel® Core™ i7-2600
Boarsd: ASUS P8P67 EVO (Snd, 2x GLAN, FW, SATA3, USB3, BT, eSATA)
Grafikkarte: NVIDIA GeForce GTX EVGA GeForce GTX 470
Festplatten: 2 Stck: Samsung HD105SI 1 TB
Speicher: Corsair DIMM 8 GB DDR3-1333 Quad-Kit (alternativ 16 GB)
und halt Cardreader + DVD-Brenner
Audiointerface schon vorhanden: Presonus Firebox, da ich auch Musik mache, wird über Firewire angeschlossen.

@Britta: Welche Hardwarekonfiguration verwendest Du?

Space



Space


Antwort von tommyb:

Kann sich das jemand erklären? Wenn das Ausgangsmaterial beider Systeme von identischer Bildqualität ist - dann nein.

Space


Antwort von BriLLe:

@Britta: Welche Hardwarekonfiguration verwendest Du?
  • i7 2600k Intel Prozessor
  • nVidia Gefource GTX 570 von Mainward (theoretisch nicht nötig)
  • 120GB SSD Vertrex 2 (als schnelle Systemplatte)
  • 2x 1 TB F3 Spinpoint 7200rpm Samsung HD (2 TB als eine Platte sind zu groß für schnelle Zugriffe und man kann schlecht aufteilen, und man rendert am besten immer von einer Platte auf eine andere)
  • Netzteil SF550P14XE Golden Green Pro 80plus gold 550Watt (Geheimtipp ;-) die haben sich gemausert, bauen selbst! und les mal die Kritiken und was alles für den Preis drinn steckt)
  • ASUS P8P67 PRO (EVO & Deluxe war ausverkauft, hatte keine Zeit)
  • Samsung SH-B123L Retail Blu Ray/DVD Brenner
  • Scythe Mugen 2 Rev.b CPU-Kühler
  • Thermaltake V9 *BlacX Edition*/ Dual Bay Docking Station (da ich viele Festplatten wechsele und kein Bock mehr auf die verbugten USB Gehäuse habe)
  • NEC PA241W (anstelle vom etwas teureren und etwas schlechter abschneidenden Eizo CG241)
  • Apogee Ensemble AudioInterface/ADDA Wandler
  • Emu 1212m (dient nur als AES/EBU SPDIF Schnittstelle für das Apogee, da Apogee nur Apple/Mac unterstützt, aber die besten Wandler für den Preis aufm Markt hat
  • Adam S3A und P11A mit Sub als Audio Abhörmonitore
  • Dass ich das Deluxe nicht kriegen konnte ärgert mich, aber soweit ich es richtig sehen konnte, sind's nur weniger Schnittstellen die man zur Not nachrüsten kann. Normaler Weise gehe ich da lieber auf Nummer sicher. Ich hoffe dass auf dem Pro nicht irgend etwas abgeklemmt ist, was auf dem Deluxe freigeschaltet ist. Dann kotze ich :-)))


    EDIT: Nachtrag ... Na also da haben wirs ja schon! Hatte bis jetzt noch nicht die Zeit mal genauer hinzuschaun. Hier der Link zu einem grafisch gut gemachten Überblick über die verschiedenen P8P67 Asus Boards http://www.hardwareluxx.de/community/f2 ... 82152.html

    Fazit: Deluxe hat mehr Phasen Power Design, sprich beim Overclocken oder extremen Belastungen/Schwankungen den stabileren Stromfluss. Aber dass ist nur relevant wenn man wilde Experimente macht oder die Hütte in der du schneidest steht in Kinshasa oder Bombaii. Und da ich mich eh schon in einem halben Jahr mit dem nächsten Board liebäugeln sehe, spar ich mir die 50 Euro ...

    Ich hoffe ich konnte helfen,

    Lieben Gruß

    Space


    Antwort von hannes:

    > nVidia Gefource GTX 570 von Mainward (theoretisch nicht nötig)

    das wird derzeit ja mächtig diskutiert.
    Eine abschließende Meinung dazu gibt es wohl noch nicht?
    Sollte man auf die GraKa wirklich verzichten können, sparte das eine Menge Geld.

    Welche Speicher hast du ins Auge gefaßt und wie viel?

    Space


    Antwort von Alf_300:

    Wenn ich das richtig gesehen habe gibts beim Asus 2 PCI steckplätze 2 kurze und 2 lange PCIe - 1 kurzer wird verdeckt wenn eine Grafikkarte eingebaut wird also ist mit Nachrüsten nicht viel drin. Wer Blackmagic hst ist prakrisch schon Voll
    Vielleivcht sollte man euin Board suchen welches 1 PCI weniger, dafür ein PCIe mehr hat.

    Space


    Antwort von Roddie:

    Danke :-)

    ich werde auch selbst bauen. Dell rückt nicht mit nähreren Infos raus und die Kiste ist teurer als wenn ich bei Alternate nur Nobelteile bestelle.

    In meinen letzten beiden Rechnern (Dell und Maxdata) sind leider viele OEM-Teile drin. Nicht einmal die Gehäuse lassen sich weiterverwenden.

    Diese OEM-Teile sprechen eindeutig gegen einen Dell.

    Gruß

    Roddie

    Space


    Antwort von BriLLe:

    > nVidia Gefource GTX 570 von Mainward (theoretisch nicht nötig)

    das wird derzeit ja mächtig diskutiert.
    Eine abschließende Meinung dazu gibt es wohl noch nicht?
    Sollte man auf die GraKa wirklich verzichten können, sparte das eine Menge Geld.

    Welche Speicher hast du ins Auge gefaßt und wie viel? Hatte ich RAM oben nicht erwähnt? Ups. ... 16 GB G.Skill Ripjaws 4x4GB Riegel. Zur Graka: Ich weiß was du meinst. Aber der Grafikzusatz in den Sandy Bridge ist eher spartanisch. Mit nicht nötig meinte ich eher dass so eine "Fette" Gamer Karte nicht nötig sei. Man kann auch eine 460er mit softmod zu einer AVID verifizierten Karte machen (wird dann auch als Quadro freigeschaltet). Rest ist oft nicht merkbar besser. Die Leistung wird heute eh hauptsächl. vom Prozessor gezogen, wenns um Video Editing geht.

    PS: Ich denk mal, was klar ist, wer viel I/O macht und Broadcast Out etc. braucht, sollte noch über 'ne Blackmagic oder Ähnliches nachdenken. Für mich z.Z. nicht nötig. Bei mir gibts nur "fliegende Festplallen" :-) und ab zur Telecine zum Aufblasen oder DVD/Blueray Authoring ;-)) ... TV ist nicht so mein Mitier.

    LG,
    Britta

    Space


    Antwort von deti:

    Avid auf Sandybridge 2600 kommt bei mir auf 15% CPU-Last, egal was ich mache (interne Grafik oder GTX). Das heißt: Nur ein Core ist ausgelastet. Sony Vegas kommt wenigstens auf 60% Last. Nunja... - ich würde mir da eher eine 30€ Grafikkarte reinstecken, wenn man mehr Monitore digital anschließen will. Ich würde auch die SSD weglassen - kostet nur Geld und bringt nichts. Hab hier eine 120GB SSD getestet (verwende die Suchfunktion zu meinem Posting).
    Auch die Argumentation hinsichtlich der Geschwindigkeit von 1TB vs 2TB Platten ist im Hinblick aufs Videoschneiden nicht gerechtfertigt. Man kann problemlos 2TB Platten verwenden, da die Zugriffszeit lediglich beim Einlesen des Projekts eine Rolle spielt. Danach bleiben die zu bearbeitenden Häppchen der Dateien im Cache (RAM).

    Deti

    Space


    Antwort von BriLLe:

    ... - ich würde mir da eher eine 30€ Grafikkarte reinstecken, wenn man mehr Monitore digital anschließen will. Ich würde auch die SSD weglassen - kostet nur Geld und bringt nichts. Hab hier eine 120GB SSD getestet (verwende die Suchfunktion zu meinem Posting).
    Auch die Argumentation hinsichtlich der Geschwindigkeit von 1TB vs 2TB Platten ist im Hinblick aufs Videoschneiden nicht gerechtfertigt. Man kann Problemlos 2TB Platten verwenden.

    Deti Ja und Nein.
  • günstigere Grafikkarte, wie ich oben mit "nicht nötig" sagte: "ja". Kommt drauf an was man sonst noch macht. Zwei große 24" Zoller würde ich jetzt nicht an Steinzeitkarte hängen, zumal ich mir nicht sicher bin ob die Anschlüsse noch hinhaun.
  • SSD bringt im Schnitt überhaupt nichts, behauptet auch niemand, sondern sie beschleunigt Zugriffe im Betriebssystem und beim Programme starten etc., und ist geräuchlos und stromsparend (deshalb stand oben auch bei mir Systemplatte)
  • 2 TB vs. 1 TB absolut nicht korrekt, weil:
  • sind Daten die am äußeren Rand liegen immer langamer (deshalb sollte man früher ja auch das Betriebssystem auf die erste Partition legen) und außerdem werden die Datenmengen proportional auf größeren Platten auch größer,
  • sind Renderzugriffe und Renderablagen auf ein und der selben Platte ca. um ein drittel langsamer als von Platte A zu Platte B (hatte ich oben bereits alles beschrieben) und
  • gibt es immernoch 2 TB Kompatibilätsprobleme, z.B. für 32 Bit XP User, oder Leute die die Platten über Paragon etc. an'nen Mac PPC oder andere Kompatibilitäts-Zicken anschließen müssen.
  • Ferner sind mehrere 1 TB Platten übersichtlicher. Aber das ist individuell verschieden.


  • Space


    Antwort von tommyb:

    Es ist nicht die Auslastung die wichtig ist sondern die Geschwindigkeit die daraus resultiert.

    Man kann einen Prozessor mit beschissener Programmierung auf 100% bringen und hat beim codieren 10% oder aber man hat ebenfalls 10 fps und nur 25% Auslastung (was wiederum auf beschissenes Multithreading deuten würde - ha).

    Darum ist der Taskmanager auch kein Geschwindigkeit- oder Effizienzmesswerkzeug. Naja... kein präzises zumidnest.

    Space



    Space


    Antwort von BriLLe:

    Es ist nicht die Auslastung die wichtig ist sondern die Geschwindigkeit die daraus resultiert.

    Man kann einen Prozessor mit beschissener Programmierung auf 100% bringen und hat beim codieren 10% oder aber man hat ebenfalls 10 fps und nur 25% Auslastung (was wiederum auf beschissenes Multithreading deuten würde - ha).

    Darum ist der Taskmanager auch kein Geschwindigkeit- oder Effizienzmesswerkzeug. Naja... kein präzises zumidnest. jepp.

    Space


    Antwort von deti:

    Es ist nicht die Auslastung die wichtig ist sondern die Geschwindigkeit die daraus resultiert.

    Man kann einen Prozessor mit beschissener Programmierung auf 100% bringen und hat beim codieren 10% oder aber man hat ebenfalls 10 fps und nur 25% Auslastung (was wiederum auf beschissenes Multithreading deuten würde - ha).

    Darum ist der Taskmanager auch kein Geschwindigkeit- oder Effizienzmesswerkzeug. Naja... kein präzises zumidnest. jepp. Hm... also wenn die Last auf einem System bei 15% liegt, dann weiß ich als Informatiker, dass die Software ihre Aufgaben bescheiden parallelisiert. Wenn ihr glaubt, dass man sich das schön argumentieren kann, dann nur zu.

    Deti

    Space


    Antwort von BriLLe:

    jepp. Hm... also wenn die Last auf einem System bei 15% liegt, dann weiß ich als Informatiker, dass die Software ihre Aufgaben bescheiden parallelisiert. Wenn ihr glaubt, dass man sich das schön argumentieren kann, dann nur zu.

    Deti ? das hat doch niemand versucht? Also etwas schön zu argumentieren. Ich will garnicht argumentieren. Ich wurde um meine Zusammenstellung gefragt, und die habe ich angegeben. Für mehr habe auch keine Zeit. Und wenn mich jemand fragt ob das System schnell und stabil läuft, kann ich ohne zögern antworten "ja". Weil das tut es bei bereits 4 Kollegen von mir. Es gibt mit Sicherheit Autos, die die physischen Möglichkeiten ihres Motors besser ausnutzen als ein VW. Aber wenn mein VW schnell und zügig und energiesparend surrt und alle Komponenten wunderbar zusammenarbeiten und so funktionieren wie ich will, werde ich jetzt nicht im Automagazn nachschlagen und suchen, was der Motor vom Mercedes besser optimieren kann und raus holt, weil ich mir eh keinen Mercedes kaufen kann. Punkt.

    Preis/Leistung bleibt z.Z. unschlagbar. Es gibt einen Grund warum sich wenigstens darüber alle Computermagazine und Testberichte einig sind. Im übrigen ist in meinem fetten Dual Mac bis heute nicht EIN EINZIGES MAL der zweite Prozessor angeprungen. Aber Logic und Final Cut haben trotzdem gehinkt, wie ne alte Oma. Ich glaube das Problem ist kein Sandy Problem, und dass die Apps sich alle erstmal auf Sandy einstellen müssen um es optimal auszunutzen ist ja wohl auch selbstredent.

    Space


    Antwort von deti:

  • günstigere Grafikkarte, wie ich oben mit "nicht nötig" sagte: "ja". Kommt drauf an was man sonst noch macht. Zwei große 24" Zoller würde ich jetzt nicht an Steinzeitkarte hängen, zumal ich mir nicht sicher bin ob die Anschlüsse noch hinhaun.
  • SSD bringt im Schnitt überhaupt nichts, behauptet auch niemand, sondern sie beschleunigt Zugriffe im Betriebssystem und beim Programme starten etc., und ist geräuchlos und stromsparend (deshalb stand oben auch bei mir Systemplatte)
  • 2 TB vs. 1 TB absolut nicht korrekt, weil:
  • sind Daten die am äußeren Rand liegen immer langamer (deshalb sollte man früher ja auch das Betriebssystem auf die erste Partition legen) und außerdem werden die Datenmengen proportional auf größeren Platten auch größer,
  • sind Renderzugriffe und Renderablagen auf ein und der selben Platte ca. um ein drittel langsamer als von Platte A zu Platte B (hatte ich oben bereits alles beschrieben) und
  • gibt es immernoch 2 TB Kompatibilätsprobleme, z.B. für 32 Bit XP User, oder Leute die die Platten über Paragon etc. an'nen Mac PPC oder andere Kompatibilitäts-Zicken anschließen müssen.
  • Ferner sind mehrere 1 TB Platten übersichtlicher. Aber das ist individuell verschieden.
  • zu 1: DVI-Ausgang ist DVI-Ausgang, da gibt es keine qualitativen Unterschiede. Der Grafikchipsatz sollte nur in der Lage sein, ein Bild in der Auflösung des Monitors mit der notwendigen Framerate zu erzeugen. Eine eventuelle Beschleunigung durch die GPU hat keine Auswirkung auf die Bildqualität.

    zu 2: Eine SSD bringt weit weniger als man vermuten möchte. Der Betriebssystemstart (Win 7) wird bei mir um 9s beschleunigt. Avid startet gleich schnell.

    zu 3: Der relative Durchsatzunterschied zwischen Außen und Innen ist bei allen Platten gleich. Bei Platten mit höherer Kapazität bei gleicher Zahl der verwendeten Oberflächen erhöht sich auch der Durchsatz, weil die Daten dichter abgelegt sind.
    Die restlichen Gründe sind persönlicher und organisatorischer Natur und daher nicht objektiv diskussionsfähig.

    Ich will ja nur helfen unnötige Investitionen zu vermeiden. Die Entwicklung der Technik schreitet so schnell voran, dass man besser öfter etwas neu kauft als nur einmal alle paar Jahre etwas extrem teures, das nur marginal besser ist als der Rest.

    Deti

    Space


    Antwort von BriLLe:

    zu 1: DVI-Ausgang ist DVI-Ausgang, da gibt es keine qualitativen Unterschiede. Aha. Das ist mir neu. Aber davon abgesehen habe ich nicht von DVI Ausgängen gesprochen.
    Eine SSD bringt weit weniger als man vermuten möchte. Der Betriebssystemstart (Win 7) wird bei mir um 9s beschleunigt. Avid startet gleich schnell. Ich weiß zwar nicht was du vermutest, aber ich weiß, dass du bis jetzt nur einen von vielen Gründen sie zu kaufen versucht hast zu wiederlegen. Und ich habe im Übrigen NICHT vermutet, einen enormen Geschwindigkeitszuwachs zu bekommen.
    Der relative Durchsatzunterschied zwischen Außen und Innen ist bei allen Platten gleich. Datendurchsatz ist nicht gleich Schreib - und Lesegeschwindigkeit.
    Die restlichen Gründe sind persönlicher und organisatorischer Natur und daher nicht objektiv diskussionsfähig. Objektiv ist hier nichts diskussionsfähig. Schon garnicht wenn jemand aus seiner subjektiven Sicht etwas als objektiv nicht diskussionswürdig erklärt.
    Ich will ja nur helfen unnötige Investitionen zu vermeiden. Die Entwicklung der Technik schreitet so schnell voran, dass man besser öfter etwas neu kauft als nur einmal alle paar Jahre etwas extrem teures, das nur marginal besser ist als der Rest. Dem stimme ich hundert Prozent zu. Somit war unsere Motivation hier die gleiche.

    Space


    Antwort von Roddie:

    Vorerst ist wohl nichts mehr drin mit Sandy Bridge. Alternate hat restlos alle Mainboards mit dem passenden Sockel 1155 aus dem Sortiment genommen...

    Ich frage mich, ob die Kunden, die bereits ein Mainboard mit fehlerhaftem Chipsatz erworben haben das umtauschen können, sobald es fehlerbereinigte Chipsätze gibt.

    Wer einen Dell mit Sandy Bridge will kann jetzt zuschlagen, der mit meiner Wunschausstattung hatte vor 2 Tagen noch 2100 Euro gekostet, heute gibt es ihn für 1100.

    Nachtrag: Auch andere Hardwarehändler wie Caseking usw. haben alle 1155er-Mailboards aus dem Handel genommen.

    Nachtrag 2: Was ist eigentlich von dem AMD Thuban zu halten, der scheint mir eine recht gute Alternative zu sein. 6 cores und das noch günstiger.

    Space


    Noch was unklar? Dann in unserem Forum nachfragen
    Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

    Antworten zu ähnlichen Fragen //


    AMD Ryzen Threadripper Pro 5995WX: Neue Workstation CPU mit 64 Kernen geleakt
    Zahlreiche neue Workstation GPUs von Nvidia - u.a. RTX A5500
    Zwei neue günstige Workstation-Grafikkarten von AMD - Radeon PRO W7600 und W7500
    Neue Workstation-Grafikkarten von Nvidia - ausgebremster Speicher und kein NVLink
    Lenovo Legion Y540 17IRH - RTX 2060 Gaming Laptop im Workstation Gewand
    Flache HDR-Workstation zum Mitnehmen - MSI Creator 17
    MSI Creator 15 Notebook: mobile Workstation mit RTX 3080
    Intel Optane SSD P5800X - die schnellste Workstation SSD jemals
    UVI Workstation & Ableton Live
    Asus ProArt Studiobook (Pro): Mobile Workstation mit OLED Display und Xeon-CPU
    ThinkPad X1 Extreme Gen 5: Mobile 16" Workstation mit 3.840 x 2.400 Display und RTX 3080 Ti
    Mac Studio mit M1 Ultra - Volle Workstation-Performance?
    HP Workstation Z800 als Schnittrechner
    Dell Precision 7865: Workstation mit 64 Core Threadripper Pro 5995WX, 1 TB RAM und 48 GB Nvidia RTX A6000
    Welche Grafikkarte für eine KI-Video Workstation? Nvidia RTX4090 oder Radeon Pro W7900?
    AMD Ryzen Threadripper (Pro) 7000 - Workstation auch wieder als HEDT-Mittelklasse
    Asus Laptop ProArt P16 - Mobile Windows-Workstation im Resolve-Test
    Nvidia RTX Pro 6000 Blackwell vorgestellt - Workstation GPU mit 96 GB DDR7 Speicher




    slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
    RSS Suche YouTube Facebook Twitter slashCAM-Slash