--> LinkIt isn't for Netflix IIRC. Its for Intels streaming service and basically doesn't effect anyone.
Meinst Du Apple-Fanboys kriegen auch monatlich eine Überweisung fürs trollen?ratoe66 hat geschrieben:Hi Britta,
was zahlt Intel denn für so eine Werbung ?
Deswegen wirst du dich auch hüten, etwas positives zu Sandy zu sagen ...Valentino hat geschrieben:@tatita
Hört sich als Gesamtes System sehr gut an.
Hab vor drei Monaten ein fast identisches System zusammengebaut.
Undw wen interessiert das, wenn er gut ist?? DIe meisten Slashcam Kameras sind das auch. Auch die Tops.Valentino hat geschrieben: Die Sandybridge ist doch zur Zeit nur für Consumer Rechner gedacht oder?
tuts aber :-)))Valentino hat geschrieben: Alleine die Befürchtung, das sich der AVID MC5 sich mit dem neuen Chipsatz nicht so gut versteht, reicht bei mir als Grund vollkommen aus.
Wieder falsch ... sagt mal habt ihr alle kein Googel oder sind das so'ne Art Internetscheuklappen?Valentino hat geschrieben: Ganz abgesehen davon das ich per GTX470 mit der CUDA schon eine eingebaute Videobeschleunigung habe und keines der Programm die ich zur Postproduktion benutzte aber nur ansatzweise schneller werden würden durch die Sandy Bridge.
Sandy hats, und zwar viiiiel. Ich hab hier schon vorn allein 3 und hinten auch noch'n paar :) Hm, ... woran mag das wohl liegen ...Valentino hat geschrieben: Was ich schade finde das Intel irgendwie mit dem neuen X78(x69?) Chipsatz und der nativen USB 3.0 Unterstützung nicht so ganz zu Potte kommt.
Alf_300 hat geschrieben:Wenn ich mir das so anschaue, gehts wieder mal um Billiger bei gleicher Leistung, da ist Intel entweder schön Blöd oder möchte eine Technik durchdrücken und wird Subventioniert.
Die Vergleichswerte zum I7@960 übrerzeugen mich auch nicht
Aber wer einen Aldie-Rechner will soll zuschlagen (Febr/März)
Ich fnde es sehr interessant von dir, das du ganz genau weißt mit was für Software ich arbeite.Britta Leuchner hat geschrieben:Wieder falsch ... sagt mal habt ihr alle kein Googel oder sind das so'ne Art Internetscheuklappen?Valentino hat geschrieben: Ganz abgesehen davon das ich per GTX470 mit der CUDA schon eine eingebaute Videobeschleunigung habe und keines der Programm die ich zur Postproduktion benutzte aber nur ansatzweise schneller werden würden durch die Sandy Bridge.
.
Richtig. Was wieder einmal zeigt dass es richtig ist die neue Technologie entgegen der Stimmungmache einzusetzen und dass sie weniger Anstrengung braucht um die selbe Leistun gzu erzielen. Bin gespannt wie die Stimmgn hier sein wird, wenn die ersten Sandy E rauskommen, mit 6-12 Kernen und HT bei 10 facher Benchüberrundung der letzten Topchips, und dabei kalt wie'n toter Fisch. :-)) Hehe, Es ist schön zu sehen, dass die Technik Hersteller da endlich dem langersehnten Userwunsch und Trend nachgehen und auf Umweltbewusstsein setzen und dafür auch zu Recht KUDO's in der Nutzergemeinde bekommen. Bei den Moddies ist das ja schon seid Jahren die Königsdisziplin. Jetzt wäre ich nur noch für eine Coltanerz-Überwachung mit Siegel (so wie die Goldsiegel bei den Netzteilen) und für Transparenz wo das Erz herkommt und ob es fair bezahlt wurde, aber das wird wohl noch ein paar weitere Jahre dauern. Und die Chips werden wohl dann auch wieder teurer. Aber das wäre mehr als ok, finde ich, wenn dafür MIttelafrika endlich aufatmen kann!tommyb hat geschrieben:Er frisst mehr Strom und erzeugt mehr Abwärme.
Richtig und falsch. Hab das System exakt so in der Konstellation bei einem etwas schnelleren Kollegen getestet da mein Dual G5 Mac in Rente geht und wir waren beide trotz seiner Kaufentscheidung noch einmal positiv überrascht vom Gesamteindruck und speziellen Anwendungen wie MC5 und Adobe Premiere, Nuke oder Lightworks. Die Testergebnisse klemm ich mir jetzt mal, steht ja alles hier auf Slashcam und in tausend anderen Userberichten. Alles lief rasend schnell ohne dass da im Karton ein Flugzeug abhebt. Renderzeiten, Vorschau auf 2 24" Full HD und sonstige altbekannte CPU Hogs ... Naja und wens interessiert (mich weniger) auch die Gamerberichte können von uns mit einem "UFFFF...!" betätigt werden.Alf_300 hat geschrieben:Wenn ich den Thread richtig verstanden habe möchtest "Du" einen neuen Rechner, bist inzwischen gut motiviert und zumindest theoretisch Informiert, dann paßt's ja
Valentino hat folgendes geschrieben:
Was ich schade finde das Intel irgendwie mit dem neuen X78(x69?) Chipsatz und der nativen USB 3.0 Unterstützung nicht so ganz zu Potte kommt.
Britta Leuchner, lese mal hier:Britta Leuchner hat folgendes geschrieben:
Sandy hats, und zwar viiiiel. Ich hab hier schon vorn allein 3 und hinten auch noch'n paar :) Hm, ... woran mag das wohl liegen ...
Doch, doch. Nur haben und richtig nutzen sind wohl zweierlei Dinge...Britta Leuchner hat folgendes geschrieben:
sagt mal habt ihr alle kein Googel oder sind das so'ne Art Internetscheuklappen?
Wir schreiben das Jahr 2012:Britta Leuchner hat folgendes geschrieben:
...Alles lief rasend schnell ohne dass da im Karton ein Flugzeug abhebt....
Die Artikel kenne ich bereits, ja und nu? Welche Nutzung von Google hast du da jetzt sonderlich gut gemeistert indem due bei heise mal 2 intel Artikel gelesen hast? :-))vaio hat geschrieben:
Britta Leuchner, lese mal hier:
http://www.heise.de/newsticker/meldung/ ... 75415.html
oder
http://www.heise.de/newsticker/meldung/ ... 41655.html
Doch, doch. Nur haben und richtig nutzen sind wohl zweierlei Dinge...Britta Leuchner hat folgendes geschrieben:
sagt mal habt ihr alle kein Googel oder sind das so'ne Art Internetscheuklappen?
sehr wahr ... leiderValentino hat geschrieben:@Britta
Trotzdem bleibt und ist der X58 Chipsatz neben den anderen Workstations Chipsätzen als einziger mit Xeon CPUs kompatibel.
Jepp. stimmt. Würd ich auch nicht drauf setzen.Valentino hat geschrieben: Der Geschwindigkeitszuwachs ist natürlich extrem gegenüber der CUDA, wobei die große Schwäche des THG Artikel darin liegt, das keine große Aussage über die Encoder/Bild Qualität gemacht wird.
Am Ende arbeitet der Encoder schneller, erreicht aber nicht die gleiche Bildqualität.
Hehe, stimmt. Aber ich bin mir sicher da wird sich die digitale Filmindustrie schon wieder was einfallen lassen, damit die Renderzeiten wieder nach oben gehen ;-) Letztenendes haben sich ja die Wartezeiten im techn. Zeitalter nie verbessert, weil mit jedem Leistungszuwachs die Ansprüche ans Ergebnis wuchsen.Valentino hat geschrieben: Auf der anderen Seite gehören die Renderzeiten irgendwie zum Teil der Postproduktion. Wenn die wegfallen, was wird dann auch unseren Kaffee und Raucherpasuen?
Ich vermute mal, dass liegt daran dass euer Kaffe gut schmeckt ;-) Vielleicht sollte ich mal bei euch "Rendern" kommen ... ;-) *g*Valentino hat geschrieben: Bei ProTools funktioniert das Rendern(Bouncen) wegen den DSPs auch fast nur in Echtzeit. Bis jetzt hat sich da noch keiner bei mir deswegen beschwert.
Ok, prinzipiell bin ich von Deinem Sachverstand sehr überzeugt. Aber hast Du dieses Thema betreffend irgendwelche Hinweise darauf, dass die Qualität hier wirklich eingedampft wurde? Das Prinzip der dedizierten Hardware ist ja nicht neu und war schon auch bei anderen Bereichen häufig stark überlegen. Liegt ja auch in der Natur der Sache.tommyb hat geschrieben:Es hat nichts mit Glauben zu tun - eher schon mit Tricks.
Mit niedrigen/schlechten Settings wird auch jede CPU zum Überflieger beim Codieren/Decodieren. Die ganzen super schnellen "wir-nutzen-die-Grafikkarte"-Encoder sind zwar auch sehr schnell, liefern aber nur dürftige Bildqualität. Auch Decoding lässt sich beschleunigen, in dem etwa diverse Postprocessing-Verfahren umgangen werden (z.B. Deblocking).