Frage von cuba_libre:Hallo zusammen.
Ich möchte bevor ich mir die GH4 (evtl. auch den Nachfolger) zulege zuerst die entsprechenden Voraussetzungen in Sachen Hardware schaffen.
Ich arbeite hauptsächlich in Sachen Bildbearbeitung mit Adobe und Videobearbeitung mit Magix/Adobe. Neben einem Youtube Channel den ich seit 2011 betreibe möchte ich dann nach Anschaffung der neuen Cam auch mal professionellere Aufnahmen/Projekte im Stadion/Hochzeiten etc. angehen.
Ein Kollege hat mir beim Zusammenstellen eines PC's geholfen. Wollte nun fragen ob das Grundgerüst für mein Vorhaben so in Ordnung ist oder ob ich teilweise von der Auswahl abweichen sollte. (Zwecks der geringen Festplattenkapazität möchte ein Kollege mir ein NAS Server "installieren"
http://www.xmx.de/shop/product_info.php ... 19&nav=off
Gehäuse: be quiet Silent Base 600 ohne Seitenfenster USB3.0 schwarz (ATX)
Gehäuse Zubehör: Falls erwünscht, bitte auswählen
Prozessor 1151: Intel Core i7-6700K 4x 4.00GHz 95W
Kühler: Alpenföhn Matterhorn Pure
Arbeitsspeicher: 32768MB DDR4 2133MHz (4x 8GB)
Grafikkarte PCI-E: 6144 MB NVIDIA Geforce GTX 980 Ti, DVI, HDMI, 3x DP
Mainboard 1151: Gigabyte Z170X Gaming 3 inkl. WOT Bonus Code (Chipsatz: Z170/ATX)
1. Festplatte: 240GB SATA III PNY CS1311 SSD
2. Festplatte: 250GB SATA III Samsung 750 EVO SSD
1. Laufwerk: DVD+-RW Double Layer Brenner Laufwerk
2. Laufwerk: DVD+-RW Double Layer Brenner Laufwerk
Netzteil: 700 Watt BeQuiet Pure Power 80+ Bronze
Card Reader: 3.5 Zoll/8.9 cm 16/1 Card Reader
Soundkarte: Onboard Sound
Modem/ISDN/WLAN: WLAN Karte 300MBit PCIe
ZUB Windows Betriebssystem: Windows 10 Home 64Bit OEM inkl. Installation
ZUB Garantie: Inklusive 12 Monate Hersteller Garantie
ZUB Service Pakete: Inklusive 6 Monate Pickup & Return, Technischer Support
Für einen 4k fähigen Monitor möchte ich um die 500 Euro ausgeben.
http://www.amazon.de/Acer-XB280HKbprz-D ... pc+monitor
Liege ich mit dem hier richtig oder was könnt ihr mir empfehlen?
Vielen Dank schonmal für eure Hilfe.
Antwort von merlinmage:
Bronze Netzteil, 2 Laufwerke, Windows 10?
Antwort von cuba_libre:
Bronze Netzteil, 2 Laufwerke, Windows 10?
Stattdessen?
1 Laufwerk weg..
Welches von den Netzteilen und welches Betriebssystem?
Ist die Konfiguration ansonsten akzeptabel? und der Monitor?
Danke :)
Antwort von merlinmage:
OS würd ich 8.1 Pro nehmen. Beim Netzteil nen Corsair Professional, be quiet P11 oder SeaSonic Platinum Netzteil in entsprechender Größe.
Puh der Monitor ist schon ziemlicher Schrott. Aber für 500 bekommste net mehr als nen TN Panel, GSync und mehr als 60 Hz bringen dir für den Schnitt auch nichts. Würde dir ja nen WQHD Eizo für 600 ans Herz legen mot 27 Zoll, oder nen 4K LG, beides aber teurer als die 500.
Antwort von cuba_libre:
OS würd ich 8.1 Pro nehmen. Beim Netzteil nen Corsair Professional, be quiet P11 oder SeaSonic Platinum Netzteil in entsprechender Größe.
Puh der Monitor ist schon ziemlicher Schrott. Aber für 500 bekommste net mehr als nen TN Panel, GSync und mehr als 60 Hz bringen dir für den Schnitt auch nichts. Würde dir ja nen WQHD Eizo für 600 ans Herz legen mot 27 Zoll, oder nen 4K LG, beides aber teurer als die 500.
Danke.
Könntest du mir mal 2-3 Monitore durchschicken?
Wäre auch bereit bis ca 800 Euro hinzulegen wenn es sinnvoll ist.
Antwort von wolfgang:
Puh der Monitor ist schon ziemlicher Schrott. Aber für 500 bekommste net mehr als nen TN Panel, GSync und mehr als 60 Hz bringen dir für den Schnitt auch nichts. Würde dir ja nen WQHD Eizo für 600 ans Herz legen mot 27 Zoll, oder nen 4K LG, beides aber teurer als die 500.
Stimmt nicht so ganz, der hier hat ein IPS Panel:
http://www.amazon.de/LG-27MU67-B-Reakti ... _pd_nS_ttl
Antwort von motiongroup:
http://aoc-europe.com/de/products/speci ... n/u3277pqu
gut..musst nur aufpassen wegen dem Preis.. der ging schon von leicht über 550 ,- über den Ladentisch.. regulär so um 800,-
super Bild ein Kollege hat ihn und ich bin am überlegen..
https://youtu.be/f1d1EX4axa8?t=242
Antwort von cuba_libre:
http://aoc-europe.com/de/products/speci ... n/u3277pqu
gut..musst nur aufpassen wegen dem Preis.. der ging schon von leicht über 550 ,- über den Ladentisch.. regulär so um 800,-
super Bild ein Kollege hat ihn und ich bin am überlegen..
https://youtu.be/f1d1EX4axa8?t=242
Danke.
Ne Nummer kleiner wäre mir aber fast lieber.... 28 Zoll
Antwort von motiongroup:
die Entscheidung kann ich dir nicht abnehmen... im SingleMoni Betrieb brauch er nicht mehr wie andere ist höhenverstellbar und was ganz wichtig ist..
Du kannst die Steller und Schalter wieder erkennen... sprich die Bedienelemente sind wieder erkennbar..;)
ich würde sogar nen 48" er nehmen... 4x24"FullHD und ein Meter Sichtebene..:)))
https://www.fktg.org/node/5070/reflexio ... HD-zukunft
Antwort von CameraRick:
4K auf 28" sind ganz grauselig. Du hast eine mörderhohe DPI aber erkennst halt nichts, die hohe Auflösung sieht für 4K Filmdateien nett aus aber beim Arbeiten hast tendenziell eher Nachteile.
Ich hab einen 32" 4K, und den muss ich auch schon DPI-skalieren damit das richtig läuft. Aber das läuft gut. Vorher hatte ich 40" 4K, das war ziemlich nett, aber leider war das Panel mau daher ging er zurück.
Bau den Computer llieber selber zusammen statt das so einen Laden machen zu lassen, und steck das gesparte Geld in einen Monitor. Superhardware mit Crappyvorschau, da hast nichts von
Antwort von rudi:
Puh der Monitor ist schon ziemlicher Schrott. Aber für 500 bekommste net mehr als nen TN Panel, GSync und mehr als 60 Hz bringen dir für den Schnitt auch nichts. Würde dir ja nen WQHD Eizo für 600 ans Herz legen mot 27 Zoll, oder nen 4K LG, beides aber teurer als die 500.
Stimmt nicht so ganz, der hier hat ein IPS Panel:
http://www.amazon.de/LG-27MU67-B-Reakti ... _pd_nS_ttl
Und wir haben uns den auch mal kurz angesehen und er gefiel uns grundsätzlich gut:
https://www.slashcam.de/artikel/Kurztes ... -gut-.html
Antwort von Jost:
Prozessor 1151: Intel Core i7-6700K 4x 4.00GHz 95W
Wenn Du Deinen alten Rechner etwas näher unter die Lupe nimmst, dann stellst Du fest, dass für Foto-Bearbeitung ein betagter PC reicht.
Bei Video-Bearbeitung limitiert die CPU. Der 6700K wird für alle Wald-und-Wiesen-Arbeiten mit 4K aber reichen.
Arbeitsspeicher: 32768MB DDR4 2133MHz (4x 8GB)
Ruf Dir mal Deinen Taskmanager auf. Bei Lightroom reicht die Ram-Auslastung nie über 8 GB hinaus. Bei Video ist es ähnlich. 2X8GB reichen.
Das gewählte Ram ist nicht schnell. Leistungszuwächse von 5 bis 10 Prozent gibt es ab 2666MHz. Der Aufpreis ist zu vernachlässigen.
Grafikkarte PCI-E: 6144 MB NVIDIA Geforce GTX 980 Ti, DVI, HDMI, 3x DP
Die Grafikkarte ist überdimensioniert. Die lastest Du mit einem 6700K nicht aus. Bevor die Ti in Schwung kommt, hisst der 6700k die weiße Fahne.
Eine normale 980 oder AMD R9-Fury lassen Dich bereits auf der ganz, ganz sicheren Seite sein.
Mainboard 1151: Gigabyte Z170X Gaming 3 inkl. WOT Bonus Code (Chipsatz: Z170/ATX)
In Deiner Bahnhofsbuchhandlung findest Du noch die PCGames Hardware (05/2016). Dort werden die UEFIs der großen Mainboard-Hersteller unter die Lupe genommen.
Gigabyt zeichnet sich leider durch eine miserabele Lüftersteuerung aus. Die ist aber wichtig, weil Du ein geschlossenes und gedämmtes Gehäuse nutzen willst.
Selbst wenn Du den Rechner zusammenbauen lässt, wird an der Standard-Lüftereinstellung nichts verändert.
Das musst Du selbst machen, wenn Du einen wirklich leisen PC haben willst.
Anderenfalls verschenkst Du das Potenzial, das im Silent-Gehäsue steckt.
Die Anpassungen der Gehäuselüfter erfolgen am einfachsten mit Brettern von MSI und Asrock.
Wenn Du beim Gigabyte bleiben möchtest, setz als Gehäuse auf einen Fractal 5 PCGH-Edition (wieder lieferbar). Der ist ähnlich leise, hat aber eine externe Lüftersteuerung.
http://www.pcgameshardware.de/E-Commerc ... n-1164140/
https://www.alternate.de/Fractal-Design ... ct/1190705
1. Festplatte: 240GB SATA III PNY CS1311 SSD
2. Festplatte: 250GB SATA III Samsung 750 EVO SSD
Persönlich würde ich auf Samsung 850 EVO setzen. Sie gelten als Standard und sind bestens beleumundet.
Als zweite Festplatte - für Rohmaterial - bietet sich eine Samsung M.2 an.
Netzteil: 700 Watt BeQuiet Pure Power 80+ Bronze
Das Netzteil ist überdimensioniert. Selbst übertaktete 980 ziehen nicht mehr als 260 Watt (TI=306 Watt), der 6700K 95 Watt. Nimm ein schönes 550W-Netzteil mit Gold-Standard.
RAID
Ich würde den Workflow etwas ändern.
Rohmaterial entweder auf eine SSD oder M.2.
Das ist völlig unkompliziert und ähnlich schnell oder deutlich schneller.
Fertige Videos dann auf der C-Platte speichern und ab ins Netz. Youtube ist ja praktisch Dein Archiv.
Was Foto angeht, gibt es zumindest unter Lightroom ein Problem. Jedes Raw- Foto wird für die Vorschau extra gerendert.
Der Flaschenhals ist dabei aber nicht die Bereitstellung der Daten, sondern die Leistungsfähigkeit der CPU. Die GPU wird nur sporadisch verwendet. Raid ist also - von der Datensicherung abgesehen - völlig ohne Vorteile.
Hier lohnt es sich eher, 20 Euro in einen speziellen Raw-Viewer wie FastRawViewer zu investieren. Die sind Software-seitig so schnell, dass sie von keiner Hardware-Lösung geschlagen werden. Dort einfach die Bewertung vornehmen und in Lightroom die Ausgewählten bearbeiten.
Was das Verwandeln von RAWs in JPEG angeht, ist der 6700K ziemlich flott.
Laut PCGH werden für 30 leicht bearbeitete Raws aus einer Nikon 810 am Ende 127 Sekunden gebraucht, 5820 = 119; 3770K = 154.
So Du ein Datengrab benötigst, setz auf eine moderne HDD.
Antwort von motiongroup:
Vollkommen recht du hast Rick.. Ich sehe das immer bei dem 27" imac5k .
Wenn bei uns in der Firma die Leutz vorbeihuschen und sich die Augen reiben wenn sie den Unterschied erkennen wollen ob das der alte oder der neue ist bei geschätztem einem Meter Sichtabstand kringeln sich alle vor Lachen...
Oh ja, wenn ich ihn aufs Brillengestell schraube sehe ich das sehr wohl..
Sie mussten mitgehen und darüber hinaus um die alte Auflösung des 27" einfach zu Retinarisieren :)))))
40-48 ab einem Meter aufwärts sonst schaust nach einer Woche aus wie der Marty Feldmann
Antwort von cuba_libre:
Vielen Dank für die hilfreichen Kommentare.
Ich sehe schon, dass ich mich da am Wochenende nochmal dransetzen muss.
Würde mich freuen dann zu einer neuen Konfiguration eure Meinung/Hilfe zu bekommen.
Ist wohl doch besser über Seiten wie alternate etc das Thema anzugehen...
Antwort von CameraRick:
Ruf Dir mal Deinen Taskmanager auf. Bei Lightroom reicht die Ram-Auslastung nie über 8 GB hinaus. Bei Video ist es ähnlich. 2X8GB reichen.
Das gewählte Ram ist nicht schnell. Leistungszuwächse von 5 bis 10 Prozent gibt es ab 2666MHz. Der Aufpreis ist zu vernachlässigen.
Also das ist ja sehr pauschal. Gib mir drei Minuten, die 32GB knall ich Dir locker voll.
Wenn Du jetzt nur in Premiere dümpelst (und das wissen wir nicht, ob das nur der Fall ist) sind 16GB Ok, wenn man mal einen Roundtrip nach AE hinter sich hat wird das aber schnell lachhaft. Der i7 hat wie viel, 8 rechnende Kerne, die man auch richtig nutzen will? Also 2GB pro Kern, ohne Backup fürs OS? Auweia...
@motiongroup
Hohe DPI ist für Office halt echt toll, für Videoarbeiten Perlen vor die weiblichen Schweine (das Fachwort darf man hier im Forum nicht nutzen, lach) :)
Antwort von motiongroup:
Nun hab ich den richtigen für dich cuba libre
http://www.p4c.philips.com/cgi-bin/cpin ... M4350UC/00
Hossa das hat was..
Antwort von Jost:
Ist wohl doch besser über Seiten wie alternate etc das Thema anzugehen...
Du solltest darauf achten, möglichst alles aus einer Hand zu bekommen.
Anderenfalls zahlst Du Porto und Verpackung mehrfach.
Beginn die Suche über die Grafikkarte. Die ist am teuersten. Dort sind die Preisunterschiede am höchsten.
Achte darauf, dass der Kram auch verfügbar ist.
Achte darauf, dass Du ein Mainboard mit USB 3.1 Gen2 oder Super Speed Plus bekommst. Nur die sind doppelt so schnell wie USB 3.0.
Alternate ist eine gute Adresse, die Mindfactory auch.
Antwort von hannes:
hat einer von euch einen bezahlbaren Tipp für einen 23" mit 4k?
(größer geht nicht auf meinen schreibtisch)
Antwort von merlinmage:
http://geizhals.de/1258111
http://geizhals.de/1204422
Einen"reinen" 23er gibbet net mit 4K.
Antwort von Jost:
hat einer von euch einen bezahlbaren Tipp für einen 23" mit 4k?
(größer geht nicht auf meinen schreibtisch)
Mit Verlaub - Du bist gerade dabei, in die falsche Richtung zu investieren.
Wenn Du einen 4K-Monitor haben willst, dann kauf ihn.
Wenn Du Foto/Video bearbeiten willst, ist 4K komplett wurscht.
Da zählt nicht Auflösung, sondern Blickwinkel-Stabilität, matt muss er sein und viele Farbräume abdecken.
Das sind Monitore für Grafiker, alle anderen sind für alle anderen.
Die Standard-Kaufberatung findest Du hier
http://www.prad.de/new/monitore/kaufber ... atung.html
Antwort von hannes:
Wenn Du Foto/Video bearbeiten willst, ist 4K komplett wurscht.
verstehe ich nicht ganz.
Meine Videos sind 2k, meine Bilder 4k. Da ist eine Auflösung von 1920 x 1080 zwar optimal für Video, aber wie sieht das mit den Bildern aus? Da muß auf ein ganz krummes Maß runter gerechnet werden um die anzuzeigen.
Wo liegt da mein Denkfehler?
Antwort von Jost:
Wenn Du Foto/Video bearbeiten willst, ist 4K komplett wurscht.
verstehe ich nicht ganz.
Meine Videos sind 2k, meine Bilder 4k. Da ist eine Auflösung von 1920 x 1080 zwar optimal für Video, aber wie sieht das mit den Bildern aus? Da muß auf ein ganz krummes Maß runter gerechnet werden um die anzuzeigen.
Wo liegt da mein Denkfehler?
Am Ende kackt die Ente - am Ende müssen die Farben so aussehen, wie Du das in der Bildbearbeitung bestimmt hast.
Wenn Dir der Monitor die Farben nicht echt darstellt, ist es wuscht, ob er das Ziel in 4k, 2k oder 1K verfehlt.
4K ist schön scharf - hat aber nichts mit Farbtreue zu tun. Absolut nichts.
Bei der Bildbearbeitung geht es nicht um die Auflösung der Monitors, es geht um die Güte des Monitors.
Die Güte eines Monitors ist wesentlich bestimmt von séiner Eignung, definierte Farbräume darzustellen.
Beispiel:
Ein 4k-Monitor, der 85 Prozent des sRGB-Farbraums darzustellen weiß, ist schlechter als ein Full-HD-Monitor, der 86 Prozent des sRGB-Farbraums darstellt.
4k ist kein Qualitätsmerkmal eines Monitors.
100 Prozent sRGB ist der Minimal-Standard. 100 Prozent Adobe RGB ist wünschenswert und werden von Grafiker-Bildschirmen natürlich erreicht.
Schau mal hier, was Notebook-Displays leisten:
http://www.notebookcheck.com/Notebookch ... 792.0.html
Antwort von motiongroup:
Morgen Hannes alter Radioastronom.. Ehrliche Meinung spare dir das Geld, um real etwas von dem Monitor etwas zu haben musst du ihn dir auf 30cm Entfernung von deiner Sichtebende aufstellen um auf die 200-300dpi leistbare Auflösung deines Auges zu kommen..
Wie der jost schreibt.. Farbe, Paneltyp, eventuell qfhd und sogar bei der Farbe brauchst nicht als Limmit des Maximums des leistbaren gehen es sei den du arbeitest mit Medienhäuser für Fernsehen und Print zusammen..
Wenn du im privaten für dich und deine Freunde produzierst und das Bild am Fernseher von Freund x nicht ganz so dargestellt wird wie bei dir ist wer schuld? Klar will man so gut als möglich dem Gewissen resp. Wissen nach die beste Qualität abliefern nur wird in den meisten Fällen eh nichts daraus..
Antwort von Jost:
Da bin ich etwas anderer Ansicht. Ein farbtreuer Monitor gehört zu den Basics.
Ein Eizo CS240 kostet 630 Euro. Damit hat man dann bereits das Ende der Fahnenstange für den Hausgebrauch erreicht und das Thema Monitor abgehakt.
Da wir ja alle die Preise für erstklassige Qualitätsware im Video-Segment kennen, sind 630 Euro - spottbillig.
Und wer Lust drauf hat (und das entsprechende Rohmaterial), baut zusätzlich eine kleine gebrauchte Quadro ein und realisiert 10Bit Farbtiefe.
Das ist dann High-End für rund 800 Euro.
Außerdem: Deine Augen danken es Dir.
Es ist doch völlig irre - um es mal offen zu sagen -, 500 Euro für einen X-beliebigen Monitor auszugeben. Und das nur, weil 4K draufsteht.
Da lege ich doch lieber 130 Euro drauf und kaufe mir Profiware.
130 Euro sind natürlich auch Geld. Innerhalb von 2 Jahren spart man so immerhin 18 Cent täglich. 1 Zigarette ist teurer.
Antwort von motiongroup:
Ein Eizo CS240 kostet 630 Euro. Damit hat man dann bereits das Ende der Fahnenstange für den Hausgebrauch erreicht.
da bin ich voll bei dir Jost...
es waren eher diese gemeint..
https://www.eizo.de/alle-monitore/produ ... =4
Antwort von Goldwingfahrer:
da bin ich voll bei dir Jost...
ich allerdings auch,aber nüchtern.
Die neuen Eizos sind ja richtige Billigheimer gegenüber den SX Modellen geworden.
motiongroup schrieb
es war eher diese gemeint..
Oha....das wär was...kaufe ich den,dann habe ich zwar das letzte Wort.
................wenn ich unter dem Küchentisch liege und sage..."Ja Schatz"
Antwort von Jost:
Der CG2420 ColorEdge ist Handwerkszeug im Berufsalltag.
Müsste ich mein Geld mit Video oder Foto verdienen, hätte ich den oder einen ähnlichen auch.
Der CS240 ist technisch nahezu gleichwertig, es wurde lediglich an der Komfort-Ausstattung gespart.
Im Hausgebrauch kann man aber damit leben. Echter als farbecht geht ja schließlich nicht.
Antwort von CameraRick:
Sag mal habt ihr solche CS240 in Gebrauch? Wir haben den und die CS230 auf der Arbeit. Also im Vergleich zu nem gescheiten Monitor sind das auch nocht richtige Welten.
Ich habs nicht mehr im Kopf, wie es beim CS240 war, der CS230 brauchte dazu noch zusätzlich zu kaufende Software, damit man ihn Hardwarekalibrieren darf. Und die Hardwarekalibrierung bei Eizo ist nun jetzt auch nicht so der Knaller, wenn man das mal nachmisst.
Und ab Werk läuft da ja auch nichts, sind wir mal ehrlich.
Antwort von motiongroup:
wo und warum eigentlich?
lang ist's her
zum Eizo
http://www.macwelt.de/videos/Foto-Druck ... 62672.html
und wenns mal größer sein soll ;)
http://www.mactechnews.de/news/article/ ... tml?page=2
Antwort von cuba_libre:
Hab mich jetzt noch einmal rangesetzt....
PC-Netzteil
be quiet! STRAIGHT POWER 10 600W CM, PC-Netzteil
schwarz, 4x PCIe, Kabel-Management 1 x € 117,90*
DVD-Brenner
LG GH24NSD1, DVD-Brenner
schwarz, 12-fach DVD-RAM schreiben, Bulk 1 x € 14,99*
Solid State Drive
Samsung 850 Pro 2,5" 512 GB, Solid State Drive
schwarz, SATA 600, MLC-Chips, Bulk 1 x € 224,90*
Kartenleser
ICY BOX IB-867-B, Kartenleser
schwarz 1 x € 35,49*
Arbeitsspeicher
Crucial DIMM 32 GB DDR4-2133 Quad-Kit, Arbeitsspeicher
CT4K8G4DFS8213 1 x € 132,90*
Prozessor
Intel® Core™ i7-5820K, Prozessor
FC-LGA4, "Haswell-E", boxed 1 x € 399,-*
CPU-Kühler
Alpenföhn Brocken 2, CPU-Kühler
1 x € 41,99*
Grafikkarte
ASUS MATRIX-GTX980-P, Grafikkarte
HDMI, 3x DisplayPort, DVI-I, Retail 1 x € 429,-*
Tower-Gehäuse
Cooler Master CM690III, Tower-Gehäuse
schwarz 1 x € 109,90*
LED-Monitor
EIZO CS2420 ColorEdge, LED-Monitor
schwarz, HDMI, DVI, DisplayPort, USB 3.0, Pivot 1 x € 649,-*
Mainboard
MSI X99A GAMING 7, Mainboard
Sound G-LAN SATA3 M.2 SATAe USB 3.0 1 x € 274,-
______________________________________________
= 2.429,00 €
Über hilfreiche Kommentare bzw. Verbesserungsvorschläge bezüglich der Zusammenstellung wäre ich sehr dankbar. Als Monitor wurde mir jetzt auch schon von jemandem ein Dell Ultra Sharp empfohlen... ?
Danke :)
Antwort von Jost:
Drei Stellen würde ich definitiv ändern:
Das Ram ist zu langsam. Es sollte mindestens 2666er sein. Das Mainboard unterstützt sogar 3300. Das sorgt für einen Leistungsschub von mindestens 10 Prozent in allen Arbeiten, die die CPU fordern. Der Aufpreis für schnelles Ram ist unerheblich.
Ich würde auf eine SSD allein für Betriebssystem und Programme sowie auf eine separate SSD/M.2 allein für den schnelle Datentransfer setzen. Dann kommt sich nichts ins Gehege. Die SSDs von verschiedenen Herstellern wählen, damit nicht eine schwache Charge für einen Komplettausfall sorgt.
Das Netzteil stammt aus einer Leistungsklasse ohne viel Konkurrenz. Standard sind 550 und 650 Watt. Dort ist der Preiskampf größer.
Prüfen würde ich:
Muss es unbedingt ein interner Kartenleser sein? Die werden über USB 3.0 angebunden. Externe Kartenleser (interne habe ich noch keine gefunden) lassen sich über USB 3.1c anbinden, was das Mainboard als Anschluss auch anbietet. Die externen Lesegeräte sind dadurch doppelt so schnell, was definitiv die Einlesezeit verkürzt und einen realen Komfortgewinn bei großen Datenmengen darstellt.
Muss es unbedingt eine 980er Grafikkarte sein?
Die 980 ist für Bildbearbeitung völlig überdimensioniert. Zudem wollen Magix/Adobe bei Video eher CPU-Leistung.
Vor diesem Hintergrund bietet sich eigentlich die neue AMD 480 an. Sie bringt auch die Vulkan-Fähigkeit und das neue Open GL 4.5 mit. Auch alle aktuellen Monitor-Anschlüsse sind an Bord.
Ein paar Hunderter spart man außerdem.
Antwort von mash_gh4:
ich würde definitiv eher eine gtx 1060 -- die bereits in den nächsten tagen verfügbar sein sollte --, statt einer amd grafik-karte verwenden. das verringert zumindest den ärger über die betreffenden treiber und wird auch den tatsächlichen anforderungen vieler gängiger video-software besser gerecht.
neben der/den ssd/s würde ich dringend auch noch grosse herkömmliche platten als software RAID nutzen. 4K projekte in prores od. ä. belegen gleich einmal einiges an platz.
über den monitor lange zu diskutieren, macht nicht viel sinn, wenn man man nicht von vornherein auch kalibrierungsdevices und I/O-karten vorsieht, ohne die man ihn mit einigen programmen ohnehin kaum vernünftig nutzen kann.
Antwort von Roland Schulz:
Also, ich denke der 6700k ist in der Preisklasse DER Prozessor derzeit.
Mal ne Frage, welches NLE soll überhaupt ran?! Unterstützt das wie EDIUS 8 ggf. auch QuickSync?! Macht beim Schnitt schon was aus, fürs Rendern in ner GUTEN Vorschauqualität ist QuickSync auch super und schnell!!
Bin auch nicht der Meinung dass man zwingend nen 4k Bildschirm für 4k Schnitt braucht, ne BMD skaliert gut auf 2k. Was man machen sollte ist nen 2. Bildschirm!
Also,
- i7-6700k
- Noctua NH-D14 oder Corsair H80i v2
- ASUS ROG Maximus VIII Hero
- Corsair Vengeance LPX 32GB 2666
- Pioneer BDR-S09XLT (was will man noch mit nem DVD Brenner?!)
- Samsung SSD850 EVO 250GB System
- Samsung SSD850 EVO 500/1000GB Video Schnitt
- Win 7 Pro -> Win 10 Pro
- RAID1 xTB als Archiv, kein NAS
- Tower nach Geschmack...
- 2x(!!!) EIZO CS240 (der CS2420 kommt mir einfach nur "billiger" vor)
- x-rite i1 Display Pro
- Blackmagic Design Intensity Pro 4k zur Vorschau (!!!)
- Seasonic G-750 oder Platinum
- optional nvidia K1200 oder höher wenn PS oder Lightroom unbedingt in - 10bit laufen sollen, ansonsten optional GTX960 mit HDMI 2.0 wenn direkt an nem TV ausgegeben werden soll. Ggf. brauchen einigen Anwendungen mehr, da bin ich raus...
Antwort von cuba_libre:
Danke für eure Antworten.
Das große Problemm liegt leider darin, dass ich kaum Ahnung in Sachen Hardware habe und jeder einem etwas anderes empfiehlt.
Dadurch wird's leider nicht einfacher.
Antwort von TomStg:
- optional nvidia K1200 oder höher...
Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.
Antwort von TomStg:
- optional nvidia K1200 oder höher...
Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.
Antwort von Roland Schulz:
- optional nvidia K1200 oder höher...
Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.
So einen Quatsch habe ich noch nie gehört, dass pauschal eine Quadro zu lahm für Videoschnitt ist!! Pauschal bringt ne M6000 dann auch nix???
Wenn 10bit für PS oder LR gefragt ist kommt man gar nicht drum rum! Ansonsten gibt's bei den GTX sicher mehr für's Geld. Viele Anwendungen wie EDIUS machen sich aus der nVidia GPU zudem aber nicht viel, da kommts eher auf QuickSync an. Bei Premiere sieht's sicherlich anders aus.
Antwort von Jost:
ich würde definitiv eher eine gtx 1060 -- die bereits in den nächsten tagen verfügbar sein sollte --, statt einer amd grafik-karte verwenden. das verringert zumindest den ärger über die betreffenden treiber und wird auch den tatsächlichen anforderungen vieler gängiger video-software besser gerecht.
Die 1060 könnte auch reichen und könnte eine gute und kostengünstige Alternative zur 980 sein. Die 1060 ist aber noch nicht auf dem Markt.
Gegenwärtig sollte man ihr allerdings keine Fähigkeiten zuschreiben, die noch unbekannt sind.
über den monitor lange zu diskutieren, macht nicht viel sinn, wenn man man nicht von vornherein auch kalibrierungsdevices und I/O-karten vorsieht, ohne die man ihn mit einigen programmen ohnehin kaum vernünftig nutzen kann.
Es geht um Magix/Adobe - und um einen Monitor, der sRGB und AdobeRGB zu 100 Prozent darstellt.
Sei bitte so gut und passe Deine Antwort daran an.
Antwort von Jost:
Also, ich denke der 6700k ist in der Preisklasse DER Prozessor derzeit.
Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen. Darum ist auch der Unterschied zwischen einem I7 und einem I5 marginal. Und darum schlägt ein Sechskerner wie der 5820K immer einen Vierkerner.
Was Video angeht: Der 6700k bewegt sich tatsächlich ganz leicht über dem 5820K. Allerdings nur, wenn nicht übertaktet wird. Dafür sind beide CPUs aber vorgesehen und darum bezahlt man auch den K-Aufpreis.
Nur: Aus dem 6700K lässt sich nicht mehr viel herausholen, weil er von Werk aus schon fast vollständig ausgereizt ist. Gute Exemplare bekommt man mit Luftkühlung übertaktet auf 4,5 Ghz Basistakt auf allen vier Kernen.
Beim übertakteten 5820k ist ein Basistakt von 4 Ghz Standard und absolut mühelos zu erreichen - und die laufen dann auf sechs Kernen.
Den 6700K hat Intel für die vorgesehen, die eine leistungsstarke CPU suchen, aber sich das Übertakten nicht zutrauen.
Wer spürbar mehr Leistung als der 6700K bietet sucht, der übertaktet nicht den 6700K, sondern greift zum 5820K und übertaktet den.
Nur so geht es.
Antwort von mash_gh4:
ich würde definitiv eher eine gtx 1060 -- die bereits in den nächsten tagen verfügbar sein sollte --, statt einer amd grafik-karte verwenden. das verringert zumindest den ärger über die betreffenden treiber und wird auch den tatsächlichen anforderungen vieler gängiger video-software besser gerecht.
Die 1060 könnte auch reichen und könnte eine gute und kostengünstige Alternative zur 980 sein. Die 1060 ist aber noch nicht auf dem Markt. Gegenwärtig sollte man ihr allerdings keine Fähigkeiten zuschreiben, die noch unbekannt sind.
im wesentlichen ist alles drüber bekannt, es wird nur auf grund der offiziellen informationssperre bis 19.7. nicht an die breite masse kommuniziert.
siehe: https://www.phoronix.com/scan.php?page= ... x1060-soft
an den bekannten troubles mit den AMD karten ändert das aber ohnehin nichts. nvidia ist zwar auch nicht unbedingt gerade ein hersteller, den ich übermäßig schätzen würde, aber in der praxis zumindest noch das kleinere übel.
über den monitor lange zu diskutieren, macht nicht viel sinn, wenn man man nicht von vornherein auch kalibrierungsdevices und I/O-karten vorsieht, ohne die man ihn mit einigen programmen ohnehin kaum vernünftig nutzen kann.
Es geht um Magix/Adobe - und um einen Monitor, der sRGB und AdobeRGB zu 100 Prozent darstellt.
Sei bitte so gut und passe Deine Antwort daran an.
nun -- du wirst mir meiner antwort vermutlich wieder nicht zufrieden sein, aber ich halt einfach nicht viel von protzigen firmenlogos, hinter denen sich nur eher durchschnittliche technik verbirgt. im übrigen muss man halt mit entsprechenden gerät auch umgehen können, um es wirklich vernünftig nutzten zu können.
wenns't also wenigstens die prinzipielle 10bit fähigkeit dieses monitors tatsächlich sinnvoll nutzen willst, wirst um eine entsprechende i/o-karte nicht herum kommen. fast alle gebräuchlichen programme schaffen es nämlich leider nur auf diesem weg, auch tatsächlich ein entsprechendes signal auszuliefern. das müsste zwar grundsätzlich nicht so sein, weil man z.b. mit dem mpv im vollbildmodus auf allen betriebssystemen mit ganz billigen gtx-karten die 10bit auch via display port im opengl modus anzeigen kann, aber wie gesagt, fast alle kommerziellen videobearbeitungsprogramme erlauben das nur mit den im studio gebräuchlichen mitteln.
kalibrieren muss man aber jeden montior -- auch wesentlich teurere! ohne derartige pflege sind sie um nichts besser als ein billiger 200 euro-schrim, mit dem sie im übrigen meist ohnehin viel mehr gemeinsamkeiten haben als man das gemeinhin glauben würde. dafür haben diese wald-und-wiesen-geräte aber dann z.b. oft deutlich mehr video-eingänge als der hier vorgeschlagene. das muss nicht unbedingt von bedeutung sein, würde aber mich ziemlich stören, weil ich mit den beiden monitoren die vor mir am schreibtisch platz finden, relativ viele verschiedene aufgaben abwickeln muss, die tlw. auch an unterschiedliche ausgabehardware gebunden sind (virtuelle maschinen mit durchgereichten grafikkarten).
für normale videobearbeitung im engern sinne sind wide-gamut-monitore übrigens gar nicht ganz so optimal. ein schrim, der nur sRGB abdeckt ist hier eigentlich vernünftiger, weil im andern fall, speziell im grün-kanal, nicht alle werte ausgenutzt werden können und das ergebnis im entsprechend gedrosselten modus ungünstiger ausfällt als bei den modellen mit konventioneler 100% sRGB/Rec709 farbraumabdeckung. aber das ist natürlich nur ein detail, das man selbstverständlich vernachlässigen kann. es sollte einem nur zumindest bewusst sein, dass in dem falls die adobe-farbraumabdeckung nicht vorschnell als gewinn verstanden werden sollte, sondern viel eher als nachteil od. zumindest kompromiss, was aber evtl. sinn machen kann, wenn man den monitor tatsächlich für andere aufgaben 'zweckentfremden' will.
Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen. Darum ist auch der Unterschied zwischen einem I7 und einem I5 marginal. Und darum schlägt ein Sechskerner wie der 5820K immer einen Vierkerner.
schau dir einfach einmal an, wie z.b. das ffmpeg einen prozessor beim encodieren auszulasten vermag... dann reden wir weiter... ;)
Antwort von TomStg:
- optional nvidia K1200 oder höher...
Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.
So einen Quatsch habe ich noch nie gehört, dass pauschal eine Quadro zu lahm für Videoschnitt ist!!
Dann mach Dich mal schlau bei Leuten, die von dem Thema etwas verstehen:
https://www.studio1productions.com/Arti ... ereCS5.htm
Im Abschnitt "Number 16" findest Du die Details. Quadros machen nur Sinn, wenn es um 10Bit-Darstellung geht - bei Videoschnitt also die Ausnahme. Lahm und teuer ist eine Quadro auf jeden Fall im Vergleich zur GTX-Reihe. Evtl. hilft Dir auch, mal über den Tellerrand von Edius zu sehen.
Antwort von Roland Schulz:
Also, ich denke der 6700k ist in der Preisklasse DER Prozessor derzeit.
Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen. Darum ist auch der Unterschied zwischen einem I7 und einem I5 marginal. Und darum schlägt ein Sechskerner wie der 5820K immer einen Vierkerner.
Was Video angeht: Der 6700k bewegt sich tatsächlich ganz leicht über dem 5820K. Allerdings nur, wenn nicht übertaktet wird. Dafür sind beide CPUs aber vorgesehen und darum bezahlt man auch den K-Aufpreis.
Nur: Aus dem 6700K lässt sich nicht mehr viel herausholen, weil er von Werk aus schon fast vollständig ausgereizt ist. Gute Exemplare bekommt man mit Luftkühlung übertaktet auf 4,5 Ghz Basistakt auf allen vier Kernen.
Beim übertakteten 5820k ist ein Basistakt von 4 Ghz Standard und absolut mühelos zu erreichen - und die laufen dann auf sechs Kernen.
Den 6700K hat Intel für die vorgesehen, die eine leistungsstarke CPU suchen, aber sich das Übertakten nicht zutrauen.
Wer spürbar mehr Leistung als der 6700K sucht, der übertaktet nicht den 6700K, sondern greift zum 5820K und übertaktet den.
Nur so geht es.
Also mein 6700k läuft auf dem ASUS Maximus Hero VIII mit 4,7GHz, Prime stabil waren auch noch 4,8GHz!!!
Den Benchmark wo ein 5820k nen 6700k in LR schlägt muss mir mal einer zeigen. Ich finde dagegen Benchmarks wo noch ein 4790k den Haswell-E schlägt!!
QuickSync ist für Video auch nicht zu vernachlässigen, besonders in EDIUS!!
Antwort von Roland Schulz:
- optional nvidia K1200 oder höher...
Eine NVIDIA Quadro ist für Videoschnitt völlig ungeeignet. Zu langsam, zu teuer. Die neue GTX 1060 dürfte wesentlich passender sein.
So einen Quatsch habe ich noch nie gehört, dass pauschal eine Quadro zu lahm für Videoschnitt ist!!
Dann mach Dich mal schlau bei Leuten, die von dem Thema etwas verstehen:
https://www.studio1productions.com/Arti ... ereCS5.htm
Im Abschnitt "Number 16" findest Du die Details. Quadros machen nur Sinn, wenn es um 10Bit-Darstellung geht - bei Videoschnitt also die Ausnahme. Lahm und teuer ist eine Quadro auf jeden Fall im Vergleich zur GTX-Reihe. Evtl. hilft Dir auch, mal über den Tellerrand von Edius zu sehen.
Was habe ich denn anderes geschrieben?!?! Klar ist die Quadro mit gleicher Leistung >> teurer, die kann aber im Gegensatz zur GTX 10bit in PS, LR usw.!!
Hier nen CS5 Link anzusetzen ist auch völlig (ur-)zeitgemäß ;-)!!
Antwort von dienstag_01:
Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen.
He, Kern, mit dir arbeite ich nicht, du bist mir zu unecht.
Schon mal selbst ausprobiert oder wieder nur aus ner Spielezeitung abgeschrieben ;)
Antwort von Roland Schulz:
Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen.
He, Kern, mit dir arbeite ich nicht, du bist mir zu unecht.
Schon mal selbst ausprobiert oder wieder nur aus ner Spielezeitung abgeschrieben ;)
Also das ist tatsächlich nur halb falsch. Es ist tatsächlich so dass Adobe hier nicht besonders gut auf mehrere Kerne skaliert, dabei ist aber egal ob HT oder echte Kerne. Deshalb sind höhergetaktete 4790k oder 6700k oft auch den Haswell-E überlegen, auch i5er ohne HT liefern schon sehr gute Performance.
x264 z.B nutzt mehrere Kerne sehr gut, Stock ist nen 5820k auch etwas schneller als nen 6700k. Wenn man jetzt den 6700k auf 4,6GHz bringt, was noch relativ leicht geht, wäre dieser wieder etwas schneller. Den 5820k könnte man aber auch übertakten.
Wo der 5820k aber kein Land sieht ist beim QuickSync Export (weil's beim 5820k nicht geht). Für viele Anwendungen, insbesondere mit hoher Bitrate reicht das von der Qualität, besonders beim Skylake völlig aus, ist für ne schnelle Gesamtvorschau immer zu empfehlen. Ich habe Vergleiche gemacht wo ich bei 100Mbps QS sogar vor x264 gesehen habe. Hängt aber auch klar vom Material ab.
Antwort von dienstag_01:
Also das ist tatsächlich nur halb falsch. Es ist tatsächlich so dass Adobe hier nicht besonders gut auf mehrere Kerne skaliert, dabei ist aber egal ob HT oder echte Kerne. Deshalb sind höhergetaktete 4790k oder 6700k oft auch den Haswell-E überlegen, auch i5er ohne HT liefern schon sehr gute Performance.
Wie gut eine Software skaliert, ist die eine Frage.
Ob sie dabei aber zwischen *echten* und *unechten* Kernen unterscheidet, eine andere.
Und letzteres tut sie natürlich nicht, wie auch.
Ist also nicht nur *halb* falsch ;)
Antwort von Jost:
Das ist leider nicht so. Bildbearbeitungsprogramme wie Lightroom können mit virtuellen Kernen (HTT) nichts anfangen.
He, Kern, mit dir arbeite ich nicht, du bist mir zu unecht.
Schon mal selbst ausprobiert oder wieder nur aus ner Spielezeitung abgeschrieben ;)
Jau, ist so. Lightroom profitiert von HTT nicht. Der Bang bleibt aus.
Kannst Du auch selbst testen. Geh mal ins UEFI und such dort "CPU Configuration". Dort sollte "Intel HT Technology" auftauchen. Lässt sich dort zu- und abschalten.
Antwort von dienstag_01:
Jau, ist so. Lightroom profitiert von HTT nicht. Der Bang bleibt aus.
Schwachsinnstest.
Und wer erwartet einen *Bang*.
Aber du hast bestimmt auch noch so einen Test zwischen einem 4- und 6-Core auf Lager ;)
Antwort von wolfgang:
Quadros machen nur Sinn, wenn es um 10Bit-Darstellung geht - bei Videoschnitt also die Ausnahme. Lahm und teuer ist eine Quadro auf jeden Fall im Vergleich zur GTX-Reihe. Evtl. hilft Dir auch, mal über den Tellerrand von Edius zu sehen.
Es gibt einige Fälle wo sogar gezielt eine Quadro gefordert wird. Etwa wenn man in Sony Vegas mit s3D Material arbeitet und über nvidia 3D Vision eine 3D Vorschau haben will. Wird aber eher die Ausnahme sein.
Dass ob wir in Zukunft eher für den Videoschnitt eine 8bit oder ein 10bit Vorschau verwenden werden wollen - da gibts wohl Argumente dafür und dagegen. Solange man für 8bit als finales Format produziert lasse ich mir ja durchaus einreden, dass einem vielleicht eine 8bit Vorschau reicht. Aber wenn wir dann mal stärker für 10bit Panele produzieren, was Hand in Hand mit HDR gehen wird, na dann wird es ohne 10bit Vorschau wohl nicht mehr gehen.
Antwort von Roland Schulz:
Quadros machen nur Sinn, wenn es um 10Bit-Darstellung geht - bei Videoschnitt also die Ausnahme. Lahm und teuer ist eine Quadro auf jeden Fall im Vergleich zur GTX-Reihe. Evtl. hilft Dir auch, mal über den Tellerrand von Edius zu sehen.
Es gibt einige Fälle wo sogar gezielt eine Quadro gefordert wird. Etwa wenn man in Sony Vegas mit s3D Material arbeitet und über nvidia 3D Vision eine 3D Vorschau haben will. Wird aber eher die Ausnahme sein.
Dass ob wir in Zukunft eher für den Videoschnitt eine 8bit oder ein 10bit Vorschau verwenden werden wollen - da gibts wohl Argumente dafür und dagegen. Solange man für 8bit als finales Format produziert lasse ich mir ja durchaus einreden, dass einem vielleicht eine 8bit Vorschau reicht. Aber wenn wir dann mal stärker für 10bit Panele produzieren, was Hand in Hand mit HDR gehen wird, na dann wird es ohne 10bit Vorschau wohl nicht mehr gehen.
Also wenn ich sparen wollte würde ich auch keine Quadro mehr kaufen. Ist nett für PS und LR wenn das Geld über ist, hier und da sieht man auch nen Unterschied, besonders bei relativ homogenen Flächen mit weichen Übergängen.
Für Video brauche "ich" das Ding aber gar nicht. Die bekannte BMD Intensity Pro 4K macht für die Vorschau schließlich auch schon 10bit - wenn man das denn braucht und/oder haben möchte, kostet dabei gerade mal 200 Kracher.
Viel sinnvoller ist erstmal ein hardwarekalibrierbarer Monitor, der intern mit min. 10bit arbeitet!
Antwort von Jost:
Jau, ist so. Lightroom profitiert von HTT nicht. Der Bang bleibt aus.
Schwachsinnstest.
Und wer erwartet einen *Bang*.
Aber du hast bestimmt auch noch so einen Test zwischen einem 4- und 6-Core auf Lager ;)
Lieber dienstag_01, schalt doch bitte HTT ab und teste selbst.
Wo ist denn hier das Problem?
Oben steht doch haarklein drin, wie man das macht.
Und natürlich erwartet man einen Leistungsschub durch HTT.
HTT ist schließlich der Grund, warum ein I7 teurer als ein I5 ist.
Antwort von dienstag_01:
Wo ist denn hier das Problem?
Denk mal bisschen nach ;)
Kleiner Tipp: was sagt dein Test über die Skalierungseigenschaften der Software aus? Wie wäre der Test also sinnvoll? Und wo kommt die bessere Performance eines &-Core her?
Vielleicht kommst du selber drauf ;)
Antwort von wolfgang:
Für Video brauche "ich" das Ding aber gar nicht. Die bekannte BMD Intensity Pro 4K macht für die Vorschau schließlich auch schon 10bit - wenn man das denn braucht und/oder haben möchte, kostet dabei gerade mal 200 Kracher.
Viel sinnvoller ist erstmal ein hardwarekalibrierbarer Monitor, der intern mit min. 10bit arbeitet!
Natürlich macht ein kalbrierter Monitor Sinn - ob es sinnvoller ist sei mal dahin gestellt. Schließlich erlernen auch gerade viele GTX Karten 10bit.
Bei der genannten Kracher-Karte (auch aufgrund des kleinen Luftkühlers) Intensity Pro4 sollte man aber auch nicht vergessen, dass die gerade bis UHD 30p nutzbar ist, während heute schon inzwischen sogar schon etwas ältere Grafikkarten über Displayboard durchaus auch UHD 60p ausgeben können.
Antwort von Roland Schulz:
Für Video brauche "ich" das Ding aber gar nicht. Die bekannte BMD Intensity Pro 4K macht für die Vorschau schließlich auch schon 10bit - wenn man das denn braucht und/oder haben möchte, kostet dabei gerade mal 200 Kracher.
Viel sinnvoller ist erstmal ein hardwarekalibrierbarer Monitor, der intern mit min. 10bit arbeitet!
Natürlich macht ein kalbrierter Monitor Sinn - ob es sinnvoller ist sei mal dahin gestellt. Schließlich erlernen auch gerade viele GTX Karten 10bit.
Bei der genannten Kracher-Karte (auch aufgrund des kleinen Luftkühlers) Intensity Pro4 sollte man aber auch nicht vergessen, dass die gerade bis UHD 30p nutzbar ist, während heute schon inzwischen sogar schon etwas ältere Grafikkarten über Displayboard durchaus auch UHD 60p ausgeben können.
Displayport heißt die Schnittstelle. Einfach mal ausprobieren wie das funktioniert. Aus meinen Erfahrungen geht das leider meistens in die Hose, aber auch bei FHD. Irgendwie hatte ich da zumindest mit EDIUS immer Tearing und sowas, wobei das ne GTX960 mit MPC am TV nahezu perfekt macht. In ner NLE habe ich aber meist nicht die Optionen das korrekt einzustellen.
Man kann das erst ohne BMD versuchen und dann immer noch nachkaufen, wobei das Ding auch seine Tücken hat...
Antwort von wolfgang:
Ja klar heißt das Displayport. Wenn dir das wichtig ist...
Dafür geht bei mir damit nichts in die Hose. Sowohl über den Displayport einer Quadro K4200 auch einer AMD R9 390X habe ich am UHD-Samsung Monitor eine völlig problemlose Vorschau, mit der Decklink 4K Extreme bis 30p sowieso (denn GV hat aus Edius heraus die Ausgabe auf die Blackmagic Karten über 30p völlig unverständlicherweise nicht erlaubt).
Antwort von Jost:
Wo ist denn hier das Problem?
Denk mal bisschen nach ;)
Kleiner Tipp: was sagt dein Test über die Skalierungseigenschaften der Software aus? Wie wäre der Test also sinnvoll? Und wo kommt die bessere Performance eines &-Core her?
Vielleicht kommst du selber drauf ;)
Stimmt"s - oder stimmt"s nicht?
Und es ist wunderbar, dass man das selbst herausfinden kann.
Man kann es nämlich einfach ausprobiert.
Es ist nun mal so, dass HTT nicht jedem Programm auf die Sprünge hilft.
Ich kann es doch nicht ändern.
Aber wir kommen vom Thema ab.
Antwort von dienstag_01:
Und es ist wunderbar, dass man das selbst herausfinden kann.
Ja, sollte man. Vielleicht mal mit sowas wie i5-M560 testen ;)
Antwort von mash_gh4:
Displayport heißt die Schnittstelle. Einfach mal ausprobieren wie das funktioniert. Aus meinen Erfahrungen geht das leider meistens in die Hose, aber auch bei FHD. Irgendwie hatte ich da zumindest mit EDIUS immer Tearing und sowas, wobei das ne GTX960 mit MPC am TV nahezu perfekt macht. In ner NLE habe ich aber meist nicht die Optionen das korrekt einzustellen.
das problem hat leider damit zu tun, dass die gtx karten schon sehr lange eine entsprechende 10bit ausgabe via DP im vollbildmodus erlauben, nicht aber in programmen, die neben dem eigentlichen videoansicht auch noch irgendwelche GUI widgets zeigen wollen. das ist in technischer hinsicht ein ziemlicher krampf! und die anpassung der wiedergabe-framerate, die hier auch eine ausgesprochen bedeutsame rolle spielt, bringt noch weitere einschneidende komplikationen mit sich, die kaum in plattformübergreifend zu lösen sind. es gibt allerdings software, die das wirklich vorbildlich schafft (bspw. autodesk flame), aber im normalfall ist es wirklich ein einziger albtraum. :(
Man kann das erst ohne BMD versuchen und dann immer noch nachkaufen, wobei das Ding auch seine Tücken hat...
ja -- ich seh das ganz ähnlich wie du. in wahrheit sind leider die BMD treiber mit ein grund für schätzungsweise 50% der ganz wilden abstürze und betriebssystem hänger im resolve. und dabei dürften die dortigen programmierer noch am ehesten wissen, wie man den entsprechenden technischen stolpersteinen herr wird od. sie nach möglichkeit umschifft. ich halte es daher eigentlich auch eher für erstrebenswert, auf derartige zusätzliche hardware zu verzichten, wo immer das möglich ist. aus sehr vielen programmen bekommt man halt auf anderem weg einfach keine vernünftige bildschirmfüllende voransicht zu schneiden raus. (ich arbeite aber gerade an einer software -- eine art decklink-api emulator in software --, die hier evtl. abhilfe schaffen könnte. bin mir aber noch nicht ganz sicher, ob es sich wirklich befriedigend umsetzen lässt.)
Antwort von Roland Schulz:
Ja klar heißt das Displayport. Wenn dir das wichtig ist...
Dafür geht bei mir damit nichts in die Hose. Sowohl über den Displayport einer Quadro K4200 auch einer AMD R9 390X habe ich am UHD-Samsung Monitor eine völlig problemlose Vorschau, mit der Decklink 4K Extreme bis 30p sowieso (denn GV hat aus Edius heraus die Ausgabe auf die Blackmagic Karten über 30p völlig unverständlicherweise nicht erlaubt).
Doch, nein und nein! Das klappt nicht vernünftig!
- Welcher Samsung UHD Monitor kann 10bit UHD in 50p (Geschweige denn FHD/50p) oder bist Du NUR in NTSC unterwegs? Ich will gerne was lernen...
Davon ab können die EIZO CG"s auch kein UHD mit 50p, die kommen leider übrhaupt nicht über UHD 30p hinaus.
- Weder die Quadro noch die 390X machen aus EDIUS, denke auch damit bist Du unterwegs, eine Tearing freie Vorschau. Das haben wir mit GV selbst schon mehrmals in GV Forum durchgeknuspert. mash_gh4 unterstreicht das unten nochmal. Ggf. sieht man den Effekt nicht, bei horizontaler Bewegung kommt der aber zyklisch automatisch immer wieder.
Die 12G BMD Karten laufen auch mit EDIUS, allerdings wird"s dann mit DisplayPort oder HDMI nicht so einfach ;-)!
Und ja, mash_gh4 kommentiert die BMD Treiber und eigentlich fast alles was die machen treffend ;-)! Aber was ist schon "perfekt"?!
Antwort von wolfgang:
Ich weiß nicht was du als "vernünftig" bezeichnest, aber das wirst uns ja sicher erklären.
Fakten: Über Displayport können bisher alle Grafikkarten ohnedies immer nur UHD 60p, da ist gar kein 50p vorgesehen. Das sollte man wissen wenn man sich für die UHD Grafikkarten-Vorschau über Grafikkarten entscheidet. Das wirst halt nicht ändern, oder haben wir Hinweise darauf dass eine UHD 50p
Ausgabe mit der neuesten nvidia und AMD Generation möglich wird? Also ich weiß noch nichts davon.
Da Grass Valley aus Konkurrenzgründen die Ausgabe über Blackmagic Karten aus Edius heraus mit mehr als UHD 30p gesperrt hat, hat man bei Edius die absurde Situation entweder über die Grafikkarte mit UHD 60p gehen zu müssen, oder die Projekteinstellungen für ein UHD 50p Projekt für die Vorschau auf HD 50p umschalten zu müssen. Das sind tatsächlich absurde Restriktionen, denn andere Produkte wie Resolve oder der Catalyst lassen sehr wohl eine UHD 50p Vorschau über die Decklink zu.
Denn erst Karten wie die Decklink 4K 6G oder 12G geben überhaupt UHD 50p/60p aus (die 6G Variante offenbar nur als 8bit). Diese Karten fahren aber nicht über Displayport sondern HDMI oder SDI und wie zu Edius gesagt: dort ist nicht mal tearing primär das Problem sondern dass Edius diese Bildraten in der Vorschau über die Decklink gar nicht zulässt.
Dass es erbärmlicherweise einige UHD Monitore gibt die bei UHD 30p über HDMI aufhören ist auch Fakt - darum ja oben der Hinweis auf einen halbwegs erschwinglichen LG der auch UHD 50p über HDMI akzeptiert. Nur wenn man derzeit mit UHD 30p auskommt sind Monitore wie der Samsung heute für eine Kauf noch akzeptabel da die über HDMI auch nur maximal UHD 30p akzeptieren und dies in ihren Specs schamhaft verschweigen. Nur das ist heute nicht mehr sinnvoll da der Preisunterschied zum genannten LG relativ gering ist.
Trotzdem läßt sich ein UHD Schnitt mit all diesen Geräten machen. Die Vorschau aus Edius heraus ist bei einem UHD 25p Projekt über die genannte Hardware sowohl über GrKas wie auch die Decklink bei weitem nicht so schlecht wie du hier mit dem Hinweis auf tearing andeutest. Da ist ein Schnitt sehr wohl möglich, und die Vorschau aus Edius heraus ist bei UHD 25p mit den genannten Grafikkarten kaum schlechter als über die Decklink 4K Extreme. Tearing ist da viel weniger erkannbar als etwas aus Vegas heraus, und Vegas ist ein Beispiel wo die Blackmagic Hardware diesbezüglich besser ist als die Grafikkarten. Und auch aus Resolve oder den Catalyst sind die UHD Vorschau über die Extreme sehr wohl akzeptabel.
Aber vielleicht ist ja dein Anspruch ein Anderer als Meiner.
Antwort von mash_gh4:
Fakten: Über Displayport können bisher alle Grafikkarten ohnedies immer nur UHD 60p, da ist gar kein 50p vorgesehen. Das sollte man wissen wenn man sich für die UHD Grafikkarten-Vorschau über Grafikkarten entscheidet. Das wirst halt nicht ändern, oder haben wir Hinweise darauf dass eine UHD 50p Ausgabe mit der neuesten nvidia und AMD Generation möglich wird?
wo hast du diese info her?
es gibt verschiedene gründe, die die tatsächliche auswahl einschränken können, aber an der displayport spezifikation oder den fähigkeiten der gebräuchlichen grafikkarten scheint es nicht zu scheitern.
Antwort von wolfgang:
Na welche Grafikkarte kann bisher über Displayport UHD 50p? Also ich kenne bisher keine. Du?
Antwort von mash_gh4:
btw: weil hier schon so viel über günstige 10bit hardwarekalibrierbare monitore geschwärmt wurde:
https://geizhals.de/dell-ultrasharp-up2 ... 29900.html
ist wirklich unglaublich, wie billig die dinger mittlerweile sind!
Antwort von wolfgang:
Aber nicht mal UHD Auflösung und nur HDMI 1.4? Da begeistert mich dann die Kalibrierungsmöglichkeit auch nur bedingt.
Zum Tearing: naja es ist nicht so dass ich das nicht sehe. Die Frage da wäre eher ob wer eine Hardwarekombination kennt die erschwinglich ist UND hier deutlich besser wäre.
Antwort von dienstag_01:
Gibt es denn wirklich Tearing bei der Ausgabe über eine explizite Monitoring-Karte wie der Decklink? Ich arbeite ja nur in HD, aber da gibt es sowas mit einer Matrox Mini nicht. Ich würde niemals vermuten, dass das bei 4k anders wäre. Bin wirklich überrascht. Dazu sind doch die Karten da, um ein standardkonformes Signal auszugeben. Liegts möglicherweise an der Billiglösung BM? Oder am NLE?
Antwort von mash_gh4:
Aber nicht mal UHD Auflösung und nur HDMI 1.4?
gerade weil er 'nur' diese nicht ganz unpraktische auflösung hat, braucht man nicht mehr als hdmi 1.4. allerdings ist er in der tat auch einer von den vielen schirmen, die dir nur 60 oder 24Hz -- unabhängig von der grafikkarte und dem verwendeten anschluss -- einzustellen erlauben, was natürlich nicht ganz ideal ist. (meine erlauben übrigens 30, 50 und 60Hz, aber auch nur als 1080p -- mehr brauch ich nicht)
Antwort von wolfgang:
Also mein Dell hat leider auch noch den Scherz über HDMI nur max. UHD 30p zu können - über Displayport dann aber bis UHD 60p. Nicht ganz ideal mit der Decklink4K. Aber bei HD kann er durchaus auch HD 50p über die Decklink.
Dass dieses tearing eben nicht an der Decklink liegt sondern an der Einbindung in die jeweilige Schnittsoftware zeigt Resolve. Das und auch Catalyst Edit läuft bei mir im gleichem System völlig sauber, auch mit FS7 UHD 50p Material (Monitorausgabe in Resolve wegen der Restriktion am Dell Monitor für die Decklink Ausgabe entweder auf UHD 50p gestellt, oder wenn mans lieber mag auf 1080 25/50p). Hier patzen also eher Vegas wie auch Edius.
Für den UHD Schnitt bevorzuge ich nach Möglichkeit schon eine UHD Vorschau um gerade bei 4K auch ganz leichte Unschärfen noch erkennen zu können. Dass Vegas etwa über die Decklink nur maximal 1080 30p kann ist ebenso ein Jammer wie das Edius damit nur max. UHD 30p kann. Am flexibelsten ist bezüglich all dieser Aspekte von meine Werkzeugen Resolve. Wie gut Adobe diesbezüglich ist weiß ich nicht.
Antwort von mash_gh4:
Dass dieses tearing eben nicht an der Decklink liegt sondern an der Einbindung in die jeweilige Schnittsoftware zeigt Resolve. Das und auch Catalyst Edit läuft bei mir im gleichem System völlig sauber, auch mit FS7 UHD 50p Material (Monitorausgabe in Resolve wegen der Restriktion am Dell Monitor für die Decklink Ausgabe entweder auf UHD 50p gestellt, oder wenn mans lieber mag auf 1080 25/50p). Hier patzen also eher Vegas wie auch Edius.
ich glaube, das kann man technsich damit erklären, das die betreffende programme mit hilfe alter Decklink-SDKs programmiert bzw. kompiliert wurden. sind es tatsächlich aktuelle ausgaben der betreffenden programme? -- den eigentlich müssten diese änderungen schon ein paar jahre zurückliegen... man erkennt diesen umstand jedenfalls auch daran, dass es damals auch noch keine UHD ausgabe gab, sondern nur 4K DCI (3840x2160) in frameraten von 23.98-30fps unterstützt wurde...
wenn ich es richtig überblicke, ist das zu grunde liegende problem an der ganzen geschichte ist nämlich der tatsache geschuldet, dass die decklink API keine funktion anbietet, um die verfügbaren ausgabemodi der karten einfach aus der installierten hardware od. den aktuell dafür installieren treibern auszulesen, sondern diese modi sind nur in den SDK headern -- also dem programmcode -- spezifiziert. von derartigen eigenwilligkeiten und wenig erfreulichem design strotzt leider die ganze API. sie ist leider auch ausgesprochen windows zentriert. als mac- oder linux-entwickler muss man sich darüber ziemlich ärgern. (wie gesagt, ich hab damit gerade einiges zu tun ;))
Für den UHD Schnitt bevorzuge ich nach Möglichkeit schon eine UHD Vorschau um gerade bei 4K auch ganz leichte Unschärfen noch erkennen zu können.
das stimmt schon. ich produziere ja auch keine 4K output, sondern verstehe die entsprechenden aufnahmemöglichkeiten meiner kamera nur als einen umweg, um HD1080 mit optimalerem farbsubsampling auf umwegen, aber dafür mit gut unterstützten konventionelleren mitteln, abspeichern zu können. :) wenn einem das nicht genügt, und man wirklich unbedingt eine durchgehende 4K bearbeitungskette benötigt, reicht das natürlich nicht (...allerdings meine kamera wohl eher auch nicht). prinzipiell halte ich es nämlich schon auch für wichtig, dass man die schärfe in vollbilddarstellung und zielauflösung beurteilt. darum finde ich es auch wirklich nervig, dass genau diese funktionalität im resolve erst durch den einbau entsprechender zusatzhardware zugänglich wird. es ist technisch unglaublich simpel zu realisieren und für das praktische arbeiten viel zu wichtig, als dass es nur im sinne eines vermarktungstechnischen angelhakens ausgeschlachtet wird.
Dass Vegas etwa über die Decklink nur maximal 1080 30p kann ist ebenso ein Jammer wie das Edius damit nur max. UHD 30p kann.
wie gesagt: schau, ob das auch bei den neuesten ausgaben der betreffenden programme noch immer der fall ist? ich kann mir das eigentlich kaum vorstellen.
Antwort von wolfgang:
Das ist sicher richtig dass im Fall von Vegas die Decklink
Einbindung uralt ist. Selbst das derzeit aktuelle Version 13 hat lange kein Update gesehen, die Einbindung ist noch älter. Und ob der neue Eigentümer diesbezüglich für das im Herbst kommende Vegas Pro 14 was macht wird man sehen.
Bei Edius ist die Einbindung sicher erst aus der neueren Zeit. Aber selbst in der aktuellen Version möglicherweise doch schon wieder älter.
Bei Resolve - na die wollen halt auch was verkaufen, und da Resolve mit sehr vielen Funktionen gratis ist verdienen die halt was an den Karten. Resolve ist für den 4K Schnitt einfach gut, die richtige Hardware (auch GPU mit 8GB) braucht es aber. Grundsätzlich ist ja die Decklink seit geraumer Zeit bewährt und gut designed, und es ist unglaublich wie viele Softwarepackages die unterstützen. Alleine bei meinen Tools sind es Vegas, Edius, Catalyst, Looks3, Boris Red und Resolve. Diese Karte kommt mir wie ein Schweizer Universaltaschenmesser vor und hat bei mir den klaren Vorzug über alle bisherige Grafikkarten für unsere Zwecke.
Antwort von wolfgang:
Das ist sicher richtig dass im Fall von Vegas die Decklink
Einbindung uralt ist. Selbst das derzeit aktuelle Version 13 hat lange kein Update gesehen, die Einbindung ist noch älter. Und ob der neue Eigentümer diesbezüglich für das im Herbst kommende Vegas Pro 14 was macht wird man sehen.
Bei Edius ist die Einbindung sicher erst aus der neueren Zeit. Aber selbst in der aktuellen Version möglicherweise doch schon wieder älter.
Bei Resolve - na die wollen halt auch was verkaufen, und da Resolve mit sehr vielen Funktionen gratis ist verdienen die halt was an den Karten. Resolve ist für den 4K Schnitt einfach gut, die richtige Hardware (auch GPU mit 8GB) braucht es aber. Grundsätzlich ist ja die Decklink seit geraumer Zeit bewährt und gut designed, und es ist unglaublich wie viele Softwarepackages die unterstützen. Alleine bei meinen Tools sind es Vegas, Edius, Catalyst, Looks3, Boris Red und Resolve. Diese Karte kommt mir wie ein Schweizer Universaltaschenmesser vor und hat bei mir den klaren Vorzug über alle bisherige Grafikkarten für unsere Zwecke.
Antwort von Roland Schulz:
Gibt es denn wirklich Tearing bei der Ausgabe über eine explizite Monitoring-Karte wie der Decklink? Ich arbeite ja nur in HD, aber da gibt es sowas mit einer Matrox Mini nicht. Ich würde niemals vermuten, dass das bei 4k anders wäre. Bin wirklich überrascht. Dazu sind doch die Karten da, um ein standardkonformes Signal auszugeben. Liegts möglicherweise an der Billiglösung BM? Oder am NLE?
Nein, ich hatte weder bei ner HD Spark noch der Intensity Pro 4k irgendwelches Tearing bisher, bei ner Ausgabe über die Grafikkarte dagegen schon.
Antwort von Roland Schulz:
Wolfgang hat hier Recht, EDIUS kann derzeit mit keiner Ausgabekarte UHD mit mehr als 30p. Selbst wenn die BMD 12G Karten oder ne AJA KONA 4 unterstützt werden bleibt es bei 30p. Da krankts noch irgendwo, genau so wie bei der QuickSync Unterstützung die immer nur bis zu irgendner bestimmten Intel Treiberversion funktioniert.
Bei mir ergibt sich dadurch aber derzeit kein Problem, da ich zur Vorschau immer noch den CS240 in FHD verwende, das Projekt einfach solange auf FHD umschalte (alternativ bis 30p den Downscaler der Karte nutze).
Für mich derzeit die beste Lösung zu angemessenem Preis.
Bei Tearing von ner Grafikkarte kriege ich Haarausfall, zudem meine ich dass da auch immer irgendwas mit den Farben passiert, die BMD ist da eher "straight".
Antwort von mash_gh4:
Das ist sicher richtig dass im Fall von Vegas die Decklink
Einbindung uralt ist. Selbst das derzeit aktuelle Version 13 hat lange kein Update gesehen,...
...
Bei Edius ist die Einbindung sicher erst aus der neueren Zeit. Aber selbst in der aktuellen Version möglicherweise doch schon wieder älter.
wie gesagt, das ist trotzdem leider eher dem ganz konkreten design der balckmagic softwareschnittstellen (=API) geschuldet. das müsste nicht so sein, wenn man es ein bisserl überlegter konzipiert hätte. es ist ja durchaus vertretbar, dass immer wieder einmal gänzlich neue funktionen dazukommen, an die man im vorfeld noch gar nicht gedacht hat. in den fällen versteht auch jeder, dass tatsächlich auch die entprechenden software-schnittstellen um neue funktionen erweitert werden müssen, damit das unterstützt werden kann, aber im falle der bildwiederholfrequenz bzw. entsprechender ausgabemodi geht es wirklich nur um eine ganz simple liste, die jeder darstellungsfrequenz zwei teiler für den kartentakt zuordnet. das hätte man wirklich auch problemlos zur laufzeit aus den benutzten karten oder installierten triebern auslesen können, ohne das dafür die betreffenden programme unbedingt mit einer neuen version des decklink software developmen kits neu kompiliert werden müssen. derartiges muss ja in der praxis fast unweigerlich zu den hier diskutierten folgen führen. die meisten vergleichbaren schnittstellen bemühen sich jedenfalls in diesem zusammenhang eher um größtmögliche versionsunabhängigkeit und reibungslose unterstützung neu hinzukommender hardware.
Bei Resolve - na die wollen halt auch was verkaufen, und da Resolve mit sehr vielen Funktionen gratis ist verdienen die halt was an den Karten.
naja -- daran verdienen sie auch richtig gut. das zeug ist nämlich von der technischen komplexität her vermutlich einfacher herzustellen als z.b. ein billiger usb-hub. besonders viel ist da wirklich nicht dahinter. die stückzahlen in denen die betreffenden karten hergestellt uns verkauft werden, sind zwar vergleichsweise gering, trotzdem dürfte die gewinnspanne recht beträchtlich sein.
ich persönlich finde es ja grundsätzlich nicht schlecht, dass derartige hardware zu einem einigermaßen erschwinglichen preis am markt erhältlich ist. wenn man tatsächlich eine vernünftige capture- oder sdi-anbindung benötigt, führt ja ohnehin kein weg daran vorbei. für die bloße bildschirmausgabe halte ich es aber nicht unbedingt für die ideale lösung. wie du ohnehin recht praxisnah beschrieben hast, ist hier die nutzung des display ports im zusammenspiel mit den meisten erschwinglichen monitoren wesentlich vorteilhafter als studio-typische anschlusstechnik. auch die probleme mit der bildfrequenz und farbverfälschungen lassen sich durch sauberer programmierung der entsprechen grafikartenansteuerung in ganz gleicher und qualitativ nicht weniger befriedigender weise wie beim decklink-umweg in den griff bekommen (z.t. eben auch mit intelligenten softwarelösungen, die die entsprechende frameratenanpassung weit aufwendiger übersetzen -- siehe z.b.: https://github.com/mpv-player/mpv/wiki/ ... ronization). im grunde hat man es ja leider in der praxis ohnehin mehr mit einschränkungen auf seiten der gebräuchliche monitore zu tun als mit den fehlenden freiheiten bei der grafikausgabe.
ich würde also sagen: dort wo es wirklich sinn macht, bin ich BMD ihr geschäft durchaus willig. irgendwelche benutzer aber mit artifiziellen einschränkungen dazu zu zwingen, sich etwas anzuschaffen, das ganz objektiv betrachtet als eher kontraproduktiv anzusehen ist -- d.h. den anschlüssen und wiedergabemöglichkeiten der bildschirme zuwider läuft --, halte ich dagegen für deutlich weniger akzeptabel.