Logo Logo
/// 

Blackmagic Intensity Pro für Kontrollmonitor sinnvoll?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten und mehr-Forum

Frage von Ulist:


Vor kurzem hat mir jemand erklärt, dass zur Beurteilung eines Videos am Schnittrechner zwingend eine zusätzliche Videokarte, z.B. die Blackmagic Intensity Pro 4k erforderlich sei, weil die, im Gegensatz zur (bei mir) bereits vorhandenen Nvidia Karte, über den HDMI-Ausgang das Signal als YUVYUV im Glossar erklärt und nicht als RGBRGB im Glossar erklärt ausgibt. Ich sollte also meinen Blackmagic Video Assist 4k über die Karte als Kontrollmonitor anschließen, weil ich nur so das Bild richtig beurteilen kann. Ist das sinnvoll oder kann ich mir das Geld für die Intensity Pro sparen?

Danke schon mal für eure Hinweise
Ulist



Antwort von Bruno Peter:

Ich nutze den VGA-Ausgang der Intel-Graphics 530 meiner CPU an dem ein HDTV hängt
so sehe ich ganz genau wie das Video auf einem TV aussieht!

Die VGA -Wiedergabe auf TV-Dislays funktioniert heutzutage einwandfrei bis zu einer
Display-Auflösung von 2048 x 1536 Bildpunkten.



Antwort von mash_gh4:


Ich nutze den VGA-Ausgang der Intel-Graphics 530 meiner CPU an dem ein HDTV hängt
so sehe ich ganz genau wie das Video auf einem TV aussieht!

freut mich, dass wider erwarten, eine ausgesprochen vernünftige antwort den anfang macht! :)

in wahrheit ist die sache aber ziemlich kompliziert.

es hängt sehr sehr stark von der verwendeten software ab, wie weit man auch ohne eine solche karte brauchbare ausgaben erhält. viele programme nehmen auch ohne solche zusatzhardware die entsprechenden anpassungen an fernsehsausgabestandards ganz korrekt in der software vor bzw. rechnen sie sauber auf die erwartungen typischer computerbildschirme um (rec709->sRGB gama korrektur). andere programme dagegen erzwingen fast, dass man solche karten nuzt, weil sie auf anderem weg keine vernünftige laufende vollbilddarstellung erlauben od. eben die nötigen adaptierungen zur korrekten bildbeurteilung in der vorschau auf computerbildschirmen nicht in befriedigender weise anbieten.

ob die daten dann letztlich in RGBRGB im Glossar erklärt od YCbCr übertragen werden, spielt eigentlich keinen nennenswerte rolle -- außer natürlich, dass manche monitore nur eine der beiden varianten unterstützen. viel wichtiger ist es, dass die ausgabebildschirme bzw. alle komponenten der ausgabekette vernünftig kalibriert sind! letzteres halte ich tatsächlich für unerläßlich -- hat aber im grunde auch wieder nichts mit diesen karten zu tun.

derartige dedizierte ausgabe-hardware macht natürlich vor allem dort sinn, wo man es tatsächlich mit typischem studiogerät zu tun hat, das SDI-eingänge benutzt. dort wird man in der regel ganz selbstverständlich zu solchen ausgabemitteln greifen. dagegen macht es in meinen augen überhaupt keinen sinn, wenn man solche karten zusammen mit einer ganzen kette an weiteren nötigen adaptern nutzt, nur um dann letztlich ein signal an einen verhältnismäßig billigen monitor zu übergeben, wie man es über den display port anschluss einer grafikkarte od. der intel iGPU genauso bereitstellen hätte können.

die intensity pro in ihrer USB variante halte ich übrigens für eine ganz besonders problematische lösung, die unter linux gar nicht unterstützt wird, aber auch auch auf den anderen systemen deutlich mehr probleme als vergleichbare PCI-karten mit sich bringt. von der würde ich dir also wirklich unbedingt abraten.





Antwort von cantsin:


Ich nutze den VGA-Ausgang der Intel-Graphics 530 meiner CPU an dem ein HDTV hängt
so sehe ich ganz genau wie das Video auf einem TV aussieht!

Bei allem Respekt, aber ein digitales Signal (Computer) in ein analoges Signal (VGA) zu wandeln, um es dann durch Dein Flatscreen-TV wieder in ein digitales Signal wandeln zu lassen, scheint mir keine gute Idee...



Antwort von mash_gh4:


Bei allem Respekt, aber ein digitales Signal (Computer) in ein analoges Signal (VGA) zu wandeln, um es dann durch Dein Flatscreen-TV wieder in ein digitales Signal wandeln zu lassen, scheint mir keine gute Idee...

dem kann ich leider nur zustimmen. VGA-verbindungen würde ich heute natürlich auch nicht mehr verwenden, wo immer es auch anders geht. das betrifft aber natürlich ganz normale computerarbeitsplätze in gleicher weise.

HDMI und DVI -- was ja technisch gesehen ja ohnehin auf fast das selbe hinausläuft -- ist da schon deutlich zeitgemäßer. damit gibt's dann halt immer wieder ziemliche probleme, wenn man 10bit farbtiefe oder höhere bildwiederholraten bei großer auflösung übertragen will. so gesehen ist wohl display port, wo diese einschränkungen nicht zutreffen, meist die beste lösung zur anbindung von computermonitoren, so lange es auf beiden seiten zur verfügung steht.



Antwort von dienstag_01:

Die Verwendung von speziellen Karten fürs Videomonitoring hat ja auch einen Grund in der optimalen Synchronisation von Videosignalen. Tearing heisst der Effekt, den es ansonsten oft zu sehen gibt ;)



Antwort von mash_gh4:


Die Verwendung von speziellen Karten fürs Videomonitoring hat ja auch einen Grund in der optimalen Synchronisation von Videosignalen. Tearing heisst der Effekt, den es ansonsten oft zu sehen gibt ;)

ja -- ich würde auch sagen, dass die ganzen timing spezifischen fragen in wahrheit schwieriger in den griff zu bekommen sind als einfach nur korrekte farben zu übertragen.

wie gut das dann in der praxis tatsächlich funktioniert, hat aber leider auch wieder sehr viel mit den fähigkeiten der verwendeten monitore und der technischen umsetzung in den benutzten anwendungen zu tun.

im prinzip ist es zumindest im full screen ausgabemodus ziemlich einfach die wiedergabefrequenz anzupassen. bei typischen film frame raten und den einschränkungen vieler computermonitore ist es dazu oft auch nötig, bildwiederholungen einzufügen... irgendwelche idiotischen ballerspiele lösen derartige probleme heute über gängige grafikkarten längst mit einer kunstfertigkeit, die alles, was man so aus dem umfeld der ernsthaftern bemühungen kennt, völlig in den schatten stellt.

ich geb dir aber insofern recht, als man spätestens, wenn man tatsächlich externe synchonisierung, TC od.ä. studio-anforderungen benötigt, natürlich mit den einfacheren haushaltslösungen nicht mehr das auslangen findet. aber mit derartigen sorgen dürfte ja der TO, wie die meisten anderen, die irgendwann vor dieser frage stehen, in wahrheit gar nicht erst konfrontiert sein.



Antwort von Ulist:

Vielen Dank für eure Antworten. Wenn ich es richtig verstehe, dürfte die Intensity für einen einfachen Arbeitsplatz mit Edius keinen nennenswerten Vorteil bringen. Ich schließe also meinen BM Video Assist als Vorschaubildschirm an den HDMI-Anschluss an und kalibriere alle drei Bildschirme. Mit der Synchronisation von Monitoren muss ich mich zum Glück nicht rumschlagen.



Antwort von matchframe:

Bzgl. Farbraum sehe ich seit HD bzw 4k auch weniger die Probleme.
Problematisch sind aber die Bildwiederholfrequenzen. Ggf auch Halbbilder, falls das in deinen Projekten eine Rolle spielt. Das ist, was Dienstag mit Synchronisationsproblemen meint. Mit denen musst du dich dann nämlich eben doch rumschlagen, wenn du keine Monitoring-Karte hast.

Angenommen du drehst alles selber z.B. in 50p, schneidest es in 50p, exportiertst in 50p, wirst du evtl. zwar Tearing an deiner Videovorschau über Grafikkarte haben, aber es nervt nur beim gucken; dein Endprodukt ist dann trotzdem sauber.

Aber wenn du gemischte Frameraten als Ausgangsmaterial hast (nehmen wir an 50p, 60p und 25p) und daraus z.B. einen Film in 24p schneiden sollst, wirst du nie wissen, ob das Ruckeln von der Grafikkarten-Vorschau kommt, oder vom falschen interpretieren oder interpolieren deines Materials, da die Grafikkarte alles in z.B. 60p wiedergibt. So kann es dazu kommen, dass deine Grafikkarte toll interpoliert, alles flüssig aussieht, aber nach dem Export z.B. beim Kunde oder im Kino ständig ruckelt. Oder wenn du fürs Fernsehen arbeitest, wo meist mit interlaced Material gearbeitet wird, siehst du über die Grafikkarte keine Halbbildfehler.

Das zweite ist natürlich ein denkbar ungünstiges Szenario, und es ist die Frage, ob solche Ausnahmen überhaupt auf dich zukommen würden. Daher würde ich gucken mit welchem Material für welchen Zweck du arbeitest und dich dann für oder gegen eine Videovorschau-Karte entscheiden.

lg



Antwort von mash_gh4:

Angenommen du drehst alles selber z.B. in 50p, schneidest es in 50p, exportiertst in 50p, wirst du evtl. zwar Tearing an deiner Videovorschau über Grafikkarte haben, aber es nervt nur beim gucken; dein Endprodukt ist dann trotzdem sauber.

es gibt zwar in der tat immer wieder computer-monitore, die tatsächlich nur 60fps wiederzugeben vermögen, trotzdem kann ich mich ehrlich gestanden nicht mehr daran erinnern, wann ich das letzte mal tatsächlich irgendwo tearing artifakte praktisch wahrgenommen hätte? es kann schon sein, dass es ein paar ganz besonders problematische programme bzw. programm-betriebssystem-grafikkarten-bildschirm-kombinationen geben könnte, die mit solchen sachen auch im jahre 2018 noch immer nicht vernünftig klar kommen, aber ich würde es heute, wo jeder computer bis zu einem gewissen grad die rolle des fernsehgeräts übernommen hat, für eine ausgesprochene seltenheit halten.

Aber wenn du gemischte Frameraten als Ausgangsmaterial hast (nehmen wir an 50p, 60p und 25p) und daraus z.B. einen Film in 24p schneiden sollst, wirst du nie wissen, ob das Ruckeln von der Grafikkarten-Vorschau kommt, oder vom falschen interpretieren oder interpolieren deines Materials, da die Grafikkarte alles in z.B. 60p wiedergibt. So kann es dazu kommen, dass deine Grafikkarte toll interpoliert, alles flüssig aussieht, aber nach dem Export z.B. beim Kunde oder im Kino ständig ruckelt.

normalerweise orientieren sich schnittprogramme bei der wiedergabe in der vollbildarstellung(!) an der zentralen projektframerate -- genauso, wie das auch alle brauchbaren videoplayer machen.
diese vorgabe wird dann möglichst vernünftig wiedergegeben, so gut es der angeschlossen monitor eben erlaubt -- der ist ja in diesen dingen viel eher die tatsächlich einschränkende komponente.

das geschieht nicht unbedingt direkt in der ursprünglichen wiedergabefrequenz, aber doch in den meisten fällen mit einer möglichst gleichmäßigen vervielfachung der framerate bzw. wiederholung von bildern. im grunde war das aber auch schon bei der mechanischen wiedergabe von analogem film nicht wesentlich anders, wo man ja auch mittels flügelblende die einzelnen kader mehrfach hintereinader projiziert hat, um das flimmern zu vermindern. jedenfalls kann man auch in einem solchen setup die angesprochenen groben unstimmigkeiten zweifellos sofort erkennen.

Oder wenn du fürs Fernsehen arbeitest, wo meist mit interlaced Material gearbeitet wird, siehst du über die Grafikkarte keine Halbbildfehler.

das stimmt natürlich! -- interlaced material und die hingebungsvolle begeisterung für kammartefakte ist wirklich eine ausgesprochen delikate besonderheit, die leider im zuge der stetig voranschreitenden digitalisierung immer mehr vom aussterben bedroht ist. ;)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten und mehr-Forum

Antworten zu ähnlichen Fragen:
Blackmagic Intensity Pro 4K - Preview für den kleinen Geldbeutel
2016: Blackmagic Intensity Pro 4K
Premiere CS5 und Blackmagic Intensity Pro
Frage zur Hardwarelösung Blackmagic Intensity Pro
Blackmagic Intensity Shuttle und Magix Video pro X6
Brauche Hilfe mit der Blackmagic Intensity Pro
Sony Handycam (analog) an Blackmagic Intensity Pro anschließen
Blackmagic Intensity Pro 4k und Adobe Premiere CC - Problem
Test: Blackmagic Design Intensity Pro 4K - laut, aber fair?
Blackmagic Intensity Pro nimmt schwarzes Bild ohen Ton auf
Blackmagic ultrastudio express oder Blackmagic intensity extreme
Mac Pro für HD Editing | Welche Konfiguration sinnvoll?
Blackmagic Design Intensity asynchron in der Vorschau
Blackmagic Intensity Shuttle oder Extreme zur Miete gesucht!!!
Blackmagic Intensity Shuttle USB 3.0 unter VirtualDub 1080i / 1080p capture
Intensity Pro Code 52 Schnittstellensignatur kaputt (?)
4K Kontrollmonitor für Schärfe
DIY Telecine: HDMI Stream Frame capture mit Intensity Pro?
Günstiger 5,7 Zoll Kontrollmonitor für 199,-
i7 übertakten für Schnitt sinnvoll??
VLog-L für FZ2000 sinnvoll?
Blackmagic: Fernsteuerung per Bluetooth für URSA Mini Pro // NAB 2017
Grafikkarten-Update für 100-150€ sinnvoll?
Filterlösungen für RED Kameras (Welche Filter sinnvoll? Wie montieren?)
Günstiger Kontrollmonitor
Röhren-Kontrollmonitor in Rente schicken?

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
Nero
News
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
28. Juni - 7. Juli / München
Filmfest München
19-22. Juli / Ludwigsburg
NaturVision Filmfestival
16-18. August / Weiterstadt
Open Air Filmfest Weiterstadt
12-16. September / Oldenburg
Internationales Filmfestival Oldenburg
alle Termine und Einreichfristen