Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Infoseite // Blackmagic Intensity Pro für Kontrollmonitor sinnvoll?



Frage von Ulist:


Vor kurzem hat mir jemand erklärt, dass zur Beurteilung eines Videos am Schnittrechner zwingend eine zusätzliche Videokarte, z.B. die Blackmagic Intensity Pro 4k erforderlich sei, weil die, im Gegensatz zur (bei mir) bereits vorhandenen Nvidia Karte, über den HDMI-Ausgang das Signal als YUV und nicht als RGB ausgibt. Ich sollte also meinen Blackmagic Video Assist 4k über die Karte als Kontrollmonitor anschließen, weil ich nur so das Bild richtig beurteilen kann. Ist das sinnvoll oder kann ich mir das Geld für die Intensity Pro sparen?

Danke schon mal für eure Hinweise
Ulist

Space


Antwort von Bruno Peter:

Ich nutze den VGA-Ausgang der Intel-Graphics 530 meiner CPU an dem ein HDTV hängt
so sehe ich ganz genau wie das Video auf einem TV aussieht!

Die VGA -Wiedergabe auf TV-Dislays funktioniert heutzutage einwandfrei bis zu einer
Display-Auflösung von 2048 x 1536 Bildpunkten.

Space


Antwort von mash_gh4:

"Bruno Peter" hat geschrieben:
Ich nutze den VGA-Ausgang der Intel-Graphics 530 meiner CPU an dem ein HDTV hängt
so sehe ich ganz genau wie das Video auf einem TV aussieht!
freut mich, dass wider erwarten, eine ausgesprochen vernünftige antwort den anfang macht! :)

in wahrheit ist die sache aber ziemlich kompliziert.

es hängt sehr sehr stark von der verwendeten software ab, wie weit man auch ohne eine solche karte brauchbare ausgaben erhält. viele programme nehmen auch ohne solche zusatzhardware die entsprechenden anpassungen an fernsehsausgabestandards ganz korrekt in der software vor bzw. rechnen sie sauber auf die erwartungen typischer computerbildschirme um (rec709->sRGB gama korrektur). andere programme dagegen erzwingen fast, dass man solche karten nuzt, weil sie auf anderem weg keine vernünftige laufende vollbilddarstellung erlauben od. eben die nötigen adaptierungen zur korrekten bildbeurteilung in der vorschau auf computerbildschirmen nicht in befriedigender weise anbieten.

ob die daten dann letztlich in RGB od YCbCr übertragen werden, spielt eigentlich keinen nennenswerte rolle -- außer natürlich, dass manche monitore nur eine der beiden varianten unterstützen. viel wichtiger ist es, dass die ausgabebildschirme bzw. alle komponenten der ausgabekette vernünftig kalibriert sind! letzteres halte ich tatsächlich für unerläßlich -- hat aber im grunde auch wieder nichts mit diesen karten zu tun.

derartige dedizierte ausgabe-hardware macht natürlich vor allem dort sinn, wo man es tatsächlich mit typischem studiogerät zu tun hat, das SDI-eingänge benutzt. dort wird man in der regel ganz selbstverständlich zu solchen ausgabemitteln greifen. dagegen macht es in meinen augen überhaupt keinen sinn, wenn man solche karten zusammen mit einer ganzen kette an weiteren nötigen adaptern nutzt, nur um dann letztlich ein signal an einen verhältnismäßig billigen monitor zu übergeben, wie man es über den display port anschluss einer grafikkarte od. der intel iGPU genauso bereitstellen hätte können.

die intensity pro in ihrer USB variante halte ich übrigens für eine ganz besonders problematische lösung, die unter linux gar nicht unterstützt wird, aber auch auch auf den anderen systemen deutlich mehr probleme als vergleichbare PCI-karten mit sich bringt. von der würde ich dir also wirklich unbedingt abraten.

Space


Antwort von cantsin:

"Bruno Peter" hat geschrieben:
Ich nutze den VGA-Ausgang der Intel-Graphics 530 meiner CPU an dem ein HDTV hängt
so sehe ich ganz genau wie das Video auf einem TV aussieht!
Bei allem Respekt, aber ein digitales Signal (Computer) in ein analoges Signal (VGA) zu wandeln, um es dann durch Dein Flatscreen-TV wieder in ein digitales Signal wandeln zu lassen, scheint mir keine gute Idee...

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
Bei allem Respekt, aber ein digitales Signal (Computer) in ein analoges Signal (VGA) zu wandeln, um es dann durch Dein Flatscreen-TV wieder in ein digitales Signal wandeln zu lassen, scheint mir keine gute Idee...
dem kann ich leider nur zustimmen. VGA-verbindungen würde ich heute natürlich auch nicht mehr verwenden, wo immer es auch anders geht. das betrifft aber natürlich ganz normale computerarbeitsplätze in gleicher weise.

HDMI und DVI -- was ja technisch gesehen ja ohnehin auf fast das selbe hinausläuft -- ist da schon deutlich zeitgemäßer. damit gibt's dann halt immer wieder ziemliche probleme, wenn man 10bit farbtiefe oder höhere bildwiederholraten bei großer auflösung übertragen will. so gesehen ist wohl display port, wo diese einschränkungen nicht zutreffen, meist die beste lösung zur anbindung von computermonitoren, so lange es auf beiden seiten zur verfügung steht.

Space


Antwort von dienstag_01:

Die Verwendung von speziellen Karten fürs Videomonitoring hat ja auch einen Grund in der optimalen Synchronisation von Videosignalen. Tearing heisst der Effekt, den es ansonsten oft zu sehen gibt ;)

Space


Antwort von mash_gh4:

dienstag_01 hat geschrieben:
Die Verwendung von speziellen Karten fürs Videomonitoring hat ja auch einen Grund in der optimalen Synchronisation von Videosignalen. Tearing heisst der Effekt, den es ansonsten oft zu sehen gibt ;)
ja -- ich würde auch sagen, dass die ganzen timing spezifischen fragen in wahrheit schwieriger in den griff zu bekommen sind als einfach nur korrekte farben zu übertragen.

wie gut das dann in der praxis tatsächlich funktioniert, hat aber leider auch wieder sehr viel mit den fähigkeiten der verwendeten monitore und der technischen umsetzung in den benutzten anwendungen zu tun.

im prinzip ist es zumindest im full screen ausgabemodus ziemlich einfach die wiedergabefrequenz anzupassen. bei typischen film frame raten und den einschränkungen vieler computermonitore ist es dazu oft auch nötig, bildwiederholungen einzufügen... irgendwelche idiotischen ballerspiele lösen derartige probleme heute über gängige grafikkarten längst mit einer kunstfertigkeit, die alles, was man so aus dem umfeld der ernsthaftern bemühungen kennt, völlig in den schatten stellt.

ich geb dir aber insofern recht, als man spätestens, wenn man tatsächlich externe synchonisierung, TC od.ä. studio-anforderungen benötigt, natürlich mit den einfacheren haushaltslösungen nicht mehr das auslangen findet. aber mit derartigen sorgen dürfte ja der TO, wie die meisten anderen, die irgendwann vor dieser frage stehen, in wahrheit gar nicht erst konfrontiert sein.

Space


Antwort von Ulist:

Vielen Dank für eure Antworten. Wenn ich es richtig verstehe, dürfte die Intensity für einen einfachen Arbeitsplatz mit Edius keinen nennenswerten Vorteil bringen. Ich schließe also meinen BM Video Assist als Vorschaubildschirm an den HDMI-Anschluss an und kalibriere alle drei Bildschirme. Mit der Synchronisation von Monitoren muss ich mich zum Glück nicht rumschlagen.

Space


Antwort von matchframe:

Bzgl. Farbraum sehe ich seit HD bzw 4k auch weniger die Probleme.
Problematisch sind aber die Bildwiederholfrequenzen. Ggf auch Halbbilder, falls das in deinen Projekten eine Rolle spielt. Das ist, was Dienstag mit Synchronisationsproblemen meint. Mit denen musst du dich dann nämlich eben doch rumschlagen, wenn du keine Monitoring-Karte hast.

Angenommen du drehst alles selber z.B. in 50p, schneidest es in 50p, exportiertst in 50p, wirst du evtl. zwar Tearing an deiner Videovorschau über Grafikkarte haben, aber es nervt nur beim gucken; dein Endprodukt ist dann trotzdem sauber.

Aber wenn du gemischte Frameraten als Ausgangsmaterial hast (nehmen wir an 50p, 60p und 25p) und daraus z.B. einen Film in 24p schneiden sollst, wirst du nie wissen, ob das Ruckeln von der Grafikkarten-Vorschau kommt, oder vom falschen interpretieren oder interpolieren deines Materials, da die Grafikkarte alles in z.B. 60p wiedergibt. So kann es dazu kommen, dass deine Grafikkarte toll interpoliert, alles flüssig aussieht, aber nach dem Export z.B. beim Kunde oder im Kino ständig ruckelt. Oder wenn du fürs Fernsehen arbeitest, wo meist mit interlaced Material gearbeitet wird, siehst du über die Grafikkarte keine Halbbildfehler.

Das zweite ist natürlich ein denkbar ungünstiges Szenario, und es ist die Frage, ob solche Ausnahmen überhaupt auf dich zukommen würden. Daher würde ich gucken mit welchem Material für welchen Zweck du arbeitest und dich dann für oder gegen eine Videovorschau-Karte entscheiden.

lg

Space



Space


Antwort von mash_gh4:

matchframe hat geschrieben:
Angenommen du drehst alles selber z.B. in 50p, schneidest es in 50p, exportiertst in 50p, wirst du evtl. zwar Tearing an deiner Videovorschau über Grafikkarte haben, aber es nervt nur beim gucken; dein Endprodukt ist dann trotzdem sauber.
es gibt zwar in der tat immer wieder computer-monitore, die tatsächlich nur 60fps wiederzugeben vermögen, trotzdem kann ich mich ehrlich gestanden nicht mehr daran erinnern, wann ich das letzte mal tatsächlich irgendwo tearing artifakte praktisch wahrgenommen hätte? es kann schon sein, dass es ein paar ganz besonders problematische programme bzw. programm-betriebssystem-grafikkarten-bildschirm-kombinationen geben könnte, die mit solchen sachen auch im jahre 2018 noch immer nicht vernünftig klar kommen, aber ich würde es heute, wo jeder computer bis zu einem gewissen grad die rolle des fernsehgeräts übernommen hat, für eine ausgesprochene seltenheit halten.
matchframe hat geschrieben:
Aber wenn du gemischte Frameraten als Ausgangsmaterial hast (nehmen wir an 50p, 60p und 25p) und daraus z.B. einen Film in 24p schneiden sollst, wirst du nie wissen, ob das Ruckeln von der Grafikkarten-Vorschau kommt, oder vom falschen interpretieren oder interpolieren deines Materials, da die Grafikkarte alles in z.B. 60p wiedergibt. So kann es dazu kommen, dass deine Grafikkarte toll interpoliert, alles flüssig aussieht, aber nach dem Export z.B. beim Kunde oder im Kino ständig ruckelt.
normalerweise orientieren sich schnittprogramme bei der wiedergabe in der vollbildarstellung(!) an der zentralen projektframerate -- genauso, wie das auch alle brauchbaren videoplayer machen.
diese vorgabe wird dann möglichst vernünftig wiedergegeben, so gut es der angeschlossen monitor eben erlaubt -- der ist ja in diesen dingen viel eher die tatsächlich einschränkende komponente.

das geschieht nicht unbedingt direkt in der ursprünglichen wiedergabefrequenz, aber doch in den meisten fällen mit einer möglichst gleichmäßigen vervielfachung der framerate bzw. wiederholung von bildern. im grunde war das aber auch schon bei der mechanischen wiedergabe von analogem film nicht wesentlich anders, wo man ja auch mittels flügelblende die einzelnen kader mehrfach hintereinader projiziert hat, um das flimmern zu vermindern. jedenfalls kann man auch in einem solchen setup die angesprochenen groben unstimmigkeiten zweifellos sofort erkennen.
matchframe hat geschrieben:
Oder wenn du fürs Fernsehen arbeitest, wo meist mit interlaced Material gearbeitet wird, siehst du über die Grafikkarte keine Halbbildfehler.
das stimmt natürlich! -- interlaced material und die hingebungsvolle begeisterung für kammartefakte ist wirklich eine ausgesprochen delikate besonderheit, die leider im zuge der stetig voranschreitenden digitalisierung immer mehr vom aussterben bedroht ist. ;)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Hardware: Schnittrechner, Grafikkarten, Schnittkarten, Mischer und mehr-Forum

Antworten zu ähnlichen Fragen //


TV Kontrollmonitor an Grafikkarte
Blackmagic Intensity shuttle thunderbold oder Canopus ADVC
Intensity Pro Treiber?
Intensity Pro 4K - kein Bild
Läuft BM Intensity Pro 4K in externem Gehäuse
Aussetzer bei Intensity Shuttle Thunderbolt...
Welche Neat Video Lizenz ist für mich sinnvoll?
Ist Fernsehen für Hunde Sinnvoll ?
Externe Festplatte für DV-Schnitt sinnvoll?
Welches Objektiv ist hier sinnvoll?
Sony 20mm/2.8 zum 10-18 4.0 sinnvoll?
Orchester-Video: Hochkant mal in sinnvoll
"Mit maximaler Tiefe rendern" sinnvoll
Welche Bitrate bei Videos ist sinnvoll?
Spielfilmprojekt mit 8-Bit Kamera - heutzutage noch sinnvoll?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash