Frage von Maze:Wir haben vor, uns demnächst einen 24" Bildschirm als provisorischen Schnittbildschirm zu kaufen, da ja die meisten 24 Zoller 1920x1200 haben. Wie muss ich mir das jedoch vorstellen?
1. Kann man eine vorhandene 50hz Unterstützung nur über einen bestimmten Anschluss nutzen (wie etwa HDMI Eingang) und ist es überhaupt sinnvoll wenn man über DVI angeschlossen ist?
2. Macht es im Workflow einen Unterschied ob man den Bildschirm über die Grafikkarte ansteuert, oder ob man eine Videokarte wie z.b. Blackmagic benutzt?
Und noch eine Allgemeine Frage: Werden bei Programmen wie Final Cut oder After Effects, wenn die Vorschau auf 100% Größe eingestellt ist, die wirkliche Bildgröße 1:1 angezeigt, oder wird da intern mit irgendwelchen Skalierer Funktionen irgendwas generiert.
Entschuldigt mein Unwissen, ich bedanke mich im Voraus.
Antwort von PowerMac:
Am besten eine Intensity Pro von Blackmagic nutzen. Grafikkarten verpfuschen und verdrehen das Signal.
Antwort von weitwinkel:
Am besten eine Intensity Pro von Blackmagic nutzen. Grafikkarten verpfuschen und verdrehen das Signal.
ja aber am besten mit FinalCut da die Unterstützung von CS4 mehr als
dürftig sein soll:
http://www.videotreffpunkt.com/thread.p ... post139372
gruß cj
ps. Edius5 mit der HD-Storm wäre eine weitere Alternative...
Antwort von LarsProgressiv:
Hallo PowerMac,
das:
Grafikkarten verpfuschen und verdrehen das Signal.
halte ich bei einem digital angeschlossenen Monitor (DVI oder HDMI) für großen Quatsch.
Digitale an die Grafikkarte gesendete Signale werden auch so auf den Digitalen Bildschirm angezeigt, wenn die Auflösung übereinstimmt. Höchstens der Monitor verfälscht das Bild dabei. Und dann kommt es nicht mehr darauf an, woher das digitrale Signal kam.
Grüße
Lars
Antwort von Maze:
das hatte ich auch gedacht, das es keinen unterschied macht.
weiss noch jemand etwas zu der 50hz technik? inwiefern kommt die zum tragen. hat sie überhaupt einen einfluss wenn man den bildschirm über dvi ansteuert oder ist sie auf anschlüsse wie hdmi begrenzt.
Antwort von LarsProgressiv:
Hallo Maze,
ganz verstehe ich die Frage nach den 50Hz nicht.
Aber HDMI (Version sowieso) und DVI (Version sowieso) Signale sind auf der Videoseite digital und elektrisch identisch. Es gibt Adapter, die von dem einen Steckerformat auf das andere adaptieren.
Entweder kann der Monitor die 50Hz darstellen oder nicht. Das wird bei der einleitenden Kommunikation zwischen Monitor und dem bildgebenden Gerät ausgehandelt.
Viele Monitore haben einen Eingangsignalbereich von 40-85 Hz Bildfrequenz.
Leider betrifft das nur die Eingangselektronik des Monitors, mit welcher Frequenz er dann die Pixel auf der Bildfläche anpasst ist davon relativ unabhängig und herstellerabhängig. Aber normalerweise bekommt man das außer mit teuren Messaufbauten nicht heraus.
Viel Spaß.
Lars
Antwort von PowerMac:
Hallo PowerMac,
das:
Grafikkarten verpfuschen und verdrehen das Signal.
halte ich bei einem digital angeschlossenen Monitor (DVI oder HDMI) für großen Quatsch.
Digitale an die Grafikkarte gesendete Signale werden auch so auf den Digitalen Bildschirm angezeigt, wenn die Auflösung übereinstimmt. Höchstens der Monitor verfälscht das Bild dabei. Und dann kommt es nicht mehr darauf an, woher das digitrale Signal kam.
Grüße
Lars
Leider ist das Quark und zeigt, dass du wenig Ahnung hast.
Einmal ist Video YCbCr, Computer arbeiten aber in RGB. Bei der Wandlung von Videosignalen zu RGB-Signalen muss umgerechnet werden. Die Farben sind aber nicht klar, eine Grafikkarte rechnet irgendwie um, eine Videokarte gibt schlicht das YCbCr-Signal aus. Weiter beeinflusst bei einer Grafikkarte ob sie kalibriert ist , denn per Software werden allerlei Kurven, Kontraste und vor allem GAMMA-Werte, verdreht. Die LUT-Tables einer Grafikkarte verpfuschen eben. Lieber gibt man das reine Videobild aus und kalibriert den Monitor per Hardware.
Antwort von LarsProgressiv:
Hallo PowerMac,
leider muss ich Dir widersprechen. Computer arbeiten nicht automatisch mit/in RGB. Das hängt vom Programm ab, ob das so ist. Jedenfalls unter Linux. Ob unter Windows oder OS-X das auch so ist, weiß ich nicht. Wenn die Grafikkarte es kann (und die fast alle können das) im YCbCr-Raum arbeiten kann und der Monitor auch, ist keine Umrechnung notwendig.
Mein Monitor kann:
Supported color encodings: RGB 4:4:4 YCrCb 4:4:4
meine Grafikkarte kann:
id: 0x41424752 (RGBA)
id: 0x54424752 (RGBT)
id: 0x32424752 (RGB2)
id: 0x32595559 (YUY2)
id: 0x59565955 (UYVY)
id: 0x32315659 (YV12)
id: 0x30323449 (I420)
Es ist eine:
02:07.0 VGA compatible controller: ATI Technologies Inc RV280 (rev 01)
Somit kann meine Grafikkarte auch direkt in YCbCr mit meinem Monitor reden, wenn es denn mein Programm so will.
Ob eine Grafikkarte eine Gammakorrektur oder eine andere (Farb-)Anpassung anwendet oder nicht hängt wiederum von der Anwendung ab. Jezt kommt es also auf die Qualität der Programme Final Cut oder After Effects an.
Es ging Maze um einen Schnittbildschirm. Deshalb ging ich davon aus, dass er an einem Programm arbeitet und das von diesem generierte Bild/Video auf einem Full-HD Monitor ausgeben möchte.
Wozu bräuchte er also diese Blackmagic Intensity Karte? Er möchte ja nichts per HDMI aufnehmen, oder doch? Maze?
Die LU-Tabellen werden meist in den Grafiktreibern initialisiert. Das ist jedoch nur sinnvoll für analog angeschlossene Monitore. Heutzutage sind diese Tabellen eher Hersteller- oder bzw. Panelabhängig und in den Flachbildschirmen umgesetzt.
Grüße
Lars
Antwort von WideScreen:
Hi Maze.
Glaube jetzt weißt du noch weniger als am Anfang, oder? :)
Also ich benutze nen Rechner mit 2x 1920x1080er Monitoren. Den einen habe ich als Videoausgabe Montior eingestellt. Der zeigt das Bild im Vollbild Modus an. Beide hängen an einer Grafikkarte via DVI. Wenn ich fertig bin und Helligkeit und Farbe nochmal kontrolliere dann nutze ich in der Tat die Blackmagic und nen externen Monitor mit HDSDI, der aber nicht immer angeschlossen ist, da ich den beim Dreh auch dabei habe.
Farbkorrekturen im eigentlichen Sinne mache ich aber nicht, da mir ein richtiger Referenzmonitor im Moment zu teuer ist, und das auch nicht verlangt wird.
Performancetechnisch ist aber die Ausspielung via Blackmagic deutlich vorteilhafter als der 2. Monitor via dvi.
Antwort von Maze:
nein, ich bin grundsätzlich auf einem guten wissenstand in dem bereich videosignale, allerdings ist der bereich pc monitor als vollbild schnittmonitor zu nutzen für mich neu und ich weiss nicht wie sich das alles verhält. mir wurde mit den letzten posts schon gut geholfen. die ganz grosse frage ist, wie wichtig ist diese 50hz unterstützung beim schnitt bzw. ausgabe über dvi.
gilt die 50hz unterstützung nur für externe videogeräte.
Was ich meine ist: Wenn ich zum Beispiel auf meinem ganz normalen Bildschirmen 19" TFTs schneide, habe ich auch keine 50hz Unterstützung und es sieht trotzdem alles normal aus.
Antwort von LarsProgressiv:
Hallo Maze,
anders als bei Röhrenmonitoren oder Projektoren sind die Wiederholfrequenzen bei LCD und Polymeranzeigen die Bildwiderholfrequnzen nur eine obere Grenze. Ansonten werden die Bilder immer nur aktualisiert,
_ohne_ Hell-Dunkel-Phase zu durchlaufen. Deshalb kann ein Videosignal mit einer geringeren als der eingestellten Synchronisierfrequenz immer ohne die Nebenwirkungen wie bei der Röhrentechnik ausgegeben werden.
Also:
LCD synchronisiert mit 60Hz
=> Videomaterial mit bis zu 60Hz kein Problem
=> für 50Hz Material geeignet
Grüße
Lars