Frage von Wedding_HDV:Benutzt schon jemand einen Fernsehgerät als Schnitt-Monitor? Was sind mögliche Vor- und Nachteile? Ich habe es vor einen FULL HD SONY KDL-32EX402
Technische Daten hier:
http://www.sony.de/product/t32-ex-serie ... nicalSpecs
an den Rechner per HDMI anzuschließen und meine beide 22" Monitore zu verkaufen.
Geht das? Ich meine, das geht schon, aber welche Vor- und Nachteile werde ich möglicherweise haben?
Antwort von srone:
prinzipiell is das möglich, du solltest dir aber darüber im klaren sein, daß bei vielen der neueren hdtv-modelle overscan wieder einzug gehalten hat, dh keine pixelgenaue darstellung und der randbereich fehlt. darauf würde ich auf jeden fall vor anschaffung achten.
lg
srone
Antwort von Wedding_HDV:
Da es kein Kontrollmonitor sondern ein Schnittmonitor sein soll, wird Overscan wahrscheinlich keine Probleme bereiten, da ich das Videomaterial in den Beiden Quellmonitoren betrachten werde. Die Sicherheitsbereiche kann ich auch einblenden.
Worauf soll ich da genau achten, Welche Angabe soll es in der Beschreibung zu finden sein? Eigentlich habe ich mich bereits für das oben Genannte Model entschieden.
Antwort von srone:
du willst einen fernseher mit (evt) overscan, als computer-ersatzbildschirm benutzen?
na dann viel spass beim suchen der task bzw menuleiste, die ist dann nämlich weg.
so ein fernseher taugt nur dann als computerersatz wenn er kein overscan hat, sonst ist er allenfalls als vollbild(? overscan)- vorschau zu nutzen.
ansonsten wäre der dargestellte farbraum ein kriterium, schaue doch mal bei prad.de, die machen recht gute tests.
lg
srone
Antwort von domain:
Ich verwende einen Sony 40W2000 als Schnittmonitor, keine Probleme, pixelgenaue Darstellung. Bei einem erst unlängst angeschlossenen LG 32" funktionierte die Windows-Darstellung im Full-Format aber nicht mehr.
Ich kann dir nur den Rat geben, mit einem Notebook in einen Markt zu gehen und das konkret vor Ort zu testen. Alles andere ist ein Lotteriespiel.
Antwort von tommyb:
Solange der Fernseher HDMI als Eingang und die Grafikkarte einen HDMI-Ausgang hat, ist pixelgenaue Darstellung kein Problem.
Nur sollten beide System mit HDCP klar kommen und dieser blöde Handshake sollte nach Möglichkeit auch vernünftig klappen, sonst bleibt das Bild beim Aufwachen des Rechners aus Standby schwarz (hilft nur Stecker raus, Stecker rein).
Ganz funktionieren Grafikkarten von ATI über HDMI - bei Nvidia Karten habe ich bisweilen immer Problem mit so ziemlich allem gehabt (Handshake, fehlender Ton, etc.).
Antwort von Wedding_HDV:
Den Fernseher habe ich bereits bestellt, Morgen bzw. Übermorgen ist er hier, dann kann ich alles ausprobieren. Hoffentlich klappt alles, wenn nicht, sende ich das Teil wieder zurück - das ist das Schöne am Online Kaufen.
Leider hat meine Grafikkarte nur zwei DVI Ausgänge. So muss ich mit einem Adaptor DVI-HDMI arbeiten. Hoffentlich wird es funktionieren.
Vielen Dank für eure Antworten. Wenn ich alles ausprobiert habe, schreibe ich hier die Ergebnisse.
Antwort von beiti:
Solange der Fernseher HDMI als Eingang und die Grafikkarte einen HDMI-Ausgang hat, ist pixelgenaue Darstellung kein Problem. Schön wär's. Aber leider sehen einige Hersteller das anders.
Kleiner Tipp: Es gibt zwei offizielle Logos für Mindeststandards. Das ältere Logo "HD Ready" garantiert relativ wenig, während das neuere Logo "HD Ready 1080p" unter anderem die Vollbilddarstellung bis 60 Hz und die Möglichkeit der pixelgenauen Darstellung (d. h. ohne Overscan) verlangt.
Also wenn "HD Ready 1080p" draufsteht, taugt ein Fernseher auch als Computermonitor.
Vorsichtig sein muss man mit nicht-offiziellen Logos wie "Full HD". Das sagt im Grunde nur, dass das Panel 1920x1080 Pixel auflöst, aber dies allein ist noch relativ witzlos. Im Fall des verlinkten Sony-Fernsehers kommt ein Logo "Full HD 1080" (mit "Full HD" statt "HD Ready" und ohne den Buchstaben p) zum Einsatz, das kein offizieller Standard ist, und das mich stutzig macht. Ich ahne Böses, was die Sache mit dem Overscan angeht.
Leider hat meine Grafikkarte nur zwei DVI Ausgänge. So muss ich mit einem Adaptor DVI-HDMI arbeiten. Hoffentlich wird es funktionieren. Das ist Dein kleinstes Problem. Die Adaptierung von HDMI auf DVI klappt problemlos. Allerdings gibt es keine Garantie, dass der Fernseher computermäßige 60p-Signale in 1920x1080 annimmt.
Und selbst das nutzt Dir nicht viel, wenn der Fernseher das Bild auf Overscan hochskaliert. Es geht ja nicht nur um den Wegfall der Randbereiche, sondern auch um eine Verschlechterung der Darstellungsschärfe aufgrund der Umskalierung; kleinere Computerschriften werden dadurch unlesbar.
Antwort von tommyb:
Also mein Sony KDL 40 W 3000 hat keine Probleme mit den Signalen (max 1080p60) - nur der Handshake funktionierte teilweise nicht vernünftig in Verbindung mit HDMI Audio und ATI (noch mit den Catalyst 9.3 - mitlerweile könnte es schon anders sein).
Antwort von PeterM:
Ich frag mich ob das alles wirklich sinnvoll ist.
Selbst wenn man durch testen alle Schniitstellenproblme overscan handshake und so weiter im griff hat, sellt sich für mich ein anderes Problem.
Kleine LCD Fernseher z.B 32 zoll sind meist billig mainstream ware und kommen qualitativ nicht an 24 oder 26 Zoll Monitore ran. Hinzu kommt das die billigen TV keine wirklichen Kalibiermöglichkeiten haben.
Hochwertige Tv"s z.B mit RGB LED oder bei verringertem Farbraum Weiss RGB aber mit Kalibriemöglichkeit fangen meist bei 46 Zoll an und kosten dann auch einiges.
46 Zöller oder gar grössere finde ich aber als Computermomitor einfach z gross. Hinzu kommt das ich eh als Computermonitore 16 zu 9 Monitore grauenvoll finde. meines Erachtens eine ähnliche Unsitte wie die Glossy Bildschirme in Notebooks.
Antwort von tommyb:
Warum findest Du denn deinen 16:9 Monitor grauenvoll? Weil er zu breit ist? Die breite macht schon gehörig Spaß wenn man die Timeline schön in die Länge ziehen kann oder die Excel-Tabelle komplett im Blick hat.
Ansonsten ist es immer nur die Frage wie weit man vom Monitor entfernt sitzt. Sicherlich macht es nicht unbedingt Sinn sich einen 46" TV direkt vor die Nase zu setzen mit einem Abstand von 50cm (außer man hat eine stark ausgeprägte Sehschwäche) - aber es gibt auch Leute die einen größeren Abstand zum Monitor pflegen und dann würde ein 46er wieder Sinn machen...
Antwort von domain:
Die großen LCD-TVs als Monitor verwendet sind schon eine feine Sache. Ich sitze ca. 1 m vor dem 40-Zöller. Bei dem Abstand kann man schon keine Pixel mehr erkennen. Zwei Tage Gewöhnung und alles passt. Den Ton kann man aber bei TVs grundsätzlich vergessen. Läuft bei mir immer über spezielle Soundanlagen, auch am Schneidetisch.
Der Witz bei den TV-Monitoren ist ja, dass man mit ihnen auch Fernsehen kann und so einen Eindruck vom TV-Kontent in der Kontrast- und Farbabstimmung im Vergleich zu den eigenen Videos von Haus aus bekommt.
Bei Liquid und PS gibt es ja praktisch keinen Unterschied zwischen Vorschaubild im NLE und später rausgerendertem Video, außer dass dieses im NLE nur mit 25 fps läuft. Ein Klick und die Vorschau ist auf den gesamten Bildschirm aufgezogen und macht bereits fast den Eindruck des späteren Videos und zur persönlichen Eichung sieht man zwischendurch immer wieder mal fern.
Antwort von beiti:
Hinzu kommt das ich eh als Computermonitore 16 zu 9 Monitore grauenvoll finde. Finde ich auch. 16:9 ist definitiv nicht breit genug, um bequem zu schneiden. So ein Philips-Cinema-LCD in 21:9 mit 2560 x 1080 Pixeln wäre gerade richtig. Da hätte man neben den beiden Vorschauen genug Platz für Effektpaletten, Bin usw., und darunter eine schön lange Timeline. :)
Antwort von srone:
Hinzu kommt das ich eh als Computermonitore 16 zu 9 Monitore grauenvoll finde. Finde ich auch. 16:9 ist definitiv nicht breit genug, um bequem zu schneiden. So ein Philips-Cinema-LCD in 21:9 mit 2560 x 1080 Pixeln wäre gerade richtig. Da hätte man neben den beiden Vorschauen genug Platz für Effektpaletten, Bin usw., und darunter eine schön lange Timeline. :)
bevorzuge klar 16:10 monitore,weil mir der platz von oben nach unten zu eng würde bei nur 1080 pixeln.
momentane fläche 3520x1200 veteilt auf 4:3 röhre + 16:10 röhre= schreibtisch voll.;-)
lg
srone
Antwort von domain:
Vielleicht sollte man noch erwähnen, dass ein handelsübliches LCD-TV-Gerät nicht so ohne weiteres als Monitor verwendet werden kann. Meist ist die Hintergrundbeleuchtung zu stark und außerdem müssen einige Justierungen vorgenommen werden, sonst stimmt das Gamma für Windows einfach nicht.
Beim 40W2000 war ein Teil der Einstellungen nur über das Service-Menü durchführbar, von den Justierungen in ATI-Catalyst ganz zu schweigen.
Letzten Endes aber stimmt alles weitgehend, auch der schön gleichmäßige Verlauf des Graukeiles. Im Bell Nuit -HD-Testchart
http://www.belle-nuit.com/download/testchart.tif
muss das Feld 251 noch von 255 und das Feld 20 noch vom Feld 12 zu unterscheiden sein.
Ihr könnt ja mal schnell dieses Tiff-Bild anklicken bzw. herunterladen und euren Monitor daraufhin überprüfen. Bei meinem 24" Dell-Monitor, vor dem ich gerade sitze, kann ich das Feld 251 von 255 z.B. nicht unterscheiden, da stimmt was nicht, muss ich mal nachjustieren :-)
Antwort von tommyb:
bevorzuge klar 16:10 monitore,weil mir der platz von oben nach unten zu eng würde bei nur 1080 pixeln.
momentane fläche 3520x1200 veteilt auf 4:3 röhre + 16:10 röhre= schreibtisch voll.;-)
lg
srone
Dann leg doch einen deiner Monitore auf die Seite für "hochkant"-Betrieb :P
(ohne Scheiss, nutze ich selbst und es ist toll)
Antwort von srone:
bin ja mit 1200 px höhe soweit zufrieden, was mich nur stört ist daß die full-hd auflösung bei computer monitoren einzug gehalten hat und die praxisgerechtere auflösung von 16:10 1920x1200 verdrängt hat, imo ein rückschritt, auch die stagnation der entwicklung auf dieser auflösung ist wenig befriedigend und hält mich im moment noch vom umstieg auf lcds ab.
lg
srone
Antwort von beiti:
auch die stagnation der entwicklung auf dieser auflösung ist wenig befriedigend Es gibt doch auch schon 30-Zöller mit 2560 x 1600 Pixeln, also eine deutliche Steigerung der Auflösung und wieder 16:10. Kosten halt noch ein wenig Geld...
Antwort von srone:
auffällig ist, daß 17zoll laptops mittlerweile auch eine full-hd auslösung besitzen,
der bereich zwischen 23-27zoll jedoch bei full hd hängengeblieben ist.
@beiti ja 2 stck davon, einer wäre ja auch schon wieder weniger wie vorhanden, wär ein traum, wenn bezahlbar.
lg
srone
Antwort von Wedding_HDV:
Also, das Fernsegerät ist gerade eben angekommen. Da ich noch keinen DVI -> HDMI Kabel habe (bereits bestellt) habe ich es mit einem DVI -> VGA Kabel angeschlossen. Mein Rechner wurde problemlos erkannt. Die Darstellung ist identisch wie mit meinem alten 22" Monitor. Bis jetzt bin ich zufrieden.
Frage: Welche Vorteile habe ich, wenn ich das DVI -> HDMI Kabel verwende, wenn VGA ohnehin die höchstmögliche Auflösung von 1920x1080 ausgibt? Werde ich da einen Unterschied merken wenn ich HDMI benutze?
Antwort von domain:
Da wirst du keinen Unterschied bemerken, weil ja nur die ganz alten VGA-Anschlüsse noch analog funktionierten.
Antwort von tommyb:
Also wenn ich auch die heutigen Geräte über VGA verbinde, dann sieht man gerade an Stellen wo hohe Kontraste auftreten ein verschmieren der Linien. Sieht man besonders gut bei schwarzem Text auf weißem Hintergrund (sehr verwaschen).
Auch die Darstellung von bewegtbildern erscheint matschig. Von daher würde ich von VGA eher abraten. Mit DVI/HDMI hat man da definitiv ein knackigeres Bild.
Antwort von Wedding_HDV:
Vielen Dank für eure Antworten! Dann warte ich halt auf mein Kabel, aber mit VGA sieht es jetzt schon super aus!