freut mich, dass wider erwarten, eine ausgesprochen vernünftige antwort den anfang macht! :)Bruno Peter hat geschrieben: ↑Mo 21 Mai, 2018 19:23 Ich nutze den VGA-Ausgang der Intel-Graphics 530 meiner CPU an dem ein HDTV hängt
so sehe ich ganz genau wie das Video auf einem TV aussieht!
Bei allem Respekt, aber ein digitales Signal (Computer) in ein analoges Signal (VGA) zu wandeln, um es dann durch Dein Flatscreen-TV wieder in ein digitales Signal wandeln zu lassen, scheint mir keine gute Idee...Bruno Peter hat geschrieben: ↑Mo 21 Mai, 2018 19:23 Ich nutze den VGA-Ausgang der Intel-Graphics 530 meiner CPU an dem ein HDTV hängt
so sehe ich ganz genau wie das Video auf einem TV aussieht!
dem kann ich leider nur zustimmen. VGA-verbindungen würde ich heute natürlich auch nicht mehr verwenden, wo immer es auch anders geht. das betrifft aber natürlich ganz normale computerarbeitsplätze in gleicher weise.
ja -- ich würde auch sagen, dass die ganzen timing spezifischen fragen in wahrheit schwieriger in den griff zu bekommen sind als einfach nur korrekte farben zu übertragen.dienstag_01 hat geschrieben: ↑Mo 21 Mai, 2018 21:55 Die Verwendung von speziellen Karten fürs Videomonitoring hat ja auch einen Grund in der optimalen Synchronisation von Videosignalen. Tearing heisst der Effekt, den es ansonsten oft zu sehen gibt ;)
es gibt zwar in der tat immer wieder computer-monitore, die tatsächlich nur 60fps wiederzugeben vermögen, trotzdem kann ich mich ehrlich gestanden nicht mehr daran erinnern, wann ich das letzte mal tatsächlich irgendwo tearing artifakte praktisch wahrgenommen hätte? es kann schon sein, dass es ein paar ganz besonders problematische programme bzw. programm-betriebssystem-grafikkarten-bildschirm-kombinationen geben könnte, die mit solchen sachen auch im jahre 2018 noch immer nicht vernünftig klar kommen, aber ich würde es heute, wo jeder computer bis zu einem gewissen grad die rolle des fernsehgeräts übernommen hat, für eine ausgesprochene seltenheit halten.matchframe hat geschrieben: ↑Di 22 Mai, 2018 00:39Angenommen du drehst alles selber z.B. in 50p, schneidest es in 50p, exportiertst in 50p, wirst du evtl. zwar Tearing an deiner Videovorschau über Grafikkarte haben, aber es nervt nur beim gucken; dein Endprodukt ist dann trotzdem sauber.
normalerweise orientieren sich schnittprogramme bei der wiedergabe in der vollbildarstellung(!) an der zentralen projektframerate -- genauso, wie das auch alle brauchbaren videoplayer machen.matchframe hat geschrieben: ↑Di 22 Mai, 2018 00:39Aber wenn du gemischte Frameraten als Ausgangsmaterial hast (nehmen wir an 50p, 60p und 25p) und daraus z.B. einen Film in 24p schneiden sollst, wirst du nie wissen, ob das Ruckeln von der Grafikkarten-Vorschau kommt, oder vom falschen interpretieren oder interpolieren deines Materials, da die Grafikkarte alles in z.B. 60p wiedergibt. So kann es dazu kommen, dass deine Grafikkarte toll interpoliert, alles flüssig aussieht, aber nach dem Export z.B. beim Kunde oder im Kino ständig ruckelt.
das stimmt natürlich! -- interlaced material und die hingebungsvolle begeisterung für kammartefakte ist wirklich eine ausgesprochen delikate besonderheit, die leider im zuge der stetig voranschreitenden digitalisierung immer mehr vom aussterben bedroht ist. ;)matchframe hat geschrieben: ↑Di 22 Mai, 2018 00:39Oder wenn du fürs Fernsehen arbeitest, wo meist mit interlaced Material gearbeitet wird, siehst du über die Grafikkarte keine Halbbildfehler.