derartiges bekommt man zwar öfters zu hören, aber zumindest bei HDMI gibt's praktisch keine nennenswerten unterschiede, ob das signal jetzt von einer grafikkarte kommt oder über die decklink ausgegeben wird. da es hier ausschließlich um eine digitale datenübertragung geht, wird der beispielwert "200" genau der gleich bleiben bzw. völlig identisch dargestellt werden, egal welche hardware das an den monitor sendet...
Geht mir auch so!
lieber kollege von der scheuklappenfraktion!blickfeld hat geschrieben: ↑So 18 Feb, 2018 13:56 mash, da hier expliziet leute angesprochen wurden, die resolve im professionellen umfeld benutzen, bin ich einfach mal gespannt, wo deine professionelle erfahrungen in dem bereich liegen, da du ja schon mehrfach versucht hast, die sinnlosigkeit der video i/o karten zu beschreiben ;).
auch dazu kann ich dir nur berichten, wie dumm die ORF techniker damals geschaut haben, als wir -- das waren ja noch die zeiten, wo man ethernet-verbindungen zwischen computern noch meist über coax-kabel statt den heute üblichen twistet-pair konventionen abgewickelt hat --, die entsprechenden kameraübertragungsverkabelung im linzer funkhaus zweckentfremdet und für die kommunikation unsere neumodischen maschinen genutzt haben. :) vielleicht ist es dieser eigenwilligen anekdote bzw. den angesprochenen fortschritten in der welt der computernetzwerken zuzuschreiben, dass mich SDI-kabel regelmäßig wieder an diese eher antiquierten verbindungen denken lässt, statt an eine besonders wünschenswerte flexibilität. wenn es nach mir geht, müsste viel eher VoIP im produktionsalltag schon längst wesentlich verbreiteter sein. schließlich hab ich es ja auch in anderen zusammenhängen als unglaublich befreiend empfunden, als wir irgendwann nicht mehr teures externes spezial-equipmpent -- bspw. die beliebten akai-sampler -- durch die gegend schleppen mussten, sondern deren funktion in mindestens gleichwertiger qualität direkt aus dem computer heraus ersetzten konnten. warum also soll man nicht auch in der video-produktion genau die selben vorzüge einfacher bzw. vereinheitlichter ausgabe- und kommunikationsmittel von ganzem herzen begrüßen, so lange damit keine qualitativen nachteile verbunden sind?
mash_gh4 hat geschrieben: ↑So 18 Feb, 2018 16:07lieber kollege von der scheuklappenfraktion!blickfeld hat geschrieben: ↑So 18 Feb, 2018 13:56 mash, da hier expliziet leute angesprochen wurden, die resolve im professionellen umfeld benutzen, bin ich einfach mal gespannt, wo deine professionelle erfahrungen in dem bereich liegen, da du ja schon mehrfach versucht hast, die sinnlosigkeit der video i/o karten zu beschreiben ;).
ich weiß nicht, warum dir [immer wieder] derart daran gelegen ist, meiner person jede diesbezügliche qualifikation und einsicht in professionelle arbeitszusammenhänge gänzlich abzusprechen?
ganz abgesehen davon, dass du dich darin einfach ganz grundsätzlich irren dürftest, weil ich seit ca. drei jahrzehnten an der umsetzung von tlw. doch ganz ansehnlichen medien-, computerkunst- und filmprojekten bzw. kooperationen mit div. sendeanstalten, universitäts- und kultureinrichtungen maßgeblich mitgewirkt habe (bspw. realtime, horizontal radio od. letzes jahr die technische leitung / VFX supervisor bei einer planetarums fulldome produktion), habe ich im zuge all dieser vielfältigen praktischen erfahrungen durchaus auch entdecken müssen, dass es um die großartigen technischen einblicke und dem nötigen hintergrundwissen auch bei oft deutlich besser bezahlten bzw. stärker kommerziell ausgerichteten kollegen nicht immer sonderlich erfreulich bestellt ist. ich möchte zwar keineswegs behaupten, dass das auch auf dich unbedingt gleich zutreffen muss, bin aber in dieser hinsicht aber eher vorsichtig und versuch die die leute lieber nach dem zu beurteilen, was sie tatsächlich einzubringen haben.
auch dazu kann ich dir nur berichten, wie dumm die ORF techniker damals geschaut haben, als wir -- das waren ja noch die zeiten, wo man ethernet-verbindungen zwischen computern noch meist über coax-kabel statt den heute üblichen twistet-pair konventionen abgewickelt hat --, die entsprechenden kameraübertragungsverkabelung im linzer funkhaus zweckentfremdet für die kommunikation unsere neumodischen maschinen genutzt haben. vielleicht ist es dieser eigenwilligen anekdote bzw. den angesprochenen fortschritten in der welt der computernetzwerken zuzuschreiben, dass mich SDI-kabel regelmäßig wieder an diese eher antiquierten verbindungen denken lässt, statt an eine besonders wünschenswerte flexibilität. wenn es nach mir geht, müsste da schon viel eher VoIP im produktionsalltag wesentlich verbreiteter sein. schließlich hab ich es ja auch in anderen zusammenhängen als unglaublich befreiend empfunden, als wir irgendwann nicht mehr teures externes spezial-equipmpent -- bspw. die beliebten akai-sampler -- durch die gegend schleppen mussten, sondern deren funktion in mindestens gleichwertiger qualität direkt aus dem computer heraus ersetzten konnten. warum also soll man nicht auch in der video-produktion genau die selben vorzüge einfacher und vereinheitlichter ausgabe- und kommunikationsmittel von ganzem herzen begrüßen, so lange damit keine qualitativen nachteile verbunden sind?
dass ich hier von ganz profanen HDMI anschlüssen und den nur eingeschränkt unterstützten bildwiederholraten typischer computermonitore gesprochen habe, hat aber vielleicht auch damit zu tun, dass sich die meisten hier im forum vertretenen kollegen in vielen dingen mit ganz realistischen lösungen begügen müssen, und vor allen dingen auch entsprechende probleme selbst irgendwie lösen müssen, während es ja in dieser völlig abgehoben welt der hochspezialisierten professionellen lohnarbeit ohnehin nur equipment geben dürfte, wo es scheinbar solche sorgen gar nicht erst gibt, und im zweifelsfall aber auch ganz bestimmt anderes personal dafür zuständig ist, sich um etwaige störungen zu kümmern bzw. über das dazu notwendige fachwissen im hinblick auf deren beurteilung verfügen.
Ich bin kein Radio/Fernsehtechniker, aber gefühlt würde ich auch sagen, bei einem Computer Monitor gibt es keine verbindlichen Standarts und daher macht jeder was er will, bei TV Wiedergabe gibt es zwar eine Menge Standarts, die sind aber relativ verbindlich definiert, daher ist relativ klar was man bekommt.
Sollte man das nicht ziemlich einfach nachprüfen können? Gibt es auch etwas handfesteres?
Das heißt wenn es z.B. im NVidia Treiber ein Setting gäbe das alle zusätzlichen Änderungen deaktiviert wäre die Grafikkarte und die I/O Karte genau das Gleiche. Das wollte ich wissen.blickfeld hat geschrieben: ↑So 18 Feb, 2018 18:16 @rdcl:
was auch noch hinzukommt, dass die einstellung des grafikkartentreibers die ausgabe des bild verändern. das bedeutet, du kannst nicht sicher sein, dass jede ausgabe von jedem computer das selbe signal heraus gibt. etwas, was mash leider schon seit ewigkeiten behauptet.
ergo bedeutet dass, dass du zwar einen computer und einen monitor irgendwie kalibrieren kannst, jedoch sobald du einen anderen computer an den monitor anschließt, war das ganze für die katz. video i/o geben halt ein genormtes signal aus und daher ist es egal, welcher computer hinter der video i/o sitzt. nur eine der dinge, weshalb eine video i/o sinn macht
@mash:
die haust hier einfach jede menge fehlinformationen raus und beharrst darauf, dass nur du richtig liegst. und du behauptest zum wiederholten male, das die gpu vollkommen ausreicht, was kompletter käse ist.
hinzu kommt, dass nur die wenigen von dir erwählten die richtigen programme für die postproduktion sind. miska war so viel besser als davinci ist ;). sehr schön daran, dass du miska, bevor es vor ca einem jahr mit der kostenlosen version raus kam nicht kannstest und es sehr unwahrscheinlich ist, dass du seit dem eine valide testreihe zum thema verlässlichere gradingergebnisse zwischen miska und davinci gemacht hast.
und du haust eine meinung zu jedem thema raus, egal ob du über einen höhen wissensstand verfügst oder nicht. und da werde ich einfach sauer, wenn du so einen scheiß wie zu den video i/o karten raushaust. im normalen leben kann ich menschen, die mir so unsympathisch sind meiden. leider klappt das in foren weniger gut, vor allem, wenn das die menschen sind, die am lautesten und meisten schreien.
du wirst deine bereiche haben, in denen du wahrscheinlich gut bist. der sinn und zweck von video i/o gehört nicht dazu. auch wenn du das meinst.
kann kann gerne jeden der threads rauskramen, in dem du deine meinung über die meinung der gesamten fachwelt stellst. würde ein langer thread werden. hier ein beispiel:
https://www.slashcam.de/info/Multimonit ... 80015.html
Nicht unbedingt, weil die Karte ohne Änderung der Einstellungen wahrscheinlich ein sRGB-Signal (statt Rec709) über HDMI ausgibt. Und selbst wenn es da eine Rec709-Option gibt, ist die Frage, mit welchem Gamma, und ob da wirklich der Rec709-Farbraum verwendet wird. Und ob diese Ausgabe konsistent/farbkonstant bleibt, je nachdem, welche Grafik-APIs ein Programm verwendet (wie z.B. DirectX, OpenGL, OpenCL etc.) und dafür auf Hardware-Routinen/-Overlays der GPU zurückgreift.
Das heisst du weißt nicht ob eines der aufgezählten Probleme auftritt? Es könnte also sein dass Nvidia ein exakt gleiches und konstantes Signal ausgibt, oder?cantsin hat geschrieben: ↑So 18 Feb, 2018 19:54Nicht unbedingt, weil die Karte ohne Änderung der Einstellungen wahrscheinlich ein sRGB-Signal (statt Rec709) über HDMI ausgibt. Und selbst wenn es da eine Rec709-Option gibt, ist die Frage, mit welchem Gamma, und ob da wirklich der Rec709-Farbraum verwendet wird. Und ob diese Ausgabe konsistent/farbkonstant bleibt, je nachdem, welche Grafik-APIs ein Programm verwendet (wie z.B. DirectX, OpenGL, OpenCL etc.) und dafür auf Hardware-Routinen/-Overlays der GPU zurückgreift.
Nein, tut es nicht, weil aus meinen beiden GForce-Karten definitiv andere Farben kommen als aus der Blackmagic Decklink. Und ausserdem jeder Desktop-Videoplayer (VLC, Mplayer, Windows Media Player, mpc-hc, mpv, Browser wie Firefox und Chrome) dasselbe Video mit anderen Farben darstellt, was z.T. auch mit der Treiberkonfiguration von Nvidia zu tun hat und von den Ausgabe-APIs, die diese Player verwenden.
Nein, nur keine Priorität. Genauso, wie Mac OS/Quicktime jahrelang den Gamma-Shift mit sich herumgeschleppt hat und mit älterer Software nach wie vor hat. Ich finde es ja selbst absurd, aber der praktische Beweis liegt ja darin, dass jedes Videoprogramm (egal ob NLE oder Player) dasselbe Videomaterial mit jeweils anderen Farben wiedergibt.
Ich hatte ja auch bewusst "Consumer-Grafikkarten" geschrieben. Genauer wäre natürlich "Consumer-Grafikkarten auf Mainstream-Desktopbetriebssystemen".und was die 10bit OpenGL fullscreen ausgabe betrifft, muss ich dir leider auch widersprechen.
mit quatro karten bekommst du die bspw. ganz offiziell auf windows und unter linux auch schon mit den GTX karten.
Ja, den verwende ich ja nach Deinem guten Tipp hier im Forum auch schon seit einiger Zeit. Aber leider ist der eben die große Ausnahme. Um beim Schnitt für die farbechte Vorschau jeweils Clips rauszurendern, die extern in mpv zu betrachten, Farbkorrekturen anzuwenden, wieder zu rendern und in mpv zu kontrollieren, ist ja nicht wirklich praktikabel.und mpv bietet mittlerweile genügend farbmanagement-support, um die ausgabe über die GPU perfekt zu kalibrieren.
ich glaube, dass wir da wirklich alle einem etwas irreführenden maßstab folgen, nur weil hier im forum plötzlich ohne 10bit unterstützung auch anzeigeseitig überhaupt nichts mehr geht. diese haltung dürften draußen in der realen welt bis jetzt nur verhältnismäßig wenige teilen. erst der aktuelle HDR-hype scheint hier mächtig bewegung rein zu bringen. jedenfalls ist es auffällig, dass dieses feature selbst in der freien szene, wo man ja sonst kaum eine spielerei auslässt bzw. ohne unterstützung belässt, relativ lange keine große aufmerksamkeit erfahren hat. aber jetzt, wo sich jemand intensiv darum bemüht, wird plötzlich klar, dass dieses feature prinzipiell auf erstaunlich vielen grafikkarten verfügbar ist -- eben auch auf den ganz unscheinbaren intel iGPUs.
der mangelhafte support der videowiedergabe in den diversen browsern ist leider wiede eine ganz andere baustelle, wo ich deinem klagen völlig zustimme! :(cantsin hat geschrieben: ↑So 18 Feb, 2018 20:57 Ich finde es ja selbst absurd, aber der praktische Beweis liegt ja darin, dass jedes Videoprogramm (egal ob NLE oder Player) dasselbe Videomaterial mit jeweils anderen Farben wiedergibt.
Eventuell liegt's auch an Performance-Optimierungen für hardwarebeschleunigte Videowiedergabe mit Blick auf ältere oder schwachbrüstige Systeme (wie z.B. Netbooks), mit Priorität Realtime-Performance über Wiedergabequalität. Ich kriege ja selbst öfter Beschwerden von Leuten, die meine Vimeo-Videos nicht auf ihren Rechnern abspielen können, weil ihre Hardware dafür zu alt ist.
ja -- da gebe ich dir recht. ich glaub halt nur, dass man es vielleicht auch als eingermaßen anschauliches real existierendes beispiel sehen könnte, wie sich derartiges vermutlich auch in anderen prestigeträchtigeren programmen mit vertretbarem aufwand befriediegender umsetzen lassen dürfte, wenn man nur will...cantsin hat geschrieben: ↑So 18 Feb, 2018 20:57Ja, den verwende ich ja nach Deinem guten Tipp hier im Forum auch schon seit einiger Zeit. Aber leider ist der eben die große Ausnahme. Um beim Schnitt für die farbechte Vorschau jeweils Clips rauszurendern, die extern in mpv zu betrachten, Farbkorrekturen anzuwenden, wieder zu rendern und in mpv zu kontrollieren, ist ja nicht wirklich praktikabel.und mpv bietet mittlerweile genügend farbmanagement-support, um die ausgabe über die GPU perfekt zu kalibrieren.
ich weiß nicht, ob's mir dabei wirklich nur darum geht, recht zu bekommen?
ignoranz trifft gottkomplex, der grund, warum dich niemand ernst nimmt.mash_gh4 hat geschrieben: ↑Mo 19 Feb, 2018 06:26ich weiß nicht, ob's mir dabei wirklich nur darum geht, recht zu bekommen?
mich jedenfalls erheitert es auch nicht sonderlich, wenn ständig irgendwelche kollegen, die sich vermutlich noch nie ernsthaftere darüber gedanken gemacht haben dürften, wie das technisch funktionieren sollte, dass in der HDMI/DP/SDI-kommunikation einer ganz normalen grafikkarte zwar exakt die selben "normgerechten" digitalen werte(!) an einen monitor übertragen werden, aber trotzdem nur bei verwendung einer decklink-karte auf irgendeine zauberhafte weise dort auch die "richtigen" farben ankommen bzw. korrekt angezeigt werden? ich weiß nicht, wie man überhaupt zu derart absurden vorstellungen gelangen kann, ohne sie einfach nur "blind" zu übernehmen und ohne langes nachdenken von generation zu generation weiter nachzuplappern...
dass ich nichts gegen kalibrierung und vernünftiges farbmanagement einzuwenden habe -- ganz im gegenteil! --, dürfte ja vermutlich auch dir nicht entgangen sein.
ich hab kein problem damit, wenn jemand unbedingt SDI bevorzugt oder nutzen will. das habe ich ohnehin bereits weiter oben ganz explizit geäußert.blickfeld hat geschrieben: ↑Mo 19 Feb, 2018 18:36 du verstehst immer noch nicht wirklich viel. es gibt bisher noch keine alternative zu sdi, sdi gibt nicht nur ein bild wieder, es gibt tc mit, es kann timecode syncen, und und und. das kann hdmi nicht. das kann displayport nicht.
sdi-kabel zieht man mal nicht eben schnell raus, hdmi ist auch in dem bezug scheiße. sdi kannst du ewig verlegen, bei hdmi ist nach 10m schicht im schacht, außer mit verstärkung. und und und.
in dem punkt bin ich voll bei dir!
einen punkt, den du bis heute immer ignorierst, ist der punkt, das video i/o alle das selbe genormte signal ausgeben, was gpus eben nicht machen. zum einen kann man nicht sicher sein, was für ein signal eine gpu werksseitig ausgibt und zum anderen kann dieses signal durch die treiber verändert werden. das ist eine sache, die einfach nicht in deinen kopf will.mash_gh4 hat geschrieben: ↑Mo 19 Feb, 2018 19:33ich hab kein problem damit, wenn jemand unbedingt SDI bevorzugt oder nutzen will. das habe ich ohnehin bereits weiter oben ganz explizit geäußert.blickfeld hat geschrieben: ↑Mo 19 Feb, 2018 18:36 du verstehst immer noch nicht wirklich viel. es gibt bisher noch keine alternative zu sdi, sdi gibt nicht nur ein bild wieder, es gibt tc mit, es kann timecode syncen, und und und. das kann hdmi nicht. das kann displayport nicht.
sdi-kabel zieht man mal nicht eben schnell raus, hdmi ist auch in dem bezug scheiße. sdi kannst du ewig verlegen, bei hdmi ist nach 10m schicht im schacht, außer mit verstärkung. und und und.
es gibt übrigens durchaus auch ganz brauchbare professionelle computergrafikkarten, die die vorzüge entsprechender zeitgemäßer rechenleistung und herstellerunabhängigen programmierschnittstellen mit SDI-ausgängen in sehr effizienter weise verbinden:
http://www.nvidia.de/object/product_qua ... ut_de.html
unter resolve hast du davon natürlich nichts, weil BMD gänzlich andere interessen verfolgt bzw. jeder derartigen konkurrenz und bedrohung ihres hardwareabsatzes konsequent entgegenzuwirken versucht.
das ändert aber nichts daran, dass in der digitalen kommunikation ohnehin immer nur unveränderliche zahlenwerte übertragen werden, und es daher auch keinen unterschied macht, ob das über licht oder kupfer erfolgt od. in diverse unterschiedliche anschlusstechniken und übertragungsprotokolle eingebettet wird. was die korrekte wiedergabe der farben angeht -- die uns ja besonders am herzen liegt bzw. von dir so grundsätzlich angezweifelt wird -- hat es jedenfalls keine unmittelbaren auswirkungen. die diesbezügliche qualität der wiedergabe hängt von ganz anderen faktoren ab.
Gebe ich Dir vollkommen Recht, aber mash hat ja auch nichts gegenteiliges behauptet,blickfeld hat geschrieben: ↑Di 20 Feb, 2018 06:42
einen punkt, den du bis heute immer ignorierst, ist der punkt, das video i/o alle das selbe genormte signal ausgeben, was gpus eben nicht machen. zum einen kann man nicht sicher sein, was für ein signal eine gpu werksseitig ausgibt und zum anderen kann dieses signal durch die treiber verändert werden. das ist eine sache, die einfach nicht in deinen kopf will.
wenn man eine gpu nutzt, muss ein monitor exklusiv auf die verwendete gpu kalibriert werden. sobald man diese gpus tauscht, wäre sehr wahrscheinlich die kalibrierung hinfällig. das ist einfach fakt.
bei video i/o hat man immer ein genormtes signal und wenn deine video i/o kaputt geht, tauscht du die eben aus.
sorry mash, du ignoriest die realität und schreibst hypotetisch. ich gebe es nach diesem versuch einfach auf, mit dir über dieses thema zu reden und beschränke mich auf die korrektur der falschen aussagen, die rausgehauen werden.