Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic DaVinci Resolve / Fusion-Forum

Infoseite // DaVinci Resolve: Wie Viewer-Ausgabe auf externen Monitor?



Frage von Orsa:


Bitte antworte nur, wer wirklich professionelle und längere Erfahrung mit DaVinci Resolve hat !!!
Frage: wie bekomme ich das Viever-Fenster der Timeline auf den externen Monitor?

ich stellte die Frage gestern schon und bekam lauter Tipps wie ich FCP oder Premiere auf externe Monitore bringe. Bitte, ich nutze diese beiden Programme professionell seit Jahren und selbstverständlich mit externen Monitoren, was nie ein Problem war. jetzt aber bei Resolve schon. Das Problem liegt nicht
beim Computer oder bei den Anschlüssen. Die funktionieren bei den andern Programmen einwandfrei.
Ich arbeite auf Mac, Prozessor 2,8GHz intel core i7, Arbeitsspeicher 16GB

Ich freue mich sehr über Antworten, aber Bitte NUR DaVinci Resolve User mit Erfahrung! danke

Space


Antwort von Jörg:

darauf könnte ich natürlich antworten, aber meine Resolve Erfahrung ist wohl nicht groß genug...OMG

Space


Antwort von Orsa:

Och, lieber Jörg, dann antworte mir doch bitte, auch mit wenig Erfahrung mit Resolve. aber wenn es trotzdem passt, bin ich Dir sehr dankbar. Jörg hat geschrieben:
darauf könnte ich natürlich antworten, aber meine Resolve Erfahrung ist wohl nicht groß genug...OMG


Space


Antwort von blickfeld:

das klappt nur mit einer Blackmagic Video I/O Karte, was auch definitiv im professionellen umfeld sinn macht, da nur video i/o karte genormte signale ausgeben.
wenn das signal nur fhd ist, reicht der ultrastudio mini aus.
aber ganz ehrlich, dass steht alles auf der blackmagic hp und vor allem im manual... woran liegt es? zu faul zum suchen gewesen?

Space


Antwort von Sammy D:

Ich habe ab und an auch dieses Problem am Mac. Blackmagic Video Desktop Setup schaltet aus mir nicht ersichtlichen Gruenden den Output auf NTSC/SD oder sonst was. Dann bleibt die Ausgabe in Davinci schwarz.

Ich stelle dann die Ausgabe in Video Desktop auf die Aufloesung und fps, die ich brauche, waehle die I/O-Karte in Davinci aus und starte das Programm nochmal.


Ob jetzt das kostenlose Davinci oder Studio spielt keine Rolle.

Space


Antwort von mash_gh4:

blickfeld hat geschrieben:
das klappt nur mit einer Blackmagic Video I/O Karte, was auch definitiv im professionellen umfeld sinn macht, da nur video i/o karte genormte signale ausgeben.
derartiges bekommt man zwar öfters zu hören, aber zumindest bei HDMI gibt's praktisch keine nennenswerten unterschiede, ob das signal jetzt von einer grafikkarte kommt oder über die decklink ausgegeben wird. da es hier ausschließlich um eine digitale datenübertragung geht, wird der beispielwert "200" genau der gleich bleiben bzw. völlig identisch dargestellt werden, egal welche hardware das an den monitor sendet...

es macht allerdings natürlich weiterhin sinn, derartige spezialkarten zu nutzen, wenn man SDI anschlüsse braucht. die gibt's ja bekanntlich auf gebräuchlichen computergrafikkarten kaum.

ansonsten halten sich aber die tatsächlichen vorzüge stark in grenzen und betreffen höchsten irgendwelche details, die am ehesten noch von der ganz spezifischen arbeitsweise der blackmagic treibersoftware herrühren -- bspw. das audio alignment, das hier ein bisserl besser ausfallen kann, weil im gegensatz zu den sonst üblichen ausgabetechniken, wo ton und bild über weitestgehend getrennte systembestanteile abgearbeitet wird, in diesem fall beides in proprietären weise an einen gemeinsam zuständigen treiber übergeben wird.

ein punkt, der mir aber zum hier beschriebenen ursprünglichen problem als mögliche ursache in den sinn kommt, ist die tatsache, dass viele computermonitore nur sehr wenige bildwiederholfrequenzen darstellen können. das ist im zusmmenspiel mit grafikkarten meist kein sonderliches problem, weil beide seiten hier spezielle bidirektionale kommunikationsmechanismen (DDC) nutzen, um sich darüber zu verständigen, welche werte auf beiden seiten unterstützt werden bzw. den kleinsten gemeinsamen nenner bilden. die decklink-lösungen sind diesbezüglich aber leider deutlich primitiver, und erwarten einfach ganz stur, dass das gegenüber die eingestellte übertragungsart unterstützt. da kann es dann schon einmal schwarz am angeschlossenen schirm bleiben.

ansonsten würde ich aber vermutlich eher im blackmagic-forum ein bisserl herumstöbern, über welche versionsinkomptibilitäten der decklink treibersoftware und aktueller resolve ausgaben dort in letzter zeit wieder von anderen betroffen berichtet wurde bzw. welche lösungen sie letztlich gefunden haben. derartige troubles gibt es ja leider immer wieder.

Space


Antwort von blickfeld:

mash, da hier expliziet leute angesprochen wurden, die resolve im professionellen umfeld benutzen, bin ich einfach mal gespannt, wo deine professionelle erfahrungen in dem bereich liegen, da du ja schon mehrfach versucht hast, die sinnlosigkeit der video i/o karten zu beschreiben ;).
auch sprichst du von hdmi-ausgang im zusammenhang von einem professionellen gradingtool und einer professionellen bildvorschau. der fehler fällt selbst dir auf, oder ist das ego mal wieder größer?
bin gespannt...

Space


Antwort von Bruno Peter:

Jörg hat geschrieben:
darauf könnte ich natürlich antworten, aber meine Resolve Erfahrung ist wohl nicht groß genug...OMG
Geht mir auch so!

Space


Antwort von mash_gh4:

blickfeld hat geschrieben:
mash, da hier expliziet leute angesprochen wurden, die resolve im professionellen umfeld benutzen, bin ich einfach mal gespannt, wo deine professionelle erfahrungen in dem bereich liegen, da du ja schon mehrfach versucht hast, die sinnlosigkeit der video i/o karten zu beschreiben ;).
lieber kollege von der scheuklappenfraktion!

ich weiß nicht, warum dir derart daran gelegen ist, meiner person jede diesbezügliche qualifikation und einsicht in professionelle arbeitszusammenhänge gänzlich abzusprechen?

ganz abgesehen davon, dass du dich darin einfach ganz grundsätzlich irren dürftest, weil ich seit ca. drei jahrzehnten an der umsetzung von tlw. doch ganz ansehnlichen medien-, computerkunst- und filmprojekten bzw. kooperationen mit div. sendeanstalten, universitäts- und kultureinrichtungen maßgeblich mitgewirkt habe (bspw. realtime, horizontal radio od. letzes jahr die technische leitung / VFX supervisor bei einer planetarums fulldome produktion), habe ich im zuge all dieser vielfältigen praktischen erfahrungen durchaus auch entdecken müssen, dass es um die großartigen technischen einblicke und dem nötigen hintergrundwissen auch bei oft deutlich besser bezahlten bzw. stärker kommerziell ausgerichteten kollegen nicht immer sonderlich erfreulich bestellt ist. ich möchte zwar keineswegs behaupten, dass das auch auf dich unbedingt gleich zutreffen muss, bin aber in dieser hinsicht eher vorsichtig geworden und versuch die leute lieber nach dem zu beurteilen, was sie tatsächlich einzubringen haben.
blickfeld hat geschrieben:
auch sprichst du von hdmi-ausgang im zusammenhang von einem professionellen gradingtool und einer professionellen bildvorschau. der fehler fällt selbst dir auf, oder ist das ego mal wieder größer?
bin gespannt...
auch dazu kann ich dir nur berichten, wie dumm die ORF techniker damals geschaut haben, als wir -- das waren ja noch die zeiten, wo man ethernet-verbindungen zwischen computern noch meist über coax-kabel statt den heute üblichen twistet-pair konventionen abgewickelt hat --, die entsprechenden kameraübertragungsverkabelung im linzer funkhaus zweckentfremdet und für die kommunikation unsere neumodischen maschinen genutzt haben. :) vielleicht ist es dieser eigenwilligen anekdote bzw. den angesprochenen fortschritten in der welt der computernetzwerken zuzuschreiben, dass mich SDI-kabel regelmäßig wieder an diese eher antiquierten verbindungen denken lässt, statt an eine besonders wünschenswerte flexibilität. wenn es nach mir geht, müsste viel eher VoIP im produktionsalltag schon längst wesentlich verbreiteter sein. schließlich hab ich es ja auch in anderen zusammenhängen als unglaublich befreiend empfunden, als wir irgendwann nicht mehr teures externes spezial-equipmpent -- bspw. die beliebten akai-sampler -- durch die gegend schleppen mussten, sondern deren funktion in mindestens gleichwertiger qualität direkt aus dem computer heraus ersetzten konnten. warum also soll man nicht auch in der video-produktion genau die selben vorzüge einfacher bzw. vereinheitlichter ausgabe- und kommunikationsmittel von ganzem herzen begrüßen, so lange damit keine qualitativen nachteile verbunden sind?

dass ich hier von ganz profanen HDMI anschlüssen und den nur eingeschränkt unterstützten bildwiederholraten typischer computermonitore gesprochen habe, hat aber vielleicht auch damit zu tun, dass sich die meisten hier im forum vertretenen kollegen in vielen dingen mit ganz realistischen lösungen begügen müssen, und vor allen dingen auch entsprechende probleme selbst irgendwie lösen müssen, während es ja in dieser völlig abgehoben welt der hochspezialisierten professionellen lohnarbeit, von der du gerne spricht od. zumindest träumst, ohnehin nur equipment geben dürfte, wo es solche sorgen scheinbar gar nicht erst gibt, und im zweifelsfall ganz bestimmt anderes personal dafür zuständig ist, sich um etwaige störungen zu kümmern bzw. dazu notwendiges technisches fachwissen einzubringen.

Space



Space


Antwort von Orsa:

Ja, mash–gh4 ich kann Dir total beipflichten. Du bist fast der Einzige, der sich wirklich seirös mit meiner Frage auseinandergesetzt hat. Hab vielen Dank. Dein Beitrag ist mir wirklich eine Hilfe. Es ist ja real und logisch, dass wer ein neues Programm ausprobiert, nicht gleich das ganze Equipement neu kauft, sondern erst mal schaut, ob das Programm überhaupt in ganzer Konsequenz überzeugt und sich mit andern, die Erfahrung damit haben, austauscht. Das ist schließlich der tiefere Sinn dieser Plattform. Also, mash, nochmals vielen Dank
mash_gh4 hat geschrieben:
blickfeld hat geschrieben:
mash, da hier expliziet leute angesprochen wurden, die resolve im professionellen umfeld benutzen, bin ich einfach mal gespannt, wo deine professionelle erfahrungen in dem bereich liegen, da du ja schon mehrfach versucht hast, die sinnlosigkeit der video i/o karten zu beschreiben ;).
lieber kollege von der scheuklappenfraktion!

ich weiß nicht, warum dir derart daran gelegen ist, meiner person jede diesbezügliche qualifikation und einsicht in professionelle arbeitszusammenhänge gänzlich abzusprechen?

ganz abgesehen davon, dass du dich darin einfach ganz grundsätzlich irren dürftest, weil ich seit ca. drei jahrzehnten an der umsetzung von tlw. doch ganz ansehnlichen medien-, computerkunst- und filmprojekten bzw. kooperationen mit div. sendeanstalten, universitäts- und kultureinrichtungen maßgeblich mitgewirkt habe (bspw. realtime, horizontal radio od. letzes jahr die technische leitung / VFX supervisor bei einer planetarums fulldome produktion), habe ich im zuge all dieser vielfältigen praktischen erfahrungen durchaus auch entdecken müssen, dass es um die großartigen technischen einblicke und dem nötigen hintergrundwissen auch bei oft deutlich besser bezahlten bzw. stärker kommerziell ausgerichteten kollegen nicht immer sonderlich erfreulich bestellt ist. ich möchte zwar keineswegs behaupten, dass das auch auf dich unbedingt gleich zutreffen muss, bin aber in dieser hinsicht aber eher vorsichtig und versuch die die leute lieber nach dem zu beurteilen, was sie tatsächlich einzubringen haben.
blickfeld hat geschrieben:
auch sprichst du von hdmi-ausgang im zusammenhang von einem professionellen gradingtool und einer professionellen bildvorschau. der fehler fällt selbst dir auf, oder ist das ego mal wieder größer?
bin gespannt...
auch dazu kann ich dir nur berichten, wie dumm die ORF techniker damals geschaut haben, als wir -- das waren ja noch die zeiten, wo man ethernet-verbindungen zwischen computern noch meist über coax-kabel statt den heute üblichen twistet-pair konventionen abgewickelt hat --, die entsprechenden kameraübertragungsverkabelung im linzer funkhaus zweckentfremdet für die kommunikation unsere neumodischen maschinen genutzt haben. vielleicht ist es dieser eigenwilligen anekdote bzw. den angesprochenen fortschritten in der welt der computernetzwerken zuzuschreiben, dass mich SDI-kabel regelmäßig wieder an diese eher antiquierten verbindungen denken lässt, statt an eine besonders wünschenswerte flexibilität. wenn es nach mir geht, müsste da schon viel eher VoIP im produktionsalltag wesentlich verbreiteter sein. schließlich hab ich es ja auch in anderen zusammenhängen als unglaublich befreiend empfunden, als wir irgendwann nicht mehr teures externes spezial-equipmpent -- bspw. die beliebten akai-sampler -- durch die gegend schleppen mussten, sondern deren funktion in mindestens gleichwertiger qualität direkt aus dem computer heraus ersetzten konnten. warum also soll man nicht auch in der video-produktion genau die selben vorzüge einfacher und vereinheitlichter ausgabe- und kommunikationsmittel von ganzem herzen begrüßen, so lange damit keine qualitativen nachteile verbunden sind?

dass ich hier von ganz profanen HDMI anschlüssen und den nur eingeschränkt unterstützten bildwiederholraten typischer computermonitore gesprochen habe, hat aber vielleicht auch damit zu tun, dass sich die meisten hier im forum vertretenen kollegen in vielen dingen mit ganz realistischen lösungen begügen müssen, und vor allen dingen auch entsprechende probleme selbst irgendwie lösen müssen, während es ja in dieser völlig abgehoben welt der hochspezialisierten professionellen lohnarbeit ohnehin nur equipment geben dürfte, wo es scheinbar solche sorgen gar nicht erst gibt, und im zweifelsfall aber auch ganz bestimmt anderes personal dafür zuständig ist, sich um etwaige störungen zu kümmern bzw. über das dazu notwendige fachwissen im hinblick auf deren beurteilung verfügen.


Space


Antwort von rdcl:

Vielleicht kann ja mal jemand erklären was der tatsächliche Unterschied zwischen einer Grafikkarte und einer Video I/O Karte ist. Abgesehen von SDI natürlich.

Space


Antwort von cantsin:

Bei einer Standard-Grafikkarte würde ich nicht davon ausgehen, dass sie normgerechtes Rec709 über HDMI ausspielt. Ausserdem dürfte sie weniger Bildwiederholfrequenzen unterstützen.

Space


Antwort von Peppermintpost:

rdcl hat geschrieben:
Vielleicht kann ja mal jemand erklären was der tatsächliche Unterschied zwischen einer Grafikkarte und einer Video I/O Karte ist. Abgesehen von SDI natürlich.
Ich bin kein Radio/Fernsehtechniker, aber gefühlt würde ich auch sagen, bei einem Computer Monitor gibt es keine verbindlichen Standarts und daher macht jeder was er will, bei TV Wiedergabe gibt es zwar eine Menge Standarts, die sind aber relativ verbindlich definiert, daher ist relativ klar was man bekommt.

Das bedeutet natürlich im Umkehrschluss nicht das es mit einer Grafikkarte grundsätzlich nicht geht. Klar kann ich die Grafikkarte auch mit einem definierten Farbprofil laufen lassen und klar kann ich auch eine Grafikkarte/Computer Monitor Kombination so vermessen das es sehr verbindlich ist, aber wer daran Interesse hat greift nunmal meistens zu irgend einer Broadcast Video Karte weil man dann weniger Hazzle hat.

Wer im professionellen Bereich Arbeitet kennt die Dauerfrage von Kunden ob die Farben auch verbindlich sind. Also nur um mich selbst abzusichern bringe ich meine Referenz Monitore regelmässig (ca. 1x im Jahr) in eine Werkstatt um sie kompl. vermessen zu lassen. Einfach nur um vor Regress geschützt zu sein.

Im Spielfilm Bereich gibts ja bei einigen Produktionsschritten keine Referenz Monitore, da arbeitet man Systembedingt mit normalen Computer Monitoren und normalen Grafikkarten, die werden dann aber auch ständig (meist vor jedem grösseren Projekt) kompl. vermessen. Funktioniert natürlich auch, ist aber halt eine andere Anwendung weil man die Farben nicht verbiegt sondern alles auf 3 stellen hinterm Komma gleich hält, wenns dann ins Grading geht stehen da auch wieder Referenz Monitore und ggf sogar professionelle Kino Projektionstechnik.

Space


Antwort von rdcl:

cantsin hat geschrieben:
Bei einer Standard-Grafikkarte würde ich nicht davon ausgehen, dass sie normgerechtes Rec709 über HDMI ausspielt. Ausserdem dürfte sie weniger Bildwiederholfrequenzen unterstützen.
Sollte man das nicht ziemlich einfach nachprüfen können? Gibt es auch etwas handfesteres?

Worauf ich hinauswill: Wenn eine Video I/O Karte hardwaremäßig nicht anders funktioniert als eine Grafikkarte, dann unterscheiden sich die beiden, wenn überhaupt, lediglich über die Software und somit wäre alles mit einer normalen Grafikkarte genau so möglich.

Space


Antwort von blickfeld:

@rdcl:
was auch noch hinzukommt, dass die einstellung des grafikkartentreibers die ausgabe des bild verändern. das bedeutet, du kannst nicht sicher sein, dass jede ausgabe von jedem computer das selbe signal heraus gibt. etwas, was mash leider schon seit ewigkeiten behauptet.
ergo bedeutet dass, dass du zwar einen computer und einen monitor irgendwie kalibrieren kannst, jedoch sobald du einen anderen computer an den monitor anschließt, war das ganze für die katz. video i/o geben halt ein genormtes signal aus und daher ist es egal, welcher computer hinter der video i/o sitzt. nur eine der dinge, weshalb eine video i/o sinn macht

@mash:
die haust hier einfach jede menge fehlinformationen raus und beharrst darauf, dass nur du richtig liegst. und du behauptest zum wiederholten male, das die gpu vollkommen ausreicht, was kompletter käse ist.
hinzu kommt, dass nur die wenigen von dir erwählten die richtigen programme für die postproduktion sind. miska war so viel besser als davinci ist ;). sehr schön daran, dass du miska, bevor es vor ca einem jahr mit der kostenlosen version raus kam nicht kannstest und es sehr unwahrscheinlich ist, dass du seit dem eine valide testreihe zum thema verlässlichere gradingergebnisse zwischen miska und davinci gemacht hast.
und du haust eine meinung zu jedem thema raus, egal ob du über einen höhen wissensstand verfügst oder nicht. und da werde ich einfach sauer, wenn du so einen scheiß wie zu den video i/o karten raushaust. im normalen leben kann ich menschen, die mir so unsympathisch sind meiden. leider klappt das in foren weniger gut, vor allem, wenn das die menschen sind, die am lautesten und meisten schreien.
du wirst deine bereiche haben, in denen du wahrscheinlich gut bist. der sinn und zweck von video i/o gehört nicht dazu. auch wenn du das meinst.
kann kann gerne jeden der threads rauskramen, in dem du deine meinung über die meinung der gesamten fachwelt stellst. würde ein langer thread werden. hier ein beispiel:
https://www.slashcam.de/info/Multimonit ... 80015.html

Space


Antwort von rdcl:

blickfeld hat geschrieben:
@rdcl:
was auch noch hinzukommt, dass die einstellung des grafikkartentreibers die ausgabe des bild verändern. das bedeutet, du kannst nicht sicher sein, dass jede ausgabe von jedem computer das selbe signal heraus gibt. etwas, was mash leider schon seit ewigkeiten behauptet.
ergo bedeutet dass, dass du zwar einen computer und einen monitor irgendwie kalibrieren kannst, jedoch sobald du einen anderen computer an den monitor anschließt, war das ganze für die katz. video i/o geben halt ein genormtes signal aus und daher ist es egal, welcher computer hinter der video i/o sitzt. nur eine der dinge, weshalb eine video i/o sinn macht

@mash:
die haust hier einfach jede menge fehlinformationen raus und beharrst darauf, dass nur du richtig liegst. und du behauptest zum wiederholten male, das die gpu vollkommen ausreicht, was kompletter käse ist.
hinzu kommt, dass nur die wenigen von dir erwählten die richtigen programme für die postproduktion sind. miska war so viel besser als davinci ist ;). sehr schön daran, dass du miska, bevor es vor ca einem jahr mit der kostenlosen version raus kam nicht kannstest und es sehr unwahrscheinlich ist, dass du seit dem eine valide testreihe zum thema verlässlichere gradingergebnisse zwischen miska und davinci gemacht hast.
und du haust eine meinung zu jedem thema raus, egal ob du über einen höhen wissensstand verfügst oder nicht. und da werde ich einfach sauer, wenn du so einen scheiß wie zu den video i/o karten raushaust. im normalen leben kann ich menschen, die mir so unsympathisch sind meiden. leider klappt das in foren weniger gut, vor allem, wenn das die menschen sind, die am lautesten und meisten schreien.
du wirst deine bereiche haben, in denen du wahrscheinlich gut bist. der sinn und zweck von video i/o gehört nicht dazu. auch wenn du das meinst.
kann kann gerne jeden der threads rauskramen, in dem du deine meinung über die meinung der gesamten fachwelt stellst. würde ein langer thread werden. hier ein beispiel:
https://www.slashcam.de/info/Multimonit ... 80015.html
Das heißt wenn es z.B. im NVidia Treiber ein Setting gäbe das alle zusätzlichen Änderungen deaktiviert wäre die Grafikkarte und die I/O Karte genau das Gleiche. Das wollte ich wissen.

Was für Einstellungen sollen das eigentlich sein. Meinst du da tatsächlich Settings im Treiber, oder meinst du wenn der User an den Farben im Treiber dreht?

Space


Antwort von cantsin:

rdcl hat geschrieben:
Das heißt wenn es z.B. im NVidia Treiber ein Setting gäbe das alle zusätzlichen Änderungen deaktiviert wäre die Grafikkarte und die I/O Karte genau das Gleiche. Das wollte ich wissen.
Nicht unbedingt, weil die Karte ohne Änderung der Einstellungen wahrscheinlich ein sRGB-Signal (statt Rec709) über HDMI ausgibt. Und selbst wenn es da eine Rec709-Option gibt, ist die Frage, mit welchem Gamma, und ob da wirklich der Rec709-Farbraum verwendet wird. Und ob diese Ausgabe konsistent/farbkonstant bleibt, je nachdem, welche Grafik-APIs ein Programm verwendet (wie z.B. DirectX, OpenGL, OpenCL etc.) und dafür auf Hardware-Routinen/-Overlays der GPU zurückgreift.

Space


Antwort von rdcl:

cantsin hat geschrieben:
rdcl hat geschrieben:
Das heißt wenn es z.B. im NVidia Treiber ein Setting gäbe das alle zusätzlichen Änderungen deaktiviert wäre die Grafikkarte und die I/O Karte genau das Gleiche. Das wollte ich wissen.
Nicht unbedingt, weil die Karte ohne Änderung der Einstellungen wahrscheinlich ein sRGB-Signal (statt Rec709) über HDMI ausgibt. Und selbst wenn es da eine Rec709-Option gibt, ist die Frage, mit welchem Gamma, und ob da wirklich der Rec709-Farbraum verwendet wird. Und ob diese Ausgabe konsistent/farbkonstant bleibt, je nachdem, welche Grafik-APIs ein Programm verwendet (wie z.B. DirectX, OpenGL, OpenCL etc.) und dafür auf Hardware-Routinen/-Overlays der GPU zurückgreift.
Das heisst du weißt nicht ob eines der aufgezählten Probleme auftritt? Es könnte also sein dass Nvidia ein exakt gleiches und konstantes Signal ausgibt, oder?

Space



Space


Antwort von cantsin:

rdcl hat geschrieben:
Das heisst du weißt nicht ob eines der aufgezählten Probleme auftritt? Es könnte also sein dass Nvidia ein exakt gleiches und konstantes Signal ausgibt, oder?
Nein, tut es nicht, weil aus meinen beiden GForce-Karten definitiv andere Farben kommen als aus der Blackmagic Decklink. Und ausserdem jeder Desktop-Videoplayer (VLC, Mplayer, Windows Media Player, mpc-hc, mpv, Browser wie Firefox und Chrome) dasselbe Video mit anderen Farben darstellt, was z.T. auch mit der Treiberkonfiguration von Nvidia zu tun hat und von den Ausgabe-APIs, die diese Player verwenden.

Bei Resolve kommt noch erschwerend hinzu, dass dessen GPU-Videoausgabe direkt an OpenCL geht und das kalibrierte Monitorprofil nicht berücksichtigt.

Space


Antwort von mash_gh4:

natürlich gibt's einschneidende unterschiede, die diese broadcast-video-io-karten von normalen grafikkarten unterschieden. nur muss man leider sagen, dass diese gegenüberstellung vielmehr zu gunsten letzterer und ihrer viel höhrern flexibilität und rechenleistung ausfällt. die genannten spezialkarten wirken im vergleich dazu denkbar primitiv bzw. in ihren möglichkeiten eingeschänkt, obwohl sie die paar dinge, für die man sie tatsächlich braucht, in der regel natürlich auch recht sauber erledigen

natürlich gibt's noch immer anwendungsfälle, wo es einfach sinn macht od. fast unvermeidlich ist, derartiges spezialequipment zu nutzen:

bspw. erlauben normale grafikkarten ja bekanntlich nur die ausgabe, während in der anderen gruppe immer auch passende capture-lösungen angeboten werden. auch timecodebezogene features od. eben die simple SDI anschlussmöglichkeit sind hier eher eine selbstverständlichkeit, während man das bei gebräuchlichen grafikkarten kaum findet. in tudio-envrionments braucht man da also wirklich nicht lange zu überlegen. dort haben diese karten einfach weiterhin ihre volle berechtigung.

problematischer wird es, wenn es um die produktion und bearbeitung von videomateral auf 'normalen' computern jenseits dieser externen anbindungsnöte geht. damit beziehe ich mich jetzt im ersten schritt einmal noch gar nicht auf irgendwelche besonderen techn. ansprüche, sondern vielmehr auf die tatsache, dass man heute video im normalfall nicht mehr zum schluss an irgendwelche bandmaschinen rausspielt, sondern normalerweise viel eher eine videofile bzw. einen entsprechenden datenträger weiter reicht. diesen umstand hervorzuheben, mag zwar in unserer zeit ein wenig seltsam anmuten, hat aber in wahrheit sehr viel mit dem zu tun, warum es überhaupt solche video-io-karten für studio-zwecke gibt. es hat sich da halt mittlerweile sehr viel getan, und wesentliche dinge, die früher ohne dedizierte hardware nicht vernünftig umsetzbar waren, kann man heute im blindflug auf erschwinglichen laptops abwickeln.

trotzdem bleibt natürlich das problem, dass es bei derartigen arbeiten ja nicht alleine nur um eine rein technische verarbeitung der daten geht -- was heute eben wirklich jeder durchschnittliche computerarbeitsplatz erlaubt -- sondern eben auch um eine befriedigende visuelle kontrolle und evtl. auch spezialisierte eingabe- und steuermöglichkeiten (color grading panels od. grafiktablets). im wesentlichen kann ich hier aber ohnehin nur allem zustimmen, was Pepermintpost dazu schon erklärt hat. vor allem die tatsache, dass es vermutlich am sinnvollsten bzw. fast unabdinglich ist, produktionen auch wirklich unter realistischen bedingungen zu mastern -- also kino eben wirklich auch in entsprechender größe und projektionstechnik zu bearbeiten bzw. wenigstens zu kontrollieren.

bleibt aber die frage, ob man für eine dafür auch tatsächlich irgendwelche speziellen ausgabekarten braucht, oder die betreffende visuelle qualität und farbtreue nicht praktisch ausschließlich von den angeschlossenen wiedergabegeräten und entsprechender kalibrierung abhängig ist?

prinzipiell würde ich behaupten, dass mittlerweile letzteres der fall ist. bei entsprechender umsetzung in den bearbeitungsprogrammen bzgl. der farbwiedergabe gibt es wirklich nichts, was normale grafikkarten mittlerweile nicht deutlich besser ausgeben könnten, als diese decklink-devices. alle fernseh- und film-frameraten und auflösungen werden -- neben einer unzahl an weiteren auflösungen, wiedergabefrequenzen und synchronisationstechniken, die man nur im computerumfed benötigt -- auch auf diesen karten problemlos abgedeckt. mit 10bit-unterstützung gibt's zwar immerwieder einige troubles, was aber im wesentlichen nicht so sehr mit den grafikkarten selbst, sondern der mangelhaften unterstützungen derartiger farbtiefen in einigen betriebssystemen bzw. den dort üblichen grafikoberflächen zu tun hat. im vollbildmodus geht auch auch das auf praktisch allen systemen mit fast allen gängigen produkten (seit kurzem sogar über die intel iGPUs).

natürlich hilft einem das alles nichts, wenn die entsprechenden möglichkeiten in den postproduktionswerkzeugen nicht ausreichend unterstützt werden, oder wie im falle von blackmagic, aus ziemlich eindeutig nachvollziehbaren gründen -- schließlich ist es ja in erster linie ein hardwarehersteller -- geradezu boykottiert werden.

da wird dann die ganze geschichte schließlich zu problem, weil diese ausgabekarten ja leider nicht nur vorteile mit sich bringen, sondern eben auch ein paar nicht so tolle begleiterescheinungen nach sich ziehen. wie schon eingangs erwähnt, wirken diese karten aus technischer sicht ziemlich primitiv und eingeschränkt in ihren rechenmöglichkeiten. viel mehr als die daten auf's kabel zu bringen und evtl. noch mit hardwareunterstützung das bild zu skalieren, erlauben sie im normalfall nicht.

da die betreffenden ausgabekarten aber jeweils nur über ganz eigene herstellerspezifische schnittstellen zur ausgabe von videodaten bewegt werden können, muss in jedes videoverarbeitungsprogramm ständig zusätzliche unterstützung für jeden einzelnen dieser kartenhersteller eingebaut werden. für die realtiv günstigen blackmagic-karten findet man diesebezüglich in praxis ohnehin noch am ehesten unterstützung. für AJA od. bluefish-karten schaut es da schon wesentlich düsterer aus, obwohl die alternativen technisch keineswegs unterlegen sind. es gibt dann auch so fälle, wie z.b. autodesk flame od. lustre, wo wieder nur AJA-karten untersützt werden, nicht aber blackmagic produkte, was letztlich dazu führt, dass man auf derartigen maschinen nur mit größten umständlichkeiten auch resolve parallel nutzen kann (evtl. hat sich das kürzlich geändert -- ich bin da nicht ganz am laufenden). in dieser ausgesprochen unbefriediegenden weise kennt man das von normalen grafikkarten zum glück nicht. es ist zwar bei gott nicht so, dass sich die dortigen hersteller nicht auch das leben untereinander, und vor allen dingen auf kosten der anwender, schwer machen würden, aber die ausgabe über ein paar etablierte standardschnittstellen (OpenGL) und den jeweiligen betriebssystemspezifischen grafikschnittstellen funktioniert im normalfall relativ reibungslos mit allen karten und in allen programmen.

jetzt könnte man vielleicht glauben dass diese spezialkarten wenigstens den rechner in der erfüllung ihrer aufgabe maximal entlasten würden bzw. irgendwelche besonders komplizierten bildaufbereitungsfeatures bereitstellen würden, ohne die man ein videosignal nicht in echtzeit ausgeben könnte. aber auch hier ist leider wieder geradezu das gegenteil der fall! die notwendigen berechnungen werden heute fast durchgängig auf irgendwelche fast unverzichtbaren anderen grafikkarten ausgelagert und dort wirklich super effizient gerechnet. gerade color grading, mit seinen technisch gar nicht so übermäßig komplexen operationen, die sich in den meisten fällen auch ganz wunderbar parallelisieren lassen, bieten sich dafür geradezu mustergültig an. bleibt das problem, dass man die daten zur berechnunge auf den GPUs mühsam durch gegend schieben muss. das ist leider einer der punkte, der im zuge der videobearbeitung gerne unterschätzt wird. in dieser hinsicht muss man es schkißlich geradezu als unfug anehen, wenn man die entsprechende ausgabe nicht auch gleich über die, mit der berechnung betrauten, karten erledigt wird. das heute übliche herumschieben und ressourcenverschwenderisches blockieren von speicherbereichen, nur um die daten auf möglichst anachronistische weise ins videokabel zu speisen, ist wirklich eine der fragwürdigsten praktiken in diesem umfeld.

ich glaube, dass zumindest die in den letzten beiden absätzen angesprochenen grundsätzlichen probleme so ernst genommen werden sollten, dass man nicht jeden, der diese begeisterung für traditionellen broadcast-ausgabekarten nicht ganz so widerspruchslos teilt, für einen unwissenden idioten halten muss. ich hab aber überhaupt kein problem damit, wenn diese sichtweise nicht von allen geteilt wird und ruhig divergierende zugänge in dieser frage nebeneinander existieren. wer decklink-karten besitzt bzw. schätzt, soll dafür möglichst gute unterstützung in seinen jeweils bevorzugten programmen finden, aber auch denen, die eine ausgabe über die GPU bevorzugen, sollte eine möglichst befriedigende technische umsetzung ihrer wünsche zugestanden werden.

leider ist aber die ganze geschichte nicht ausschließlich nur auf diese beiden umsetzungsvarianten der ausgabe bzw. anbindindung an externe anzeigegeräte beschränkt, sondern hat auch sehr viel damit zu tun, ob man diese angeschlossenen gerätschaften ausschließlich für die videovorschau, oder eben auch als zusätzlichen computermonitor für andere zwecke nutzen kann. gerade wenn man die ausgabe über GPUs bzw. gewöhnliche grafikkarten erledigt, bietet sich ja letzteres geradezu an. damit aber eine solche nutzung für verschiedenen zwecke sauber funktioniert und die wiedergabe bzw. beurteilbarkeit der farben trotzdem in ausreichendem maße erhalten wird, kommt man um bessere farbmanagmentlösungen in den verwendeten videobearbeitungsprogrammen kaum herum. am mac können das mittlerweile einige wichtige programme, windows und linuxseitig schaut es diesbezüglich im augenblick noch eher unbefriedigend aus. aber auch, wenn hier noch wichtige verbesserungen ausstehen, macht's einfach keinen sinn, diesbezügliche defizite einfach hinwegzureden od. mit verweis auf irgendwelche uralten handwerkstraditionen weiterhin zu umgehen.

wie gesagt -- es geht in dieser frage nicht darum, unbedingt gleich alle darin zu belehren, wie man die welt von grund auf verbessern könnte, sondern nur auch jenen, die videobearbeitung mittlerweile mehr mit ganz gewöhnlicher computerarbeit in verbindung bringen, die am desktop bzw. in der systemintegration in etwa die selbe unterstützung vorfinden sollte, wie wir es im umfeld der grafik- und fotobearbeitung längst für völlig selbstverständlich halten, ein klein wenig mehr gehör und verständnis entgegenzubringen.

Space


Antwort von cantsin:

Man kann die Diskussion auch so abkürzen: In der Theorie müsste alles prima mit den eingebauten Bordmitteln von GPU, Betriebssystem und Videosoftware gehen.

In der Praxis geht es aber nicht (übrigens auch nicht bei Mac OS), weil die farbkalibrierten Workflows zwar für Grafik- und Fotoverarbeitung funktionieren, nicht aber für Videos, weil da sowohl die Betriebssysteme, als auch die Anwendungsprogramme aus Performancegründen die Hardware direkt ansprechen, konfigurierte Monitor-Kalibrierungen ignorieren und auch noch (mit der Zielgruppe Gamer) bereits auf Treiberniveau obskure Farb'verbesserungen' vornehmen und sowieso nicht mit Video-spezifischen Gammas und Farbräumen wie Rec709, P3 oder Rec2020 zurechtkommen.

- Abgesehen übrigens davon, dass keine einzige heutige Consumer-Grafikkarte 10bit-Ausgabe für Video unterstützt, obwohl es 10bit-Monitore mittlerweile für wenige hundert Euro gibt.

Die Lösung mit Decklinkkarten und Hardware-kalibrierten Vorschaumonitoren mit jeweils genormtem (Rec709)-Farbraum ist zwar theoretisch antiquiert, aber praktisch die einzige, die gut funktioniert.

Space


Antwort von mash_gh4:

lieber cantsin!

bitte nimm es mir nicht übel, aber glaubst du wirklich, dass es im interesse von grafikkartenherstellern ist, aus irgendwelchen unerfindlichen gründen ganz bewusst "falsche" farben auszugeben?

gut -- wenn man z.b. mit OpenGL arbeitet, werden farben weder in 8 oder 10bit auflösung behandelt, sondern in fließkommadarstellung -- aber genau das machen ja praktisch alle besseren heutigen videobearbeitungsprogramme intern auch.

und die anpassung an irgendwelche farbwiedergabemängel od. farbraumunterschiede ist mit hilfe von shadern derart effizient auf grafikkarten umzusetzten, dass man darüber gar nicht erst lange zu diskutieren braucht.

auch was die 10bit-OpenGL-fullscreen-ausgabe betrifft, muss ich dir leider widersprechen.
mit quatro-karten bekommst du die bspw. auch ganz offiziell unter windows -- und unter linux auch schon mit den GTX karten.

mpv bietet übrigens mittlerweile genügend farbmanagement-support, um auch die ausgabe über die GPU perfekt zu kalibrieren.

Space


Antwort von cantsin:

mash_gh4 hat geschrieben:
bitte nimm es mir nicht übel, aber glaubst du wirklich, dass es im interesse von grafikkartenherstellern ist, aus irgendwelchen unerfindlichen gründen ganz bewusst "falsche" farben auszugeben?
Nein, nur keine Priorität. Genauso, wie Mac OS/Quicktime jahrelang den Gamma-Shift mit sich herumgeschleppt hat und mit älterer Software nach wie vor hat. Ich finde es ja selbst absurd, aber der praktische Beweis liegt ja darin, dass jedes Videoprogramm (egal ob NLE oder Player) dasselbe Videomaterial mit jeweils anderen Farben wiedergibt.

Eventuell liegt's auch an Performance-Optimierungen für hardwarebeschleunigte Videowiedergabe mit Blick auf ältere oder schwachbrüstige Systeme (wie z.B. Netbooks), mit Priorität Realtime-Performance über Wiedergabequalität. Ich kriege ja selbst öfter Beschwerden von Leuten, die meine Vimeo-Videos nicht auf ihren Rechnern abspielen können, weil ihre Hardware dafür zu alt ist.
und was die 10bit OpenGL fullscreen ausgabe betrifft, muss ich dir leider auch widersprechen.
mit quatro karten bekommst du die bspw. ganz offiziell auf windows und unter linux auch schon mit den GTX karten.
Ich hatte ja auch bewusst "Consumer-Grafikkarten" geschrieben. Genauer wäre natürlich "Consumer-Grafikkarten auf Mainstream-Desktopbetriebssystemen".
und mpv bietet mittlerweile genügend farbmanagement-support, um die ausgabe über die GPU perfekt zu kalibrieren. Ja, den verwende ich ja nach Deinem guten Tipp hier im Forum auch schon seit einiger Zeit. Aber leider ist der eben die große Ausnahme. Um beim Schnitt für die farbechte Vorschau jeweils Clips rauszurendern, die extern in mpv zu betrachten, Farbkorrekturen anzuwenden, wieder zu rendern und in mpv zu kontrollieren, ist ja nicht wirklich praktikabel.

Space


Antwort von mash_gh4:

cantsin hat geschrieben:
mash_gh4 hat geschrieben:
bitte nimm es mir nicht übel, aber glaubst du wirklich, dass es im interesse von grafikkartenherstellern ist, aus irgendwelchen unerfindlichen gründen ganz bewusst "falsche" farben auszugeben?
Nein, nur keine Priorität. Genauso, wie Mac OS/Quicktime jahrelang den Gamma-Shift mit sich herumgeschleppt hat und mit älterer Software nach wie vor hat.
ich glaube, dass wir da wirklich alle einem etwas irreführenden maßstab folgen, nur weil hier im forum plötzlich ohne 10bit unterstützung auch anzeigeseitig überhaupt nichts mehr geht. diese haltung dürften draußen in der realen welt bis jetzt nur verhältnismäßig wenige teilen. erst der aktuelle HDR-hype scheint hier mächtig bewegung rein zu bringen. jedenfalls ist es auffällig, dass dieses feature selbst in der freien szene, wo man ja sonst kaum eine spielerei auslässt bzw. ohne unterstützung belässt, relativ lange keine große aufmerksamkeit erfahren hat. aber jetzt, wo sich jemand intensiv darum bemüht, wird plötzlich klar, dass dieses feature prinzipiell auf erstaunlich vielen grafikkarten verfügbar ist -- eben auch auf den ganz unscheinbaren intel iGPUs.

siehe:
https://www.phoronix.com/scan.php?page= ... -bit-Color
https://www.phoronix.com/scan.php?page= ... m3D-10-Bit
cantsin hat geschrieben:
Ich finde es ja selbst absurd, aber der praktische Beweis liegt ja darin, dass jedes Videoprogramm (egal ob NLE oder Player) dasselbe Videomaterial mit jeweils anderen Farben wiedergibt.
Eventuell liegt's auch an Performance-Optimierungen für hardwarebeschleunigte Videowiedergabe mit Blick auf ältere oder schwachbrüstige Systeme (wie z.B. Netbooks), mit Priorität Realtime-Performance über Wiedergabequalität. Ich kriege ja selbst öfter Beschwerden von Leuten, die meine Vimeo-Videos nicht auf ihren Rechnern abspielen können, weil ihre Hardware dafür zu alt ist.
der mangelhafte support der videowiedergabe in den diversen browsern ist leider wiede eine ganz andere baustelle, wo ich deinem klagen völlig zustimme! :(
es ist einfach unzumutbar, wenn hier manche programmen im falle von h.264 rec601 farben zeigen, während dieses problem bei der youtube-üblichen VP9 auslieferung plötzlich nicht mehr da ist u.ä.

trotzdem: so schrecklich kompliziert od. aufwendiger ist es oft nicht, die sachen auch tatsächlich korrekt umzusetzten, wenn den den entwicklern das problem erst einmal bewusst ist. das gilt für diese wirklich gravierenden mängel in der alltäglich videonutzungen nicht weniger wie für jene etwas anspruchsvolleren wünsche, die uns im bezug auf postprocessing software am herzen liegen.
cantsin hat geschrieben:
und mpv bietet mittlerweile genügend farbmanagement-support, um die ausgabe über die GPU perfekt zu kalibrieren. Ja, den verwende ich ja nach Deinem guten Tipp hier im Forum auch schon seit einiger Zeit. Aber leider ist der eben die große Ausnahme. Um beim Schnitt für die farbechte Vorschau jeweils Clips rauszurendern, die extern in mpv zu betrachten, Farbkorrekturen anzuwenden, wieder zu rendern und in mpv zu kontrollieren, ist ja nicht wirklich praktikabel.
ja -- da gebe ich dir recht. ich glaub halt nur, dass man es vielleicht auch als eingermaßen anschauliches real existierendes beispiel sehen könnte, wie sich derartiges vermutlich auch in anderen prestigeträchtigeren programmen mit vertretbarem aufwand befriediegender umsetzen lassen dürfte, wenn man nur will...

Space


Antwort von blickfeld:

schon wieder lustig, das du mash wieder versuchst, ohne erfahrung in dem bereich zu haben, recht zu bekommen. egal, mach was du willst, aber komm mir nicht mehr mit der tour, dass ich dich diffamieren würde, das tust du mal wieder komplett selbst. du kannst hier gerne in bielefeld vorbei kommen, dann bestellen wir einen menschen, der mit kalibrieren von monitoren sein geld verdient und dann kannst du live mit erleben, wie dein ideenkonstrukt komplett in sich zusammen fällt. wenn ich unrecht habe, zahle ich den guten, wenn du unrecht hast, bezahlst du den spaß. ich freue mich schon auf kostenlos nachkalibrierte monitore...

Space


Antwort von klusterdegenerierung:

Kann ich mich mit einem 6er Träger beteildigen, müßte sowieso mal wieder meinen Onkel besuchen? :-)

Space


Antwort von mash_gh4:

blickfeld hat geschrieben:
schon wieder lustig, das du mash wieder versuchst, ... , recht zu bekommen.
ich weiß nicht, ob's mir dabei wirklich nur darum geht, recht zu bekommen?

mich jedenfalls erheitert es auch nicht sonderlich, wenn ständig irgendwelche kollegen, die sich vermutlich noch nie ernsthaftere darüber gedanken gemacht haben dürften, wie das technisch funktionieren sollte, dass in der HDMI/DP/SDI-kommunikation einer ganz normalen grafikkarte zwar exakt die selben "normgerechten" digitalen werte(!) an einen monitor übertragen werden, aber trotzdem nur bei verwendung einer decklink-karte auf irgendeine zauberhafte weise dort auch die "richtigen" farben ankommen bzw. korrekt angezeigt werden? ich weiß nicht, wie man überhaupt zu derart absurden vorstellungen gelangen kann, ohne sie einfach nur "blind" zu übernehmen und ohne langes nachdenken von generation zu generation weiter nachzuplappern...

dass ich nichts gegen kalibrierung und vernünftiges farbmanagement einzuwenden habe -- ganz im gegenteil! --, dürfte ja vermutlich auch dir nicht entgangen sein.

Space



Space


Antwort von Axel:

Der TO reagierte ziemlich abweisend auf den Vorschlag, einfach mal zu checken, *ob* er den HDMI-Ausgang seines MBP in Resolve angezeigt bekommt. Der wurde nämlich offiziell für das von ihm auch verwendete FCPX für AV out (ohne OSX-Farbmanagement) unterstützt. Ich schrieb "wurde", da es ja bei aktuellen Macs keine HDMI-Schnittstelle mehr gibt. Falls ja, aber kein Bild angezeigt wird, könnte es daran liegen, dass kein "1080p" über diesen HDMI 1.4-Port übertragen werden. Eine einfache Änderung auf "1080 25 PSF" könnte das ändern. Ich selbst hatte bei meiner Käsereibe die Decklink Mini Monitor (soweit die "eigenen Erfahrungen") und selbst mit dieser war diese Einstellung nötig.

Eine weitere Frage wäre, ob 10-bit über diese Verbindung übertragen werden oder nur 8-bit. Decklink-Lösungen (Thunderbolt als Schnittstelle) versprechen 10-bit. Wenn das wichtig ist, dann sollte der TO googeln, denn bei einem vintage Mac mit evtl. aktuellem MacOS *und* den Treibern von Blackmagic kann die Frage nur beantworten, wer zufällig exakt diese Konfiguration laufen hat. Und da geht die Wahrscheinlichkeit in diesem kleinen Forum gegen Null.

Space


Antwort von blickfeld:

mash_gh4 hat geschrieben:
blickfeld hat geschrieben:
schon wieder lustig, das du mash wieder versuchst, ... , recht zu bekommen.
ich weiß nicht, ob's mir dabei wirklich nur darum geht, recht zu bekommen?

mich jedenfalls erheitert es auch nicht sonderlich, wenn ständig irgendwelche kollegen, die sich vermutlich noch nie ernsthaftere darüber gedanken gemacht haben dürften, wie das technisch funktionieren sollte, dass in der HDMI/DP/SDI-kommunikation einer ganz normalen grafikkarte zwar exakt die selben "normgerechten" digitalen werte(!) an einen monitor übertragen werden, aber trotzdem nur bei verwendung einer decklink-karte auf irgendeine zauberhafte weise dort auch die "richtigen" farben ankommen bzw. korrekt angezeigt werden? ich weiß nicht, wie man überhaupt zu derart absurden vorstellungen gelangen kann, ohne sie einfach nur "blind" zu übernehmen und ohne langes nachdenken von generation zu generation weiter nachzuplappern...

dass ich nichts gegen kalibrierung und vernünftiges farbmanagement einzuwenden habe -- ganz im gegenteil! --, dürfte ja vermutlich auch dir nicht entgangen sein.
ignoranz trifft gottkomplex, der grund, warum dich niemand ernst nimmt.
du unterstellst den profis, dass sie nur alles nachplappern, keine ahnung haben, zu dumm sind nachzudenken und das alle, nur du nicht, auch nicht tun.
du hast so etwas von keinen plan von der materie. immer wieder großartig.
du verstehst immer noch nicht wirklich viel. es gibt bisher noch keine alternative zu sdi, sdi gibt nicht nur ein bild wieder, es gibt tc mit, es kann timecode syncen, und und und. das kann hdmi nicht. das kann displayport nicht.
sdi-kabel zieht man mal nicht eben schnell raus, hdmi ist auch in dem bezug scheiße. sdi kannst du ewig verlegen, bei hdmi ist nach 10m schicht im schacht, außer mit verstärkung. und und und.
tu dir selbst einen gefallen und mach dich bitte nicht noch lächerlicher.
das problem mit dir ist einfach, dass du entweder rumtrollst wie ein könig oder du tatsächlich glaubst, alle außer dir hätten keine ahnung. wenn du von dem trip runter gekommen bist, können wir gerne wieder reden, bis dahin bist du einfach der typ, der zu allem seine meinung raushauen will, ohne viel ahnung von manchen, vielleicht sogar den meisten theman zu haben.

Space


Antwort von Alf_300:

Wer ist hier Profi ?

Space


Antwort von mash_gh4:

blickfeld hat geschrieben:
du verstehst immer noch nicht wirklich viel. es gibt bisher noch keine alternative zu sdi, sdi gibt nicht nur ein bild wieder, es gibt tc mit, es kann timecode syncen, und und und. das kann hdmi nicht. das kann displayport nicht.
sdi-kabel zieht man mal nicht eben schnell raus, hdmi ist auch in dem bezug scheiße. sdi kannst du ewig verlegen, bei hdmi ist nach 10m schicht im schacht, außer mit verstärkung. und und und.
ich hab kein problem damit, wenn jemand unbedingt SDI bevorzugt oder nutzen will. das habe ich ohnehin bereits weiter oben ganz explizit geäußert.

es gibt übrigens durchaus auch ganz brauchbare professionelle computergrafikkarten, die die vorzüge entsprechender zeitgemäßer rechenleistung und herstellerunabhängigen programmierschnittstellen mit SDI-ausgängen in sehr effizienter weise verbinden:

http://www.nvidia.de/object/product_qua ... ut_de.html

unter resolve hast du davon natürlich nichts, weil BMD gänzlich andere interessen verfolgt bzw. jeder derartigen konkurrenz und bedrohung ihres hardwareabsatzes konsequent entgegenzuwirken versucht.

das ändert aber nichts daran, dass in der digitalen kommunikation ohnehin immer nur unveränderliche zahlenwerte übertragen werden, und es daher auch keinen unterschied macht, ob das über licht oder kupfer erfolgt od. in diverse unterschiedliche anschlusstechniken und übertragungsprotokolle eingebettet wird. was die korrekte wiedergabe der farben angeht -- die uns ja besonders am herzen liegt bzw. von dir so grundsätzlich angezweifelt wird -- hat es jedenfalls keine unmittelbaren auswirkungen. die diesbezügliche qualität der wiedergabe hängt von ganz anderen faktoren ab.

Space


Antwort von MK:

Bei SDI kann ich mich halt darauf verlassen dass ich ein standardisiertes Videosignal rauskriege, bei HDMI über die Grafikkarte muss ich mir das erst so hinfummeln dass es passt (z.B. korrekter Videofarbraum anstatt PC-Farbraum).

Aber soll jeder so halten wie er es für sich für richtig hält

Space


Antwort von mash_gh4:

MK hat geschrieben:
Bei SDI kann ich mich halt darauf verlassen dass ich ein standardisiertes Videosignal rauskriege, bei HDMI über die Grafikkarte muss ich mir das erst so hinfummeln dass es passt (z.B. korrekter Videofarbraum anstatt PC-Farbraum).
in dem punkt bin ich voll bei dir!

wenn auf beiden seiten irgendwelche unterschiedlichen erwartungen an den auszugebenden/darzustellenden farbraum vorliegen, ist das immer völlig unbefriedigend -- allerdings eben nicht nur bei der ausgabe auf derartigem externen studiogerät, sondern eben auch im hinblick auf eine vernünftige wiedergabe auf den computerbildschirmen bzw. dafür ausreichendem farbmanagement.

Space


Antwort von blickfeld:

mash_gh4 hat geschrieben:
blickfeld hat geschrieben:
du verstehst immer noch nicht wirklich viel. es gibt bisher noch keine alternative zu sdi, sdi gibt nicht nur ein bild wieder, es gibt tc mit, es kann timecode syncen, und und und. das kann hdmi nicht. das kann displayport nicht.
sdi-kabel zieht man mal nicht eben schnell raus, hdmi ist auch in dem bezug scheiße. sdi kannst du ewig verlegen, bei hdmi ist nach 10m schicht im schacht, außer mit verstärkung. und und und.
ich hab kein problem damit, wenn jemand unbedingt SDI bevorzugt oder nutzen will. das habe ich ohnehin bereits weiter oben ganz explizit geäußert.

es gibt übrigens durchaus auch ganz brauchbare professionelle computergrafikkarten, die die vorzüge entsprechender zeitgemäßer rechenleistung und herstellerunabhängigen programmierschnittstellen mit SDI-ausgängen in sehr effizienter weise verbinden:

http://www.nvidia.de/object/product_qua ... ut_de.html

unter resolve hast du davon natürlich nichts, weil BMD gänzlich andere interessen verfolgt bzw. jeder derartigen konkurrenz und bedrohung ihres hardwareabsatzes konsequent entgegenzuwirken versucht.

das ändert aber nichts daran, dass in der digitalen kommunikation ohnehin immer nur unveränderliche zahlenwerte übertragen werden, und es daher auch keinen unterschied macht, ob das über licht oder kupfer erfolgt od. in diverse unterschiedliche anschlusstechniken und übertragungsprotokolle eingebettet wird. was die korrekte wiedergabe der farben angeht -- die uns ja besonders am herzen liegt bzw. von dir so grundsätzlich angezweifelt wird -- hat es jedenfalls keine unmittelbaren auswirkungen. die diesbezügliche qualität der wiedergabe hängt von ganz anderen faktoren ab.
einen punkt, den du bis heute immer ignorierst, ist der punkt, das video i/o alle das selbe genormte signal ausgeben, was gpus eben nicht machen. zum einen kann man nicht sicher sein, was für ein signal eine gpu werksseitig ausgibt und zum anderen kann dieses signal durch die treiber verändert werden. das ist eine sache, die einfach nicht in deinen kopf will.
wenn man eine gpu nutzt, muss ein monitor exklusiv auf die verwendete gpu kalibriert werden. sobald man diese gpus tauscht, wäre sehr wahrscheinlich die kalibrierung hinfällig. das ist einfach fakt.
bei video i/o hat man immer ein genormtes signal und wenn deine video i/o kaputt geht, tauscht du die eben aus.

sorry mash, du ignoriest die realität und schreibst hypotetisch. ich gebe es nach diesem versuch einfach auf, mit dir über dieses thema zu reden und beschränke mich auf die korrektur der falschen aussagen, die rausgehauen werden.

Space


Antwort von klusterdegenerierung:

blickfeld hat geschrieben:

einen punkt, den du bis heute immer ignorierst, ist der punkt, das video i/o alle das selbe genormte signal ausgeben, was gpus eben nicht machen. zum einen kann man nicht sicher sein, was für ein signal eine gpu werksseitig ausgibt und zum anderen kann dieses signal durch die treiber verändert werden. das ist eine sache, die einfach nicht in deinen kopf will.
wenn man eine gpu nutzt, muss ein monitor exklusiv auf die verwendete gpu kalibriert werden. sobald man diese gpus tauscht, wäre sehr wahrscheinlich die kalibrierung hinfällig. das ist einfach fakt.
bei video i/o hat man immer ein genormtes signal und wenn deine video i/o kaputt geht, tauscht du die eben aus.

sorry mash, du ignoriest die realität und schreibst hypotetisch. ich gebe es nach diesem versuch einfach auf, mit dir über dieses thema zu reden und beschränke mich auf die korrektur der falschen aussagen, die rausgehauen werden.
Gebe ich Dir vollkommen Recht, aber mash hat ja auch nichts gegenteiliges behauptet,
er spricht diesen Punkt einfach nur nicht an!
Ich denke jeder von uns, egal wie professionell er ist, ist schon einmal ein die Lage gekommen eine neue Graka einzubauen.

Das dabei kein Kalibrierungswert mehr passt, dürfte wohl jedem aufgefallen sein.
Und das mit der SDI Karte ist natürlich nice, aber mal ehrlich, wer von den hier Anwesenden tauscht lustig seine Karten,
oder kalibriert gar jeden Monat seinen Moni?

Du weißt doch never trust a running system, da ist man doch froh,
wenn der Moni passt und man den stetigen Verfall der Darstellungsleistung ignorieren kann! ;-)

Space


Antwort von rdcl:

Hier wird immer gesagt der GPU Treiber kann das Signal verändern, die Einstellungen können unterschiedlich sein, man kann nicht sicher sein was die GPU ausgibt, wahrscheinlich wäre die Kalibrierung im Eimer... gibt es dafür auch etwas handfesteres als könnte, wahrscheinlich, möglicherweise? Ich streite das nicht generell ab, aber irgendwie bezweifle ich auch dass verschiedene GPUs das Signal nach Lust und Laune verbiegen.
Vielleicht kann ja mal jemand zum Vergleich ein HDMI Signal einer üblichen Grafikkarte abgreifen und mit dem Signal einer I/O Karte vergleichen?

Space



Space


Antwort von Frank Glencairn:

Orsa hat geschrieben:
Für meine bisherigen Schnittprogrammen FC-7 und FCP-X sowie auch Premiere benötigte ich keine Deck Link Karte. Mein Computer hat HDMI und Thunderbolt Ausgänge und die Bildschirme haben HDMI Eingänge, die mit den bisherigen Programmen problemlos funktionierten. Frage: warum denn nicht mit DaVinci Resolve?

In a nut shell:

Weil man zwar prinzipiell auch mit ner Bohrmaschine einen Nagel in die Wand hauen kann,
ein Hammer aber dafür einfach in jeder Hinsicht besser ist.

Side note: lass die Finger von Resolve, das ist nix für einen wie dich.

Space


Antwort von blickfeld:

rdcl hat geschrieben:
Hier wird immer gesagt der GPU Treiber kann das Signal verändern, die Einstellungen können unterschiedlich sein, man kann nicht sicher sein was die GPU ausgibt, wahrscheinlich wäre die Kalibrierung im Eimer... gibt es dafür auch etwas handfesteres als könnte, wahrscheinlich, möglicherweise? Ich streite das nicht generell ab, aber irgendwie bezweifle ich auch dass verschiedene GPUs das Signal nach Lust und Laune verbiegen.
Vielleicht kann ja mal jemand zum Vergleich ein HDMI Signal einer üblichen Grafikkarte abgreifen und mit dem Signal einer I/O Karte vergleichen?
wenn dir die aussage nicht gut genug ist, bestell dir einfach jemand, der monitore professionell kalibiert. der hat die messgeräte dabei und kann dir live und vor ort den unterschied zeigen.
was, wenn überhaupt, wirst du so oder so nicht glauben.
was auch du nicht verstehst, selbst jedes betriebsystem kann auswirkung auf den signalweg haben.
beste beispiel ist auch die ausgabe durch verschiedene player. vlc spielt (sehr wahrscheinlich) ein anderes bild ab als der mediaplayer, als quicktime, scratch play, etc.
hier drücke ich mich vielleicht nicht richtig aus, da mir vielleicht das richtige vokabular fehlt. die player haben halt alle verschiedene algorithmen unter der haube, mit dem sie das bild "verbessern" wollen. in wirklichkeit verfälschen sie halt das bild. z.b. gibt scratch ein valides bild aus. wenn eine video i/o dran ist.

Space


Antwort von rdcl:

blickfeld hat geschrieben:
rdcl hat geschrieben:
Hier wird immer gesagt der GPU Treiber kann das Signal verändern, die Einstellungen können unterschiedlich sein, man kann nicht sicher sein was die GPU ausgibt, wahrscheinlich wäre die Kalibrierung im Eimer... gibt es dafür auch etwas handfesteres als könnte, wahrscheinlich, möglicherweise? Ich streite das nicht generell ab, aber irgendwie bezweifle ich auch dass verschiedene GPUs das Signal nach Lust und Laune verbiegen.
Vielleicht kann ja mal jemand zum Vergleich ein HDMI Signal einer üblichen Grafikkarte abgreifen und mit dem Signal einer I/O Karte vergleichen?
wenn dir die aussage nicht gut genug ist, bestell dir einfach jemand, der monitore professionell kalibiert. der hat die messgeräte dabei und kann dir live und vor ort den unterschied zeigen.
was, wenn überhaupt, wirst du so oder so nicht glauben.
was auch du nicht verstehst, selbst jedes betriebsystem kann auswirkung auf den signalweg haben.
beste beispiel ist auch die ausgabe durch verschiedene player. vlc spielt (sehr wahrscheinlich) ein anderes bild ab als der mediaplayer, als quicktime, scratch play, etc.
hier drücke ich mich vielleicht nicht richtig aus, da mir vielleicht das richtige vokabular fehlt. die player haben halt alle verschiedene algorithmen unter der haube, mit dem sie das bild "verbessern" wollen. in wirklichkeit verfälschen sie halt das bild. z.b. gibt scratch ein valides bild aus. wenn eine video i/o dran ist.
Ich hatte gehofft den Techniker umgehen zu können. Hätte ja sein können dass es da etwas konkretes im Netz zu finden gibt, ohne kann und wahrscheinlich.
Ein "unbearbeitetes" Signal zum Monitor auszugeben müsste für jede Grafikkarte ja theoretisch einfacher sein als irgendwelche Veränderungen vorzunehmen. Und standardmäßig sind ja auch keine Zusatzsettings aktiviert, zumindest keine auf die man selbst Einfluss nehmen kann (bei NVidia). Man kann ja sogar entscheiden ob der "Player" (in dem Fall die Anwendung, NLE) oder der Treiber die Konfiguration übernehmen soll.

Von daher hätte mich einfach mal interessiert wie die reinen Outputsignale sich unterscheiden.

Es gibt z.B. von Blackmagic auch HDMI --> SDI Konverter und andersrum. Wird da das Signal eigentlich verändert oder nur durchgeschliffen?

Space


Antwort von Frank Glencairn:

rdcl hat geschrieben:


Von daher hätte mich einfach mal interessiert wie die reinen Outputsignale sich unterscheiden.

Es gibt z.B. von Blackmagic auch HDMI --> SDI Konverter und andersrum. Wird da das Signal eigentlich verändert oder nur durchgeschliffen?
Das eine ist ein Videosignal (YUV) das andere ist ein Computermonitorsignal (RGB).

Und ja, das Signal wird ohne Änderung durchgeschliffen.

Space


Antwort von blickfeld:

rdcl hat geschrieben:
blickfeld hat geschrieben:

wenn dir die aussage nicht gut genug ist, bestell dir einfach jemand, der monitore professionell kalibiert. der hat die messgeräte dabei und kann dir live und vor ort den unterschied zeigen.
was, wenn überhaupt, wirst du so oder so nicht glauben.
was auch du nicht verstehst, selbst jedes betriebsystem kann auswirkung auf den signalweg haben.
beste beispiel ist auch die ausgabe durch verschiedene player. vlc spielt (sehr wahrscheinlich) ein anderes bild ab als der mediaplayer, als quicktime, scratch play, etc.
hier drücke ich mich vielleicht nicht richtig aus, da mir vielleicht das richtige vokabular fehlt. die player haben halt alle verschiedene algorithmen unter der haube, mit dem sie das bild "verbessern" wollen. in wirklichkeit verfälschen sie halt das bild. z.b. gibt scratch ein valides bild aus. wenn eine video i/o dran ist.
Ich hatte gehofft den Techniker umgehen zu können. Hätte ja sein können dass es da etwas konkretes im Netz zu finden gibt, ohne kann und wahrscheinlich.
Ein "unbearbeitetes" Signal zum Monitor auszugeben müsste für jede Grafikkarte ja theoretisch einfacher sein als irgendwelche Veränderungen vorzunehmen. Und standardmäßig sind ja auch keine Zusatzsettings aktiviert, zumindest keine auf die man selbst Einfluss nehmen kann (bei NVidia). Man kann ja sogar entscheiden ob der "Player" (in dem Fall die Anwendung, NLE) oder der Treiber die Konfiguration übernehmen soll.

Von daher hätte mich einfach mal interessiert wie die reinen Outputsignale sich unterscheiden.

Es gibt z.B. von Blackmagic auch HDMI --> SDI Konverter und andersrum. Wird da das Signal eigentlich verändert oder nur durchgeschliffen?
deine frage würde schon mehrfach vonleuten beantwortet, in bezug auf graka und signal. du willst sie halt nicht hören. und auch google beantwortet die frage. du musst halt nur google benutzen. mir wird das jedenfalls zu anstrengend. ich beschränke mich jetzt auf das korrigieren von falschaussage und nicht mehr. hat so oder so keinen sinn

Space


Antwort von Sammy D:

In Bezug auf FCPX kann das unveraenderte Signal via HDMI (oder Thunderbolt mit entsprechendem Display) als AV Output ausgegeben werden. Funktioniert aber nur mit Final Cut.

Space


Antwort von rdcl:

Nvidia Karten können YUV ausgeben.

Space


Antwort von rdcl:

blickfeld hat geschrieben:
rdcl hat geschrieben:


Ich hatte gehofft den Techniker umgehen zu können. Hätte ja sein können dass es da etwas konkretes im Netz zu finden gibt, ohne kann und wahrscheinlich.
Ein "unbearbeitetes" Signal zum Monitor auszugeben müsste für jede Grafikkarte ja theoretisch einfacher sein als irgendwelche Veränderungen vorzunehmen. Und standardmäßig sind ja auch keine Zusatzsettings aktiviert, zumindest keine auf die man selbst Einfluss nehmen kann (bei NVidia). Man kann ja sogar entscheiden ob der "Player" (in dem Fall die Anwendung, NLE) oder der Treiber die Konfiguration übernehmen soll.

Von daher hätte mich einfach mal interessiert wie die reinen Outputsignale sich unterscheiden.

Es gibt z.B. von Blackmagic auch HDMI --> SDI Konverter und andersrum. Wird da das Signal eigentlich verändert oder nur durchgeschliffen?
deine frage würde schon mehrfach vonleuten beantwortet, in bezug auf graka und signal. du willst sie halt nicht hören. und auch google beantwortet die frage. du musst halt nur google benutzen. mir wird das jedenfalls zu anstrengend. ich beschränke mich jetzt auf das korrigieren von falschaussage und nicht mehr. hat so oder so keinen sinn
Ich habe nach dem konkreten Signalunterschied gefragt. Wo wurde das beantwortet?

Space


Antwort von Frank Glencairn:

rdcl hat geschrieben:
Nvidia Karten können YUV ausgeben.
Das nutzt dir halt bei Resolve nix.

Space



Space


Antwort von MK:

klusterdegenerierung hat geschrieben:
wer von den hier Anwesenden tauscht lustig seine Karten
Da sowohl Blackmagic als auch AJA bei Karten die teilweise über 1000 EUR kosten besch...eidene Billiglüfter verbauen, kommt das doch hin und wieder vor dass man die Karte wechseln muss weil das Teil mal wieder röhrt wie ein Hirsch in der Brunft.

Space


Antwort von rdcl:

"Frank Glencairn" hat geschrieben:
rdcl hat geschrieben:
Nvidia Karten können YUV ausgeben.
Das nutzt dir halt bei Resolve nix.
Schon klar. Mir geht es auch eher darum ob es möglich ist aus einer Consumer Grafikkarte wie einer GTX das gleiche Signal wie aus einer z.B. Decklink zu bekommen. Von SDI mal abgesehen.

Space


Antwort von blickfeld:

rdcl hat geschrieben:
blickfeld hat geschrieben:

deine frage würde schon mehrfach vonleuten beantwortet, in bezug auf graka und signal. du willst sie halt nicht hören. und auch google beantwortet die frage. du musst halt nur google benutzen. mir wird das jedenfalls zu anstrengend. ich beschränke mich jetzt auf das korrigieren von falschaussage und nicht mehr. hat so oder so keinen sinn
Ich habe nach dem konkreten Signalunterschied gefragt. Wo wurde das beantwortet?
diese frage wurde mehrfach beantwortet. ja, es gibt einen unterschied. lesen ist schob schwer. wenn es dich interessiert hatte, wärst du bei einer google recherche z.b. auf lift gamma gain gestoßen, wo das u.a. erklärt wird. auch auf andere seiten. jedoch bist du, anscheinend, genau so resistent wie mash. wie gesagt, ich bin dann mal raus.

Space


Antwort von rdcl:

blickfeld hat geschrieben:
rdcl hat geschrieben:


Ich habe nach dem konkreten Signalunterschied gefragt. Wo wurde das beantwortet?
diese frage wurde mehrfach beantwortet. ja, es gibt einen unterschied. lesen ist schob schwer. wenn es dich interessiert hatte, wärst du bei einer google recherche z.b. auf lift gamma gain gestoßen, wo das u.a. erklärt wird. auch auf andere seiten. jedoch bist du, anscheinend, genau so resistent wie mash. wie gesagt, ich bin dann mal raus.
Und für einen Link bist du dir zu fein?

Space


Antwort von Alf_300:

Genau, nehmt Google denn Blickfeld kann es nicht erklären.

Space


Antwort von klusterdegenerierung:

MK hat geschrieben:
klusterdegenerierung hat geschrieben:
wer von den hier Anwesenden tauscht lustig seine Karten
Da sowohl Blackmagic als auch AJA bei Karten die teilweise über 1000 EUR kosten besch...eidene Billiglüfter verbauen, kommt das doch hin und wieder vor dass man die Karte wechseln muss weil das Teil mal wieder röhrt wie ein Hirsch in der Brunft.
Ich meinte nicht die io Karten sondern die Nvidias.

Space


Antwort von caiman:

rdcl hat geschrieben:
Mir geht es auch eher darum ob es möglich ist aus einer Consumer Grafikkarte wie einer GTX das gleiche Signal wie aus einer z.B. Decklink zu bekommen. Von SDI mal abgesehen.
Ja das geht. Zb. mit einem Kalibrierungstool wie color monki.
dazu musst du ein Lut für den Monitor welcher an der Graka angeschlossen ist erzeugen. für den gewünschten Farbraum zB. Rec 709.
Dann musst du ein Lut für den Monitor welcher an der Decklink angeschlossen ist erzeugen. Für den selben Farbraum versteht sich.
Dieses Lut muss entweder in den Monitor selbst importiert werden oder in Davinci, in die Ausgangssettings. Dieses Lut kann man mit DisplayCAL erzeugen.

Space


Antwort von mash_gh4:

caiman hat geschrieben:
Ja das geht. Zb. mit einem Kalibrierungstool wie color monki.
dazu musst du ein Lut für den Monitor welcher an der Graka angeschlossen ist erzeugen. für den gewünschten Farbraum zB. Rec 709.
Dann musst du ein Lut für den Monitor welcher an der Decklink angeschlossen ist erzeugen. Für den selben Farbraum versteht sich.
Dieses Lut muss entweder in den Monitor selbst importiert werden oder in Davinci, in die Ausgangssettings. Dieses Lut kann man mit DisplayCAL erzeugen.
technisch gesehen ist ganze sache leider aus etwas anderen gründen kompliziert.

das ganze hat nämlich mehr mit der frage zu tun, wie man die betreffenden hardware-devices anspricht bzw. ihnen die daten übergibt.

das kann in einer weise erfolgen, wo man einfach einen block mit jenen werten an die ausgabekarte übergibt, die bereits genau das enthalten, was dann letztlich übers kabel geschickt wird -- das ist in etwa die funktionsweise, die man normalerweise diesen broadcast-ausgabekarten vorfindet --, oder aber man bedient sich div. anderer grafik-schnittstellen, die zwar eine ganze menge mehr können als nur irgendwelche 'textures' auszugeben, aber sich dafür in der regel wesentlich abstrakterer mittel bedienen. das erschwert natürlich auch die tatsächliche kontrolle und umsetzung ein wenig.

diese problematik trifft leider auch ganz speziell auch auf jene OpenGL ausgabemöglichkeiten zu, mit denen die meisten professionellen videobearbeitungsprograme ihre bilder auf den computerbildschirm malen. OpenGL ist seiner grundsätzlichen konzeption nach farbraum-agnostisch und behandelt licht und farben nicht gemäß irgendwelcher überkommenen fernsehstandards, sondern in weit präziseren fließkomma-werten und linearer darstellung -- was allerdings auf grund seiner praktischen vorzüge mittlerweile ohnehin auch in jeder anspruchsvolleren bild- und videoverarbeitungssoftware in ganz gleicher weise gemacht wird. diese grundsätzlich andere herangehensweise bedeutet allerdings nicht, dass man nicht auch auf diesem weg ganz korrekte farbausgaben und ausgaben über die tradierten ausgabeprotkolle und broadcast standards realisieren könnte, nur muss man sich darum in etwas anders gearteter weise kümmern.

ziemlich nachvollziehbar sind die damit verbunden möglichkeiten, die jeweils unterschiedlichen qualitätsansprüchen bzw. nötigem aufwand zuzuordnen sind, in folgendem abschitt er apple TN für entwickler skizziert:

https://developer.apple.com/library/con ... NT_EXAMPLE

man kann sich also u.u. überhaupt nicht um die hier nötigen anpassungen kümmern, und der einfach irgendwas unaufbereitetes ähnlich wirkendes über die grafikkarte auf den schirm malen, oder eben wirklich sauberes color managment nutzen, um die die notwendigen umrechnungen und anpassungen an einen vorgegebenen ausgabefarbraum in befriedigender weise abzuwickeln. wenn man letzters auf sicht nimmt, kann man damit aber prinzipiell durchaus die selbe ausgabequlität wie über decklink-karten erreichen.

im falle von apple ist das so gelöst, dass zwar die OpenGL grafikfunktionalität tatsächlich vom system color managment losgelöst funktioniert, man aber trotzdem beim explizit beim system anfragen kann, welche umrechnung bzw. darstellungsfilter man nutzen könnte, um den angeschlossenen monitoren gerecht zu werden. dafür ist dann zwar tatsächlich ein gewisser zusatzaufwand von nöten, aber es wird auf diese indirekte weise doch realtiv vernünftig unterstützt. das ist auch der grund, warum man in der apple ausgabe von resolve, genau diese elementare funktionalität geboten bekommt -- und damit auch am eingbauten P3 display eines imacs einigermaßen vernünftige farben angezeigt bekommt --, während man unter windows od. linux von solchem luxus weiterhin nur träumen kann. auf den anderen plattformen werden vom resolve zur vorschau eben leider wirklich gänzlich unaufbereitet rec709 farbwerte an die computerdisplays geschickt. die würden aber aus kompatibilität zu den erwartungen aller anderen anwedungen im regelfall natürlich vierlmehr sRGB werte erwarten. deswegen schauen eben leider resolve produktionen, die von benutzern unter windows direkt am computerschirm gemacht wurden, regelmäßig wieder völlig unbrauchbbar aus, weil eben die kontrast- und helligkeitsgestaltung auf einen falschen farbraum bzw. diesbezügliche ungereimtheiten in der ausgabe beziehen.

die frage der kalibrierung ist von dieser ganzen geschichte weitestgehend losgelöst. wenn der angeschlossene monitor selbst in der lage ist, werte, die man ihm schickt, in korrekter weise wiederzugeben -- also im regelfall hardwarekalibrierung nutzt --, ist das ganze ohnehin relativ einfach, weil man ja wirklich nur korrekte daten für den entsprechenden farbraum gemäß betreffenden standards ausgben muss. das können irgenwelche alltäglichen computergrafikkarten ganz genauso gut wie broadcast-ausgabe-devices. wie leben ja nicht mehr im analogen zeitalter, wo es wirklich um "signale" od. exakte spannungswerte und zeitkritische synchronisation der ausgabe gefordert wird, sondern wirklich nur mehr einfache umissverständliche zahlen über die leitung geschickt werden.

kalibirerung ist im grund eine völlig andere baustelle, die man in einer perfekten welt, wo ohnehin alles wunderbar gemäß der norm läuft, gar nicht erst brauchen sollte. korrekte übersetzungen in den erwarteten farbraum der übertragung benötigt es aber auch bereits hier!

wenn ich also resolve immer wieder dafür kritisiere, dass es in dieser hinsicht extrem unflexibel und benutzerfeindlich ist, geht's da noch gar nicht um irgendwelche nöte der softwarseitigen kompensation von darstellungsmängeln der angeschlossenen geräte, sondern vorrangig einmal darum, das man nur einfach für jeden genutzten monitor einstellen können sollte, ob es sich dabei um ein gerät handelt, das rec709, P3 od. eben auch sRGB erwartet. damit wären wir schon einen riesigen schritt weiter.

die entsprechenden umrechnungen zw. diesen standardfarbräumen ist auch nicht sonderlich komliziert und ganz klar definiert. es geht hier um eine auswahlmöglichkeit, wie man sie bspw. im nuke od. natron findet, wo man für jeden viewer auswählen kann, in welcher weise die ausgabe gemäß eines klar standardisierten farbraumes übersetzt wird.

da diese umrechnung zw. standardisierten farbräumen aber bereits viel ähnlichkeit und berührungspunkte mit jene techniken aufweisen, mit denen man es auch bei softwareseitigen kompensierungen von darstellungsmängeln zu tun hat, macht's hier natürlich durchaus sinn, wenn man neben der bloßen anpassung an fest vorgegebene standards der farbübertragung eben auch diese lokalen anpassungsnöte gleich miteinbezieht. das ist auch deshalb sinnvoll, weil man mit solchen ansätzen, die systemweit von allen anwendungen genutzte werden können, es den benutzern deutlich einfacher macht, ihre geräte tatsächlich sauber zu konfigurieren. proprietäre lösungen, die dann wieder nur in einem ganz speziellen programm funktioniere, und jedes mal wieder auf völlig andere weise kalibriert werden müssen, sind diesbezüglich immer ein ärgernis. systemweite monitorprofilunterstützung ist daher zwar sicher mehr als zweitrangiger luxus anzusehen, würde aber für jene, die bspw. auf laptops od. rechnern mit integriertem display arbeiten, auch diesen weg eröffnen.

ich finde es wirklich schade, dass jede auseinandersetzung mit diesen fragen und benutzerwünschen immer wieder von derart unhaltbaren vorteilen und weit verbreiteten irrtümern geprägt ist, dass man kaum vernünftig darüber reden kann.

Space


Antwort von klusterdegenerierung:

Wenn ich den letzten post in ein Kindle packen würde, hätte ich schon ein Buch!

Space



Space


Antwort von blickfeld:

rdcl hat geschrieben:
blickfeld hat geschrieben:


diese frage wurde mehrfach beantwortet. ja, es gibt einen unterschied. lesen ist schob schwer. wenn es dich interessiert hatte, wärst du bei einer google recherche z.b. auf lift gamma gain gestoßen, wo das u.a. erklärt wird. auch auf andere seiten. jedoch bist du, anscheinend, genau so resistent wie mash. wie gesagt, ich bin dann mal raus.
Und für einen Link bist du dir zu fein?
so wie du dich aufführst, jupp, da bin ich mir zu fein für. weil es sehr wahrscheinlich einfach keinen sinn macht.

Space


Antwort von rdcl:

blickfeld hat geschrieben:
rdcl hat geschrieben:


Und für einen Link bist du dir zu fein?
so wie du dich aufführst, jupp, da bin ich mir zu fein für. weil es sehr wahrscheinlich einfach keinen sinn macht.
Ich führe mich auf? Warum denn so dünnhäutig? Und schon wieder dieses wahrscheinlich...
Du begreifst auch garnicht dass ich dir hier nirgendwo widerspreche. Ich wollte lediglich wissen wie genau das OS, der Treiber etc. das Signal bei einer gewöhnlichen Grafikkarte verändert. Das sollte ja wohl irgendwo dokumentiert sein oder nicht? Um dann herauszufinden ob man das umgehen kann und somit ein "unverändertes" Signal ausgeben kann, genau wie z.B. bei einer Decklink. Tut mir leid dass dich die Frage so aufregt.

Space


Antwort von PowerMac:

boys, chillt mal, boys

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Blackmagic DaVinci Resolve / Fusion-Forum

Antworten zu ähnlichen Fragen //


DaVinci Resolve Audiotracks im Viewer
Viewer bei Resolve mit Kammeffekten
iOS Videoschnitt App LumaFusion 2.0 u.a. mit Unterstützung für externen Monitor // NAB 2019
Canon 1dc & Handy als externen Monitor
mit welchem externen Touch- Monitor kann ich die R5 C bedienen?
kopierte DVD (CloneDVD) läuft nur auf dem PC nicht auf externen Playern
TV ausgabe auf einem 23er Monitor
Frage zu Umstieg von DVB-S Karte auf externen Recorder
Sony Alpha 1 - Frage zu Ausgabe über Monitor und HDMI
Blackmagic DaVinci Resolve 16.1 Beta: Viele Neuerungen beim Cut und Fullscreen Preview auf zweitem Monitor
DVBs TV-Karte "Technisat Skystar2"? Problem mit DVB Viewer!
suche DVB-Viewer/Prg. als PVR für Technisat Skystar 2
DVD player mit JPEG viewer
Mit dem Taskplaner aus dem Ruhezustand reaktivieren DVB-Viewer Pro
SkyStar 2 + DVB Viewer: Nur Standbild
TT 1500 S + Ci + DVB Viewer Vista-tauglich?
Resolve Ausgabe Farb-Änderung




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash