Frage von Jörg:Hi,
ich versuche in Resolve für mein notebook meine typische 2-3 Monitorconfig von Premiere hinzubekommen. Das scheint nicht so ganz einfach zu sein.
Das Erweitern des ganzen gui klappt zwar, aber wie koppelt man Paletten ab, vor allem, wie bekomme ich den Cinema Viewer auf einen Monitor?
Antwort von dienstag_01:
Das ist nur sehr viel eingeschränkter als in Premiere etc. möglich, über, ich glaube, Layout, kann man den Monitor wählen, wo der Viewer angezeigt wird. Als Vollbild verdeckt er aber dann die anderen Bereiche, die kann man nicht umgruppieren, zumindest nicht in der Free Version.
Mein Kenntnisstand ;)
Antwort von Jörg:
Dank dir, diese Einstellung im Layout war ausgegraut.
Ich habe nun Resolve über die nVidia settings erneut eingebunden, jetzt sind 2 Monitore aktiv, allerdings nicht so, wie gewollt...mal sehen.
Antwort von Paralkar:
Du brauchst ne Video I/O, geht nicht anders, für seperates Vollbild
Die Software ist kostenlos, aber Blackmagic verdient daran, das man sich die Video I/O kauft.
Ultrastudio Express oder Mini Monitor
Antwort von blickfeld:
Moin Jörg,
das man dir auch mal helfen kann, wer hätte das gedacht ;).
Also wie schon geschrieben worden ist, brauchst du eine Video I/O von Blackmagic (andere Hersteller werden nicht unterstützt) für DaVinci, das hat verschiedene Gründe.
Das GUI-Bild nicht Farbgetreu. Wenn Du also ein getreues Abbild sehen willst, musst du Deinen Monitor halt über eine Decklink oder Ultrastudio anschließen.
Du kannst bedingt Sachen von der GUI abkoppeln, wie z.B. die Scopes im Single Monitor.
Für die Scopes machen aber auch entweder HardwareScopes Sinn oder z.B. sich eine Scopebox zu basteln, mit der man dann eigene, frei konfigurierbare Scopes hat.
Wenn Du generell Fragen zu DaVinci hast, kannst Du mir auch gerne ne Mail schreiben. Adresse findest du auf meiner Seite.
Antwort von Jörg:
das man dir auch mal helfen kann, wer hätte das gedacht ;).
lol, aber da ist es doch prima, wenn man auch Hilfe angeboten bekommt...
Ich habe gerade erst in Resolve angefangen, wie der berühmte blutige Anfänger drei DIN A 4 Seiten mit Fragezeichen verfasst.
Am zweiten Tag habe ich dann ununterbrochen die Antworten dazu geschrieben, es ist erstaunlich simpel und logisch aufgebaut.
Allein das Studium der Voreinstellung lässt die Lösungen nur so aufpoppen ;-))
Die i/o als Farbbeurteilung leuchtet ja ein, aber ich fürchte, es fehlen die
Optionen zum Abdocken ganzer Programmteile, da hat dienstag recht, oder ich übersehe da etwas.
Dein Angebot nehme ich gerne an, wahrscheinlich eher hier, ich glaube da werden in Zukunft sehr viele Nutzer von Lösungen profitieren können.
Antwort von Jörg:
So, das ist das Ergebnis diverser settings in der Grafikkarteneinstellung und im Programm.
Damit kann ich erstmal leben, die Cinema Viewer liegt zwar auf dem falschen Monitor, was solls...
Antwort von dienstag_01:
Ist schon seltsam, dass man Vollbild haben kann, damit aber alle Werkzeuge verdeckt. Scheint schon ein Plan dahinter zu stecken ;)
Antwort von blickfeld:
Ist schon seltsam, dass man Vollbild haben kann, damit aber alle Werkzeuge verdeckt. Scheint schon ein Plan dahinter zu stecken ;)
Nö, ist es nicht. Einfach mal nachdenken, was DaVinci ist. DaVinci ist ein professionelles Farbkorrektur Programm, welches von vorne Rein sagt, Ihr braucht einen Vorschaumonitor, da über die GUI das wiedergegebene Bild nicht dem tatsächlichen entspricht.
Deshalb passt das ganze schon, wie es ist. Macht einfach Sinn.
Antwort von dienstag_01:
Ihr braucht einen Vorschaumonitor, da über die GUI das wiedergegebene Bild nicht dem tatsächlichen entspricht.
Klingt für mich irgendwie nach Schwachsinn, aber du wirst es sicher gleich erklären ;)
Antwort von mash_gh4:
Deshalb passt das ganze schon, wie es ist. Macht einfach Sinn.
nein -- macht keinen sinn! -- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...
in wahrheit ist es aber mittlerweile so, dass die ausgabe über video-i/o-karten den möglichkeiten heute gebräuchlicher guter grafigkarten deutlich unterlegen ist. aus technischer sicht ist es daher als als ziemlich problemtisch anzusehen, dass bmd hier keine andere nutzung erlaubt.
Antwort von blickfeld:
Deshalb passt das ganze schon, wie es ist. Macht einfach Sinn.
nein -- macht keinen sinn! -- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...
in wahrheit ist es aber mittlerweile so, dass die ausgabe über video-i/o-karten den möglichkeiten heute gebräuchlicher guter grafigkarten deutlich unterlegen ist. aus technischer sicht ist es daher als als ziemlich problemtisch anzusehen, dass bmd hier keine andere nutzung erlaubt.
nicht wirklich. farbechtheit ist mit keinem programm ohne eine video i/o karte garantiert. punkt. auch bietet hdmi / displayport keine möglichkeit timecode wiederzugeben. punkt.
aber was schwafel ich, mash_gh4 hat natürlich recht, deshalb besitzt auch kein profischnittplatz eine video i/o...
komplett überbewertet, das olle ding...
Antwort von mash_gh4:
nicht wirklich. farbechtheit ist mit keinem programm ohne eine video i/o karte garantiert. punkt.
aber geh! -- natürlich kann man auch die farbwiedergabe über eine normale grafikkarte kalibrieren... sind doch ganz genau die selben daten/werte, die übers kabel ausgegeben werden...
auch bietet hdmi / displayport keine möglichkeit timecode wiederzugeben. punkt.
abgesehen davon, dass das faktisch unhaltbar ist, weil es durchaus möglichkeiten gibt, timecode in hdmi-ausgaben einzubetten, ist das eher ein wunderbares bsp., um zu illustrieren, warum der allergrößte teil der normale anweder derartige karten in wahrheit eben NICHT braucht, obwohl sie in dedizierten studioumgebungen durchaus sachliche berechtigung besitzen können.
das selbe gilt für diverse timing anforderung. auch hier kann man im spezialisierten studio- und rundfunkumfeld ganz andere ansprüche einfordern als auf isolierten schnitt- und colorgrading arbeitsplätzen. hier keine vernünftigeren anderen verwendungsweisen zu erlauben, muss einfach als schwäche des betreffenden programms angesehen werden.
Antwort von dienstag_01:
Wer es *farbecht* haben will, braucht keine I/O-Karte, sondern Persil. Glaube ich ;)
Antwort von blickfeld:
nicht wirklich. farbechtheit ist mit keinem programm ohne eine video i/o karte garantiert. punkt.
aber geh! -- natürlich kann man auch die farbwiedergabe über eine normale grafikkarte kalibrieren... sind doch ganz genau die selben daten/werte, die übers kabel ausgegeben werden...
auch bietet hdmi / displayport keine möglichkeit timecode wiederzugeben. punkt.
abgesehen davon, dass das faktisch unhaltbar ist, weil es durchaus möglichkeiten gibt, timecode in hdmi-ausgaben einzubetten, ist das eher ein wunderbares bsp., um zu illustrieren, warum der allergrößte teil der normale anweder derartige karten in wahrheit eben NICHT braucht, obwohl sie in dedizierten studioumgebungen durchaus sachliche berechtigung besitzen können.
das selbe gilt für diverse timing anforderung. auch hier kann man im spezialisierten studio- und rundfunkumfeld ganz andere ansprüche einfordern als auf isolierten schnitt- und colorgrading arbeitsplätzen. hier keine vernünftigeren anderen verwendungsweisen zu erlauben, muss einfach als schwäche des betreffenden programms angesehen werden.
sorry, da hast du das konzept eines kalibrieten monitors nicht verstanden. die video i/o karte sorgt dafür, dass jeder gerät, dass an den kalibrierten monitor angeschlossen wird, das selbe bild liefert.
das wirst du niemals mit kalibrierung der graka erreichen, denn jede kalibrierung ist subjektiv, zu gewissen anteilen. daher wird, wenn die 10 verschiedene rechner an den selben monitor anschließt nie das selbe bild rauskommen.
einfach mal nachdenken, bevor man sturm gegen sinnvolle sachen läuft.
Antwort von dienstag_01:
sorry, da hast du das konzept eines kalibrieten monitors nicht verstanden. die video i/o karte sorgt dafür, dass jeder gerät, dass an den kalibrierten monitor angeschlossen wird, das selbe bild liefert.
das wirst du niemals mit kalibrierung der graka erreichen, denn jede kalibrierung ist subjektiv, zu gewissen anteilen. daher wird, wenn die 10 verschiedene rechner an den selben monitor anschließt nie das selbe bild rauskommen.
einfach mal nachdenken, bevor man sturm gegen sinnvolle sachen läuft.
Genau. Und weil *Video I/O Karten* nicht für Fotos zu gebrauchen sind, wird auch gleich klar, dass man mit diesem sogenannten Computer bei der Fotobearbeitung kein Glück haben wird ;)
Video I/O Karten geben standardisierte Videosignale aus (oder Videosignale nach Standard), mehr nicht. Aber auch nicht weniger.
Das mach einiges einfacher, das heisst aber nicht, dass es mit einer normalen Grafikkarte nicht gehen würde.
Diese Grafikkarte muss man dafür natürlich nicht Kalibrieren, Grafikkarten kalibriert man nie, die Ausgangsgeräte, also Monitore werden kalibriert, die Daten in der Grafikkarte hinterlegt.
Antwort von mash_gh4:
sorry, da hast du das konzept eines kalibrieten monitors nicht verstanden. die video i/o karte sorgt dafür, dass jeder gerät, dass an den kalibrierten monitor angeschlossen wird, das selbe bild liefert.
das wirst du niemals mit kalibrierung der graka erreichen, denn jede kalibrierung ist subjektiv, zu gewissen anteilen. daher wird, wenn die 10 verschiedene rechner an den selben monitor anschließt nie das selbe bild rauskommen.
einfach mal nachdenken, bevor man sturm gegen sinnvolle sachen läuft.
ich habe große zweifel daran, ob du das mit dem kalibrieren so viel besser verstanden hast? aber das ist natürlich nur meine ganz subjektive einschätzung.
im wesentlichen würde ich aber weiterhin behaupten, dass eine video-i/o-karte, ganz gleich wie eine grafikkarte, einfach nur daten an den bildschirm schickt.
wenn man nun misst, in welcher weise die gesendeten daten am display tatsächlich dargestellt werden, und auf dieser weise korrekturmechanismen füttert, so dass die anzeige den ursprünglich ausgegebenen und übertragenen daten besser gerecht wird, sollte das in beiden fällen zu den genau gleichen resulaten führen.
wie gesagt, auf dieser ebene sind die großen unterschiede und qualitativen vorzüge der von dir bevorzugten devices meines erachtens nach nicht zu begründen.
Antwort von blickfeld:
wenn man nicht versteht, das man mit einer video i/o karte nur ein gegenstand kalibrieren muss und über eine grafikkarte an zwei stellen ansetzen muss, dann macht weitere diskussionen wenig sinn.
aber egal, du hast natürlich recht, wir konnte ich das auch nur anzweifeln. alle granding suiten deutschlands irren sich einfach.
viel spaß noch.
Antwort von blickfeld:
sorry, da hast du das konzept eines kalibrieten monitors nicht verstanden. die video i/o karte sorgt dafür, dass jeder gerät, dass an den kalibrierten monitor angeschlossen wird, das selbe bild liefert.
das wirst du niemals mit kalibrierung der graka erreichen, denn jede kalibrierung ist subjektiv, zu gewissen anteilen. daher wird, wenn die 10 verschiedene rechner an den selben monitor anschließt nie das selbe bild rauskommen.
einfach mal nachdenken, bevor man sturm gegen sinnvolle sachen läuft.
Genau. Und weil *Video I/O Karten* nicht für Fotos zu gebrauchen sind, wird auch gleich klar, dass man mit diesem sogenannten Computer bei der Fotobearbeitung kein Glück haben wird ;)
Video I/O Karten geben standardisierte Videosignale aus (oder Videosignale nach Standard), mehr nicht. Aber auch nicht weniger.
Das mach einiges einfacher, das heisst aber nicht, dass es mit einer normalen Grafikkarte nicht gehen würde.
Diese Grafikkarte muss man dafür natürlich nicht Kalibrieren, Grafikkarten kalibriert man nie, die Ausgangsgeräte, also Monitore werden kalibriert, die Daten in der Grafikkarte hinterlegt.
lesen und verstehen ist halt schwer.
video i/o karten geben einen genormten standart aus. das bedeutet, dass man mit denen immer das gleiche bild von jedem computer her haben sollte.
das ist bei grafikkarten nicht der fall. nehmen wir an, du hast eine nvidia-graka drin und kalibrierst deinen monitor, das er farbgetreu mit dem verfremdeten signal deiner graka ist, dann ist dein comp mit dieser graka und dem speziellen monitor kalibriert.
wenn du jetzt deine graka z.b. gegen eine amdgraka tauscht, ist es sehr wahrscheinlich, dass du den monitor erneut kalibrieren musst.
wenn du hingegen im ersten beispiel einen anderen computer mit ner video i/o karte anschließt, sollte die kalibrierung auch für comp 2 passen.
einfach mal nachdenken und nicht stumpf, ich weiß es aber schreien. sorry.
hinzukommt wieder das problem des sdiausgangs.
Antwort von dienstag_01:
Alles klar.
Über den Ausdruck *farbecht* haben wir ja alle schon gelacht. Du schreibst also, die GUI von Resolve ist nicht farbecht. Der Grund ist, du wechselst ständig die Grafikkarten.
Klingt überzeugend ;)
Antwort von blickfeld:
Alles klar.
Über den Ausdruck *farbecht* haben wir ja alle schon gelacht. Du schreibst also, die GUI von Resolve ist nicht farbecht. Der Grund ist, du wechselst ständig die Grafikkarten.
Klingt überzeugend ;)
einfach mal das handbuch lesen, mein lieber. aber das würde ja bedeuten, dass man den kopf benutzen muss. die farbdarstellung der gui ist nicht genau, der einzige weg, ein verlässliches vorschaubild in davinci zu erhalten ist über eine video i/o karte.
aber mache schaffen das halt nicht kopfmäßig zu verarbeiten.
gelacht wird über deine nichtvorhandenen davincikenntnisse. wird einfach immer besser.
ist einfach super, dass du das prinzip der video i/o karte nicht verstehst und das davinci schon intern die farben in der guidarstellung nicht genau wiedergibt. aber egal. wir haben hier ja den experten dienstag.
Antwort von dienstag_01:
Aha, vorhin waren es ständig wechselnde Grafikkarten, jetzt ist es das Handbuch. Ich geh mal schlafen, mal sehen was es morgen ist, beim Mister Farbecht ;)
Vielleicht gibt bis dahin ja auch eine Seitenangabe vom Handbuch.
Antwort von Frank Glencairn:
...-- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...
genau so isses auch
Antwort von blickfeld:
...-- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...
genau so isses auch
endlich mal jemand, der ahnung von der materie hat.
Antwort von mash_gh4:
...-- denn nach dieser logik dürfte man ja überhaupt keine ernsthafte bildbearbeitung auf computerbildschrimen ohne spezielle hardwarelösungen machen...
genau so isses auch
endlich mal jemand, der ahnung von der materie hat.
:)
Antwort von Bruno Peter:
Mir ist nicht ganz klar was man hier unter "farbtreu" versteht.
Gut man kann einen PC-Monitor mit einem Farb-Testchart und diesen Kalibrirungsgeräten so gut wie möglich" farbtreu" kalibrieren.
Wie das Video dann wirklich farblich aussehen wird nach Grading/Farbkorrektur bestimmen doch die Farbregler im NLE. Mein Nachbar bevorzugt diese und ich jede Farbreglerstellung für die Farbstimmung, wir haben also unterschiedliche Farbreglerstellungen benutzt. Wichtig ist doch nur, daß wir unsere persönliche Farbkorrektur mit dem Meßwerkzeug (Scopes) im Colorraum überwachen um nicht die gesetzten Grenzen für die TV-Wiedergabe zu überschreiten nach meiner Meinung!
Mache ich mit dieser persönlichen Überlegung einen groben Fehler?
Antwort von dienstag_01:
Wichtig ist doch nur, daß wir unsere persönliche Farbkorrektur mit dem Meßwerkzeug (Scopes) im Colorraum überwachen um nicht die gesetzten Grenzen für die TV-Wiedergabe zu überschreiten nach meiner Meinung!
Mache ich mit dieser persönlichen Überlegung einen groben Fehler?
Natürlich.
Ein von der Norm abweichender Preview-Monitor verfälscht dein Ergebnis. Das kann dann trotzdem innerhalb des Videostandards liegen, aber auf einem anderen Monitor/TV wird möglicherweise ein ursprünglich warmer Farbton zu einer eiskalten Thriller-Lichtstimmung ;)
Antwort von Bruno Peter:
Das kann einem wohl mit DaVinci Resolve passieren, ich arbeite aber vorzugsweise mit EDIUS Pro 8.xx im Falle der Farbkorrektur mit angeschlossenen kleinen HDTV für das Vollbild und dort sehe ich mit jeder Reglerbewegung wie das auf dem TV aussieht, wobei der TV auf "Natürlich" eingestellt ist und Zussatz-Bildverschlimmbesserungsoptionen nicht aktiviert sind.
Antwort von Jörg:
Das kann einem wohl mit DaVinci Resolve passieren, ich arbeite aber vorzugsweise mit EDIUS Pro 8.xx
na dann....
Edius ist ja bekannt für seine Referenzstellung in Sachen Farbkorrektur ;-)))))
und dann noch der absolute Knüller
wobei der TV auf "Natürlich" eingestellt ist
Antwort von mash_gh4:
... dort sehe ich mit jeder Reglerbewegung wie das auf dem TV aussieht, wobei der TV auf "Natürlich" eingestellt ist und Zussatz-Bildverschlimmbesserungsoptionen nicht aktiviert sind.
naja -- eine kalibrierte ausgabe (dh. ein nachmessen der tatsächlich angezeigten faben und entsprechende automatische korrektur) halte ich schon für ein fast unverzichtbares mittel, um tatsächlich content zu produzieren, der weitestgehend unabhängig von den stärken und schwächen der eigenen geräte ein mimimum an korrekter farbwiedergabe anstrebt. das kann in verschiedenerweise erfolgen und ist von der verwendeten ausgabehardware (video-io od. grafikkarte) auch weitestgehend unabhängig (bzw. in verschiedener weise für diversen möglichkeiten zu lösen). es ist dabei leider auch nicht ganz selbstverständlich, dass derartige bemühungen gleich alle verwendeten programme in gleicher weise betreffen und die verschiedenen benutzten ausgabekanäle durchgänig abdecken, aber natürlich sollte einem das immer als ziel vor augen schweben, weil das schwächste glied in der kette sonst immer wieder zu fehlern und irrtümern bei der bildkorrektur verleitet.
Antwort von dienstag_01:
Die Ausgabe aus einem NLE heraus auf einen TV ist trotzdem nicht per se fehlerfrei. Der sicherste Weg ist immer über eine Monitoring Card.
Antwort von mash_gh4:
Die Ausgabe aus einem NLE heraus auf einen TV ist trotzdem nicht per se fehlerfrei. Der sicherste Weg ist immer über eine Monitoring Card.
wie gesagt, das verwendete ausgabedevice selbst ist nicht entscheidend, sondern vielemehr die art wie es genutzt wird bzw. ob vernünftige kalibrierungsmechanismen zum einsatz kommen. das kann auf beiden wegen in befiriedigender weise geschehen.
programme, die es leider nur auf einem weg korrekt zu behandeln wissen, sollte man meies erachtens nicht unnötig schön reden. das entspricht einfach nicht dem stand der technik.
Antwort von dienstag_01:
wie gesagt, das verwendete ausgabedevice selbst ist nicht entscheiuden, sondern vielemehr die art wie es genutzt wird bzw. ob vernünftige kalibrierungsmechanismen zum einsatz kommen. das kann auf beiden wegen in befiriedigender weise geschehen.
Ich hab ja nur geschrieben, der *sicherste Weg* ;)
Ob es in jedem Fall auch der beste ist, keine Ahnung.
Antwort von mash_gh4:
Ich hab ja nur geschrieben, der *sicherste Weg* ;)
Ob es in jedem Fall auch der beste ist, keine Ahnung.
es bleibt einem oft eh nichts anderes über...
trotzdem ist es natürlich nicht ideal, und eigentlich auch nicht notwendig, dass die ausgabe über den computermonitor im resolve nicht sauberer aufbereitet wird. das bleibt immer eine störende ablenkung, auch wenn man parallel dazu auf anderem weg eine noch so perfekte anzeige auf einem dedizierten ausgabegerät haben mag....
Antwort von dienstag_01:
dass die ausgabe über den computermonitor im resolve nicht sauberer aufbereitet wird
Was heisst denn das?
Antwort von mash_gh4:
dass die ausgabe über den computermonitor im resolve nicht sauberer aufbereitet wirdWas heisst denn das?
würde es sauber umgesetzt werden, hätten wir diese debatte hier nicht!
das resultat am GUI-schirm könnte durchaus vertretbar zu graden herangezogen werden und Video-IO-karten ein wenig mehr im sinne in ihrer tatsächlichen berechtigung verstanden werden (=studio conectivity für weiteres und oft natürlich auch anspruchsvolleres und teures equipment herzustellen).
leider sind wir davon in der gegenwärtigen ausgabe noch ziemlich weit entfernt. in der mac version wurde zwar versucht, die entsprechenden systemweiten farbkorrekturen in das monitoring am computer einzubeziehen, was sich aber leider eher als schuss nach hinten erwiesen hat -- vielleicht auch deshalb, weil der typische davinci nutzer, die dafür notwendigen kalibrierungen am system nicht ernst genug nimmt --, aber auch sonst fehlen leider noch immer ganz entscheidene features, wie adäquates dithering od. freie konfigurierbarkeit des anzeigefesters bzw. -schirms, um die vorhandene hardware bzw. deren tatsächliche möglichkeiten qualitativ befriedigend nutzen zu können...