Logo Logo
/// 

Umwandeln eines Projekts in DCP (Digital Cinema Package)



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Frage von pillepalle:


Ich habe mal eine Anfängerfrage zur Umwandlung eines Filmprojekts in ein DCP Format. Eigentlich übernimmt das Davinci Resolve für einen automatisch, wenn man die entsprechenden Parameter eingestellt hat. Da der Film dabei in einen 12bit CIE XYZ Farbraum umgewandelt wird, wirken die Farben und Kontraste im Bild natürlich recht anders als im Original (REC709). Da mein Monitor auch auf den REC709 Farbraum eingestellt ist, halte ich es erstmal für 'normal' das der Film dann auch merkwürdig auf dem Monitor aussieht. Allerdings fehlt einem auch so jegliche Kontrolle über die Konversion. Gibt es denn eine einfache Möglichkeit die Umwandlung zu kontrollieren? Oder muss ich dafür meinen Monitor erst neu kalibrieren? Letzeres wäre ja etwas umständlich und vermutlich trotzdem nicht super präzise.

VG



Antwort von Frank Glencairn:

Für's Kino graden kannst du nur im Kino - Punkt. Dafür hast du wahrscheinlich nicht das nötige Budget.
Die zweitbeste Lösung ist einfach das DCP in Resolve importieren und da auf REC 709 anschauen - das ist zwar nicht super präzise, aber meistens halbwegs ausreichend.



Antwort von pillepalle:

Ja, dank Dir. War mir so nicht klar.

Mir geht's auch ein wenig darum mir einen halbwegs professionellen Workflow anzueignen, bzw zu verstehen wie man in der Branche arbeitet. Hab zum Beispiel keinen Plan welche Farbräume Sinn machen, wenn man nicht für's Netz oder Fernsehen arbeitet, wo man ja meist Rec709 nutzt. Gibt's irgendwo gute Quellen zum Arbeiten/Workflow mit ACES, oder BT2020?

VG








Antwort von roki100:

ich fand diese Information interessant:
Heya, at my work we are handeling the ACES-workflow. The main reason why we work in ACES is because you maintain the 'RAW' data and every footage (shot from RED/ any camera) are in the same colorspace (as you mentioned). Because you maintain all 'RAW' data, it means you can export your product 20 years later in full quality if that's possible (remaster).

As additional info:
'Colorspace' in general is a difficult topic, because everyone think they are talking about the same topic xD.
There are 3 colorspaces: 1. Camera colorspace, 2. workspace colorspace and 3. monitor colorspace (your computer screen).

1. If you footage is shot on RED, you convert your RAW-RED into ACES2065 (ap0) --> ACES2065(ap0) is the biggest colorspace (gamut) you can get. REC709 for instance, is a smaller colorspace which will kill all the RAW data outside this colorspace.

2. Workspace colorspace is the environment you work your files in, you should put this on ACES2065 / ACESCC (like you did in Davinci). Workspace colorspace is actually the colorspace project setting of the program you are using. We are working in Baselight (colorcorrecting), Nuke compositing (for VFX) and sometimes Adobe after Effects. As long as you have the settings on ACES2065, you won't destroy the RAW information of your 'RAW RED camera EXPORT, which you exported to 'ACES'.

3. Computer-screens have colorspace as well. The default computer-screen has a colorspace 'sRGB', some other 'grading computerscreens' have colorspace 'REC709' and beamers (projectors) have colorspace 'REC2020'.

This in mind, when i work on my VFX at work:
* I'm working with ACES2065 converted RAW camera files.
* My program im using, in this case Nuke-compositing, I have my Workspace set on ACES2065 colorspace to maintain all info.
* My computer screen is sRGB, SO i put my viewer-LUT on sRGB to see the image the right way.
If i put my viewer-LUT on REC709, i can't see the colours right, because my monitor is sRGB.

Note that the colourist has a better 'projector' at our work, which has a better 'monitor-colorspace', so he can see the finer colour corrections.

When we export our movie for TV or Cinema, you have to export it to the desired settings. I don't know to which settings we export our final export. But I thought the final render is in the colorspace the cinema projects his movie on. I think its REC2020. After the export, you will lose all the raw data outside the REC2020 zone --> if you colour corrected highlights outside the REC2020, they will be clamped to the REC2020 border.

^ The good thing about ACES is that you maintain the full RAW data. So if you re-open your ACES-project with all the RAW files, you can export it in the highest setting. In the future we might get a bigger 'colorspace projector in cinema', to see more colours, then we can simply re-export our project to that maximum quality.

Maybe this info is helpfull, correct me if im wrong at some points. I'm working just a year at this company and this is what i get so far ^_^
Kommentar von hier:

https://www.youtube.com/watch?v=ekpAuS553CY



Antwort von hexeric:

du siehst das kinobild auf keinem RGBRGB im Glossar erklärt gerät. nur emuliert (in echtzeit transformiert, daher ist DCP sehr hardwarehungrig). DCP ist auch weiters nicht "wandeln" sondern "mastern", unter anderem aus diesem grund. gamma ist 2.6, dein monitor ist 2.2 – dein ziel ist es, dass es genau gleich aussieht, also rec709 bleibt aber in einem anderen farbraum. nur so ist es kontrollierbar. ich habe den einzigen kurs / das einzige ebook zum thema gefunden auf https://digital-cinema-mastering-workshop.com in deutsch und englisch. das scheint wirklich allumfassend zu sein, ich hab mir mal das kostenlose ebook zum reinlesen geholt – amtlich, komme selbst aus dem kinomastering und kann das nur so weitergeben.



Antwort von cantsin:

Was ist Eure Empfehlung, wenn man ein in Rec709 gegradetes Projekt an ein Filmfestival in DCP anliefern muss?

Exportknopf in Resolve drücken und darauf vertrauen, dass das Resultat brauchbar ist, oder lieber einen Dienstleister beauftragen?



Antwort von hexeric:

90% der DCPs sind rec709– weil nur das wirklich "sicher" ist und die meisten auch nur diese hardware haben.
du willst ja dass es so aussieht wie du es siehst, du gewinnst keine information beim transformieren, es passiert nur ein unschöner shift.
resolve macht das absolut spitze, wenn man es richtig einstellt. alle kinos/festivals wollen DCP im normalfall. ist der globale standard seit 2001
– aber achtung: transferieren kann resolve nicht, auch nicht validieren. dazu braucht man extra software und wissen. die meistne wollen 100% DCI, das ist dasnn ein linux ext2 drive versiegelt und getestet. meistens auch nur interOP, also 24p und 5.1 in 2K verpflichtend.



Antwort von pillepalle:

@ hexerix

Super! Vielen Dank. Also man wandelt das Projekt mit Resolve in ein DCP FormatFormat im Glossar erklärt und lässt es dann von einer Fachfirma auf eine Platte transferien und kodieren. Klingt aber irgendwie machbar 😊

Ich hab meinen Monitor für's Graden in Rec709 auf einem GammaGamma im Glossar erklärt von 2.4 eingestellt. Dachte das wäre der Standard für Rec709. Wenn ich aber was für's Kino produzieren möchte, wäre es da nicht sinnvoller in einem größeren Farbräume zu arbeiten? Mit Rec709 Stau ht man ja erst einmal alles zusammen.

VG



Antwort von dosaris:

das mit dem OpenSource-Projekt haste schon entdeckt?

https://www.opendcp.org/

für MACs u Linux



Antwort von pillepalle:

@ dosaris

Ins DCP FormatFormat im Glossar erklärt zu wandeln klappt ja mit Resolve gut, die Daten dann aber im richtigen FormatFormat im Glossar erklärt und Kodiert auf Festplatte zu bekommen (die haben wohl immer noch einen Sicherheitscode mit auf den Platten, wo der Film abgespielt werden kann), das kriegt man scheinbar nicht so einfach selber hin. So wie ich das verstanden habe.

VG



Antwort von Frank Glencairn:

Daß Resolve das richtig macht, darauf kannst du 100%ig vertrauen.
Was die Datenanlieferung betrifft, entweder du nutzt Linux zum formatieren der Platte, oder ein entsprechendes Windows tool - dazu brauchts keine "Fachfirma".

Verschlüsselung, Sicherheitscode blah-blah, kannst du alles getrost vergessen - nix davon ist zum Abspielen nötig.

Ob es wirklich ne speziell formatierte Platte sein muß oder NTFS, oder es sogar ein USB Stick tut, hängt vom Kino ab. Technisch ist das eigentlich egal.
Den Speziellen Schlitten für die Platte braucht man auch nur, wenn die Platte direkt im Server abspielen soll, statt die Daten kopiert.
Ich hatte ehrlich gesagt noch nie den Fall daß sowas nötig war, die meisten Festivals sind da extrem flexibel. Einfach mal nachfragen, was die alles akzeptieren.

Der REC709 Farbraumm ist gar nicht soooo unterschiedlich, das ist also kein Thema (das grünmatschige 12bit CIE XYZ mußt du natürlich trotzdem anliefern, aber bei der Projektion sieht das dann wieder normal aus), Gama hat mit Farbraum nix zu tun - das ist ne eigene Baustelle.



Antwort von hexeric:

dosaris hat geschrieben:
das mit dem OpenSource-Projekt haste schon entdeckt?

https://www.opendcp.org/

für MACs u Linux
seit 5 jahren tot und schreibt fehlerhaften code (abgesehen von mega lahm und ungenau bei farbwandlung). resolve studio ist der beste workflow nach teurem easydcp.








Antwort von hexeric:

"Frank Glencairn" hat geschrieben:
Daß Resolve das richtig macht, darauf kannst du 100%ig vertrauen.
Was die Datenanlieferung betrifft, entweder du nutzt Linux zum formatieren der Platte, oder ein entsprechendes Windows tool - dazu brauchts keine "Fachfirma".

Verschlüsselung, Sicherheitscode blah-blah, kannst du alles getrost vergessen - nix davon ist zum Abspielen nötig.

Ob es wirklich ne speziell formatierte Platte sein muß oder NTFS, oder es sogar ein USB Stick tut, hängt vom Kino ab. Technisch ist das eigentlich egal.
Den Speziellen Schlitten für die Platte braucht man auch nur, wenn die Platte direkt im Server abspielen soll, statt die Daten kopiert.
Ich hatte ehrlich gesagt noch nie den Fall daß sowas nötig war, die meisten Festivals sind da extrem flexibel. Einfach mal nachfragen, was die alles akzeptieren.

Der REC709 Farbraumm ist gar nicht soooo unterschiedlich, das ist also kein Thema (das grünmatschige 12bit CIE XYZ mußt du natürlich trotzdem anliefern, aber bei der Projektion sieht das dann wieder normal aus), Gama hat mit Farbraum nix zu tun - das ist ne eigene Baustelle.
habe für einige festivals gearbeitet, 50% der DCPs funktionieren nicht, weil sie eben nicht fachmännisch auf linux geklont wurden sondern nur auf mac/windows rübergezogen auf NTFS oder emuliert über ein plugin (meist schlimmer, weil hashwerte zerstört werden und das bedeutet: kino spielt nicht). gamma ist meist verschoben gewesen auch, leute glauben dann immer es liegt am kino, liegt aber an einem selbst. USB sticks und generell SSD media werden nicht immer unterstützt sofern nicht echt USB2 kompatibel. wir haben also viele DCPs immer neu gebaut und repariert, in den meisten zertifizierten, speziell kleineren kinos, geht dann doch nur der konservative standard.



Antwort von hexeric:

pillepalle hat geschrieben:
@ dosaris

Ins DCP FormatFormat im Glossar erklärt zu wandeln klappt ja mit Resolve gut, die Daten dann aber im richtigen FormatFormat im Glossar erklärt und Kodiert auf Festplatte zu bekommen (die haben wohl immer noch einen Sicherheitscode mit auf den Platten, wo der Film abgespielt werden kann), das kriegt man scheinbar nicht so einfach selber hin. So wie ich das verstanden habe.

VG
kann dich nur wieder auf meine oben genannte seite verweisen, sogar im gratis pdf war das sehr eindeutig gut erklärt, was es bedeutet, wirklich 100% DCI safe zu sein. aus meiner festival/kino zeit kann ich nur dazu raten, zu versuchen was geht um die specs einzuhalten. für mac gibt es ein einzigartiges tool, namens "dcp transfer", das alles mit einem klick macht nach dem mastering. das ist spitze, sonst brauchst du nämlich immer linux ausser du lässt dich auf das Experiment NTFS auf windows ein (aber nicht drag&drop sondern am besten mit einem kopiertool, dass die hashwerte beibelässt und prüft).

hat mir viel geholfen hier:




Antwort von Frank Glencairn:

Normal kann man auf jeden halbwegs aktuellen Kinoserver von ner externen NTSCNTSC im Glossar erklärt Platte/Stick die Daten rüber kopieren.
Das muß nicht von ner Ext2 Platte sein.

Wenn Filme gar nicht laufen liegts öfter an SMPTE statt Interop und irgendwelchen exotischen Framerates statt 24.
Das Gama Problem kommt nach meiner Erfahrung von ProResProRes im Glossar erklärt Mastern, die als Grundlage für das DCP genommen wurden, wobei die entsprechenden Flags an irgendeiner Stelle entweder nicht richtig gesetzt oder ausgelesen wurden. Zu nem anderen Teil an nicht kalibrierten Bildschirmen beim Grading.



Antwort von hexeric:

"Frank Glencairn" hat geschrieben:
Normal kann man auf jeden halbwegs aktuellen Kinoserver von ner externen NTSCNTSC im Glossar erklärt Platte/Stick die Daten rüber kopieren.
Das muß nicht von ner Ext2 Platte sein.

Wenn Filme gar nicht laufen liegts öfter an SMPTE statt Interloop und irgendwelchen exotischen Framerates statt 24.
Das Gama Problem kommt nach meiner Erfahrung von ProResProRes im Glossar erklärt Mastern, die als Grundlage für das DCP genommen wurden, wobei die entsprechenden Flags an irgendeiner Stelle entweder nicht richtig gesetzt oder ausgelesen wurden. Zu nem anderen Teil an nicht kalibrierten Bildschirmen beim Grading.
ne, wenn du wüsstest wie viele server nur ext2 fehlerfrei machen. kinoanlagen sind teuer und viele sind aus dem jahre annodazumal. "interOP" ist der globale standard, dazu gehört aber die ext2 platte, erst mit SMPTE kamen firmware updates nach. viele server haben auch nur usb2, was echt lange dauert. international haben die wenigsten die möglichkeit was anderes als ext2/3 zu lesen. profis liefern auch meistens nur interop (24,5.1) auf ext2 an im CRU schlitten, das ist für die veranstalter die einzige garantie. das nervigste für festivals und kinos sind "selbstbau" DCPs. die berlinale hasst sie, der EFM hasst sie ... nur als beispiel. werden alle geprüft und repariert, oder eben bei kleineren festivals ohne das geld, zurückgeworfen.

das gamma problem ist kein problem sondern einfach wieder mal unwissen und unerfahrenheit. alles ist gamma 2.2 als standard auf system und monitor. selbst wenn nicht kalibriert. viele haben nicht mal ihre GPU levels auf "full" auf windows (da ist das noch mal einen tick komplizierter). prores ist nativ gamma 2.2 und metadaten können/werde generell nur von apple ausgelesen und genützt, kaum sonst wer kann/macht das. auch resolve ignoriert alles und setzt eigene flags, je nachdem wie man seine color management settings eingestellt hat. standard steht resolve aber auch gamma 2.4 und dann hat man schon mal 20% versatz im monitoring! am sichersten ist, man gradet alles in rec709 gamma 2.2 und lässt resolve dann nichts machen ausser das nach DCI wandeln über den DCP delivery. das ist zu 100% das was am anfang reinkommt.



Antwort von hexeric:

habe übrigens was gefunden, scheinbar gibt es in berlin im märz einen kompletten kurs zu DCP in resolve auf der schnitt-akademie:
https://www.schnitt-akademie.de/dcp-workshop.html

vielleicht interessiert es ja wen, werde ich wohl vorbeischauen, finde die eigentlich sehr gut.
das ist scheinbar derselbe, der auch das einzige ebook/videokurs online vertreibt



Antwort von pillepalle:

Ich hab einen Hardwarekalibrierbaren 10bit Monitor und ne Quadro Grafikkarte. Würde mich sehr wundern wenn das nicht GammaGamma im Glossar erklärt 2.4 ist. Hab meinen Monitor für Fotoanwendungen anders kalibriert. Da ist er definitiv weicher.

VG



Antwort von Frank Glencairn:

hexeric hat geschrieben:

ne, wenn du wüsstest wie viele server nur ext2 fehlerfrei machen. kinoanlagen sind teuer und viele sind aus dem jahre annodazumal. "interOP" ist der globale standard, dazu gehört aber die ext2 platte, erst mit SMPTE kamen firmware updates nach. viele server haben auch nur usb2, was echt lange dauert. international haben die wenigsten die möglichkeit was anderes als ext2/3 zu lesen.
Also bisher hatten die meisten bei meinen DCPs kein Problem mit NTSCNTSC im Glossar erklärt - aber selbst wenn man auf Nummer sicher gehen will, es gibt ja entsprechende Tools für ext2 auf Win.



Antwort von hexeric:

pillepalle hat geschrieben:
Ich hab einen Hardwarekalibrierbaren 10bit Monitor und ne Quadro Grafikkarte. Würde mich sehr wundern wenn das nicht GammaGamma im Glossar erklärt 2.4 ist. Hab meinen Monitor für Fotoanwendungen anders kalibriert. Da ist er definitiv weicher.

VG
windows nützt keinen colorsync wie mac und pfuscht dazwischen.
die meisten tools ignorieren deine display profiles und metadaten.

wenn, dann muss dein monitor auf gamma 2.4 stehen, und dein system darf daran nichts ändern. aber trotzdem bleibt prores nativ gamma 2.2 beispielsweise. und wenn du das in reslve schickst dann verwendet es auch das, ausser du zwingst es manuell etwas anderes damit zu tun. deine nvidia settings sind auf full range? DCP testet man sowieso immer im kino, ein profi kann das auch bei sich im studio machen. wir haben das immer mit einigen tools gemacht, egal auf welchem monitor, du kannst immer ausgangsvideo mit DCP vergleichen, musst nur die richtige software verwenden, muss gleich aussehen egal ob richtig oder falsch.



Antwort von hexeric:

"Frank Glencairn" hat geschrieben:
hexeric hat geschrieben:

ne, wenn du wüsstest wie viele server nur ext2 fehlerfrei machen. kinoanlagen sind teuer und viele sind aus dem jahre annodazumal. "interOP" ist der globale standard, dazu gehört aber die ext2 platte, erst mit SMPTE kamen firmware updates nach. viele server haben auch nur usb2, was echt lange dauert. international haben die wenigsten die möglichkeit was anderes als ext2/3 zu lesen.
Also bisher hatten die meisten bei meinen DCPs kein Problem mit NTSCNTSC im Glossar erklärt - aber selbst wenn man auf Nummer sicher gehen will, es gibt ja entsprechende Tools für ext2 auf Win.
all diese tools schreiben kein DCI ext2, denn das braucht inode 128KB. die plugins zerstören sehr oft hashwerte. ich kann dir nur sagen, ich habe alles gesehen von diesen bastellösungen und die realität ist: das festival oder kino hat den mehraufwand, die meisten lassen sich nicht drauf ein. NTFS auf windows ist wesentlich kontrollierbarer, das sagt dir aber das kino ob es das kann. es geht aber um 100% DCI konform, wenn das jemand verlangt (große internationale festivals wie berlinale, sundance etc) haste das problem...von untertitel gar nicht zu sprechen.








Antwort von pillepalle:

Genau das ist doch der Sinn eines Profils für den Monitor eben nicht die Werte des Rechners zu übernehmen, sondern die eigenen zu laden. Ich sehe ja auch visuell einen deutlichen Unterschied. Da muss man auch nicht am Windows rumwurschteln. Das läd der beim Hochfahren automatisch und schaltet um.

Hatte mir mal als visuelle Kontrolle einen ECI Hintergrund herunter geladen, auf dem man durch zusammenkneifen der Augen anhand von Test Patterns das GammaGamma im Glossar erklärt des Displays erkennen kann.

Hab im Fotobereich viel mit farbkritischen Anwendungen gearbeitet und bin daher das Arbeiten mit kalibrieren Monitoren gewohnt.

VG



Antwort von hexeric:

pillepalle hat geschrieben:
Genau das ist doch der Sinn eines Profils für den Monitor eben nicht die Werte des Rechners zu übernehmen, sondern die eigenen zu laden. Ich sehe ja auch visuell einen deutlichen Unterschied. Da muss man auch nicht am Windows rumwurschteln. Das läd der beim Hochfahren automatisch und schaltet um.

Hatte mir mal als visuelle Kontrolle einen ECI Hintergrund herunter geladen, auf dem man durch zusammenkneifen der Augen anhand von Test Patterns das GammaGamma im Glossar erklärt des Displays erkennen kann.

Hab im Fotobereich viel mit farbkritischen Anwendungen gearbeitet und bin daher das Arbeiten mit kalibrieren Monitoren gewohnt.

VG
das ist gut! aber du hast ja resolve dazwischen und dein monitor zeigt das richtige bild, aber intern wird so nicht unbedingt gerechnet. nur mit manuell eingestelltem color management von resolve und den entsprechenden häkchen. aber ich denke, das wirst du schon richtig machen – trotzdem, wenn du kannst, testen. oder wem schicken, ders testen kann! kein tool ist "what you see is what you get" leider. da müsste resolve schon über ein decklink ausgeben, tut es das bei dir? wir haben früher einfach immer einen frame rausgerechnet aus original file und dann DCP und den kinospezialisten draufschauen lassen.

– aber viel komplexer und wichtiger ist dann doch TON. da ist resolve echt tricky und im Kino macht das enorm viel unterscheid. stereo ist fast immer schlecht. zumindest 3.0 – aber man mischt relativ leise nach dolby 82leq norm...wir hatten kinos, die uns alles über pegel -4 zurückgeworfen hatten, das ist auf manchen dolbyservern so. das ist nochmal ein ganz anderes thema, auch da mussten wir dann reparieren und den gesamten mix leiser drehen. upmixe haben wir nie gemacht, stereo war halt immer schlecht. fake surround ist pflicht (also auch bei stereo 6 spuren ausgeben, 4 sind stumm). wo es ging, haben wir immer 3.0 empfohlen, wo der gesamte dialog auf einem separaten center channel läuft hinter der leinwand. leider hat resolve viele audio bugs und damit habe ich am meisten zu kämpfen. dcp-o-matic ist da aber genial, der entwickler kommt aus dem audio.



Antwort von dienstag_01:

Genau so wird es gemacht: das fertige DCP einpacken und ab ins nächste Kino. Gibt ja noch andere Fehlerquellen. Vorher natürlich fragen ;)



Antwort von Frank Glencairn:

hexeric hat geschrieben:

all diese tools schreiben kein DCI ext2, denn das braucht inode 128KB.
Ich hab eines das inode 128kb schreibt - du kennst halt auch nicht alles.

hexeric hat geschrieben:
...von untertitel gar nicht zu sprechen.
Unertitel geht mit Resolve sowieso nicht, da brauchst du dann mindestens DCP-o-Matic.



Antwort von pillepalle:

Ja, bin gerade unterwegs und daher kurz angebunden, aber das mit den Häkchen in Resolve habe ich glaube ich hin bekommen. Mein zweites Display am Laptop steht auf GammaGamma im Glossar erklärt 2.2 und da sieht's eben weicher aus und das schwarz ist nicht so tief.

Aber danke nochmal für den Input. Waren ein paar hilfreiche Infos für mich und ich schaue mir nacher mal in Ruhe die Links an. Ist gar nicht so einfach Leute zu finden die damit Erfahrung haben und aus der Praxis berichten können.

VG



Antwort von hexeric:

"Frank Glencairn" hat geschrieben:
hexeric hat geschrieben:
...von untertitel gar nicht zu sprechen.
Unertitel geht mit Resolve sowieso nicht, da brauchst du dann mindestens DCP-o-Matic.
untertitel einbrennen geht, oder via easydcp plugin.
aber ja, dcp-o-matic ist genial beim sogenannten "versioning".
aber trotzdem spielen UT oft nicht, weil man den falschen knopf gedrückt hat.
also resolve->DCP->dcp-o-matic->versioning mit UT geht problemlos, da kann man auch nochmal ton testen und gegf. leiser drehen. kann auch neu in der testversion validieren und hashchecken. der logische schritt nach resolve vor dem transfer...und nach dem transfer!



Antwort von Frank Glencairn:

Und schon sind wir einer Meinung :-)



Antwort von hexeric:

pillepalle hat geschrieben:
Ja, bin gerade unterwegs und daher kurz angebunden, aber das mit den Häkchen in Resolve habe ich glaube ich hin bekommen. Mein zweites Display am Laptop steht auf GammaGamma im Glossar erklärt 2.2 und da sieht's eben weicher aus und das schwarz ist nicht so tief.

Aber danke nochmal für den Input. Waren ein paar hilfreiche Infos für mich und ich schaue mir nacher mal in Ruhe die Links an. Ist gar nicht so einfach Leute zu finden die damit Erfahrung haben und aus der Praxis berichten können.

VG
ich weiss! wir hatten damals alle eine schulung bei o.g. person. habe recherchiert. war tatsächlich derselbe. scheinbar der einzige in deutschland...habe gesehen, dass er jetzt am SAE in berlin kinomastering unterrichtet und eben immer wieder workshops macht, der scheint das seit vielen jahren DCPs zu machen. ich habe halt alles durch jahre der qual über "learning by doing" gelernt wirklich am puls, wos nicht um die theorie hinter "NTFS und SMPTE müssten eigentlich gehen" geht sondern um den alltag bei festival, verleiher und kino. war dann mal eine zeit bei DCP-großfirmen...alles erlebt. die arbeiten alle nicht grundlos auf linux und mit entsprechenden tools.



Antwort von hexeric:

"Frank Glencairn" hat geschrieben:
hexeric hat geschrieben:

Ich hab eines das inode 128kb schreibt - du kennst halt auch nicht alles.
sag doch bitte mal welches das ist!
ich glaube ich kenne alles, aber ich sagte ja auch (vielleicht zu ungenau), dass selbst wenn, immer noch die hashwerte kaputt gehen können und meistens files korrupiert sind. daher testen, testen, testen. mit easycp player oder dcp-o-matic oder dcptransfer. also plugins für ext2 und inode sind sehr mit vorsicht zu genießen!








Antwort von Frank Glencairn:

EInfach mal ausprobieren:

https://www.partitionwizard.com/free-pa ... nager.html



Antwort von hexeric:

"Frank Glencairn" hat geschrieben:
EInfach mal ausprobieren:

https://www.partitionwizard.com/free-pa ... nager.html
ja das kenne ich sogar, da konnte man eine boot-CD/image erstellen wo man dann datenträger formatieren kann. aber es transferiert ja nicht /klont? das ist die nächste hürde. das habe ich nur bei dcptransfer gefunden, was eben auch testet und validiert, aber mac-only.



Antwort von dienstag_01:

hexeric hat geschrieben:
"Frank Glencairn" hat geschrieben:
EInfach mal ausprobieren:

https://www.partitionwizard.com/free-pa ... nager.html
ja das kenne ich sogar, da konnte man eine boot-CD/image erstellen wo man dann datenträger formatieren kann. aber es transferiert ja nicht /klont? das ist die nächste hürde. das habe ich nur bei dcptransfer gefunden, was eben auch testet und validiert, aber mac-only.
Was machst du denn eigentlich für ein Zinnober um das Kopieren von Files auf verschiedene Dateisysteme?! Passiert doch im Computeralltag regelmäßig. Und funktioniert auch regelmäßig.



Antwort von hexeric:

dienstag_01 hat geschrieben:
hexeric hat geschrieben:


ja das kenne ich sogar, da konnte man eine boot-CD/image erstellen wo man dann datenträger formatieren kann. aber es transferiert ja nicht /klont? das ist die nächste hürde. das habe ich nur bei dcptransfer gefunden, was eben auch testet und validiert, aber mac-only.
Was machst du denn eigentlich für ein Zinnober um das Kopieren von Files auf verschiedene Dateisysteme?! Passiert doch im Computeralltag regelmäßig. Und funktioniert auch regelmäßig.
eine digitale kopie ist selten ein klon. digital cinema ist sehr empfindlich und winzige ungereimtheiten genügen. ich sage das, weil es sehr sehr oft so war. am rechner ist es dasselbe file, aber der kinoserver hat es nicht gelesen wegen verändertem hash. mehr kann ich dir dazu nicht sagen, ich weiss nur worauf ich aufpassen muss. beim wechsel von dateisystemen passiert oft was.



Antwort von freezer:

hexeric hat geschrieben:
eine digitale kopie ist selten ein klon. digital cinema ist sehr empfindlich und winzige ungereimtheiten genügen. ich sage das, weil es sehr sehr oft so war. am rechner ist es dasselbe file, aber der kinoserver hat es nicht gelesen wegen verändertem hash. mehr kann ich dir dazu nicht sagen, ich weiss nur worauf ich aufpassen muss. beim wechsel von dateisystemen passiert oft was.
Eine digitale Dateikopie ist IMMER ein Klon solange beim Kopiervorgang keine Fehler wie gekippte Bits passiert sind. Dafür gibt es ja Kopiertools die einen Bitverify machen.
Klonen kannst Du nur eine Festplatte Sektor für Sektor inkl. Booteintrag, Dateisystemstrukur und Verteilung der Datenblöcke. Oder eine Verzeichnisstruktur auf Dateiebene.

Wenn also das DCP nach dem Kopieren Probleme macht, dann liegt es wohl am Tool welches auf ext2 schreibt oder an defekter Hardware.

EasyDCP sieht das übrigens genauso: https://de.easydcp.com/support-faq.php?id=68

Und Dein DCP Transfer Tool macht auch nix anderes als einen MD5 Hash anzulegen, das DCP zu kopieren und danach von der Kopie erneut einen MD5 Hash zu erzeugen und das zu vergleichen.



Antwort von hexeric:

freezer hat geschrieben:
hexeric hat geschrieben:
eine digitale kopie ist selten ein klon. digital cinema ist sehr empfindlich und winzige ungereimtheiten genügen. ich sage das, weil es sehr sehr oft so war. am rechner ist es dasselbe file, aber der kinoserver hat es nicht gelesen wegen verändertem hash. mehr kann ich dir dazu nicht sagen, ich weiss nur worauf ich aufpassen muss. beim wechsel von dateisystemen passiert oft was.
Eine digitale Dateikopie ist IMMER ein Klon solange beim Kopiervorgang keine Fehler wie gekippte Bits passiert sind. Dafür gibt es ja Kopiertools die einen Bitverify machen.
Klonen kannst Du nur eine Festplatte Sektor für Sektor inkl. Booteintrag, Dateisystemstrukur und Verteilung der Datenblöcke. Oder eine Verzeichnisstruktur auf Dateiebene.

Wenn also das DCP nach dem Kopieren Probleme macht, dann liegt es wohl am Tool welches auf ext2 schreibt oder an defekter Hardware.

EasyDCP sieht das übrigens genauso: https://de.easydcp.com/support-faq.php?id=68

Und Dein DCP Transfer Tool macht auch nix anderes als einen MD5 Hash anzulegen, das DCP zu kopieren und danach von der Kopie erneut einen MD5 Hash zu erzeugen und das zu vergleichen.
ja, ok. kommt halt einfach selten 100% richtig an und wir haben immer nur repariert. mehr kann ich nicht sagen. kenne es nur aus dem echten festival/kinobetrieb. aber darum gehts ja eigentlich nicht nach dem OP.



Antwort von dosaris:

freezer hat geschrieben:

Eine digitale Dateikopie ist IMMER ein Klon solange beim Kopiervorgang keine Fehler wie gekippte Bits passiert sind.
ja, richtig.

das Problem steckt aber in der Fileverpackung der Bits, die je nach Betriebssystem unterschiedlich ist.

Klassisches Beispiel ist die alte WAV-Audiodatei.
Bei Apple und MS sind die 16Bitwerte genau umgekehrt einsortiert: MSB first vs LSB-first
Stickwort: little-endian / big-endian (früher Motorola-Notation vs Intel-notation).
Obwohl die dig Audio-Information Bit-identisch ist wird bei Transport/Kopieren einer Datei von
little-endian- nach big-endian-Systemen (oder umgekehrt) jeweils nur Müll rauskommen.
Ohne Bitfehler, nur Interpretationsfehler.



Antwort von pillepalle:

Gerade per Zufall im Netz gefunden. Der redet zwar vom neuen SMPTE Standard in America, aber er stellt ein paar verschiedene Möglichkeiten zur DCP Erstellung mit Vor- und Nachteilen vor.

https://www.youtube.com/watch?v=WbbwYv4BAV4&t=3m40s

VG

PS: Das Video sieht allerdings aus wie unter Wasser... da hat er wohl am Mastering gespart :D



Antwort von dienstag_01:

dosaris hat geschrieben:
freezer hat geschrieben:

Eine digitale Dateikopie ist IMMER ein Klon solange beim Kopiervorgang keine Fehler wie gekippte Bits passiert sind.
ja, richtig.

das Problem steckt aber in der Fileverpackung der Bits, die je nach Betriebssystem unterschiedlich ist.

Klassisches Beispiel ist die alte WAV-Audiodatei.
Bei Apple und MS sind die 16Bitwerte genau umgekehrt einsortiert: MSB first vs LSB-first
Stickwort: little-endian / big-endian (früher Motorola-Notation vs Intel-notation).
Obwohl die dig Audio-Information Bit-identisch ist wird bei Transport/Kopieren einer Datei von
little-endian- nach big-endian-Systemen (oder umgekehrt) jeweils nur Müll rauskommen.
Ohne Bitfehler, nur Interpretationsfehler.
Wenn sowas passieren kann, ohne Bitfehler (ich kenne den Fall nicht), dann würde ein Vergleich der Hashwerte auch nichts nützen. Also wird man davon ausgehen können, dass DCP doch nicht ganz so kompliziert ist wie dein bemerkenswerter Fall ;)








Antwort von carstenkurz:

Unsägliche Halbwahrheiten, die man auch im Jahre 2020 noch zu dem Thema lesen kann.

JEDER Server kann NTFS lesen. Aber nicht jede NTFS-Platte, denn neben NTFS müssen auch noch ein paar andere Parameter eingehalten werden - max 2TB Festplattengröße, genau EINE primäre Partition in einer MBR Tabelle. Daran scheitern heutzutage schon die meisten User, denn alle modernen Betriebssysteme erzeugen per default GUID/GPT.
Inode size 128 benötigt man nur für ggfs. den eigentlichen Playout-Servern vorgeschaltete uralte TMS Systeme, die unter Windows laufen und einen ext2 Treiber benutzen, deren erste Inkarnationen eben nur mit inode size 128 funktionierten. Alle DCI server selbst laufen unter nativem Linux. USB2.0 ist lahm, aber auf jedem Server standardmäßig verfügbar.
Wer nicht von Haus aus unter Linux arbeitet, verzichtet lieber auf ext2/3, denn die meisten derzeit verfügbaren Tools zum Beschreiben dieses Formates für Windows oder OS X sind instabil oder setzen im besten Falle einen sehr zurückhaltenden und disziplinierten Einsatz voraus.

rec.709/BT.1886 ist ein wesentlich kleinerer Farbraum als DCP x'y'z' oder meinetwegen auch P3. Das heisst, jedes rec.709/BT.1886 master lässt sich zu 100% mathematisch korrekt in ein DCP transformieren. Allerdings ist ein fürs Grading verwendetes selbstleuchtendes Display mit >150nits eben immer noch was anderes als eine beleuchtete Leinwand mit 48cd/qm. Da steckt somit schon ein grundsätzliches Problem drin, wenn man im photopischen Bereich >150nits gradet, und das Ergebnis im mesopischen Sehbereich <48cd/qm anschaut, die unmittelbar wahrnehmbaren Unterschiede liegen dabei im Wesentlichen im Schattenbereich und Banding-Artefakten.

Die üblichen Tools in aktuellen Softwareversionen erledigen die Konvertierung aus üblichen Arbeitsfarbräumen nach x'y'z' nach etablierten Transformationsverfahren. Wenn man sich das Resultat dann wieder auf seinem Vorschaumonitor anschauen will, muss der Player dabei die inverse Transformation von x'y'z' nach rec.709 machen, und das geht mit Standardparemetern nicht 100% (wie will man dabei z.B. die Berücksichtigung von 48cd/qm über die Monitorhelligkeit abwickeln).

Für den Durchschnittsuser reichen übliche Playeranwendungen aber aus, um sich sicher zu fühlen. Bei einigen muss man aber sicher stellen, dass die korrekte Wiedergabefarbtransformation aktiviert ist, nicht jeder Player macht das automatisch.
Den Rest muss man dann, ebenso wie die korrekte Lautheit der Tonmischung, im Kino prüfen. Die meisten Beschwerden über falsche Farben bei der DCP Konvertierung entstammen dem schlichten Umstand, dass diese Nutzer sich nie Gedanken über Farbkalibrierung gemacht haben und schlicht angenommen hatten, ihr Schnittsystem bzw. ihr Vorschaumonitor sei farbverbindlich. Da muss man aber eben sehr viel Glück haben, wenn man aus einem nicht farbverbindlichen Zufallssystem auf ein sehr präzise farbkalibriertes Zielsystem konvertiert.

Resolve ab Version 16.x erzeugt ordentliche 08/15 DCPs direkt aus dem Projekt. Wer mehr braucht, greift zu DCP-o-matic oder eben teuren kommerziellen Tools.
SMPTE oder Interop ist gegenwärtig Wurscht, beide Dialekte funktionieren, es gibt derzeit aber bei Standardprojekten (24/25fps) noch keinen zwingenden Grund, SMPTE zu erzeugen. Von 48/50/60 fps lässt man besser die Finger, das läuft nur auf einem speziellen Anteil der installierten Serverbasis, solche Master müssen in 24/25/30fps konvertiert werden, DCP-o-matic kann sowas automatisch mit erledigen.

Wichtig ist, sich klarzumachen dass die Konvertierung in den Zielfarbraum und alle damit verbundenen Anpassungen erst bei der eigentlichen Erstellung des DCPs vorgenommen werden. Wer vorher schon glaubt, xyz, P3, gamma 2.6 oder andere irgendwo aufgeschnappte Halbheiten beim Grading umsetzen zu müssen, wird Schiffbruch erleiden. Das Master für eine DCP Konvertierung sollte zunächst mal immer ein 'ganz normales' 1080p1080p im Glossar erklärt oder 2160p rec.709 File mit 24fps oder 25fps sein. Finger weg von Einzelbildexporten, das geht meistens schief wegen Interpretationsproblemen bei Farbraum, GammaGamma im Glossar erklärt, data/video range, lin/log, etc. Aus dem Grunde sollte man auch lieber die Finger von OpenDcp lassen, das setzt zur Konvertierung eben Einzelbildsequenzen voraus, und fast alle OpenDcp DCPs, die ich zu sehen kriege weisen eben diese Interpretationsprobleme beim Schwarzwert auf. OpenDCP hat seine Verdienste, aber es wird seit Jahren nicht mehr weiter entwickelt, wozu auch, es gibt DCP-o-matic.

Bei Werbung reicht tonmäßig Stereo, bei Feature/Kurzfilm/Langfilm sollte zumindest eine centerorientierte Dialogmischung vorliegen, vereinfacht also Musik auf L und R und ein Mono-Center für Sprache. Kein formales Muss, aber schöner wär's. Sowas kann heutzutage jedes einfachste Videoschnittprogramm, ist nur ne Frage der Arbeitsdisziplin. Von Subwoofern/LFE und Surrounds lässt man besser die Finger, und die Marke 'Dolby' ignoriert man auch erstmal, im Unterschied zu den letzten Jahrzehnten der 35mm Ära spielen Dolby Technologien und Lizenzen im digitalen Kino keine maßgebliche Rolle mehr.

- Carsten



Antwort von freezer:

Äh Carsten, meintest Du wirklich "max 2GB Festplattengröße" und nicht eher 2TB? :D



Antwort von freezer:

Und falls es jemanden interessiert:
Die offiziellen ISDCF DCP Delivery Recommendations
https://isdcf.com/papers/ISDCF-Doc3-Delivery-Recs.pdf



Antwort von pillepalle:

@ freezer

Wie hattet ihr das bei eurem Marlene Film gemacht? Hattet ihr einen Cru Carrier dafür verwendet ( https://direkt.jacob.de/produkte/CRU-Da ... ch&ref=101 ) oder ein ganz 'normales' externes Gehäuse mit USB Anschluß? Oder geht das heutzutage in den Kinos per Download?

@ carstenkurz

Danke für die Infos. Hast Du selber schon DCPs erstellt und falls ja womit hast Du die gemacht?

Mir scheint das was im oben verlinkten Video gesagt wurde schon recht plausibel. Ein Indiefilmer, der nur eine, oder wenige Kopien vom Film macht und sich damit beschäftigen möchte, kann das auch selber machen, denn da hält sich auch der Schaden in Grenzen. Wenn bei einem Probelauf Fehler auftreten kann man die eventuell noch fixen. Bei einer größeren Produktion von der viele Kopien erstellt werden empfiehlt sich schon eine Firma, denn dann wird jeder Fehler richtig teuer. Auch wegen der Encryption Thematik. Sonst hat jeder Besitzer einer Kopie quasi eine eigene Masterkopie mit der er prinzipiell machen kann was er möchte.

Mir fällt eben auf das es in manchen Bereichen beim Film (gerade bei professionellen Workflows) immer noch so eine Art Geheimwissen vorzuherrschen scheint, das nur wenige 'Gurus' haben :) Eigentlich ist das Erstellen von Filmkopien für verschiedene Formate und Wiedergabe-Medien etwas ganz grundlegendes. Sowas wie die Basics. Aber das beherrschen erstaunlich wenig Leute.

VG



Antwort von Darth Schneider:

Ich weiss nicht, wenn ich hier so mit lese und mir vorstelle das wäre mein Film, dann würde ich den Film packen den Dienstleister aufsuchen der das täglich macht.
Witzig finde ich, jetzt, heute wird am Computer so ein Riesen Aufwand beim Schnitt mit Colorgrading gemacht. Um am Schluss dann herauszufinden das, wenn man das als Laie selber in dcp umwandelt mehr oder weniger reine Glückssache ist wie die Farben im Kino dann aussehen..;)
Das kann ja wohl nicht in deinem Interesse sein ?
Früher hatten wir gar keine Wahl, wenn die gewünschten Computeranimationen am Schluss auf 35mm Film (die ich damals für die Schweizer Polizei gemacht hatte) landen sollten und im Kino gezeigt werden sollten, dann ging das gar nicht ohne externen Dienstleister.
Dort konnte ich den Spot auch in einem kleinen Kino probesehen und die Farben sahen dann genau so aus wie später im Kino. (Aber das ist über 20 Jahre her).
Gruss Boris



Antwort von Frank Glencairn:

"Darth Schneider" hat geschrieben:

Witzig finde ich, jetzt, heute wird am Computer so ein Riesen Aufwand beim Schnitt mit Colorgrading gemacht. Um am Schluss dann herauszufinden das, wenn man das als Laie selber in dcp umwandelt mehr oder weniger reine Glückssache ist wie die Farben im Kino dann aussehen..;)
Wenn die Farben im Kino anders aussehen liegt's am Grading und nicht an der Umwandlung, die ist standardisiert.



Antwort von carstenkurz:

Normale portable 2.5" USB Platte, einfachste Ausführung 500GB mit USB 3.0. Denen liegt ja üblicherweise ein Adapterkabel bei von USB A auf Micro B USB3.0. Damit kommt jeder Server klar, die haben alle USB 2.0/3.0 A-Buchsen. USB-C gibts Stand 2020 im Kino nicht.


zum Bild


Die einfachen externen 500GByte Toshiba USB3 HDs werden tausendfach von den kommerziellen DCP-Distris verwendet. Kriegt man ab 30€ aufwärts. 5.25" CRU ist auf dem Rückzug - viele Server haben gar keine CRU slots mehr und müssen über Adapter bedient werden. Einige HighProfile Festivals verlangen noch explizit CRUs und ext2/3.

Bevor man die Platte NTFS formatiert, stellt man sicher, dass die Platte eine MBR Partitionstabelle enthält. Dazu findet man dutzendweise Tutorials im Netz. Bei 500GB Platten hat man meistens Glück und sie kommt von Haus aus noch mit MBR Tabelle (GUID/GPT ist erst bei Platten größer 2TB zwingend). Auch daher empfehle ich, es mit der Plattengröße nicht zu übertreiben.

So eine NTFS Platte lässt sich auch auf nem Mac problemlos erstellen, einige Toshiba Platten haben kostenfrei Tuxera dabei, mit dem man NTFS sowohl beschreiben, als auch die Platte in MBR/NTFS formatieren kann. Nach meiner Erfahrung ist Tuxera stabiler und schneller als Paragon. Es kostet grade mal 15€ für eine 3er Lizenz und wird sehr aktiv gepflegt.

https://www.tuxera.com/products/tuxera- ... /download/

Unter Windows muss man leider DISKPART und die Kommandozeile bemühen, um eine Platte auf eine MBR Partitionstabelle zu zwingen. Wenn man Glück hat, kommen Platten <2TB aber noch von Haus aus mit MBR und NTFS vorformatiert.

Bitte kein exFAT, damit geht man baden, es gibt genau einen älteren Servertyp, der das zufällig kann, und den sieht man immer seltener. Also entweder ext2/3 ODER NTFS. Wenn es aktuell unter Windows und OS X nicht so kompliziert wäre, würde ich auf den offiziellen Standard ext2/3 abheben, aber leider ist das für den typischen Filmemacher gegenwärtig einfach zu kompliziert und unzuverlässig und verursacht in der Praxis mehr Probleme als NTFS.

Kleinkram kann man auch über normale USB-Sticks zuliefern, man sollte dann aber halbwegs Markenware verwenden. Auch die müssen NTFS formatiert sein, und mehr als nen 10-Minüter sollte man den Vorführern über USB-Sticks nicht zumuten (typische Datenraten bei DCPs sind so 1-2 GByte/min), also so bei nem 16-32GB Stick würde ich persönlich die Grenze ziehen. Und man sollte sich auch nicht wundern, wenn man den Stick nie wieder sieht, sofern man nicht persönlich im Kino vorstellig wird. Ordentliche Beschriftung der Datenträger ist Pflicht.

Viele Kinos beziehen DCPs mittlerweile über Breitbandverbindungen, das sind aber in der Regel spezielle Distributionskanäle, in die man als Außenstehender nicht ohne Weiteres reinkommt. Wir beziehen zwar Bollywood/Kollywood halbwegs regelmäßig über GoogleDrive Downloads, sowas ist aber die absolute Ausnahme.


- Carsten



Antwort von XHA1:

Zurück zum Gamma:
Ich habe nach klassischer Fernsehnorm
im Farbraum von 16-235 in Resolve mit einem GammaGamma im Glossar erklärt von 2.4 gegradet.

Googelt man Rec709 DCP taucht
als erstes die "DCP-Manufaktur"auf.
Die wollen Rec709 Vorlagen mit
einem GammaGamma im Glossar erklärt von 2.4.
Das Filmfestival, wo ich teilnehme,
akzeptiert auch ProResProRes im Glossar erklärt und wandelt
selber auf DCP. Dort steht lakonisch
" Apple ProResProRes im Glossar erklärt Codecs haben einen nativen Gammawert von 2.2"

Was heisst das denn nun? Dass ich ein Rec709/2.4 Grading in Resolve mit einem GammaGamma im Glossar erklärt von 2.2 exportiere?
(Was dunkler ist und flauere Highlights hat)

Oder darauf vertraue, dass der Gammawert
in die Metadaten des Qicktimes gebacken wird?
Da "eingebrannte" Untertitel verlangt sind,
wird es noch komplizierter: Ich hole das Resolve Qicktime in FCP7 (richtig gelesen, 7) zurück und lege die Titel drüber. Also wird das Untertitelte Qicktime wahrscheinlich sagen,
"ich bin 2.2" Könnte man solche Metadaten auf dem Mac editieren?

Da auch Ton angesprochen wurde:
Ich bin und bleibe Stereo. Was ist der LuFs
für den Dialog?-31db wie bei Surround?
Oder doch -27?
Grüsse, XHA1



Antwort von dienstag_01:

XHA1 hat geschrieben:
Zurück zum Gamma:
Ich habe nach klassischer Fernsehnorm
im Farbraum von 16-235 in Resolve mit einem GammaGamma im Glossar erklärt von 2.4 gegradet.

Googelt man Rec709 DCP taucht
als erstes die "DCP-Manufaktur"auf.
Die wollen Rec709 Vorlagen mit
einem GammaGamma im Glossar erklärt von 2.4.
Das Filmfestival, wo ich teilnehme,
akzeptiert auch ProResProRes im Glossar erklärt und wandelt
selber auf DCP. Dort steht lakonisch
" Apple ProResProRes im Glossar erklärt Codecs haben einen nativen Gammawert von 2.2"

Was heisst das denn nun? Dass ich ein Rec709/2.4 Grading in Resolve mit einem GammaGamma im Glossar erklärt von 2.2 exportiere?
(Was dunkler ist und flauere Highlights hat)

Oder darauf vertraue, dass der Gammawert
in die Metadaten des Qicktimes gebacken wird?
Da "eingebrannte" Untertitel verlangt sind,
wird es noch komplizierter: Ich hole das Resolve Qicktime in FCP7 (richtig gelesen, 7) zurück und lege die Titel drüber. Also wird das Untertitelte Qicktime wahrscheinlich sagen,
"ich bin 2.2" Könnte man solche Metadaten auf dem Mac editieren?

Da auch Ton angesprochen wurde:
Ich bin und bleibe Stereo. Was ist der LuFs
für den Dialog?-31db wie bei Surround?
Oder doch -27?
Grüsse, XHA1
Es gibt kein GammaGamma im Glossar erklärt bei Videofiles. Nicht als Metadaten.
Wenn dein Video mit einem anderen Gammawert bearbeitet wurde als das Ergebnis abgespielt wird, dann sieht es etwas heller oder dunkler aus. Je nachdem. Bei 2.4 zu 2.2 dann etwas dunkler, Glaube ich. Müsste man ausprobieren.








Antwort von pillepalle:

Der Gammawert bei den verschiedenen Filmstrandards bezieht sich auf die Betrachtungsbedingungen. In Deinem Fall die Deines Monitors. Um z.B. ein REC709 richtig zu beurteilen und sehen zu können (der Norm entsprechend), müsste Dein Monitor einen Gammawert von 2.4 aufweisen (und eine Helligkeit von 100cd/m2 bei SDR). Bei DCI P3 bräuchtest Du ein GammaGamma im Glossar erklärt von 2.6 (eine Helligkeit von 48cd/m2 bei SDR) usw... Die meisten Monitore haben standardmäßig ein GammaGamma im Glossar erklärt von 2.2. Wenn die auf einem Festival ein REC709 mit GammaGamma im Glossar erklärt 2.2 haben möchten, dann meinen sie damit, das Du es auf einem Monitor mit einem GammaGamma im Glossar erklärt von 2.2 graden kannst und sie übernehmen dann die Umwandlung. Das Ganze ist insofern wichtig, weil der Bildeindruck bei unterschiedlichen Gammawerten natürlich ein anderer ist.

VG



Antwort von dienstag_01:

pillepalle hat geschrieben:
Der Gammawert bei den verschiedenen Filmstrandards bezieht sich auf die Betrachtungsbedingungen. In Deinem Fall die Deines Monitors. Um z.B. ein REC709 richtig zu beurteilen und sehen zu können (der Norm entsprechend), müsste Dein Monitor einen Gammawert von 2.4 aufweisen (und eine Helligkeit von 100cd/m2 bei SDR). Bei DCI P3 bräuchtest Du ein GammaGamma im Glossar erklärt von 2.6 (eine Helligkeit von 48cd/m2 bei SDR) usw... Die meisten Monitore haben standardmäßig ein GammaGamma im Glossar erklärt von 2.2. Wenn die auf einem Festival ein REC709 mit GammaGamma im Glossar erklärt 2.2 haben möchten, dann meinen sie damit, das Du es auf einem Monitor mit einem GammaGamma im Glossar erklärt von 2.2 graden kannst und sie übernehmen dann die Umwandlung. Das Ganze ist insofern wichtig, weil der Bildeindruck bei unterschiedlichen Gammawerten natürlich ein anderer ist.

VG
Das ist alles richtig, aber GammaGamma im Glossar erklärt 2.4 ist erst mit Resolve gekommen (das macht meines Wissens kein anderes NLE so und im Color grading Bereich kenne ich das auch nicht), das gibt es auch nicht in Rec709. Hängt wahrscheinlich damit zusammen, dass in 709 eine Gammakurve definiert ist, die sowieso mit 2.2 bzw. 2.4 nur näherungsweise beschrieben werden kann, in den Tiefen und Höhen weicht sie ab. Und Resolve fand dann irgendwann mal, dass 2.4 irgendwie *näher dran* ist ;)



Antwort von pillepalle:

Du kannst in Resolve prinzipiell mit jedem GammaGamma im Glossar erklärt ein REC709 graden. Das 2.4 weist nur auf das zu verwendende GammaGamma im Glossar erklärt hin. Ich habe mir jetzt auch nicht die komplette ITU Norm durchgelesen, aber bei Wikipedia findest Du folgendes zu den Gammawerten bei REC709:
While Rec. 709 does not specify the display referred gamma (EOCF/EOTF), display gamma is discussed in EBU Tech 3320 and specified in ITU-R BT.1886 as a gamma of 2.4. This is a higher gamma than the 2.0 the math shown above would indicate, because the television system has been deliberately designed with an end-to-end system gamma of about 1.2, to provide compensation for the ‘dim surround’ effect. Therefore, the monitor gamma is not the inverse of the camera gamma.

It is worth noting that Rec. 709 and sRGB share the same primary chromaticities and white point chromaticity; however, sRGB is explicitly output (display) referred with an equivalent gamma of 2.2 (the actual function is also piecewise).

In typical production practice the encoding function of image sources is adjusted so that the final picture has the desired aesthetic look, as viewed on a reference monitor with a gamma of 2.4 (per ITU-R BT.1886) in a dim reference viewing environment (per ITU-R BT.2035).
https://en.wikipedia.org/wiki/Rec._709

VG



Antwort von dienstag_01:

pillepalle hat geschrieben:
Du kannst in Resolve prinzipiell mit jedem GammaGamma im Glossar erklärt ein REC709 graden. Das 2.4 weist nur auf das zu verwendende GammaGamma im Glossar erklärt hin. Ich habe mir jetzt auch nicht die komplette ITU Norm durchgelesen, aber bei Wikipedia findest Du folgendes zu den Gammawerten bei REC709:
While Rec. 709 does not specify the display referred gamma (EOCF/EOTF), display gamma is discussed in EBU Tech 3320 and specified in ITU-R BT.1886 as a gamma of 2.4. This is a higher gamma than the 2.0 the math shown above would indicate, because the television system has been deliberately designed with an end-to-end system gamma of about 1.2, to provide compensation for the ‘dim surround’ effect. Therefore, the monitor gamma is not the inverse of the camera gamma.

It is worth noting that Rec. 709 and sRGB share the same primary chromaticities and white point chromaticity; however, sRGB is explicitly output (display) referred with an equivalent gamma of 2.2 (the actual function is also piecewise).

In typical production practice the encoding function of image sources is adjusted so that the final picture has the desired aesthetic look, as viewed on a reference monitor with a gamma of 2.4 (per ITU-R BT.1886) in a dim reference viewing environment (per ITU-R BT.2035).
https://en.wikipedia.org/wiki/Rec._709

VG
Schon an deinen 3 Zitaten mit 3 Normen sieht man, wie komplex das ist ;)
100 Nits steht übrigens auch nicht in der 709 (da hab ich wirklich mal nachgeschaut), das wurde erst *rückwirkend* mit der Einführung von HDR (in der 2020?) so definiert. Vorher gab es dafür schlicht keinen Grund.
Am besten, nicht drüber nachdenken ;)



Antwort von pillepalle:

Hast schon Recht, ist ein ziemliches WirrWarr :) Aber wenn man es halbwegs so haben möchte wie beabsichtigt, muss man sich ja an irgendwelche Parameter halten. Für mich war das auch ein Grund für den neuen Moni, bei dem ich per Knopfdruck zwischen verschiedenen Normen hin und her schalten kann. So kann ich schnell wechseln, wenn ich Fotos bearbeite, oder Filme grade ect. Aber wirklich daran halten tun sich eh nur die Wengisten.

VG



Antwort von dienstag_01:

pillepalle hat geschrieben:
Hast schon Recht, ist ein ziemliches WirrWarr :) Aber wenn man es halbwegs so haben möchte wie beabsichtigt, muss man sich ja an irgendwelche Parameter halten. Für mich war das auch ein Grund für den neuen Moni, bei dem ich per Knopfdruck zwischen verschiedenen Normen hin und her schalten kann. So kann ich schnell wechseln, wenn ich Fotos bearbeite, oder Filme grade ect. Aber wirklich daran halten tun sich eh nur die Wengisten.

VG
Ich bin da wahrscheinlich nicht so gut aufgestellt wie du, daher meine Frage: wie gibst du aus Resolve aus? Monitoring oder Grafikkarte?



Antwort von XHA1:

Danke für die Antworten!

Lange Rede kurzer Sinn:
Seit es bei uns PALHD gibt, und ich glaube,
auf PAL-SD trifft das ebenso zu,
hat jeder Post-Profi einen mit einem Gamma
von 2.4 kalibrierten HD Broadcast
Monitor bei sich rumstehen, richtig?

Der Farbraum für Rec709/1080
geht standardmässig von 16 -235.

Also kann ich davon ausgehen, dass ich in der "Resolvedenke" mit einem GammaGamma im Glossar erklärt von 2.4. exportieren / anliefern m u s s , richtig?

Und schreibe in den Filenamen einfach PALPAL im Glossar erklärt 1080p1080p im Glossar erklärt (was die Quelle ja ist) und jeder weiss, was beim Erstellen des DCP zu tun ist,korrekt? LG



Antwort von pillepalle:

@ dienstag_01

Ich gehe in 10bit über die Grafikkarte. Aber auch weil ich ich gar nicht wüsste wie das über Monitoring geht *haha* Da braucht man vermutlich eine spezielle Videokarte für, oder?

VG



Antwort von dienstag_01:

XHA1 hat geschrieben:
Danke für die Antworten!

Lange Rede kurzer Sinn:
Seit es bei uns PALHD gibt, und ich glaube,
auf PAL-SD trifft das ebenso zu,
hat jeder Post-Profi einen mit einem Gamma
von 2.4 kalibrierten HD Broadcast
Monitor bei sich rumstehen, richtig?

Der Farbraum für Rec709/1080
geht standardmässig von 16 -235.

Also kann ich davon ausgehen, dass ich in der "Resolvedenke" mit einem GammaGamma im Glossar erklärt von 2.4. exportieren / anliefern m u s s , richtig?

Und schreibe in den Filenamen einfach PALPAL im Glossar erklärt 1080p1080p im Glossar erklärt (was die Quelle ja ist) und jeder weiss, was beim Erstellen des DCP zu tun ist,korrekt? LG
Mich wundert, dass du hier immer so explizit auf 16-235 hin weißt, dein Bild darf als finales Video nicht anders aussehen, als in resolve. Also so, wie es deiner Meinung nach aussehen soll.








Antwort von pillepalle:

@ XHA1

Wie gesagt, Resolve exportiert das REC709 nicht mit einem bestimmten GammaGamma im Glossar erklärt sondern immer gleich. Wenn es RECC709 2.4 GammaGamma im Glossar erklärt heisst, dann beseutet das nur, dass es mit einem GammaGamma im Glossar erklärt von 2.4 gegradet wurde. Du also Deinen Monitor auf ein GammaGamma im Glossar erklärt von 2.4 eingestellt hast. Wenn Dir das Festival 2.2 anbietet würde ich das aber auch so machen (ist für Dich vermutlich einfacher) und es eben als REC709 mit GammaGamma im Glossar erklärt 2.2 bezeichnen.

VG



Antwort von dienstag_01:

pillepalle hat geschrieben:
@ dienstag_01

Ich gehe in 10bit über die Grafikkarte. Aber auch weil ich ich gar nicht wüsste wie das über Monitoring geht *haha* Da braucht man vermutlich eine spezielle Videokarte für, oder?

VG
Ja, das geht nur über spezielle Karten.
Für deine Ausgabe verdrehst du dann also sRGB zu einem 2.4 Gamma? Oder verstehe ich das falsch?



Antwort von pillepalle:

Nee, die Grafikkarte verdreht da nix, weil der Monitor Hardware-Kalibrierbar ist und mehrere Profile gespeichert hat. Da kann ich zwischen meiner eigenen Kalibrierung und 9 Standartprofilen wechseln (darunter eben viele für verschiedene Film und Videomodi). Bei den meisten 'normalen' Monitoren müsste ich den Monitor jedesmal neu Kalibrieren, wenn ich z.B. ein anderes GammaGamma im Glossar erklärt, Weißßpunkt und Helligkeit haben möchte. Das fand ich ziemlich praktisch.

VG



Antwort von dienstag_01:

pillepalle hat geschrieben:
Nee, die Grafikkarte verdreht da nix, weil der Monitor Hardware-Kalibrierbar ist und mehrere Profile gespeichert hat. Da kann ich zwischen meiner eigenen Kalibrierung und 9 Standartprofilen wechseln (darunter eben viele für verschiedene Film und Videomodi). Bei den meisten 'normalen' Monitoren müsste ich den Monitor jedesmal neu Kalibrieren, wenn ich z.B. ein anderes GammaGamma im Glossar erklärt, Weißßpunkt und Helligkeit haben möchte. Das fand ich ziemlich praktisch.

VG
Das hatte ich schon so gemeint, du verstellst sRGB, was ja standardmäßig 2.2 hat, auf 2.4. Am Monitor.
?



Antwort von XHA1:

Ich betone immer 16-235 danit hier keiner
mit 0-255 kommt.

Vergiss mal, was das Festival schreibt.

Wer ein DCP von PAL-HD erstellt,
geht davon aus, dass der Look
mit einem GammaGamma im Glossar erklärt von 2.4 erstellt wurde,
richtig?

Und Resolve exportiert das GammaGamma im Glossar erklärt nicht gleich, denn man kann dies in den Projektsettings einstellen, und die
Quicktimes sehen entsprechend aus...



Antwort von pillepalle:

@ dienstag_01

Genau, das stelle ich am Monitor ein. Aber GammaGamma im Glossar erklärt 2.2 ist nicht zwangsläufig sRGB. Auch andere Standards, wie Adobe RGBRGB im Glossar erklärt, haben ein GammaGamma im Glossar erklärt von 2.2

VG



Antwort von dienstag_01:

pillepalle hat geschrieben:
@ dienstag_01

Genau, das stelle ich am Monitor ein. Aber GammaGamma im Glossar erklärt 2.2 ist nicht zwangsläufig sRGB. Auch andere Standards, wie Adobe RGBRGB im Glossar erklärt, haben ein GammaGamma im Glossar erklärt von 2.2

VG
Finde ich einen seltsamen Workflow, aber gut. Ansonsten muss man wahrscheinlich wirklich über Monitoring Card und 709 bzw. 2020 gehen.



Antwort von dienstag_01:

XHA1 hat geschrieben:
Ich betone immer 16-235 danit hier keiner
mit 0-255 kommt.

Vergiss mal, was das Festival schreibt.

Wer ein DCP von PAL-HD erstellt,
geht davon aus, dass der Look
mit einem GammaGamma im Glossar erklärt von 2.4 erstellt wurde,
richtig?

Und Resolve exportiert das GammaGamma im Glossar erklärt nicht gleich, denn man kann dies in den Projektsettings einstellen, und die
Quicktimes sehen entsprechend aus...
Der professionelle Weg wäre der über ein Studio. Da kann man (eigentlich) davon ausgehen, dass das Ergebnis dem der Bearbeitung entspricht. Also der Norm.
Wenn es dieser Weg nicht sein soll, würde ich mir das Video einmal in 2.2 und dann in 2.4 ansehen und danach entscheiden, was ästhetisch besser zu verkraften ist, im Zweifel etwas heller oder eben etwas dunkler. Das hängt ja auch von der Art des Filmes ab.



Antwort von XHA1:

Ich habe gefragt, ob bei dem Weg von
PAlHD nach DCP ein Gammawert von
2.4 vorausgesetzt ist. Das Geschwurbel
"Weg über ein Studio ist besser"
"gucke es dir an" "hängt von der Ästhetik ab"interessiert nicht.

Denn ich habe ja schon beschrieben, das ich
diesen Vergleich gemacht habe.

Lest also, bevor ihr Antwortet, denn es gibt tatsächlich Leute, die keine
Zeit haben, sich durch aufgeblähte Threads zu wühlen.

Die Antwort bei PALPAL im Glossar erklärt HD als Quellmaterial: 2,4.
Wird laut dem verlinkten ebook vorausgesetzt.








Antwort von dienstag_01:

Alles klar.



Antwort von pillepalle:

@ XHA1

Du wirfst einfach Begriffe durcheinander die nichts miteinander zu tun haben. DCP ist ein Containerformat für Bilder und Ton und andere Daten (wie Untertitel, Packaging und Playlist) im digitalen Kino. Dort sind die Bilder in einem 12bit X'Y'Z' Farbraum im JPEG2000 FormatFormat im Glossar erklärt auf Festpaltten gespeichert.

Wenn Dir jemand ein DCP erstellt, dann wandelt er Dein Quellmaterial in ein bestimmtes anderes Format. Im Prinzip kann er das von jeglichem Ausgangsmaterial machen (das nennt man Mastern). Wenn das Ergebnis aber so aussehen soll wie Du es beabsichtigt hast, dann ist es sinnvoll sich beim Grading an bestimmte Standards zu halten (z.B. REC709, BT2020,DCI-P3, ect.). Dann kann das Quellmaterial von einem Farbraum in den anderen so umgewandelt werden, das es dem Bildeindruck entspricht den Du während des Gradings hattest (sofern Deine Betrachtungsbedingungen der jeweiligen Norm entsprochen haben). Im idealfall hälst Du Dich also an die Vorgegebenen Normen. D.h. wenn Du einen Film nach der BT709 Norm Graden möchtest (weil Dein Monitor vielleicht die Darstellung eines BT.2020 Farbraums nicht erlaubt), dann kalibrierst Du Deinen Monitor auf ein GammaGamma im Glossar erklärt von 2.4, eine Helligkeit von 100cd/m2 und einen Weisspunkt von D65 (D50 und D61 gehen glaube ich auch). Wichtig ist nur, dass derjenige auch weiss woran Du Dich orientiert hast.

PAL (ist eine Norm aus Zeiten des analogen Fernsehns) und HD (die Auflösung) haben damit erst einmal nichts zu tun. Obwohl auch die Auflösung für das digitale Kino bestimmte Endformate haben muss. Genausowenig hat der normale Videorange (mit RGBRGB im Glossar erklärt Werten von 16-235) von dem Du die Ganze Zeit redest irgendetwas damit zu tun. Den hat mant bei einer Zuspielung eines Videosignals über HDMIHDMI im Glossar erklärt, hat aber nichts mit einer Kinoprojektion zu tun, die Du anstrebst.

VG



Antwort von carstenkurz:

Der Dienstleister oder die Software, mit der das Masterfile in ein DCP konvertiert werden muss, kann nicht alle Parameter im Masterfile automatisch (sicher) aus irgendwelchen Metdaten ziehen. Er/Sie muss entweder davon ausgehen, dass Normstandards verwendet werden, oder dass man ihm irgendwelche Besonderheiten explizit mitteilt.

Wenn man in rec.709 gegradet hat, ist das einzig sinnvolle, ein 08/15 Master in ebendiesem Farbraum zu exportieren. rec.709 ist im Übrigen nur noch ein verbreiteter historischer Begriff, faktisch ist das heute immer BT.1886 und das ist mit GammaGamma im Glossar erklärt 2.4 spezifiziert.
PAL-HD gibt es nicht. PALPAL im Glossar erklärt ist SD und damit rec.601, HD ist rec.709 bzw. BT.1886.

Und oh Wunder, in DCP-o-matic gibt es ein Eingangs rec.709 Preset mit GammaGamma im Glossar erklärt 2.2, und ein BT.1886 Preset mit GammaGamma im Glossar erklärt 2.4. Man kann also beides korrekt nach X'Y'Z' konvertieren, muss aber nunmal wirklich WISSEN, mit welchem GammaGamma im Glossar erklärt das Master erstellt wurde, damit man hier das richtige einstellt. Macht man es nicht selbst, teilt man es dem Dienstleister auf dem Beipackzettel mit oder fragt dort ggfs. vorher nach, ob er das in seiner Software auch ändern kann, oder ob er einen bestimmten Wert voraussetzt.
Auch der Weisspunkt wird automatisch bei so einer Konvertierung angepasst. Genau dafür ist das Programm ja da.


Nach meiner Erfahrung spielt der Unterschied zwischen den Gammas 2.2 vs. 2.4 (faktisch sind es eh keine stetigen Gammas bei Video) im Kino keine große Rolle. Wenn ich kaputte Konvertierungen gesehen habe, waren das bisher typisch Interpretationsprobleme zwischen Full Range (data levels) und Limited Range (video levels). Oft DENKEN dann die Leute, dass es ein Gammaproblem sein muss, weil es sich in Schatten und Lichtern bemerkbar macht.
NORMAL bei rec.709/BT.1886 bzw. im Grunde allen komprimierten Videoformaten ist LIMITED RANGE (16-235), aka video levels (auch das kann man in DCP-o-matic noch korrigieren, und begrenzt sogar im Vectorscope auf Plausibilität prüfen). Manche Leute glauben, die 0-15 und 236-255 wären so unglaublich wichtig weil sie ja mit der tollen 15stops Kamera gearbeitet haben. Aber was mal ganz vorne war, spielt hier keine Rolle mehr.
Wer auf Full Range Wert legt, muss das vorher schon beim Import, Arbeitsfarbraum, Grading und der Monitorlösung ebenso korrekt umgesetzt (und validiert!) haben, sonst macht das keinen Sinn. Besser lässt man es also.


Beim Tonpegel ist -20 LUFS/R128 eine gute Hausnummer. LUFS hat nicht der Dialog, sondern das gesamte File (nicht mit Dialnorm verwechseln). -20 LUFS ist nur ein typischer pragmatischer Zielkorridor fürs Kino bei kurzen Spiellängen wie Werbung oder Kurzfilme. Keine Norm kann deine subjektive Entscheidung ersetzen, wie laut dein Werk sein soll. Wenn Du Bienchen auf einer Wiese drin hast, werden die bei -20 LUFS zu Sturzbombern. Wenn's bißchen mehr drücken soll, nimm -17 bis -18 LUFS. Richtung -15 LUFS tut's weh.
Amateurmischungen (nicht übel nehmen) haben manchmal Probleme, die nötige Lautheit in Stereo zu erreichen - dafür muss der Mix in der Regel in der Tonmischung ein bißchen komprimiert werden. Wenn man viele Peaks im Material hat, kriegt man den Pegel nicht ohne Limiter/Kompressor, oder eben (bäh) Clipping auf die nötige Lautheit. Also nicht blind z.B. in DCP-o-matic auf -18 LUFS hochdrehen, sondern dabei die Peak-Level im Auge behalten (es gibt bei Clipping eh ne Warnung).
Kommt aber ein bißchen drauf an, was das ist, was man da macht. Lautheit im Kino ist ne lange und komplizierte Geschichte. In DCP-o-matic kann man die Lautheit analysieren und auch noch problemlos anpassen.

Der übliche Weg für z.B. Werbung und Doku ist, dass eine Stereospur in ein DCP mit zwei Kanälen (ZULÄSSIG!) oder 5.1 verpackt wird, dabei bleiben bei 5.1 aber die Kanäle 3-6 silent und belegen unnötig Platz. Centermischung für Dialog ist schön, macht aber Arbeit.
Irgendwelche Upmixe passieren weder beim Dienstleister noch im Kino automatisch, da muss man sich vorher selber drum kümmern. Von den Surrounds und dem .1/LFE (das ist KEIN Subwoofer) lässt man die Finger, wenn man kein Profi im Bereich 5.1 ist.



Was Dienstleister angeht - da tummeln sich welche, die von Tuten und Blasen keine Ahnung haben. Gut arbeitende rauszufinden ist fast so schwierig wie sich selbst in DCP-o-matic reinzuarbeiten.
Und ja, leider gibt es auch Festivals, die in ihre Anforderungen Mist rein schreiben.

Für ein 08/15 DCP kann man mittlerweile auch Resolve ab 16.x verwenden. Viele Leute machen aber auch da Fehler, weil sie eben glauben, in Resolve auch noch eine zusätzliche gezielte Farb- oder Gammakonvertierung im Hinblick aufs DCP einbauen zu müssen.

Was ist denn deine Untertitelquelle - gibts die schon, wie legst Du die dann? Grundsätzlich kannst Du die Untertitel auch gleich beim Erstellen des Masters rein rechnen. Da gibts aber viele Möglichkeiten, kommt ein bißchen auf die gewünschten Verwendungen des DCPs an.



Antwort von dienstag_01:

Ein Abschnitt beschäftigt sich mit Video, GammaGamma im Glossar erklärt und den Normen, sehr lesenswerter Überblick:
https://rehders.de/technik-spezial-farb ... nd-praxis/



Antwort von pillepalle:

@ carstenkurz

Wenn ich Dich mal aus einem vorherigen Post zitieren darf...
rec.709/BT.1886 ist ein wesentlich kleinerer Farbraum als DCP x'y'z' oder meinetwegen auch P3. Das heisst, jedes rec.709/BT.1886 master lässt sich zu 100% mathematisch korrekt in ein DCP transformieren. Allerdings ist ein fürs Grading verwendetes selbstleuchtendes Display mit >150nits eben immer noch was anderes als eine beleuchtete Leinwand mit 48cd/qm. Da steckt somit schon ein grundsätzliches Problem drin, wenn man im photopischen Bereich >150nits gradet, und das Ergebnis im mesopischen Sehbereich <48cd/qm anschaut, die unmittelbar wahrnehmbaren Unterschiede liegen dabei im Wesentlichen im Schattenbereich und Banding-Artefakten.
Wäre es da nicht sinnvoller lieber gleich im P3 Farbraum (mit einem GammaGamma im Glossar erklärt von 2.6 und einer Helligkeit von 48cd/m²) und entsprechend dunkler Umgebung zu graden, weil der Eindruck am Bildschirm dann viel mehr dem späteren Eindruck auf der Leinwand entspricht? Vorausgesetzt natürlich es geht dabei um eine Kinoprojektion.

VG

PS: Ich persönlich finde den Unterschied zwischen GammaGamma im Glossar erklärt 2.2 und 2.4 übrigens gar nicht so gering. Mann kann zwar beides anschauen, aber ein mit GammaGamma im Glossar erklärt 2.4 gegradetes Bild wirkt deutlich heller (vor allem in den Schatten) wenn man es mit GammaGamma im Glossar erklärt 2.2 betrachtet wird und umgekehrt suppt das mit GammaGamma im Glossar erklärt 2.2 gegradete Bild in den Schatten zu, wenn man es mit GammaGamma im Glossar erklärt 2.4 betrachtet.



Antwort von carstenkurz:

Natürlich kann man grundsätzlich auch direkt in P3 graden. Nur, bist Du sicher, dass Du eine P3 Monitoring Lösung signaltechnisch sauber aufgebaut bekommst inkl. Kalibrierung? Es reicht ja nicht, wenn der Monitor im Datenblatt 9x% P3 unterstützt.

Wegen der sehr unterschiedlichen Darstellung von selbstleuchtenden Displays und Kino-Projektoren müsste man sowas auch eng subjektiv abgleichen, um wirklich sicher zu sein. z.B. die Grading-Station mal für ein paar Stunden in ein Kino stellen und kritisches Material vergleichen.

Das ist ziemlich aufwendig. Im Vergleich dazu ist rec-709/BT-1886 trivial.



Antwort von pillepalle:

carstenkurz hat geschrieben:
Natürlich kann man grundsätzlich auch direkt in P3 graden. Nur, bist Du sicher, dass Du eine P3 Monitoring Lösung signaltechnisch sauber aufgebaut bekommst inkl. Kalibrierung? Es reicht ja nicht, wenn der Monitor im Datenblatt 9x% P3 unterstützt.
Ich denke schon. Der Monitor den ich nutze ist extra dafür gemacht und erlaubt ein Umschalten zwischen verschiedenen Filmstandarts, unter anderem auch DCI-P3.

https://www.eizo.de/coloredge/cg279x/

VG



Antwort von dienstag_01:

pillepalle hat geschrieben:
carstenkurz hat geschrieben:
Natürlich kann man grundsätzlich auch direkt in P3 graden. Nur, bist Du sicher, dass Du eine P3 Monitoring Lösung signaltechnisch sauber aufgebaut bekommst inkl. Kalibrierung? Es reicht ja nicht, wenn der Monitor im Datenblatt 9x% P3 unterstützt.
Ich denke schon. Der Monitor den ich nutze ist extra dafür gemacht und erlaubt ein Umschalten zwischen verschiedenen Filmstandarts, unter anderem auch DCI-P3.

https://www.eizo.de/coloredge/cg279x/

VG
Wie stellst du denn sicher, dass das korrekte Signal zum Monitor gesendet wird?



Antwort von pillepalle:

Wieso sollte denn plötzlich kein korrektes Signal zum Monitor gesendet werden? Die Grafikkarte ändert nichts beim ändern der Einstellung, der Monitor ist es, der die Parameter für die verschiedenen Standarts ändert.

VG








Antwort von carstenkurz:

Wie gesagt, 'Click'N Play' wird das nicht gehen, ohne dass man professionelle Dienstleister damit beauftragt. Aber es gibt schon Möglichkeiten, sich da 'intuitiv' ranzutasten. Man muss es aber eben meiner Meinung nach über einen echten Kinoprojektor halbwegs verifizieren. Dazu kommt, dass ein Eizo im DCI Profil vermutlich schonmal von Haus aus auch ohne explizite Fremdkalibrierung viel richtig macht.

In Resolve sollte man die verschiedenen Farbräume jedenfalls einrichten können. Für's Monitoring müsste man aber mutmaßlich mal wieder sicherheitshalber eine BMD Decklink o.ä. nehmen.

Auch mit Resolve wüsste ich jedenfalls nicht, wie eine normale Grafikkarte, die über das Colormanagement üblicher Betriebssysteme läuft, dazu zu kriegen ist, P3 auszugeben.


Dazu kommt - dieser Monitor hat 350nits. Den müsste man erstmal ohne Quantisierungsverluste oder andere Nebeneffekte auf irgendwas unter 100nits drosseln.



Antwort von pillepalle:

Warum sollte man einen professionellen Dienstleister dafür brauchen ein P3 Profil am Monitor zu nutzen? Man kann die einzelnen Profile auch neu kalibrieren, entweder mit dem Integrierten Messgerät, oder einem externen, wenn man mag. Natürlich muss man dabei immer auch die Raumbeleuchtung im Auge behalten. Das gilt aber für jeden Farbraum den man verwendet. Ich kenne nicht wenig Leute, die an ihrem D65 kalibrieten Monitor Kunstlicht als Umgebungslicht verwenden, oder viel zu helle oder dunkele Räume haben. Das spielt für die Betrachtung natürlich alles eine Rolle. Deshalb gibt es ja Normen und man kalibriert seinen Monitor, damit alle unter halbwegs einheitlichen Bedingungen das gleiche sehen. Die Voraussetzung dafür ist natürlich ein hardwarekalibrierbarer Monitor der die verschiednen Farbräume auch halbwegs abdecken kann. Es geht ja auch nicht darum damit eine Kontrolle auf einer Kinoleinwand zu ersetzen, aber man bekommt vermutlich einen besseren Eindruck vom Endergebnis, als wenn man mit hellem Display gradet. Es muss eben nur richtig kommuniziert werden unter welchen Bedingungen man gegradet hat.

Das Modell ist doch extra dafür gemacht und es gibt sogar Grading-Profis die den dafür nutzen ...aber Achtung, ist Werbung! ;)

https://www.eizo.de/referenzen/coloredg ... nce-media/




VG



Antwort von dienstag_01:

pillepalle hat geschrieben:
Warum sollte man einen professionellen Dienstleister dafür brauchen ein P3 Profil am Monitor zu nutzen? Man kann die einzelnen Profile auch neu kalibrieren, entweder mit dem Integrierten Messgerät, oder einem externen, wenn man mag. Natürlich muss man dabei immer auch die Raumbeleuchtung im Auge behalten. Das gilt aber für jeden Farbraum den man verwendet. Ich kenne nicht wenig Leute, die an ihrem D65 kalibrieten Monitor Kunstlicht als Umgebungslicht verwenden, oder viel zu helle oder dunkele Räume haben. Das spielt für die Betrachtung natürlich alles eine Rolle. Deshalb gibt es ja Normen und man kalibriert seinen Monitor, damit alle unter halbwegs einheitlichen Bedingungen das gleiche sehen. Die Voraussetzung dafür ist natürlich ein hardwarekalibrierbarer Monitor der die verschiednen Farbräume auch halbwegs abdecken kann. Es geht ja auch nicht darum damit eine Kontrolle auf einer Kinoleinwand zu ersetzen, aber man bekommt vermutlich einen besseren Eindruck vom Endergebnis, als wenn man mit hellem Display gradet. Es muss eben nur richtig kommuniziert werden unter welchen Bedingungen man gegradet hat.

Das Modell ist doch extra dafür gemacht und es gibt sogar Grading-Profis die den dafür nutzen ...aber Achtung, ist Werbung! ;)

https://www.eizo.de/referenzen/coloredg ... nce-media/




VG
Du denkst, du kannst einfach deinen Eizo an die Grafikkarte hängen und dann wird dir das Video im Farbraum deiner Wahl angezeigt? Das glaube ich eher nicht. Die GUI soll nach Aussage von cantsin sRGB liefern. Und das macht auch Sinn.
Wenn man für eine bestimmte Videonorm arbeitet, sollte man die sich auch exakt anzeigen lassen können. Dazu gehört eine Zuspielung zum Monitor in dieser Norm.



Antwort von pillepalle:

Jetzt geht es aber wieder um Glauben... der sRGB Farbraum kommt doch nicht von der Grafikkarte, den erzeugt Dein Monitor (oder eben auch nicht). Das hat aber nichts mit den jeweiligen Arbeitsfarbräumen, oder späteren Betrachtungsfarbräumen zu tun. Die werden mithilfe von Profilen übersetzt, damit die Farbwerte in den jeweiligen Farbräumen richtig dargestellt werden.

VG



Antwort von carstenkurz:

Die GUI wird in jedem Fall sRGB liefern. Mir ist jedenfalls bisher nicht bekannt, wie man den Ausgang einer üblichen Grafikkarte auf RGB-P3 zwingen kann. Möglicherweise könnte bei modernen Betriebssystemen eine Kombination von P3-EDID set und P3 Profil das Betriebssystem dazu zwingen.

Und um das zu umgehen, braucht man meiner Meinung nach (und explizit in DIESEM FALL) eine Video-Out Karte, deren Farbraum von der Grading Software und ihrem Treiber auf einen bestimmten Farbraum gezwungen werden kann.

Im professionellen Bereich nutzt man tendenziell eher HD-SDI dafür, aber vom Grundsatz her kann das auch HDMIHDMI im Glossar erklärt leisten. Im Normalfall für eine Kinoanwendung würde man full range 10 BitBit im Glossar erklärt über HDMIHDMI im Glossar erklärt in P3 rausschicken, und der Monitor interpretiert das in seinem DCI Preset ebenso.

Das muss man aber eben sicher stellen. Vermuten reicht dafür nicht. Sonst bleibt man lieber bei rec.709/BT.1886.

Wie gesagt, meiner Meinung nach kann man das nur durch solide Planung, Verständnis und Experimentieren und Abgleich mit bekannt solide kalibrierten Kinoprojektoren oder solchen in professionellen Kino-Gradingsuiten sicherstellen. Final könnte das so laufen, dass man z.B. auf einem solchen Projektor ein Farbtarget aus Resolve über den Monitor ausspielt, auf der Leinwand ausmisst, dann aus diesem Target ein DCP über den Umweg P3->XYZ rechnet, der Kinoserver macht daraus wieder XYZ->P3, und dabei misst man die gleichen Messwerte auf der Leinwand.


Es nützt nichts. Wer von Standards abweicht, muss in der Lage sein, seinen Workflow WIRKLICH verifizieren zu können.

Im Kino verlassen wir uns auch nicht drauf, dass das schon irgendwie passt. Wir aktivieren für die verschiedenen Quellen explizite Farbtransformationsmodule, spielen normierte Targets in den für diese Quellen vorgesehenen Farbräumen zu, und messen mit Spektrometer auf der Bildwand unter Standardbedingungen (SMPTE Peakwhite Leuchtdichte, Saallicht mit Notbeleuchtung) die Farborte der Targets aus. Jeder Projektor hat einen Farbrechner, über den die Transformation dann so modifiziert wird dass die Targetwerte möglichst exakt getroffen werden.

- Carsten



Antwort von pillepalle:

Ihr habt das immer noch nicht verstanden. Die Grafikkarte gibt keine Farbräume aus. Die erzeugt der Monitor mithilfe von verschiedenen Profilen. Eine moderne Graikkarte kann 10bit Farbtiefe ausgeben und ein moderner Monitor kann die auch darstellen, genauso wie er mehr als nur den sRGB Farbraum darstellen kann. Dafür muss man an nichts glauben. Von welcher GUI (Graphic User Interface) redet ihr überhaupt? Von der von Resolve?

Das professionelle Monitore mit SDISDI im Glossar erklärt bzw HDMIHDMI im Glossar erklärt arbeiten hat etwas mit unterschiedlichen Signalen zu tun, die die Karte in dem Fall liefert, weniger das man damit irgendwelche anderen Farbräume darstellen kann. Das hat einfach im Produktionsworkflow gewisse Vorteile (lange Kabelwege bei SDISDI im Glossar erklärt z.B. und sicher auch anderes). Aber man braucht kein SDISDI im Glossar erklärt um ein Bild in einer gewissen Norm zu betrachten.

VG



Antwort von cantsin:

pillepalle hat geschrieben:
Ihr habt das immer noch nicht verstanden. Die Grafikkarte gibt keine Farbräume aus.
??? Das Farbsignal der Grafikkarte muss doch innerhalb eines Farbraums wie sRGB, Rec709, P3 oder Rec2020 spezifiziert sein.
Die erzeugt der Monitor mithilfe von verschiedenen Profilen.
LOL.
Eine moderne Graikkarte kann 10bit Farbtiefe ausgeben
Welche denn? Bisher sind die Standard-Treiber in dieser Hinsicht für Consumer- und Prosumerkarten kastriert.
Von welcher GUI (Graphic User Interface) redet ihr überhaupt? Von der von Resolve?
Ausser den neuen Macbooks, deren Displays und GUIs im P3-Farbraum laufen, sind wir bei Betriebssystemen und GUIs noch auf 8bit-sRGB beschränkt.



Antwort von carstenkurz:

pillepalle hat geschrieben:
Von welcher GUI (Graphic User Interface) redet ihr überhaupt? Von der von Resolve?
Vom Betriebssystem. Alles was Resolve an GUI Elementen und darin eingebetteten Vorschaufenstern (auch Fullscreen) darstellt, läuft über das Farbmanagement des Betriebssystems. Ich kenne bei den mir bekannten Grafikkarten nur die Möglichkeit, dort sRGB oder YCbCr auszugeben. Ersteres für die RGBRGB im Glossar erklärt Interpretation im Monitor (typisch über DVI oder DP), zweiteres für HDMIHDMI im Glossar erklärt Endgeräte. Am SDISDI im Glossar erklärt oder HDMIHDMI im Glossar erklärt Ausgang einer BMD Video-Out Karte dagegen hat das Betriebssystem keinerlei Angriffspunkte, es kennt ihn garnicht. Dort kann Resolve beliebig transformierte Signale ausgeben, die von keiner GUI/OS Funktion angepackt werden.



Antwort von pillepalle:

@ catsin

Und Du gradest Deine Filme mit dem Windows Betriebssystem ;) Hör doch mal auf so einen Quatsch zu reden. Die Grafikkarte ist nicht innerhalb eines Farbraums spezifiziert. Wo hast Du diesen Unsinn her? Es gibt unterschiedliche Signalarten für Grafikkarten die spezifiziert sind. Das ist alles. Wie die Signale interpretiert werden übernehmen Profile für die jeweiligen Ausgabegeräte.

VG








Antwort von cantsin:

pillepalle hat geschrieben:
Und Du gradest Deine Filme mit dem Windows Betriebssystem ;) Hör doch mal auf so einen Quatsch zu reden. Die Grafikkarte ist nicht innerhalb eines Farbraums spezifiziert. Wo hast Du diesen Unsinn her? Es gibt unterschiedliche Signalarten für Grafikkarten die spezifiziert sind. Das ist alles. Wie die Signale interpretiert werden übernehmen Profile für die jeweiligen Ausgabegeräte.
Quatsch schreibst Du, und zwar totalen. Du hast offenbar so wenig Ahnung von der Materie, dass es mühsam ist, hier umfassend drauf zu antworten.

Das Betriebssystem steuert die Grafikkarte per Treiber, und die erzeugt gibt über HDMIHDMI im Glossar erklärt, Displayport etc. ein Farbsignal aus, das i.d.R. auf 0-255 Werte (also 8bit) sRGB begrenzt ist.

Weil Programme wie Resolve innerhalb des Betriebssystems operieren, kann ihre GUI-Ausgabe (also die in die Resolve-GUI integrierten Viewer) ebenfalls nur 8bit-sRGB ausgeben. Die Ausnahme waren hier bisher Quattro- und sonstige für CAD-Anwendungen gedachte Profi-Karten, deren Treiber 10bit-Monitorausgabe erlauben.

Genau aus diesem Grund verwendet man externe Monitoring-Karten wie z.B. Resolves Decklink. In Resolve selbst lässt sich dann einstellen, welches Signal in welchem Farbraum und mit welchem GammaGamma im Glossar erklärt dann über die Decklink-Karte ausgegeben wird. Mit Nvidia- oder AMD-Grafikkartentreibern geht das nicht.



Antwort von pillepalle:

Das stimmt einfach nicht was Du schreibst. Es ist richtig dass das Windows Betriebsystem nur 8bit Farbtiefe verarbeiten/darstellen kann, die GUIs der Grafikprogramme aber mehr. Und wozu sollte man verschiedene Arbeitsfarbräume einstellen können, wenn ohnehin nur einer wiedergegeben werden kann?

Der Treiber steuert die Grafikkarte, aber das Signal das aus der Grafikkarte kommt ist da noch mit keinerlei Farbraum verbunden, oder spezifiziert. Und ja, die Quadro Karten geben 10 bit aus und seit einiger Zeit, kann man auch die GeForce Karten dazu bringen 10 bit auszugeben. Und wenn der Monitor dann auch noch 10bit darstellen kann, dann sieht man ein Bild mit 10bit Farbtiefe. Etwas was nach Deiner Aussage ja quasi unmöglich sein müsste. Also irren sich alle Monitor- und Grafikkartenhersteller, weil sie übersehen haben dass es in Windows gar nicht möglich ist, Und der Eizo Monitor kann deshalb natürlich auch keinen andern Farbraum als sRGB darstellen ;)

VG



Antwort von Darth Schneider:

Also ich habe das damals für zwei Kino Spots, für die Kantonspolizei über eine Firma in Zürich machen lassen. Denen schickt man das Material und kann dann eine Woche später das ganze im Firmen eigenen Kino bequem anschauen, dann gibt es noch letzte Korrekturen und gut ist’s.
Ich würde mir den Murks niemals antun, weil ich eh nicht genau weiss wie das funktioniert. Das bringt doch nur Ärger sonst.
Man kann auch am falschen Ort sparen....;)
Es scheint mir ja wirklich alles andere als einfach zu sein. Und ob man den Fehler gemacht hat sieht der Kunde, mit den Zuschauern dann im Kino ?
Gruss Boris



Antwort von roki100:

pillepalle hat geschrieben:
Ihr habt das immer noch nicht verstanden. Die Grafikkarte gibt keine Farbräume aus. Die erzeugt der Monitor mithilfe von verschiedenen Profilen. Eine moderne Graikkarte kann 10bit Farbtiefe ausgeben und ein moderner Monitor kann die auch darstellen, genauso wie er mehr als nur den sRGB Farbraum darstellen kann. Dafür muss man an nichts glauben.
So sit es. Siehe z.B. iMac und AMD Radeon R9 -> https://www.heise.de/mac-and-i/meldung/ ... 54496.html

Bei mir, Hackintosh (wird als iMac erkannt) mit RX580, steht auch folgendes:
Framepuffertiefe: 30-Bit Farbe (ARGB2101010)

"Im Falle von 10-Bit-Unterstützung finden Sie In den Systeminfos unter Grafik/Monitore unter Pixeltiefe den Eintrag: "30-Bit-Farbe (ARGB2101010)."



Antwort von cantsin:

pillepalle hat geschrieben:
Das stimmt einfach nicht was Du schreibst. Es ist richtig dass das Windows Betriebsystem nur 8bit Farbtiefe verarbeiten/darstellen kann, die GUIs der Grafikprogramme aber mehr. Und wozu sollte man verschiedene Arbeitsfarbräume einstellen können, wenn ohnehin nur einer wiedergegeben werden kann?
Du verwechselt hier die Emulation des Farbraums innerhalb einer sRGB-Monitoranzeige mit dem Farbraum selbst. Die GUIs der Programme können NICHT mehr ausgeben als das Betriebssystem, zumindest nicht unter Windows und Linux.

(Das wäre ja auch geradezu magisch, wenn man auf diese Weise zu P3-, Rec2020- etc. Farbanzeige auf dem schnöden Computermonitor käme.)



Antwort von roki100:

Unter Linux, musst Du mal ausprobieren:
https://linuxreviews.org/HOWTO_enable_1 ... r_on_Linux
"The combinations of modern monitors and AMD graphics cards support 10-bit color on Linux."



Antwort von cantsin:

roki100 hat geschrieben:
Unter Linux, musst Du mal ausprobieren:
https://linuxreviews.org/HOWTO_enable_1 ... r_on_Linux
"The combinations of modern monitors and AMD graphics cards support 10-bit color on Linux."
Ja, geht aber nicht mit dem Nvidia-Treiber und begrenzt den Farbraum immer noch auf sRGB.



Antwort von roki100:

https://www.golem.de/news/nvidia-10-bit ... 42933.html
"Nvidia hat den Studio Driver 431.70 veröffentlicht und schaltet damit erstmals 10 BitBit im Glossar erklärt pro Farbkanal unter OpenGL auch für Geforce- sowie Titan-Grafikkarten frei. Bisher war das Quadro-Modellen für Software wie Adobe Photoshop, Premiere Pro und Foundry Nuke vorbehalten."
...
Die 30 BitBit im Glossar erklärt für alle drei Kanäle zusammen - RGBRGB im Glossar erklärt eben - werden per Studio Driver 431.70 auf Grafikkarten mit Pascal-, mit Volta- und mit Turing-Architektur unterstützt. Das umfasst somit die Geforce GTX 1000, die Geforce GTX 1600, die Geforce RTX 2000 und die Titan X(P), die Titan V sowie die Titan RTX. In Adobes Photoshop muss die 30-Bit-Option in den Einstellungen angehakt werden, dann gibt es feinere Farbverläufe.


Die Informationen im Netz, sind aber etwas widersprüchlich. Wenn der Bildschirm 10Bit unterstützt, wird es auch 10Bit von der Grafikkarte ausgegeben. Sowohl die neueren NVIDIA als auch AMD können das.



Antwort von pillepalle:

@ catsin

Aber wie Du rokis Link entnehmen kannst, können Windows Systeme seit Windows 7 offensichtlich auch schon 10 bit darstellen. Die Farbräume werden auch nicht innerhalb eines sRGB Farbraums emuliert, wie Du es nennst, weil der sRGB Farbraum ohnehin nur 8 bit zulässt. Wie sollte man damit 10bit darstellen können? Die Vorstellung, das die Signale die aus der Grafikkarte kommen mit einem gewissen Farbraum verbunden, oder innerhalb dessen spezifiziert seien, ist einfach falsch. Das ist so sicher wie das Amen in der Kirche. Und deshalb macht Deine ganze sRGB Diskussion auch wenig Sinn. Professionelle Systeme können auch unter Windows viele verschiedene Farbräume darstellen, mit ganz normaler Hardware (10bit fähigem Monitor) und ohne spezielle Videokarten, SDISDI im Glossar erklärt oder zusätzlichen professionellen Dienstleister. Aber ich fürchte wir beide werden uns da jetzt nicht mehr einig werden ;)

VG



Antwort von roki100:

pillepalle hat geschrieben:
Aber wie Du rokis Link entnehmen kannst, können Windows Systeme seit Windows 7 offensichtlich auch schon 10 bit darstellen. Die Farbräume werden auch nicht innerhalb eines sRGB Farbraums emuliert, wie Du es nennst, weil der sRGB Farbraum ohnehin nur 8 bit zulässt.
Der Bildschirm muss auch ein 10Bit Bildschirm sein, ansonsten bleibt es eben bei 10Bit Ausgabe und der Bildschirm zeigt nur sRGB 8Bit.



Antwort von pillepalle:

@ roki

Klar, ein 8bit Monitor wird kaum 10bit ausgeben können :)

VG



Antwort von cantsin:

pillepalle hat geschrieben:
@ catsin

Aber wie Du rokis Link entnehmen kannst, können Windows Systeme seit Windows 7 offensichtlich auch schon 10 bit darstellen. Die Farbräume werden auch nicht innerhalb eines sRGB Farbraums emuliert, wie Du es nennst, weil der sRGB Farbraum ohnehin nur 8 bit zulässt.
Sorry, aber hier geht die Terminologie durcheinander. Offenbar weisst Du nicht, was ein Farbraum ist. Der hat nichts mit der QuantisierungQuantisierung im Glossar erklärt bzw. Bittiefe eines Signals zu tun.

Zeig mir doch einfach mal, wie man mit Resolve (oder Premiere, Photoshop oder welchem Programm auch immer) in der GUI-Anzeige und auf dem Computermonitor Rec2020 darstellen kann...



Antwort von mash_gh4:

cantsin hat geschrieben:
roki100 hat geschrieben:
Unter Linux, musst Du mal ausprobieren:
https://linuxreviews.org/HOWTO_enable_1 ... r_on_Linux
"The combinations of modern monitors and AMD graphics cards support 10-bit color on Linux."
Ja, geht aber nicht mit dem Nvidia-Treiber und begrenzt den Farbraum immer noch auf sRGB.
nvidia und intel iGPU können das unter linux schon recht lange... meist übrigens nur über die display-port anschlüsse.

in der praxis gibt's damit allerdings trotzdem große probleme -- bspw. eben diese bekannte inkompatibilität mit chrom bzw. electron-basierenden anwendungen...

es gibt auch keinen grund, warum eine derartige ausgabe unbedingt auf sRGB eingeengt sein soll. das ist wirklich nur die gebräuchlichste konvention, die man gerne als gegeben erwartet.



Antwort von roki100:

ich schreibe doch, alles basiert auf widersprüchliche Informationen die man auch im Netz liest und das wird nun hier, am helllichtem Samstag, auch durcheinander gebracht.



Antwort von mash_gh4:

pillepalle hat geschrieben:
Klar, ein 8bit Monitor wird kaum 10bit ausgeben können :)
naja -- die nvidia-opengl-treiber können tatsächlich daten-buffer bzw. ausgangsdaten mit mehr als 8 bit farbtiefe mit hilfe von dithering auch vernünftig auf derart eingengeten ausgabedevices ausgeben bzw. darstellen. zumindest visuell ist das von einer tatsächlichen 10bit-ausgabe kaum zu unterscheiden. es ist ja auch genau der selbe kunstgriff, den auch die meisten monitore verwenden, um höhere farbtiefen wiederzugeben.



Antwort von dienstag_01:

Was pillepalle schreibt, ist von der Fehlannahme geprägt, dass Videosoftware farbmanagmentfähig (im Sinne von Photoshop etc.) wäre. Sind sie aber alle nicht. Das funktioniert ausschließlich über Monitoring Cards.
Vielleicht mal im Handbuch von Resolve nachlesen. Ich bin sicher, da steht was dazu.



Antwort von mash_gh4:

cantsin hat geschrieben:
Zeig mir doch einfach mal, wie man mit Resolve (oder Premiere, Photoshop oder welchem Programm auch immer) in der GUI-Anzeige und auf dem Computermonitor Rec2020 darstellen kann...
jedes programme, das tatsächlich vernünftiges color management unterstützt, sollte dazu in der lage sein, wenn das profil des monitors eine vernünftige tatsächliche wiedergabe zulässt.



Antwort von roki100:

In Davinci steht folgendes bei Video Monitoring:

Bildschirmfoto 2021-01-23 um 15.42.51.png



Antwort von mash_gh4:

dienstag_01 hat geschrieben:
Was pillepalle schreibt, ist von der Fehlannahme geprägt, dass Videosoftware farbmanagmentfähig (im Sinne von Photoshop etc.) wäre. Sind sie aber alle nicht. Das funktioniert ausschließlich über Monitoring Cards.
gerade die ausgabe über monitoring karten ist in dieser hinsicht noch primitiver/beschränkter und geht einfach davon aus, dass am anderen ende ein schirm hängt, der für die ausgelieferten daten eine korrekte wiedergabe beherrscht.

videoprogramme, die wenigstens OpenColorIO nutzen, um eine umwandlung zwischen den gebräuchlichsten farbräumen zu realisieren, kommen der sache schon ein bisserl näher...
dienstag_01 hat geschrieben:
Vielleicht mal im Handbuch von Resolve nachlesen. Ich bin sicher, da steht was dazu.
resolve ist in dieser hinsicht leider wirklich alles andere als vorbildlich.



Antwort von Darth Schneider:

@roki
Blöde Frage
Das steht bei mir auch, ich habe aber ja nur ein iMac...woher weiss die Software was am Kabelstecker dann auch raus zum externen Monitor geht ?
Gruss Boris



Antwort von pillepalle:

cantsin hat geschrieben:
Zeig mir doch einfach mal, wie man mit Resolve (oder Premiere, Photoshop oder welchem Programm auch immer) in der GUI-Anzeige und auf dem Computermonitor Rec2020 darstellen kann...
Ich glaube eher, Du weisst nicht was ein Farbraum ist :)

https://de.wikipedia.org/wiki/Farbraum# ... arbkörper.

In Photoshop kannst Du die jeweiligen Arbeitsfarbräume z.B. unter Bearbeiten -> Farbeinstellungen einstellen. Du wirst feststellen, dass sich beim Wechsel der jeweiligen Arbeitsfarbräume auch die Darstellung am Bildschrim verändert ;) Genauso beinhalten Bilder die einem Farbmanagement unterzogen wurden bestimmte Farbprofile (ICC Profile), die bei der Interpretation der Farben in den Arbeitsfarbraum dienen. Müssen sie aber nicht, dann sind die Bilder nicht Color Managed.

Das was ich versuche Dir zu erklären ist, dass Farbräume nicht von der Grafikkarte kommen, sondern in Profilen hinterlegt sind (Hardware oder Softwareprofilen) die auf Deinem Computer, oder in der jeweiligen Hardware gespeichert sind. Und davon ist abhängig wie etwas vom jeweiligen Ausgabegerät dargestellt wird (sei es Monitor, oder Drucker).

VG

Hier ist das vielleicht noch etwas verständlicher erklärt:

https://www.eizo.de/praxiswissen/monito ... fQQAvD_BwE



Antwort von cantsin:

pillepalle hat geschrieben:
cantsin hat geschrieben:
Zeig mir doch einfach mal, wie man mit Resolve (oder Premiere, Photoshop oder welchem Programm auch immer) in der GUI-Anzeige und auf dem Computermonitor Rec2020 darstellen kann...
Ich glaube eher, Du weisst nicht was ein Farbraum ist :)

https://de.wikipedia.org/wiki/Farbraum# ... arbkörper.

In Photoshop kannst Du die jeweiligen Arbeitsfarbräume z.B. unter Bearbeiten -> Farbeinstellungen einstellen. Du wirst feststellen, dass sich beim Wechsel der jeweiligen Arbeitsfarbräume auch die Darstellung am Bildschrim verändert ;)
...weil da ein Profil bzw. ein Mapping angewendet wird, um die Farben des größeren Farbraums (wie z.B. P3) innerhalb des kleineren sRGB-Farbraums von Betriebssystem und Monitor abzubilden, ohne dass es zu Abrissen kommt. Windows selbst kann nicht mehr als sRGB ausgeben, und hat seit Windows 10 noch eine HDR-Ausgabe-Option, die aber in der Praxis so gut wie nicht funktioniert bzw. nicht gut mit Programmen zusammenspielt. Praktisch alle Windows- und Linux-Rechner sind auf sRGB-Ausgabe konfiguriert. Auch von den Resolve-Entwicklern gibt es (die mir ggü. persönlich gemachte Aussage), dass "Color Managed"-Farbausgabe in der Resolve-GUI-Anzeige nur bei sRGB-Ausgabefarbraum funktioniert.



Antwort von pillepalle:

@ catsin

Jetzt fängst Du schon wieder damit an... ich habe wirklich alles versucht es Dir zu erklären. Klappt irgendwie nicht. Lass uns das Thema begraben und glaube von mir aus, das alles in sRGB dargestellt wird.

VG



Antwort von mash_gh4:

pillepalle hat geschrieben:
In Photoshop kannst Du die jeweiligen Arbeitsfarbräume z.B. unter Bearbeiten -> Farbeinstellungen einstellen. Du wirst feststellen, dass sich beim Wechsel der jeweiligen Arbeitsfarbräume auch die Darstellung am Bildschrim verändert ;)
im video-umfeld verhält es sich damit natürlich genau gleich.

darum finde ich auch programme, wie bspw. nuke od. natron, wo man das sehr einfach umstellen kann, um selbst auf normalen sRGB computer-monitoren eine richtige wiedergabe der helligkeitswerte und farben zu erhalten, deutlich befriedigender als das sture festhalten an video-ausgabekarten und zusätzlichen monitoren...



Antwort von mash_gh4:

cantsin hat geschrieben:
Praktisch alle Windows- und Linux-Rechner sind auf sRGB-Ausgabe konfiguriert.
ja -- das macht auch durchaus sinn, schließlich will man ja auch in ganz alltäglichen anwendungen, also bspw. den bildern im web-browser, auch einigermassen korrekte farben od. zumindest etwas ähnliches wie alle anderen sehen.
cantsin hat geschrieben:
Auch von den Resolve-Entwicklern gibt es (die mir ggü. persönlich gemachte Aussage), dass "Color Managed"-Farbausgabe in der Resolve-GUI-Anzeige nur bei sRGB-Ausgabefarbraum funktioniert.
ich hab so meine zweifel, ob resolve wenigstens diesem anspruch tatsächlich auf allen betriebsystemen gerecht wird?

in der praxis würde es aber bereits völlig ausreichen, um wenigstes die gamma-unterschiede zw. gebräuchlichem rec709 und sRGB zu kompensieren, und damit die ergebnisse deutlich befriedigender ausfallen zu lassen als das bisher der fall war, wenn man das programm vorwiegend od. ausschließlich am computerbildschirm nutzt.



Antwort von cantsin:

Was man natürlich machen kann, und was pillepalle wohl meint, ist z.B. den Computermonitor auf P3 kalibrieren (bzw. dessen P3-Preset nutzen) und dann in allen Programmen, die das unterstützen, P3-Farbprofile bzw. P3-Ausgabe einstellen.

Das Problem ist, dass das nur mit einer Reihe von Programmen klappt (nämlich denen, die vollständiges Color Management unterstützen), mit anderen aber nicht. Z.B. stimmen dann alle Farben von Fotos und Videos, die mit Betriebssystem-Bordmitteln angezeigt werden nicht mehr, und die von Webbrowsern überhaupt nicht mehr (und man wundert sich dann, warum Fotos und Videos online andere Farben haben als im Bearbeitungsprogramm).

Bei Resolve ist es definitiv so, nach Aussage der Entwickler - und zwar als Begrenzung des Programms -, dass eine farbtreue Darstellung innerhalb der Programm-/GUI-Anzeige (statt extern via Decklink+Videomonitor) unter Windows und Linux nur in sRGB funktioniert. In dem Moment, wo man das Ausgabeprofile auf P3 umstellt, wird die Computermonitorausgabe unzuverlässig. (Wie das mit Premiere und anderen Programmen ist, weiss ich nicht.) Natürlich will Blackmagic hier auch seine Decklink-Karten verkaufen.

EDIT: mash_gh4 war schneller und schreibt inhaltlich das gleiche.

EDIT 2: Zu Linux und Color Management gibt's noch diesen aktuellen, ziemlich deprimierenden Artikel, weil mit der Umstellung von X11 auf Wayland jetzt alles Color Management über Bord gegangen ist und nicht mehr kompetent entwickelt wird: https://lwn.net/Articles/843482/
Hinzu kommt, dass die Tools, mit denen solch eine professionellere Kalibrierung möglich ist - Argyll und displaycal - momentan von ihren Entwicklern verwaist sind, und displaycal wegen seiner Python 2-Depedency gerade aus allen großen Linux-Distributionen fliegt.



Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Blöde Frage
Das steht bei mir auch, ich habe aber ja nur ein iMac...woher weiss die Software was am Kabelstecker dann auch raus zum externen Monitor geht ?
Gruss Boris
welcher iMac? Schau unter Systemübersicht nach. Wenn 10Bit unterstützt wird, steht unter Grafik/Monitore: "30-Bit-Farbe (ARGB2101010)"
Wenn der Bildschirm nur 8Bit kann, dann wird zwar 10Bit ausgegeben, Du siehst aber nur 8Bit.



Antwort von pillepalle:

@ castin

Ja, so meine ich das. Aber das Resolve jetzt nur sRGB darstellen können soll wäre mir neu. Dann wäre die Grading-Software schlechthin ja unbrauchbar für's Grading *haha* Kommt mir schon etwas merkwürdig vor...

VG



Antwort von cantsin:

pillepalle hat geschrieben:
Ja, so meine ich das. Aber das Resolve jetzt nur sRGB darstellen können soll wäre mir neu. Dann wäre die Grading-Software schlechthin ja unbrauchbar für's Grading *haha* Kommt mir schon etwas merkwürdig vor...
Es war sogar so, dass bis einschließlich Version 14 die Videovorschau innerhalb von Resolve (bzw. die GUI-Anzeige) überhaupt nicht Color Managed war und zwingend davon ausgegangen wurde, dass man für Color Grading eine Decklink- (oder vergleichbare) Karte und einen externen Referenzmonitor verwendete. Das ist ja im professionellen Color Grading nach wie vor Standard. Erst seit Resolve 15 hält sich das Programm ans Betriebssystem-Farbprofil, aber wie gesagt nur innerhalb von sRGB (bzw. wenn sRGB in den Projekteinstellungen als Displayausgabe-Farbraum eingestellt ist).

Dazu gab's hier im Forum auch viele einschlägige Diskussionen...



Antwort von pillepalle:

Du meinst also die ganzen Color-Space Eingaben in den Settings wären unbrauchbar, solange man keine Deklink-Karte benutzt? Das hätten sie aber gut unter den Teppich gekehrt, wenn dem wirklich so wäre. Ich muss mich mal in einer ruhigen Minute mit dem Thema bei Resolve beschäftigen.

VG



Antwort von mash_gh4:

cantsin hat geschrieben:
EDIT 2: Zu Linux und Color Management gibt's noch diesen aktuellen, ziemlich deprimierenden Artikel, weil mit der Umstellung von X11 auf Wayland jetzt alles Color Management über Bord gegangen ist und nicht mehr kompetent entwickelt wird: https://lwn.net/Articles/843482/
Hinzu kommt, dass die Tools, mit denen solch eine professionellere Kalibrierung möglich ist - Argyll und displaycal - momentan von ihren Entwicklern verwaist sind, und displaycal wegen seiner Python 2-Depedency gerade aus allen großen Linux-Distributionen fliegt.
ja -- ich erlebe das leider auch als ziemlich unbefriedigend und deprimierend. :(

in wahrheit verlangt offenbar kaum jemand da draußen in der uns umgebenden wirklichkeit nach diesen features, von denen man hier im forum so tut, als ob man ohne sie nicht leben könnte.

auch ein großer teil des 10bit X11 supports wurde ja mehr od. weniger von einer einzelperson umgesetzt, die das seltsamerweise auch gar nicht aus einem hintergrund in grafischen od. gestalterischen interessen gemacht hat, sondern vielmehr mit wahrnehmungspsychologischen experimenten bzw. entsprechenden forschungs- und messinstrumentarium zu tun hatte.

wenn es wenigstens irgendwelche herausragenden anwendungen geben würde, die mehr benutzer anlocken und einen entsprechenden bedarf erkennen lassen würden, wäre das problem vermutlich ohnehin schnell vom tisch. aber davon sind wir bekanntlich noch immer weit entfernt.

ich finde es im übrigen immer ganz besonders traurig, wenn nicht wenigstens bei neueren entwicklungen auf diese möglichkeiten und zukünftigen ansprüche gleich von vornherein rücksicht genommen wird.

also z.b:
https://www.reddit.com/r/rust/comments/ ... t_library/



Antwort von cantsin:

Ich sehe als langfristige bzw. gute Lösung nur, dass das Betriebssystem/GUI auf Treiber- bzw. Systemebene ohne Wenn und Aber erweiterte Farbräume unterstützt und alle dafür programmierten Anwendungen mitziehen - wie aktuell wohl unter MacOS X (wenn ich das richtig verstehe bzw. nicht überoptimistisch interpretiere), auch mit den P3-Displays der M1-Macbooks. Den Display-Ausgabe-Farbraum sollte man eigentlich nur einmal als Einstellungsparameter in den Display-Settings bzw. der Grafikkarten-Konfigurationen des Betriebssystems einstellen müssen.

Und dazu äquivalent die Hardwarekalibrierbarkeit von Monitoren in verschiedenen Farbräumen (so, wie das z.Zt. Eizo anbietet), so dass man sich nicht mehr mit Software-Kalibrierungen rumschlagen muss, die zu allen möglichen Inkompatibilitäten in den Anwendungsprogrammen führen.



Antwort von cantsin:

pillepalle hat geschrieben:
Du meinst also die ganzen Color-Space Eingaben in den Settings wären unbrauchbar, solange man keine Deklink-Karte benutzt? Das hätten sie aber gut unter den Teppich gekehrt, wenn dem wirklich so wäre. Ich muss mich mal in einer ruhigen Minute mit dem Thema bei Resolve beschäftigen.
Siehe den Parallelthread: viewtopic.php?f=2&t=151679&p=1080718#p1080718



Antwort von dienstag_01:

DaVinci Resolve has been designed for use with calibrated external displays connected to
video output interfaces, and for most colorists working on broadcast or theatrical programs, this
is the recommended way to work for color critical evaluation.
Und mal die Seite 2582 im Handbuch DR16 lesen.



Antwort von mash_gh4:

cantsin hat geschrieben:
Ich sehe als langfristige bzw. gute Lösung nur, dass das Betriebssystem/GUI auf Treiber- bzw. Systemebene ohne Wenn und Aber erweiterte Farbräume unterstützt und alle dafür programmierten Anwendungen mitziehen - wie aktuell wohl unter MacOS X (wenn ich das richtig verstehe bzw. nicht überoptimistisch interpretiere), auch mit den P3-Displays der M1-Macbooks. Den Display-Ausgabe-Farbraum sollte man eigentlich nur einmal als Einstellungsparameter in den Display-Settings bzw. der Grafikkarten-Konfigurationen des Betriebssystems einstellen müssen.
naja -- wenn ich das recht mitverfolge, dann schaffen es die allerbesten grafik-entwicklerInnen augenblickch gerade einmal, ein einfärbiges dreieck mit freien mitteln auf M1 hardware auszugeben: ;)




(https://www.phoronix.com/scan.php?page= ... le-Attempt)

aber im ernst: natürlich ist apple in puncto systemweiter farbmanagement-unterstützung tatsächlich recht vorbildlich. technisch ist das aber vermutlich gar nicht so schwer einzuholen. es ist wohl weit eher eine frage des fehlenden bedarfs bzw. fehlendem problembewusstseins und der koordination verfügbarer kräfte.

ich würde es jedenfalls ähnlich beurteilen wie das noch immer ungelöste bemühen um bessere GUI toolkits -- und zwar auch deshalb, weil es in wahrheit oft wichtiger ist, werkzeuge und entwicklungsbausteine zur verfügung zu haben, die tatsächlich auf allen plattformen vernünftig funktionieren bzw. eine betriebssystemübergreifende entwicklung erlauben, statt alleine nur eine entsprechende lücke auf einer plattform schließen zu wollen. genau darin unterscheidet sich ja der etwas größere anspruch freier software von all jenen lösungen, die nur innerhalb eines propritären rahmens funktionieren.



Antwort von pillepalle:

Wenn ich aber die Einstellungen z.B. des TimelineTimeline im Glossar erklärt Color Spaces verändere (gerade ausprobiert), verändert sich auch das Bild entsprechend. d.h. z.B. bei GammaGamma im Glossar erklärt 2.2 wird es dunkeler als bei GammaGamma im Glossar erklärt 2.4 (weil der Monitor dann ja auch heller ist) und umgekehrt. Ich kann also am Monitor mit GammaGamma im Glossar erklärt 2.2 graden (wenn ich 2.2 im Timeline-Color Space eingestellt habe) und bekomme das gleiche Ergebnis angezeigt als wenn ich den TimelineTimeline im Glossar erklärt Colorspace auf GammaGamma im Glossar erklärt 2.4 einstelle und den Monitor auf GammaGamma im Glossar erklärt 2.4. Das ist doch genau was ich möchte :) Und - Spaß muss sein - das gleiche funktioniert auch in BT2020, oder P3-D65. Das zeigt doch, dass es anscheinend doch funktioniert. *kopfkratz*

VG



Antwort von carstenkurz:

"Darth Schneider" hat geschrieben:

Ich würde mir den Murks niemals antun, weil ich eh nicht genau weiss wie das funktioniert. Das bringt doch

Es ist total einfach, wenn man alles wie gewohnt auf der basis von rec.709 macht und am Ende schlicht eine DCP-Konvertierung durchführt, die eine normierte Konvertierung von rec.709 nach XYZ unter Berücksichtigung von Displaygamma 2.6 und DCI Weisspunkt durchführt. Das machen alle DCP-Masteringprogramme automatisch.

Man kann das auch simpler ausdrücken: Man installiert DCP-o-matic, lädt eine beliebige 'hundsnormale' Videodatei rein, DCP-o-matic erkennt an den Rahmenparametern typisch, dass rec.709 gemeint ist, man klickt auf 'DCP erzeugen', und fertig ist die Laube.
Da ist nix kompliziert dran. Kompliziert wird's wenn man unbedingt meint, zugunsten von ein paar Bits mehr den gewohnten rec.709 Pfad verlassen zu müssen. Man darf das, aber dann muss man eben auch alle Konsequenzen respektive Unsicherheiten daraus akzeptieren.



Antwort von dienstag_01:

pillepalle hat geschrieben:
Wenn ich aber die Einstellungen z.B. des TimelineTimeline im Glossar erklärt Color Spaces verändere (gerade ausprobiert), verändert sich auch das Bild entsprechend. d.h. z.B. bei GammaGamma im Glossar erklärt 2.2 wird es dunkeler als bei GammaGamma im Glossar erklärt 2.4 (weil der Monitor dann ja auch heller ist) und umgekehrt. Ich kann also am Monitor mit GammaGamma im Glossar erklärt 2.2 graden (wenn ich 2.2 im Timeline-Color Space eingestellt habe) und bekomme das gleiche Ergebnis angezeigt als wenn ich den TimelineTimeline im Glossar erklärt Colorspace auf GammaGamma im Glossar erklärt 2.4 einstelle und den Monitor auf GammaGamma im Glossar erklärt 2.4. Das ist doch genau was ich möchte :) Und - Spaß muss sein - das gleiche funktioniert auch in BT2020, oder P3-D65. Das zeigt doch, dass es anscheinend doch funktioniert. *kopfkratz*

VG
Die Frage ist ja nicht, ob es angezeigt wird oder nicht, sondern ob das Angezeigte stimmt.



Antwort von pillepalle:

Wenn sich das verändert, zeigt es doch das die jeweiligen Gammakurven und Farbprofile in der TimelineTimeline im Glossar erklärt auch anders dargestellt werden. Und wenn ich dann (zur Gegenkontrolle sozusagen) das GammaGamma im Glossar erklärt meines Monitors auch mit dem entsprechendem Farbprofil anpasse wird das Ergebnis auch richtig dargestellt. Was ich jetzt noch ausprobieren müsste ist, ob das gleiche beim Output-Color Space zutrifft. Dann wäre doch alles Bingo-Bongo.

VG



Antwort von carstenkurz:

pillepalle hat geschrieben:
Du meinst also die ganzen Color-Space Eingaben in den Settings wären unbrauchbar, solange man keine Deklink-Karte benutzt?
Nein. System-Grafikkarten und Decklink Karten benutzen üblicherweise beide rec.709 oder das garnicht weit davon entfernte sRGB. Daher kann man in Resolve auch ganz gut auf einem normalen Computermonitor über die Grafikkarte graden solange man insgesamt in rec.709 bleibt. Die Decklink-Option beseitigt nur bestimmte Unwägbarkeiten in den Konfigurationsmöglichkeiten der Grafikkarten (mittlerweile gibts aber fast nichts mehr, was man nicht auch bei üblichen AMD oder NVIDIA Karten konfigurieren kann).

Die Problematik in Bezug auf DCP wird hier höher gehängt als nötig. Der rec.709 Weg zum DCP ist vollkommen üblich, wenn auch nicht in der professionellen Kino-Feature-Produktion.
Aber man steigt doch nur beim Grading auf eine P3 Lösung um, wenn man auch einen besonderen Qualitätsanspruch hat, weil man mehr rausholen will. Dazu gehört zum einen, dass die Sourcefiles mehr als rec.709 liefern, und zum anderen, dass man 100% konsistent die Farbtransformation von der Source-Interpretation bis zur Leinwand kontrollieren kann und verstanden hat. Ein 'Ich schalte da mal was im Monitor auf P3 um, weil das sicher besser ist' reicht da einfach nicht.

Ein weiterer Nachteil ist im Übrigen, dass man ja selten nur fürs Kino produziert. Gradest Du in P3, oder grundsätzlich in einem deutlich größeren Farbraum als rec.709, kriegst Du ein Mapping-Problem, wenn Du ein normales rec.709 File für's Web, Bluray, brauchst, weil Du den P3 Farbraum wieder komprimieren musst.



Antwort von pillepalle:

Mir ist schon klar das ich normalerweise nicht für's Kino graden muss und ich muss auch keinen DCP machen :) Es ging hier ja auch nur darum, ob das Grading in z.B. P3 (da es zumindest ähnliche Verhältnisse sind wie bei der Kinoprojektion sind) nicht besser wäre, als ein Grading in REC709. Und auch der P3-Farbraum ist kein Hexenwerk und nicht komplizierter als jeder andere Farbraum. Das was sich im Kino natürlich ändert, ist der andere Bildeindruck durch das andere Wiedergabemedium (Projektion). Was man sicher berücksichtigen muss (also besser nochmal im Kino kontrollieren). Das ein REC709 Grading für die meisten einfacher ist, ist schon klar.

VG



Antwort von mash_gh4:

carstenkurz hat geschrieben:
System-Grafikkarten und Decklink Karten benutzen üblicherweise beide rec.709 oder das garnicht weit davon entfernte sRGB. Daher kann man in Resolve auch ganz gut auf einem normalen Computermonitor über die Grafikkarte graden solange man insgesamt in rec.709 bleibt.
da würde ich dir insofern recht geben, als rec709 und sRGB tatsächlich exakt die selben grundfarben nutzen, aber unterschiedliche gamma-kurven!

in der praxis wirkt sich das so aus, dass man die verwechslung der beiden sehr wohl als ausgesprochen störend (~zu hell od. zu dunkel) empfindet.

natürlich gibt's auch noch deutlich kompliziertere fälle von farbverfälschungen, die sich aus widersprüchlicher verwendung von farbräumen ergeben können, trotzdem ist gerade dieses vernachlässigen der unterschiede zw. rec709 und sRGB, obwohl es sich technisch unglaublich einfach vermeiden bzw. perfekt korrigieren lässt, in der praxis ganz besonders störend.

leider ist das kein völlig abstraktes problem, sondern eben wirklich extrem oft anzutreffen.
gerade im zusammenhang mit resolve wird man besonders oft damit konfrontiert, weil BMD bekanntlich kein besonders großes interesse daran hat, dass farben ohne zusätzliche hardware auch am computerbildschirm korrekt wiedergegeben werden.



Antwort von pillepalle:

Mich wundert ehrlich gesagt auch ein wenig wie stiefmütterlich das Thema behandelt wird. Und ehrlich gesagt sieht man auch ziemlich oft Grading-Murks, weil sich viele nicht so richtig damit beschäftigen möchten. Vielleicht bin ich da, weil ich von der Fotografie komme, auch etwas übersensibel, aber mich stört das extrem wenn ein Bild nicht so aussieht wie es aussehen soll. Da diskutieren die Leute ewig über Color Science in Kameras, 12bit und Highlight Rolloff, aber am Ende ist es dann alles egal und kommt nicht so genau :)

VG



Antwort von carstenkurz:

Ähm, die Problematik von Farbräumen, Farbmodellen und Kalibrierung ist auch nicht ganz einfach zu verstehen. Ich bin alt genug um mich erinnern zu können, dass es mit dem Aufkommen der allerersten Farbscanner und Drucker keinerlei Farbverbindlichkeit gab. Wenn man Glück hatte waren Mehrheitsmeinungen 'das könnte Rot sein' halbwegs belastbar. Da sind wir heute entschieden weiter. Aber eben nur weil sich sRGB und rec.709 als Standard durchgesetzt haben.

Wenn bei uns ein Filmemacher sagt, dass die Farben ganz gut sind, aber anders als im Schnitt, frage ich ihn, ob er seinen Monitor kalibriert hat. Und dann ist das Gespräch in der Regel beendet.
Digitale Fotografen sind diesbezüglich in der Regel deutlich bewanderter, in der Szene ist das Thema Kalibrierung viel verbreiteter.

- Carsten



Antwort von cantsin:

carstenkurz hat geschrieben:
Aber eben nur weil sich sRGB und rec.709 als Standard durchgesetzt haben.
Jepp. Aber schon traurig, dass man z.T. wieder in die Unwägbarkeiten der Digital-Frühzeiten zurückgeworfen wird, wenn man den sicheren sRGB/Rec709-Pfad verlässt und in größeren Farbräumen zu arbeiten versucht.



Antwort von carstenkurz:

Das geht jetzt zwar komplett am Thema vorbei, aber ich hatte da vor langer Zeit ein interessantes Problem bei einem meiner langjährigen Stammkunden, eine Werbe-/Webagentur mit einem auch deutlichen Standbein im Bereich Photographie und Print. Die maßgeblichen Kreativen wollten irgendwann hardwarekalibrierbare NEC WideGamut Displays bekommen, weil sie hochwertig Bildbearbeitung machen wollten. Die wurden dann auch regelmäßig kalibriert.

Interessantes Problem bei der Kalibrierung war zunächst, dass die Menüs dieser Monitore Konfigurationsparameter hatten, die in üblichen Kalibrierworkflows keine Berücksichtigung finden, und die auch ungeachtet der professionellen Natur der Displays in den Handbüchern schlicht nicht erläutert wurden. Man musste also erstmal nen Weg finden, mit diesen Einstellungsoptionen im Rahmen der Kalibrierung kompetent umzugehen. Ohne ein echtes Verständnis ALLER Monitorparameter war eine Kalibrierung garnicht entscheidungssicher möglich. Eine Vereinheitlichung baugleicher Displays bei dieser Agentur schon (dafür setzt man einfach alle Parameter identisch) - aber eine Vereinheitlichung ist noch keine Farbkalibrierung.

Das zweite Problem war, die hatten dann kalibrierte Wide-Gamut Displays, die Photos wirklich toll darstellten, haben an denen aber weiterhin auch Standard Web- und Multimediajobs beurteilt. Das ging natürlich in die Hose, weil diese Monitore bei dieser Anwendung Webfarben und Multimedia in grellen Neonbonbonfarben zeigten, die Masse der Zuarbeiter und Kunden benutzt ja nicht solche Monitore.



Antwort von dienstag_01:

Um nochmal auf das Problem der Farbräume zurück zu kommen: Resolve ist die einzig mir bekannte Videosoftware, die Kalibrierung aus sich selbst heraus zulässt.
Geht nur mit Decklinkkarten, aber es geht. Das es sowas gibt, ist doch sehr gut, damit gibts dann auch keinen Blindflug.



Antwort von Darth Schneider:

Ein Problem, zumindest für mich als ungeübter in diesem Bereich, würde bleiben, beim selber machen, so oder so.
Ich würde das Endprodukt sehen wollen, um noch reagieren zu können wenn etwas nicht stimmen sollte, in einem echten Kino, ohne den Kunden bevor ich ihm den Film abliefere und ihm die Rechnung schreibe...
Aber das ist nur meine vielleicht Hobby Filmer Meinung...
Gruss Boris



Antwort von mash_gh4:

dienstag_01 hat geschrieben:
Um nochmal auf das Problem der Farbräume zurück zu kommen: Resolve ist die einzig mir bekannte Videosoftware, die Kalibrierung aus sich selbst heraus zulässt.
Geht nur mit Decklinkkarten, aber es geht. Damit gibts dann auch keinen Blindflug.
nein -- genau das gegenteil ist der fall!

die decklink-karten sind im grunde nur ganz extrem primitive video-ausgabe-karten, die weit weniger können als jede durchschnittliche heutige normale grafikkarte. der einzige vorteil, der sich daraus ergibt, besteht darin, dass man auf diese weise leichter kontrolieren kann, was tatsächlich passiert bzw. über die leitung geschickt wird. das ist nämlich bei den immer komplizierteren GPUs, ihren proprietären treiber und der vielzahl an völlig verschiedenen produkten mittlerweile leider wirklich nur mehr sehr schwer zu steuern.

trotzdem klappt die ganze sache in dieser weise nur dann, wenn am anderen ende auch monitore, kino-projektionsapparat od.ä. hängen, die tatsächlich selbst für eine ausreichend korrekte farbwiedergabe gemäß dem vorgesehenen übergabestandards sorgen.

resolve ist zwar notdürftig in der lage auch mit hilfe von LUTs die ausgabe ggf. noch ein wenig zurechtzubiegen, aber richtig sauber ist diese funktionalität nichteinmal ins programmeigene farbmanagement integriert. von einer vernünftigen zusammenarbeit mit der systemweiten farbverwaltung reden wir lieber erst gar nicht.

natürlich kann diese relativ einfach gehaltene form der herangehensweise in manchen anwendungsszenarien durchaus sinn machen. dort wo wirklich nur hochwertiges equipment zum einsatz kommt und jedes device den jeweiligen job möglichst gut beherrscht und die aufgabenstellung immer recht ähnlich bleibt, reicht das ja vollkommen aus und vermeidet unnötige komplexität.

da aber mittlerweile der großteil der resolve-anwender nicht mehr unbedingt vor sündhaft teuren referenzmonitoren od. kinoprojektionen sitzt, sondern sich mit wesentlich gebräuchlicher computerhardware begnügen muss, sind eben auch die tatsächlichen anforderungen, um trotzdem ein maximum an qualität bzw. befriedigende resultate herauszuholen, natürlich auch etwas anders gelagert.

da kann dann eine decklink-karte denkbar kontraproduktiv sein, weil bspw. die farbkorrektur auf seiten des hw-kalibierten monitors u.u. doch schlechter funktioniert als es eine mittlemäßige grafikarte spielend im hintergrund erledigen könnte, etc.

das wirkliche problem bleibt aber die mangelnde integration ins umgebende gesamtsystem. es irritiert einfach, wenn die vorschau auf den computermonitoren nicht stimmt, selbst wenn man diesen schirm ja vorgeblich ja nur zur steuerung benutzen will, aber sein urteil alleine an einem anderen referenzbild auszurichten versucht. und dort, wo diese diskrepanz gar nicht erst zum tragen kommt, weil sich die benutzer auch in diesem programm alleine auf die völlig unzureichende vorschau am PC-schirm verlassen, brauchen wir vermutlich auch nicht viele worte zu verlieren.



Antwort von Darth Schneider:

Blöde Frage
Würde jetzt, bei Kino Content, ein geeigneter, kalibrierter Referenz Monitor oder gar ein solcher Beamer (wenn es das überhaupt gibt) einfach kurzzeitig zu mieten, ev. einen Sinn ergeben, für Colorgrading, die endgültige Bildbeurteilung und das Mastering ?
Gruss Boris



Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Würde jetzt, bei Kino Content, ein geeigneter, kalibrierter Referenz Monitor oder gar ein solcher Beamer (wenn es das überhaupt gibt) einfach kurzzeitig zu mieten, ev. einen Sinn ergeben, für Colorgrading, die endgültige Bildbeurteilung und das Mastering ?
Ja... (Aber dann per SDISDI im Glossar erklärt an eine Decklink angeschlossen.)

So arbeiten auch professionelle Coloristen:

zum Bild



zum Bild




Antwort von dienstag_01:

mash_gh4 hat geschrieben:
dienstag_01 hat geschrieben:
Um nochmal auf das Problem der Farbräume zurück zu kommen: Resolve ist die einzig mir bekannte Videosoftware, die Kalibrierung aus sich selbst heraus zulässt.
Geht nur mit Decklinkkarten, aber es geht. Damit gibts dann auch keinen Blindflug.
nein -- genau das gegenteil ist der fall!

die decklink-karten sind im grunde nur ganz extrem primitive video-ausgabe-karten, die weit weniger können als jede durchschnittliche heutige normale grafikkarte. der einzige vorteil, der sich daraus ergibt, besteht darin, dass man auf diese weise leichter kontrolieren kann, was tatsächlich passiert bzw. über die leitung geschickt wird. das ist nämlich bei den immer komplizierteren GPUs, ihren proprietären treiber und der vielzahl an völlig verschiedenen produkten mittlerweile leider wirklich nur mehr sehr schwer zu steuern.

trotzdem klappt die ganze sache in dieser weise nur dann, wenn am anderen ende auch monitore, kino-projektionsapparat od.ä. hängen, die tatsächlich selbst für eine ausreichend korrekte farbwiedergabe gemäß dem vorgesehenen übergabestandards sorgen.

resolve ist zwar notdürftig in der lage auch mit hilfe von LUTs die ausgabe ggf. noch ein wenig zurechtzubiegen, aber richtig sauber ist diese funktionalität nichteinmal ins programmeigene farbmanagement integriert. von einer vernünftigen zusammenarbeit mit der systemweiten farbverwaltung reden wir lieber erst gar nicht.

natürlich kann diese relativ einfach gehaltene form der herangehensweise in manchen anwendungsszenarien durchaus sinn machen. dort wo wirklich nur hochwertiges equipment zum einsatz kommt und jedes device den jeweiligen job möglichst gut beherrscht und die aufgabenstellung immer recht ähnlich bleibt, reicht das ja vollkommen aus und vermeidet unnötige komplexität.

da aber mittlerweile der großteil der resolve-anwender nicht mehr unbedingt vor sündhaft teuren referenzmonitoren od. kinoprojektionen sitzt, sondern sich mit wesentlich gebräuchlicher computerhardware begnügen muss, sind eben auch die tatsächlichen anforderungen, um trotzdem ein maximum an qualität bzw. befriedigende resultate herauszuholen, natürlich auch längst andere.

da kann dann eine decklink-karte denkbar kontraproduktiv sein, weil bspw. die farbkorrektur auf seiten hw-kalibierten monitors möglicherweise doch schlechter funktioniert als es eine mittlemäßige grafikarte spielend abgewickeln im hintergrund erledigen könnte, etc.

das wirkliche problem bleibt aber die mangelnde integration ins umgebende gesamtsystem. es irritiert einfach, wenn die vorschau auf den computermonitoren nicht stimmt, selbst wenn man diesen schirm ja vorgeblich ja nur zur steuerung benutzen will, aber sein urteil alleine an einem anderen referenzbild auszurichten versucht. und dort, wo diese diskrepanz gar nicht erst zum tragen kommt, weil sich die benutzer auch in diesem programm alleine auf die völlig unzureichende vorschau am PC-schirm verlassen, brauchen wir vermutlich auch nicht viele worte zu verlieren.
Ich weiß, dass du Resolve nicht magst. Und eine freie Software ist es auch nicht. Aber du solltest sachlich bleiben. Und auch wenn eine Videokarte *weniger* als eine Grafikkarte *kann*, kann sie das, was sie kann, eben besonders gut.
Der Softwarehersteller schreibt selbst, dass man eine Videokarte verwenden soll, u.a., weil der Weg über das OS ein Blindflug ist. Und du behauptest das Gegenteil. Wenn ich dir glauben sollte, würde das bedeuten, dass ich das 3000 Seiten starke Handbuch mitsamt der Software in den Müll schmeißen kann. Vielleicht machst du mir die Entscheidung leichter und bringst noch irgendeinen Beleg.



Antwort von Darth Schneider:

Dann würde ich aus dem Bauch heraus gedacht halt, dieses Deklink auch noch dazu mieten...
Dann bleiben einfach nur zwei grundsätzliche Fragen:
Kann das die Firma die so was jeden Tag macht nicht viel, viel besser ?
Und wieviel mehr kostet es dann den Job auswärts zu vergeben ?
Erste Frage kann ich in meinem Fall sicher mit nur mit Ja beantworten...;)
Gruss Boris



Antwort von Abercrombie:

Ich kann denjenigen, die es mit DCP-o-Matic (oder einem anderen Tool) selber probieren wollen einfach nur folgenden Rat geben:
Geht mit einem ext2- oder NTFS-formatierten Stick zum nächstgelegenen (offenen ^^) Programmkino und fragt etwa 30 Minuten vor dem ersten Film, ob der Vorführer das DCP mal zwischendurch laden kann. Dann geht ihr nach dem letzten Film wieder hin (rechtzeitig da sein!) und schaut es euch an. Für ein gutes Trinkgeld machen das meiner Erfahrung nach die Meisten.
Wenn der Projektor das DCP erkennt und kopiert, dann ist die Ordner- und Datei-Struktur sowie die Hash-Werte korrekt. Das geht am Anfang am häufigsten schief. Wenn die ersten drei Minuten gut aussehen, dann kommen meist auch keine Ausreißer mehr am Ende. Ansonsten das Trinkgeld erhöhen und den ganzen Film gucken.
Hier noch meine Erfahrung: Die meisten Server laden auch vom NTFS-USB-Stick (sicherer ist natürlich ext2) und spielen SMPTE mit 25fps. InterOp und 24fps-Konversation sind nur noch in sehr sehr wenigen Fällen wirklich nötig.



Antwort von cantsin:

"Darth Schneider" hat geschrieben:
Dann würde ich aus dem Bauch heraus gedacht halt, dieses Deklink auch noch dazu mieten...
Für knapp unter 200 EUR ist eine Decklink Mini Monitor 4K keine sonderlich kostenintensive Investition... Und ein EIZO ColorEdge CG319X (der hardwarekalibriertes P3 ab Haus mitbringt) kostet 55-75 Euro/Tag im Verleih.



Antwort von Darth Schneider:

@Cantsin
Zu den Bildern
Eben, darum würde ich die Finger davon lassen.
Also, erst, vor dem Dreh schauen das man wirklich genug Budget hat, und lieber, als Alles selber zu basteln, die Profis ihren Job machen lassen und sich besser auf das Konzept, Drehbuch, die Regie, die Schauspieler und Produktionsleitung, womöglich noch den Schnitt konzentrieren...
Man sollte nicht alles selber machen, beziehungsweise nur ganz wenige Leute können das, wirklich gut...;)
Jetzt mal ohne Scheiss, ich weiss das tönt übertrieben, aber nur weil in einem talentierten Team gearbeitet wird, sehen doch viele Kinofilme, oder auch manche Kino Werbung so gut aus.
Wenn ich wieder mal Budget haben sollte für irgendwas im Kino , den ersten den ich anrufen werde ist Frank...!
Gruss Boris



Antwort von dienstag_01:

Abercrombie hat geschrieben:
Ich kann denjenigen, die es mit DCP-o-Matic (oder einem anderen Tool) selber probieren wollen einfach nur folgenden Rat geben:
Geht mit einem ext2- oder NTFS-formatierten Stick zum nächstgelegenen (offenen ^^) Programmkino und fragt etwa 30 Minuten vor dem ersten Film, ob der Vorführer das DCP mal zwischendurch laden kann. Dann geht ihr nach dem letzten Film wieder hin (rechtzeitig da sein!) und schaut es euch an. Für ein gutes Trinkgeld machen das meiner Erfahrung nach die Meisten.
Wenn der Projektor das DCP erkennt und kopiert, dann ist die Ordner- und Datei-Struktur sowie die Hash-Werte korrekt. Das geht am Anfang am häufigsten schief. Wenn die ersten drei Minuten gut aussehen, dann kommen meist auch keine Ausreißer mehr am Ende. Ansonsten das Trinkgeld erhöhen und den ganzen Film gucken.
Hier noch meine Erfahrung: Die meisten Server laden auch vom NTFS-USB-Stick (sicherer ist natürlich ext2) und spielen SMPTE mit 25fps. InterOp und 24fps-Konversation sind nur noch in sehr sehr wenigen Fällen wirklich nötig.
Das ist doch vollkommen klar und das sollte man wenn möglich auch so machen, wenn man eine zertifizierte Karte in seinem Rechner benutzt.

Eine Diskussion über sinnvolles Equipment ersetzt so ein Tipp aber nicht ;)



Antwort von mash_gh4:

dienstag_01 hat geschrieben:
Ich weiß, dass du Resolve nicht magst. Und eine freie Software ist es auch nicht. Aber du solltest sachlich bleiben. Und auch wenn eine Videokarte *weniger* als eine Grafikkarte *kann*, kann sie das, was sie kann, eben besonders gut.
natürlich macht eine deratige karte sinn, wenn man bspw. SDI-connectivity benötigt, was ja mittlerweile keine normale grafikarte mehr kann, etc.

aber für die meisten von uns ist eben auch dieses feature nicht wirklich relevant.
dienstag_01 hat geschrieben:
Der Softwarehersteller schreibt selbst, dass man eine Videokarte verwenden soll, u.a., weil der Weg über das OS ein Blindflug ist. Und du behauptest das Gegenteil. Wenn ich dir glauben sollte, würde das bedeuten, dass ich das 3000 Seiten starke Handbuch mitsamt der Software in den Müll schmeißen kann. Vielleicht machst du mir die Entscheidung leichter und bringst noch irgendeinen Beleg.
nun, BMD ist bekanntlich vorrangig ein hardwarehersteller(!), der halt lieber software verschenkt, um seine geräte besser zu verkaufen als letztere überflüssig zu machen. das kann man ihnen nicht unbedingt verdenken, aber man sollte es halt zumindest im hinterkopf behalten.

um die decklink-karten ist es in den letzten ein-zwei jahren zum glück ohnehin bereits deutlich ruhiger geworden. ich erwarte eigentlich, dass die schon realtiv bald ganz aus dem billigangebot verschwinden werden, weil sie für den großteil der benutzer einfach keinen vorteil bringen. als spezialequipment für die studioausstattung wird es sie aber natürlich weiter geben.

ich würde es vielmehr begrüßen, wenn BMD statt dessen günstige farbkalibrierungssensoren herstellen und ins produktsortiment aufnehmen könnte. damit würde man den tatsächlichen bedürfnissen der benutzer auf gebräuchlicher computerhardware weit eher entgegen kommen. dann hätte man vielleicht auch endlich einen grund, die entsprechende softwareuntersützung im resolve tatsächlich sauberer umzusetzten, ohne sich dabei in interessenskonflikte zu verwickeln.



Antwort von dienstag_01:

mash_gh4 hat geschrieben:
dienstag_01 hat geschrieben:
Ich weiß, dass du Resolve nicht magst. Und eine freie Software ist es auch nicht. Aber du solltest sachlich bleiben. Und auch wenn eine Videokarte *weniger* als eine Grafikkarte *kann*, kann sie das, was sie kann, eben besonders gut.
natürlich macht eine deratige karte sinn, wenn man bspw. SDI-connectivity benötigt, was ja mittlerweile keine normale grafikarte mehr kann, etc.

aber für die meisten von uns ist eben auch dieses feature nicht wirklich relevant.
dienstag_01 hat geschrieben:
Der Softwarehersteller schreibt selbst, dass man eine Videokarte verwenden soll, u.a., weil der Weg über das OS ein Blindflug ist. Und du behauptest das Gegenteil. Wenn ich dir glauben sollte, würde das bedeuten, dass ich das 3000 Seiten starke Handbuch mitsamt der Software in den Müll schmeißen kann. Vielleicht machst du mir die Entscheidung leichter und bringst noch irgendeinen Beleg.
nun, BMD ist bekanntlich vorrangig ein hardwarehersteller(!), der halt lieber software verschenkt, um seine geräte besser zu verkaufen als letztere überflüssig zu machen. das kann man ihnen nicht unbedingt verdenken, aber man sollte es halt zumindest im hinterkopf behalten.

um die decklink-karten ist es in den letzten ein-zwei jahren zum glück ohnehin bereits deutlich ruhiger geworden. ich erwarte eigentlich, dass die schon realtiv bald ganz aus dem billigangebot verschwinden werden, weil sie für den großteil der benutzer einfach keinen vorteil bringen. als spezialequipment für die studioausstattung wird es sie aber natürlich weiter geben.

ich würde es vielmehr begrüßen, wenn BMD statt dessen günstige farbsensoren herstellen und ins produktsortiment aufnehmen könnte. damit würde man den tatsächlichen bedürfnissen der benutzer auf gebräuchlicher computerhardware weit eher entgegen kommen. und dann hätte man vielleicht auch endlich einen grund, die entsprechende softwareuntersützung im resolve tatsächlich sauberer umzusetzten, ohne sich dabei in interessenskonflikte zu verwickeln.
Gerade wenn es Interessenskonflikte geben sollte, um so mehr muss man doch den Aussagen von BM, was die Notwendigkeit von Videokarten betrifft, für zutreffend halten. Weil sie es einfach einschränken können, auch wenn die Notwendigkeit nicht bestehen würde. Du behauptest das Gegenteil, einfach so. Naja.



Antwort von mash_gh4:

dienstag_01 hat geschrieben:
Gerade wenn es Interessenskonflikte geben sollte, um so mehr muss man doch den Aussagen von BM, was die Notwendigkeit von Videokarten betrifft, für zutreffend halten. Weil sie es einfach einschränken können, auch wenn die Notwendigkeit nicht bestehen würde. Du behauptest das Gegenteil, einfach so. Naja.
was willst du jetzt damit sagen?

noch mehr "einschränken" als es BMD über sehr lange zweit hinweg gehandhabt hat, als man praktisch überhaupt keine brauchbare vollbild-voransicht ohne derartige zusatzhardware aus dem resolve heraus zu gesicht bekommen hat, kann man software ohnehin kaum...



Antwort von dienstag_01:

mash_gh4 hat geschrieben:
dienstag_01 hat geschrieben:
Gerade wenn es Interessenskonflikte geben sollte, um so mehr muss man doch den Aussagen von BM, was die Notwendigkeit von Videokarten betrifft, für zutreffend halten. Weil sie es einfach einschränken können, auch wenn die Notwendigkeit nicht bestehen würde. Du behauptest das Gegenteil, einfach so. Naja.
was willst du jetzt damit sagen?

noch mehr "einschränken" als es BMD über sehr lange zweit hinweg gehandhabt hat, als man praktisch überhaupt keine brauchbare vollbild-voransicht ohne derartige zusatzhardware aus dem resolve heraus zu gesicht bekommen hat, kann man software ohnehin kaum...
Das hilft bei der aktuellen Fragestellung sehr weiter.



Antwort von Abercrombie:

dienstag_01 hat geschrieben:
Das ist doch vollkommen klar und das sollte man wenn möglich auch so machen, wenn man eine zertifizierte Karte in seinem Rechner benutzt.

Eine Diskussion über sinnvolles Equipment ersetzt so ein Tipp aber nicht ;)
Von dem was ich von Vorführern und Kinobetreibern auf der ganzen Welt erfahren habe, sind das aber die häufigsten Fehler: ASCII übertragen per FTP, falsche Hashwerte, Dateistruktur/Dateinamen verändert, falsche Metadaten, Stick/Festplatte in fat32/exfat/hfs und falsche Partitionstabelle.

Zu P3 ist doch von euch gesagt worden: Ein teuerer Monitor im P3-Profil kann mit Resolve Sinn ergeben (auch wenn man dann vorsichtig mit anderen Programmen sein muss). Ich bezweifele jedoch, dass die Vorteile den Aufwand rechtfertigen. Oder sagen wir es so: Ich hab nicht wenige Koloristen gesehen, die auf BT1886- oder sRGB-Monitoren wunderschöne Bilder erzeugt haben, welche später auch auf der Leinwand toll aussahen. Wer also nicht täglich damit arbeitet, sollte sich die Sache zwei mal überlegen.

Technisch ist es sicher möglich eine Grafikkarte zur korrekten Ausgabe zu bringen, aber ich fahre mit den günstigen Decklinks mit FullHDFullHD im Glossar erklärt über HDMIHDMI im Glossar erklärt seit Jahren sehr gut und bis heute noch keine Beschwerden gehabt. Mir wäre das zu viel Treibergedöns.

DCP-o-Matic haben wir inzwischen bei etlichen Filmen eingesetzt, die in diversen Kinos in Europa, Süd- und Mittelamerika sowie Afrika liefen. Die meisten vom BT1886 ProRes-Master. Viele SMPTE 25fps.



Antwort von dienstag_01:

Abercrombie hat geschrieben:
dienstag_01 hat geschrieben:
Das ist doch vollkommen klar und das sollte man wenn möglich auch so machen, wenn man eine zertifizierte Karte in seinem Rechner benutzt.

Eine Diskussion über sinnvolles Equipment ersetzt so ein Tipp aber nicht ;)
Von dem was ich von Vorführern und Kinobetreibern auf der ganzen Welt erfahren habe, sind das aber die häufigsten Fehler: ASCII übertragen per FTP, falsche Hashwerte, Dateistruktur/Dateinamen verändert, falsche Metadaten, Stick/Festplatte in fat32/exfat/hfs und falsche Partitionstabelle.

Zu P3 ist doch von euch gesagt worden: Ein teuerer Monitor im P3-Profil kann mit Resolve Sinn ergeben (auch wenn man dann vorsichtig mit anderen Programmen sein muss). Ich bezweifele jedoch, dass die Vorteile den Aufwand rechtfertigen. Oder sagen wir es so: Ich hab nicht wenige Koloristen gesehen, die auf BT1886- oder sRGB-Monitoren wunderschöne Bilder erzeugt haben, welche später auch auf der Leinwand toll aussahen. Wer also nicht täglich damit arbeitet, sollte sich die Sache zwei mal überlegen.

Technisch ist es sicher möglich eine Grafikkarte zur korrekten Ausgabe zu bringen, aber ich fahre mit den günstigen Decklinks mit FullHDFullHD im Glossar erklärt über HDMIHDMI im Glossar erklärt seit Jahren sehr gut und bis heute noch keine Beschwerden gehabt. Mir wäre das zu viel Treibergedöns.

DCP-o-Matic haben wir inzwischen bei etlichen Filmen eingesetzt, die in diversen Kinos in Europa, Süd- und Mittelamerika sowie Afrika liefen. Die meisten vom BT1886 ProRes-Master. Viele SMPTE 25fps.
Natürlich, heutzutage hat man wirklich die Möglichkeit, einen Kinofilm mit dem Laptop auf der Parkbank zu bearbeiten (ja gut, in der Dämmerung). Trotzdem schadet es nicht, wenn man um den einen oder anderen Fallstrick weiß. Bei Festivals können sie ein Lied davon singen ;)



Antwort von pillepalle:

Mich erinnert das Ganze an frühere Zeiten, wo Drucker und Lithographen auch immer eine Geheimwissenschaft aus ihrer Arbeit gemacht haben. Wenn man im Netz sucht, bekommt man die meisten Informationen nur gegen Bezahlung, oder es werden eben Dienstleistungen angeboten, die Umwandlung zu übernehmen. Aber ein paar aktuelle Infos (aus 2019) findet man allerdings schon. Nur leider nicht so detrailliert wie man sich sie wünschen würde. Meist stehen da die Dinge die man ohnehin schon weiß :)
Wie z.B.
Cinema Mastering in Resolve Studio Most screens are 8 bits in rec.709, professional devices offer 10 bits in P3 or Adobe RGB.

Oder relativ unkonkrete Angaben, wie:
Important: NLEs and Resolve ignore display color profile in the viewer (as does VLC). Windows: Note NVIDIA settings*, use professional Player –> Browser plugins problematic
Was wäre denn dann ein 'professional Player', wenn es der Viewer in Resolve nicht ist? Da muss ich vielleicht mal versuchen, ob ich im Blackmagic Forum herausfinden kann, ob das nur für den Player (Full Size Ansicht), oder auch für die TimelineTimeline im Glossar erklärt gilt. Sich eine Decklink Karte zu besorgen, wäre ja nicht das Problem, ich möchte vorher aber gerne verstehen, wie das Ganze nun wirklich funktioniert und ob das bei allen NLEs so ist. Es ist ja schon eine Herausforderung alleine die Hardwareanforderungen und richtigen Settings heraus zu bekommen. Natürlich brauche ich das jetzt nicht unbedingt, aber ich würde gerne wissen, wie es richtig geht. Für den Fall dass ich es mal brauche. Und es zeigt sich ja, dass darüber kaum jemand wirklich bescheid weiß.

Auf der Blackmagic Seite werden die Decklink-Karten vor allem als PCIe-Aufzeichnungkarten betitelt. Etwas was ich überhaupt nicht brauche, mich interessiert ja nur die Wiedergabe. Und bei den Intensity Karten, wie der Insensity Pro, wird von Comsumergeräten (wie Fernsehern) gefalset, die man anschließen kann und die dann auch die richtigen Signale bekommen?? Ich zitiere mal:
Schneiden Sie Video mit der Intensity Pro 4K unter Einsatz von Consumer-Videogeräten wie TV-Großbildschirmen für das Schnitt-Echtzeitmonitoring auf Profi-Niveau.
Und zum Thema FarbkorrekturFarbkorrektur im Glossar erklärt steht da folgendes:
Computermonitore zeigen Farben in RGB-Signalen an, bei Fernsehern sind hingegen YUV-Signale üblich. Aus diesem Grund zeigen beide unterschiedliche Farbspektren an. Die Ihnen auf einem Computermonitor präsentierten Farben unterscheiden sich daher ggf. von der Darstellung, die der Kunde auf seinem heimischen HD- oder Ultra-HD-Fernseher wahrnimmt. Um bei laufender Arbeit fundierte Farbentscheidungen treffen zu können, ist es bei der FarbkorrekturFarbkorrektur im Glossar erklärt eines Videoprojekts wichtig, jeden Schritt auf einem HD- oder Ultra-HD-Fernseher wiedergegeben zu bekommen. Koppeln Sie Videogeräte jeder Art an die Intensity Pro 4K – von Standard-Definition-Fernsehern in analogem NTSC/PAL bis hin zu den aktuellsten digitalen HD- und Ultra-HD-Monitoren. So sehen Sie Ihre Arbeit immer in der richtigen Farbe!
Immerhin, digitale Monitore werden auch mal erwähnt *g* In den Specs findet man dann die Angaben die einen schon eher interessieren
HDMI-Farbgenauigkeit
8- und 10-Bit-RGB 4:4:44:4:4 im Glossar erklärt (Deep Color) in allen Modi bis 1080p/60 sowie 8- und 10-Bit-YUV 4:2:24:2:2 im Glossar erklärt in allen Modi
HDMI-Konfiguration
HDMI 1.4b unterstützt Deep Color und konfiguriert sich automatisch mit dem angeschlossenen Displa
y
Wie gesagt, Da muss ich mich wohl nochmal mit beschärftigen.

Zur GammaGamma im Glossar erklärt Transformation in DCPs findet man übrigens noch folgendes:
Gamma Transformation
g2.2 for bright work environments (OS-native, office, living room,…) –> sRGB for web and PC g2.4 for dark environments (and high-performance LED screens, studios,…) –> rec.709 (g2.35 HDTV)
g2.6 for "black" environments like cinemas, full dynamic range –> g2.2 and g2.4 too "soft" in cinemas Optimise your working environment, calibrate gamma for it and keep it consistent. Don’t adjust gamma for target outlet but your studio! If you do not own a professional monitoring system, work in g2.2 only, brighten up the room, calibrate screen. Don’t change graphics card settings (only simulated via LUT).

Gamma and color space have to fit your work environment, for other target environments transform gamma/color space as a last mastering step. Most apps ignore your display profile anyway –> professional displays offer hardware controls (knobs/buttons) to set it up and a special calibrator (EIZO).

Unique feature of DaVinci Resolve: Input, output & timeline gamma parameters are adjustable in project settings. Standard value is rec.709 g2.4 for timeline only, input/output is switched off – if unsure, don’t change it but it assumes you are in a dark room (see above) with the right calibrated display profile.
• Beginner: Use rec.709 g2.2 only (= sRGB), crush blacks a little –> "What you see is what you get" is a safe way because all your devices and systems are g2.2 (sRGB)
• Pro: Project Settings –> Color Management –> Color Science –> "Color managed" and set values for In/Out/Timeline manually if known. This offers the most sophisticated workflow
Letzteres mache ich eigentlich immer. Nur scheint Resolve ja trotzdem nicht das komplette Farbspektrum anzuzeigen, wenn die Aussagen zu den Videokarten stimmen.

VG



Antwort von Bluboy:

Was wäre denn dann ein 'professional Player',

Colorfront QC Player
Franhofer IIs DCP Player
Inovative PixelPixel im Glossar erklärt Tools Final DCP
Protoway Neo DCP



Antwort von pillepalle:

@ Bluboy

Dank Dir. D.h. würde ich meine Videos auf einem dieser Player betrachten, dann würden sie auch die jeweiligen Farbräume richtig anzeigen?

VG

PS: Die 90 Minuten werde ich mir mal reinpfeifen... mal sehen ob man da irgendwelche nützlichen Infos bekommt :) Fängt aber leider bei Adam und Eva an und die ersten 25 Minuten geht's erstmal nur um Belichtung in der Kamera und wie ein Sensor funktioniert und weniger um den Workflow und Farbräume an sich *schnarch* Die letzte halbe Stunde ist aber relativ interessant, auch wenn es noch nicht alle Fragen für Resolve, oder dessen Farbmanagement und die erforderliche Hardware beantwortet.

https://vimeo.com/298129056



Antwort von Bluboy:

https://www.sebastianleitner.com/DCP-workshop-lite.pdf



Antwort von pillepalle:

Ja danke, daher habe ich auch meine Infos. Der erzählt das Wesentliche aber leider nicht, weil er seinen Workshop verkaufen möchte :)

VG



Antwort von Bluboy:

PDF War blos so nebenbei

Resolve hat soviel ich weiß Easydcp dabei

Der NeoDCP Playeer kann diese Filie und modelt das bild in alle möglichen Formate

Vielleicht gibt da eine Trial



Antwort von pillepalle:

@ Bluboy

Ja, man kann prinzipiell auch einen DCP in Resolve erstellen. Mir geht's aber ersteinmal um andere Dinge. Z.B. welche Arbeitsfarbraum-Optionen habe ich in welcher Software und ist dafür eine spezielle Hardware (neben Grafikkarte und professionellem Monitor) nötig. Meist geht es bei den Diskussionen eher um HDR Displays, oder wie etwas mit Consumergeräten (wie TVs) angezeigt werden kann.

VG



Antwort von Bluboy:

Musste erst mal in Premiere ein DCP erstellen
Da ist das natürlich ein alter Hut wenn ich Hinterher feststelle dass GammaGamma im Glossar erklärt 2.2 nicht paßt

In Resolve macht das sofort wenn man den Farbraum ändert und exportiert das dann auch so.

Kurz Um, war ein Schuß in den Ofen, Resolve und das Fraunhofer PluginPlugin im Glossar erklärt sollte reichen.-



Antwort von pillepalle:

Ich habe mir auch nochmal den Rat zu Herzen genommen ins Handbuch zu schauen. So richtig schlau wird man aus dem Blick ins Handbuch allerdings auch nicht. Einerseits wird einem auf S.222 ff erklärt wie toll sich die einzelnen Farbräume in Resolve einstellen lassen (Input Color Space, TimelineTimeline im Glossar erklärt Colorspace (Arbeitsfarbraum), Output Color Space), andererseits wird einem dann auf S.2582 ein Warnhinweis gegeben, das die Farben auf einem Comupter-Monitor eventuell nicht richtig angezeigt werden können. Aber eigentlich nur anhand von Beispielen, die in meinem Setup gar nicht zutreffen. Hier ist nochmal der Originaltext:

Limitations When Grading With the Viewer on a Computer Display
Most computer displays do not operate at the color critical tolerances or specifications
required for broadcast or theatrical delivery. An additional issue, however, is that the
Viewer does not necessarily display each clip’s image data as it is displayed by the
calibration that your operating system applies to your computer display, depending on
which OS you’re running DaVinci Resolve on. This makes your computer display
potentially unsuitable for monitoring projects destined for the sRGB standard of the
web in its default state. For example, if you grade a project using the Color page
Viewer on your computer display, the resulting clip may not look the same in the
QuickTime player, or in other post-production applications.
You can address this in one of two ways:
? If you’re using DaVinci Resolve on macOS, you can turn on "Use Mac Display
Color Profile for viewers" in the Hardware Configuration panel of the System
Settings. This lets DaVinci Resolve use one whichever of the color profiles you
choose in the Color tab of the Displays panel in the macOS System Preferences,
thereby taking advantage of ColorSync on macOS to let DaVinci Resolve display
color the way your computer monitor does. This now works for all color profiles
that ship with macOS, even ones generated by calibration software, such as that
available from X-rite, Datacolor, or other applications. On supported computers,
there’s also an option to "Use 10-bit precision in viewers," if available, that you
can turn on. With this option enabled, rendered output displayed in QuickTime
Player will match what is seen in the DaVinci Resolve Viewer.
? Alternately, you can apply a dedicated Color Viewer LUT for calibration, using
the 1D/3D Color Viewer Lookup Table drop-down menu that’s found in the
Color Management panel of the Project Settings. This lets you analyze your
computer display for calibration in the same way you would calibrate an external
display, using a probe and color management software, and apply the resulting
calibration LUT in DaVinci Resolve. Keep in mind that monitor calibration can only
make a high quality display standards compliant; it cannot make up for a display
gamut that’s too small. For more information, see the "Lookup Tables" section of
Chapter 3, "System and User Preferences."
Strictly speaking, if you’re doing professional work, you should restrict your grading to a
calibrated, 10- or 12-bit class A external broadcast display of some type, connected via
a Blackmagic Design video interface. Assuming everything is running properly, an
image that is output to video from DaVinci Resolve should match an image output to
video from any other post-production application you’re using, and this should be your
basis for comparison when examining the output of two different applications.
Chapter


Die Empfehlung über eine Videokarte und einen 20.000,-€ CLASS A Monitor zu gehen hat natürlich auch noch andere Vorteile (ev, HDR fähig, TimecodeTimecode im Glossar erklärt support ect.) aber ehrlich gesagt steht da nicht, dass im Arbeitsfarbraum (aka der Timeline) unterschiedliche Farbräume nicht dargestellt werden können. Sondern nur dass nicht sicher ist, ob bei jedem System die Farben im Viewer richtig angezeigt werden, weil es eben abhängig von der verwendeten Hardware und den Einstellungen ist. Deshalb die Empfehlung die eigenen Karten und besten Monitore zu verwenden, wenn man auf der Sicheren Seite sein möchte. Aber bei mir sehen die Outputs im Viewer doch gar nicht anders aus... am Ende kauft man sich dann eine Decklink Karte und es sieht genau so aus wie ohne Karte.

VG



Antwort von Bluboy:

Wenn das so Teuer ist kauft man sich am Besten gleich ein Kino mit Nach-Corona Rabatt ;-)

Ich find ja die Einlassungen von Cantsin und Abercrombie recht interessant.

Allerdings seh ich die Sache weniger Problematisch wenn das Programm konforme Dateen erzeugt.
Jpeg2000, GammaGamma im Glossar erklärt 2,2 und Ful Range dann passt es schon (hoffentlich)



Antwort von Darth Schneider:

Oder einfach ein Kino mieten, die sind doch, jetzt sicher froh wenn wenigstens jemand drin ist, und ein wenig bezahlt...
Gruss Boris



Antwort von pillepalle:

"Darth Schneider" hat geschrieben:
Oder einfach ein Kino mieten, die sind doch, jetzt sicher froh wenn wenigstens jemand drin ist, und ein wenig bezahlt...
Gruss Boris
Gute Idee :) Das mache ich bei meinem nächsten Model-Video *haha...*

VG



Antwort von Darth Schneider:

https://www.mydays.de/geschenkidee/privatkino
Hier bei uns in der Schweiz ein Beispiel von grossen Kinos, mit Profi Projektor.
Die Preise bei euch dürften ähnlich sein.;)
https://www.kinoumdieecke.ch/index.php/kino-mieten
Gruss Boris



Antwort von Abercrombie:

dienstag_01 hat geschrieben:
Natürlich, heutzutage hat man wirklich die Möglichkeit, einen Kinofilm mit dem Laptop auf der Parkbank zu bearbeiten (ja gut, in der Dämmerung). Trotzdem schadet es nicht, wenn man um den einen oder anderen Fallstrick weiß. Bei Festivals können sie ein Lied davon singen ;)
Typisch Slashcam: Ist es nicht Hollywood, ist es gleich die Parkbank, Starbucks oder das Handschuhfach. In meiner Welt arbeiten sehr viele Menschen an hochwertigen Produkten im ganz normalen Mittelfeld: Gut kalibrierte Monitore, die aber nicht fünf bis 20 Tausend Euro kosten. Das gleiche gilt für die Rechner, Kameras, Lichter, etc. Ein pragmatischer Ansatz professionell durchgeführt.
Für ein Gegeneinander bin ich aber nicht zu haben. Ich habe auf einige Fallstricke hingewiesen und klinke mich hier lieber wieder aus.



Antwort von Jörg:

und klinke mich hier lieber wieder aus.
schade.
Es werden leider immer mehr Leute, die etwas zu sagen hätten, die sich ausklinken.
Reziprok gehts leider anders rum...



Antwort von dienstag_01:

Habe ich da irgendwas gesagt, was dieses Verhalten ausgelöst haben könnte?
Bin mir keiner Schuld bewusst.



Antwort von carstenkurz:

pillepalle hat geschrieben:
Dank Dir. D.h. würde ich meine Videos auf einem dieser Player betrachten, dann würden sie auch die jeweiligen Farbräume richtig anzeigen?
Nein, weil dir dazu immer noch das P3 fähige (und idealerweise projizierende) Anzeigegerät fehlt. Du bist Feinheiten in der Darstellung hinterher, denen Du nur in einem echten Kino hinterher kommst. Der kostenlose DCP-o-matic player spielt dir auch DCPs rücktransformiert in rec.709 ab. Wenn Dir das nicht reicht, musst Du dein DCP auf einem Kinoprojektor testen.

Es ist halt so, professionelle Dienstleister sind auch deswegen so teuer, weil sie Gerät und Mitarbeiter bezahlen, die konsistente Workflows in ihren Stammbereichen sicherstellen.

Die Diskussion hier ist in Bezug zum ursprünglichen Thema überzogen kompliziert. Das war eigentlich mal nur die Frage nach GammaGamma im Glossar erklärt 2.2 oder 2.4 im rec.709 Master. Mittlerweile hört es sich aber in Bezug auf DCP-Erstellung so an, als wären wir wieder im Jahr 2010 was DCP Erstellung angeht.

Man sollte den größten Teil in einen allgemeinen Thread zum Thema Farbkalibrierung in Resolve auslagern.

Es ist extrem einfach geworden, ein gut aussehendes DCP aus üblichem rec.709 Material herzustellen. Man darf halt nicht an Parametern drehen, die man nicht wirklich versteht. Wenn das Master in rec.709 gut aussieht, wird es auch das DCP tun.

- Carsten



Antwort von XHA1:

carstenkurz hat geschrieben:
Der Dienstleister oder die Software, mit der das Masterfile in ein DCP konvertiert werden muss, kann nicht alle Parameter im Masterfile automatisch (sicher) aus irgendwelchen Metdaten ziehen. Er/Sie muss entweder davon ausgehen, dass Normstandards verwendet werden, oder dass man ihm irgendwelche Besonderheiten explizit mitteilt.

Wenn man in rec.709 gegradet hat, ist das einzig sinnvolle, ein 08/15 Master in ebendiesem Farbraum zu exportieren. rec.709 ist im Übrigen nur noch ein verbreiteter historischer Begriff, faktisch ist das heute immer BT.1886 und das ist mit GammaGamma im Glossar erklärt 2.4 spezifiziert.
PAL-HD gibt es nicht. PALPAL im Glossar erklärt ist SD und damit rec.601, HD ist rec.709 bzw. BT.1886.

Und oh Wunder, in DCP-o-matic gibt es ein Eingangs rec.709 Preset mit GammaGamma im Glossar erklärt 2.2, und ein BT.1886 Preset mit GammaGamma im Glossar erklärt 2.4. Man kann also beides korrekt nach X'Y'Z' konvertieren, muss aber nunmal wirklich WISSEN, mit welchem GammaGamma im Glossar erklärt das Master erstellt wurde, damit man hier das richtige einstellt. Macht man es nicht selbst, teilt man es dem Dienstleister auf dem Beipackzettel mit oder fragt dort ggfs. vorher nach, ob er das in seiner Software auch ändern kann, oder ob er einen bestimmten Wert voraussetzt.
Auch der Weisspunkt wird automatisch bei so einer Konvertierung angepasst. Genau dafür ist das Programm ja da.


Nach meiner Erfahrung spielt der Unterschied zwischen den Gammas 2.2 vs. 2.4 (faktisch sind es eh keine stetigen Gammas bei Video) im Kino keine große Rolle. Wenn ich kaputte Konvertierungen gesehen habe, waren das bisher typisch Interpretationsprobleme zwischen Full Range (data levels) und Limited Range (video levels). Oft DENKEN dann die Leute, dass es ein Gammaproblem sein muss, weil es sich in Schatten und Lichtern bemerkbar macht.
NORMAL bei rec.709/BT.1886 bzw. im Grunde allen komprimierten Videoformaten ist LIMITED RANGE (16-235), aka video levels (auch das kann man in DCP-o-matic noch korrigieren, und begrenzt sogar im Vectorscope auf Plausibilität prüfen). Manche Leute glauben, die 0-15 und 236-255 wären so unglaublich wichtig weil sie ja mit der tollen 15stops Kamera gearbeitet haben. Aber was mal ganz vorne war, spielt hier keine Rolle mehr.
Wer auf Full Range Wert legt, muss das vorher schon beim Import, Arbeitsfarbraum, Grading und der Monitorlösung ebenso korrekt umgesetzt (und validiert!) haben, sonst macht das keinen Sinn. Besser lässt man es also.


Beim Tonpegel ist -20 LUFS/R128 eine gute Hausnummer. LUFS hat nicht der Dialog, sondern das gesamte File (nicht mit Dialnorm verwechseln). -20 LUFS ist nur ein typischer pragmatischer Zielkorridor fürs Kino bei kurzen Spiellängen wie Werbung oder Kurzfilme. Keine Norm kann deine subjektive Entscheidung ersetzen, wie laut dein Werk sein soll. Wenn Du Bienchen auf einer Wiese drin hast, werden die bei -20 LUFS zu Sturzbombern. Wenn's bißchen mehr drücken soll, nimm -17 bis -18 LUFS. Richtung -15 LUFS tut's weh.
Amateurmischungen (nicht übel nehmen) haben manchmal Probleme, die nötige Lautheit in Stereo zu erreichen - dafür muss der Mix in der Regel in der Tonmischung ein bißchen komprimiert werden. Wenn man viele Peaks im Material hat, kriegt man den Pegel nicht ohne Limiter/Kompressor, oder eben (bäh) Clipping auf die nötige Lautheit. Also nicht blind z.B. in DCP-o-matic auf -18 LUFS hochdrehen, sondern dabei die Peak-Level im Auge behalten (es gibt bei Clipping eh ne Warnung).
Kommt aber ein bißchen drauf an, was das ist, was man da macht. Lautheit im Kino ist ne lange und komplizierte Geschichte. In DCP-o-matic kann man die Lautheit analysieren und auch noch problemlos anpassen.

Der übliche Weg für z.B. Werbung und Doku ist, dass eine Stereospur in ein DCP mit zwei Kanälen (ZULÄSSIG!) oder 5.1 verpackt wird, dabei bleiben bei 5.1 aber die Kanäle 3-6 silent und belegen unnötig Platz. Centermischung für Dialog ist schön, macht aber Arbeit.
Irgendwelche Upmixe passieren weder beim Dienstleister noch im Kino automatisch, da muss man sich vorher selber drum kümmern. Von den Surrounds und dem .1/LFE (das ist KEIN Subwoofer) lässt man die Finger, wenn man kein Profi im Bereich 5.1 ist.



Was Dienstleister angeht - da tummeln sich welche, die von Tuten und Blasen keine Ahnung haben. Gut arbeitende rauszufinden ist fast so schwierig wie sich selbst in DCP-o-matic reinzuarbeiten.
Und ja, leider gibt es auch Festivals, die in ihre Anforderungen Mist rein schreiben.

Für ein 08/15 DCP kann man mittlerweile auch Resolve ab 16.x verwenden. Viele Leute machen aber auch da Fehler, weil sie eben glauben, in Resolve auch noch eine zusätzliche gezielte Farb- oder Gammakonvertierung im Hinblick aufs DCP einbauen zu müssen.

Was ist denn deine Untertitelquelle - gibts die schon, wie legst Du die dann? Grundsätzlich kannst Du die Untertitel auch gleich beim Erstellen des Masters rein rechnen. Da gibts aber viele Möglichkeiten, kommt ein bißchen auf die gewünschten Verwendungen des DCPs an.
Ich habe explizit nach dem level vom Dialog
gefragt, denn nach ihm richtet sich bei der wiedergabe, ob die Biene wispert oder die Bombe knallt.
Ich gehe weiterhin von -27dB LufS aus.



Antwort von pillepalle:

@ carstenkurz

Ich habe doch ein P3 fähiges Gerät, nur ist es kein Projektor. Und es geht ja auch nicht darum an Parametern zu drehen die man nicht versteht, sondern zu verstehen, wie etwas funktioniert. Im Detail die Arbeitsfarbräume in Resolve. Aber dafür könnte man in der Tat einen eigenen Thread aufmachen.

VG



Antwort von carstenkurz:

Bluboy hat geschrieben:
Allerdings seh ich die Sache weniger Problematisch wenn das Programm konforme Dateen erzeugt.
Jpeg2000, GammaGamma im Glossar erklärt 2,2 und Ful Range dann passt es schon (hoffentlich)
Da diskutieren wir hier seitenweise und dann kommt jemand daher und empfiehlt einfach weiterhin frei erfundenen Unsinn. Soviel zum Sinn von Foren.

Nochmal zum eintätowieren: rec.709 ist BT.1886, und das verwendet ein Display-Gamma von 2.4 und limited range/video levels. HIMMELHERRGOTTSAKRA!



Antwort von carstenkurz:

XHA1 hat geschrieben:
Ich habe explizit nach dem level vom Dialog
gefragt, denn nach ihm richtet sich bei der wiedergabe, ob die Biene wispert oder die Bombe knallt.
Ich gehe weiterhin von -27dB LufS aus.

LUFS ist kein Level, sondern eine Lautheit über das gesamte Programm. Wenn Du einen Dialoglevel spezifizieren willst, hast Du den in dBFS RMS anzugeben ('Durchschnittspegel bezogen auf Vollaussteuerung/FullScale').

Nicht übelnehmen, aber wenn Du nach Zahlen fragst, musst Du wissen was sie bedeuten. Und da es 'Dialog' heisst, kann man den auch nur segmentweise auf typische Dialogpassagen in 'normaler Unterhaltungslauttärke' beziehen, nicht auf das komplette Video. Ein 'Flüstern' liegt natürlich dann konsequenterweise drunter, und ein 'Streit' drüber.

-20dBFS (RMS) sollten Dialogpassagen im Kino haben. Das ist ein Zielkorridor, keine Norm!

Das hier ist der Centerkanal des englischsprachigen Original Kino (DCP) Trailers von StarWars 8:

Bildschirmfoto 2021-01-24 um 15.07.17.png Das ist eine RMS Kurve, eine Mittelung. Nicht mit Peakwerten verwechseln! Die gehen bis fast 0 rauf.

Die deutsch sychronisierte Version ist einen Tacken lauter im Dialog (das ist, nebenbei, ziemlich typisch für deutsche Synchros):

Bildschirmfoto 2021-01-24 um 15.17.00.png
LUFS/LEQ(m) dagegen (über alle Kanäle und den gesamten Trailer) liegt etwa 1dB höher beim englischsprachigen Original. Auch das ist relativ typisch. Die Deutschen legen etwas mehr Wert auf Sprachverständlichkeit, und die Aufnahmeumstände im Synchronstudio tun das Ihre dazu.



Antwort von Frank Glencairn:

carstenkurz hat geschrieben:

Es ist extrem einfach geworden, ein gut aussehendes DCP aus üblichem rec.709 Material herzustellen. Man darf halt nicht an Parametern drehen, die man nicht wirklich versteht. Wenn das Master in rec.709 gut aussieht, wird es auch das DCP tun.

Die Stimme der Vernunft, wie immer - danke Carsten.

Ihr macht euch IMHO über die falschen Sachen einen Kopf.
100%ig für Kino graden kann man sowieso nur in einem Kino (oder wenigstens mit einem Kinoprojektor), Projektion (reflektiertes Bild) in einem dunklen Raum ist halt doch was anderes, als ein selbstleuchtender Monitor - alles andere ist Wunschdenken, vor allem die Vorstellung an einem 8 BitBit im Glossar erklärt Computermonitor zu irgendwelchen vernünftigen Ergebnissen zu kommen, weil man zu geizig ist, die paar Euro für eine billige BM Mini.Monitor Box auszugeben, und für einen halbwegs kalibrierbaren 10 BitBit im Glossar erklärt (ja, echte 10 Bit) Vorschaumonitor. Und nein - irgendwelche Consumer Beamer tun's auch nicht.

Allerdings kann man auch mit nem vernünftigen und einigermaßen preiswerten Home Setup gut genug hinkommen. Die letzten 10% braucht hier sowieso keiner.

In a nut shell: 10 bit Vorschau Monitor an BM I/O Box/Karte - auf rec709 kalibriert (Gama 2.4) > Film graden > aus Resolve als DCP ausgeben > fertig. Im Idealfall mal ein paar kritische Testsequenzen und Color-Bars raus rechnen, und mit nem Stick und nem 6-Pack Bier (für den Vorführer) im Kino eurer Wahl aufschlagen und ausprobieren = peace of mind.



Antwort von dienstag_01:

"Frank Glencairn" hat geschrieben:
carstenkurz hat geschrieben:

Es ist extrem einfach geworden, ein gut aussehendes DCP aus üblichem rec.709 Material herzustellen. Man darf halt nicht an Parametern drehen, die man nicht wirklich versteht. Wenn das Master in rec.709 gut aussieht, wird es auch das DCP tun.

Die Stimme der Vernunft, wie immer - danke Carsten.

Ihr macht euch IMHO über die falschen Sachen einen Kopf.
100%ig für Kino graden kann man sowieso nur in einem Kino (oder wenigstens mit einem Kinoprojektor), Projektion (reflektiertes Bild) in einem dunklen Raum ist halt doch was anderes, als ein selbstleuchtender Monitor - alles andere ist Wunschdenken, vor allem die Vorstellung an einem 8 BitBit im Glossar erklärt Computermonitor zu irgendwelchen vernünftigen Ergebnissen zu kommen, weil man zu geizig ist, die paar Euro für eine billige BM Mini.Monitor Box auszugeben, und für einen halbwegs kalibrierbaren 10 BitBit im Glossar erklärt (ja, echte 10 Bit) Vorschaumonitor. Und nein - irgendwelche Consumer Beamer tun's auch nicht.

Allerdings kann man auch mit nem vernünftigen und einigermaßen preiswerten Home Setup gut genug hinkommen. Die letzten 10% braucht hier sowieso keiner.

In a nut shell: 10 bit Vorschau Monitor an BM I/O Box/Karte - auf rec709 kalibriert (Gama 2.4) > Film graden > aus Resolve als DCP ausgeben > fertig. Im Idealfall mal ein paar kritische Testsequenzen und Color-Bars raus rechnen, und mit nem Stick und nem 6-Pack Bier (für den Vorführer) im Kino eurer Wahl aufschlagen und ausprobieren = peace of mind.
Heißt das, dass 10bit ohne Monitoring Card aus Resolve sowieso nicht geht? Ich kann es leider nicht selber testen.



Antwort von carstenkurz:

Das würde ich nicht so sehen. Im Grunde ist 10 BitBit im Glossar erklärt vs. 8 BitBit im Glossar erklärt dabei aus meiner Sicht egal. Der Vorteil einer BM Video-Outlösung in Kombination mit Resolve ist, dass Du ziemlich sicher sein kannst, dass dir kein OS Farbmanagement oder AMD/NVIDIA/Intel Grafikkartenkonfigurationstool dazwischen pfuscht. Sowohl was die Farben, als auch 8/10 BitBit im Glossar erklärt Modus angeht.

Ich fände es ja gut, wenn ein Moderator sich die Mühe machen könnte, diesen Thread aufzuteilen - in die Anteile, die sich auf die DCP-Konvertierung beziehen, und die, die sich mit Monitoring, Farbräumen, etc. in Resolve befassen. Ich weiss, das ist mühevoll, aber müsste noch gehen. Wie man Resolve bewusst und verifizierbar so konfiguriert, dass man über seinen normalen Computermonitor oder alternativ über eine Video-Out Lösung farbverbindlich monitoren/graden kann, das ist sicher einen eigenen Thread wert, wenn nicht mehrere.



Antwort von roki100:

"Frank Glencairn" hat geschrieben:
weil man zu geizig ist, die paar Euro für eine billige BM Mini.Monitor Box auszugeben
Kann der Bildschirm von Blackmagic Video Assist 5" 3G 10Bit?



Antwort von mash_gh4:

"Frank Glencairn" hat geschrieben:
carstenkurz hat geschrieben:

Es ist extrem einfach geworden, ein gut aussehendes DCP aus üblichem rec.709 Material herzustellen. Man darf halt nicht an Parametern drehen, die man nicht wirklich versteht. Wenn das Master in rec.709 gut aussieht, wird es auch das DCP tun.
Die Stimme der Vernunft, wie immer - danke Carsten.

Ihr macht euch IMHO über die falschen Sachen einen Kopf.
100%ig für Kino graden kann man sowieso nur in einem Kino (oder wenigstens mit einem Kinoprojektor), Projektion (reflektiertes Bild) in einem dunklen Raum ist halt doch was anderes, als ein selbstleuchtender Monitor - alles andere ist Wunschdenken, vor allem die Vorstellung an einem 8 BitBit im Glossar erklärt Computermonitor zu irgendwelchen vernünftigen Ergebnissen zu kommen, weil man zu geizig ist, die paar Euro für eine billige BM Mini.Monitor Box auszugeben, und für einen halbwegs kalibrierbaren 10 BitBit im Glossar erklärt (ja, echte 10 Bit) Vorschaumonitor. Und nein - irgendwelche Consumer Beamer tun's auch nicht.

Allerdings kann man auch mit nem vernünftigen und einigermaßen preiswerten Home Setup gut genug hinkommen. Die letzten 10% braucht hier sowieso keiner.

In a nut shell: 10 bit Vorschau Monitor an BM I/O Box/Karte - auf rec709 kalibriert (Gama 2.4) > Film graden > aus Resolve als DCP ausgeben > fertig. Im Idealfall mal ein paar kritische Testsequenzen und Color-Bars raus rechnen, und mit nem Stick und nem 6-Pack Bier (für den Vorführer) im Kino eurer Wahl aufschlagen und ausprobieren = peace of mind.
in den meisten punkten geb ich dir da natürlich vollkommen recht, nur die geschichte mit der sinnhaftigkeit dieser wunderkarten halte ich weiterhin für einen weitestgehend unhaltbaren aberglauben.

die schickt in wahrheit auch weiterhin nur ganz genau die selben daten bzw. seriell encodierten "zahlenwerte" über die leitung, die eben SDISDI im Glossar erklärt, HDMIHDMI im Glossar erklärt od. noch besser DP in den einzelnen farbkanälen vorsieht -- ganze genau gleich, wie es auch andere gebräuchliche grafikkarten tun würden. wenn es dabei probleme gibt bzw. eben nicht die gewünschten "werte" ausgegeben od. angezeigt werden, ist das viel eher ein problem auf seiten der verwendeten software, der kalibrierung od. völlig unpassenden einstellungen am angeschlossenen gerät, nicht aber unbedingt der ausgabedevices.

aber gut -- das kann man x-mal ganz vernünftig durchzuargumentieren versuchen, die BMD werbemaschinerie wird trotzdem die oberhand behalten.

so gesehen kann man wirklich nur darauf hoffen, dass der oberverkäufer der betreffenden marke auch in den zukünftigen produktpräsentationen immer selbstverständlicher am laptop herumwerkelt, begeistert eine roten kopf auf einer schicken zusatztastatur drückt, und dabei irgendwas von full-screen-preview(!") daherschwärmt -- etwas, dass er offenbar noch immer nicht so recht zu fassen vermag --, damit in weiterer folge auch die umgebende gemeinschaft der unkritisch "gläubigen" ganz langsam ihre traditionspflege an die geänderte gegebenheiten bzw. anforderungen anpasst.



Antwort von carstenkurz:

Da hast Du Recht, auf Signalebene macht das keinen Unterschied. Ein HDMIHDMI im Glossar erklärt mit rec.709/1080/50p limited range über die BM Videooutkarte ist exakt das gleiche wie aus der Grafikkarte. Ein paar für die Inhalte irrelevante Statusbits mögen sich unterscheiden, aber, das interessiert nicht.

Nur - bei der BM Decklink entscheidet ausschließlich BM/Resolve, was für Daten auf die Leitung gehen, beim Grafikkartenausgang pfuscht ggfs. das Betriebssystem/Farbmanagement, die jeweils verwendete Treiberebene und eventuell noch das grafikkartenspezifische Konfigurationstool dazwischen.

Ich halte es aber mal für sehr schwierig sicherzustellen, dass man z.B. aus Resolve ein 10Bit Vorschausignal über eine Grafikkarte rauskriegt, von etwaigen Unterschieden bei den Treiberversionen etc. mal ganz zu schweigen. Diese Unsicherheit hast Du bei einer Decklink nicht. Du wechselst von WIN7 auf WIN10 und kaufst dir eine neue/schnellere GPU. Oder Billy Gates' Epigonen versauen in irgendeinem aufgezwungenen WIN10 Update das Farbmanagement, den Grafikkartentreiber oder eines der endlosen Gaming/Videoframeworks. Beeinflusst deine Decklink Monitoringlösung überhaupt nicht. Im Grunde das 'alles aus einer Hand' Argument. Und das Geld ist doch wurscht bei den Preisen für die elementaren Decklinks, GPUs kosten ein Vielfaches davon, die Decklink kann man vergleichsweise lange nutzen.

Wer es genau wissen will, klemmt den Monitor mal an beide Lösungen und vergleicht.

Als man früher tatsächlich auch noch aus diesen Karten ausgespielt hat auf MAZ, spielte auch korrektes Interlacing/field order noch ne Rolle. Das ist ja glücklicherweise heutzutage kaum mehr relevant.



Antwort von Jörg:

uf einer schicken zusatztastatur drückt, und dabei irgendwas von full-screen-preview(!") daherschwärmt
ganz ehrlich; ich bin hochzufrieden, jetzt endlich den clean feed als fullscreen nebenher
laufen zu lassen ;-)



Antwort von mash_gh4:

carstenkurz hat geschrieben:
Der Vorteil einer BM Video-Outlösung in Kombination mit Resolve ist, dass Du ziemlich sicher sein kannst, dass dir kein OS Farbmanagement oder AMD/NVIDIA/Intel Grafikkartenkonfigurationstool dazwischen pfuscht. Sowohl was die Farben, als auch 8/10 BitBit im Glossar erklärt Modus angeht.
seltsamerweise besteht das problem in der praxis meist eher darin, dass genau jene mittel, die man für eine möglichst schnelle direkte ausgabe der videoanzeige nutzt -- also OpenGL od.ä. -- im gegesatz zu anderen GUI-teilen im normalfall nicht vom systemweiten Farbmanagement direkt kontrolliert bzw. korrigiert werden. das ist od. war zumindest bis vor kurzem auf mac, windows und linux überall sehr ähnlich. am mac können sich halt programme vom betriebssystem recht einfach ein paar hinweise bzgl. der notwendigen farbumwandlungen holen, die aber das programm selbst erledigen muss. unter linux od. windows nutzt man dafür in der regel div. colormanagment-libraries innerhalb der programme.

aber was die ausgabe selbst angeht, macht's wirklich keinen unterschied, wie die werte zw. 0 und maximum ans gegenüber geschickt werden. das ist durch die verwendeten übertragungsprotokolle ohnehin weitestgehgend vorgegeben.

ein schlechter od. unkalibrierter monitor wird auch an einer solchen karte kein brauchbares arbeiten erlauben, und ein guter im normalfall einfach genau das selbe wie an einer gebräuchlichen GPU anzeigen -- so fern es die verwendete software erlaubt.



Antwort von cantsin:

Also, nochmal so wie mir das die beiden freundlichen indischen Herren (=Resolve-Chefentwickler) auf der IBC 2019 erklärt haben:

Wenn man, zumindest unter Windows und Linux, die interne Display-Ausgabe von Resolve auf sRGB stellt, gibt das Programm via Betriebssystem-Routinen auf der GUI-Vorschau ein sRGB-Videosignal 'raus, bei dem dann alle betriebssystemseitigen Kalibrierungen (auch Software-Kalibrierungen mit X-Rite/Spyder-Colorimetern, mit DisplayCal etc.) greifen, aber dann eben als Korrekturen bzw. Feintuning von sRGB.

Wenn man etwas anderes als sRGB als Ausgabe einstellt, denkt das Betriebssystem immer noch, dass es sich um sRGB handelt und wendet seine entsprechendenden Profile/Kalibrierungen darauf an, was dann Salat zur Folge hat. Und ob man's glaubt oder nicht, Linux und Windows können auf Betriebssystemebene nicht mehr als sRGB (mit der Ausnahme, dass Windows 10 jetzt auch Consumer-HDR kann, aber auch nur mit Verrenkungen, äußerst unklar dokumentiert, und bisher nicht kompatibel mit Colorimeter-Kalibrierung).



Antwort von roki100:

Ich wusste! Das Jörg meine Videos nicht als cinematisch sieht, sondern Farben Geschmiere, liegt an seinem Windows und er hat sein Bildschirm in Salat kalibriert!

;)



Antwort von Darth Schneider:

@roki
8Bit oder 10Bit, spielt das wirklich eine Rolle ? Jetzt für die Bildkontrolle, wenn man eh nicht wirklich Ahnung hat...
Wenn der Film mit 8 BitBit im Glossar erklärt mit Rec709 auf einem Monitor gut aussieht wird er mit 10 BitBit im Glossar erklärt auch nicht schlechter aussehen.
Gruss Boris



Antwort von dienstag_01:

cantsin hat geschrieben:
Also, nochmal so wie mir das die beiden freundlichen indischen Herren (=Resolve-Chefentwickler) auf der IBC 2019 erklärt haben:

Wenn man, zumindest unter Windows und Linux, die interne Display-Ausgabe von Resolve auf sRGB stellt, gibt das Programm via Betriebssystem-Routinen auf der GUI-Vorschau ein sRGB-Videosignal 'raus, bei dem dann alle betriebssystemseitigen Kalibrierungen (auch Software-Kalibrierungen mit X-Rite/Spyder-Colorimetern, mit DisplayCal etc.) greifen, aber dann eben als Korrekturen bzw. Feintuning von sRGB.

Wenn man etwas anderes als sRGB als Ausgabe einstellt, denkt das Betriebssystem immer noch, dass es sich um sRGB handelt und wendet seine entsprechendenden Profile/Kalibrierungen darauf an, was dann Salat zur Folge hat. Und ob man's glaubt oder nicht, Linux und Windows können auf Betriebssystemebene nicht mehr als sRGB (mit der Ausnahme, dass Windows 10 jetzt auch Consumer-HDR kann, aber auch nur mit Verrenkungen, äußerst unklar dokumentiert, und bisher nicht kompatibel mit Colorimeter-Kalibrierung).
Nachdem ich mich etwas im Handbuch belesen habe, die Aussage gilt auf jeden Fall nicht für Resolve bis Version 16, da steht das Gegenteil. Die nächste ist eine Beta und das Handbuch noch nicht da.



Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
8Bit oder 10Bit, spielt das wirklich eine Rolle ? Jetzt für die Bildkontrolle, wenn man eh nicht wirklich Ahnung hat...
Wenn der Film mit 8 BitBit im Glossar erklärt auf einem Monitor gut aussieht wird er mit 10 BitBit im Glossar erklärt auch nicht schlechter aussehen.
Gruss Boris
Genau. Beispiel:

https://www.youtube.com/watch?v=q6DgfoepawY

Man sieht auf 8Bit Bildschirm, warum 10Bit besser ist ;)



Antwort von Darth Schneider:

Eben, darum finde ich Franks Idee mit den Colorbars und dem Kasten Bier für den Kinobetreiber eine sehr effektive, Ressourcen, zeitsparende und kostengünstige Idee.
Dann sieht man, im Kino was Sache ist und kann schnell darauf reagieren. ;)
Gruss Boris



Antwort von cantsin:

"Darth Schneider" hat geschrieben:
8Bit oder 10Bit, spielt das wirklich eine Rolle ? Jetzt für die Bildkontrolle, wenn man eh nicht wirklich Ahnung hat...
Das spielt am Monitor weniger eine Rolle. Eine größere Rolle spielen aber die Farbräume, die unabhängig von der 8 oder 10bit-Quantisierung existieren. Man kann die sich einfach als Ölfarbpaletten vorstellen. sRGB und Rec709 haben eine relativ begrenzte Palette, P3 und Rec2020 eine deutlich größere.

Mit der richtigen Kamera (die entweder RAW oder in größeren Farbräumen als Rec709 aufnehmen kann) bzw. dem richtigen Videomaterial und dem richtigen Monitor (der mehr als Rec709/sRGB darstellen kann, wie z.B. die aktuellen Apple Macbook-Displays, die P3 weitgehend abgdecken) kann man dann Farbunterschiede sehen, die in Rec709 oder sRGB nicht mehr sichtbar sind. Also z.B. kann ein Feuer in P3 oder Rec2020 Rot- und Orangetöne enthalten, die unter sRGB/Rec709 nicht mehr differenziert werden (und zwar unabhängig von 8 oder 10 bit). Bei sRGB/Rec709 hört Rot sozusagen früher auf, bzw. übersteuert früher. (Das auch eine Form von Dynamikumfang, nur eben bezogen auf die Chroma-Information.)

Bei einem idealen Farb-Workflow für DCP würde man also ein Projekt bereits in P3 graden und auch am Bildschirm in P3 begutachten. In der Realität funktioniert das nicht so einfach - zumindest nicht mit heutigen Computerbordmitteln und ohne richtig teures Vorschauequipment. Daher von Carsten die Empfehlung, sich nicht daran aufzuhängen, sondern alles im heute wenigstens funktionierenden sRGB/Rec709-Workflow und -Farbraum zu graden und finishen, auch wenn das Ziel eine DCP (mit P3-Farbraum) ist.



Antwort von dienstag_01:

Weil meine Frage nach dem 10bit Monitoring noch nicht beantwortet wurde, das kann man mit einem entsprechenden Testbild testen. Wenn das System prinzipiell 10bit ausgeben kann.

Link zum Download:
https://imagescience.com.au/knowledge/1 ... ut-support



Antwort von Darth Schneider:

Der absolut aller beste Monitor für einen Film der im Kino gezeigt wird, finde ich, ist ganz einfach, wenn es um das Master geht ein Kino.
Das kann man drehen und wenden wie man will.
Alles andere ist, zumindest für mich fast wie Religion...Glauben macht selig.
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Eben, darum finde ich Franks Idee mit den Colorbars und dem Kasten Bier für den Kinobetreiber eine sehr effektive, Ressourcen, zeitsparende und kostengünstige Idee.
Dann sieht man, im Kino was Sache ist und kann schnell darauf reagieren. ;)
Gruss Boris
und hier graden vll. 2 Leute für Kino...iasi sowieso.



Antwort von mash_gh4:

cantsin hat geschrieben:
Wenn man etwas anderes als sRGB als Ausgabe einstellt, denkt das Betriebssystem immer noch, dass es sich um sRGB handelt und wendet seine entsprechendenden Profile/Kalibrierungen darauf an, was dann Salat zur Folge hat. Und ob man's glaubt oder nicht, Linux und Windows können auf Betriebssystemebene nicht mehr als sRGB (mit der Ausnahme, dass Windows 10 jetzt auch Consumer-HDR kann, aber auch nur mit Verrenkungen, äußerst unklar dokumentiert, und bisher nicht kompatibel mit Colorimeter-Kalibrierung).
im gegensatz zu den macs, wo das tatsächlich viel besser ins system integriert ist, werden komplexere farbanpassungen unter linux hauptsächlich von den anwendungen selbst und nicht von X11 od. wayland erledigt. das ist insofern nicht ganz unproblematisch, weil u.u. einfacherer formen der anpassung auch auf der ebene darunter wirksam sein könnten. aber wie gesagt, mit OpenGL oder Vulkan rendert man im regelfall ungestört daran vorbei.

das eigentliche farbmanagment erledigt man innerhalb jener programmen, die das wirklich sauber unterstützen, mit hilfe von littlecms od.ä. dort greift man dann zwar auf die systemweit installierten profile der endgeräte zu, rechnet aber die notwendigen anpassungen für die ausgabe innerhalb der applikation unabhängig durch. so etwa funktioniert das bspw. im darktable -- und das ist natürlich keineswegs auf den sRGB farbraum bzw. traditionelle computerbildschirme beschänkt.

problematischer als am mac wirkt sich die ganze geschichte halt insofern aus, als wirklich nur sehr wenige programme sich um diese feinheiten kümmern, während die anderen bzw. die "normale" darstellung auf angeschlossenen wide gamut schirmen nicht unbedingt sehr befriedigend ausfällt bzw. eben überhaupt ziemlich große unterschiede zw. den anwendungen und redundante konfigurationserfordernisse einem das leben nicht unebedingt leichter machen. trotzdem, die paar ernsthafteren grafikanwendungen kommen damit in der regel durchaus klar -- ganz ähnlich wie das auch unter windows der fall ist.



Antwort von Frank Glencairn:

carstenkurz hat geschrieben:

Nur - bei der BM Decklink entscheidet ausschließlich BM/Resolve, was für Daten auf die Leitung gehen, beim Grafikkartenausgang pfuscht ggfs. das Betriebssystem/Farbmanagement, die jeweils verwendete Treiberebene und eventuell noch das grafikkartenspezifische Konfigurationstool dazwischen.

Da hast du völlig recht - Closed Loop ist hier das Zauberwort.
Immer zuverlässig die selben konsistenten Bedingungen, unabhängig von irgendwelchen OS/Ttreiber/ColorMangagement etc.



Antwort von Darth Schneider:

@roki
Ich frage mal nach, bei der Kantonspolizei, ob ich die zwei Kinospots hochladen darf die ich damals fürs Kino produzieren, das ganze geleitet und auch mit umsetzen durfte.
Nicht das ich damit angeben möchte, war auch wirklich nix besonderes.
Aber einfach mal grundsätzlich.
Ich habe auch keine Ahnung was jasi so dreht...Du schon ?
Gruss Boris



Antwort von roki100:

"Darth Schneider" hat geschrieben:
Ich habe auch keine Ahnung was jasi so dreht...Du schon ?
Baltische Kinofilme ab 00 Uhr und +18 fürs Kino....in DE festangestellter Kameramann bei Beate Uhse.



Antwort von Darth Schneider:

Komm jetzt, das ist irgendwie böse, wir wissen das doch gar nicht, und wenn es so wäre ?
Vielleicht verdient er sich dumm und dämlich davon...
Oder er dreht etwas ganz anderes, das er uns einfach nicht zeigen will, oder nicht zeigen darf...
Egal, das gilt es zu respektieren.
Gruss Boris



Antwort von roki100:

Böse? Heute ist doch Sonntag und man kann doch mal ehrlich sein. Ich glaube schon das iasi professionell dreht. Und ich respektiere ihn.



Antwort von carstenkurz:

"Darth Schneider" hat geschrieben:
Eben, darum finde ich Franks Idee mit den Colorbars und dem Kasten Bier für den Kinobetreiber eine sehr effektive, Ressourcen, zeitsparende und kostengünstige Idee.
Dann sieht man, im Kino was Sache ist und kann schnell darauf reagieren. ;)
P3 ist nicht auf Kinoprojektoren beschränkt. Es gibt auch Nicht-DCI Projektoren, die P3 unterstützen. Das sind zugegebenermaßen keine preiswerten Heimkinogeräte, aber natürlich immer noch deutlich preiswerter als DCI-Projektoren.

Nebenbei gibt es ja zunehmend Geräte mit Rec.2020 Unterstützung. Die sind, weil es zunehmend UHD Konsumentenware gibt, ja auch im Idealfall dazu in der Lage, den P3 Farbraum 'zu überdecken'. Vom grundsätzlichen her müsste man auch mit einem kalibrierbaren UHD Display oder Projektor 'korrekt' P3 darstellen können. Aber garantiert nur über Resolve und eine BMD Video-Out Karte. Und ich wüsste auch momentan nicht, wie man das dem Setup verifizierbar beibringt. Die Konvertierung eines BT.2020 Signals via XYZ fürs DCP in P3 unter Beachtung der Farbraumlimits wäre auch so ein Thema dabei. Das müsste man dem Monitorkanalhandling von Resolve überlassen.

Der Test im Kino gibt einem allerdings auch Sicherheit was den Ton angeht.



Antwort von XHA1:

carstenkurz hat geschrieben:
XHA1 hat geschrieben:
Ich habe explizit nach dem level vom Dialog
gefragt, denn nach ihm richtet sich bei der wiedergabe, ob die Biene wispert oder die Bombe knallt.
Ich gehe weiterhin von -27dB LufS aus.

LUFS ist kein Level, sondern eine Lautheit über das gesamte Programm. Wenn Du einen Dialoglevel spezifizieren willst, hast Du den in dBFS RMS anzugeben ('Durchschnittspegel bezogen auf Vollaussteuerung/FullScale').

Nicht übelnehmen, aber wenn Du nach Zahlen fragst, musst Du wissen was sie bedeuten. Und da es 'Dialog' heisst, kann man den auch nur segmentweise auf typische Dialogpassagen in 'normaler Unterhaltungslauttärke' beziehen, nicht auf das komplette Video. Ein 'Flüstern' liegt natürlich dann konsequenterweise drunter, und ein 'Streit' drüber.

-20dBFS (RMS) sollten Dialogpassagen im Kino haben. Das ist ein Zielkorridor, keine Norm!

Das hier ist der Centerkanal des englischsprachigen Original Kino (DCP) Trailers von StarWars 8:


Bildschirmfoto 2021-01-24 um 15.07.17.png

Das ist eine RMS Kurve, eine Mittelung. Nicht mit Peakwerten verwechseln! Die gehen bis fast 0 rauf.

Die deutsch sychronisierte Version ist einen Tacken lauter im Dialog (das ist, nebenbei, ziemlich typisch für deutsche Synchros):


Bildschirmfoto 2021-01-24 um 15.17.00.png


LUFS/LEQ(m) dagegen (über alle Kanäle und den gesamten Trailer) liegt etwa 1dB höher beim englischsprachigen Original. Auch das ist relativ typisch. Die Deutschen legen etwas mehr Wert auf Sprachverständlichkeit, und die Aufnahmeumstände im Synchronstudio tun das Ihre dazu.
LufS. Gerade wegen zu lauter Trailer,
welche in den Kinos runtergedreht werden.

https://www.pro-tools-expert.com/home-p ... nema-sound



Antwort von carstenkurz:

LUFS hat im Kino keine Berechtigung, da ist LEQ(m) verbindlich.
LUFS kann man als Lautheitshilfsvehikel verwenden, wenn die zur Bearbeitung oder Beurteilung verwendete Anwendung LEQ(m) nicht kann. Dann muss man aber weg von der Broadcast-Norm von -23 LUFS - das ist im Kino zu leise. Ein Kino ist kein Wohnzimmer.

Whatever - es hat nichts mit Dialoglevel zu tun.

Wie an anderer Stelle schon gesagt - Lautheit im Kino ist ein enorm komplexes Thema - aber aus meiner täglichen Praxis (gut, seit Anfang November, oder 'derzeit,' nicht mehr wirklich täglich) bedeutet 'komplex' nicht, dass es auch problematisch ist. Wir spielen Trailer und Werbung wie jedes andere Kino auch, leiser als den Hauptfilm. Das tut niemandem weh. Aber wenn man was fürs Kino pegelt, sollte man halt mitdenken, ob es im Vor- oder Hauptprogramm gespielt wird. Und wenn bei uns mal was Zugeliefertes grob daneben liegt, kriegt es entweder einen eigenen Volume-Cue in der Playliste, oder ich remastere es lauter oder leiser, damit es konsistent mit dem davor und dahinter ist.



Antwort von XHA1:

CarstenKurz, in dem Artikel reden die Muschtonmeister praktisch nur von LufS, um genau dem
entgegenzuwirken, was du beschreibst.
Du kannst ja gerne im (d)einem Kino an den leveln schrauben, und dir unnötig arbeit machen. Ich bin aber auf ein Festival eingeladen, dass eine Grosstadt
bespielt, Premiere in Kino A, Wiederholung
in Kino B, anderes Haus, anderer Stadteil.
Bespassung der Kinos meines Wissens sogar
vom zentralen Server. Da hat keiner Zeit, am DCP zu wurschteln oder zur not am Regler rumspielen.



Antwort von dienstag_01:

XHA1 hat geschrieben:
CarstenKurz, in dem Artikel reden die Muschtonmeister praktisch nur von LufS, um genau dem
entgegenzuwirken, was du beschreibst.
Du kannst ja gerne im (d)einem Kino an den leveln schrauben, und dir unnötig arbeit machen. Ich bin aber auf ein Festival eingeladen, dass eine Grosstadt
bespielt, Premiere in Kino A, Wiederholung
in Kino B, anderes Haus, anderer Stadteil.
Bespassung der Kinos meines Wissens sogar
vom zentralen Server. Da hat keiner Zeit, am DCP zu wurschteln oder zur not am Regler rumspielen.
Wenn es ein halbwegs ordentliches Festival ist, stellen die sich schon so gut es geht auf die einzelnen Beiträge ein.
Diese Probleme sind nämlich nicht neu für die, ganz im Gegenteil ;)

Edit: Manchmal hilft es auch, sich den Lautstärkeregler im Saal zeigen zu lassen ;)



Antwort von carstenkurz:

XHA1 hat geschrieben:
CarstenKurz, in dem Artikel reden die Muschtonmeister praktisch nur von LufS, um genau dem
Also, erstens mal heisst es LUFS, nicht LufS.

Hier ist die Norm, in der der Begriff respektive die Abkürzung definiert wird: https://tech.ebu.ch/docs/r/r128.pdf

Und es kommt ausnahmsweise mal ohne dB - es heisst nicht, -20dB LufS, sondern schlicht -20 LUFS. dB macht dort keinen Sinn.

Und zweitens dürfen Mischtonmeister solange von LUFS reden, wie das, was sie da tun, nicht im Kino läuft sondern 'Broadcast', 'Streaming', oder 'Web' ist. Im Kino 'gilt' LEQ(m). Den von dir verlinkten Artikel hast Du nicht verstanden, sonst würdest Du nicht von -27 LUFS reden. Die Kernaussage dort ist: 'The average playback level for movies mastered at '5' is -20 LUFS'
Die meisten Kinos spielen um '5' herum. Daher ist die jetzt mehrfach von mir angegebene hilfsweise Ansteuerung von -20 LUFS die einzig Richtige um innerhalb eines passenden Zielkorridors im Kino zu landen. -27 LUFS ist deutlich zu leise, mehr als 6dB nämlich. Es sei denn eben es ist eine Meditation über Bienchen auf der Wiese oder das Liebesleben der Bäume, dann könnte das hinkommen.

Das hier ist der deutsche Kino-Trailer von 'Die Verlegerin'. Nicht gerade ein Actionstreifen, eher ein 'Laberfilm'. Der kommt auf -16LUFS raus. Viel Spaß mit 11dB weniger im Kino...

Bildschirmfoto 2021-01-25 um 13.00.47.png
Drittens und zum letzten Mal, hast Du von Dialoglevel gesprochen. Den definiert man weder in LUFS, noch in LufS, sondern in dBFS(RMS). Wenn Du nicht verstehst, und ich habe es deutlich genug erklärt, warum man einen Dialoglevel nicht in LUFS angeben kann, gehst Du besser zu einem guten Dienstleister und lässt es erledigen.



Antwort von XHA1:

Tja, CarstenKurz,
selbst die Berlinale - denn dort laufe ich- kommuniziert in LUFS.
Ich wusste gar nicht, dass die seit 1951 von Mischtonmeistern betrieben wird.
Von daher, wohl als zweiter Forennutzer überhaupt seit dem bestehen von Slashcam,
und wahrscheinlich als erster Forennutzer mit einem abendfüllenden Werk,
geht mir deine Erbesenzählerei am Arsch vorbei, ob die dB mit angegebenen werden oder nicht
ob es sich wie "Level under full Scale" schreibt oder nicht .

Eine Erbsenzählereiei übrigens, der ich in englischsprachigen Foren wie gearslutz nicht antreffe.

Und deine Trailer bleiben Mumpitz, weil die viel zu laut gemischt sind.

Einen professionellen 5.1 Mix behalte ich mir vor, meine Stems sind ja entspreched vorgemischt.
wenn es Interessenten auf dem online stattfindenden EFM vom 1-5 März gibt- der Upload der Stereoversion läuft gerade, während ich dies tippe - fällt die Investition leichter. Für die Kinokopie ist noch etwas Zeit.
Denn der Film war und ist aus meiner eigenen Tasche finanziert, als One-Man-Show gemacht und hat es ohne jede
Institution im Rücken "geschafft" - bei übrigens 10% mehr Einreichungen im Coronajahr 2020.



Antwort von carstenkurz:

Es ist nicht verboten in LUFS zu kommunizieren. Aber nur da, wo LUFS Sinn macht. Und das macht es bei Dialogpegeln halt nicht.

Im Übrigen steht in den Techspecs der Belinale überhaupt nichts zu Pegeln, weder in LUFS noch LEQ(m). Das hat auch gute Gründe - es gibt nirgendwo irgendeine Norm, die dir vorschreibt, wie laut oder leise ein Feature- oder Shortmix sein muss. Es gibt bestenfalls Empfehlungen.
Solche strikten max LEQ(m) Vorgaben gibt es nur für Werbung und Trailer.

Ja, die Trailer sind durchweg laut (nicht ZU laut, sie liegen genau auf Spec) abgemischt. Deswegen habe ich dir auch einen Dialogpegel von -20dBFS RMS für Dialog empfohlen, und nicht -16dBFS RMS wie in diesen Trailern.

Es ist ja dir selbst überlassen, wie du eine Werke masterst. Aber dann solltest Du nicht in öffentlichen Foren irgendeinen Mist über normierte Lautstärken erzählen sondern bei deiner rein subjektiven Sicht bleiben. Wen Fakten nicht interessieren, der sollte auch keine normierten Einheiten verwenden. Foren sind nicht zur Desinformation da.



Antwort von Drushba:

XHA1 hat geschrieben:
Tja, CarstenKurz,
selbst die Berlinale - denn dort laufe ich- kommuniziert in LUFS.
Ich wusste gar nicht, dass die seit 1951 von Mischtonmeistern betrieben wird.
Von daher, wohl als zweiter Forennutzer überhaupt seit dem bestehen von Slashcam,
und wahrscheinlich als erster Forennutzer mit einem abendfüllenden Werk,
geht mir deine Erbesenzählerei am Arsch vorbei, ob die dB mit angegebenen werden oder nicht
ob es sich wie "Level under full Scale" schreibt oder nicht .
Achgottchen, wie wichtig. Du bist nicht der Einzige in diesem Forum, der mal was auf der Berlinale laufen hatte, aber eventuell der Einzige hier, der sich dermassen was drauf einbildet. ;-)
Bashe ja ansonsten nur Coronaleugner, aber selbst unter denen gibts hier einige, die was Abendfüllendes produziert haben (wofür diese auch meine rein filmische Anerkennung erhalten, unabhängig von dem Stuss, den sie sonst textlich fabrizieren...))

Zum Thema: Ich denke das Abmischen und DCP-Erstellen sollte man nicht nur für A-Festivals (und deren Nachspielern) IMHO lieber Profis überlassen. Kostet nicht die Welt und lässt bedeutend ruhiger in die Vorstellung gehen. )



Antwort von XHA1:

Eure Masse an Postings lässt nicht vermuten,
dass ihr viel hinter der Kamera steht oder konzentriert
lange Projekte schneidet.

Sorry, dass ich mir so viel darauf einbilde!
Da gehen einem schon mal die Pferde durch,
wenn man vorher immer nur als Schnittmeister eingeladen war...



Antwort von Drushba:

XHA1 hat geschrieben:
Eure Masse an Postings lässt nicht vermuten,
dass ihr viel hinter der Kamera steht oder konzentriert
lange Projekte schneidet.
Finanzierungsdauer Dokfilm: 3-9 Monate
Finanzierungsdauer Spielfilm: 9-24 Monate.
Drehbuchschreiben Dokfilm: 6 Wochen
Drehbuchschreiben Spielfilm: 1 Jahr

Viel Leerlauf = viele Postings. Dazwischen sollte man aber einfach mal (mehr) was aus der Hüfte machen, das stimmt. ;-) Meinen Glückwunsch wenn Du es so hinbekommen hast!



Antwort von XHA1:

Ich sehe schon, aus den Zeitangaben spricht sehr viel persönliche Erfahrung...




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen:
Film in DCP umwandeln mit DCP o Matic?
Wie mehrere Timelines eines Projekts in ein File rendern?
Kabel TV Eingang ( analog) in digital umwandeln ???
RED Digital Cinema MONSTRO 8K VV am Horizont
Xinegear wird zertifiziertes RED Digital Cinema Service Center in Berlin
ARRI Software Update Package (SUP) 5.0 für AMIRA Kameras verfügbar
Wie erstelle ich DCP?
Bester Codec für DCP
Scope DCP im Kino - Ränder angeschnitten
Frage: dcp export fürs Kino
DCP - Für Filmfestival Standbild zwischen Filmen
Blackmagic Pocket Cinema 6K - Mehr Pixel, weniger Cinema?
Best Practice für Audio bei FCPX und DCP Erzeugung
16:9 in 4:3 umwandeln
Mpg umwandeln DVD
MPEG2 in DIVX umwandeln
MPEG1 in MPEG2 umwandeln?
DVB-T Aufnahme umwandeln
h.264 in DNxHD umwandeln?
wmv umwandeln in DivX
NTSC in PAL umwandeln ?
Quicktime mod in avi umwandeln?
Video umwandeln auf Mac
40 GB AVI File wie umwandeln?
4K Video und Full HD umwandeln
AVI-Datei in SVCD umwandeln

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom