WoWu hat geschrieben: ↑Sa 15 Sep, 2018 22:37
Ich bin mal gespannt, wie viele andere Hersteller da wirklich mitziehen, denn durch diese Prozessaufspaltung würde ja tatsächlich ein Teil ins NLE wandern und das Signal damit ziemlich proprietäre machen und was die Metadaten angeht, erst recht.
Ich tippe mal drauf, dass die das ganze De-Mosaicing in der Kamera machen und nur noch die farbbezogenen Filterungen im NLE.
Also drei Luminanzwerte pro Pixel, die erst im NLE gefiltert und bearbeitet werden.
ich glaube der springende punkt an der ganzen sache ist die konzentration auf
scene referred farbinformation.
das sollte man zwar in der tat nicht unbedingt gleich mit RAW-verarbeitung in einen topf werfen, weil hier viele verarbeitungsschritte und eingriffsmöglichkeiten, die sich aus dem physikalischen aufbau von sensoren mit bayer pattern ergeben, bereits erledigt sind bzw. ausgeklammert werden, trotzdem erhält mn damit einen ziemlich effektiven zugriff auf jenen elementaren farbinformationen, wie sie der sensor tatsäch liefert.
das muss auch nicht unbedingt in proprietärer weise umgesetzt werden, weil ja ACES genau für diese form prozessierung bzw. farbeingriffe mittlerweile ganz wunderbare technische rahmenstandards, umsetzungsempfehlungen und austauschformate bereitstellt. wenn man in diesem zusammenhang die daten in etwas benutzerfreundlichere container packt, vernünftiger komprimiert usw., mag das zwar im hinblick auf die praktische nutzung bzw. anwenderfreundlichkeit eine eine große rolle spielen, aus technischer sicht bleibt es aber eher unbedeutendes beiwerk.
cantsin hat geschrieben:Was aber auffällt: Im Raw-Tab lassen sich nur noch Weissabgleich, Belichtung und Gamma (einschließlich Sättigung, Kontrast, Midpoint, Highlight Rolloff und Shadow Rolloff) regeln, wobei jeder Eingriff in die letztgenannten Gamma-Parameter automatisch bedeutet, dass man Blackmagics Standard-Gammas (Film/Video/Extended Video) hinter sich lässt.
Die für CinemaDNG verfügbaren RAW-Parameter Sharpness, Highlights, Shadows, Color Boost, Midtone Detail, Lift und Gain fallen weg. (Natürlich können Lift, Gain, Sättigung etc. auch über die reguläre Farbkorrektur geregelt werden.) Schätze daher, dass diese Parameter bereits beim Debayering in der Kamera festgelegt werden.
das sollte eigentlich nicht weiter verwundern. die eingriffsmöglichkeiten, die sich hinter diesem RAW bedienungsfeld verbergen, fallen ganz grundsätzlich in zwei kategorien auseinander:
- diejenigen, die sich nur auf fertig debayerte farbinformation stützen (also z.b. exposure-korrrektur, weißabgleich -- dinge also, die sich im grunde auch schon mit LOG-material sauber umsetzten lassen),
- und solche, die tatsächlich einen rückgriff auf die ausgangsdaten bzw. ihren bezug zur räumlichen anordnung der sensel benötigen (bspw. auswahl der debayer algorithmen, highlight color reconstruction...).
welchen stellenwert man zweiterer gruppe zugesteht, ist nicht ganz so einfach zu beantworten. wenn es bereits in der kamera sauber bzw. auf die gegeben technischen umstände hin angepasst optimal umgesetzt wird, gibt's im normalfall nicht viel grund, warum man das unbedingt nachträglich anders machen wollen soll. im übrigen muss man wohl auch einsehen, dass es hier ja nicht nur um diese paar operationen geht, für die wie in guten photo-RAW-entwicklern hübsche knöpfe und einstellungsmöglichkeiten vorfinden, sondern vor allen dingen auch eine ganze menge übler probleme abgehandelt werden müssen (dead pixel eliminierung, korrektur von störmustern, die sich abweichung in den verstärkern bzw. AD-wandlern ergeben...), die man als endanwender auch schon in den bisherigen RAW-lösungen nie zu gesicht bekommen hat und von denen man auch lieber gar nichts wissen will.
wenn man schon aus irgendwelchen ganz grundsätzlichen erwägungen heraus von 'richtigem' RAW verlangt, dass auch dieser low level zugriff auf die ursprünglichen sensor daten erhalten bleiben sollte, geht's dabei meiner meinung nach gar nicht so sehr nur darum, genau das selbe, was die kamera ohnehin vernünftig umzusetzten versteht, auf den rechner auszulagern, sondern vielmehr eingriffsmöglichkeiten offen zu halten, die nur an dieser stelle der verarbeitungskette vernünftig möglich sind (bspw. irgendwelchen rechnerischen objektivkorrekturen vorzunehmen, die man mit glas auch mit größtem aufwand und hohen kosten oft nicht umsetzten könnte). in dem bereich eröffnen sich zusehends möglichkeiten, die mit konventionellen zugangsweisen und verarbeitungsketten einfach nicht umsetzbar sind (siehe z.b.:
[1],
[2]). es ist zwar unbedingt notwendig, dass die sensel daten dazu unverfäscht gespeichter und nachträglich zugänglich gemacht werden -- z.b. wäre es ja auch denkbar, dass man entsprechende sensordaten-aufbereitungs-kernels mit benutzerspezifischen modifikation auf die kamera hoch läd, so wie man das heute oft mit LUTs macht --, aber trotzdem sollte man auch diese ebene bzw. entsprechende eingriffsmöglichkeiten nicht völlig ausklammern, wenn es um RAW processing geht.