aber eben auch eine frage der zur verfügung stehenden rechenleistung, kamerachip (zwingend echtzeit) vs hochleistungs gpu/cpu verbund (offline), ich denke mit komplexeren de-bayer algorithmen liesse sich die auflösung deutlich steigern.iasi hat geschrieben:Es wird wohl schwer werden, mit einem universellen Tool die Qualität zu übertreffen, die ein Hersteller aus seinem Produkt mit seiner speziellen Lösung herausgequetscht hat.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.iasi hat geschrieben:hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
hmm - da hast du recht.WoWu hat geschrieben:Wenn es denn RAW Lösungen wären.
Was Du jetzt vornimmst, ist eine U,ettikettierung einer LOG Lösung in eine RAW Lösung.
Und... ja, natürlich hast Du Recht, dass die kleinen Herstellergeheimnisse auf der einen Seite das Produkt komplettieren, dafür ist ja bei RAW auch der Metadatenkanal angemacht, über den man diese Einstellungen und Signalverämdrumgen auf die Postproduktion übertragen kann und im DNG Container auch die entsprechende Struktur vorgehalten wird,
auf der Amdern Seite wird der Hersteller immer einen festen Parametersatz, speziell im De Bayering anbieten können und insofern keineswegs das Oprimum für unterschiedliche Bildinhalte liefern können sondern immer im Kompromissbereich damit bleiben.
Aber solange das Datenformat, das die Kamera verlässt nicht das monochrome Luminanzsignal repräsentiert, ist das auch nicht RAW sondern Fake-RAW.
Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.enilnacs hat geschrieben:Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.iasi hat geschrieben:hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
also doch lieber leuchten am set, um den dr bei bei max 10-12 blenden festzuklopfen, um ausgabekonform zu bleiben?iasi hat geschrieben:Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.enilnacs hat geschrieben:Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.iasi hat geschrieben:hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Nur: An HFR haben sich die Leute auch schon gestört ...
hehehe ... da hast du mich in die Ecke gedrängt.srone hat geschrieben:also doch lieber leuchten am set, um den dr bei bei max 10-12 blenden festzuklopfen, um ausgabekonform zu bleiben?iasi hat geschrieben:Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.enilnacs hat geschrieben:Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.iasi hat geschrieben:hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Nur: An HFR haben sich die Leute auch schon gestört ...
lg
srone
Gute Argumente.WoWu hat geschrieben:Auf der andern Seite ist natürlich auch ein RAW Umstand gar nicht so richtig bewertet worden....
Bei RAW hast Du es mit der Anzahl an Luminanzwerten zu tun, die der Sensorauflösung entsprechen.
Hinter der Nachbearbeitung hast Du es aber mit der 3-fachen Menge an Werten zu tun.
Gemessen an der Breite der derzeit zur Verfügung stehenden Datenkanälen ist die Qualität eines RAW Signals schon perse um diesen Faktor größer, sei es in der Dynamik oder nachlaufenden Bearbeitung, wie srone auch schon angeführt hat.
Mir sind dezidierte Tools in der Nachbearbeitung allemale lieber als solche Kompromisse in den Kameras ... und wie Du selbst sagst ... RED verändert immernoch.
Dazu kommt natürlich der Aspekt der "Ursprünglichkeit" des Signals.
Wir nutzen noch heute Footage, den wir vor 10 Jahren in 10Bit aufgenommen haben. Das ist jetzt nicht mit RAW vergleichbar, sagt aber etwas aus über die Verwertungsdauer von Content und darüber, dass eine neutrale Archivierung durchaus eine Rolle spielen kann.
Hätten wir damals RAW gemacht, wäre auch der Schritt nach 2020 u.U. noch möglich, weil ich farbraumneutral bin.
Und, auf die höhere Datenmenge bei Videomaterial zurück zu kommen, ... die üBertragungskanäle sind ja nicht wesentlich breiter geworden, und in Videomaterial landet das höhere Datenaufkommen damit in der Kompression.
Es ist also nicht egal, ob ich 3 GBit RAW Daten oder 3 GBit Videodaten habe.
Denn das wären eigentlich qualitätsmässig nur 1 Gbit.
Das FÜR und WIDER ist also vielfältiger, als man im ersten Augenblick vermuten würde.
Mich stört nach wie vor das ganze proprietäre Gewurschtel der Hersteller am meisten bei RAW und daher halte ich sowas wie ACES auch für einen verwertbaren Kompromiss, auch wenn man viele Vorteile von RAW damit aufgibt.