Seite 3 von 3
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 18:14
von iasi
hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Und:
Ich will ja nicht bezweifeln, dass echtes Raw theoretisch noch mehr Möglichkeiten bietet, aber wie mash_gh4 auchschon gesagt hat, kann es doch durchaus sein, dass das Feintuning der Hersteller an ihrer Hardware/Sotware-Lösung eben doch diese theoretischen Vorteile überwiegt.
Ich sag´s mal so:
Es wird wohl schwer werden, mit einem universellen Tool die Qualität zu übertreffen, die ein Hersteller aus seinem Produkt mit seiner speziellen Lösung herausgequetscht hat.
Kompromislos ist zwar immer gut, nur kann ab einem bestimmten Punkt der daraus folgende Aufwand alles überwiegen. Ich habe jedenfalls das Gefühl (ja - nur das Gefühl), dass die aktuellen Raw-Lösungen schon sehr gut sind - und eben doch auch noch besser, als andere Formate.
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 19:46
von WoWu
Wenn es denn RAW Lösungen wären.
Was Du jetzt vornimmst, ist eine U,ettikettierung einer LOG Lösung in eine RAW Lösung.
Und... ja, natürlich hast Du Recht, dass die kleinen Herstellergeheimnisse auf der einen Seite das Produkt komplettieren, dafür ist ja bei RAW auch der Metadatenkanal angemacht, über den man diese Einstellungen und Signalverämdrumgen auf die Postproduktion übertragen kann und im DNG Container auch die entsprechende Struktur vorgehalten wird,
auf der Amdern Seite wird der Hersteller immer einen festen Parametersatz, speziell im De Bayering anbieten können und insofern keineswegs das Oprimum für unterschiedliche Bildinhalte liefern können sondern immer im Kompromissbereich damit bleiben.
Aber solange das Datenformat, das die Kamera verlässt nicht das monochrome Luminanzsignal repräsentiert, ist das auch nicht RAW sondern Fake-RAW.
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 19:59
von srone
iasi hat geschrieben:Es wird wohl schwer werden, mit einem universellen Tool die Qualität zu übertreffen, die ein Hersteller aus seinem Produkt mit seiner speziellen Lösung herausgequetscht hat.
aber eben auch eine frage der zur verfügung stehenden rechenleistung, kamerachip (zwingend echtzeit) vs hochleistungs gpu/cpu verbund (offline), ich denke mit komplexeren de-bayer algorithmen liesse sich die auflösung deutlich steigern.
lg
srone
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 20:52
von enilnacs
iasi hat geschrieben:hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 21:18
von iasi
WoWu hat geschrieben:Wenn es denn RAW Lösungen wären.
Was Du jetzt vornimmst, ist eine U,ettikettierung einer LOG Lösung in eine RAW Lösung.
Und... ja, natürlich hast Du Recht, dass die kleinen Herstellergeheimnisse auf der einen Seite das Produkt komplettieren, dafür ist ja bei RAW auch der Metadatenkanal angemacht, über den man diese Einstellungen und Signalverämdrumgen auf die Postproduktion übertragen kann und im DNG Container auch die entsprechende Struktur vorgehalten wird,
auf der Amdern Seite wird der Hersteller immer einen festen Parametersatz, speziell im De Bayering anbieten können und insofern keineswegs das Oprimum für unterschiedliche Bildinhalte liefern können sondern immer im Kompromissbereich damit bleiben.
Aber solange das Datenformat, das die Kamera verlässt nicht das monochrome Luminanzsignal repräsentiert, ist das auch nicht RAW sondern Fake-RAW.
hmm - da hast du recht.
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 21:35
von iasi
enilnacs hat geschrieben:iasi hat geschrieben:hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.
Nur: An HFR haben sich die Leute auch schon gestört ...
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 21:47
von srone
iasi hat geschrieben:enilnacs hat geschrieben:iasi hat geschrieben:hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.
Nur: An HFR haben sich die Leute auch schon gestört ...
also doch lieber leuchten am set, um den dr bei bei max 10-12 blenden festzuklopfen, um ausgabekonform zu bleiben?
lg
srone
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 21:48
von WoWu
Auf der andern Seite ist natürlich auch ein RAW Umstand gar nicht so richtig bewertet worden....
Bei RAW hast Du es mit der Anzahl an Luminanzwerten zu tun, die der Sensorauflösung entsprechen.
Hinter der Nachbearbeitung hast Du es aber mit der 3-fachen Menge an Werten zu tun.
Gemessen an der Breite der derzeit zur Verfügung stehenden Datenkanälen ist die Qualität eines RAW Signals schon perse um diesen Faktor größer, sei es in der Dynamik oder nachlaufenden Bearbeitung, wie srone auch schon angeführt hat.
Mir sind dezidierte Tools in der Nachbearbeitung allemale lieber als solche Kompromisse in den Kameras ... und wie Du selbst sagst ... RED verändert immernoch.
Dazu kommt natürlich der Aspekt der "Ursprünglichkeit" des Signals.
Wir nutzen noch heute Footage, den wir vor 10 Jahren in 10Bit aufgenommen haben. Das ist jetzt nicht mit RAW vergleichbar, sagt aber etwas aus über die Verwertungsdauer von Content und darüber, dass eine neutrale Archivierung durchaus eine Rolle spielen kann.
Hätten wir damals RAW gemacht, wäre auch der Schritt nach 2020 u.U. noch möglich, weil ich farbraumneutral bin.
Und, auf die höhere Datenmenge bei Videomaterial zurück zu kommen, ... die üBertragungskanäle sind ja nicht wesentlich breiter geworden, und in Videomaterial landet das höhere Datenaufkommen damit in der Kompression.
Es ist also nicht egal, ob ich 3 GBit RAW Daten oder 3 GBit Videodaten habe.
Denn das wären eigentlich qualitätsmässig nur 1 Gbit.
Das FÜR und WIDER ist also vielfältiger, als man im ersten Augenblick vermuten würde.
Mich stört nach wie vor das ganze proprietäre Gewurschtel der Hersteller am meisten bei RAW und daher halte ich sowas wie ACES auch für einen verwertbaren Kompromiss, auch wenn man viele Vorteile von RAW damit aufgibt.
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 22:04
von srone
thats it, anstelle eines 48bit (3x16bit rgb) farbfiles, ein 48bit luminanzfile inclusive metadaten, sicherlich nicht echtzeitfähig im playback - im moment, aber jederzeit "entwickelbar" - back to the roots, für highend sicherlich der beste ansatz.
lg
srone
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 22:19
von iasi
srone hat geschrieben:iasi hat geschrieben:enilnacs hat geschrieben:iasi hat geschrieben:hmmm ... 10bit genügen, wenn man mit 10bit-Monitor in der Post arbeitet und am Ende 10bit oder gar nur 8bit haben will?!
Da kann ich dir nicht folgen - wenn ich die 10bit Schiene fahre, kann ich dennoch von 12 und mehr Bit profitieren.
Ich denke auch nicht, dass du es so gemeint hast - ich hab´s mal etwas überspitzt formuliert.
Ich denke zudem: Was wir von Hersteller-Raw geboten bekommen, bietet doch immer noch Vorteile gegenüber anderen Formaten.
Profitieren schon, aber nicht darin arbeiten, oder es sehen. Das ist der Unterschied. Es ist sogar noch schlimmer wie der Vergleich zwischen 10 und 8 bit. Da es hier nicht um die 256 vs 1024 Graustufen mehr geht sondern um ganze Farbräume. Wer auch immer das Violett oder Blau,etc.. in 12bit WideGamut gesehen hat will nicht mehr in 10bit mit 12bit Material arbeiten.
Oder, man profitiert von 4K > 2K au einem HD Monitor, aber man weiss nicht was 4K ist, bis man es gesehen hat.
Kurz: Profitieren schon (math. Präzision, Lichter,etc.), aber nicht wirklich erleben (Farben, Dynamic, etc.). Dazu braucht es auch die entsprechende Hardware.
Schon jetzt sieht man bei sämtlichen Filmen die RAW gedreht haben, dass auch nach dem Mastern für BluRay, das Bild ähnlich ausschaut (wenn man genau schaut) wie HDR Bilder auf 8 Bit. Warum ? Weil die Riesige Dynamik und Farbgamut der Kameras (14-15+ Blenden und ArriGamut zB) auf 8 Bit gedrückt das Bild wieder leblos und flach macht. Deswegen erhöht man den Kontrast, Interpoliert etc.. aber dafür waren 15+ Blenden nie gedacht. Der Schwachpunkt ist der HDTV/Monitor. Erst rec2020 wird es (hoffentlich) richten und HDR Monitore (die es ja schon gibt, nur halt im highend segment).
Immerhin sind aufgrund der UHD-BD auch mehrere Schirme im kommen, die die Sache auch bald mal bezahlbar machen werden.
Nur: An HFR haben sich die Leute auch schon gestört ...
also doch lieber leuchten am set, um den dr bei bei max 10-12 blenden festzuklopfen, um ausgabekonform zu bleiben?
lg
srone
hehehe ... da hast du mich in die Ecke gedrängt.
Aber: Ich hatte nie gesagt "keine" Leuchten am Set.
Licht braucht schließlich auch Raw. :)
Nur kann ich eben ein Gesicht in der Post auch "aufhellen", ohne dass ich dabei den DR zusammenstampfe.
Gute Belichtung bedeutet schließlich den DR optimal auszunutzen.
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 22:26
von iasi
WoWu hat geschrieben:Auf der andern Seite ist natürlich auch ein RAW Umstand gar nicht so richtig bewertet worden....
Bei RAW hast Du es mit der Anzahl an Luminanzwerten zu tun, die der Sensorauflösung entsprechen.
Hinter der Nachbearbeitung hast Du es aber mit der 3-fachen Menge an Werten zu tun.
Gemessen an der Breite der derzeit zur Verfügung stehenden Datenkanälen ist die Qualität eines RAW Signals schon perse um diesen Faktor größer, sei es in der Dynamik oder nachlaufenden Bearbeitung, wie srone auch schon angeführt hat.
Mir sind dezidierte Tools in der Nachbearbeitung allemale lieber als solche Kompromisse in den Kameras ... und wie Du selbst sagst ... RED verändert immernoch.
Dazu kommt natürlich der Aspekt der "Ursprünglichkeit" des Signals.
Wir nutzen noch heute Footage, den wir vor 10 Jahren in 10Bit aufgenommen haben. Das ist jetzt nicht mit RAW vergleichbar, sagt aber etwas aus über die Verwertungsdauer von Content und darüber, dass eine neutrale Archivierung durchaus eine Rolle spielen kann.
Hätten wir damals RAW gemacht, wäre auch der Schritt nach 2020 u.U. noch möglich, weil ich farbraumneutral bin.
Und, auf die höhere Datenmenge bei Videomaterial zurück zu kommen, ... die üBertragungskanäle sind ja nicht wesentlich breiter geworden, und in Videomaterial landet das höhere Datenaufkommen damit in der Kompression.
Es ist also nicht egal, ob ich 3 GBit RAW Daten oder 3 GBit Videodaten habe.
Denn das wären eigentlich qualitätsmässig nur 1 Gbit.
Das FÜR und WIDER ist also vielfältiger, als man im ersten Augenblick vermuten würde.
Mich stört nach wie vor das ganze proprietäre Gewurschtel der Hersteller am meisten bei RAW und daher halte ich sowas wie ACES auch für einen verwertbaren Kompromiss, auch wenn man viele Vorteile von RAW damit aufgibt.
Gute Argumente.
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 22:31
von iasi
@WoWu und srone
Das war eine gute Diskussion - hat mir viel gebracht - ich lass mich gern von guten Argumenten überzeugen.
Re: Warum RAW?
Verfasst: Sa 30 Jan, 2016 22:32
von srone
hey iasi,
das thema ist so komplex, so workflow/ergebnis abhängig :-), aber schön, dass wir mittlerweile auf solch einem level diskutieren können, ohne herstellerabhängige indoktrination oder persönlichen überzeugungen. ;-)))
lg
srone