Er wird sagen "Märchenstunde", "Schwachsinn" oder so ähnlich.Huitzilopochtli hat geschrieben: ↑Sa 05 Aug, 2017 21:44 ... dieser Herangehensweise?
https://www.cinema5d.com/best-way-downs ... e-footage/
Meinst du nicht eher Frischmilch? Aber um bei der Analogie zu bleiben und mit Bezug zum Beitrag: Vielleicht kann man aus 4L fettarmer Milch ja einen Liter Vollmilch machen? Das klingt jedenfalls nicht ganz abwegig.klusterdegenerierung hat geschrieben: ↑Sa 05 Aug, 2017 22:55 Hatten wir nicht schon mal das Thema, das man aus 4L H-Milch keine 1L Vollmilch machen kann?
Zudem kann man ja auch selbst mit 18,50$ viel Kohle machen, wenn genug dran glauben.
Ein bisschen differnzierter sind seine Antworten für gewöhnlich schon. Aber selbstverständlich interessieren mich auch andere Meinungen.
Mir geht es nicht darum wieder eine unsägliche 4k vs HD Diskussion vom zaun zu brechen.TomStg hat geschrieben: ↑So 06 Aug, 2017 07:09 Es gibt kaum ein Thema hier in diesem Forum, dass nicht ausführlicher und differenzierter diskutiert wurde als dieser Unfug. Leider wird dieser Quatsch immer wieder mal von Wundergläubigen für bare Münze genommen und erneut zur Diskussion gestellt.
Vielleicht schaffst Du es ja, mittels Suche Dir einen eigenen Eindruck zu verschaffen.
naja -- auf deine anregung hin hab ich den artikel jetzt btatsächlich nocheinmal genauer durchgelesen.Huitzilopochtli hat geschrieben: ↑So 06 Aug, 2017 11:26 [Hast du dir den Artikel denn ganz durchgelesen? Grundsätzlich kann man schon sagen, dass Davinci nicht den besten Job macht, wenn es um die Wandlung in unterschiedliche Formate geht.
vielen dank für den beitrag! wenn ich das richtig verstanden habe, dann sollte man das quellmaterial neben dem skalieren auch gleich in einen linearen rgb-raum transferien.mash_gh4 hat geschrieben: ↑So 06 Aug, 2017 12:44 ein zentrales problem, das aber in diesem artikel ausgeklammert bleibt, ist die tatsache, das man nicht alle RGB farbrepräsentationen automatisch gleich in einen topf werfen sollte. typische display referred RGB daten (also bspw. rec709 od. sRGB) verhalten sich in der bearbeitung [und das betrifft auch schon das skalieren] tlw. völlig anders als lineare scene referred repräsentationsmodelle (siehe: http://ninedegreesbelow.com/photography ... blend.html).
naja -- im idealfall sollten es einfach die benutzten programme einfach richtig machen. leider ist das aber weder beim resolve, noch beim ffmpeg, aber auch beim großteil der übrigen anwendungen, besonders vorbildlich gelöst. im falle von ffmpeg gibt's gegenwärtig zumindest die zscale option, die das wenigstens ein bisserl sauberer macht und auch vernünftiger zu dithern versteht, aber wirklich vorbildlich ist das leider auch noch lange nicht.Huitzilopochtli hat geschrieben: ↑So 06 Aug, 2017 13:41wenn ich das richtig verstanden habe, dann sollte man das quellmaterial neben dem skalieren auch gleich in einen linearen rgb-raum transferien.
damit berührst du eben genau jenen bereich, wo entsprechende einfache mittel gewöhnlich scheitern, da sie ja im besten falle noch berücksichtigen, dass es sich um rec709 files handeln dürfte, aber leider nur in den seltensten fällen darauf rücksicht nehmen, dass es in wahrheit eben auch irgend ein Log-material oder herstellerspezifisches, stark von den üblichen videokonventionen abweichendes, bildprofil vorliegen könnte. da stoßen dann die tollsten lösungen an ihre grenzen.Huitzilopochtli hat geschrieben: ↑So 06 Aug, 2017 13:41ich arbeite hauptsächlich mit slog2 aus meiner a6300 im aces-raum. und wenn ich was gelernt habe, dann ist es dass ich die kamerainternen bildprofileinstellungen bei slog2 nicht mehr anrühre (außer detail) damit die IDTs optimal funktionieren.
naja -- LUTs können auch bereits im ffmpeg zu diesem zweck genutzt werden. sauberer wird es aber definitiv, wenn man es etwa mit OpenColorIO basierenden programmen macht. z.b. kann man natron im batch-modus dazu benutzen -- was aber leider ewig dauert und einem vor das problem stellt, dass man dann die tonspur unabhängig davon handhaben muss oder erst fürchterlich umständlich nach vollendeter umwandlung wieder mit ffmpeg od.ä. in die resultate einfügen muss. ffmpeg selbst bitete leider bisher keine OpenColorIO unterstützung, obwohl es immer wieder von benutzern vorgeschlagen wird.Huitzilopochtli hat geschrieben: ↑So 06 Aug, 2017 13:41 gibt es denn eine möglichkeit slog2-material mit ffmpeg gleich komplett in den AP0-Raum zu bringen?
Seit wann hat man denn keinen Farbwert bei 3 von 4 Pixels ?iasi hat geschrieben: ↑So 06 Aug, 2017 22:54 Nun ja - wenn man als Ausgangsmaterial 4 Helligkeitswerte und 1 Farbwert hat, diese 4 Helligkeitswerte zusammenfasst und den Farbwert belässt, erscheint mir dies sinnvoller als den 4 Helligkeitswerten jeweils einen Farbwert zuzuordnen, um dann aus diesen dann wieder einen Wert zu berechnen.
Wenn ich Näherungswerte erneut verrechne, verstärken sich die Abweichungen bzw Fehler.
Schließlich beginnen die Interpolationen beim Bayer-Sensor schon beim debayern.
Wenn das ein grüner Bildpunkt nun leicht ins Gelbe , vermeide ich zumindest, dass er nach dem Skalieren wirklich Gelb ist.
Du reitest immer auf Zahlen herum, als würde bei einem Bayer-Sensor der Farbwert nicht auch interpoliert werden.WoWu hat geschrieben: ↑So 06 Aug, 2017 22:59Seit wann hat man denn keinen Farbwert bei 3 von 4 Pixels ?iasi hat geschrieben: ↑So 06 Aug, 2017 22:54 Nun ja - wenn man als Ausgangsmaterial 4 Helligkeitswerte und 1 Farbwert hat, diese 4 Helligkeitswerte zusammenfasst und den Farbwert belässt, erscheint mir dies sinnvoller als den 4 Helligkeitswerten jeweils einen Farbwert zuzuordnen, um dann aus diesen dann wieder einen Wert zu berechnen.
Wenn ich Näherungswerte erneut verrechne, verstärken sich die Abweichungen bzw Fehler.
Schließlich beginnen die Interpolationen beim Bayer-Sensor schon beim debayern.
Wenn das ein grüner Bildpunkt nun leicht ins Gelbe , vermeide ich zumindest, dass er nach dem Skalieren wirklich Gelb ist.
Und wenn mann dann hinterher nach deiner komischen Manipulation wieder 444 hat, woher wissen die Pixel dann die weggelassenen Farbwerte ? oder nehmen sie alle 4 denselben Farbwert an und machen eine Fläche, auf denen der Anweder nur 444 draufgeschrieben hat.
Passt ja zu 4 K oder 8 K.
das würde ich sehr begrüßen -- nicht nur, weil ich deine position in dieser diskussion für überzeugender und vernünftiger halte als die vom WoWu, sondern auch weil damit zwei wirklich interessante kameras, die halt mittlerweie auch recht unterschiedliche generationen von geräten und sensoren repräsentieren, damit verglichen werden könnten...
Amateure?
Die GH5 liefert 10bit/420 und 10bit/422 ... und sie macht Raw-Fotos ... Ich denke, das passt dann sehr gut zu der Ausgangsfrage.
genau! -- darum eignet es sich ja so wunderbar, um entsprechende überzeugungen auch ganz praktisch empirisch zu überprüfen und ggf. zu widerlegen. :)
Och - wenn ich vom selben Sensor verschiedene Ausgabeformate erhalte, kann ich diese durchaus vergleichen.WoWu hat geschrieben: ↑Mo 07 Aug, 2017 15:44 Du nennst selbst die Gründe warum ein solcher Kemeravergleich völlig unterschiedlicher Kameras und Prizessverfahren ein absoluteri Quatsch ist und nichts, aber auch gar nichts, außer Deiner Hoffnung, dass es nicht so ist, zu dem hier angesprochenen Thema beiträgt.
Wir haben es nun mal mit Verfahren zu tun, die sich auf Bilder auswirken. Davor macht man besser nicht die Augen, in der Hoffnung zu, es könnte nicht so sein.
Unterabtastung ist nun mal ein solches Verfahren, das rein physikalischen Regeln folgt.
Vielleicht nicht bei Dir, aber das ist kein Problem, das es hier zu diskutieren gilt.
Oh nein - es geht um die Überprüfung eine praxisorientierten Annahme und nicht um den Beweis einer wissenschaftlichen Theorie.WoWu hat geschrieben: ↑Mo 07 Aug, 2017 18:05 Na dann widerleg sie doch. Aber mit solchen Quatschtest mach Du Dich eher lächerlich, denn an dem Thema waren schon ganz andere Leute dran.
Führ eine sauber, wissenschaftliche Falsifizierung durch und beweis, dass Interpolation nicht so funktioniert, wie es derzeit Stand der Wissenschaft ist.
Wenn Du meinst, dass das mit solchen lari-fair Tests geht ... bitte.
Komm doch mal von deinem Wissenschaftsstuhl herunter.WoWu hat geschrieben: ↑Mo 07 Aug, 2017 20:48 ja ja, mach mal.
Das fördert ganz sicher einige vordringliche Physikalische Erkenntnisse zu Tage, mit denen Du der Wissenschaft dienst.
http://www.diss.fu-berlin.de/diss/servl ... 578?hosts=
Merkst Du eigentlich noch was ?
Noch son totschläger und der Thread ist am Arsch! ;-)wolfgang hat geschrieben: ↑Di 08 Aug, 2017 09:04 Der gesamte Prozess des Debayerings und der Entstehung einer Abbildung ist ein von Menschenhand geschaffenes Konstrukt. Heißt, es wird hier immer irgendwelche technischen Näherungen geben - denn die Natur kennt keine Pixel, aber wir bilden eben bestenfalls einen Pixelraster mit beschränkten Farbräumen und beschränkter Luminanz ab.
Also was erwartet man sich hier eigentlich?
da hast du natürlich recht! -- man kann meistens nur winzige bereiche der entsprechenden black boxes durch derartige untersuchung von außen erhellen, trotzdem ist das manchmal ganz nützlich, um wenigstens einigermaßen realistische anhaltspunkte zu haben.
ja -- wobei es hier eben wirklich spannend ist, das gute techniken des debayers längst nicht mehr einfach nur die minimal nötigen vier benachbarten felder vermantschen, sondern ganz bewusst auch einen etwas größeren kontext bzw. verschiedene realistische farbverlaufsformen mitberücksichtigen, um mit verhältnismäßig einfachem aufwand deutlich befriedigendere resultate zu erzielen als ein bloßes interpolieren gemäß dieser ganz primitven herangehensweise ermöglicht hätte. dass man aber damit die prinzipiell gegebenen auflösungsbeschänkungen der entsprechenden technischen grundanordnung nicht gleich völlig außer kraft setzt, sollte ohnehin jedem klar sein. so gesehen korrespondiert 4:2:0 -- evtl. ja sogar 4:2:2, weil ja das doppelte vorkommen der grünen sensel eine asymmetrie schafft -- ziemlich gut mit den realen farbauflösungsgrenzen solcher sensoren und einem entsprechend komprimierten übertragung der daten.