Postproduktion allgemein Forum



Was sagt WoWu denn zu...



Fragen rund um die Nachbearbeitung, Videoschnitt, Export, etc. (div. Software)
Antworten
Huitzilopochtli
Beiträge: 411

Was sagt WoWu denn zu...

Beitrag von Huitzilopochtli »



klusterdegenerierung
Beiträge: 27321

Re: Was sagt WoWu denn zu...

Beitrag von klusterdegenerierung »

Hatten wir nicht schon mal das Thema, das man aus 4L H-Milch keine 1L Vollmilch machen kann?
Zudem kann man ja auch selbst mit 18,50$ viel Kohle machen, wenn genug dran glauben.
"Was von Natur aus flach ist, bläht sich auf!"



TomStg
Beiträge: 3426

Re: Was sagt WoWu denn zu...

Beitrag von TomStg »

Huitzilopochtli hat geschrieben: Sa 05 Aug, 2017 21:44 ... dieser Herangehensweise?

https://www.cinema5d.com/best-way-downs ... e-footage/
Er wird sagen "Märchenstunde", "Schwachsinn" oder so ähnlich.



Huitzilopochtli
Beiträge: 411

Re: Was sagt WoWu denn zu...

Beitrag von Huitzilopochtli »

klusterdegenerierung hat geschrieben: Sa 05 Aug, 2017 22:55 Hatten wir nicht schon mal das Thema, das man aus 4L H-Milch keine 1L Vollmilch machen kann?
Zudem kann man ja auch selbst mit 18,50$ viel Kohle machen, wenn genug dran glauben.
Meinst du nicht eher Frischmilch? Aber um bei der Analogie zu bleiben und mit Bezug zum Beitrag: Vielleicht kann man aus 4L fettarmer Milch ja einen Liter Vollmilch machen? Das klingt jedenfalls nicht ganz abwegig.



Huitzilopochtli
Beiträge: 411

Re: Was sagt WoWu denn zu...

Beitrag von Huitzilopochtli »

TomStg hat geschrieben: Sa 05 Aug, 2017 23:01 Er wird sagen "Märchenstunde", "Schwachsinn" oder so ähnlich.
Ein bisschen differnzierter sind seine Antworten für gewöhnlich schon. Aber selbstverständlich interessieren mich auch andere Meinungen.



TomStg
Beiträge: 3426

Re: Was sagt WoWu denn zu...

Beitrag von TomStg »

Es gibt kaum ein Thema hier in diesem Forum, dass nicht ausführlicher und differenzierter diskutiert wurde als dieser Unfug. Leider wird dieser Quatsch immer wieder mal von Wundergläubigen für bare Münze genommen und erneut zur Diskussion gestellt.
Vielleicht schaffst Du es ja, mittels Suche Dir einen eigenen Eindruck zu verschaffen.



Huitzilopochtli
Beiträge: 411

Re: Was sagt WoWu denn zu...

Beitrag von Huitzilopochtli »

TomStg hat geschrieben: So 06 Aug, 2017 07:09 Es gibt kaum ein Thema hier in diesem Forum, dass nicht ausführlicher und differenzierter diskutiert wurde als dieser Unfug. Leider wird dieser Quatsch immer wieder mal von Wundergläubigen für bare Münze genommen und erneut zur Diskussion gestellt.
Vielleicht schaffst Du es ja, mittels Suche Dir einen eigenen Eindruck zu verschaffen.
Mir geht es nicht darum wieder eine unsägliche 4k vs HD Diskussion vom zaun zu brechen.

Hast du dir den Artikel denn ganz durchgelesen? Grundsätzlich kann man schon sagen, dass Davinci nicht den besten Job macht, wenn es um die Wandlung in unterschiedliche Formate geht. Das beste Beispiel hierfür ist sicherlich die h264-Ausgabe. Die mache ich grundsätzlich mit FFmpeg (kostenlos). Also warum das Quellmaterial damit nicht auch schon vorher wandeln und scalen?
Zuletzt geändert von Huitzilopochtli am So 06 Aug, 2017 11:32, insgesamt 2-mal geändert.



klusterdegenerierung
Beiträge: 27321

Re: Was sagt WoWu denn zu...

Beitrag von klusterdegenerierung »

Es gibt auch welche die meinen, wenn sie ein jpg im ACR als DNG exportieren, hätten sie am Ende ein Raw! ;-))
"Was von Natur aus flach ist, bläht sich auf!"



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

Huitzilopochtli hat geschrieben: So 06 Aug, 2017 11:26 [Hast du dir den Artikel denn ganz durchgelesen? Grundsätzlich kann man schon sagen, dass Davinci nicht den besten Job macht, wenn es um die Wandlung in unterschiedliche Formate geht.
naja -- auf deine anregung hin hab ich den artikel jetzt btatsächlich nocheinmal genauer durchgelesen.
ganz glücklich bin ich damit aber nicht, weil der autor ganz offensichtlich nur einen kleinen teil des problems erfasst, andere aspekte und fehlerquellen, die ganz eng damit verbunden sind, nicht berücksichtigt.

die importseitiege behandlung des colorsubsamplings im resolve wurden vor paar monaten zum glück ohnehin deutlich verbessert bzw. grobe fehler ausgemerzt. davor hätten/haben derartige beispiele noch viel wilde unübersehbare farbartifakte in derart kontrastreichen details gezeigt.

dass das aber überhaupt etwas mit der farbunterabtatstung zu tun hat, und nicht einfach voreilig wiedereinmal ganz pauschal dem nachschärfen in der kamera zugeschrieben wird, wie man es hier im forum gerne hört, ist natürlich ohnehin schon ein ziemlich aufklärerischer schritt.

ein zentrales problem, das aber in diesem artikel ausgeklammert bleibt, ist die tatsache, das man nicht alle RGB farbrepräsentationen automatisch gleich in einen topf werfen sollte. typische display referred RGB daten (also bspw. rec709 od. sRGB) verhalten sich in der bearbeitung [und das betrifft auch schon das skalieren] tlw. völlig anders als lineare scene referred repräsentationsmodelle (siehe: http://ninedegreesbelow.com/photography ... blend.html). und so gesehen geht es bei dem ganzen problem nicht ausschließlich nur um die frage, in welcher reihenfolge die skalierung und YUV->RGB-umwandlung, auf die sich der autor konzentriert, vorgenommen wird, sondern eben durchaus auch um deutlich komplexere zusammenhänge, wie sie mit fertig gebackenem material aus consumerkameras oft gar nicht so leicht zu umschiffen sind.

aber wie gesagt, ich finde es grundsätzlich schon einen wichtigen schritt, wenn man kollegen wenigstens einmal für diesen fragenkomplex sensibilisiert. irgendwelche ganz einfachen patentrezepte und wundermittel anzubieten, mit denen man die betreffenden probleme ganz simpel aus der welt schaffen könnte, gibt es aber meines erachtens ohnehin nicht.



Huitzilopochtli
Beiträge: 411

Re: Was sagt WoWu denn zu...

Beitrag von Huitzilopochtli »

mash_gh4 hat geschrieben: So 06 Aug, 2017 12:44 ein zentrales problem, das aber in diesem artikel ausgeklammert bleibt, ist die tatsache, das man nicht alle RGB farbrepräsentationen automatisch gleich in einen topf werfen sollte. typische display referred RGB daten (also bspw. rec709 od. sRGB) verhalten sich in der bearbeitung [und das betrifft auch schon das skalieren] tlw. völlig anders als lineare scene referred repräsentationsmodelle (siehe: http://ninedegreesbelow.com/photography ... blend.html).
vielen dank für den beitrag! wenn ich das richtig verstanden habe, dann sollte man das quellmaterial neben dem skalieren auch gleich in einen linearen rgb-raum transferien.

ich arbeite hauptsächlich mit slog2 aus meiner a6300 im aces-raum. und wenn ich was gelernt habe, dann ist es dass ich die kamerainternen bildprofileinstellungen bei slog2 nicht mehr anrühre (außer detail) damit die IDTs optimal funktionieren.

wenn ich jetzt das slog2-material schon vorab anrühre fürchte ich, dass die IDTs nicht optimal funktionieren.

gibt es denn eine möglichkeit slog2-material mit ffmpeg gleich komplett in den AP0-Raum zu bringen?



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

Huitzilopochtli hat geschrieben: So 06 Aug, 2017 13:41wenn ich das richtig verstanden habe, dann sollte man das quellmaterial neben dem skalieren auch gleich in einen linearen rgb-raum transferien.
naja -- im idealfall sollten es einfach die benutzten programme einfach richtig machen. leider ist das aber weder beim resolve, noch beim ffmpeg, aber auch beim großteil der übrigen anwendungen, besonders vorbildlich gelöst. im falle von ffmpeg gibt's gegenwärtig zumindest die zscale option, die das wenigstens ein bisserl sauberer macht und auch vernünftiger zu dithern versteht, aber wirklich vorbildlich ist das leider auch noch lange nicht.
Huitzilopochtli hat geschrieben: So 06 Aug, 2017 13:41ich arbeite hauptsächlich mit slog2 aus meiner a6300 im aces-raum. und wenn ich was gelernt habe, dann ist es dass ich die kamerainternen bildprofileinstellungen bei slog2 nicht mehr anrühre (außer detail) damit die IDTs optimal funktionieren.
damit berührst du eben genau jenen bereich, wo entsprechende einfache mittel gewöhnlich scheitern, da sie ja im besten falle noch berücksichtigen, dass es sich um rec709 files handeln dürfte, aber leider nur in den seltensten fällen darauf rücksicht nehmen, dass es in wahrheit eben auch irgend ein Log-material oder herstellerspezifisches, stark von den üblichen videokonventionen abweichendes, bildprofil vorliegen könnte. da stoßen dann die tollsten lösungen an ihre grenzen.

so gesehen ist es vermutlich sinnvoller, wenn entsprechende verbesserungen innerhalb der jeweiligen verarbeitungsprogramme (also bspw. im resolve) und ihren komplexen verarbeitungsketten vorgenommen werden, statt hier zu sehr mit irgendwelchen ergänzenden wundermitteln herumzuwerken. damit kann man höchstens einzelne deitailprobleme u.u. ein bisserl ausmerzen.
Huitzilopochtli hat geschrieben: So 06 Aug, 2017 13:41 gibt es denn eine möglichkeit slog2-material mit ffmpeg gleich komplett in den AP0-Raum zu bringen?
naja -- LUTs können auch bereits im ffmpeg zu diesem zweck genutzt werden. sauberer wird es aber definitiv, wenn man es etwa mit OpenColorIO basierenden programmen macht. z.b. kann man natron im batch-modus dazu benutzen -- was aber leider ewig dauert und einem vor das problem stellt, dass man dann die tonspur unabhängig davon handhaben muss oder erst fürchterlich umständlich nach vollendeter umwandlung wieder mit ffmpeg od.ä. in die resultate einfügen muss. ffmpeg selbst bitete leider bisher keine OpenColorIO unterstützung, obwohl es immer wieder von benutzern vorgeschlagen wird.

wobei AP0 generell ein bisserl problemtisch im austausch sein dürfte, wenn du nicht völlig auf die hier üblichen dateiformate und konventionen umschwenken willst, die halt mit gebräuchlichen ressourcenschonenden videofiles nicht mehr viel zu tun haben.

wie gesagt: wirklich gut und befriedigend lässt sich das eigentlich fast nur in den letztlich benutzen NLEs und mastering programmen lösen, auch wenn natürlich div. notlösungen, wie bspw. hybid od. Dali, im zuge der erstellungen von intermediate files entsprechende one click aufbereitungsansätze mitbringen, die für manche zwecke vielleicht tatsächlich als gangbare verbesserung angesehen werden könnten.



Huitzilopochtli
Beiträge: 411

Re: Was sagt WoWu denn zu...

Beitrag von Huitzilopochtli »

Naja, jedenfalls scheint Rudi auch zu den "Wundergläubigen" gehören, die diesen "Quatsch" und "Unfug" verbreiten...

https://www.slashcam.de/artikel/Grundla ... 4-2-0.html



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

@Huizilopochtli

Komme leider erst jetzt dazu, zu antworten.

Die bereits einmal geführte Diskussion in dieser Sache zeigt aber auch, dass Rudi ebenso nur die mathematischen Größen erfasst hat, nicht aber was im Bild die eigentliche Wirkung ist.
Vielleicht kurz nochmal zusammen gefasst:
Jede Interpolation macht auch einer Pixelmenge verschiedener Farben nur eine Farbe. Hast Du also einen roten und einen grünen Pixel nebeneinander liegen, macht die Unterabtastung einen gelben Pixel daraus. Dieser gelbe Pixel ist von nun an ins Bild eingebacken und mit keiner mathematischen Formel wieder in die Ausgangsfaben zurück zu bringen.
(rot, grün, gelb hab ich hier nur mal als Beispiel zur einfachen Veranschaulichung gewählt.
Es kann auch jede beliebige andere Farbe und gewichtung sein.)
Fest steht nur, das Du in der Unterabtastungen eine Fehlfarbe erzeugst, die mit keinem Algorithmus wieder aufzuheben, also in die ursprünglichen Originalfarben zurückzuführen ist.
Bei jeder weiteren Operation findet dies Fehlfarbe also weiter statt in der Bildverarbeitung.
Wenn Du also einmal das artefakt aus einer unterabtastungen im Bild hattest, bleibt es erhalten.
man mag nun trefflich darüber streiten, ob das im Bild stört oder nicht, aber den Keyer stört es eben, dass er auf einer Kante gelb statt grün sieht und da ist ihm die mathematische Beschaffenheit der Matrix auch ziemlich egal.

Ansonsten hat Mash ja schon umfassen beigetragen und ich kann mich dem nur anschließen.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

Er sagt aber auch nur, dass er diesen Farbwert "Gelb", der für 4 Pixel gilt, unverändert mitnimmt und nur die Helligkeitswerte der 4 Bildpunkte zusammenfasst.
Somit hat er dann eben einen Bildpunkt mit einem Farb- und einem Helligkeitswert.

Zumindest werden durch seine Methode die Farbwerte beim Skaieren nicht zusätzlich verändert.

Eine Interpolation hast du beim Bayer-Sensor ja sowieso.
Durch seine Methode wird dann zumindest eine weitere Interpolation vermieden - sofern es denn wirklich so klappt.

Die Vorteile gegenüber einer Skalierung von UHD-Material wobei auch die Farbwerte von 4 Pixeln zu einem verrechnet werden, kann ich nachvollziehen.



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

Dann bist Du der einzige denn völlig egal, vieviel Pixels du auf einen Farbwert reduzierst, wirst Du immer bei einer Fehlfarbe landen ( es sei denn, alle Pixels haben dieselbe Farbe ( z.bs. Farbfläche )und auch völlig egal, wo die Unterabtastung stattfindet und auch von welcher spatialer. Auflösung, zu einer Andern.
Und bei einer zweiten und dritten Unterabtastung geschieht nichts anderes. Der Fehler vergrößert sich also.
Das Problem ist nämlich, dass nur Luminanzwerte betrachtet werden,also die Pixelenergie, aber nicht deren farbliche Zuordnung und damit der Auswirkung auf den Bildinhalt.
Es wird also nur das halbe Problem mit dieser Zahlenschieberrei angegangen.
Mal ganz abgesehen davon, dass solche geteilten Syteme in keinem gebräuchlichen NLE existieren.

Aber da gibt es so zwei Blogs, die den Usern gern ein x für ein u vormachen und es gibt auch immer wieder Anwender, die das glauben.
Jede Kamera würde in einer geringen Qualität aufnehmen, wenn man daraus hinterher 444 machen könnte.
Noch nie darüber nachgedacht ?
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

Nun ja - wenn man als Ausgangsmaterial 4 Helligkeitswerte und 1 Farbwert hat, diese 4 Helligkeitswerte zusammenfasst und den Farbwert belässt, erscheint mir dies sinnvoller als den 4 Helligkeitswerten jeweils einen Farbwert zuzuordnen, um dann aus diesen dann wieder einen Wert zu berechnen.
Wenn ich Näherungswerte erneut verrechne, verstärken sich die Abweichungen bzw Fehler.
Schließlich beginnen die Interpolationen beim Bayer-Sensor schon beim debayern.

Wenn das ein grüner Bildpunkt nun leicht ins Gelbe , vermeide ich zumindest, dass er nach dem Skalieren wirklich Gelb ist.



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

iasi hat geschrieben: So 06 Aug, 2017 22:54 Nun ja - wenn man als Ausgangsmaterial 4 Helligkeitswerte und 1 Farbwert hat, diese 4 Helligkeitswerte zusammenfasst und den Farbwert belässt, erscheint mir dies sinnvoller als den 4 Helligkeitswerten jeweils einen Farbwert zuzuordnen, um dann aus diesen dann wieder einen Wert zu berechnen.
Wenn ich Näherungswerte erneut verrechne, verstärken sich die Abweichungen bzw Fehler.
Schließlich beginnen die Interpolationen beim Bayer-Sensor schon beim debayern.

Wenn das ein grüner Bildpunkt nun leicht ins Gelbe , vermeide ich zumindest, dass er nach dem Skalieren wirklich Gelb ist.
Seit wann hat man denn keinen Farbwert bei 3 von 4 Pixels ?
Und wenn mann dann hinterher nach deiner komischen Manipulation wieder 444 hat, woher wissen die Pixel dann die weggelassenen Farbwerte ? oder nehmen sie alle 4 denselben Farbwert an und machen eine Fläche, auf denen der Anweder nur 444 draufgeschrieben hat.
Passt ja zu 4 K oder 8 K.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

WoWu hat geschrieben: So 06 Aug, 2017 22:59
iasi hat geschrieben: So 06 Aug, 2017 22:54 Nun ja - wenn man als Ausgangsmaterial 4 Helligkeitswerte und 1 Farbwert hat, diese 4 Helligkeitswerte zusammenfasst und den Farbwert belässt, erscheint mir dies sinnvoller als den 4 Helligkeitswerten jeweils einen Farbwert zuzuordnen, um dann aus diesen dann wieder einen Wert zu berechnen.
Wenn ich Näherungswerte erneut verrechne, verstärken sich die Abweichungen bzw Fehler.
Schließlich beginnen die Interpolationen beim Bayer-Sensor schon beim debayern.

Wenn das ein grüner Bildpunkt nun leicht ins Gelbe , vermeide ich zumindest, dass er nach dem Skalieren wirklich Gelb ist.
Seit wann hat man denn keinen Farbwert bei 3 von 4 Pixels ?
Und wenn mann dann hinterher nach deiner komischen Manipulation wieder 444 hat, woher wissen die Pixel dann die weggelassenen Farbwerte ? oder nehmen sie alle 4 denselben Farbwert an und machen eine Fläche, auf denen der Anweder nur 444 draufgeschrieben hat.
Passt ja zu 4 K oder 8 K.
Du reitest immer auf Zahlen herum, als würde bei einem Bayer-Sensor der Farbwert nicht auch interpoliert werden.
Hätten wir 3-Chip-Cams oder Foveon-Sensoren, wäre man an deinen Ansprüchen nah dran.

So aber hantieren wir mit errechneten Werten. Wenn nun das Ausgabeformat 2k sein soll, erscheint es eben sinnvoll bei einer 4k-420-Aufnahme die geringen Farbinformationen nicht nochmals zu verrechnen.
Wenn wiederum aus 4 Helligkeitswerten ein Mittelwert berechnet wird, dann liegt das Ergebnis nun einmal näher am realen Wert, als der Wert nur einer Messung.
Simple Mathematik.

Am Ende hast du dann für jeden Bildpunkt 444-Werte.
Stellt sich die Frage, ob der Farbwerte aus der 4k/420-Aufnahme nun weiter vom Idealwert entfernt sind, als der einer 2k/444-Aufnahme.

Zumal: aus 2k-Bayer bekommst du ja z.B. schon mal gar keine 2k.

Man könnte ja mal eine "6k-Aufnahme" der GH5 mit der einer 2,5k einer BMCC vergleichen.
5k/10bit/420 vs 2,5k/Raw
Sensorgröße ist immerhin gleich.
Die H265-Komprimierung der GH5 verschafft der BMCC einen Vorteil, aber dennoch.
Wenn sich jemand das Material mal vornehmen möchte, mache ich mal kurze Aufnahmen vom Balkon herunter mit demselben Objektiv bei ordentlicher Blende ohne ND-Filter. Die Verschlusszeit wäre dann zwar noch 1/50, aber für Einzelbildberachtung wäre es wohl sogar von Vorteil.



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

iasi hat geschrieben: Mo 07 Aug, 2017 10:41Man könnte ja mal eine "6k-Aufnahme" der GH5 mit der einer 2,5k einer BMCC vergleichen.
5k/10bit/420 vs 2,5k/Raw
Sensorgröße ist immerhin gleich.
das würde ich sehr begrüßen -- nicht nur, weil ich deine position in dieser diskussion für überzeugender und vernünftiger halte als die vom WoWu, sondern auch weil damit zwei wirklich interessante kameras, die halt mittlerweie auch recht unterschiedliche generationen von geräten und sensoren repräsentieren, damit verglichen werden könnten...

dreiei zusatzwünsche hätte ich dem fall aber auch gleich:

1) bitte mach mit der GH5 auch eine RAW aufnahme im fotomodus
2) stell bitte auch irgendeine color testchart ins bild, damit man auch die farbwiedergabe beurteilen kann
3) toll wäre es auch, wenn die motivkontraste derart intensiv wären, das sie mit rec709 einfach nicht vernünftig eingefangen werden können. ;)



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

Das ist für Amateure sicher ein hübscher Vergleich nur weiß ich nicht, was das außer dem Aha Effekt eigentlich bringen soll und zu dem hier angesprochenen Thema bringt das überhaupt nicht.

@Iasi
Nicht ich, ... Du reitest auf Zahlenwerten rum mit deinen rein luminanzmässigen mathematischen Zahlenspielen.
Dahingehen beschreibe ich lediglich die Trugschlüsse, die aus solchen theoretischen Zahlenspielereien gezogen werden und damit die Auswirkung auf das Bild.
Und es ist völlig egal, wo die Unterabtatung geschieht (weil Du immer so gern auf dem De Bayering rumreitest) ... Interabtastung ist Unterabtastung, ob Du sie am Sensor, im Processing oder in der Post vornimmst.
Und das war hier thema des TS und nicht die Frage, was wohl bei einem Vergleich von Kamera A und Kamera B herauskommt.
Das sind jetzt pure Ablenkmanöver, weil offenbar die Agumente in der Sache fehlen.
Also ... schau Dir lieber mal an, wie eine Unterabtastung funktionier.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

WoWu hat geschrieben: Mo 07 Aug, 2017 14:57 Das ist für Amateure sicher ein hübscher Vergleich nur weiß ich nicht, was das außer dem Aha Effekt eigentlich bringen soll und zu dem hier angesprochenen Thema bringt das überhaupt nicht.
Amateure?
Du denkst also, einen Profi kümmert nur das theoretische Reden und nicht auch das Bildergebnis?

Tja - dann mag das eben so sein.

Ich wäre jedenfalls mal davon ausgegangen, dass man mit einer RAW-, einer 4k-10bit-422- und einer 5k-10bit-420-Aufnahme etwas zu dem Thema hätte sehen können.

Zumal dann auch eine 2.5k-RAW-Aufnahme zum Vergleich zur Verfügung gestanden wäre.

Welchen Aha-Effekt erwartest du denn eigentlich?

Übrigens sind die Settings bei der GH5 ein ziemliches Gefrickel.
Mal eben von 4k-Video auf den 6k-Modus umzuschalten, geht nicht, wenn man vergleichbare Ergebnisse erzielen möchte.
Der Hauptgrund, weshalb ich Raw so schätze.
Die BMCC liefert dann natürlich nochmals andere Ergebnisse.
Schnelles Angleichen per Color-Chart in Resolve ist leider auch nur in der Theorie eine schnelle Angelegenheit.



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

WoWu hat geschrieben: Mo 07 Aug, 2017 14:57
Und das war hier thema des TS und nicht die Frage, was wohl bei einem Vergleich von Kamera A und Kamera B herauskommt.
Die GH5 liefert 10bit/420 und 10bit/422 ... und sie macht Raw-Fotos ... Ich denke, das passt dann sehr gut zu der Ausgangsfrage.

Die BMCC wiederum dürfte dir doch zusagen, bietet sie doch bei gleicher Sensorgröße 2,5k unkomprimiertes RAW. Eigentlich wäre sie nur als Ergänzung gedacht.



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu..

Beitrag von WoWu »

Du nennst selbst die Gründe warum ein solcher Kemeravergleich völlig unterschiedlicher Kameras und Prizessverfahren ein absoluteri Quatsch ist und nichts, aber auch gar nichts, außer Deiner Hoffnung, dass es nicht so ist, zu dem hier angesprochenen Thema beiträgt.
Wir haben es nun mal mit Verfahren zu tun, die sich auf Bilder auswirken. Davor macht man besser nicht die Augen, in der Hoffnung zu, es könnte nicht so sein.
Unterabtastung ist nun mal ein solches Verfahren, das rein physikalischen Regeln folgt.
Vielleicht nicht bei Dir, aber das ist kein Problem, das es hier zu diskutieren gilt.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu..

Beitrag von mash_gh4 »

WoWu hat geschrieben: Mo 07 Aug, 2017 15:44 Unterabtastung ist nun mal ein solches Verfahren, das rein physikalischen Regeln folgt.
genau! -- darum eignet es sich ja so wunderbar, um entsprechende überzeugungen auch ganz praktisch empirisch zu überprüfen und ggf. zu widerlegen. :)



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

Na dann widerleg sie doch. Aber mit solchen Quatschtest mach Du Dich eher lächerlich, denn an dem Thema waren schon ganz andere Leute dran.
Führ eine sauber, wissenschaftliche Falsifizierung durch und beweis, dass Interpolation nicht so funktioniert, wie es derzeit Stand der Wissenschaft ist.
Wenn Du meinst, dass das mit solchen lari-fair Tests geht ... bitte.
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu..

Beitrag von iasi »

WoWu hat geschrieben: Mo 07 Aug, 2017 15:44 Du nennst selbst die Gründe warum ein solcher Kemeravergleich völlig unterschiedlicher Kameras und Prizessverfahren ein absoluteri Quatsch ist und nichts, aber auch gar nichts, außer Deiner Hoffnung, dass es nicht so ist, zu dem hier angesprochenen Thema beiträgt.
Wir haben es nun mal mit Verfahren zu tun, die sich auf Bilder auswirken. Davor macht man besser nicht die Augen, in der Hoffnung zu, es könnte nicht so sein.
Unterabtastung ist nun mal ein solches Verfahren, das rein physikalischen Regeln folgt.
Vielleicht nicht bei Dir, aber das ist kein Problem, das es hier zu diskutieren gilt.
Och - wenn ich vom selben Sensor verschiedene Ausgabeformate erhalte, kann ich diese durchaus vergleichen.
Und um Formate geht es hier.
Also was soll das ständige Gerede von unterschiedlichen Kameras?
Wenn Panasonic die Einstellungen von 6k und 4k im Menü voneinander trennt, ist das zwar wenig komfortabel für diesen Vergleich, aber letztlich bekommt man eben doch vergleichbare Ergebnisse.
Ich bin da - offensichtlich im Gegensatz zu dir - völlig ergebnisoffen. Denn: Ich werde diese Methode ziemlich sicher gar nicht nutzen.

Und verkürze doch nicht immer alles auf physikalische Regeln. Da verärgerst du u.a. die Mathematiker. :)

Nebenbei: Meine ersten Versuche zur Abstimmung haben schon mal einen ersten Eindruck hinterlassen, der dir gefallen wird.
2,5k Raw vs 4k/10bit/422
Auf einem 4k-Monitor ist kaum ein Unterschied bei den Bilddetails auszumachen. Diese sieht man erst beim Rausvergrößern.
Wobei das 4k-Material natürlich ziemlich eingedampft wurde: H264
Zudem hat das 2.5k-Material sehr mit Moire zu kämpfen.



WoWu
Beiträge: 14819

Re: Was sagt WoWu denn zu...

Beitrag von WoWu »

ja ja, mach mal.
Das fördert ganz sicher einige vordringliche Physikalische Erkenntnisse zu Tage, mit denen Du der Wissenschaft dienst.

http://www.diss.fu-berlin.de/diss/servl ... 578?hosts=


Merkst Du eigentlich noch was ?
Gute Grüße, Wolfgang

E-Book:
www.provideome.de



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

WoWu hat geschrieben: Mo 07 Aug, 2017 18:05 Na dann widerleg sie doch. Aber mit solchen Quatschtest mach Du Dich eher lächerlich, denn an dem Thema waren schon ganz andere Leute dran.
Führ eine sauber, wissenschaftliche Falsifizierung durch und beweis, dass Interpolation nicht so funktioniert, wie es derzeit Stand der Wissenschaft ist.
Wenn Du meinst, dass das mit solchen lari-fair Tests geht ... bitte.
Oh nein - es geht um die Überprüfung eine praxisorientierten Annahme und nicht um den Beweis einer wissenschaftlichen Theorie.
Ich denke, wir sollten das mal auseinanderhalten.
Du redest von Stand der Wissenschaft im Bezug auf eine technische Entwicklung bzw Anwendung? Setzt du neuerdings Physiker mit Ingenieuren gleich?

Und nun kommst du auch noch mit ganz anderen Leuten?
Na dann benenne auch mal diese Leute und vor allem deren Versuche und Ergebnisse.

Du solltest vor allem mal endlich diese ständige Wissenschaftsbegründungen lassen. Du kannst derart komplexe Systeme wie ein Kamerasystem nicht mit ein paar physikalischen Gesetzen beschreiben.
Du tust gerade so, als würde der Wasserstrahl aus einem Hahnen immer auf einen bestimmten Punkt treffen.



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

WoWu hat geschrieben: Mo 07 Aug, 2017 20:48 ja ja, mach mal.
Das fördert ganz sicher einige vordringliche Physikalische Erkenntnisse zu Tage, mit denen Du der Wissenschaft dienst.

http://www.diss.fu-berlin.de/diss/servl ... 578?hosts=

Merkst Du eigentlich noch was ?
Komm doch mal von deinem Wissenschaftsstuhl herunter.
Es geht hier eben nicht um wissenschaftliche Forschung, sondern um technische Anwendungen.
Du denkst wirklich, du kannst alles mit ein paar Physikalischen Erkenntnissen beschreiben, die du dir mal eben herausfischst?
Du bist doch noch nicht mal in der Lage ein modernes Objektiv physikalisch absolut genau zu beschreiben - aber du denkst aufgrund von Physikalischen Erkenntnissen dieses Objektiv beurteilen zu können.

um mal aus deinem verlinkten Aufsatz zu zitieren:
systematische, methodische, umfassende, tiefe und genaue Erkenntnis der Wirklichkeit

Erreiche das erst mal, dann kannst du mit wissenschaftlichen Gesetzmäßigkeiten argumentieren.

die dahinterliegenden Strukturen erfassen ... das kannst du eben nicht, wenn du nicht über ausreichende Informationen verfügst. Und die hast du eben nun einmal nicht.

Daher mache ich es eben wie die Objektivtester und beurteile die Ergebnisse, die ein Objektiv liefert und versuche nicht es physikalisch zu erklären.



Starshine Pictures
Beiträge: 2658

Re: Was sagt WoWu denn zu...

Beitrag von Starshine Pictures »

Lieber iasi, ich mag dich ja wirklich sehr, und ich finde in praktisch jedem Thread in dem du dich mit WoWu so herzlich streitest, dass ihr eigentlich beide recht habt. WoWu mag es wissenschaftlich, und du magst eben das was zwischen den Pixeln entsteht. Aber ich muss auch sagen dass du als (mutmasslich) erfahrener RED User ein ziemliches Gewese um die olle GH5 machst seit ihrer Ankündigung. Dafür dass du sonst so viel mit "grossen" Kameras arbeitest sollte die doch grad mal ne Crashcam für dich sein. Und vor allem sollte es ein Leichtes für dich sein deine Thesen anhand von Bildern hier darzustellen. Ich hab leider nur Canon Kameras mit max. 1080p Auflösung und ich würde gern mehr praxisgerechte Aufnahmen sehen die Auflösung und Details in verschiedenen Situationen beleuchten. Denn deine Thesen finde ich wirklich interessant. Aber WoWu hat mit seinem kleinen Büchlein bisher nunmal etwas mehr Beweislast in die Runde gebracht. Dein Vergleich zwischen 2.5 BMCC und GH5 fänd ich zum Beispiel echt interessant. Aber ohne jegliches Anschauungsmaterial von dir hat man immer das Gefühl du wärest nur ein RED Bot 😘

Grüsse, Stephan
*Aktuell in Vaterschaftspause*



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

Die GH5 liefert nun einmal sowohl Raw-Fotos, als auch H265/420.
Wenn es also darum geht herauszufinden, ob diese Methode Verbesserungen bringt, ist sie schon mal ganz gut geeignet.
Schließlich geht es um die Frage, ob man aus 4k/420 einen Vorteil erhält, wenn man auf 2k skaliert.

Auch wenn WoWu ein Buch geschrieben hat, setzte ich eben genau die Voraussetzungen an, die in dem von WoWu verlinkten Aufsatz genannt werden. Man kann sich nun einmal nicht nur immer eine Sache herauspicken und dann denken, man könne ein komplexes System beurteilen.

Wissenschaftliches Arbeiten setzt nun einmal voraus, dass man alle relevanten Faktoren erfasst.
Dies setzt aber eben auch eine ausreichende Informationsbasis voraus.

WoWu redet von falschen Farbwerten. Auch die beim debayern errechneten Farbwerte sind nur Annäherungswerte. Nun habe ich zwar auch Mathematik studiert, aber ein Urteil über die Genauigkeit dieser Farbwerte, kann ich mir ohne die notwendigen Informationen nicht bilden.
Aber jedem ist ja wohl klar, dass bei einer höheren Anzahl von zur Berechnung herangezogenen Werten die Abweichung geringer wird.
Andererseits führen Näherungsberechnungen anhand von Näherungswerten nicht zu geringeren Abweichungen.

Spielen wir es doch mal durch:
Bayer-Sensor:
1. Berechnung der Farbwerte. Abweichungen kann man nicht ausschließen, nur minimieren.
2. Aus 4 Pixeln soll einer werden. Die Abweichung verringert sich im Vergleich zum Wert eines Pixels bei 1/4 der Auflösung.
3. Nun haben wir nur einen Farbwert für diese 4 Pixel. Beginne ich nun jedoch diesen Farbwert mit den Helligkeitswerten zu verrechnen, um dann anschließend aus diesen Ergebnissen eine Pixel zu errechnen, dann vergrößert sich die Abweichung.
4. Angenommen ich errechne aus den Helligkeitswerten der 4 Pixel, den eines Pixels und weise diesem dann nur den Farbwert zu, bleibt zumindest nur die anfängliche Abweichung erhalten.
5. Eine genauere Annäherung würde ich natürlich ehalten, wenn ich auch Farbwerte für die 4 Pixel hätte. Wenn also der eine Farbwert aus denen der 4 Pixel errechnet wurde.
6. Es stellt sich die Frage, ob die Abweichungen minimaler sind, wenn gleich die Zielauflösung - also einer statt 4 Pixeln - zur Aufnahme genutzt wird. Wenn man andere Faktoren unberücksichtigt lässt und von einem Bayer-Sensor ausgeht, dann wäre die Antwort einfach.

Aber es spielen eben nun mal viele weitere Faktoren mit hinein.
Ich sehe nicht, wie man diese erfassen könnte, um es wissenschaftlich zu beurteilen.
Die "Qualität" des Pixels steht z.B. laut Red eben nicht in kausalem Zusammenhang zu seiner Größe.
Auch WoWu hat keinen Einblick in die genutzen Algorithmen.
Ein Stochern im Nebel.

Mehr als praktische Versuche kann man also nicht machen.
Es ist da eben wie mit Objektivtests. Selbst wenn man weiß, wie der Linsenaufbau ist und welche Gläser beschichtet sind, kann man über die Abbildungsqualität nur nach praktischen Tests eine Aussage machen.

GH5 vs BMCC wird nicht wirklich eine Antwort auf die Frage in Punkt 6 geben können. Es spielen eben zu viele andere Faktoren mit hinein.


Übrigens halte ich die GH5 in der Gewichtsklasse als konkurrenzlos. Nicht optimal, aber zu gebrauchen.
Fitzlige Bedienung und eben auch mit dem Color-Chart in Resolve nicht mal schnell z.B. mit der BMCC zu matchen.

Die passenden Einstellungen für einen Test, der dann auch etwas Vergleichbares liefert, ist aufwändiger als zuerst gedacht.
420/H265, 422/H264 und eben RAW-Foto sollten nur beim Aufnahmeformat voneinander abweichen.



wolfgang
Beiträge: 6647

Re: Was sagt WoWu denn zu...

Beitrag von wolfgang »

Der praktische Versuch wird über eines nicht hinweg helfen - ebenso wenig wie die ganzen Theorien:

Der gesamte Prozess des Debayerings und der Entstehung einer Abbildung ist ein von Menschenhand geschaffenes Konstrukt. Heißt, es wird hier immer irgendwelche technischen Näherungen geben - denn die Natur kennt keine Pixel, aber wir bilden eben bestenfalls einen Pixelraster mit beschränkten Farbräumen und beschränkter Luminanz ab.

Also was erwartet man sich hier eigentlich?
Lieben Gruß,
Wolfgang



klusterdegenerierung
Beiträge: 27321

Re: Was sagt WoWu denn zu...

Beitrag von klusterdegenerierung »

wolfgang hat geschrieben: Di 08 Aug, 2017 09:04 Der gesamte Prozess des Debayerings und der Entstehung einer Abbildung ist ein von Menschenhand geschaffenes Konstrukt. Heißt, es wird hier immer irgendwelche technischen Näherungen geben - denn die Natur kennt keine Pixel, aber wir bilden eben bestenfalls einen Pixelraster mit beschränkten Farbräumen und beschränkter Luminanz ab.
Also was erwartet man sich hier eigentlich?
Noch son totschläger und der Thread ist am Arsch! ;-)
"Was von Natur aus flach ist, bläht sich auf!"



iasi
Beiträge: 24223

Re: Was sagt WoWu denn zu...

Beitrag von iasi »

Es geht doch gar nicht darum, eine Theorie zu beweisen.

Mich interessiert eigentlich nur, ob die Methode sichtbare Vorteile bringt.
Und zwar dort, wo es dann auch interessiert.

Wenn ich allein schon daran denke, welche Einstellungsvariationen die GH5 bietet, bin ich ja schon froh, wenn ich Material erhalte, das so weit überein stimmt, dass ein Vergleich überhaupt möglich ist.
Jetzt wechselt gerade durch leichte Bewölkung das Licht ständig - wenn auch geringfügig. Aber schon sind die Grüntöne in den Bäumen zwischen 6k/420 und 4k/422 sehr unterschiedlich. Ganz zu schweigen von den BMCC-Aufnahmen - der Umbau kostet Zeit.

Letztlich brauche ich wohl einen Ortswechsel, der mir dann auch erlaubt, einen Farbchart im Bild zu platzieren.



mash_gh4
Beiträge: 4716

Re: Was sagt WoWu denn zu...

Beitrag von mash_gh4 »

wolfgang hat geschrieben: Di 08 Aug, 2017 09:04 Der praktische Versuch wird über eines nicht hinweg helfen - ebenso wenig wie die ganzen Theorien:
da hast du natürlich recht! -- man kann meistens nur winzige bereiche der entsprechenden black boxes durch derartige untersuchung von außen erhellen, trotzdem ist das manchmal ganz nützlich, um wenigstens einigermaßen realistische anhaltspunkte zu haben.

das ist ja auch einzige grund, warum es der position vom wowu in dieser frage entgegenzutreten gilt. sie erscheint mir einfach derart überzogen und praxisfremd, dass man sie den realen tatsachen in keiner weise gerecht wird.

natürlich kann eine einzelnes pixel, dort wo in der abgebildeten wirklichkeit zwei farbflächen aufeinanderstoßen, eine mischfarbe annehmen. dazu sind nichteinmal so komplizierte dinge wie unterabtastung und debayering nötig, das das passiert bereits, wenn ein einziges sensel am bildsensor und die hinzukommenden unschärfen des objektivs einen entsprechend winzigen bereich von nicht-homogener färbung abzubilden versuchen. eine große tragödie voller komplizierter wissenschaftlicher fragen entsteht daraus noch lange nicht. viel eher muss man halt einfach damit leben, dass der keyer dort eben nur bspw. 50% grün vorfinden wird...
wolfgang hat geschrieben: Di 08 Aug, 2017 09:04 Der gesamte Prozess des Debayerings und der Entstehung einer Abbildung ist ein von Menschenhand geschaffenes Konstrukt.
ja -- wobei es hier eben wirklich spannend ist, das gute techniken des debayers längst nicht mehr einfach nur die minimal nötigen vier benachbarten felder vermantschen, sondern ganz bewusst auch einen etwas größeren kontext bzw. verschiedene realistische farbverlaufsformen mitberücksichtigen, um mit verhältnismäßig einfachem aufwand deutlich befriedigendere resultate zu erzielen als ein bloßes interpolieren gemäß dieser ganz primitven herangehensweise ermöglicht hätte. dass man aber damit die prinzipiell gegebenen auflösungsbeschänkungen der entsprechenden technischen grundanordnung nicht gleich völlig außer kraft setzt, sollte ohnehin jedem klar sein. so gesehen korrespondiert 4:2:0 -- evtl. ja sogar 4:2:2, weil ja das doppelte vorkommen der grünen sensel eine asymmetrie schafft -- ziemlich gut mit den realen farbauflösungsgrenzen solcher sensoren und einem entsprechend komprimierten übertragung der daten.

das wirkliche problem beleibt aber die frage, ob diese ungleichmäßige auflösung von farb- und helligkeitsinformation auch noch nach einer zweckmäßig durchgeführten verkleinerung des bildes störend in erscheinung tritt, oder eben nur in genau jenem maße vorzufinden ist, wie es sich auch einstellen würde, wenn andere abbildungstechniken genutzt worden wären, die diese einschränkung nicht kennen und gleich 4:4:4 mit geringerer auflösung geliefert hätten -- mischfarben gibt's ja schließlich auch dort!

das ist der springende punkt, wo einige von uns -- ich weiß nichteinmal, ob es die mehrheit ist -- dem wowu regelmäßig zu widersprechen versuchen, weil er hier eben wirklich verdammt wenig "einsicht" bzw. fähigkeit, etwas komplizierteren erklärungen zu folgen, erkennen lässt. da es aber im grunde eine verhältnismäßig einfache fragestellung ist, die man sowohl empirisch als auch mit genau jenen berechnungsschritten, wie sie in der kamera beim farbsubsamplen benutzt werden, durchspielen und praktisch nachvollziehen kann, gibt es wirklich keinen grund, warum man hier nicht auch diese demonstrativen hilfsmittel bedienen sollte, um entsprechende vorgänge besser zu illusteren und nachvollziehbar zu machen? -- man kann dann ja immer noch die augen vor der wahrheit verschließen. ;)



 Aktuelle Beiträge [alle Foren]
 
» Was schaust Du gerade?
von roki100 - Fr 2:57
» Venice 2 Bildqualität zum halben Preis? Sony Burano Sensortest
von cantsin - Fr 0:52
» Sondergagen - Wer aufmuckt, wird nicht mehr besetzt
von macaw - Do 23:39
» Uwe Boll: Wie man Filme produziert ohne pleite zu gehen!
von macaw - Do 23:26
» Interessante Firmware-Updates für Sony Alpha 1, 7S III und 7 IV
von Bergspetzl - Do 22:46
» Nikon stellt NIKKOR Z 28-400mm f/4-8 VR Superzoom-Objektiv vor
von iasi - Do 22:45
» FCPX/Motion, DaVinci/Fusion... Tipps&Tricks
von roki100 - Do 22:27
» Panasonic AG-UX90 Phantomspeisung defekt?
von Fabi283 - Do 22:03
» Mac SSD Speed Messung?
von TomStg - Do 21:43
» Neues SIGMA 50mm F1,2 DG DN | Art Objektiv wiegt 745g
von dienstag_01 - Do 21:21
» Deity Sidius TC Sync Software
von pillepalle - Do 19:58
» Red Komodo 6K + Gimbal, Advanced Ring Grip und viel Zubehör
von Sevenz - Do 19:01
» >Der LED Licht Thread<
von freezer - Do 18:53
» Camera Update 8.6: Viele neue Funktionen für Blackmagic Kameras
von slashCAM - Do 17:42
» Tieraufnahmen mit dem MKE600 + H1 Essential rauschen
von Swat - Do 16:06
» 4 Gründe hartes Licht zu nutzen
von ruessel - Do 15:45
» [gelöst] 3.5mm Klinkenstecker Überwurfmutter
von Skeptiker - Do 14:42
» Panasonic S5 - Allgemeine Fragen, Tipps und Tricks, Zeig deine Bilder/Videos usw.
von Darth Schneider - Do 13:49
» -SONY FX- Erfahrungsaustausch
von rush - Do 13:40
» AOC bringt 44.5" OLED-Riesenmonitor mit 98.5% DCI-P3
von MK - Do 12:07
» Adobe führt die neue Funktion "Structure Reference" in Firefly ein
von slashCAM - Do 10:54
» Exhuma - die Südkoreaner können erfolgreiche Filme drehen
von -paleface- - Do 8:46
» Was hörst Du gerade?
von roki100 - Do 0:22
» Sony A9 III im Praxistest - ein echter Überraschungscoup auch für Filmer
von Mantas - Mi 23:27
» Video Pro X stürzt beim Multi Cam Schnitt ab
von MisterX - Mi 21:47
» Nach 7 Jahren mit der OG BMPCC finde ich das Bild noch immer schön.
von Darth Schneider - Mi 18:58
» Verschachtelte Timeline im richtigen Seitenformat
von Clemens Schiesko - Mi 18:43
» Untertitel in FCPX bei vorhandener Textdatei?
von R S K - Mi 18:34
» Deckenlicht mobil abschatten
von Frank Glencairn - Mi 17:31
» LUTs für Canon R6 Mark II
von TomStg - Mi 12:24
» RED versucht User nach Übernahme durch Nikon zu beruhigen
von dienstag_01 - Mi 11:52
» Entfesseltes Storytelling mit der Video-KI Sora?
von Frank Glencairn - Mi 5:54
» Slashcam 2001 - Das Internet vergisst nichts!
von macaw - Di 21:37
» Dehancer Pro - Filmsimulation auf höchstem Niveau
von Frank Glencairn - Di 18:54
» Wie Dune Teil 2 entstand - DoP Greig Fraser und Hans Zimmer im Interview
von iasi - Di 13:32