Wenn Papa aus einer Bildreihen von 60fps ds eine Foto rauspicken kann, auf dem Klein-Piefke besonders schön lacht, dann ist Papa sehr glücklich und öffnet den Geldbeutel.Funless hat geschrieben: ↑Mo 03 Jul, 2017 21:07 Ich denke man sollte mal die Kirche im Dorf lassen.
Welcher Consumer braucht denn bei Bewegtbild bitteschön RAW-Video?
Weshalb gibt es wohl H264/265? Und welcher Otto-Normal Verbraucher hat denn Bock darauf stundenlang am Resolve zu sitzen um Klein-Piefkes Kindergeburtstag zu graden?
Die BM Pocket kann RAW Video und bekommt man für etwas über 1K Euro hinterhergeschmissen. Wird wohl einen Grund haben weshalb das Teil nicht in jedem zweiten Consumer Haushalt zu finden ist.
Das hat RED auch so verkaufen wollen, aber so wirklich gezündet hat die Idee nicht.. warum auch? Bei den Video-typischen Verschlusszeiten sind Einzelbilder von bewegenden Motiven meistens unbrauchbar.
Es wird dich verwundern, aber auch bei RED kann man den Shutterspeed unabhängig der Framerate einstellen..
Noch ist eine Red als Fotokamera eben doch recht dick und schwer. Ansonsten ist´s eine tolle Sache.Daniel P Rudin hat geschrieben: ↑Mi 05 Jul, 2017 11:33Es wird dich verwundern, aber auch bei RED kann man den Shutterspeed unabhängig der Framerate einstellen..
Das von @iasi geschilderte Bespiel funktioniert perfekt, habe ich selbst schon mehr als genug eingesetzt, auch wenn ich keine Piefkes habe ;-)
Nebenbei ein netter Nutzen von HDRX: Hauptspur mit 180° Shutter und Motionblur, X-Spur mit kürzerer Belichtungszeit => scharfe Pics für die Webseite :-)
Nicht immer nutzbar aber wenn man weiss was man tut, finde ich das ab und an ganz nützlich..
ja -- das ist in der tat eine der nicht ganz offensichtlichen besonderheiten von RAW material, dass es eben nicht die drei grundfarben für jedes pixel, sondern nur einen einzigen helligkeitswert für den betreffenden sensel zu übertragen gilt. das wirkt sich derart positiv auf das datenvollumen aus, das man tatsächlich eine weitaus höhere bitiefe in der gleichen bandbreite -- etwa bei der aufzeichnung über externe SDI rekorder unterzubringen vermag als bei normalen (debayertem) RGB material von "gleicher" nomineller auflösung. (siehe: https://www.apertus.org/axiom-beta-uhd- ... e-may-2016).
kompresssion schon, aber ohne informationsverlust!
Daß man raw angeblich (stundenlang) graden muß, wird auch durch gebetsmühlenartiges wiederholen nicht wahr.
Das hab ich jetzt nicht ganz verstanden.WoWu hat geschrieben: ↑Mi 05 Jul, 2017 18:11 @mash
Das geht aber auf die Annahme zurück, dass das Objektiv, bzw. ein OLED den limitierenden Faktor darstellt.
Man verlässt also -so oder so- ein (4/8)K Pattern und damit die eigentliche spatiale Auflösung.
Solche Lösungen sind nur sinnvoll, wenn das Objektiv die Auflösung ohnehin nicht schafft, weil dann nur noch reale Auflösungswerte übertragen werden und keine sinnlose Wertemenge.
Aber hinten kommt eben nicht mehr das raus, was als vermeintliche Bildauflösung angegeben ist.
Axiom hat sich da auf die Realität eingestellt. Sinnvoll, aber wirkt nur auf ohnehin komprimierte Bilder (Objektiv) oder komprimiert selbst, wenn die Optische Leistung ansonsten ausreichen würde.
nein -- es hat einfach nur damit zu tun, dass in der natur sehr häuffig größere flächen anzutreffen sind, die relativ homogene farben besitzen bzw. benachbarte bildpunkte am sensor oft gleiche od. wenigstens nur geringfügig abweichende werte aufweisen.
genau so wie du es beschreibst ist es richtig, passenden lut (der zur aufnahmeeinstellung passt) draus werfen und gut ist. nur du bist profi, schau dich mal im amateur lager um wie viele das so machen. da werden dann eher irgend welche grusel luts von obscuren webseiten geladen und auf material geworfen was nicht im ansatz dem entspricht wofür der lut gemacht ist, wenn sich der lut creator überhaubt irgendwelche gedanken gemacht hat. oder alternativ wird garkein lut benutzt und das raw footage direkt gegradet.Frank Glencairn hat geschrieben: ↑Mi 05 Jul, 2017 18:04
Daß man raw angeblich (stundenlang) graden muß, wird auch durch gebetsmühlenartiges wiederholen nicht wahr.
Das Material in Resolve schmeißen, Resolve auf BM-Film Input und 709 Output stellen und fertig ist die Laube.
Na ja, aber darin liegt genau das Problem, dass man nicht so genau hinschaut und sich dann hinter dem "naturgegebenen Ganzen" verschanzt, um untaugliche Verfahren zu rechtfertigen.mash_gh4 hat geschrieben: ↑Mi 05 Jul, 2017 20:10nein -- es hat einfach nur damit zu tun, dass in der natur sehr häuffig größere flächen anzutreffen sind, die relativ homogene farben besitzen bzw. benachbarte bildpunkte am sensor oft gleiche od. wenigstens nur geringfügig abweichende werte aufweisen.
natürlich wird diese tatsache noch verstärkt, wenn die optik davor das ganze noch weiter unscharf zeichnet, aber das ist trotzdem eher ein völlig untergeordneter faktor, den man nicht so viel bedeutung beimessen sollte, obwohl es natürlich z.b. als OLPF vor dem bayersensor durchaus seine berechtigung haben kann, damit die angesprochene grundannahme auch noch in jenen fällen besser funktioniert, wo in wahrheit kanten, strukturierung und starke veränderungen vorliegen...
trotzdem: ich würde eher das größere naturgegebene ganze im auge behalten, statt sich in peripheren techn. spitzfindigkeiten zu verlieren. die welt, wie sie sich uns zeigt, fällt ja zum glück nicht einfach nur in pixel auseinander, sondern erschließt sich uns menschen ja von klein auf viel eher in wahrnehmbaren gestalten, die eben sehr oft auf ausschnitte im blickfeld von großer ähnlichkeit zurückzuführen sind.