So lange man keinen Workflow hat, wo vom Original oder auch z.B. von niedriger aufgelöstem & höher komprimiertem Material (als Zweitaufnahme auf der 2. SD-Karte) schnell Social-Teaser, Vorschauen etc. erstellt werden müssen, mag das sicher funktionieren. Probiert hab ich´s noch nicht, weil´s bei mir überwiegend Richtung Low-Light geht.
Vielleicht hatte ich meine Frage schlecht formuliert. Ich meinte eigentlich noch provokanter:
Das war aber eigentlich auch mein Punkt. Dass man sich nämlich in der Praxis (gerade mit Spiegellos- und anderen Kameras ohne eingebauten ND) Arbeit und potentielle Fehlerquellen spart, und daneben noch Vorteile für die Nachbearbeitung gewinnt.pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 17:09 Wenn man Geld verdienen möchte, sind praktische Überlegungen oft wichtiger, als zu versuchen das letzte Quäntchen Qualität heraus zu holen, was am Ende eh niemand sieht.
Warum für jedes bewegende Objekte? ;) Entweder habe ich einen Denkfehler oder Du ;)pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 17:22 @ catsin
Ja, aber es sieht doch nie so wie echter Motion Blur aus. Objekte bewegen sich unterschiedlich schnell, oder bei Wind mit unerwarteten Richtungswechseln, usw... Dann hast Du 30 sich bewegende Objekte im Bild und willst für jedes das passende Blur einstellen? Wie gesagt, wenn's geht, warum nicht direkt richtig machen?
Der Motion Blur-Effekt von Resolve Studio basiert auf optical flow und schätzt die Bewegungen aller Objekte im Bild ein. Das ist also nicht einfach nur ein primitiver Wisch-Effekt (wie z.B. der Motion Blur-Filter in Photoshop).pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 17:22 Ja, aber es sieht doch nie so wie echter Motion Blur aus. Objekte bewegen sich unterschiedlich schnell, oder bei Wind mit unerwarteten Richtungswechseln, usw... Dann hast Du 30 sich bewegende Objekte im Bild und willst für jedes das passende Blur einstellen? Wie gesagt, wenn's geht, warum nicht direkt richtig machen?
egal in welche Richtung, Motion Blur lässt sich so justieren, als hättest Du tatsächlich Kameraintern 180° bei 25fps angewendet . Manchmal glaube ich zu wissen ;) dass der Kamerainterner elektronischer xy Grad Prozess, nichts anderes ist, als kamerainternes Motion Blur. ;)pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 17:28 @ roki
Weil sich die Objekte in unterschiedliche Richtungen bewegen und der Blur dann auch anders aussieht, oder sich unterschiedlich schnell bewegen. Ich gebe zu, bei den Belichtungszeiten die ich nutze (eine bis mehrere Sekunden) fällt das mehr auf als bei 1/50. Aber das Prinzip ist das gleiche.
VG
Ja, das ist auch meine Frage. Bei künstlicher Zeitlupe mit optical flow fallen Artefakte ja sofort auf (wie z.B. Konturen, die kaugummiartig zerfließen), aber bei dem optical flow-motion blur von Resolve ging mir das bisher noch nicht so. Und es scheint ja in der Tat so zu sein, dass solche computerberechnete Bewegungsunschärfe im Bereich Animation/motion graphics/SFX routinemäßig eingesetzt wird und da offenbar gut funktioniert.pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 17:34 Danke für die Info. Werde ich mir mal anschauen. Trotzdem kann das bei zufälligen Bewegungen nicht wirklich funktionieren. Mag sein das der Unterschied zu echtem bei wenig Blur kaum auffällt.
Interessant - ist der dann nach Deiner bisherigen Ansicht auch flexibel anwendbar bei unterschiedlichen Shutterzeiten? Also angenommen man variiert die Belichtung primär über den Verschluss, was einige ja aus dem A7sIII Thread bereits praktizieren.
Ja, wobei bei diesem Workflow es natürlich optimal ist, so wenig Bewegungsunschärfe wie möglich im Ausgangsmaterial zu haben (also möglichst kurze Verschlusszeiten).
Ist ja mittlerweile eine eigene (Brandon Li...) YouTube-Ästhetik. Ansonsten gibt's das ja wohl auch bei Action-/Martial Arts-Filmen, dass da mit kürzeren Verschlusszeiten und resultierendem leichtem Stroboskopeffekt gefilmt wird, um die Kampfszenen noch härter/dynamischer aussehen zu lassen. Oder eben umgekehrt die Filme mit langen Verschlusszeiten wie Chungking Express von Wong Kar-Wai (mit Christopher Doyle als Kameramann).Also angenommen man variiert die Belichtung primär über den Verschluss, was einige ja aus dem A7sIII Thread bereits praktizieren.
Ein Setting bei Motion Blur-Dosierung "25", weil die eigentliche Bewegungserkennung und motivs-/bewegungsspezifische Blur-Dosierung ja von der Erkennungssoftware bestimmt wird.Habe den Motion Blur Filter in Resolve noch nie benutzt - aber wie gehst Du da heran? Ein Setting für alles-
Deswegen hatte ich mir im Frühling ein Dreierset Klickfilter gekauft, die vor den Sensor kommen:cantsin hat geschrieben: ↑Sa 17 Sep, 2022 16:49- Man spart sich nicht nur das umständliche Handling mit ND-Filtern (bei Kameras ohne eingebaute NDs), sondern auch eine weitere potentielle Fehlerquelle (wie: verschmutzter ND, ND mit kaputtem Coating, der Farbstiche erzeugt) und Bildqualitätsverschlechterungen (wie: Color Shift, bei Kleinsensorkameras oft auch Auflösungsverlust, Polarisierung und X-Muster bei Vario-NDs).
Da kann man mal sehen. Ich mach's immer zu kompliziert.
Auffällt?pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 17:34Trotzdem kann das bei zufälligen Bewegungen nicht wirklich funktionieren. Mag sein das der Unterschied zu echtem bei wenig Blur kaum auffällt.
Ja, kann man schon machen - wir machen das z.B. bei Greenscreen aus verschiedensten Gründen schon länger - oder bei 3D, um Renderzeit zu sparen.
Ein paar Leute scheinbar schon ;) Tom Cruise setzt sich nicht nur zum Spaß in ein echtes Flugzeug. Auch wenn viele es nicht erklären können, merkt man einem Fake eben doch meist an, daß es ein Fake ist. Man versucht immer die Wirklichkeit zu imitieren, sei es bei CGI Menschen, bei CGI Objekten denen man Makel hinzufügt, damit sie 'echter' wirken, falschen Hintergründen usw. Aber die Illusion gelingt eben nur, wenn sie gut gemacht ist. Schau Dir mal die Film-Effekte von vor 70 Jahren an. Da muss man heutzutage meist drüber schmunzeln. In 70 Jahren werden sie es über die heutigen Effekte auch tun.Axel hat geschrieben: ↑Sa 17 Sep, 2022 18:39
... und darüber hinaus interessiert es glaube ich keinen, ob etwas echt oder gefakt aussieht. Weil niemand außer irgend ein paar verstrahlten Fachidioten weiß, was echt ist. Ist dasselbe mit echtem Tiltshift, echtem Pro Mist, echter Nacht, echten Vignetten oder echtem Vertigo-Effekt (der ja schon im namensgebenden Original ein Fake war).
Vor 11 Jahren schrieb wolfgang (slashCAM-Mitglied und Administrator irgendeines anderen Videoforum, abtrünnig oder verstorben) bezüglich Frameraten:pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 18:54Ein paar Leute scheinbar schon ;) Tom Cruise setzt sich nicht nur zum Spaß in ein echtes Flugzeug. Auch wenn viele es nicht erklären können, merkt man einem Fake eben doch meist an, daß es ein Fake ist. Man versucht immer die Wirklichkeit zu imitieren, sei es bei CGI Menschen, bei CGI Objekten denen man Makel hinzufügt, damit sie 'echter' wirken, falschen Hintergründen usw. Aber die Illusion gelingt eben nur, wenn sie gut gemacht ist. Schau Dir mal die Film-Effekte von vor 70 Jahren an. Da muss man heutzutage meist drüber schmunzeln. In 70 Jahren werden sie es über die heutigen Effekte auch tun.
... und das betrifft ganz selbstverständlich auch Motionblur. Das ist eine mit 24p/25p siamesisch verwachsene Filmlook-Zutat. HFR ist echter, sieht zumindest echter aus. Ist aber nicht das Wahre. Mit reality-stunts hat das nichts zu tun.wolfgang hat geschrieben: ↑Fr 29 Apr, 2011 10:47... unser Gehirn nimmt 24p/25p anders wahr als 50i/50p. Und zwar so, dass 24p/25p als in der Vergangenheit interpretiert wird - also quasi als Geschichte die erzählt wird. Hingegen 50i/50p als in der Gegenwart liegend.
Das hängt mit der geänderten Bewegungsauflösung zusammen - daher ist der klassische Kinofilm halt eigentlich viel besser geeignet, eine "Geschichte" zu erzählen, weil in der Vergangenheit liegend, als das herkömmliche Video mit 50 Halbbildern oder jetzt auch Vollbildern.
Das nicht - aber es gibt Szenarien wo ein erweiterter Spielraum zur Nachbearbeitung sinnvoll sein kann. Zumindest bei mir. Wenn dann der draufgerechnete Blur (fast) original aussieht, warum nicht.pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 20:44 ... Ich fange doch nicht erst in der Post an zu überlegen wie etwas aussehen soll?
...
Naja, mit dem gleichen Argument könnte man dann sagen: Wenn man klassische s/w-Porträtfotografie macht und das Bild, das man vor Augen hat, direkt umsetzen will, und das wäre dann mit Gelbfilter, sollte man auch klassisch einen Gelbfilter vors Objektiv schrauben, statt ihn in Lightroom & Co. (durch Gelbfilterung des Bilds + Entsättigung) zu simulieren.pillepalle hat geschrieben: ↑Sa 17 Sep, 2022 20:44 Die Frage die ich mir bei solchen Dingen immer stelle ist eben die, warum nicht gleich richtig machen? Ich soll erst knackscharfe Einzelbilder machen, um sie dann in der Post wieder unscharf zu machen? Und der Vorteil ist dann die Flexibilität in der Post? Falls ich mir doch nochmal alles anders überlege? Vielleicht bin ich ja etwas altmodisch, aber normalerweise habe ich beim Drehen bereits ein Bild im Kopf das ich versuche so gut wie möglich umsetzten. Ich fange doch nicht erst in der Post an zu überlegen wie etwas aussehen soll?
Du kannst ja noch weiterdenken: Was, wenn Du das aufgenommene Material in 10 oder 20 Jahren upscalen musst oder auf eine höhere Framerate hochrechnen (weil das dann Standard ist, so wie heute HD ggü. SD)? Dann ärgerst Du Dich, wenn Du überall im Material 1/48-Bewegungsunschärfe-Wischer hast, die dann die Hochrechnung versauen.Wenn es darum geht etwas vermurkstes zu retten (man hatte keine Zeit für die richtigen Einstellungen), oder es darum geht Smartphone-Filme besser aussehen zu lassen, dann sind solche Techniken sicher hilfreich. Aber ohne Not käme mir das nicht in den Sinn.
Du kannst bei einer Digitalkamera gar keinen Gelbfilter benutzten, weil ein S/W Film ganz anders sensibilisiert war (panchromatisch). Man muss es also bei einer Digitalkamera ohnehin digital machen, ob man will oder nicht.cantsin hat geschrieben: ↑Sa 17 Sep, 2022 22:56 Naja, mit dem gleichen Argument könnte man dann sagen: Wenn man klassische s/w-Porträtfotografie macht und das Bild, das man vor Augen hat, direkt umsetzen will, und das wäre dann mit Gelbfilter, sollte man auch klassisch einen Gelbfilter vors Objektiv schrauben, statt ihn in Lightroom & Co. (durch Gelbfilterung des Bilds + Entsättigung) zu simulieren.
Nur kann gerade bei Digitalfotografie/-videographie "so gut wie möglich" auch bedeuten: soviel Information (im Sinne von Shannon/Weaver) im Bild wie möglich speichern, und alles, was Information/Bildqualität mindert, in die Post verlagern. Im Falle des Gelbfilters - und praktisch aller früher gebräuchlichen Glasfilter außer Pol und ND - wird das ja auch schon seit langem von allen gemacht.
Das fällt für mich schon in den Bereich der Esoterik. Diese ganzen Qualitätsdiskussionen sind spätestens in dem Moment in dem sich die Kamera bewegt hinfällig. Unabhängig davon sieht bei guten Filtern, selbst bei statischer Kamera, kein Mensch einen Qualitätsunterschied.cantsin hat geschrieben: ↑Sa 17 Sep, 2022 22:56 Im Falle der 180-Grad-Regel und der dafür nötigen NDs bedeutet das ja, dass ich für eine ansprechende Bewegungsdarstellung das Bild in mehreren Aspekten qualitativ mindere: durch den vorgesetzten Filter und dessen optischen Artefakte, und eben durch mehr Unschärfe im Bild. Und dann kommt - wie beim Gelbfilter - noch der praktische Aspekt hinzu, dass es ohne einfacher und schneller geht.
Hätte von mir sein können ;-)pillepalle hat geschrieben: ↑So 18 Sep, 2022 03:12
Und was Du praktischen Aspekt nennst, würde ich unter normalen Umständen als Faulheit bezeichnen. Das Ideal ist für viele scheinbar der hosentaschengroße Vollautomat. Ein externer Rekorder wird als riesen Handycap bei der Arbeit gesehen, echte Filter als umständlich und teuer und ein Stativ mitzunehmen ist ohnehin eine Zumutung
Handkamera bei 180° erzeugt Bewegungsunschärfen, die z.B. eine Softwarestabilisierung kaum mehr möglich macht.pillepalle hat geschrieben: ↑So 18 Sep, 2022 03:12Das fällt für mich schon in den Bereich der Esoterik. Diese ganzen Qualitätsdiskussionen sind spätestens in dem Moment in dem sich die Kamera bewegt hinfällig. Unabhängig davon sieht bei guten Filtern, selbst bei statischer Kamera, kein Mensch einen Qualitätsunterschied.cantsin hat geschrieben: ↑Sa 17 Sep, 2022 22:56 Im Falle der 180-Grad-Regel und der dafür nötigen NDs bedeutet das ja, dass ich für eine ansprechende Bewegungsdarstellung das Bild in mehreren Aspekten qualitativ mindere: durch den vorgesetzten Filter und dessen optischen Artefakte, und eben durch mehr Unschärfe im Bild. Und dann kommt - wie beim Gelbfilter - noch der praktische Aspekt hinzu, dass es ohne einfacher und schneller geht.
Mach mal einen Schwenk mit sehr langer Brennweite über eine Landschaft, während der Wind in Böhen bläst.Darth Schneider hat geschrieben: ↑So 18 Sep, 2022 09:21 Man ist ja auch irgendwie absolut selber schuld wenn man mit dem Rucksack zu Fuss ohne Auto Hochzeiten und Events filmt..
Hab ich früher auch so gemacht,,würde ich aber nie mehr machen..
Autos sind doch schon sehr praktisch, kommen fast überall hin und sind für viel dümmeres zu missbrauchen..;))
Und die Zeit ist zu wertvoll um sie beim arbeiten (wartend) auf Bahnhöfen zu verschwenden.
Gruss Boris