Mit einem kleinen Siuri ist es bei langen Brennweiten nicht mehr getan - zumal, wenn man auch schwenken will.Darth Schneider hat geschrieben: ↑So 18 Sep, 2022 09:37 Aber so schwer ist doch zB ein Siuri jetzt auch nicht, das kann man schon nen Berg hoch tragen, und stabil isses allemal.;))
Gruss Boris
Der einzige der hier von 'cinematisch' redet bist Du *g* Es ging mir darum, dass ein guter ND-Filter nicht zu Artefakten, oder spürbarem Auflösungsverlust, führt. Das fällt für mich in den Bereich der Esoterik. Und bei jeder Kamerabewegung ( egal ob Stativschwenk, eine Dolly-/Gimbalfahrt) hat man schon nicht mehr die maximale Auflösung. Wenn es einem nur um die Qualität ginge, dürfte man nur noch statische Fotos machen.
Farb-Shift hast du mal mehr mal weniger bei NDs. Diese Auszugleichen erfordert dann in der Post Zeit und Mühe.pillepalle hat geschrieben: ↑So 18 Sep, 2022 10:03Der einzige der hier von 'cinematisch' redet bist Du *g* Es ging mir darum, dass ein guter ND-Filter nicht zu Artefakten, oder spürbarem Auflösungsverlust, führt. Das fällt für mich in den Bereich der Esoterik. Und bei jeder Kamerabewegung ( egal ob Stativschwenk, eine Dolly-/Gimbalfahrt) hat man schon nicht mehr die maximale Auflösung. Wenn es einem nur um die Qualität ginge, dürfte man nur noch statische Fotos machen.
VG
Den kann man auch direkt vor Ort mit einem Weißbgleich entfernen, wenn man denn möchte. Aber dafür braucht es ja RAW, weil man es lieber in der Post macht ;)
Darum geht es doch die ganze Zeit. Eigentlich möchte ich kein wackeliges Footage, aber statt es stabiler aufzunehmen (mit Stativ, Gimbal, Slider und Co.) nehme ich wackeliges scharfes Footage auf und stabilisiere es in der Post. Und das klappt mal besser und mal schlechter, ist aber so viel praktischer :)iasi hat geschrieben: ↑So 18 Sep, 2022 10:38 Und frag dich mal, woran man den Unterschied zwischen einer softwarestabilisierten und Stativ-Aufnahme erkennt.
Das Problem ist dabei dann dieses "Erkennen". Es sind die Unterschiede der Bewegungsunschärfen während einer Einstellung.
Bei einem Schwenk erhält man bei HFR und kürzerer Belichtungszeit eine Reihe statischer Fotos als Ausgangsmaterial, bei denen der judder minimiert ist.
Das eröffnet dann Gestaltungsmöglichkeiten in der Post, die man bei "verschmierten" Bildern nicht mehr hat.
Mal eben ein Knöpfchen drücken und schon passt´s?pillepalle hat geschrieben: ↑So 18 Sep, 2022 11:21Den kann man auch direkt vor Ort mit einem Weißbgleich entfernen, wenn man denn möchte. Aber dafür braucht es ja RAW, weil man es lieber in der Post macht ;)
Du hast immer Kameraerschütterungen - bei WW mögen sie nicht so stark auffallen, da sie im Verhältnis zum Zerstreuungskreisdurchmesser noch gering sind, aber bei Normal- und Telebrennweiten "verschmieren" sie das Bild.pillepalle hat geschrieben: ↑So 18 Sep, 2022 11:21Darum geht es doch die ganze Zeit. Eigentlich möchte ich kein wackeliges Footage, aber statt es stabiler aufzunehmen (mit Stativ, Gimbal, Slider und Co.) nehme ich wackeliges scharfes Footage auf und stabilisiere es in der Post. Und das klappt mal besser und mal schlechter, ist aber so viel praktischer :)iasi hat geschrieben: ↑So 18 Sep, 2022 10:38 Und frag dich mal, woran man den Unterschied zwischen einer softwarestabilisierten und Stativ-Aufnahme erkennt.
Das Problem ist dabei dann dieses "Erkennen". Es sind die Unterschiede der Bewegungsunschärfen während einer Einstellung.
Bei einem Schwenk erhält man bei HFR und kürzerer Belichtungszeit eine Reihe statischer Fotos als Ausgangsmaterial, bei denen der judder minimiert ist.
Das eröffnet dann Gestaltungsmöglichkeiten in der Post, die man bei "verschmierten" Bildern nicht mehr hat.
Es geht nicht darum neue Möglichkeiten zu verteufeln und alles zu machen wie vor hundert Jahren. Aber es geht darum wie man die neuen Tools einsetzt. Das was ich in der Kamera machen kann, mache ich in der Kamera, weil ich das Ergebnis sofort sehe, das Ergebnis meist besser ist und ich keine zusätzliche Arbeit in der Post habe. Wenn es nicht anders geht, dann nutzt man eben die Post für Korrekturen/Effekte. Das ist etwas anderes, als wenn ich es bewußt erstmal anders aufnehme, um Mühe und Kosten beim Dreh zu sparen. Eben eine generelle Frage der Arbeitsweise und der Frage ob sich die Mühe lohnt. Das muss jeder für sich selber herausfinden.
VG
Ja :)
Wer einen Vari-ND benutzt und sich anschließend über die Qualität beschwert, ist selber schuld. Das ist wieder die Bequemlichkeits-Frage.
Ja, Motionblur gehört zum Film und der läßt sich auch nicht wegzaubern. Aber hier stellt sich wieder die Frage warum Du ihn weg haben möchtest? Z.B. für einen bestimtmen Effekt (verlangsamen, stabilisieren) den Du scheinbar vorher nicht auf dem Schirm hattest. Etwas gemein formuliert, Du weißt nicht was Du möchtest. Erst Hüh, dann Hott.iasi hat geschrieben: ↑So 18 Sep, 2022 11:46 Du hast immer Kameraerschütterungen - bei WW mögen sie nicht so stark auffallen, da sie im Verhältnis zum Zerstreuungskreisdurchmesser noch gering sind, aber bei Normal- und Telebrennweiten "verschmieren" sie das Bild.
Ein "verschmiertes" Bild bekommt man in der Post nicht mehr "klar".
Sind Details im Bild, kann man sie sehr einfach in der Post "verschmieren".
Umgekehrt lassen sich Details eben nicht mehr herbeizaubern.
NR funktioniert nun einmal z.B. auch besser.pillepalle hat geschrieben: ↑So 18 Sep, 2022 11:58 [
Ja, Motionblur gehört zum Film und der läßt sich auch nicht wegzaubern. Aber hier stellt sich wieder die Frage warum Du ihn weg haben möchtest? Z.B. für einen bestimtmen Effekt (verlangsamen, stabilisieren) den Du scheinbar vorher nicht auf dem Schirm hattest. Etwas gemein formuliert, Du weißt nicht was Du möchtest. Erst Hüh, dann Hott.
Ich meinte auch nachträglich wegzaubern, auch wenn es da schon erste Versuche gibt, die allerdings nur mäßig funktionieren (z.B. in Photoshop).
Ja, das ist ein Vorteil. Die Frage ist nur, wie man die neuen Möglichkeiten nutzt. Ich sehe eben keinen großen Sinn darin, alles nachträglich zu machen, nur weil man es auch nachträglich machen kann. Das reduziert dann wirklich das Filmen auf einen reinen Akt der Datenerfassung, denn alle künstlerischen Entscheidungen werden später getroffen. Für mich ist diese Vorstellung ein graus.
IMHO verwechselst Du hier panchromatisch und orthochromatisch. Alle modernen s/w-Filme sind panchromatisch, d.h. sie nehmen das komplette Licht-/Farbspektrum auf. Deswegen kannst Du mit digitalen Raw-Bildern den Gelbfilter problemlos in der Post nachbauen, und alle gängigen Raw-Konverter bieten das als Funktion.pillepalle hat geschrieben: ↑So 18 Sep, 2022 03:12 Du kannst bei einer Digitalkamera gar keinen Gelbfilter benutzten, weil ein S/W Film ganz anders sensibilisiert war (panchromatisch). Man muss es also bei einer Digitalkamera ohnehin digital machen, ob man will oder nicht.
Die Beispiele hatte ich Dir schon genannt: nämlich jede Form der temporalen oder spatialen Nachbearbeitung, die von einer optimalen Auflösung des Ausgangsmaterials profitiert. Temporale Rauschfilterung (mit Neat & Co.) ist dabei wahrscheinlich das beste praxisnahe Beispiel. Eine ganz konkrete und banale Anwendung wären u.a., dass man bessere Standbilder aus dem Material extrahieren kann (wie auch in meinem eingangs geposteten Bildbeispiel). Was dann sogar soweit gehen kann, dass man z.B. als Event-Filmer aus demselben Kameramaterial sowohl Video, als auch als Fotos publizierte/vermarktete Stills ziehen kann.Das fällt für mich schon in den Bereich der Esoterik. Diese ganzen Qualitätsdiskussionen sind spätestens in dem Moment in dem sich die Kamera bewegt hinfällig. Unabhängig davon sieht bei guten Filtern, selbst bei statischer Kamera, kein Mensch einen Qualitätsunterschied.cantsin hat geschrieben: ↑Sa 17 Sep, 2022 22:56 Im Falle der 180-Grad-Regel und der dafür nötigen NDs bedeutet das ja, dass ich für eine ansprechende Bewegungsdarstellung das Bild in mehreren Aspekten qualitativ mindere: durch den vorgesetzten Filter und dessen optischen Artefakte, und eben durch mehr Unschärfe im Bild. Und dann kommt - wie beim Gelbfilter - noch der praktische Aspekt hinzu, dass es ohne einfacher und schneller geht.
Das kommt noch hinzu. - Für mich ist die nach wie vor offene Frage, wie qualitativ robust ein Workflow mit künstlichem motion blur ist, weil ich bisher noch keine Situation hatte, wo der mir als künstlich auffiel (anders als z.B. bei künstlicher Zeitlupe oder künstlichem Smartphone-Bokeh).Auch das es gewisse Bereiche gibt (z.B. Dokus, EB, Hochzeitsfilmer usw), wo es tatsächlich darum geht möglichst schnell und flexibel zu sein.
Wenn ich cantsin richtig verstanden habe geht es im wesentlichen um eine aufwertskompatiblität, also alles was über 180° sprich 1/50 sec geht, wird nicht durch ND, Iso oder Blende kompensiert, sondern durch die Verschlußzeit, alles was unterhalb 180° liegt, bedarf ja ehe mehr Licht oder Iso.Frank Glencairn hat geschrieben: ↑Sa 17 Sep, 2022 18:42 Wenn man hauptsächlich tagsüber im Freien dreht, ist das durchaus ne Option wenn man Bedarf für sowas hat - warum auch nicht?
Nein. Bei einem panchromatischer S/W-Film werden die einzelnen Wellenlängen anders in Grauwerte übersetzt als es ein RGB-Sensor macht. Deshalb kann man mit einer Digitalkamera auch keinen Gelbfilter verwenden und den gleichen Effekt erzielen wie auf einem S/W-Film. Man kann digital nur in der Post so einen Effekt erzielen.cantsin hat geschrieben: ↑So 18 Sep, 2022 13:03IMHO verwechselst Du hier panchromatisch und orthochromatisch. Alle modernen s/w-Filme sind panchromatisch, d.h. sie nehmen das komplette Licht-/Farbspektrum auf. Deswegen kannst Du mit digitalen Raw-Bildern den Gelbfilter problemlos in der Post nachbauen, und alle gängigen Raw-Konverter bieten das als Funktion.pillepalle hat geschrieben: ↑So 18 Sep, 2022 03:12 Du kannst bei einer Digitalkamera gar keinen Gelbfilter benutzten, weil ein S/W Film ganz anders sensibilisiert war (panchromatisch). Man muss es also bei einer Digitalkamera ohnehin digital machen, ob man will oder nicht.
Ja, die Frage war wie unsere Erfahrungen und Meinungen sind? ;)klusterdegenerierung hat geschrieben: ↑So 18 Sep, 2022 13:27 Ging es hier darum was jeder für Vorlieben hat und wie er tickt?
Ich sehe schon einen Vorteil darin, in der Post das zu machen, was dort präziser und gezielter möglich ist.pillepalle hat geschrieben: ↑So 18 Sep, 2022 12:53
Ja, das ist ein Vorteil. Die Frage ist nur, wie man die neuen Möglichkeiten nutzt. Ich sehe eben keinen großen Sinn darin, alles nachträglich zu machen, nur weil man es auch nachträglich machen kann. Das reduziert dann wirklich das Filmen auf einen reinen Akt der Datenerfassung, denn alle künstlerischen Entscheidungen werden später getroffen. Für mich ist diese Vorstellung ein graus.
VG
24p mit kurzer Belichtungszeit erhöht den judder, was man mit Zwischenbildberechnungen und anschließendem Motion-Blur vielleicht ausgleichen könnte. Theoretisch.klusterdegenerierung hat geschrieben: ↑So 18 Sep, 2022 13:18
Drum würde mich auch interessieren ob die Methode zb. auch umgekehrt funktioniert, also aus zb 24p gefühlt 60 zu machen?
Nur daß halt nix davon irgendwie wirklich "neu" is, sondern eher ein alter Hut - sowas gibt's schon ungefähr seit 15 Jahren, ich glaub da haben wir es das erste mal bei 3D Animation eingesetzt, als die zusätzlichen Renderzeiten für Motion Blur noch enorm waren.pillepalle hat geschrieben: ↑So 18 Sep, 2022 11:21
Es geht nicht darum neue Möglichkeiten zu verteufeln und alles zu machen wie vor hundert Jahren. Aber es geht darum wie man die neuen Tools einsetzt.
Es ist doch besser, ich kann etwas Scharfes in gewünschtem Maße unscharf machen, als Bewegungsunschärfe "eingebrannt" zu haben, woran ich dann nichts mehr ändern kann.pillepalle hat geschrieben: ↑So 18 Sep, 2022 14:01 @ iasi
Es spricht doch nichts dagegen bestimmte Dinge in der Post zu machen. Aber im Beispiel des 180° Shutters geht es doch darum immer mit kürzeren Zeiten zu drehen, um nacher die Dinge künstlich wieder hinzuzufügen. Nach dem Motto, merkt ja keiner. Und die Vorteile sind dann die, dass man sich erst in der Post damit beschäftigen muss, was man mit dem Footage macht.
Das es genauer und praziser sei, trifft auch nur auf die allerwenigsten Fälle zu. Und bei 'besser' scheiden sich ohnehin die Geister.
VG
Mit der Renderzeit hängt dann eben auch die Renderqualität zusammen.Frank Glencairn hat geschrieben: ↑So 18 Sep, 2022 14:06Nur daß halt nix davon irgendwie wirklich "neu" is, sondern eher ein alter Hut - sowas gibt's schon ungefähr seit 15 Jahren, ich glaub da haben wir es das erste mal bei 3D Animation eingesetzt, als die zusätzlichen Renderzeiten für Motion Blur noch enorm waren.pillepalle hat geschrieben: ↑So 18 Sep, 2022 11:21
Es geht nicht darum neue Möglichkeiten zu verteufeln und alles zu machen wie vor hundert Jahren. Aber es geht darum wie man die neuen Tools einsetzt.
Wir brauchten ja slowmo, deswegen die 240p.iasi hat geschrieben: ↑So 18 Sep, 2022 13:5624p mit kurzer Belichtungszeit erhöht den judder, was man mit Zwischenbildberechnungen und anschließendem Motion-Blur vielleicht ausgleichen könnte. Theoretisch.klusterdegenerierung hat geschrieben: ↑So 18 Sep, 2022 13:18
Drum würde mich auch interessieren ob die Methode zb. auch umgekehrt funktioniert, also aus zb 24p gefühlt 60 zu machen?
Wäre es nicht besser gleich in 60p zu drehen?
60 Bilder pro Sekunde für 400 Umdrehungen pro Minute (6,7 Umdrehungen pro Sekunde) reichen nicht?klusterdegenerierung hat geschrieben: ↑So 18 Sep, 2022 14:30 60p hätte am Ende nicht gereicht, die Kupplung drehte mit 400 bzw 200 rpm.
Natürlch hast Du das wenn Du nicht wie ich über einen incamera Vari ND verfügst, denn dann mußt Du entweder einen Filter vor die Optik schrauben, oder mit der Iso runtergehen, was meißtens nicht geht, wenn man im Base Iso dreht.pillepalle hat geschrieben: ↑So 18 Sep, 2022 14:18 @ iasi
Das ist aber nur besser, wenn ich nicht schon vorher weiß, wie ich es haben möchte. Andernfalls ist es mehr Arbeit, denn am Set habe ich im Regelfall keinen Mehraufwand, wenn ich direkt die richtige Zeit einstelle.
VG
Nein, weil Du da nicht siehst das in einen von den Umdrehungen ein Bolzen ausfährt.AndySeeon hat geschrieben: ↑So 18 Sep, 2022 14:3360 Bilder pro Sekunde für 400 Umdrehungen pro Minute (6,7 Umdrehungen pro Sekunde) reichen nicht?klusterdegenerierung hat geschrieben: ↑So 18 Sep, 2022 14:30 60p hätte am Ende nicht gereicht, die Kupplung drehte mit 400 bzw 200 rpm.
Gruß, Andreas
Du kannst doch auch einen fixen ND-Nutzen? Das dauert doch nicht länger als in der Post wieder Motionblur hinzuzufügen? Manche Leute filmen sogar mit Licht und passen einfach die Lichtmenge an. Und wenn Du etwas einfrieren möchtest, dann filmst Du eben mit kurzen Zeiten.klusterdegenerierung hat geschrieben: ↑So 18 Sep, 2022 14:34 Damit sind wir wieder am Ausgangspunkt, nämlich kein Vari ND oder auf Dunkelheit warten, sondern Shutter erhöhen.
Das kommt dann zumindest dem am wenigsten Aufwand am nahesten.
Erfahrungen dazu habe ich keine, denn ähnlich wie pillepalle weigere ich mich Aufnahmen der Kamera als reine Datenerfassung anzusehen um dann alles in der post zu „gestalten“. Aber das ist meine persönliche Befindlichkeit und tut jetzt auch nichts zur Sache.
Stimmt sicher. Im Hinterkopf habe ich allerdings die Befürchtung, dass man es dann doch sieht, wenn das Video auf einer Kinoleinwand projiziert wird. Das ist immer der Lackmustest; auf der Leinwand sieht man fast immer Bildfehler, die man am Computermonitor oder auf dem Flatscreen-TV nicht gesehen hat.
Bei 3D/VFX/Compositing, sieht man es auch nicht. Also zumindest habe ich mich bei all den Sc-Fi, Transformers & Co. Filmen, nicht darauf konzentriert, um fake oder nicht Motion Blur zu erkennen, oder ob der vorbeifahrende LKW (aufgrund des Rolling Shutters) vll. doch ein Transformer war ;)cantsin hat geschrieben: ↑So 18 Sep, 2022 15:21Stimmt sicher. Im Hinterkopf habe ich allerdings die Befürchtung, dass man es dann doch sieht, wenn das Video auf einer Kinoleinwand projiziert wird. Das ist immer der Lackmustest; auf der Leinwand sieht man fast immer Bildfehler, die man am Computermonitor oder auf dem Flatscreen-TV nicht gesehen hat.
Es ging doch nicht vorranging um MB zu produzieren, sondern wenn man damit konfrontiert wird, beim Dreh den einfacheren Weg zu wählen, weil es in Resolve nur noch ein klick ist, MB hinzuzufügen.pillepalle hat geschrieben: ↑So 18 Sep, 2022 14:47Du kannst doch auch einen fixen ND-Nutzen? Das dauert doch nicht länger als in der Post wieder Motionblur hinzuzufügen? Manche Leute filmen sogar mit Licht und passen einfach die Lichtmenge an. Und wenn Du etwas einfrieren möchtest, dann filmst Du eben mit kurzen Zeiten.klusterdegenerierung hat geschrieben: ↑So 18 Sep, 2022 14:34 Damit sind wir wieder am Ausgangspunkt, nämlich kein Vari ND oder auf Dunkelheit warten, sondern Shutter erhöhen.
Das kommt dann zumindest dem am wenigsten Aufwand am nahesten.
Bei der Diskussion was man on Set machen soll und was in der Post, scheiden sich eben die Geister.
VG
Bildfehler?cantsin hat geschrieben: ↑So 18 Sep, 2022 15:21Stimmt sicher. Im Hinterkopf habe ich allerdings die Befürchtung, dass man es dann doch sieht, wenn das Video auf einer Kinoleinwand projiziert wird. Das ist immer der Lackmustest; auf der Leinwand sieht man fast immer Bildfehler, die man am Computermonitor oder auf dem Flatscreen-TV nicht gesehen hat.
Müsste das einfach mal in einem befreundeten Kino ausprobieren.
Naja, wenn Dir der künstliche motion blur-Algorithmus Artefakte ins Material bauen sollte (wie z.B. die Kaugummi-Zieh-Artefakte bei optical flow-Zeitlupe), sind das schon Bildfehler.
Du sagst doch aber selbst, dass dir noch keine Artefakte untergekommen sind.cantsin hat geschrieben: ↑So 18 Sep, 2022 16:41Naja, wenn Dir der künstliche motion blur-Algorithmus Artefakte ins Material bauen sollte (wie z.B. die Kaugummi-Zieh-Artefakte bei optical flow-Zeitlupe), sind das schon Bildfehler.
Es scheint, als ob es da zum optical flow-basierten künstlichen motion blur noch relativ wenig Erfahrungswerte, Fachartikel etc. gibt.
Dieser Mythos wird immer wieder nachgeplappert, obwohl es dafür keinerlei Beleg gibt.
Ja, und seit dem (und mit dem verschwinden von CRTs und ihren sanft dimmenden Linien) shuttert es.