Logo Logo
/// 

180-Grad-Regel veraltet, motion blur lieber in der Post?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Frage von cantsin:


Seit kurzem mache ich gute Erfahrungen damit, auch bei 24/25/30p-Video-Aufnahmen die 180-Grad-Regel zu ignorieren, keine ND-Filter zu verwenden, nötigenfalls auf hohe Verschlusszeiten (wie z.B. 1/500 bzw. 18 Grad bei 25 fps) zu gehen, und dann die im Material resultierenden stroboskopartigen Bewegungen in Resolve Studio durch Zufügung von künstlichem motion blur zu glätten.

Was IMHO für diesen Workflow spricht:

- Mit bloßem Auge kann ich keinen Unterschied zwischen echtem und künstlichen motion blur erkennen. Gut möglich, dass mir da (bei meiner bisher begrenzten Verwendung dieses Workflows) noch keine grenzwertigen Situationen untergekommen ist, bei dem der reingerechnete Blur versagt und ggfs. Artefakte erzeugt. Gibt es da bekannte Erfahrungswerte, bzw. bekannte Schwachpunkte von künstlichem motion blur?

- Man spart sich nicht nur das umständliche Handling mit ND-Filtern (bei Kameras ohne eingebaute NDs), sondern auch eine weitere potentielle Fehlerquelle (wie: verschmutzter ND, ND mit kaputtem Coating, der Farbstiche erzeugt) und Bildqualitätsverschlechterungen (wie: Color Shift, bei Kleinsensorkameras oft auch Auflösungsverlust, Polarisierung und X-Muster bei Vario-NDs).

- Vor allem aber: Durch die reduzierte Bewegungsunschärfe im aufgenommenen Material erhöht sich (logischerweise) dessen optische Schärfe/Auflösung, und das wiederum ist besser, wenn man das Material heutigen Bildverbesserungs/-bearbeitungsalgorithmen unterwirft - wie Denoising , künstliche Zeitlupe/optical flow sowie nachträgliche Stabilisierung .

- Letzteres gilt natürlich erst recht für alle KI-/Deep Learning-basierte Technologien, die gerade erst Fahrt aufnehmen, wie z.B. AI-Upscaling, -Denoising und -Zwischenbildberechnung.

Der Gedanke ist also ähnlich wie bei Raw- und Log-Aufnahme in Bezug auf Spatial- und Farbauflösung, das man nämlich auch hinsichtlich Bewegungsauflösung umdenkt und die fertige Bewegungsdarstellung/das erwünschte Bild nicht mehr hart ins Material einbackt, sondern lieber versucht, soviel Bildinformation wie möglich im Material zu bewahren, um optimale Ausgangsdaten für die Nachbearbeitung zu haben.

Wobei diese Überlegung natürlich mit der erzielbaren visuellen Qualität von künstlichem motion blur steht und fällt.

Wäre neugierig, mal Eure Erfahrungen und Meinungen zu dieser Frage zu hören.



Antwort von DAF:

cantsin hat geschrieben:
... und Meinungen zu dieser Frage zu hören.
So lange man keinen Workflow hat, wo vom Original oder auch z.B. von niedriger aufgelöstem & höher komprimiertem Material (als Zweitaufnahme auf der 2. SD-Karte) schnell Social-Teaser, Vorschauen etc. erstellt werden müssen, mag das sicher funktionieren. Probiert hab ich"s noch nicht, weil"s bei mir überwiegend Richtung Low-Light geht.
Das mit der künstlichen Zeitlupe ist aber eine interessante Überlegung, und mal einen Versuch wert.



Antwort von Mediamind:

Ich werde manchmal in Situationen geworfen, bei denen ich nicht umständlich die ND wechseln kann. Eine richtige Belichtung ist mir in dem Fall wichtiger als die 180 Gradregel. Da bin ich mittlerweile sehr pragmatisch. Was nutzen Bewegungsunschärfen, wenn die Hauttöne wächsern werden oder andere Dinge nicht stimmen. Im Grunde bleibe ich aber bei 180 Grad und mache mir das Leben in der Post nicht unnötig schwer. Ich halte es aber in der Tat für eine Regel, der man mit den heutigen Möglichkeiten nicht zwanghaft folgen muss.
Seitdem ich den Revoring verwende, ist es allerdings deutlich entspannter geworden. Damit ist es sehr leicht, die einfallende Lichtmenge zu handhaben.








Antwort von cantsin:

Mediamind hat geschrieben:
Seitdem ich den Revoring verwende, ist es allerdings deutlich entspannter geworden. Damit ist es sehr leicht, die einfallende Lichtmenge zu handhaben.
Vielleicht hatte ich meine Frage schlecht formuliert. Ich meinte eigentlich noch provokanter:

Selbst wenn man eine unkomplizierte Möglichkeit hat, NDs vorzuschalten (interne NDs, Revoring, magnetische NDs, gute Vario-NDs, oder bei meinen Kameras die Ulanzi-Filterklappe) - könnte es nicht auch dann besser sein, ganz auf sie zu verzichten, sein Material mit hohen Verschlusszeiten aufzunehmen und den motion blur erst in der Post reinzurechnen, weil das diverse andere o.g. Vorteile hat?



Antwort von pillepalle:

Ich muss Montag ein paar Zeitraffer-Aufnahmen machen und halte mich schön brav an die 180° Regel :) Hatte heute mal ein paar Testaufnahmen gemacht und musste nicht lange drüber nachdenken, warum lange Belichtungszeiten besser aussehen. Außerdem - warum sollte ich in der Post noch herumfummeln wollen, wenn man's auch direkt richtig machen kann? Die neuen Kameras sind für solche Dinge wirklich super und nehmen einem quasi schon die ganze Arbeit ab. Ich werde noch nicht mal RAW Einzelbilder machen sondern mir direkt einen 4K Clip rendern lassen. Wenn man Geld verdienen möchte, sind praktische Überlegungen oft wichtiger, als zu versuchen das letzte Quäntchen Qualität heraus zu holen, was am Ende eh niemand sieht.

VG



Antwort von cantsin:

pillepalle hat geschrieben:
Wenn man Geld verdienen möchte, sind praktische Überlegungen oft wichtiger, als zu versuchen das letzte Quäntchen Qualität heraus zu holen, was am Ende eh niemand sieht.
Das war aber eigentlich auch mein Punkt. Dass man sich nämlich in der Praxis (gerade mit Spiegellos- und anderen Kameras ohne eingebauten ND) Arbeit und potentielle Fehlerquellen spart, und daneben noch Vorteile für die Nachbearbeitung gewinnt.

Den künstlichen motion blur setze ich in Resolve einmal auf eine Group-Node, die dann auf alles importierte Kameramaterial angewendet wird, was mich nur ein paar Sekunden Arbeitszeit kostet.



Antwort von roki100:

Ich weiß was Du meinst und hast eigentlich recht damit. Ich kenne Motion Blur sehr gut von VFX/Compositing bzw. BMD Fusion oder Apple Motion, da wird es genau aus dem selben Grund angewendet und dementsprechend kann man es genau so auch für Videoaufnahmen anwenden.
Ich nutze es auch in Verbindung mit ProRes RAW 60p bzw. SloMo sieht damit definitiv besser aus.



Antwort von pillepalle:

@ catsin

Ja, aber es sieht doch nie so wie echter Motion Blur aus. Objekte bewegen sich unterschiedlich schnell, oder bei Wind mit unerwarteten Richtungswechseln, usw... Dann hast Du 30 sich bewegende Objekte im Bild und willst für jedes das passende Blur einstellen? Wie gesagt, wenn's geht, warum nicht direkt richtig machen?

VG



Antwort von roki100:

pillepalle hat geschrieben:
@ catsin

Ja, aber es sieht doch nie so wie echter Motion Blur aus. Objekte bewegen sich unterschiedlich schnell, oder bei Wind mit unerwarteten Richtungswechseln, usw... Dann hast Du 30 sich bewegende Objekte im Bild und willst für jedes das passende Blur einstellen? Wie gesagt, wenn's geht, warum nicht direkt richtig machen?
Warum für jedes bewegende Objekte? ;) Entweder habe ich einen Denkfehler oder Du ;)

Ich denke, wenn man (wie das Beispiel von cantsin) in z.B. 1/500 bzw. 18 Grad bei 25 fps aufnimmt, dann wirkt Motion Blur auf alle bewegende Objekte gleich.



Antwort von pillepalle:

@ roki

Weil sich die Objekte in unterschiedliche Richtungen bewegen und der Blur dann auch anders aussieht, oder sich unterschiedlich schnell bewegen. Ich gebe zu, bei den Belichtungszeiten die ich nutze (eine bis mehrere Sekunden) fällt das mehr auf als bei 1/50. Aber das Prinzip ist das gleiche.

VG



Antwort von cantsin:

pillepalle hat geschrieben:
Ja, aber es sieht doch nie so wie echter Motion Blur aus. Objekte bewegen sich unterschiedlich schnell, oder bei Wind mit unerwarteten Richtungswechseln, usw... Dann hast Du 30 sich bewegende Objekte im Bild und willst für jedes das passende Blur einstellen? Wie gesagt, wenn's geht, warum nicht direkt richtig machen?
Der Motion Blur-Effekt von Resolve Studio basiert auf optical flow und schätzt die Bewegungen aller Objekte im Bild ein. Das ist also nicht einfach nur ein primitiver Wisch-Effekt (wie z.B. der Motion Blur-Filter in Photoshop).

In Resolves Handbuch wird er wie folgt beschrieben:
"Motion Blur settings use optical-flow based motion estimation to add artificial motion blur to clips that have none. This can be useful in cases where a program was shot using a fast shutter speed, and you later decide that the resulting video has too much strobing. By analyzing the motion within a clip, the Motion Blur settings can selectively apply blurring to the image based on the speed and direction of each moving element within the scene."



Antwort von pillepalle:

@ cantsin

Danke für die Info. Werde ich mir mal anschauen. Trotzdem kann das bei zufälligen Bewegungen nicht wirklich funktionieren. Mag sein das der Unterschied zu echtem bei wenig Blur kaum auffällt.

VG

PS: Um einmal ein einfaches Beispiel zu machen... man hat eine Vogelperspektive von einem Auto das entlang einer Straße eine Kurve fährt. Dann hat man in einem echten Motion Blur einen rundlichen Wischer (das Stück Kurve das es zurück gelegt hat). Wenn Resolve das anhand des ersten und nächten Bildes berechnet, macht es keinen runden, sondern einen geraden Wischer, weil ihm die Kurveninformation von dem was dazwischen passiert ist fehlt.








Antwort von roki100:

pillepalle hat geschrieben:
@ roki

Weil sich die Objekte in unterschiedliche Richtungen bewegen und der Blur dann auch anders aussieht, oder sich unterschiedlich schnell bewegen. Ich gebe zu, bei den Belichtungszeiten die ich nutze (eine bis mehrere Sekunden) fällt das mehr auf als bei 1/50. Aber das Prinzip ist das gleiche.

VG
egal in welche Richtung, Motion Blur lässt sich so justieren, als hättest Du tatsächlich Kameraintern 180° bei 25fps angewendet . Manchmal glaube ich zu wissen ;) dass der Kamerainterner elektronischer xy Grad Prozess, nichts anderes ist, als kamerainternes Motion Blur. ;)

Wie bereits erwähnt, das wird auch von 3D Artisten / VFX &Co. benutzt... bei Kameraaufnahme bzw. Bewegbilder, wird es (denke ich) nicht anders sein.



Antwort von cantsin:

pillepalle hat geschrieben:
Danke für die Info. Werde ich mir mal anschauen. Trotzdem kann das bei zufälligen Bewegungen nicht wirklich funktionieren. Mag sein das der Unterschied zu echtem bei wenig Blur kaum auffällt.
Ja, das ist auch meine Frage. Bei künstlicher Zeitlupe mit optical flow fallen Artefakte ja sofort auf (wie z.B. Konturen, die kaugummiartig zerfließen), aber bei dem optical flow-motion blur von Resolve ging mir das bisher noch nicht so. Und es scheint ja in der Tat so zu sein, dass solche computerberechnete Bewegungsunschärfe im Bereich Animation/motion graphics/SFX routinemäßig eingesetzt wird und da offenbar gut funktioniert.

Bisher habe ich den künstlichen motion blur vor allem verwendet, um mit MotionCam spontan gedrehte Smartphone-Videos zu entstroboskopieren, wie z.B. dies hier:

https://vimeo.com/749335619



Antwort von roki100:

Nachtrag zu 3D VFX Compositing etc. siehe zB.:

What led to the idea of Motion Blur? Or the need for it?

Motion Blur in terms of film and video is a consequence of the shutter angle or time.

The shutter angle is the method of measuring the time the sensor or film emulsion is exposed to the light that produces the images you see per frame. Imagine the shutter as a 360-degree circle, with the shutter angle representing a slice of pizza taken out of it. The higher the shutter angle, the longer the film/sensor is exposed to light when the shutter is rotated. Therefore, the shutter angle is the time the film/sensor “sees” the movement for the respective image. This results in motion blur.

Another way to measure the exposure time of the recording medium is called shutter speed. The difference between shutter angle and shutter time is that the latter is a measure of how long the shutter is open per second. A shutter speed of 1/48 means that the shutter is open for forty-eighth of a second. This method of measuring shutter speeds is more closely related to the world of photography, but some digital film/video cameras can also measure shutter speeds in this way.

Essentially, you could argue that this is the only reason Motion Blur exists. We are used to seeing Motion Blur on moving images. It gives everything a more natural look because we are used to seeing motion in this way through the different shutter speeds of film and video. Motion Blur is also absolutely necessary from a compositing point of view to adapt its special FX elements to its live action elements....
https://viscircle.de/motion-blur-introd ... s/?lang=en



Antwort von rush:

cantsin hat geschrieben:

Den künstlichen motion blur setze ich in Resolve einmal auf eine Group-Node, die dann auf alles importierte Kameramaterial angewendet wird, was mich nur ein paar Sekunden Arbeitszeit kostet.
Interessant - ist der dann nach Deiner bisherigen Ansicht auch flexibel anwendbar bei unterschiedlichen Shutterzeiten? Also angenommen man variiert die Belichtung primär über den Verschluss, was einige ja aus dem A7sIII Thread bereits praktizieren.

Habe den Motion Blur Filter in Resolve noch nie benutzt - aber wie gehst Du da heran? Ein Setting für alles- oder macht es dann schon noch Sinn das entsprechend des Ausgangsshutters anzupassen wenn man mehrere Clips hat? Weil wenn man letzten Endes doch nur wieder einen fixen höheren wählt, wäre der Vorteil ja futsch.



Antwort von pillepalle:

@ cantsin

Ja, das meine ich ja. Bei wenig Motionblur (25fps) fällt der Unterschied vermutlich gar nicht auf, selbst wenn es falsch ist. Bei Timelapseaufnahmen mit 1/2 oder 1/4 fps sieht man das sofort. Einfach weil es um das 50 oder 100 Fache verlängert wurde und man quasi die Bewegung die zwischen zwei Bildern passiert ist anhand des Wischers nachverfolgen kann.

VG



Antwort von cantsin:

Hier mal ein Beispielframe ohne und mit künstlichem motion blur:
1.3.2_1.3.2.POST.jpg Originalmaterial
1.3.1_1.3.1.POST.jpg mit Resolves künstlicher Bewegungsunschärfe


Detailausschnitte:
1.3.2_1.3.2.POST-crop.jpg 1.3.1_1.3.1.POST-crop.jpg Man sieht ganz gut, dass Resolve hier die unterschiedlichen Bewegungen bzw. Bewegungsgeschwindigkeiten (a) der Kamera und (b) der Tänzerin erkennt und dementsprechend die künstliche Bewegungsunschärfe für die jeweiligen Bildteile dosiert.



Antwort von cantsin:

rush hat geschrieben:
Interessant - ist der dann nach Deiner bisherigen Ansicht auch flexibel anwendbar bei unterschiedlichen Shutterzeiten?
Ja, wobei bei diesem Workflow es natürlich optimal ist, so wenig Bewegungsunschärfe wie möglich im Ausgangsmaterial zu haben (also möglichst kurze Verschlusszeiten).
Also angenommen man variiert die Belichtung primär über den Verschluss, was einige ja aus dem A7sIII Thread bereits praktizieren.
Ist ja mittlerweile eine eigene (Brandon Li...) YouTube-Ästhetik. Ansonsten gibt's das ja wohl auch bei Action-/Martial Arts-Filmen, dass da mit kürzeren Verschlusszeiten und resultierendem leichtem Stroboskopeffekt gefilmt wird, um die Kampfszenen noch härter/dynamischer aussehen zu lassen. Oder eben umgekehrt die Filme mit langen Verschlusszeiten wie Chungking Express von Wong Kar-Wai (mit Christopher Doyle als Kameramann).

Habe den Motion Blur Filter in Resolve noch nie benutzt - aber wie gehst Du da heran? Ein Setting für alles-
Ein Setting bei Motion Blur-Dosierung "25", weil die eigentliche Bewegungserkennung und motivs-/bewegungsspezifische Blur-Dosierung ja von der Erkennungssoftware bestimmt wird.



Antwort von AndySeeon:

Genau diese Frage habe ich mir vor einiger Zeit auch gestellt. Ich hatte da gerade ein Projekt "Hüpfmania" - ein Areal mit Unmengen von Hüpfburgen. Ich habe (bei 25p) fast alles mit 1/50 Belichtungszeit (180°) gefilmt. Trotzdem musste ich in Resolve Motion Blur hinzufügen. Da sind trotz 180° zunächst noch Stottereffekte im fertigen Film zu sehen.

Ganz so einfach, wie Cantsin sich das vorstellt, war es bei mir nicht. Ich habe den fertigen Film angeschaut und dann bei den betreffenden Szenen individuell den Motion Blur "dosiert". Dazu brauchte ich Werte von ca. 15 bis hoch zu 35, immer abhängig von der Entfernung / Brennweite und der Bewegungsgeschwindigkeit in der Szene.

Zwischendurch hatte ich tatsächlich mal versuchsweise Szenen mit 1/150 Verschlusszeit gedreht. Da war der Strobo- Effekt schon abartig. Hier musste ich das Motion Blur bis auf 50 hochdrehen und trotzdem läuft der Clip nicht gänzlich glatt. Bei noch mehr Motion Blur fängt das ganze Bild an, zu verwischen und unscharf zu werden (leichte Sliderbewegung).

Ich habe für mich entschieden, lieber die Belichtungszeit sogar eher runter zu drehen (1/30), wenn es die Szene erfordert, ansonsten aber grundsätzlich 180° beizubehalten.

Just meine Erfahrung dazu...

Gruß, Andreas



Antwort von Axel:

cantsin hat geschrieben:
- Man spart sich nicht nur das umständliche Handling mit ND-Filtern (bei Kameras ohne eingebaute NDs), sondern auch eine weitere potentielle Fehlerquelle (wie: verschmutzter ND, ND mit kaputtem Coating, der Farbstiche erzeugt) und Bildqualitätsverschlechterungen (wie: Color Shift, bei Kleinsensorkameras oft auch Auflösungsverlust, Polarisierung und X-Muster bei Vario-NDs).
Deswegen hatte ich mir im Frühling ein Dreierset Klickfilter gekauft, die vor den Sensor kommen:

zum Bild


... und die würde ich auch wieder einsetzen in einer der geplanten Run&Gun-Situationen, die ein Hochzeitsvideo darstellt. Vor kurzem machte ich für einen Freund eines, davor seit Corona keines mehr. Oft ist man zwei, drei Stunden in der direkten Sonne und erlebt sämtliche von dir aufgezählten Bildverschlechterungen eines Vari-NDs plus Reflexen, die mich extrem nerven. Ein ND8 vor dem Sensor, der Rest mit Blende und Verschlusszeit (in dieser Reihenfolge), was oft heißt ND8 + f11 + 1/100. Oder so.

Neben den von dir erwähnten Argumenten ist ein weiteres die genaue Dosierbarkeit des Motionblurs in der Post. Theoretisch sogar nur auf bestimmte Bildpartien bezogen: der Rage-Kranke, den die Magic Mask erfasst hat, stroboskopiert bei 1/2000, der Hintergrund schmiert brav in künstlichen 1/50.

Eine weitere Überlegung ist das Vermeiden-Müssen von Motionblur für Gyrostabilisierung in der Post. Das gäbe imo nicht den Ausschlag, aber es weist einmal mehr darauf, dass die bessere Ausgangsqualität bei geringerem Blur liegt.
cantsin hat geschrieben:
Den künstlichen motion blur setze ich in Resolve einmal auf eine Group-Node, die dann auf alles importierte Kameramaterial angewendet wird, was mich nur ein paar Sekunden Arbeitszeit kostet.
Da kann man mal sehen. Ich mach's immer zu kompliziert.
pillepalle hat geschrieben:
Trotzdem kann das bei zufälligen Bewegungen nicht wirklich funktionieren. Mag sein das der Unterschied zu echtem bei wenig Blur kaum auffällt.
Auffällt?

Das ist mein "Problem". Ich sehe Abweichungen vom "echten" Motionblur nur in den Extremen.

zum Bild


... und darüber hinaus interessiert es glaube ich keinen, ob etwas echt oder gefakt aussieht. Weil niemand außer irgend ein paar verstrahlten Fachidioten weiß, was echt ist. Ist dasselbe mit echtem Tiltshift, echtem Pro Mist, echter Nacht, echten Vignetten oder echtem Vertigo-Effekt (der ja schon im namensgebenden Original ein Fake war).








Antwort von Frank Glencairn:

cantsin hat geschrieben:


Wäre neugierig, mal Eure Erfahrungen und Meinungen zu dieser Frage zu hören.
Ja, kann man schon machen - wir machen das z.B. bei Greenscreen aus verschiedensten Gründen schon länger - oder bei 3D, um Renderzeit zu sparen.

Ich hatte bisher allerdings keinen Anlass das bei "normalen" Aufnahmen zu machen, weil die von dir angeführten Gründe bei mir eigentlich nie wirklich zum Tragen kommen.

Auf der anderen Seite ist das ja auch ne Frage wie viel Licht man überhaupt zur Verfügung hat.
Wenn man hauptsächlich tagsüber im Freien dreht, ist das durchaus ne Option wenn man Bedarf für sowas hat - warum auch nicht?
Bei anderen Situationen müßte man dann erst mal doppelt so viel Licht (oder mehr) mitbringen.

Ich hab's jetzt ehrlich gesagt selbst noch nicht gegen echtes Motion Blur getestet, aber bei den Greenscreen Sachen macht das Motion Blur von Resolve jedenfalls nen echt guten Job - hauptsächlich bei der Integration, aber der kurze Shutter hilft natürlich auch bei schnellen Bewegungen.



Antwort von pillepalle:

Axel hat geschrieben:

... und darüber hinaus interessiert es glaube ich keinen, ob etwas echt oder gefakt aussieht. Weil niemand außer irgend ein paar verstrahlten Fachidioten weiß, was echt ist. Ist dasselbe mit echtem Tiltshift, echtem Pro Mist, echter Nacht, echten Vignetten oder echtem Vertigo-Effekt (der ja schon im namensgebenden Original ein Fake war).
Ein paar Leute scheinbar schon ;) Tom Cruise setzt sich nicht nur zum Spaß in ein echtes Flugzeug. Auch wenn viele es nicht erklären können, merkt man einem Fake eben doch meist an, daß es ein Fake ist. Man versucht immer die Wirklichkeit zu imitieren, sei es bei CGI Menschen, bei CGI Objekten denen man Makel hinzufügt, damit sie 'echter' wirken, falschen Hintergründen usw. Aber die Illusion gelingt eben nur, wenn sie gut gemacht ist. Schau Dir mal die Film-Effekte von vor 70 Jahren an. Da muss man heutzutage meist drüber schmunzeln. In 70 Jahren werden sie es über die heutigen Effekte auch tun.

VG



Antwort von Axel:

pillepalle hat geschrieben:
Axel hat geschrieben:

... und darüber hinaus interessiert es glaube ich keinen, ob etwas echt oder gefakt aussieht.
Ein paar Leute scheinbar schon ;) Tom Cruise setzt sich nicht nur zum Spaß in ein echtes Flugzeug. Auch wenn viele es nicht erklären können, merkt man einem Fake eben doch meist an, daß es ein Fake ist. Man versucht immer die Wirklichkeit zu imitieren, sei es bei CGI Menschen, bei CGI Objekten denen man Makel hinzufügt, damit sie 'echter' wirken, falschen Hintergründen usw. Aber die Illusion gelingt eben nur, wenn sie gut gemacht ist. Schau Dir mal die Film-Effekte von vor 70 Jahren an. Da muss man heutzutage meist drüber schmunzeln. In 70 Jahren werden sie es über die heutigen Effekte auch tun.
Vor 11 Jahren schrieb wolfgang (slashCAM-Mitglied und Administrator irgendeines anderen Videoforum, abtrünnig oder verstorben) bezüglich Frameraten:
wolfgang hat geschrieben:
... unser Gehirn nimmt 24p/25p anders wahr als 50i/50p. Und zwar so, dass 24p/25p als in der Vergangenheit interpretiert wird - also quasi als Geschichte die erzählt wird. Hingegen 50i/50p als in der Gegenwart liegend.

Das hängt mit der geänderten Bewegungsauflösung zusammen - daher ist der klassische Kinofilm halt eigentlich viel besser geeignet, eine "Geschichte" zu erzählen, weil in der Vergangenheit liegend, als das herkömmliche Video mit 50 Halbbildern oder jetzt auch Vollbildern.
... und das betrifft ganz selbstverständlich auch Motionblur. Das ist eine mit 24p/25p siamesisch verwachsene Filmlook-Zutat. HFR ist echter, sieht zumindest echter aus. Ist aber nicht das Wahre. Mit reality-stunts hat das nichts zu tun.



Antwort von pillepalle:

@ Axel

Es ging nicht um die Framerate und mit Deinem Statement (ob etwas echt oder gefaked aussehe) hat das auch wenig zu tun. Klar kann man höhere Frameraten, oder abgehackte Bilder, auch mal als Effekt einsetzen, aber ein Film besteht eben in der Regel nicht aus der Aneinanderreihung von soundsovielen scharfen Fotos. Im Gegenteil, wenn man sich Filmstills anschaut, merkt man ersteinmal wie unscharf das Ganze wirklich ist. Aber gerade das macht es ja so organisch.

Die Frage die ich mir bei solchen Dingen immer stelle ist eben die, warum nicht gleich richtig machen? Ich soll erst knackscharfe Einzelbilder machen, um sie dann in der Post wieder unscharf zu machen? Und der Vorteil ist dann die Flexibilität in der Post? Falls ich mir doch nochmal alles anders überlege? Vielleicht bin ich ja etwas altmodisch, aber normalerweise habe ich beim Drehen bereits ein Bild im Kopf das ich versuche so gut wie möglich umsetzten. Ich fange doch nicht erst in der Post an zu überlegen wie etwas aussehen soll?

Wenn es darum geht etwas vermurkstes zu retten (man hatte keine Zeit für die richtigen Einstellungen), oder es darum geht Smartphone-Filme besser aussehen zu lassen, dann sind solche Techniken sicher hilfreich. Aber ohne Not käme mir das nicht in den Sinn.

VG



Antwort von Axel:

Im Großen und Ganzen bin ich deiner Meinung. Trotzdem gefällt mir der Gedanke, Geraffel bei der Aufnahme zu minimieren, auch wenn das in der Post mehr Gebastel bedeutet.



Antwort von DAF:

pillepalle hat geschrieben:
... Ich fange doch nicht erst in der Post an zu überlegen wie etwas aussehen soll?
...
Das nicht - aber es gibt Szenarien wo ein erweiterter Spielraum zur Nachbearbeitung sinnvoll sein kann. Zumindest bei mir. Wenn dann der draufgerechnete Blur (fast) original aussieht, warum nicht.
Beispielsweise bei künstlicher Zeitlupe in der Post. Dahingehend werde ich das def. mal austesten, wie beides (also Original-Geschwindigkeit mit unechtem Blur <> knackscharfe Bilder mit künstlicher SlowMo) aussieht. Denn ne 50FPS Aufnahme nicht nur x2 in der 25-er Timeline ohne Qualitätsverlust, sondern x4/x8 (oder sogar mit Ramps in AE) in guter Qualität hätte ich schon hin und wieder brauchen können...

BTW: Zur Zeit ist Oktoberfest hier in München. Da gibt"s tgl. ab 20.00 Uhr+ soviel unscharfe Bewegungen wie sonst selten. Völlig unabhängig von Framerate & Shutter-Speed. Ein Eldorado... 🤩
(sorry, musste sein...)



Antwort von cantsin:

pillepalle hat geschrieben:
Die Frage die ich mir bei solchen Dingen immer stelle ist eben die, warum nicht gleich richtig machen? Ich soll erst knackscharfe Einzelbilder machen, um sie dann in der Post wieder unscharf zu machen? Und der Vorteil ist dann die Flexibilität in der Post? Falls ich mir doch nochmal alles anders überlege? Vielleicht bin ich ja etwas altmodisch, aber normalerweise habe ich beim Drehen bereits ein Bild im Kopf das ich versuche so gut wie möglich umsetzten. Ich fange doch nicht erst in der Post an zu überlegen wie etwas aussehen soll?
Naja, mit dem gleichen Argument könnte man dann sagen: Wenn man klassische s/w-Porträtfotografie macht und das Bild, das man vor Augen hat, direkt umsetzen will, und das wäre dann mit Gelbfilter, sollte man auch klassisch einen Gelbfilter vors Objektiv schrauben, statt ihn in Lightroom & Co. (durch Gelbfilterung des Bilds + Entsättigung) zu simulieren.

Nur kann gerade bei Digitalfotografie/-videographie "so gut wie möglich" auch bedeuten: soviel Information (im Sinne von Shannon/Weaver) im Bild wie möglich speichern, und alles, was Information/Bildqualität mindert, in die Post verlagern. Im Falle des Gelbfilters - und praktisch aller früher gebräuchlichen Glasfilter außer Pol und ND - wird das ja auch schon seit langem von allen gemacht.

Im Falle der 180-Grad-Regel und der dafür nötigen NDs bedeutet das ja, dass ich für eine ansprechende Bewegungsdarstellung das Bild in mehreren Aspekten qualitativ mindere: durch den vorgesetzten Filter und dessen optischen Artefakte, und eben durch mehr Unschärfe im Bild. Und dann kommt - wie beim Gelbfilter - noch der praktische Aspekt hinzu, dass es ohne einfacher und schneller geht.

Aus meiner Sicht geht die Tendenz immer mehr dahin, dass die Bild-Aufnahme eigentlich eine Datenerfassung ist, die möglichst optimale Daten für die Postproduktion liefert. (Was bei Hollywoodfilmproduktionen ja schon länger der Fall ist, durch preiswerte/demokratisierende Tools wie Resolve aber eben auch beim Mittelstand und Prosumern landet.)

Wenn es darum geht etwas vermurkstes zu retten (man hatte keine Zeit für die richtigen Einstellungen), oder es darum geht Smartphone-Filme besser aussehen zu lassen, dann sind solche Techniken sicher hilfreich. Aber ohne Not käme mir das nicht in den Sinn.
Du kannst ja noch weiterdenken: Was, wenn Du das aufgenommene Material in 10 oder 20 Jahren upscalen musst oder auf eine höhere Framerate hochrechnen (weil das dann Standard ist, so wie heute HD ggü. SD)? Dann ärgerst Du Dich, wenn Du überall im Material 1/48-Bewegungsunschärfe-Wischer hast, die dann die Hochrechnung versauen.



Antwort von iasi:

Es ist wie mit Raw.
Man erhält den größeren Gestaltungsspielraum in der Post, wenn die Einzelbilder wenig Bewegungsunschärfe aufweisen.
HFR gehört hierbei direkt dazu, denn die Sprünge vermindern sich.

HFR und kurze Belichtungszeiten ermöglichen - neben all dem schon genannten - auch höhere Schwenkgeschwindigkeiten.

Man sollte übrigens auch nicht vergessen, dass Filme mit Umlaufblende projiziert und jedes Bild doppelt gezeigt wurde, wenn man mit der Seherfahrung alter Zeiten anfängt.



Antwort von pillepalle:

cantsin hat geschrieben:
Naja, mit dem gleichen Argument könnte man dann sagen: Wenn man klassische s/w-Porträtfotografie macht und das Bild, das man vor Augen hat, direkt umsetzen will, und das wäre dann mit Gelbfilter, sollte man auch klassisch einen Gelbfilter vors Objektiv schrauben, statt ihn in Lightroom & Co. (durch Gelbfilterung des Bilds + Entsättigung) zu simulieren.

Nur kann gerade bei Digitalfotografie/-videographie "so gut wie möglich" auch bedeuten: soviel Information (im Sinne von Shannon/Weaver) im Bild wie möglich speichern, und alles, was Information/Bildqualität mindert, in die Post verlagern. Im Falle des Gelbfilters - und praktisch aller früher gebräuchlichen Glasfilter außer Pol und ND - wird das ja auch schon seit langem von allen gemacht.
Du kannst bei einer Digitalkamera gar keinen Gelbfilter benutzten, weil ein S/W Film ganz anders sensibilisiert war (panchromatisch). Man muss es also bei einer Digitalkamera ohnehin digital machen, ob man will oder nicht.
cantsin hat geschrieben:
Im Falle der 180-Grad-Regel und der dafür nötigen NDs bedeutet das ja, dass ich für eine ansprechende Bewegungsdarstellung das Bild in mehreren Aspekten qualitativ mindere: durch den vorgesetzten Filter und dessen optischen Artefakte, und eben durch mehr Unschärfe im Bild. Und dann kommt - wie beim Gelbfilter - noch der praktische Aspekt hinzu, dass es ohne einfacher und schneller geht.
Das fällt für mich schon in den Bereich der Esoterik. Diese ganzen Qualitätsdiskussionen sind spätestens in dem Moment in dem sich die Kamera bewegt hinfällig. Unabhängig davon sieht bei guten Filtern, selbst bei statischer Kamera, kein Mensch einen Qualitätsunterschied.

Und was Du praktischen Aspekt nennst, würde ich unter normalen Umständen als Faulheit bezeichnen. Das Ideal ist für viele scheinbar der hosentaschengroße Vollautomat. Ein externer Rekorder wird als riesen Handycap bei der Arbeit gesehen, echte Filter als umständlich und teuer und ein Stativ mitzunehmen ist ohnehin eine Zumutung ;) Ich verstehe natürlich das man in seiner Freizeit nicht mit Bergen von Euqipment herumrennen möchte. Auch das es gewisse Bereiche gibt (z.B. Dokus, EB, Hochzeitsfilmer usw), wo es tatsächlich darum geht möglichst schnell und flexibel zu sein.

Der allgemeine Trend geht aber immer mehr dahin, alles möglichst unkompliziert und schnell zu erledigen. So wie Rasenmähen, oder Bügeln. Eigentlich findet man alles nur lästig und der filmische Prozess, zu dem auch vieles technische Gehört (Belichtung, Fokus ect.) überläßt man lieber der Kameraautomatik, oder verlagert es in die Post. Bloß keine falsche Entscheidung treffen. Du merkst, ich übertreibe, aber so wird die Haltung deutlicher. Liegt natürlich auch daran, daß Ich die Zeit viel lieber mit der Kamera in der Hand, als am Computer in der Post, verbringe. Und die Vorstellung das Filmen als reine Datenerfassung zu sehen ignoriert, in meinen Augen, auch alle künstlerischen Komponenten des Filmens.

VG








Antwort von Darth Schneider:

Also ich lasse den Shutter grundsätzlich bei 25FpS auf 180 und wenn ich SloMo machen will, wechsle ich auf 360. irgend wie sehe ich jetzt gar keinen Grund daran was zu ändern….oder in Post mit Motion Blur was zu machen. (und habe auch zu wenig persönliche Erfahrungen damit)…
Ausser betreffend dem was Frank schon angesprochen hat, für Keying…

Auf der anderen Seite wenn der Cantsin so einen besonderen Look (Effekt) hinkritzeln kann, der ihm gefällt warum auch nicht, die NDs gleich ganz weglassen…?
Interessant !

Ich meine nur weil sich jetzt der Tom Cruise gerne in echte Kampfflieger setzt ist das noch lange kein Grund das nicht zu probieren..:=)

Gruss Boris



Antwort von Frank Glencairn:

pillepalle hat geschrieben:


Und was Du praktischen Aspekt nennst, würde ich unter normalen Umständen als Faulheit bezeichnen. Das Ideal ist für viele scheinbar der hosentaschengroße Vollautomat. Ein externer Rekorder wird als riesen Handycap bei der Arbeit gesehen, echte Filter als umständlich und teuer und ein Stativ mitzunehmen ist ohnehin eine Zumutung
Hätte von mir sein können ;-)

Und ja, das ist eine Entwicklung die ich schon seit Jahren sehe.
Alles was den Job an Arbeit, Mühe, Best Practice und Skills ausmacht wird gemieden wie der Teufel das Weihwasser.

Das ist ne Haltung, die allerdings hauptsächlich aus der Richtung der Rucksackfilmer kommt.
Wer nicht an einem normalen Set mit Crew arbeitet, sondern halt "wild" als one-man-show an irgendwelchen öffentlichen Orten ohne Genehmigung dreht, entwickelt offensichtlich ne Gear-Phobie.

Diese entsteht IMHO einerseits daraus, daß man halt nicht einfach mit nem Truck da hin fährt wo man arbeitet, sondern alles zu Fuß in einem Rucksack rumschleppen muß, und wird andererseits aus der Angst gespeist damit nicht irgendwie aufzufallen und womöglich erklären zu müssen, was zum Teufel man da denn eigentlich macht.

Deshalb wird versucht so weit wie möglich im Stealth Mode unter dem Radar zu fliegen, und gerade noch so als Tourist durchzugehen.
Unter solchen Arbeitsbedingungen ist natürlich ein Stativ oder ein Kompendium und alles was irgendwie Zeit kostet schon ein Problem.

Bei Hochzeiten, Events und dergleichen halte ich das allerdings eher für ein reines Konzeptions/Planungsproblem.



Antwort von Darth Schneider:

Man ist ja auch irgendwie absolut selber schuld wenn man mit dem Rucksack zu Fuss ohne Auto Hochzeiten und Events filmt..
Hab ich früher auch so gemacht,,würde ich aber nie mehr machen..

Autos sind doch schon sehr praktisch, kommen fast überall hin und sind für viel dümmeres zu missbrauchen..;))
Und die Zeit ist zu wertvoll um sie beim arbeiten (wartend) auf Bahnhöfen zu verschwenden.
Gruss Boris



Antwort von iasi:

pillepalle hat geschrieben:
cantsin hat geschrieben:
Im Falle der 180-Grad-Regel und der dafür nötigen NDs bedeutet das ja, dass ich für eine ansprechende Bewegungsdarstellung das Bild in mehreren Aspekten qualitativ mindere: durch den vorgesetzten Filter und dessen optischen Artefakte, und eben durch mehr Unschärfe im Bild. Und dann kommt - wie beim Gelbfilter - noch der praktische Aspekt hinzu, dass es ohne einfacher und schneller geht.
Das fällt für mich schon in den Bereich der Esoterik. Diese ganzen Qualitätsdiskussionen sind spätestens in dem Moment in dem sich die Kamera bewegt hinfällig. Unabhängig davon sieht bei guten Filtern, selbst bei statischer Kamera, kein Mensch einen Qualitätsunterschied.

Handkamera bei 180° erzeugt Bewegungsunschärfen, die z.B. eine Softwarestabilisierung kaum mehr möglich macht.
Eine gezitterte Handkameraaufnahme erkennt man dann, auch wenn die besten Gyro-Daten vorliegen.
Auch bei langen Brennweiten sind die Microruckler bei 45°nicht mehr so tragisch, denn die nachträgliche Stabilisierung kann ihre Arbeit ordentlich verrichten.

In den Bereich der Esoterik fällt es hingegen, wenn man solche Bildfehler als cinematisch einstuft, nur weil man sich früher daran gewöhnt hatte.



Antwort von iasi:

"Darth Schneider" hat geschrieben:
Man ist ja auch irgendwie absolut selber schuld wenn man mit dem Rucksack zu Fuss ohne Auto Hochzeiten und Events filmt..
Hab ich früher auch so gemacht,,würde ich aber nie mehr machen..

Autos sind doch schon sehr praktisch, kommen fast überall hin und sind für viel dümmeres zu missbrauchen..;))
Und die Zeit ist zu wertvoll um sie beim arbeiten (wartend) auf Bahnhöfen zu verschwenden.
Gruss Boris
Mach mal einen Schwenk mit sehr langer Brennweite über eine Landschaft, während der Wind in Böhen bläst.
Da brauchst du dann gleich mal ein "besonders stabiles" Stativ.

Klar fallen die Unschärfen durch die ungewollten Kamerabewegungen bei Smartphone-WW-Brennweiten nicht auf, aber wenn man den Hintergrund in seinem Bildaufbau mit einbeziehen will, braucht man eben oft auch längere Brennweiten.



Antwort von Darth Schneider:

Aber so schwer ist doch zB ein Siuri jetzt auch nicht, das kann man schon nen Berg hoch tragen, und stabil isses allemal.;))
Gruss Boris



Antwort von iasi:

"Darth Schneider" hat geschrieben:
Aber so schwer ist doch zB ein Siuri jetzt auch nicht, das kann man schon nen Berg hoch tragen, und stabil isses allemal.;))
Gruss Boris
Mit einem kleinen Siuri ist es bei langen Brennweiten nicht mehr getan - zumal, wenn man auch schwenken will.



Antwort von pillepalle:

iasi hat geschrieben:
In den Bereich der Esoterik fällt es hingegen, wenn man solche Bildfehler als cinematisch einstuft, nur weil man sich früher daran gewöhnt hatte.
Der einzige der hier von 'cinematisch' redet bist Du *g* Es ging mir darum, dass ein guter ND-Filter nicht zu Artefakten, oder spürbarem Auflösungsverlust, führt. Das fällt für mich in den Bereich der Esoterik. Und bei jeder Kamerabewegung ( egal ob Stativschwenk, eine Dolly-/Gimbalfahrt) hat man schon nicht mehr die maximale Auflösung. Wenn es einem nur um die Qualität ginge, dürfte man nur noch statische Fotos machen.

VG



Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
In den Bereich der Esoterik fällt es hingegen, wenn man solche Bildfehler als cinematisch einstuft, nur weil man sich früher daran gewöhnt hatte.
Der einzige der hier von 'cinematisch' redet bist Du *g* Es ging mir darum, dass ein guter ND-Filter nicht zu Artefakten, oder spürbarem Auflösungsverlust, führt. Das fällt für mich in den Bereich der Esoterik. Und bei jeder Kamerabewegung ( egal ob Stativschwenk, eine Dolly-/Gimbalfahrt) hat man schon nicht mehr die maximale Auflösung. Wenn es einem nur um die Qualität ginge, dürfte man nur noch statische Fotos machen.

VG
Farb-Shift hast du mal mehr mal weniger bei NDs. Diese Auszugleichen erfordert dann in der Post Zeit und Mühe.

Und frag dich mal, woran man den Unterschied zwischen einer softwarestabilisierten und Stativ-Aufnahme erkennt.
Das Problem ist dabei dann dieses "Erkennen". Es sind die Unterschiede der Bewegungsunschärfen während einer Einstellung.

Bei einem Schwenk erhält man bei HFR und kürzerer Belichtungszeit eine Reihe statischer Fotos als Ausgangsmaterial, bei denen der judder minimiert ist.
Das eröffnet dann Gestaltungsmöglichkeiten in der Post, die man bei "verschmierten" Bildern nicht mehr hat.








Antwort von pillepalle:

iasi hat geschrieben:
Farb-Shift hast du mal mehr mal weniger bei NDs. Diese Auszugleichen erfordert dann in der Post Zeit und Mühe.
Den kann man auch direkt vor Ort mit einem Weißbgleich entfernen, wenn man denn möchte. Aber dafür braucht es ja RAW, weil man es lieber in der Post macht ;)
iasi hat geschrieben:
Und frag dich mal, woran man den Unterschied zwischen einer softwarestabilisierten und Stativ-Aufnahme erkennt.
Das Problem ist dabei dann dieses "Erkennen". Es sind die Unterschiede der Bewegungsunschärfen während einer Einstellung.

Bei einem Schwenk erhält man bei HFR und kürzerer Belichtungszeit eine Reihe statischer Fotos als Ausgangsmaterial, bei denen der judder minimiert ist.
Das eröffnet dann Gestaltungsmöglichkeiten in der Post, die man bei "verschmierten" Bildern nicht mehr hat.
Darum geht es doch die ganze Zeit. Eigentlich möchte ich kein wackeliges Footage, aber statt es stabiler aufzunehmen (mit Stativ, Gimbal, Slider und Co.) nehme ich wackeliges scharfes Footage auf und stabilisiere es in der Post. Und das klappt mal besser und mal schlechter, ist aber so viel praktischer :)

Es geht nicht darum neue Möglichkeiten zu verteufeln und alles zu machen wie vor hundert Jahren. Aber es geht darum wie man die neuen Tools einsetzt. Das was ich in der Kamera machen kann, mache ich in der Kamera, weil ich das Ergebnis sofort sehe, das Ergebnis meist besser ist und ich keine zusätzliche Arbeit in der Post habe. Wenn es nicht anders geht, dann nutzt man eben die Post für Korrekturen/Effekte. Das ist etwas anderes, als wenn ich es bewußt erstmal anders aufnehme, um Mühe und Kosten beim Dreh zu sparen. Eben eine generelle Frage der Arbeitsweise und der Frage ob sich die Mühe lohnt. Das muss jeder für sich selber herausfinden.

VG



Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Farb-Shift hast du mal mehr mal weniger bei NDs. Diese Auszugleichen erfordert dann in der Post Zeit und Mühe.
Den kann man auch direkt vor Ort mit einem Weißbgleich entfernen, wenn man denn möchte. Aber dafür braucht es ja RAW, weil man es lieber in der Post macht ;)
Mal eben ein Knöpfchen drücken und schon passt´s?
Lies mal die Diskussion z.B. auf reduser zu Vari-NDs, dann wirst du feststellen, dass manche Leute etwas penibeler sind, was Farb-shift betrifft.

pillepalle hat geschrieben:
iasi hat geschrieben:
Und frag dich mal, woran man den Unterschied zwischen einer softwarestabilisierten und Stativ-Aufnahme erkennt.
Das Problem ist dabei dann dieses "Erkennen". Es sind die Unterschiede der Bewegungsunschärfen während einer Einstellung.

Bei einem Schwenk erhält man bei HFR und kürzerer Belichtungszeit eine Reihe statischer Fotos als Ausgangsmaterial, bei denen der judder minimiert ist.
Das eröffnet dann Gestaltungsmöglichkeiten in der Post, die man bei "verschmierten" Bildern nicht mehr hat.
Darum geht es doch die ganze Zeit. Eigentlich möchte ich kein wackeliges Footage, aber statt es stabiler aufzunehmen (mit Stativ, Gimbal, Slider und Co.) nehme ich wackeliges scharfes Footage auf und stabilisiere es in der Post. Und das klappt mal besser und mal schlechter, ist aber so viel praktischer :)

Es geht nicht darum neue Möglichkeiten zu verteufeln und alles zu machen wie vor hundert Jahren. Aber es geht darum wie man die neuen Tools einsetzt. Das was ich in der Kamera machen kann, mache ich in der Kamera, weil ich das Ergebnis sofort sehe, das Ergebnis meist besser ist und ich keine zusätzliche Arbeit in der Post habe. Wenn es nicht anders geht, dann nutzt man eben die Post für Korrekturen/Effekte. Das ist etwas anderes, als wenn ich es bewußt erstmal anders aufnehme, um Mühe und Kosten beim Dreh zu sparen. Eben eine generelle Frage der Arbeitsweise und der Frage ob sich die Mühe lohnt. Das muss jeder für sich selber herausfinden.

VG
Du hast immer Kameraerschütterungen - bei WW mögen sie nicht so stark auffallen, da sie im Verhältnis zum Zerstreuungskreisdurchmesser noch gering sind, aber bei Normal- und Telebrennweiten "verschmieren" sie das Bild.
Ein "verschmiertes" Bild bekommt man in der Post nicht mehr "klar".
Sind Details im Bild, kann man sie sehr einfach in der Post "verschmieren".
Umgekehrt lassen sich Details eben nicht mehr herbeizaubern.



Antwort von pillepalle:

iasi hat geschrieben:
Mal eben ein Knöpfchen drücken und schon passt´s?
Ja :)
iasi hat geschrieben:
Lies mal die Diskussion z.B. auf reduser zu Vari-NDs, dann wirst du feststellen, dass manche Leute etwas penibeler sind, was Farb-shift betrifft.
Wer einen Vari-ND benutzt und sich anschließend über die Qualität beschwert, ist selber schuld. Das ist wieder die Bequemlichkeits-Frage.
iasi hat geschrieben:
Du hast immer Kameraerschütterungen - bei WW mögen sie nicht so stark auffallen, da sie im Verhältnis zum Zerstreuungskreisdurchmesser noch gering sind, aber bei Normal- und Telebrennweiten "verschmieren" sie das Bild.
Ein "verschmiertes" Bild bekommt man in der Post nicht mehr "klar".
Sind Details im Bild, kann man sie sehr einfach in der Post "verschmieren".
Umgekehrt lassen sich Details eben nicht mehr herbeizaubern.
Ja, Motionblur gehört zum Film und der läßt sich auch nicht wegzaubern. Aber hier stellt sich wieder die Frage warum Du ihn weg haben möchtest? Z.B. für einen bestimtmen Effekt (verlangsamen, stabilisieren) den Du scheinbar vorher nicht auf dem Schirm hattest. Etwas gemein formuliert, Du weißt nicht was Du möchtest. Erst Hüh, dann Hott.

Auch so Dinge wie präzises Framing scheinen nie eine Rolle zu spielen. Bei Footage das Du nachträglich stabilisierst ändert sich auch das Framing. Das ist eben ein Arbeiten mit großer Beliebigkeit.

VG



Antwort von iasi:

pillepalle hat geschrieben:
[
Ja, Motionblur gehört zum Film und der läßt sich auch nicht wegzaubern. Aber hier stellt sich wieder die Frage warum Du ihn weg haben möchtest? Z.B. für einen bestimtmen Effekt (verlangsamen, stabilisieren) den Du scheinbar vorher nicht auf dem Schirm hattest. Etwas gemein formuliert, Du weißt nicht was Du möchtest. Erst Hüh, dann Hott.
NR funktioniert nun einmal z.B. auch besser.
Objektivkorrekturen sind ja auch sehr beliebt.

Und es geht ja gerade darum, dass man Motionblur beim Aufnahmematerial eben gerade doch "wegzaubern" kann.

In der Post dann ganz gezielt das gewünschte Bild gestalten zu können, ist doch gerade der große Fortschritt von Digi-Cine.



Antwort von pillepalle:

iasi hat geschrieben:
Und es geht ja gerade darum, dass man Motionblur beim Aufnahmematerial eben gerade doch "wegzaubern" kann.
Ich meinte auch nachträglich wegzaubern, auch wenn es da schon erste Versuche gibt, die allerdings nur mäßig funktionieren (z.B. in Photoshop).
iasi hat geschrieben:
In der Post dann ganz gezielt das gewünschte Bild gestalten zu können, ist doch gerade der große Fortschritt von Digi-Cine.
Ja, das ist ein Vorteil. Die Frage ist nur, wie man die neuen Möglichkeiten nutzt. Ich sehe eben keinen großen Sinn darin, alles nachträglich zu machen, nur weil man es auch nachträglich machen kann. Das reduziert dann wirklich das Filmen auf einen reinen Akt der Datenerfassung, denn alle künstlerischen Entscheidungen werden später getroffen. Für mich ist diese Vorstellung ein graus.

VG



Antwort von cantsin:

pillepalle hat geschrieben:
Du kannst bei einer Digitalkamera gar keinen Gelbfilter benutzten, weil ein S/W Film ganz anders sensibilisiert war (panchromatisch). Man muss es also bei einer Digitalkamera ohnehin digital machen, ob man will oder nicht.
IMHO verwechselst Du hier panchromatisch und orthochromatisch. Alle modernen s/w-Filme sind panchromatisch, d.h. sie nehmen das komplette Licht-/Farbspektrum auf. Deswegen kannst Du mit digitalen Raw-Bildern den Gelbfilter problemlos in der Post nachbauen, und alle gängigen Raw-Konverter bieten das als Funktion.
cantsin hat geschrieben:
Im Falle der 180-Grad-Regel und der dafür nötigen NDs bedeutet das ja, dass ich für eine ansprechende Bewegungsdarstellung das Bild in mehreren Aspekten qualitativ mindere: durch den vorgesetzten Filter und dessen optischen Artefakte, und eben durch mehr Unschärfe im Bild. Und dann kommt - wie beim Gelbfilter - noch der praktische Aspekt hinzu, dass es ohne einfacher und schneller geht.
Das fällt für mich schon in den Bereich der Esoterik. Diese ganzen Qualitätsdiskussionen sind spätestens in dem Moment in dem sich die Kamera bewegt hinfällig. Unabhängig davon sieht bei guten Filtern, selbst bei statischer Kamera, kein Mensch einen Qualitätsunterschied.
Die Beispiele hatte ich Dir schon genannt: nämlich jede Form der temporalen oder spatialen Nachbearbeitung, die von einer optimalen Auflösung des Ausgangsmaterials profitiert. Temporale Rauschfilterung (mit Neat & Co.) ist dabei wahrscheinlich das beste praxisnahe Beispiel. Eine ganz konkrete und banale Anwendung wären u.a., dass man bessere Standbilder aus dem Material extrahieren kann (wie auch in meinem eingangs geposteten Bildbeispiel). Was dann sogar soweit gehen kann, dass man z.B. als Event-Filmer aus demselben Kameramaterial sowohl Video, als auch als Fotos publizierte/vermarktete Stills ziehen kann.

Die 180-Grad-Regel bedeutet ja eine gezielte Verminderung der spatialen Auflösung aus bildästhetischen Gründen, bzw. um die optische Illusion höherer temporaler Auflösung zu erzielen. (Im Prinzip genauso, wie schmales DoF eine gezielte Verminderung der spatialen Auflösung ist, um die Illusion größerer Bildtiefe zu erzielen.)
Auch das es gewisse Bereiche gibt (z.B. Dokus, EB, Hochzeitsfilmer usw), wo es tatsächlich darum geht möglichst schnell und flexibel zu sein.
Das kommt noch hinzu. - Für mich ist die nach wie vor offene Frage, wie qualitativ robust ein Workflow mit künstlichem motion blur ist, weil ich bisher noch keine Situation hatte, wo der mir als künstlich auffiel (anders als z.B. bei künstlicher Zeitlupe oder künstlichem Smartphone-Bokeh).



Antwort von klusterdegenerierung:

"Frank Glencairn" hat geschrieben:
Wenn man hauptsächlich tagsüber im Freien dreht, ist das durchaus ne Option wenn man Bedarf für sowas hat - warum auch nicht?
Wenn ich cantsin richtig verstanden habe geht es im wesentlichen um eine aufwertskompatiblität, also alles was über 180° sprich 1/50 sec geht, wird nicht durch ND, Iso oder Blende kompensiert, sondern durch die Verschlußzeit, alles was unterhalb 180° liegt, bedarf ja ehe mehr Licht oder Iso.

Bei Drohnen shots nutze ich diese Methode schon länger, weil ich keine Lust auf das ND Filtermanagement habe.
Problematisch ist es bei Paralaxenflügen, ansonsten nicht.

Ich finde dieses Methode auch sehr spannend, da amn manchmal die Schärfe eh gut gebrauchen kann.
Zb drehe ich sehr viel Maschienen mit rotierenden Teilen und da ist 24p schon echt eine schwierige Sache, da ist 60p schon wesendlich knackiger.

Ich habe die Tage eine 240p Aufnahme in 24p aufgenommen und festellen müßen, das dies keine gute Idee ist, denn bei 24p ist eine Rotation maximal matschig.

Drum würde mich auch interessieren ob die Methode zb. auch umgekehrt funktioniert, also aus zb 24p gefühlt 60 zu machen?



Antwort von pillepalle:

cantsin hat geschrieben:
pillepalle hat geschrieben:
Du kannst bei einer Digitalkamera gar keinen Gelbfilter benutzten, weil ein S/W Film ganz anders sensibilisiert war (panchromatisch). Man muss es also bei einer Digitalkamera ohnehin digital machen, ob man will oder nicht.
IMHO verwechselst Du hier panchromatisch und orthochromatisch. Alle modernen s/w-Filme sind panchromatisch, d.h. sie nehmen das komplette Licht-/Farbspektrum auf. Deswegen kannst Du mit digitalen Raw-Bildern den Gelbfilter problemlos in der Post nachbauen, und alle gängigen Raw-Konverter bieten das als Funktion.
Nein. Bei einem panchromatischer S/W-Film werden die einzelnen Wellenlängen anders in Grauwerte übersetzt als es ein RGB-Sensor macht. Deshalb kann man mit einer Digitalkamera auch keinen Gelbfilter verwenden und den gleichen Effekt erzielen wie auf einem S/W-Film. Man kann digital nur in der Post so einen Effekt erzielen.

Bei allen Beispielen die Du nennst geht es immer nur um Bequemlichkeit. Man kann auch so arbeiten, dass man nicht zuviel Rauschen hat, oder separat Stills schießen, wenn man Stills braucht. Ich möchte Dich nicht davon abhalten, so zu arbeiten, ich sage nur, dass es nicht mein Stil ist. Da tickt eben jeder anders.

VG



Antwort von klusterdegenerierung:

Ging es hier darum was jeder für Vorlieben hat und wie er tickt?








Antwort von pillepalle:

klusterdegenerierung hat geschrieben:
Ging es hier darum was jeder für Vorlieben hat und wie er tickt?
Ja, die Frage war wie unsere Erfahrungen und Meinungen sind? ;)

VG



Antwort von iasi:

pillepalle hat geschrieben:


Ja, das ist ein Vorteil. Die Frage ist nur, wie man die neuen Möglichkeiten nutzt. Ich sehe eben keinen großen Sinn darin, alles nachträglich zu machen, nur weil man es auch nachträglich machen kann. Das reduziert dann wirklich das Filmen auf einen reinen Akt der Datenerfassung, denn alle künstlerischen Entscheidungen werden später getroffen. Für mich ist diese Vorstellung ein graus.

VG
Ich sehe schon einen Vorteil darin, in der Post das zu machen, was dort präziser und gezielter möglich ist.

Sich auf das konzentrieren zu können, was am Set zu geschehen hat, ist doch von Vorteil.

Die Brennweite lässt sich in der Post nicht mehr verändern.
Bildausschnitt, Kamerabewegung und Licht sind auch nur in geringem Maße in der Post veränderbar - meist nur Feinschliff.

Besonders wichtig:
Das, was sich vor der Kamera abspielt, lässt sich in der Post nicht mehr verändern.

Ich hab z.B. gestern gelesen, dass bei einer Produktion mit 11-jährigen Zwillingen in den Hauptrollen die Wahl auf 35mm gefallen war, um den filmischen Look zu erzielen. Dabei wurde auch angemerkt, dass aufgrund der Negativkosten sehr gezielt gearbeitet werden musste.
Dies halte ich für einen großen Fehler, denn ich bekomme doch von Kinderdarstellern nicht die schauspielerische Leistung, die ich will, wenn ich mit dem Filmmaterial haushalten muss.

Wenn während eines Drehtages viel Zeit auf die Einrichtung der Technik verfällt, bleibt nun einmal weniger Zeit für die eigentlichen Aufnahmen.
Daher gilt für mich: Alles, was in der Post ebenso (oder gar besser) erledigt werden kann, wird nicht während der Drehzeit gemacht.

Die Aufnahmen, die die Kamera liefert, sollten daher das Optimum an Gestaltungsspielraum in der Post bieten.
Für mich sind das ETTR-belichtetes Raw, HFR, bestmögliche Abbildungsleistung der Objektive, Auflösung und eben auch geringe Bewegungsunschärfe.
Am Set bekommt man daher nicht das fertige Bild zu sehen.
Das ist wie die Videoausspiegelungen bei Negativdrehs - diese dienten nur dazu, die schauspielerische Leistung und das Zusammenspiel von Darstellern und Kamera zu beurteilen.



Antwort von iasi:

klusterdegenerierung hat geschrieben:

Drum würde mich auch interessieren ob die Methode zb. auch umgekehrt funktioniert, also aus zb 24p gefühlt 60 zu machen?
24p mit kurzer Belichtungszeit erhöht den judder, was man mit Zwischenbildberechnungen und anschließendem Motion-Blur vielleicht ausgleichen könnte. Theoretisch.
Wäre es nicht besser gleich in 60p zu drehen?



Antwort von pillepalle:

@ iasi

Es spricht doch nichts dagegen bestimmte Dinge in der Post zu machen. Aber im Beispiel des 180° Shutters geht es doch darum immer mit kürzeren Zeiten zu drehen, um nacher die Dinge künstlich wieder hinzuzufügen. Nach dem Motto, merkt ja keiner. Und die Vorteile sind dann die, dass man sich erst in der Post damit beschäftigen muss, was man mit dem Footage macht.

Das es genauer und praziser sei, trifft auch nur auf die allerwenigsten Fälle zu. Und bei 'besser' scheiden sich ohnehin die Geister.

VG



Antwort von Frank Glencairn:

pillepalle hat geschrieben:


Es geht nicht darum neue Möglichkeiten zu verteufeln und alles zu machen wie vor hundert Jahren. Aber es geht darum wie man die neuen Tools einsetzt.
Nur daß halt nix davon irgendwie wirklich "neu" is, sondern eher ein alter Hut - sowas gibt's schon ungefähr seit 15 Jahren, ich glaub da haben wir es das erste mal bei 3D Animation eingesetzt, als die zusätzlichen Renderzeiten für Motion Blur noch enorm waren.



Antwort von pillepalle:

@ Frank

Mit neu meinte ich auch eher für alle zugänglich und praktikabel. Vor 15 Jahren hatte noch nicht jeder eine tolle NLE und die Renderzeiten waren entsprechend lang. Eben nur was für Profis/Spezialisten.

VG



Antwort von iasi:

pillepalle hat geschrieben:
@ iasi

Es spricht doch nichts dagegen bestimmte Dinge in der Post zu machen. Aber im Beispiel des 180° Shutters geht es doch darum immer mit kürzeren Zeiten zu drehen, um nacher die Dinge künstlich wieder hinzuzufügen. Nach dem Motto, merkt ja keiner. Und die Vorteile sind dann die, dass man sich erst in der Post damit beschäftigen muss, was man mit dem Footage macht.

Das es genauer und praziser sei, trifft auch nur auf die allerwenigsten Fälle zu. Und bei 'besser' scheiden sich ohnehin die Geister.

VG
Es ist doch besser, ich kann etwas Scharfes in gewünschtem Maße unscharf machen, als Bewegungsunschärfe "eingebrannt" zu haben, woran ich dann nichts mehr ändern kann.

Viele Informationen lassen sich reduzieren.
Aus wenigen Informationen kann ich aber nicht viele erzeugen.



Antwort von iasi:

"Frank Glencairn" hat geschrieben:
pillepalle hat geschrieben:


Es geht nicht darum neue Möglichkeiten zu verteufeln und alles zu machen wie vor hundert Jahren. Aber es geht darum wie man die neuen Tools einsetzt.
Nur daß halt nix davon irgendwie wirklich "neu" is, sondern eher ein alter Hut - sowas gibt's schon ungefähr seit 15 Jahren, ich glaub da haben wir es das erste mal bei 3D Animation eingesetzt, als die zusätzlichen Renderzeiten für Motion Blur noch enorm waren.
Mit der Renderzeit hängt dann eben auch die Renderqualität zusammen.
Es geht nicht nur um schneller, sondern eben auch um besser.



Antwort von pillepalle:

@ iasi

Das ist aber nur besser, wenn ich nicht schon vorher weiß, wie ich es haben möchte. Andernfalls ist es mehr Arbeit, denn am Set habe ich im Regelfall keinen Mehraufwand, wenn ich direkt die richtige Zeit einstelle.

VG








Antwort von klusterdegenerierung:

iasi hat geschrieben:
klusterdegenerierung hat geschrieben:

Drum würde mich auch interessieren ob die Methode zb. auch umgekehrt funktioniert, also aus zb 24p gefühlt 60 zu machen?
24p mit kurzer Belichtungszeit erhöht den judder, was man mit Zwischenbildberechnungen und anschließendem Motion-Blur vielleicht ausgleichen könnte. Theoretisch.
Wäre es nicht besser gleich in 60p zu drehen?
Wir brauchten ja slowmo, deswegen die 240p.
Du meinst die 240p dann in 60p statt 24p, oder überhaupt in 60p?

60p hätte am Ende nicht gereicht, die Kupplung drehte mit 400 bzw 200 rpm.



Antwort von AndySeeon:

klusterdegenerierung hat geschrieben:
60p hätte am Ende nicht gereicht, die Kupplung drehte mit 400 bzw 200 rpm.
60 Bilder pro Sekunde für 400 Umdrehungen pro Minute (6,7 Umdrehungen pro Sekunde) reichen nicht?

Gruß, Andreas



Antwort von AndySeeon:

AndySeeon hat geschrieben:
klusterdegenerierung hat geschrieben:
60p hätte am Ende nicht gereicht, die Kupplung drehte mit 400 bzw 200 rpm.
60 Bilder pro Sekunde für 400 Umdrehungen pro Minute (6,7 Umdrehungen pro Sekunde) reichen nicht?

Gruß, Andreas




Antwort von klusterdegenerierung:

pillepalle hat geschrieben:
@ iasi

Das ist aber nur besser, wenn ich nicht schon vorher weiß, wie ich es haben möchte. Andernfalls ist es mehr Arbeit, denn am Set habe ich im Regelfall keinen Mehraufwand, wenn ich direkt die richtige Zeit einstelle.

VG
Natürlch hast Du das wenn Du nicht wie ich über einen incamera Vari ND verfügst, denn dann mußt Du entweder einen Filter vor die Optik schrauben, oder mit der Iso runtergehen, was meißtens nicht geht, wenn man im Base Iso dreht.

Damit sind wir wieder am Ausgangspunkt, nämlich kein Vari ND oder auf Dunkelheit warten, sondern Shutter erhöhen.
Das kommt dann zumindest dem am wenigsten Aufwand am nahesten.



Antwort von klusterdegenerierung:

AndySeeon hat geschrieben:
klusterdegenerierung hat geschrieben:
60p hätte am Ende nicht gereicht, die Kupplung drehte mit 400 bzw 200 rpm.
60 Bilder pro Sekunde für 400 Umdrehungen pro Minute (6,7 Umdrehungen pro Sekunde) reichen nicht?

Gruß, Andreas
Nein, weil Du da nicht siehst das in einen von den Umdrehungen ein Bolzen ausfährt.
(vielleicht waren es auch 400 pro Sekunde, man erkennt nämlich so gt wie nix. :-)



Antwort von pillepalle:

klusterdegenerierung hat geschrieben:
Damit sind wir wieder am Ausgangspunkt, nämlich kein Vari ND oder auf Dunkelheit warten, sondern Shutter erhöhen.
Das kommt dann zumindest dem am wenigsten Aufwand am nahesten.
Du kannst doch auch einen fixen ND-Nutzen? Das dauert doch nicht länger als in der Post wieder Motionblur hinzuzufügen? Manche Leute filmen sogar mit Licht und passen einfach die Lichtmenge an. Und wenn Du etwas einfrieren möchtest, dann filmst Du eben mit kurzen Zeiten.

Bei der Diskussion was man on Set machen soll und was in der Post, scheiden sich eben die Geister.

VG



Antwort von Funless:

cantsin hat geschrieben:
Wäre neugierig, mal Eure Erfahrungen und Meinungen zu dieser Frage zu hören.
Erfahrungen dazu habe ich keine, denn ähnlich wie pillepalle weigere ich mich Aufnahmen der Kamera als reine Datenerfassung anzusehen um dann alles in der post zu „gestalten“. Aber das ist meine persönliche Befindlichkeit und tut jetzt auch nichts zur Sache.

Meine Meinung hierzu allerdings ist, dass absolut überhaupt nichts dagegen spricht es so zu machen wie von cantsin beschrieben, wenn man es so machen möchte.

Denn bei der Frage ob „man“ den Fake Motion Blur dann im fertigen Ergebnis erkennt oder nicht sollte man die pyschologische Komponente der Wahrnehmung nicht außer acht lassen.

Heißt genauer: „Man“ erkennt es nur als Fake wenn man entweder weiß, dass es Fake ist oder wenn man den Fake sehen will weil man von einem Fake ausgeht.

De Facto bedeutet es, dass 99,9999999% aller Konsumenten von Bewegtbild Content auf diesen Planeten den Motion Blur Fake nicht erkennen würden weil es ihnen schlicht und ergreifend egal ist.



Antwort von cantsin:

Funless hat geschrieben:
De Facto bedeutet es, dass 99,9999999% aller Konsumenten von Bewegtbild Content auf diesen Planeten den Motion Blur Fake nicht erkennen würden weil es ihnen schlicht und ergreifend egal ist.
Stimmt sicher. Im Hinterkopf habe ich allerdings die Befürchtung, dass man es dann doch sieht, wenn das Video auf einer Kinoleinwand projiziert wird. Das ist immer der Lackmustest; auf der Leinwand sieht man fast immer Bildfehler, die man am Computermonitor oder auf dem Flatscreen-TV nicht gesehen hat.

Müsste das einfach mal in einem befreundeten Kino ausprobieren.



Antwort von roki100:

cantsin hat geschrieben:
Funless hat geschrieben:
De Facto bedeutet es, dass 99,9999999% aller Konsumenten von Bewegtbild Content auf diesen Planeten den Motion Blur Fake nicht erkennen würden weil es ihnen schlicht und ergreifend egal ist.
Stimmt sicher. Im Hinterkopf habe ich allerdings die Befürchtung, dass man es dann doch sieht, wenn das Video auf einer Kinoleinwand projiziert wird. Das ist immer der Lackmustest; auf der Leinwand sieht man fast immer Bildfehler, die man am Computermonitor oder auf dem Flatscreen-TV nicht gesehen hat.
Bei 3D/VFX/Compositing, sieht man es auch nicht. Also zumindest habe ich mich bei all den Sc-Fi, Transformers & Co. Filmen, nicht darauf konzentriert, um fake oder nicht Motion Blur zu erkennen, oder ob der vorbeifahrende LKW (aufgrund des Rolling Shutters) vll. doch ein Transformer war ;)








Antwort von klusterdegenerierung:

pillepalle hat geschrieben:
klusterdegenerierung hat geschrieben:
Damit sind wir wieder am Ausgangspunkt, nämlich kein Vari ND oder auf Dunkelheit warten, sondern Shutter erhöhen.
Das kommt dann zumindest dem am wenigsten Aufwand am nahesten.
Du kannst doch auch einen fixen ND-Nutzen? Das dauert doch nicht länger als in der Post wieder Motionblur hinzuzufügen? Manche Leute filmen sogar mit Licht und passen einfach die Lichtmenge an. Und wenn Du etwas einfrieren möchtest, dann filmst Du eben mit kurzen Zeiten.

Bei der Diskussion was man on Set machen soll und was in der Post, scheiden sich eben die Geister.

VG
Es ging doch nicht vorranging um MB zu produzieren, sondern wenn man damit konfrontiert wird, beim Dreh den einfacheren Weg zu wählen, weil es in Resolve nur noch ein klick ist, MB hinzuzufügen.

Und ja Filter adaptieren kann Aufwand sein, wenn man unterschiedliche Durchmesser mit Adaptern etc. benötigt, bzw feste NDs statt Varis verwendet.
Zudem ist ja auch garnicht immer gesagt, das jede shutter veänderung automatisch visuell so sichtbar ist, das man MB hinzufügen muß.



Antwort von iasi:

cantsin hat geschrieben:
Funless hat geschrieben:
De Facto bedeutet es, dass 99,9999999% aller Konsumenten von Bewegtbild Content auf diesen Planeten den Motion Blur Fake nicht erkennen würden weil es ihnen schlicht und ergreifend egal ist.
Stimmt sicher. Im Hinterkopf habe ich allerdings die Befürchtung, dass man es dann doch sieht, wenn das Video auf einer Kinoleinwand projiziert wird. Das ist immer der Lackmustest; auf der Leinwand sieht man fast immer Bildfehler, die man am Computermonitor oder auf dem Flatscreen-TV nicht gesehen hat.

Müsste das einfach mal in einem befreundeten Kino ausprobieren.
Bildfehler?
Das scheint mir nicht der richtige Begriff.

Ein Bildfehler ist doch eigentlich die Beschränkung auf 24fps aufgrund finanzieller und Logistik-Bedenken.
Die Krücke mit der Umlaufblende gehört auch der Vergangenheit an.

Motion Blur dient doch nur dazu, den judder-Effekt zu überdecken.
Camerons Avatar 2 könnte die 24fps/180° zu Grabe tragen.
Für die Gamer-Generation sind sogar 120fps schon ein Minimum.



Antwort von cantsin:

iasi hat geschrieben:
Bildfehler?
Das scheint mir nicht der richtige Begriff.
Naja, wenn Dir der künstliche motion blur-Algorithmus Artefakte ins Material bauen sollte (wie z.B. die Kaugummi-Zieh-Artefakte bei optical flow-Zeitlupe), sind das schon Bildfehler.

Es scheint, als ob es da zum optical flow-basierten künstlichen motion blur noch relativ wenig Erfahrungswerte, Fachartikel etc. gibt.



Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Bildfehler?
Das scheint mir nicht der richtige Begriff.
Naja, wenn Dir der künstliche motion blur-Algorithmus Artefakte ins Material bauen sollte (wie z.B. die Kaugummi-Zieh-Artefakte bei optical flow-Zeitlupe), sind das schon Bildfehler.

Es scheint, als ob es da zum optical flow-basierten künstlichen motion blur noch relativ wenig Erfahrungswerte, Fachartikel etc. gibt.
Du sagst doch aber selbst, dass dir noch keine Artefakte untergekommen sind.
Ich kann mir auch nur schwer vorstellen, wie das "Verschmieren" zu ähnlichen Artefakten wie bei optical flow-Zeitlupe führen soll.



Antwort von Frank Glencairn:

iasi hat geschrieben:

Ein Bildfehler ist doch eigentlich die Beschränkung auf 24fps aufgrund finanzieller und Logistik-Bedenken.
Dieser Mythos wird immer wieder nachgeplappert, obwohl es dafür keinerlei Beleg gibt.
In Wirklichkeit hat das mit Wahrnehmungspsychologie zu tun.
Wir hatten die Diskussion hier vor zig Jahren schon mal. Damals hatte ich ne Studie zitiert, nach der so um 24 frames rum die selben Gehirnareale aktiviert werden wie beim Träumen, während diese bei höheren Framerates nicht aktiv sind.
iasi hat geschrieben:

Die Krücke mit der Umlaufblende gehört auch der Vergangenheit an.
Ja, und seit dem (und mit dem verschwinden von CRTs und ihren sanft dimmenden Linien) shuttert es.
Mit der angeblichen "Krücke" war hingegen alles butterweich.

Und Cameron kann gar nix - erinnerst du dich noch daran wie er jahrelang großmäulig behauptet hat, er würde für den nächsten Avatar 3D ohne Brille machen? Und jetzt - nix, ganz normales 80/15 3D mit Brille wie gehabt - seine 3D Technik hat sich seit 13 Jahren nicht mehr weiterentwickelt, alles der selbe alte Hut wie damals bei Avatar 1.



Antwort von Axel:

cantsin hat geschrieben:
Im Hinterkopf habe ich allerdings die Befürchtung, dass man es dann doch sieht, wenn das Video auf einer Kinoleinwand projiziert wird. Das ist immer der Lackmustest; auf der Leinwand sieht man fast immer Bildfehler, die man am Computermonitor oder auf dem Flatscreen-TV nicht gesehen hat.

Müsste das einfach mal in einem befreundeten Kino ausprobieren.
Stellt sich die Frage, für wie viele hier eine Kinoprojektion ein realistisches Szenario ist. Benutzt man den Projektor als einen besseren Beamer, der über den entsprechenden Eingang und bei entsprechender Einstellung rec_709 ausgibt?

Dann ist da zuallererst der, äh, Bildstand, der in's Auge fällt. Ein wackeliges Bild, dessen Zittern alle Details in den Blur stürzt (Drag Me To Hell!). Lässt sich simulieren durch kürzeren Betrachtungsabstand zum Monitor.*
*EDIT: Wackeln und Zittern sind ohne Motionblur eher noch kotzfördernder als mit, also Filmfeind Nummer eins.

Dann, tatsächlich, so etwas Esoterisches wie "Kadenz" (Rhythmus, Takt, Frequenz, aus der Musik entlehnt), meist im Zusammenhang mit subjektiv als natürlich und wertig empfundener Bildfrequenz und proportionalem Motion Blur. Und "Flicker" (Titel eines hammermäßig guten Thriller-Schmökers von Theodore Roszak), das Flackern der Flügelblende, das uns 72 x pro Sekunde für insgesamt eine Drittelsekunde eine unbeleuchtete Leinwand zeigte. Früher.

8-bit galten früher als farblich zu undifferenziert, um nicht sofort entlarvt zu werden, aber der Zacuto Shootout von vor 10 Jahren zeigte, dass man selbst Francis Ford Coppola täuschen konnte.

Alle unsere heutigen Kameras sind mE voll kinotauglich. Alles, was an negativen Artefakten auffällt, fällt durch die Größe der Bilder auf und wegen nichts anderem mehr.



Antwort von Frank Glencairn:

Axel hat geschrieben:


Stellt sich die Frage, für wie viele hier eine Kinoprojektion ein realistisches Szenario ist.
Ich mach so 4-5 DCPs pro Jahr.
Axel hat geschrieben:

Dann ist da zuallererst der, äh, Bildstand, der in's Auge fällt. Ein wackeliges Bild, dessen Zittern alle Details in den Blur stürzt (Drag Me To Hell!).
Warum sollte bei Nutzung des externen Eingangs - sagen wir mal von einem Blurayplayer oder Rechner - der Bildstand bei einer digitalen Projektion leiden?



Antwort von Axel:

"Frank Glencairn" hat geschrieben:
Axel hat geschrieben:


Stellt sich die Frage, für wie viele hier eine Kinoprojektion ein realistisches Szenario ist.
Ich mach so 4-5 DCPs pro Jahr.
Ich sagte nicht: keiner. Ich fragte: wie viele?
"Frank Glencairn" hat geschrieben:
Axel hat geschrieben:

Dann ist da zuallererst der, äh, Bildstand, der in's Auge fällt. Ein wackeliges Bild, dessen Zittern alle Details in den Blur stürzt (Drag Me To Hell!).
Warum sollte bei Nutzung des externen Eingangs - sagen wir mal von einem Blurayplayer oder Rechner - der Bildstand bei einer digitalen Projektion leiden?
Das bezog sich auf den Farbraum. Davon abgesehen ist danach eine große Leinwand unbarmherzig gegenüber Videos, die man auf dem Monitor für hinreichend ruhig gehalten hatte.



Antwort von iasi:

pillepalle hat geschrieben:
@ iasi

Das ist aber nur besser, wenn ich nicht schon vorher weiß, wie ich es haben möchte. Andernfalls ist es mehr Arbeit, denn am Set habe ich im Regelfall keinen Mehraufwand, wenn ich direkt die richtige Zeit einstelle.

VG
Jein.
Was ist schon der Regelfall?
Man sollte nicht an alten Regeln kleben und diese in jedem Einzelfall hinterfragen.

Gerade wenn du schon vorher weißt, was du haben und wie du dies verwirklichen möchtest, kannst du entscheiden.
Ich tendiere meist zu einem Ausgangsmaterial, das den größtmöglichen Spielraum bietet.
Raw
hohe Auflösung (auch durch kurze Belichtungszeit)
geringe Komprimierung
HFR
ETTR/natives ISO/native Farbtemperatur

Weniger geht schließlich am Ende immer.

Abwägen wird man natürlich, denn nicht jeder Inhalt verlangt nach der maximalen Materialqualität.

Der Aufwand ergibt sich übrigens oft später:
Wenn du z.B. einen Wackler drin hast, bekommst du den eben nicht einfach durch Poststabilisierung raus, wenn du Bewegungsunschärfen drin hast.
Da hast du vielleicht eine wunderbare Darstellung vor der Kamera und musst wegen solch einem Wackler die Einstellung wegwerfen.








Antwort von cantsin:

Axel hat geschrieben:
"Frank Glencairn" hat geschrieben:


Ich mach so 4-5 DCPs pro Jahr.
Ich sagte nicht: keiner. Ich fragte: wie viele?
Bin ja eigentlich im No Budget-Experimentalfilmbereich zuhause, und da ist Kinoprojektion Standard, auch wenn's meistens nur in einem Kommunal- oder Off-Off-Kino vor ein paar dutzend Leuten stattfindet.



Antwort von pillepalle:

iasi hat geschrieben:
Jein.
Was ist schon der Regelfall?
Der Regelfall bei szenischen Filmen ist der, dass man planvoll arbeitet. Da weiß man normalerweise vorher schon, warum man eine bestimmte Szene dreht.

Viele arbeiten aber in anderen Bereichen und machen meist die ein oder andere Form von Run&Gun. Etwas überspitzt gesagt, erstmal drauflosfilmen und möglichst viel footage sammeln und sich nacher in der Post zu überlegen, wie man das Ganze verwurstet. Da kommt es natürlich viel öfter vor, das man sich im Nachhinein wünscht das Footage zu stabilisieren, oder vielleicht doch eine die Abspielgeschwindigkeit ändern zu wollen, usw...

VG



Antwort von klusterdegenerierung:

@Pillepalle
So richtig verstehe ich Deine Argumente nicht, denn es geht doch lediglich um eine Erleichterung bei der ich das gleiche Ergebnis erzielen kann, plus ich habe noch ein zusätzliches feature.

Du machst jetzt die ganze Zeit einen auf professionell oder nicht und was standart ist und wie man sich in dem Umfeld verhält und aggiert, aber darum geht es doch nicht.

Geht doch nur darum das man sich das Leben bei gleichem Ergebnis erleichtert und nicht was Standesgemäß ist.



Antwort von AndySeeon:

Hmmm, ich verfolge diese akademische Diskussion nun seit Samstag, weil ich seit ca. einer Woche versuche, ein vernünftiges Motion Blur in eine Szene zu bringen, die (wie schon hier beschrieben) mit 25p und 1/150 (60°) gedreht wurde. Es handelt sich um einen Verfolgerschwenk mit wirklich toll scharfen Einzelbildern, die beim Abspielen erbärmlich ruckeln.

Resolve blurrt die umhertobenden Kinder einigermaßen gut aus, aber die im Schwenk vorbeiziehende Umgebung ruckelt weiterhin saumäßig. Ich kann in Resolve einstellen, was ich will, die Umgebung wird nicht geblurrt.

Außerdem funktioniert bei mir außer der Motion Effects im Color- Tab keiner der Motion- Blur- Effekte von Resolve:
* nicht aus den Effects im Edit- Tab noch aus den Effects im Color- Tab
* nicht im Fusion / Merge- Knoten und auch nicht als Effect im Fusion
* und im HDR- Modus funktioniert gar kein Motion Blur; nicht mal im Color Tab unter "Motion Effects"

Hat hier vielleicht jemand auch praktische Erfahrung mit dem Thema und kann mir einen hilfreichen Tipp geben?

Übrigens: zwischendurch kam mal eine interessante Argumentation: Bildfehler sind auf der Leinwand schneller sichtbar als auf dem Bildschirm (oder Handy). Kann ich leicht bestätigen. Im Vorschaufenster von Resolve sieht man das Geruckel kaum, da scheint alles beinahe in Ordnung zu sein. Aber schon auf meinem kleinen 55"-OLED Vorschaubildschirm ist es übel anzusehen, da braucht es gar keine Kinoleinwand.

Gruß, Andreas




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen:
Was spricht gegen künstlichen Motion Blur?
Video Stiching 180 Grad
180 Grad VR Videos erstellen
Canon stellt Dual-Fisheye für 180-Grad-VR vor
Internen Ton der Hero 5 & 6 in der Post (PP 2019) verbessern
Fettfleck auf der Linse in der Post
Vegas POST -- neue Post-Production-Suite soll zum Herbst kommen // NAB 2019
Focus Peaking in der Post?
Reflektionen in Glasscheibe fixen in der Post?
Der Dolly Shot aus The French Dispatch - 90 Sekunden, mit 90 Grad Wendungen
Post Production in der Cloud mit Adobe Premiere Pro per Qumulo Studio Q
Adobe After Effects und Nuke jetzt Teil der Netflix Post Technology Alliance
Slow-Motion Qualität der Panasonic GH5 und GH5s
Alight Motion - Motion Design und Compositing für Android
Edelkrone SliderONE PRO: der mobile Motion Control Slider mit App
Netflix wird als erster Streamingdienst Mitglied der Motion Picture Association of America
SCIENTIFIC & TECHNICAL AWARDS 2021 der Academy of Motion Picture Arts and Science
Wasserfest ist nicht die Regel?!
Meine neue goldene Regel beim Drehen... Schnauze halten :)
Ach, du lieber Koala: Tiergarten Schönbrunn
Neue Netflix-Regel: Streaming-Filme vom Filmwettbewerb in Cannes ausgeschlossen
G9 gut oder doch lieber die GH5?
Für DVD lieber in SD filmen oder HD konvertieren?
Was soll ich tun? Doch lieber die Festbrennweite?
LG UltraGear 48GQ900: 48" OLED 4K Riesen-Monitor mit HDMI 2.1 - oder lieber 5K2K?
Ersatzakku Panasonic NV-GS 180

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom