hey leute, normalerweis efilme ich mit der regel 25p = 1/50 SS, also das doppelte. meine frage: kann man bei 25p auch mit 1/100 verschlusszeit filmen? geht in diesem fall nur darum, ob das bild flüssig bleibt.
vg
Antwort von Bruno Peter:
milesdavis hat geschrieben:
hey leute, normalerweis efilme ich mit der regel 25p = 1/50 SS, also das doppelte. meine frage: kann man bei 25p auch mit 1/100 verschlusszeit filmen? geht in diesem fall nur darum, ob das bild flüssig bleibt.
vg
Klar kannst Du damit ein Denkmal filmen, wenn Du aber schwenkst kann es ruckeln kommen
weil die Frames dann an den Kanten keine Bewegungsunschärfe haben.
Antwort von Jörg:
Wassertropfen in Gischt etc werden deutlich präsenter, sprich du frierst sie bereits leicht ein.
Bewegungen parallel zur cam können ruckeln, werden bewegungsschärfer.
Antwort von carstenkurz:
Es hängt vom Motiv ab. Grundsätzlich ist das sicher keine gute Idee. 25p/24p ist ja schon die allerunterste Grenze für die Bewegungswahrnehmung. Bei schnell bewegten Motiven oder Kamera wird man kurze Belichtungszeiten dann als recht deutliches Strobing wahrnehmen. Bei manchen Motiven ist das vielleicht sogar reizvoll, bei anderen stört es massiv. Muss man also ausprobieren.
- Carsten
Antwort von WoWu:
milesdavis hat geschrieben:
hey leute, normalerweis efilme ich mit der regel 25p = 1/50 SS, also das doppelte. meine frage: kann man bei 25p auch mit 1/100 verschlusszeit filmen? geht in diesem fall nur darum, ob das bild flüssig bleibt.
vg
Kommt darauf an, wie klein Deine Pixels sind bzw. wie hoch das Bild auflöst.
Je höher, umso weiter musst Du mit dem Schutter runter gehen. Das geht aber nicht beliebig, weil sonst der Stroposkopeffekt einsetzt.
Nach Erkenntnissen des japanischen TV Anbieters NHK gilt für UHD-2
Grossflächenflimmern > 80Hz
Blur: Belichtungszeit < 1/320s
Stroboskopeffekt > 100 Hz
Im Grundsatz gilt das auch für 4K entsprechend.
Schwenkzeiten, die dann nicht ruckeln kann man ausrechnen.
Antwort von Roland Schulz:
In Frage steht auch wo das Material wiedergegeben wird. Hat der TV eine gute Frameinterpolation/Motionflow kann ohne weiteres kürzer belichtet werden. Somit erreicht man eine höhere Bewegungsschärfe.
Antwort von mash_gh4:
"Roland Schulz" hat geschrieben:
In Frage steht auch wo das Material wiedergegeben wird. Hat der TV eine gute Frameinterpolation/Motionflow kann ohne weiteres kürzer belichtet werden. Somit erreicht man eine höhere Bewegungsschärfe.
ja -- allerdings muss man das ja nicht unbedingt dem angeschlossenen wiedergabegerät überlassen, sondern kann es durchaus aus ganz bewusst selbst in der postproduktion mit diversen optical flow tools gezielter handhaben. ich persönlich halte das in manchen fällen sogar für eine bessere lösung als von vornherein immer mit völlig unangemesser framerate zu filmen bzw. einschneidende, damit verbundene, kompromisse (bspw. keine 10bit aufzeichnung in der GH5 jenseits der 30fps) in kauf zu nehmen.
Antwort von Jott:
WoWu hat geschrieben: Kommt darauf an, wie klein Deine Pixels sind bzw. wie hoch das Bild auflöst.
Aua.
Antwort von dienstag_01:
Jott hat geschrieben:
WoWu hat geschrieben: Kommt darauf an, wie klein Deine Pixels sind bzw. wie hoch das Bild auflöst.
Aua.
Mir ist zwar klar, dass es dir in erster Linie um deine besondere Beziehung zu WoWu geht, technische Details sind da eher störend, aber man soll ja nie aufgeben ;) http://blog.krolop-gerst.com/technik/de ... l-groesse/
Antwort von mash_gh4:
dienstag_01 hat geschrieben:
..., technische Details sind da eher störend, aber man soll ja nie aufgeben ;)
naja -- manchen wollen halt auch einfach ein ganzes bild sehen, nicht nur irgendwelche fiktiven einzelnen kacheln, irgendwo in weiter ferne...
Antwort von dienstag_01:
mash_gh4 hat geschrieben:
dienstag_01 hat geschrieben:
..., technische Details sind da eher störend, aber man soll ja nie aufgeben ;)
naja -- manchen wollen halt auch einfach ein ganzes bild sehen, nicht nur irgendwelche fiktiven einzelnen kacheln, irgendwo in weiter ferne...
Man sollte aber den feinen Unterschied zwischen sehen und sehen wollen nicht gänzlich unbeachtet lassen.
Antwort von Roland Schulz:
Jott hat geschrieben:
WoWu hat geschrieben: Kommt darauf an, wie klein Deine Pixels sind bzw. wie hoch das Bild auflöst.
Aua.
Da bin ich schon irgendwo dabei. Berechnen oder definieren kann man sowas ohnehin nicht.
Hast du ne statische Kameraeinstellung durch die klein dargestellt nen Auto fährt kannste auch mit 1/30 bei 25p drehen und hast kein ruckelndes Auto.
Machste so mit 4K den Schwenk der Flucht durchs Bild bleibt noch nichtmal mehr SD über.
Selbst wenn wir aber 8K mit 1000p und 1/2000s hätten hätten wir zwar die optimale technisch temporale Auslösung, dann kommen aber auch wieder welche aus dem Schuppen und verschreien das als Soap Opera Effekt ;-)!
Denke mal das eine ist das technische Ziel (Wiedergabegerät) und das andere die freie Gestaltung.
Sehr viele halten sich bei der Verschlusszeit sicher an die halbe "Bildperiodendauer" ( ;-)!! ), wirklich "falsch" kann man alles andere aber auch nicht bezeichnen.
Ich beweg‘ mich meist bei nem Viertel bis Achtel um meiner Frameinterpolation die Chance auf nen scharfes Bewegtbild nicht zu nehmen.
Antwort von Jott:
Nein, wirklich nicht. Anzahl der Pixel. Also bitte.
Antwort von dienstag_01:
Jott hat geschrieben:
Nein, wirklich nicht. Anzahl der Pixel. Also bitte.
Na, dann nicht ;)
Antwort von Jott:
Yep.
Antwort von WoWu:
dienstag_01 hat geschrieben:
Jott hat geschrieben:
Nein, wirklich nicht. Anzahl der Pixel. Also bitte.
Na, dann nicht ;)
Damit kennzeichnet sich die Pixelgrösse.
Siehe Abhängigkeit...
Antwort von mash_gh4:
das war halt schon noch alles viel einfacher, als es noch keine vernünftige schärfe gegeben hat:
Das ist heut noch genauso einfach, nur dass es mehr Laberköppe gibt, die keinen Durchblick mehr haben.
Antwort von Roland Schulz:
WoWu hat geschrieben:
dienstag_01 hat geschrieben:
Na, dann nicht ;)
Damit kennzeichnet sich die Pixelgrösse.
Siehe Abhängigkeit...
Alles schön und auch an vielen Stellen "richtig", hilft aber nur begrenzt weiter.
Danach dürften wir nur begrenzt schnelle Bewegungen bei fester Bildrate->Shutterzeit aufnehmen oder wir müssten die Shutterzeit anhand der "Motivgeschwindigkeit" variieren - wäre mir etwas zu limitierend bzw. aufwändig ;-)!
Ich bleibe dabei, wirklich berechnen lässt sich die Shutterzeit bei gegebener (möglicher) Bildrate nicht. Viel ist subjektiv, viel von der Abspielkette (Frameinterpolation...) abhängig. Adaptieren kann man nach der o.g. Darstellung sicher auch, denke das überfordert dann aber doch oft den Kameramann bzw. ist teilweise auch gar nicht vorhersehbar.
Antwort von Roland Schulz:
Die Szenen hier (ganz unten) von der neuen a7III wurden z.B. bei 25p mit 1/25s (??) gefilmt, zumindest steht das in den Metadaten. Da sieht man dann trotz nur 25p gar kein Stakkato. Ganz ehrlich, bei solchen Aufnahmen würde mich das auch kaum stören da der Hintergrund/statische Inhalt "scharf" bleibt und "mein" Auge die hier schnellen Bewegungen ohnehin kaum detailliert verfolgen kann. Was mich nur nervt wenn hochauflösendes UHD bei Bewegung des kompletten Bildinhaltes völlig aufgeweicht wird, das auch schon bei teilweise langsamen Bewegungen bei denen "man" oder eine Frameinterpolation noch folgen könnte. Bei anschließendem Stillstand wird dann plötzlich alles scharf :-(.
Habe vor Jahren mal mit 1/100sec und 50 Bilder/sec ausprobiert. Der Wurf eines Steines sah stroboskopartig aus. Er "hüpfte" regelrecht "von Bild zu Bild" auf seiner Flugbahn. Sicher keine fliessende Bewegung mehr.
Habe das Gefühl, dass unser Auge mit 1/50sec und 50 Bilder/sec wahrnimmt -> verarbeitet. Wichtig scheint mir die 1/50sec, denn das scheint mir die Belichtungszeit des Auges zu sein, auf das unser Sehsystem abgestimmt ist. Also geht 1/50sec und 25 Bilder/sec auch. 1/100sec und 100 Bilder/sec müsste man mal ausprobieren.
Antwort von WoWu:
Ganz im Gegenteil. Unser Auge nimmt ja gerade die kürzeren Veränderungen im Bild noch wahr. Deswegen bleiben auch bewegte Objekte für den Menschen relativ scharf, wo die Kamera bereits Unschärfe generiert.
Die Kamera kann nur nicht die neuronalen Verknüpfungen nachvollziehen, denn unser Gehirn "folgt" ja quasi einem bewegten Objekt, ein projiziertes Bild aber wird statisch betrachtet.
Das Auge ist dabei nicht maßgeblich einbezogen, denn dort finden überwiegend chemische Prozesse statt.
Ein Zapfen benötigt nach rascher Hyperpolarisationsdauer von ca. 0,05 Sekunde noch 0,2 Sekunden, bis er sein Ruhemembranpotential wieder erreicht hat.
Ein einzelner Zapfen könnte somit lediglich Frequenzen bis zu 4 Hz auflösen.
Es ist das Problem der Kamera, die das menschliche Sehvermögen nur unzureichend abbildet.