Logo Logo
/// 

Verständnis Frage 25p und 50p



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Frage von foos:


Hallo,

ich habe lange Zeit Hochzeiten mit meiner Sony A7S mit 25p und 1/50 gefilmt.
Wenn ich dann wusste, dass ich eine spezielle Szene später gerne in Slomo hatte hab ich die Einstellung auf 50p und 1/50 geändert.

Dieses umstellen nervt mich. Daher jetzt eine blöde Frage:

Was wäre wenn ich immer mit 1/100 und 50p filme? Dann hätte ich "normale" Abläufe und kann bei Bedarf in Post einfach ne Slomo erstellen? Oder muss ich bei dieser Einstellung dann für Slomo auf 1/50 gehen?

Oder hab ich einen Denkfehler?

Danke schon mal :)



Antwort von -paleface-:



Was wäre wenn ich immer mit 1/100 und 50p filme? Dann hätte ich "normale" Abläufe und kann bei Bedarf in Post einfach ne Slomo erstellen? Oder muss ich bei dieser Einstellung dann für Slomo auf 1/50 gehen?

Oder hab ich einen Denkfehler?

Nein. Kannst du so machen.
Bedenke aber das bei 50p manche Kameras dir ein Technisch schlechteres Bild geben als bei 25p.
Wäre zb. bei der Gh4 so. bei der Sony weiß ich das nicht.



Antwort von blueplanet:

Bedenke aber das bei 50p manche Kameras dir ein Technisch schlechteres Bild geben als bei 25p.
Wäre zb. bei der Gh4 so. bei der Sony weiß ich das nicht.

...evtl. etwas ungenau beschrieben? Wenn Du bei der GH4 den Unterschied mit UHD/25p oder FHD/50p meinst, gehe ich so weit mit. Ein Unterschied (rein technisch qualitativ) FHD/25p vs. FHD50p wäre mir hingegen neu...

beste Grüße
Jens





Antwort von Jott:

Völlig normal, in 50p zu filmen, wenn so was ansteht. Kommt dann nur auf den NLE an, ob er in einer 25p-Timeline bei 50% Slomo von selber kapiert, dass er in diesem Fall auf alle 50 Bilder pro Sekunde zugreifen soll. Manche kapieren's, manche nicht.

Was hat es mit den 24p in deiner Überschrift auf sich?

Die Qualitätssorge bezieht sich auf das alte AVCHD-Format: im Gegensatz zu anderen Codes bekommt die doppelt Frameanzahl (50p) dort nicht die doppelte DatenrateDatenrate im Glossar erklärt verglichen mit 25p, sondern nur ganz wenig mehr.



Antwort von Frank B.:

Wenn man aber dir Shutterzeit verkürzt, geht einem die Lichtempfindlichkeit verloren.



Antwort von Jott:

Man kann beides mit 1/50 filmen. Ausprobieren vor dem Ernstfall ist doch simpel?



Antwort von foos:


Was hat es mit den 24p in deiner Überschrift auf sich?

Verschrieben :)

Danke euch für die Hilfe.



Antwort von Jott:

Nur noch mal der Hinweis: mache Testaufnahmen. 50p mit 1/50 ist die längstmögliche Belichtungszeit - für manche Geschmäcker wird das zu "schleimig" bei Slomos, andere mögen gerade das. Wenn du eine BlendeBlende im Glossar erklärt "Luft" hast bei den Lichtverhältnissen, dann teste auch 1/100 für beide Modi durch.



Antwort von beiti:

Ein Unterschied (rein technisch qualitativ) FHD/25p vs. FHD50p wäre mir hingegen neu... Bei der Sony A7S ist der Unterschied leider sehr deutlich, siehe hier:
https://www.slashcam.de/artikel/Test/So ... oires.html



Antwort von StanleyK2:

... das dürfte von Kamera zu Kamera unterschiedlich sein. Einmal mehr: im speziellen Fall ausprobieren!



Antwort von -paleface-:

Bedenke aber das bei 50p manche Kameras dir ein Technisch schlechteres Bild geben als bei 25p.
Wäre zb. bei der Gh4 so. bei der Sony weiß ich das nicht.

...evtl. etwas ungenau beschrieben? Wenn Du bei der GH4 den Unterschied mit UHD/25p oder FHD/50p meinst, gehe ich so weit mit. Ein Unterschied (rein technisch qualitativ) FHD/25p vs. FHD50p wäre mir hingegen neu...

beste Grüße
Jens

Naja...beide Aufnahmen werden in einen 100Mb/s Paket gestopft, da bleibt bei 50p definitiv was auf der Strecke.
Aber man kann es dennoch gut mischen.
Habe jetzt noch bei einem Projekt UHD,25p und 50p gemischt und mit der richtigen Behandlung fällt es kaum auf.

Ich stelle jetzt sogar die provokante These auf und behaupte Eiskalt das der 25p und 50p Modus bei der Gh4 der optisch filmischere Modus ist!!!



Antwort von wolfgang:

Ich stelle jetzt sogar die provokante These auf und behaupte Eiskalt das der 25p und 50p Modus bei der Gh4 der optisch filmischere Modus ist!!!

Auch 50p? Also 25p wie auch 24,000p und 23,976p würde ich ja so sehen, aber 50p wird traditionell weniger als das gesehen.

Und sprichst du von UHD oder HD? Denn 50p kann die GH4 ja nur in HD.



Antwort von beiti:

Die ganze Diskussion um die GH4 hilft dem TO nicht, denn er hat eine Sony A7s - und bei der ist 1080/50p definitiv im Nachteil gegenüber 1080/25p. Da geht es nicht nur um Datenraten (über deren Relevanz man streiten kann), sondern um vermutetes Lineskipping im 50p-Modus, das dann zu weniger sauberen Details führt. Das Problem tritt nicht auf, wenn man auf APS-C-Crop runterschaltet; das wird der TO aber nicht wollen, wenn er schon eigens eine A7s gekauft hat. Näheres unter dem obigen Link.

Unterm Strich ist es also keine gute Idee, mit der A7s "auf Vorrat" in 1080/50p zu drehen, wenn man als Endformat eigentlich 1080/25p braucht.

Die GH4 ist da nicht direkt vergleichbar, denn die liefert meines Wissens weder in 1080/25p noch in 1080/50p wirklich saubere und artefaktfreie Aufnahmen, die man mit den 1080/25p-Aufnahmen der A7s vergleichen könnte. Die maximale Qualität der GH4 kriegt man nur im 4k/UHD-Modus unter Inkaufnahme des zusätzlichen Crops.
Wenn man 50p-Aufnahmen machen will, ist die A7s also in jedem Fall die bessere Kamera, weil sie sauberes 1080/50p wenigstens im APS-C-Modus schafft (womit sie, nebenbei bemerkt, immer noch mehr Sensorfläche nutzt als die GH4).



Antwort von cantsin:


Was wäre wenn ich immer mit 1/100 und 50p filme? Dann hätte ich "normale" Abläufe und kann bei Bedarf in Post einfach ne Slomo erstellen?
Probleme gibt's, wenn Du das fertige Video als 25p (z.B. auf DVD) renderst. Dann hast Du bei allen nicht-Slomos 25p bei 1/100-Shutter (bzw. 90-Grad-Shutter) und deshalb abgehacktere/stroboskopigere Bewegungen als bei 25p mit 1/50-Shutter. Gerade bei Hochzeitsvideos würde ich mir das gut überlegen.



Antwort von WoWu:

Das ist richtig, aber das ShutterShutter im Glossar erklärt hat ja auch nichts mit der Bildfrequenz zu tun und es hindert ihn keiner daran, bei P50 mit einem 1/50 ShutterShutter im Glossar erklärt aufzunehmen.
Dieses Märchen, dass man immer die halbe Bildfrequenz nehmen sollte -also bei 50 Fames dann 1/100) hält sich leider bei Manchen ziemlich beharrlich.
Er kann ja auch bei P50 1/25 schütter nehmen, da hat er dann ein ähnlich schlechtes Bild, wie früher bei Interlace.
Aber eigentlich kann er jedes ShutterShutter im Glossar erklärt nehmen, das zu seiner Szene und zu seinen Lichtverhältnissen passt, nur wenn künstliches Licht ins Spiel kommt, muss man aufpassen.



Antwort von mash_gh4:

ich würde glauben, dass man derart einfache 50%-zeitlupen heute mit softwareinterpolation bzw. optical flow fast immer in gleich befriedigender weise hinbekommt wie mit entsprechendem overcranking bei der aufnahme.

allerdings wirkt sich der eingestellte belichtungszeit bzw. shutterwinkel auch hier ganz entscheiden aus. um nämlich einen dartigen optical flow zu rechnen, müssen im ersten schritt einmal punkte bzw. kanten od. andere eindeutig zuordenbare features im bild nachverfolgt werden. das geht mit bildern, die schon von haus aus einen hohen anteil an bewegungsunschärfe enthalten deutlich schlechter als mit scharfen einzelbildern. letztere sehen aber natürlich wieder nicht so gut aus, wenn man sie ohne weiter bearbeitung nutzt. das wirkt gleich einmal ein bisserl stroboskopartig. entspechende bewegungsunschärfe nachträglich an hand der gewonnen motion vectors in die bilder reinzurechnen ist allerding relativ trivial. in die andere richtung, also die bewegungsunschärfe rauszurechnen, ist dagegen eine ziemlich komplizierte sache, die man gegenwärtig fast nur in akademischen demonstrationen findet, nicht aber aber in gebräuchlicher software. man kommt also letztlich auch bei softwaregenerierten zeitlupen nicht darum herum, die aufnahmen ein klein wenig anders zu handhaben, wenn man wirklich ein maximum an qualität herausholen will.



Antwort von blueplanet:

an hand der gewonnen motion vectors in die bilder reinzurechnen ist allerding relativ trivial.

...mich würde interessieren, mit welchem Werkzeug (Effect) das in Premiere (After Effects?) funktioniert.



Antwort von mash_gh4:

an hand der gewonnen motion vectors in die bilder reinzurechnen ist allerding relativ trivial.

...mich würde interessieren, mit welchem Werkzeug (Effect) das in Premiere (After Effects?) funktioniert.

mit premiere bin ich überfragt -- das verwende ich nicht --, aber im nuke (auch in der kostenlosen non-komerziellen version) gibt's dafür "kronos". man findet dazu im netz ohnehin sehr viele anleitungen und tutorials. jedenfalls kannst du damit durch bloßes verschieben eines schibereglers im nachhinein den anteil der bewegungsunschärfe so verändern, wie man es bei der aufnahme mit unterschiedlicher belichtungszeit erreicht hätte.

edit: kronos gab's einmal als teueres add on für addobe produkte, aber ich glaube, das ist mittlerweile geschichte (http://www.thefoundry.co.uk/products/plugins/kronos)



Antwort von blueplanet:

Das ist richtig, aber das ShutterShutter im Glossar erklärt hat ja auch nichts mit der Bildfrequenz zu tun und es hindert ihn keiner daran, bei P50 mit einem 1/50 ShutterShutter im Glossar erklärt aufzunehmen.
Dieses Märchen, dass man immer die halbe Bildfrequenz nehmen sollte -also bei 50 Fames dann 1/100) hält sich leider bei Manchen ziemlich beharrlich.

...na als Märchen würde ich die Binsenweisheit nicht deklarieren. Das ist schon Filmkunstschulwissen ;). Denn am Ende bildet diese Verdopplung der Zahlenwerte ein für unsere Sehgewohnheiten harmonisches Bild.

Aber selbstverständlich ist es kein Dogma und gerade bei schlechten Lichtverhältnissen oft der bessere Kompromis als den ISO-Wert nach Oben zu schrauben. Das damit natürlich ein "weiches" Bild entsteht, wenn ich bei 25fsp einen ShutterShutter im Glossar erklärt von 25 nehme, ist logisch aber nicht zwingend gleich schlechter zu setzen.

Es ist in gewisser Weise umgekehrt vergleichbar mit dem Mitzieheffekt bei der Fotografie. Umgekehrt, weil die unbeweglichen Motive (z.B. Gebäude) hier bei ShutterShutter im Glossar erklärt 25 "scharf" bleiben, aber die Bewegungsunschärfe bei bewegten Motiven durchaus als wischiwaschi wahrgenommen werden.

Was ich sagen möchte - stilistisch geht das vollkommen in Ordnung, rein technisch sollte aber bei 25fsp in der Regel mit ShutterShutter im Glossar erklärt 50 gefilmt werden. Es würde ja auch kein Fotograf ohne Not oder gewollter Kreativität auf die Idee kommen, solche "unmöglichen" Blenden/Shutter-Kombis einzustellen wie z.B.: BlendeBlende im Glossar erklärt 8 mit ShutterShutter im Glossar erklärt 8 und ISO 100.000.

beste Grüße
Jens



Antwort von WoWu:

Warum nicht?
Schutter ist bei der E-Kamera ein reines Stilmittel, anders als bei der Filmkamera, wo eine mechanische Abhängigkeit besteht.
Daher sind solche Vergleiche gar nicht mehr machbar.

Etwas Anderes ist es, wenn fremde Lichtfrequenzen ins Spiel kommen.
Aber sich heute um jede BlendeBlende im Glossar erklärt zu bemühen, aber die Schutterfrequenz dogmatisch immer auf die halbe Bildfrequenz zu setzen und damit u.U. 2 Blenden zu verschenken, ist überkommene Mär.
Mit der Shutterfrequens bestimme ich ausschließlich meine Bewegungsunschärfe .... und die ist sogar noch abhängig vom PP des Sensors, den ich benutze, also sollte auch die Shutterfrequenz individuell für das benutzte Kameramodell gewählt werden.
Und nichts spricht gegen krumme Werte ...
wenn die Kamera das zulässt, weil die meisten Hersteller in einfachen Kameras einfach nur die Abtastfrequenz nutzen, aber in guten Kameras kann man seine Shutterfrequenz frei setzen, weil sie eine eigene Clock hat.



Antwort von beiti:

Dieses Märchen, dass man immer die halbe Bildfrequenz nehmen sollte -also bei 50 Fames dann 1/100) hält sich leider bei Manchen ziemlich beharrlich.

...na als Märchen würde ich die Binsenweisheit nicht deklarieren. Das ist schon Filmkunstschulwissen ;). Denn am Ende bildet diese Verdopplung der Zahlenwerte ein für unsere Sehgewohnheiten harmonisches Bild. Ich weiß nicht, ob die Regel ein Märchen ist. Auf jeden Fall ist sie nicht allgemeingültig und daher in ihrer absoluten Formulierung falsch.

Ich würde sagen, es handelt sich um ein Missverständnis - entweder basierend auf der technischen Beschränkung einfach gebauter Filmkameras (wo durch den 180° Schutterwinkel ein fester Zusammenhang zwischen FramerateFramerate im Glossar erklärt und Belichtungszeit bestand) oder schlicht basierend auf der Beobachtung, dass man bei einer lahmen FramerateFramerate im Glossar erklärt wie 24 oder 25 fps in etwa die halbe Zeit belichten muss, um einen annehmbaren Kompromiss aus "nicht zu viel Bewegungsunschärfe" und "nicht zu sehr abgehackte Bewegung" zu erhalten.

Viele alte Filmkameras konnten halt nicht anders als 180° Hellsektor. Bessere Modelle konnten durchaus auch geringere Hellsektoren erzielen, was dann einer kürzeren Shutterzeit entsprach. Filme wie Gladiator oder Saving Private Ryan, die für ihre stroboskopartigen Bewegungen berüchtigt sind, wurden mit sowas gedreht; offenbar fanden die Kameraleute und/oder Regisseure das gut (warum auch immer). Umgekehrt konnte an manchen Kameras der Hellsektor immerhin bis 270° geöffnet werden, um Licht zu gewinnen (d. h. man kam dann auf 3/4 der theoretisch möglichen Belichtungszeit, z. B. 1/32 Sekunde bei 24 fps). Technisch nicht möglich war 360° Hellsektor, also die Ausnutzung der kompletten Zeitspanne, weil man noch Dunkelsektor-Zeit für den Filmtransport brauchte. Mit heutigen digitalen Kameras ist das hingegen möglich.

Somit könnte die Faustregel einfach von den alten Filmkameras abgeleitet und mit der Behauptung ergänzt worden sein, dies entspreche unseren Sehgewohnheiten. Das Problem ist aber, dass es unseren Sehgewohnheiten nur dann entspricht, wenn man mit 24 oder 25 fps filmt - eben weil es dann auch optisch ein guter Kompromiss ist. 24 oder 25 fps sind ja nicht viel. Das rechtfertigt aber noch lange nicht, die Regel für allgemeingültig zu erklären und auch auf deutlich höhere Frameraten anzuwenden. Mal angenommen, wir hätten irgendwann Videosysteme mit 500 fps - warum in aller Welt sollte man dort dann zwanghaft mit 1/1000 Sekunde drehen? Man würde im Lowlight unnötig Licht verlieren, aber optisch überhaupt keinen Unterschied sehen. Man könnte also ohne Nachteile mit 1/500 Sekunde filmen - oder bei viel Licht auch mit 1/2000 Sekunde und kürzer. Kein Mensch würde den Unterschied mehr wahrnehmen. Bei richtig hohen Frameraten spielt das quasi keine Rolle mehr.
50 fps liegt nun dazwischen, und man kann durchaus streiten, ob hier 1/50 Sekunde oder 1/100 Sekunde Belichtungszeit besser aussieht; auch 50 fps ist ja noch nicht so überwältigend viel, dass man die Frage der Belichtungszeit völlig ignorieren könnte - obwohl kurze Shutterzeiten bereits bei 50 fps viel weniger unangenehm auffallen als bei 24/25 fps.
Aber wie auch immer man sich entscheidet: Das Argument der Sehgewohnheit gilt allenfalls für 24/25 fps. Daher ist eine "Halbe-Framerate-Regel" bei anderen/höheren Bildfrequenzen nicht mehr anwendbar. Und wenn sie nur in einem so begrenzten Bereich gilt, braucht man erst gar keine Faustregel.

Tatsächlich hat die Verbreitung der Faustregel zu einem weiteren Missverständnis geführt, nämlich der Idee, es müsse immer ganz genau die halbe Framrate belichtet werden (z. B. bei 24 fps müsse es exakt 1/48 Sekunde und nicht etwa 1/50 Sekunde sein). Das ist erst recht Unsinn - wie man ganz leicht feststellen kann, wenn man beide Varianten dreht und vergleicht: Niemand sieht den Unterschied. (Tastächlich ist in 50-Hz-Regionen häufig 1/50 Sekunde sogar die sicherere Variante, weil sie vielen Flimmerproblemen vorbeugt.)

Aber so ist das halt mit Fausregeln: Irgendjemand stellt sie irgendwann mal auf, und dann wird sie endlos stur weiterverbreitet und nur noch selten darüber nachgedacht.



Antwort von blueplanet:

und die ist sogar noch abhängig vom PP des Sensors, den ich benutze, also sollte auch die Shutterfrequenz individuell für das benutzte Kameramodell gewählt werden.

...??? ich stehe gerade auf dem Erklärbär-Schlauch ;) Was bedeutet "PP"?

weil die meisten Hersteller in einfachen Kameras einfach nur die Abtastfrequenz nutzen, aber in guten Kameras kann man seine Shutterfrequenz frei setzen, weil sie eine eigene Clock hat.

...schön zu wissen! Dann ist z.B. die GH4 eben eine "einfache" Kamera ;)) Und von welchem Preissegment reden wir, dass es nicht mehr als "einfach" gilt bzw. wann ich den "Wecker" nach Lust und Laune einstellen kann?



Antwort von blueplanet:

Das Argument der Sehgewohnheit gilt allenfalls für 24/25 fps.

...aber ich denke, damit arbeitet 95% der Industrie und mindestens 80% der im weitesten Sinne zu bezeichnenden "Homeanwender".

Und wenn sie nur in einem so begrenzten Bereich gilt, braucht man erst gar keine Faustregel.

...1. ist es somit nicht so begrenzt ;) und 2. bleibt die Fausregel bis zur Einführung und der tatsächlichen Nutzung solcher Shutterraten/Kameras dann doch irgendwie eine weiterhin gültige Mär.

Ganz abgesehen davon nutzen gerade die Besitzer von "einfachen" Kameras mit ihren natürlich sehr lichtstarken Objektiven, sowieso die Möglichkeit von höheren Shutterraten, um eben den tollen Objektiven einen Graufilter zu ersparen. Eigentlich doch der totale Unsinn. Bzw. man muss viele Aspekte des Zusammenspiels beachten und dafür sind -da gebe ich Dir vollkommen recht- allgemeine Fausregeln eher kontraproduktiv.



Antwort von WoWu:

Wir haben für Dokuarbeiten, wo wenig Licht, aber auch wenig Bildbewegung war und man Licht nicht stellen könnte, z.B. in Grotten oder sehr dunklen Kirchen sogar mit Shutterzeiten unter den Framraten gearbeitet und absolut rauschfreiere Bilder damit generiert. (da kommt es aber einwenig darauf an, wie die Kamera arbeitet. Die Flex verhält sich da einwenig anders als andere Kameras).
Shutter ist bei E-Kameras auch ein Stilmittel, das von den Meisten gar nicht benutzt wird, aber sehr effektiv ist.
Man muss es nur so sehen und nicht als Umlaufblemde, die es nicht mehr ist.
E-Kameras bieten eben auch den einen oder andern Vorteil, wenn man ihn nutzt.

@blueplanet
PP ist der PixelPich des Sensors, also einfach gesagt die Pixelgrösse der einzelnen Pixels. Je kleiner umso mehr Bewegungsunschärfe, bei gleicher Shutterfrequenz.

Individuell kannst Du bei den Kameras die Shutterfrequenz, losgelöst von der FramerateFramerate im Glossar erklärt einstellen, die primär für den Broadcastbereich vorgesehen sind.
Aber auch da muss man sich die Kameras genauer ansehen, nicht alle können das.



Antwort von Stephan82:

ich würde glauben, dass man derart einfache 50%-zeitlupen heute mit softwareinterpolation bzw. optical flow fast immer in gleich befriedigender weise hinbekommt wie mit entsprechendem overcranking bei der aufnahme.

Ich habe mich lange Zeit mal mit dem PluginPlugin im Glossar erklärt Twixtor in Kombination mit After Effects auseinandergesetzt und muss sagen, dass man so gut wie immer Morphing-Bildfehler hat außer eine Person steht vor einer einfarbigen Wand oder du hast extremes Bokeh, sodass Person und Hintergrund sehr gut getrennt sind. Ansonsten gibt es durch die Interpolation immer Bildfehler, die nur mit viel Handarbeit minimierbar sind.

Bsp:


Achte auf Verzerrungen an den Händen ab Minute 2.10 und dann noch katastrophaler ab Minute 4.20 ;)



Antwort von blueplanet:

Wir haben für Dokuarbeiten, wo wenig Licht, aber auch wenig Bildbewegung war und man Licht nicht stellen könnte, z.B. in Grotten oder sehr dunklen Kirchen sogar mit Shutterzeiten unter den Framraten gearbeitet und absolut rauschfreiere Bilder damit generiert. (da kommt es aber einwenig darauf an, wie die Kamera arbeitet. Die Flex verhält sich da einwenig anders als andere Kameras).

...Shutterzeiten unter den Frameraten?! Phuu -ich persönlich kenne keine Kamera, keine Einstellung, die eine Shuttermöglichkeit unter der untersten FramerateFramerate im Glossar erklärt (also 24fps) anbietet. Oder bin jetzt total auf dem Filmholzweg?! Der kleinste Shutterwert an der GH4 beträgt 25, auch bei 24fps. Das Gleiche trifft z.B. auch auf den reinen Camcorder ACAG90 oder filmende Nikon- und Canonmodelle zu.

Shutter ist bei E-Kameras auch ein Stilmittel, das von den Meisten gar nicht benutzt wird, aber sehr effektiv ist.
Man muss es nur so sehen und nicht als Umlaufblemde, die es nicht mehr ist.
E-Kameras bieten eben auch den einen oder andern Vorteil, wenn man ihn nutzt.

....würde ich sehr gern - nur wie??

PP ist der PixelPich des Sensors, also einfach gesagt die Pixelgrösse der einzelnen Pixels. Je kleiner umso mehr Bewegungsunschärfe, bei gleicher Shutterfrequenz.

...danke!!

Individuell kannst Du bei den Kameras die Shutterfrequenz, losgelöst von der FramerateFramerate im Glossar erklärt einstellen, die primär für den Broadcastbereich vorgesehen sind.
Aber auch da muss man sich die Kameras genauer ansehen, nicht alle können das.

...lass mich vermuten - die GH4 kann das nicht bzw. nur bis minimal 25?!



Antwort von wolfgang:

Aber eigentlich kann er jedes ShutterShutter im Glossar erklärt nehmen, das zu seiner Szene und zu seinen Lichtverhältnissen passt, nur wenn künstliches Licht ins Spiel kommt, muss man aufpassen.
Und wenn bei 25p dann eine schnellere Bewegungs ins Spiel kommt und die Belichtungszeit dramatisch kurz war, ruckelt dass entsprechend und das Material ist kaum mehr zu retten, eher zu vergessen.

Also da wäre ich vorsichtig.



Antwort von mash_gh4:

ich würde glauben, dass man derart einfache 50%-zeitlupen heute mit softwareinterpolation bzw. optical flow fast immer in gleich befriedigender weise hinbekommt wie mit entsprechendem overcranking bei der aufnahme.

Ich habe mich lange Zeit mal mit dem PluginPlugin im Glossar erklärt Twixtor in Kombination mit After Effects auseinandergesetzt und muss sagen, dass man so gut wie immer Morphing-Bildfehler hat außer eine Person steht vor einer einfarbigen Wand oder du hast extremes Bokeh, sodass Person und Hintergrund sehr gut getrennt sind. Ansonsten gibt es durch die Interpolation immer Bildfehler, die nur mit viel Handarbeit minimierbar sind.

man muss die sachen einfach immer mit maß und ziel benutzen. dass es natürlich in den allermeisten keinen brauchbarer ersatz für 10faches overcrankink gleich bei der aufnahme darstellt, wird einem ohnehin schnell klar, wenn man es praktisch erprobt. aber eine 2fache zeitlupe, von der hier die rede ist, bekommt man damit meistens schon in einer weise hin, die jeder akzeptieren kann.

aber natürlich gibt's einige rahmenbedingungen, mit denen man das ein bisserl optimieren kann. ein paar betreffen, wie oben schon erwähnt, die einstellungen beid der aufnahme. es gibt aber z.t. aber auch wichtige parameter, mit denen man die motion vector bestimmung gezielt optimieren kann. leider sind diese in vielen programmen (bspw. resolve), auch wenn sie solche aufgaben im großen und ganzen recht passable umsetzten, nicht zugänglich und veränderbar. da gibt's also schon einschneidende unterschiede zwischen den jeweiligen werkzeugen. u.a. eben auch hinsichtlich der möglichkeit von nachträglich reingerechneter bewegungsunschärfe u.ä...



Antwort von Funless:

Aber eigentlich kann er jedes ShutterShutter im Glossar erklärt nehmen, das zu seiner Szene und zu seinen Lichtverhältnissen passt, nur wenn künstliches Licht ins Spiel kommt, muss man aufpassen.
Und wenn bei 25p dann eine schnellere Bewegungs ins Spiel kommt und die Belichtungszeit dramatisch kurz war, ruckelt dass entsprechend und das Material ist kaum mehr zu retten, eher zu vergessen.

Also da wäre ich vorsichtig.

Also aus meiner Sicht ist die Shutterfrage heutzutage eine Frage des präferierten Stils, bzw. Looks.

Im allgemeinen (heutzutage grassierenden) Filmlook-Wahn sind extrem kurze Verschlusszeiten ein nogo, da der gewünschte "Filmlook" dann in der subjektiven Wahrnehmung zur unerwünschten "Soap Opera" oder Sportaufzeichnung wird. Zur Klarstellung: Ich selber schließe mich da beileibe nicht aus!

Doch andererseits finde ich, dass dieser Trend eigentlich langsam aber sicher am Aussterben ist, denn die "Generation Y", oder auch "digital natives" genannt, haben durch YT und Handyvideos geprägt bereits völlig andere Sehgewohnheiten entwickelt, die sich den Sehgewohnheiten von uns Dinosauriern erheblich unterscheidet.

Darum finde ich, dass ruckelndes Material nicht per se gleich als unrettbares Material anzusehen sein sollte.

Mein rein persönliche Meinung.



Antwort von mash_gh4:

Der kleinste Shutterwert an der GH4 beträgt 25, auch bei 24fps.

nein -- die gh4 unterstützt tatsächlich shutterwinkel jenseits der 360° bzw, länger einzelbildbelichtungen als es die framerate erwarten lassen würde....

in dem bereich ist es dann allerdings meist vernünftiger, wenn man gleich mit foto-raw-serienaufnahmen arbeitet, weil da bei wenig licht noch viel mehr spielraum fürs entrauschen übrig bleibt...



Antwort von WoWu:

@Funless

Da bin ich völlig bei Dir, deswegen sagte ich auch, dass ShutterShutter im Glossar erklärt eigentlich ein Stilmittel ist, wenn man sich endlich von der Denke (halbe Framerate) freigemacht hat.
Problem ist eben nur, dass durch die wachsende Pixelzahl sich die Bewegungsunschärfe vergrößert, also etwas, wo man mit dem ShutterShutter im Glossar erklärt sowieso gegen zu steuern hat, wenn einem die Bilder nicht irgendwann mal wegschwimmen sollen.
Nur die Wenigsten haben solche Parameter überhaupt im Auge, wenn sie stur ihre halbe FramerateFramerate im Glossar erklärt einstellen, und gar nicht daran denken, dass schon der pixelreichere Sensor Ihnen die Bewegungsunschärfe versemmelt hat.



Antwort von Stephan82:

Der kleinste Shutterwert an der GH4 beträgt 25, auch bei 24fps.

nein -- die gh4 unterstützt tatsächlich shutterwinkel jenseits der 360° bzw, länger einzelbildbelichtungen als es die framerate erwarten lassen würde....

in dem bereich ist es dann allerdings meist vernünftiger, wenn man gleich mit foto-raw-serienaufnahmen arbeitet, weil da bei wenig licht noch viel mehr spielraum fürs entrauschen übrig bleibt...
Reden wir nun von längeren oder kürzeren Belichtungszeiten, denn ich habe gerade meine GH4 in der Hand. Wenn ich im Videomodus 25p oder 50p einstelle, dann ist die längste Belichtungszeit 1/25 und die kürzeste 1/16000.



Antwort von Rudolf Max:

@: nein -- die gh4 unterstützt tatsächlich shutterwinkel jenseits der 360° bzw, länger einzelbildbelichtungen als es die framerate erwarten lassen würde....

Das ist schlicht unmöglich...
sagt mir mein gesunder Menschenverstand...
und die Logik...
und die Physik...

Rudolf



Antwort von WoWu:

Der gesunde Menschenverstand reicht manchmal nicht .... die Physik schon eher.
Ich weiss zwar nicht, ob die GH4 das kann, aber die Flex macht das.
Man muss nur über genügend Speicher verfügen.
Das hat mit gesundem Menschenverstand nichts zu tun unschlagbar wäre da eine gesunde Physikkenntnis.
Das war aber schon sogähnlich bei Interlace, da haben auch viele die überlange Belichtung nicht begriffen.



Antwort von Rudolf Max:

Dann erkläre mal diese Physik...

Ich würde auch mal gerne jedes Bild eine halbe Sekunde lang belichten, wenn die Kamera auf 25 Frames eingestellt ist...

Irgendwie stimmt da doch etwas nicht... mehr als 360 Grd sind nach meinem Verständnis schlicht eine Sache der Umnöglichkeit...

Aber na ja, ich muss ja auch nicht zwingend alles verstehen, bringt mich im Leben doch nicht weiter...

Rudolf



Antwort von WoWu:

Das ist hier schon mal im Forum "lang und breit"besprochen worden.
Aber selbst bei gesundem Menschenverstand müsste der Hinweis auf den Speicher ausreichen, denn Du musst die Frames nur in Speichern ablegen und hinterher zusammenkopieren mit jeweils -1 in der Bildfolge.
Und in Speichern liegen sie sowieso, die Kameras unterscheiden sich also nur in der Geschwindigkeit, mit der sie rechnen und aus denen sie die Bilder reproduzieren.
Dann hast Du das gesamte Licht und die gesamte Bewegungsunschärfe über die Zeit in jedem Bild.
Meistens können Kameras das auch, die so eine Burst Zeitlupe haben, denn da sind ähnliche Speichergrößen für die Berechnung erforderlich.

Viel Fotographie hast Du früher wohl nicht gemacht ?
Mehr so AGFA Klick mäßig.



Antwort von mash_gh4:

@: nein -- die gh4 unterstützt tatsächlich shutterwinkel jenseits der 360° bzw, länger einzelbildbelichtungen als es die framerate erwarten lassen würde....

Das ist schlicht unmöglich...
sagt mir mein gesunder Menschenverstand...
und die Logik...
und die Physik...

ich muss zugeben, dass ich zuerst auch sehr erstaunt darüber war, dass derart absurde einstellungen von der kamera akzeptiert werden. wie es technisch genau umgesetzt wird, ist mir übrigens bis heute ein rätsel. es scheint jedenfalls so, als würde für die einzelnen aufnahmen nicht nur eine lange belichtung herangezogen, sondern auch eine art frameblending zum einsatz kommen, aber in dem punkt kann ich mich auch irren...

zu demonstrationszwecken jedenfalls hier ein kleines beispiel: shuttertest.mp4
(aufgenommen mit den wunderbar sinnvollen einstellungen: iso400, bende 16 und 1/4 sec. belichtungszeit bei 25fps)



Antwort von Jott:

Das geht mit jedem Sony-Camcorderlein seit zwanzig Jahren, da nennt sich das Slow Shutter. 1/3 Sekunde ist meistens der längste angebotene Shutter. Solche "Schleimbilder" werden zuweilen als Effekt eingesetzt (Drogentaumel ...) - und wenn sich nichts bewegt im Motiv, hilft das natürlich auch im Dunkeln. Prima für nächtliche Skylines vom Stativ.

Natürlich sind dann jeweils ein paar aufeinander folgende Frames gleich. 25p oder 50p, was auch immer, bleibt's zwar technisch, aber natürlich nicht visuell. Siehe mashs Beispiel. Rudolf Max hat recht. Bei 25p entstehen mit 1/25 gerade noch 25 Bilder pro Sekunde - bei längerem ShutterShutter im Glossar erklärt natürlich nicht mehr.



Antwort von Rudolf Max:

@: Bei 25p entstehen mit 1/25 gerade noch 25 Bilder pro Sekunde - bei längerem ShutterShutter im Glossar erklärt natürlich nicht mehr.

Wenigstens einer, der mich versteht....

Wenn ich mit einer halben Sekunde belichte, kann ich unmöglich 25 Bilder pro Sekunde aufzeichnen. Dann bräuchte ich nämlich 12,5 Sekunden, um 25 Bilder zu belichten...

Ihr dürft mich ohne weiteres als Depp abstempeln, aber ich bleibe bei meiner Aussage, dass man unmöglich eine halbe Sekunde pro Bild belichten kann, und man am Schluss immer noch 25 Bider pro Sekunde hat....

AGFA Klick hin oder her...

Klar, Langzeitbelichtungen sind möglich, konnte ich auch schon vor 40 Jahren mit meiner Bolex H16, aber dann verändert sich eben auch die Framerate... und hier wird ja von 25 Frames geredet... pro Sekunde...

Rudolf



Antwort von blueplanet:

Klar, Langzeitbelichtungen sind möglich, konnte ich auch schon vor 40 Jahren mit meiner Bolex H16, aber dann verändert sich eben auch die Framerate... und hier wird ja von 25 Frames geredet... pro Sekunde...

...+1 (so verstehe ich es auch ;)

Und um nochmal kurz bei der GH4 zu bleiben - im FILMMODUS ist die kleinste Framerateeinstellung 24fsp und die kürzeste Shutterzeit 1/25. Auf die Fotografie bezogen - aus frei Hand ohne Verwacklung, Bewegungsunschärfen also kaum noch händelbar. Deshalb kann ich mir nicht vorstellen -wenn es denn einstellbar wäre- alles unter diesem Wert, im "alltäglichen" Filmgeschäft wirklich effektiv zu nutzen.

beste Grüße
Jens



Antwort von Jott:

ich muss zugeben, dass ich zuerst auch sehr erstaunt darüber war, dass derart absurde einstellungen von der kamera akzeptiert werden. wie es technisch genau umgesetzt wird, ist mir übrigens bis heute ein rätsel.

Wieso? Beispiel ShutterShutter im Glossar erklärt auf 1/3 Sekunde. Nach jeweils einer 1/3 Sekunde ist ein Bild "fertig" und wird so lange geschrieben, bis das nächste "fertig" ist. Nach einer weiteren 1/3 Sekunde. Bei 24p wären dann jeweils 8 aufgezeichnete Frames gleich, weil halt nur drei pro Sekunde entstehen können. Kamera so einstellen, aufnehmen, Ergebnis angucken, ist so. Sieht man übrigens schon live am Display oder im Sucher, gerne stundenlang. Daher nix großer Zwischenspeicher - nur jeweils ein einziges Bild wird "gehalten". Und hat wegen der 1/3 Sekunde Belichtungszeit genau die Bewegungsunschärfe, die auch ein so entstandenes Foto hätte.



Antwort von Rudolf Max:

@: Bei 24p wären dann jeweils 8 aufgezeichnete Frames gleich, weil halt nur drei pro Sekunde entstehen können...

Und was hat das denn mit der hier zu besprechenden FramerateFramerate im Glossar erklärt von 25p zu tun...?

Ich kann ja auch ein Bild eine halbe Stunde lang belichten, es hinterher in entsprechend kurze Stücke "zerhacken" und dann mit 25p ausgeben... es bleibt trotzdem bloss ein einzelnen Standbild... eine halbe Stunde lang...

Auf welch absurde Ideen gewisse Leute hier manchmal kommen... unglaublich...

Man kann nicht länger als 1/25 Sekunde belichten, wenn man eine echte FramerateFramerate im Glossar erklärt von 25 Bildern einhalten will... basta...

Nennt sich dann eben gesunder Menschenverstand... oder Logik... oder was auch immer...

Und ja, ich bin ein Depp, der bloss mit AGFA klick machen kann... tz...

Rudolf



Antwort von dienstag_01:

Daher nix großer Zwischenspeicher - nur jeweils ein einziges Bild wird "gehalten"..

und wenn sich nichts bewegt im Motiv, hilft das natürlich auch im Dunkeln.
Muss ne Wunderkamera sein, deine Sony ;)



Antwort von Jott:

Und was hat das denn mit der hier zu besprechenden FramerateFramerate im Glossar erklärt von 25p zu tun...?

Kannst auch 25p oder 50p hinschreiben. Ich habe nur deshalb 24p als Beispiel genommen, weil da ein schön gerader Teiler rauskommt, in der Hoffnung, das illustriert die Nummer am einfachsten.

Zweifelnde Seelen können jeweils mal irgendwas Bewegtes so aufnehmen - mit 1/3 Sekunde ShutterShutter im Glossar erklärt oder einem anderen Wert "länger" als 360 Grad - dann im NLE das Material durchsteppen und zählen, wie viele Frames das gleiche Bild beinhalten, bis das nächste kommt. Dann fällt der Groschen auf jeden Fall.



Antwort von Jott:

Daher nix großer Zwischenspeicher - nur jeweils ein einziges Bild wird "gehalten"..

und wenn sich nichts bewegt im Motiv, hilft das natürlich auch im Dunkeln.
Muss ne Wunderkamera sein, deine Sony ;)

Nicht "meine" - jedes Modell seit zwanzig Jahren dürfte das können. Schau in irgend eine Bedienungsanleitung, da stehen die möglichen Shutterwerte drin. Wieso Wunderkamera?



Antwort von Rudolf Max:

Ja natürlich könnte ich das machen...

Aber lasst euch nicht weiter stören, philosophiert getrost weiter über solche Langzeibelichtungen... mich störts nicht weiter...

Hasta luego, Amigos...

Rudolf



Antwort von dienstag_01:

Wieso Wunderkamera?
Wenn sie keinen *Zwischenspeicher* hat ;)



Antwort von dienstag_01:

Aber lasst euch nicht weiter stören, philosophiert getrost weiter über solche Langzeibelichtungen... mich störts nicht weiter...
Was ist eigentlich so schwer an dem Wort *Stilmittel* ;)



Antwort von beiti:

Muss ne Wunderkamera sein, deine Sony ;)
Nicht "meine" - jedes Modell seit zwanzig Jahren dürfte das können. Nicht nur Sony. Mein Canon MVX3i (DV-Camcorder von 2003) konnte es auch. Ich habe das damals tatsächlich auch mal für Aufnahmen von nächtlichen Straßen benutzt; da bekommt man dann aufgrund der langen Belichtung die von Fotos bekannten Lichtspuren in die Frames.
Allerdings fand ich das Ergebnis mit den wenigen Bewegungswechseln nicht schön. Daher habe ich die Aufnahmen später im Schnittprogramm um den Faktor der Bildwiederholungen beschleunigt, so dass jedes Bild wieder nur 1x gezeigt wurde und ein Zeitraffer entstand - was dann indirekt einer Aufnahme mit geringerer FramerateFramerate im Glossar erklärt entsprach.



Antwort von Jott:

Yep, eine sinnvolle und gern genommene Anwendung.



Antwort von Jott:

Wieso Wunderkamera?
Wenn sie keinen *Zwischenspeicher* hat ;)

Haben die ganzen Camcorder. Speicherplatz für ein einziges FrameFrame im Glossar erklärt reicht ja. Gibt's schon lange.

Nehmen wir zum Beispiel einen verbreiteten Oldie, die FX1 von 2004, und schauen ins Manual:

"Belichtungszeit 1/4 bis 1/10000 Sekunde".



Antwort von Stephan82:

@: nein -- die gh4 unterstützt tatsächlich shutterwinkel jenseits der 360° bzw, länger einzelbildbelichtungen als es die framerate erwarten lassen würde....

Das ist schlicht unmöglich...
sagt mir mein gesunder Menschenverstand...
und die Logik...
und die Physik...

ich muss zugeben, dass ich zuerst auch sehr erstaunt darüber war, dass derart absurde einstellungen von der kamera akzeptiert werden. wie es technisch genau umgesetzt wird, ist mir übrigens bis heute ein rätsel. es scheint jedenfalls so, als würde für die einzelnen aufnahmen nicht nur eine lange belichtung herangezogen, sondern auch eine art frameblending zum einsatz kommen, aber in dem punkt kann ich mich auch irren...

zu demonstrationszwecken jedenfalls hier ein kleines beispiel: shuttertest.mp4
(aufgenommen mit den wunderbar sinnvollen einstellungen: iso400, bende 16 und 1/4 sec. belichtungszeit bei 25fps)
Kurz nochmal eine Frage zur GH4. Wie konntest du 1/4 Belichtungszeit einstellen? Muss man irgendwo einen Expertenmodus etc. aktivieren? Bei mir geht maximal 1/25 im Videomodus. Oder reden wir hier jetzt von der gleichen Belichtungszeit, also 1/4 = 1/25?



Antwort von dienstag_01:

Haben die ganzen Camcorder. Speicherplatz für ein einziges FrameFrame im Glossar erklärt reicht ja. Gibt's schon lange.
Stimmt, wäre denkbar.
Da aber Sony (wie auch andere Hersteller) für bestimmte Szenarien (Dynamic Range) Bilder (mehrere) intern verrechnen, wäre ich da sehr vorsichtig.



Antwort von Jott:

Doch nicht die kleinen Camcorderlein. Habe gerade mal ein sieben Jahre altes 800 Euro-C-Kamera-Exemplar rausgeholt und abgestaubt, kann 1/6 Sekunde als längsten ShutterShutter im Glossar erklärt und macht brav das, was man erwartet. Für das, worüber wir hier reden, muss ja auch nichts verrechnet werden. Keine Raketentechnik.



Antwort von mash_gh4:


Kurz nochmal eine Frage zur GH4. Wie konntest du 1/4 Belichtungszeit einstellen? Muss man irgendwo einen Expertenmodus etc. aktivieren? Bei mir geht maximal 1/25 im Videomodus. Oder reden wir hier jetzt von der gleichen Belichtungszeit, also 1/4 = 1/25?

im manuellen video modus -- ich arbeite eigentlich nur in dem --, kann man die werte ganz einfach mit den betreffenden drehrädern einstellen, so wie man ja auch sonst die blende und shutter konfiguriert. da gibt's nach unten hin keine bariere, die einen plötzlich beim erreichen der maximalen öffungszeit, bezogen auf die framerate, aufhalten würde.

obwohl ich zwar selbst derartiges aus anlogen zeiten kenne, euch also gerne auch ein zweites bsp. aus den 90er jahren schicken kann, wo ich derart lange einzelbildbelichtungen noch mit einer beaulieu genutzt habe, um das spärliche licht einer fabrikshalle zu nutzen.

tzrotzdem bin ich mir nicht sicher, ob das wirklich das gleiche ist? bei den anlogen im zeitrafermodus, war klar, dass jeweils nur ein kader am film über einen längeren zeitraum hinweg belichtet wird und die resultierende framerate dadurch beschränkt wird. aber in digitalen zeiten ist nicht gesagt, dass es sich nicht in wahrheit um einen anderen effekt handelt -- schematisch dargestellt:


analoger zeitraffer: digitales frameblending:

xxxx xxxx
xxxx xxxx
xxxx xxxx
xxxx xxxx
xxxx xxxx
xxxx xxxx
xxxx xxxx
xxxx xxxx
xxxx xxxx
... ...

in dem fall -- hier also z.b.: 25fps mit 1/6sec bilchtung -- kommen auch tatsächlich 25 verschiedene, sich überlappende bilder heraus, nicht immer nur blöcke von 4 sich wiederholenden.

ob das wirklich in der der umsetzung der gh4 auch nur ansatzweise in dieser form gehandhabt werden könnte, müsste man sich natürlich näher anschauen. auf den ersten blick bzw. bei besonders langen einstellungen, scheint es natürlich dem gelblockten modus eher zu entsprechen, wenn man es sich dann aber wieder mit relattiv kleinen abweichungen vom gewohnten betrieb ansieht, bekommt man dagegen den eindruck, dass es doch ansatzweise auch der zweiteren variante entsprechen könnte.

dass das auch in technischer hinsicht nicht ganz absurd bzw,.unmöglich wäre, hat unter anderem auch damit zu tun, dass der bildprozessor in der gh4 zur rauschunterdrückung auch exzessiv auf temporale kompensation zurückgreift, d.h. nicht alleine nur das jeweilige aktuelle bild vor augen hat, sondern immer auch zurückliegendes. das führt dazu, dass man in sehr dunklen und verrauschten passagen leider gerne 'geisterbilder' entdeckt. es kann also gut sein, dass das spekulieren über diese zweite variante einfach nur mit den auswirkungen dieses effekts bei sehr dunklen und länger sichtbaren aufnahmen mit starken veränderungen im bildgeschehen zu tun hat, ohne dass es in irgendeiner komplizierteren weise vom hersteller beabsichtigt gewesen wäre.

wie oben schon angesprochen, finde ich diesem zusammenhang aber die nutzung von raw-serienfotografien eigentlich spannender. damit kann man aus der kamera tatsächlich etwas herauskitzeln, dass man nicht erwarten würde! es ist wirklich schade, dass uns die hersteller vor diesen freiheiten im video modus derart konsequent fern halten.



Antwort von dienstag_01:

Doch nicht die kleinen Camcorderlein.
Deine kleinen Camcorderlein müssen auch erstmal ein Bild berechnen. Schau dir mal das Processing an. Die Annahme, da kommen Werte vom Sensor und die werden einfach nur abgespeichert ist reichlich naiv. Das passiert selbst bei RAW nicht ;)



Antwort von Jott:

Wenn man mit 25p und meinetwegen 1/3 ShutterShutter im Glossar erklärt filmt, und im NLE tauchen in einer 25p-Timeline dann NICHT entsprechend Blöcke von identischen Frames auf, dann spendier ich eine Pizza (eine für alle, Selbstabholung).

Dienstag, ich kann dir nicht folgen. Bei einem ShutterShutter im Glossar erklärt länger 1/25 bei 25p entstehen halt weniger Bilder pro Sekunde - aber auch nicht anders. Ist aber auch egal - praktisches Ausprobieren schlägt Geschwurbel, nicht wahr?

Und da Aufnahmen mit Slow ShutterShutter im Glossar erklärt ohne jede Zeitbeschränkung möglich sind, stundenlang, tagelang, sogar live, kann das rein logisch überhaupt nichts mit volllaufenden Zwischenspeichern zum Rumrechnen zu tun haben. Die müssten ja dann unendlich groß sein, und es müsste eine ansteigende Verzögerung bei der Darstellung (live) oder Wiedergabebereitschaft (Aufzeichnung) geben. Beides ist selbstverständlich NICHT der Fall.

Ob die von wowu erwähnte Phantom Flex tatsächlich live hinter den Kulissen aus meinetwegen 3 aufgenommenen Bildern pro Sekunde (Shutter 1/3) blitzschnell in Realtime 24, 25 oder 50 neue interpolieren kann mit glaubwürdig dafür reduzierter Bewegungsunschärfe pro Bild, weiß ich nicht. Wenn ja, würde ich das gerne mal sehen.



Antwort von WoWu:

Wenn die maximale Anzahl der Bilder entlang der eingestellten Shutterzeit im Speicher liegen vergrössert sich der Speicher nicht mehr und jedes nachrückende Bild löst ein ausgegebenes ab. Man kann das dann also stundenlang so weiter machen.
***gelöscht wegen von Admin / Beleidigung***



Antwort von Jott:

***offtopic***



Antwort von WoWu:

***offtopic / Beleidigung***

ich habe gesagt, dass SMOS Sensoren nicht interlaced ausgelesen werden können.
Wenn eine CMOS Kamera intern 50p macht, kann man daraus natürlich ein 25i mit zeitlicher Verkammung der Zeilen herstellen.

Ausserdem wird bei kurzen Shutterzeiten nichts interpoliert, dass ist einfache addition, es sei denn man will irgendwelche Blending Effekte erzeugen. Macht die Flex aber nicht.



Antwort von dienstag_01:

Dienstag, ich kann dir nicht folgen.
Das ist nicht zu übersehen ;)

Bei einem ShutterShutter im Glossar erklärt länger 1/25 bei 25p entstehen halt weniger Bilder pro Sekunde - aber auch nicht anders. Ist aber auch egal - praktisches Ausprobieren schlägt Geschwurbel, nicht wahr?
Mit GESCHWURBEL meinst du jetz deine eigenen Ausführungen oder was? Denn ich hab nie was anderes behauptet ;)

Und da Aufnahmen mit Slow ShutterShutter im Glossar erklärt ohne jede Zeitbeschränkung möglich sind, stundenlang, tagelang, sogar live, kann das rein logisch überhaupt nichts mit volllaufenden Zwischenspeichern zum Rumrechnen zu tun haben.
Ich kenne keine Videokamera, die stundenlangen Shutterspeed einstellen lässt. Du? Oder ist bei dir 1/3s stunden-/tagelang ;)

Übrigens hatte ich zu deiner Aussage zur Größe des Zwischenspeichers *ist denkbar* geschrieben, nur sollte man mit solchen Aussagen *vorsichtig* sein. Zumal, wenn man eigentlich keine Ahnung hat ;)

Meine anderen Aussagen beziehen sich ausschließlich auf deine sehr, sehr simple Sicht auf die Zwischenspeicherung von Frames. Kannst ja mal erklären, wie das bei AVCHDAVCHD im Glossar erklärt funktioniert ;)



Antwort von Jott:

Oh Mann.



Antwort von dienstag_01:

Dann eben HDVHDV im Glossar erklärt long GOP ;)



Antwort von WoWu:

***offtopic / Beleidigung***

@Dienstag
Der Speicher liegt vor der Datenreduktion und speichert auch nur die reinen Luminanzdaten des Sensors.



Antwort von dienstag_01:

Der Speicher liegt vor der Datenreduktion und speichert auch nur die reinen Luminanzdaten des Sensors.
Mir ging es mit der Aussage ja auch nur darum, bissel von der 1-Frame-Zwischenspeicherung wegzukommen. Ganz UNWISSENSCHAFTLICH ;)
(Für HDVHDV im Glossar erklärt müssen ja nun mal schon wenigstens 12 Bilder vorgehalten werden)

Aber wie ist es denn nun, wie wird die Auslesung des Sensors getriggert: statisch (also immer gleich), je nach FramerateFramerate im Glossar erklärt oder eben nach dem ShutterShutter im Glossar erklärt Speed? Und gibt es da nur eine oder mehrere Methoden?



Antwort von blueplanet:

im manuellen video modus -- ich arbeite eigentlich nur in dem --, kann man die werte ganz einfach mit den betreffenden drehrädern einstellen, so wie man ja auch sonst die blende und shutter konfiguriert. da gibt's nach unten hin keine bariere, die einen plötzlich beim erreichen der maximalen öffungszeit, bezogen auf die framerate, aufhalten würde.

...so und jetzt ganz unwissenschaftlich einfach erklärt: Nein - es gibt nicht verschiedene GH4's, die unterschiedliche tolle Sachen können.

Die bezeichneten Shuttereinstellungen unter 1/25 sind nur in den manuellen Programmen möglich. Also alle Programme mit denen mit der GH4 in erster Linie FOTOGRAFIERT wird. Dem eigentlichen Filmer und seinem bevorzugten Programm (M/Kreativ) ist es nicht möglich unter 1/25 zu gehen. Ergo, wer mit der GH4 4K oder UHD intern filmen möchte -und das möchte wohl fast jeder- ;), dem bleibt der stilvolle Griff in den Keller verwehrt.

Ja, so einfach kann etwas erklärt werden ;))



Antwort von mash_gh4:


Die bezeichneten Shuttereinstellungen unter 1/25 sind nur in den manuellen Programmen möglich. Also alle Programme mit denen mit der GH4 in erster Linie FOTOGRAFIERT wird.

nein -- die entsprechenden shuttereinstellungen sind zugänglich, wenn das drehrad auf das "M" mit nebenstehendem filmkamera-symbol gesetzt ist. also dem video aufnahmemodus mit manuellen settings -- genau das, was wir alle zum filmen mit dieser kamera ständig benutzten.

die längste zulässige belichtung ist hier übrigens 1/2 sekunde -- also nichts wirklich exotisches, das der astro-fortografie zuzuordnen wäre.

besonders schwierig wird es übrigens, sich die ausgeschriebene pizza von Jott zu erjagen, weil die entsprechenen schritte hier natürlich, wie bei belichtungszeiten üblich, nur in halbierungsschritten möglich sind. die 1/3 frame-interval forderung, speielt's also nicht. allerdings gibt's ja ggf. auch noch ISO einstellungen in drittel-stufen und den sync-feintunig modus, mit dem man hier noch weitere möglichst undurchsichtige sachen anstellen könnte.

prinzipell würde ich ja wowu eher wiedersprechen, wenn es darum geht, derartigen shutter-einstellungen einen eigenen zeitgeber zuzuordnen. es scheint weit realistischer, dass auch hier, wie fast überall in der digital- und computertechnik, nur einfache teiler bezogen auf einen gemeinsamen takt zum einsatz kommen.

Jott könnte natürlich recht behalten, wenn er eine blockartige deutung des ganzen geschehens favorisiert, die sich von wowus spekulationen über die betreffende black box deutlich unterscheidet. wenn man sich das oben gepostete beispiel im einzelbildmodus durchsieht, wird das ohnehin schnell klar.

allerdings gibt's auch gründe, warum ich weiterhin nicht ganz so sicher bin, ob diese erklärung alles umfasst. bei diesem beispiel, wo ja natürlich im abgebildeten bildschirm keine kontinuierlichen bewegungsverläufe erkennbar waren, ist das natürlich nicht so deutlich geworden. wenn man aber auch die entsprechenden veräufe der bewegungsunschärfe als indikator einbezieht, treten weitere aspekte der internen umsetztung klarer hervor.

in der praxis ist ohnehin nur der 360° shutter-winkel bzw. eine möglichst kontinuierliche aufzeichnung des bewegungsflusses relevant. alles andere kann man dann im postprocessing weit sauberer lösen.



Antwort von blueplanet:

nein -- die entsprechenden shuttereinstellungen sind zugänglich, wenn das drehrad auf das "M" mit nebenstehendem filmkamera-symbol gesetzt ist. also dem video aufnahmemodus mit manuellen settings -- genau das, was wir alle zum filmen mit dieser kamera ständig benutzten.

...man, man, man - dazu musst Du aber auch sagen, das unter der SS/Gain Funktion der Schalter auf Angel/ISO gesetzt sein muss ;))



Antwort von mash_gh4:

nein -- die entsprechenden shuttereinstellungen sind zugänglich, wenn das drehrad auf das "M" mit nebenstehendem filmkamera-symbol gesetzt ist. also dem video aufnahmemodus mit manuellen settings -- genau das, was wir alle zum filmen mit dieser kamera ständig benutzten.

...man, man, man - dazu musst Du aber auch sagen, das unter der SS/Gain Funktion der Schalter auf Angel/ISO gesetzt sein muss ;))

nur wenn man nicht in der lage ist, die entsprechenden werte im kopf zw. belichtungszeit und shutterwinkel umzurechnen. :)
auf meiner kamera ist die von dir genannte option jedenfalls nicht gesetzt, weil sie mich im alltag eher stören würde.



Antwort von blueplanet:

nur wenn man nicht in der lage ist, die entsprechenden werte im kopf zw. belichtungszeit und shutterwinkel umzurechnen. :)
auf meiner kamera ist die von dir genannte option jedenfalls nicht gesetzt, weil sie mich im alltag eher stören würde.

....soooo - jetzt ist die Verwirrung komplett. ;)

Die GH4 zeigt unter der genannten Einstellung ein fast komplett verändertes Belichtungsverhalten. Oder mit anderen Worten: besagte Schalterstellung ist nicht nur "Makulatur" bzw. eine andere "Bezeichnung". Und - ja jetzt weiß ich erst recht nicht mehr in welchem "umgerechnet" ShutterShutter im Glossar erklärt ich mich tatsächlich bewege ;)

"11d", BlendeBlende im Glossar erklärt 8 und ISO 200 bei vollem Sonnenschein ist schon mal nicht schlecht und der vorgesetzte Vario-Graufilter wird fast zur Nebensache. Arbeite ich mich nach 120d oder höher hinauf, wird die Belichtung natürlich "heller", aber ich habe wesentlich mehr Überbelichtungsreserven/Abstufungen selbst ohne Graufilter bei gleicher Blende....

Aber was ich eigentlich sagen möchte: ich gebe Dir ebenfalls eine Runde Pizza aus, wenn Du mir sagst, wie ich unter M (mit Filmkamera) und unter SEC/ISO einen Wert unter 1/25 an der GH4 per Drehrad eingeben kann???



Antwort von mash_gh4:

Aber was ich eigentlich sagen möchte: ich gebe Dir ebenfalls eine Runde Pizza aus, wenn Du mir sagst, wie ich unter M (mit Filmkamera) und unter SEC/ISO einen Wert unter 1/25 an der GH4 per Drehrad eingeben kann???

die pizza scheint leichter eroberbar zu sein! :)

bei mir steht der entsprechende einstellung tatsächlich auf "SEC/ISO" -- hab's vorsichtshalber nocheinmal überprüft! genau damit habe ich aber obiges bsp. gestern nacht schnell aufgenommen...

ich tu mir also eher schwer, zu erraten, warum es bei dir nicht klappt?
kanditaten dafür wären evtl. die einstellungen: "Bel.Modus" -> "M" oder "4K Foto" -> "off". ich verwende übrigens firmware 2.3

vielleicht ist da irgendwas drunter, das dir hilft -- jedenfalls geht's mir überhaupt nicht darum, hier mit irgendeinem zweifelhaften feature zu prahlen, das in der praxis ohnehin nicht viel bringt.



Antwort von WoWu:

Der Speicher liegt vor der Datenreduktion und speichert auch nur die reinen Luminanzdaten des Sensors.
Mir ging es mit der Aussage ja auch nur darum, bissel von der 1-Frame-Zwischenspeicherung wegzukommen. Ganz UNWISSENSCHAFTLICH ;)
(Für HDVHDV im Glossar erklärt müssen ja nun mal schon wenigstens 12 Bilder vorgehalten werden)

Aber wie ist es denn nun, wie wird die Auslesung des Sensors getriggert: statisch (also immer gleich), je nach FramerateFramerate im Glossar erklärt oder eben nach dem ShutterShutter im Glossar erklärt Speed? Und gibt es da nur eine oder mehrere Methoden?
Im Bildspeicher wird keine Gop vorgehalten, auch nicht für MPEG2
Der ganze Prozess geschieht auf der RAW Ebene, weil man nur hier noch mit einem einzigen Signal pro PixelPixel im Glossar erklärt arbeiten kann und der Rechenprozess entsprechend schnell geht und der Speicherbedarf gering ist.
Das, was da passiert ist im Grunde nur eine Addition der Werte, die hinterher als fertiges Bild im Prozessweg durchgereicht werden.

Und wenn Du 1/3 ShutterShutter im Glossar erklärt eingestellt hast, benötigst Du (bei 30 FPS) eben nur einen Bildspeicher von 10 Bildern.
Der Speicher wird in der eingestellten FramerateFramerate im Glossar erklärt nachgeladen (first in first out) so dass jedes fertige Bild einen kontinuierlich aufgeladenen Bildinhalt hat.
Du bist nur eben sehr schnell in der Überbelichtung ... das ist klar, wenn Du hohe Lichtwerte auch noch addierst ... aber solche Belichtungszeiten sind eben für geringe Lichtmengen vorgesehen ... oder, wenn Du den Bewegungseffekt haben willst, eben mit ND ... BlendeBlende im Glossar erklärt bietet sich wegen der Beugung da nicht an.



Antwort von Stephan82:

Aber was ich eigentlich sagen möchte: ich gebe Dir ebenfalls eine Runde Pizza aus, wenn Du mir sagst, wie ich unter M (mit Filmkamera) und unter SEC/ISO einen Wert unter 1/25 an der GH4 per Drehrad eingeben kann???

die pizza scheint leichter eroberbar zu sein! :)

bei mir steht der entsprechende einstellung tatsächlich auf "SEC/ISO" -- hab's vorsichtshalber nocheinmal überprüft! genau damit habe ich aber obiges bsp. gestern nacht schnell aufgenommen...

ich tu mir also eher schwer, zu erraten, warum es bei dir nicht klappt?
kanditaten dafür wären evtl. die einstellungen: "Bel.Modus" -> "M" oder "4K Foto" -> "off". ich verwende übrigens firmware 2.3

vielleicht ist da irgendwas drunter, das dir hilft -- jedenfalls geht's mir überhaupt nicht darum, hier mit irgendeinem zweifelhaften feature zu prahlen, das in der praxis ohnehin nicht viel bringt.
Ich habe DEN GRUND rausgefunden.

Es liegt am Objektiv!!!

Mit dem Panasonic 12-35mm F2.8 kann ich im Filmmodus (Kamerasymbol) maximal 1/25 einstellen. Sobald ich aber ein altes Canon FD 50mm F1.4 mit 10€-Adapter anschließe, dann kann ich die Belichtungszeit ebefalls auf maximal 1/2 Sekunde einstellen und bekomme eben ein total verwischtes Bild.

@mash_gh4: welches Objektiv verwendest du?



Antwort von WoWu:

Das geht aber auch mit alten und mit einfachen Kameras.
Diese macht nur 1/6 aber je mehr Speicher zur Verfügung steht, umso länger wird die verfügbare Shutterzeit.
***von Admin gelöscht / Beleidigung***



Antwort von Jott:

Wenn du das sagst! :-)

Filmt jetzt auch mal jemand mit Slow ShutterShutter im Glossar erklärt und schaut sich's an?



Antwort von WoWu:

Shutter ist ein Stilmittel.
Wenn einem in den Bewegungen die Verwischungen gefallen, dann ist"s ja gut, ansonsten - wie ich oben gesagt habe, kann man Belichtung bei relativ statischen Szenen damit besser ausgleichen, als mit dem Gain.
Aber bei Dir funktioniert das ja alles nicht .... woran liegt das wohl ?
*** von Admin gelöscht / Beleidigung***



Antwort von Jott:

Bei mir funktioniert das wunderbar. Wo steht was anderes?



Antwort von WoWu:

Doppel



Antwort von WoWu:

*** von Admin gelöscht / Beleidigung***



Antwort von mash_gh4:


Es liegt am Objektiv!!!

Mit dem Panasonic 12-35mm F2.8 kann ich im Filmmodus (Kamerasymbol) maximal 1/25 einstellen. Sobald ich aber ein altes Canon FD 50mm F1.4 mit 10€-Adapter anschließe, dann kann ich die Belichtungszeit ebefalls auf maximal 1/2 Sekunde einstellen und bekomme eben ein total verwischtes Bild.

@mash_gh4: welches Objektiv verwendest du?

in dem fall war es ein 15 1.7 leica/lumix objektiv, aber ich kann mich nicht entsinnen, dass es mit einem anderen meiner objektive nicht funktioniert hätte -- brauch's aber natürlich in der praxis nie...

hab's jetzt aber auch noch ganz schnell mit einer nikon optik an einem einfachen passiven adapter probiert, und auch damit komme ich bis auf 1/2 sekunde runter...

wie gesagt: wirklich nützlich erscheint mir diese funktion ohnedies nicht.



Antwort von Jott:

Und? Sind's bei dir keine Framewiederholungen bei längerem ShutterShutter im Glossar erklärt als 360 Grad? Natürlich sind die da. Deswegen sagst ja auch du, das hilft wunderbar beim Lichtgewinn im Dunkeln - aber eben nur bei statischen Einstellungen, sonst ruckelt's.



Antwort von blueplanet:

Ich habe DEN GRUND rausgefunden.

Es liegt am Objektiv!!!

Mit dem Panasonic 12-35mm F2.8 kann ich im Filmmodus (Kamerasymbol) maximal 1/25 einstellen. Sobald ich aber ein altes Canon FD 50mm F1.4 mit 10€-Adapter anschließe, dann kann ich die Belichtungszeit ebefalls auf maximal 1/2 Sekunde einstellen und bekomme eben ein total verwischtes Bild.

...phuu - und ich hatte schon angefangen an mir zu zweifeln ;)) Ich nutze ebenfalls das 12-35mm. Das es "nicht möglich ist" trifft wahrscheinlich auch auf alle anderen "lichtschwächeren" Objektive zu (z.B. das 100-300mm, 4,0/5.6 ). Die Grenze scheint tatsächlich bei 2,8 zu liegen.

Pizza für alle ;))



Antwort von Olaf Kringel:

Die Grenze scheint tatsächlich bei 2,8 zu liegen.

...nee, denn mit meinem Pana 25mm 1,7 geht es auch nicht.

Erst wenn ich den (passiven) Quenox Adapter montiere, komme ich bis auf 2 runter.

Scheint also wohl doch am Adapter zu liegen.

Gruß,

Olaf



Antwort von mash_gh4:


...phuu - und ich hatte schon angefangen an mir zu zweifeln ;)) Ich nutze ebenfalls das 12-35mm. Das es "nicht möglich ist" trifft wahrscheinlich auch auf alle anderen "lichtschwächeren" Objektive zu (z.B. das 100-300mm, 4,0/5.6 ). Die Grenze scheint tatsächlich bei 2,8 zu liegen.

nein -- bei mir geht's auch mit dem 45-200 1:4-5.6 und mit dem 25 1.4 ebenfalls ;)

hab allerdings wirklich keine ahnung, warum das so ist.



Antwort von blueplanet:

...aber was lernen wir daraus? Es gibt eine Faustregel die besagt... ;))

Oder: 1/50 ShutterShutter im Glossar erklärt ist bei 25fps das goldene Mittelmaß.
- 1/25 ShutterShutter im Glossar erklärt bei 25fps tut nicht weh und ist ist besser als die Verdopplung des ISO-Wertes
- 1/100 ShutterShutter im Glossar erklärt bei 25fps eignet sich für schneller Bewegungsabläufe besser als 1/50 bei gleichzeitig bleibenden "Kinolook" vs. 50fps mit 100fps bzw. 1/50
Und wer ein sehr lichtstarkes Objektiv oder eine entsprechende Kamera besitzt, die von vornherein weniger als 1/25 kann (diese Funktion hieß z.B. bei Sony zu Hi8Hi8 im Glossar erklärt und D8-Zeiten "Super Nightshot" o.ä.), hat Glück ;) bzw. kann bei Bedarf etwas stilvoller Arbeiten...

Alle zufrieden?



Antwort von Olaf Kringel:

...hört sich gut an :)

Gruß,

Olaf,

PS: grade noch schnell das Pana 35-100mm 2,8 und das Sigma 30mm 2,8 getestet, die kommen beide auch nicht unter 1/25...



Antwort von blueplanet:

nein -- bei mir geht's auch mit dem 45-200 1:4-5.6 und mit dem 25 1.4 ebenfalls ;) hab allerdings wirklich keine ahnung, warum das so ist.

...mach' mich nicht pferdsch' ;))

Ich habe wirklich ALLE in Frage kommenden Kombis duchgetestet - da geht nix unter 1/25. (Firmware 2.5) War aber auch schon bei der 2.3 mit diesem Objektiv (incl. Firmware 1.3) so. ;(



Antwort von TomStg:

Alle zufrieden?
Nein, denn Du hast nur die Hälfte verstanden.

Sonys (Super) Night Shot ist etwas völlig anderes.
https://de.m.wikipedia.org/wiki/Nightshot



Antwort von blueplanet:

Sonys (Super) Night Shot ist etwas völlig anderes.

..."Belichtungszeit auf den maximalen Wert von 1/50 (PAL) bzw. 1/60 (NTSC) Sekunden erhöht. Außerdem ist es möglich, mehrere aufeinanderfolgende Bilder zu kombinieren, um die Lichtausbeute weiter zu erhöhen, dabei kommt es aber zu starken Nachzieheffekten."

O.K. - das wusste ich nicht. Der Effekt sah immer nach unter 1/50 belichtet aus.

1/100sec bei 25p ist gerade bei schnellen Bewegungen Unfug, denn damit wird es besonders ruckelig.

...nicht "ich" bewege mich, sondern das Objekt vor der Kamera. Oder was meinste Du, wann man mehr Details (fliegender Vogel) in einem Bild warnimmt: wenn ich z.B. bei Vollformat 1. mit 1/500 sowie BrennweiteBrennweite im Glossar erklärt 250mm belichte oder 2. mit 1/1000 bei gleicher Brennweite?!

1/50sec war, ist und bleibt so ziemlich die sinnvollste Belichtungszeit bei nahezu allen Gelegenheiten und nahezu allen Bildraten - Ausnahmen gelten für SloMos und als Stilmittel.

...meine Rede!



Antwort von Funless:

Pizza für alle ;))

Pizza hatte ich heute schon zum Mittag. Noch eine schaff' ich nicht. :-(



Antwort von TomStg:

...nicht "ich" bewege mich, sondern das Objekt vor der Kamera. Oder was meinste Du, wann man mehr Details (fliegender Vogel) in einem Bild warnimmt: wenn ich z.B. bei Vollformat 1. mit 1/500 sowie BrennweiteBrennweite im Glossar erklärt 250mm belichte oder 2. mit 1/1000 bei gleicher Brennweite?!

Unterscheide zw Foto und Film.

Bei einem Foto eines sich schnell bewegenden Objekts ist natürlich eine möglichst kurze Belichtungszeit nötig, um eine scharfe Abbildung zu erhalten.

Beim Film - also bei mehreren schnell aufeinanderfolgenden Einzelbildern - sieht die Sache anders aus. Bei normalen Bildraten - Ausnahme SloMos - darf die Zeit zwischen den Belichtungen der Einzelbilder schnell bewegter Objekte - quasi die "Dunkelpause" - nicht zu lang werden, um einen Stroboskopeffekt zu vermeiden.
Beispiel: Ein Auto fährt an der Kamera im rechten Winkel schnell vorbei, Bildrate 25p, dh gleichmäßig über eine Sekunde verteilt werden 25 Vollbilder aufgenommen. Bei einer Belichtungszeit von 1/100sec für das einzelne Bild ist die "Dunkelpause" bis zur Belichtung des nächsten Bilds doppelt so lang wie bei einer Belichtungszeit von 1/50sec. Das bedeutet, dass in den "Dunkelpausen" ohne Belichtung das Auto einen doppelt so langen Weg zurücklegt bis zur Belichtung des nächsten Bilds. Dadurch wirkt die Bewegung des Autos ruckelig. Dieser Stroboskopeffekt tritt umso stärker auf, je schneller sich das Objekt bewegt, je kürzer die Belichtungszeit und je niedriger die Bildrate gewählt wird. Das gilt genauso, wenn ein stehendes Objekt mit einer schnell bewegten Kamera, zB bei schnellen Schwenks gefilmt wird.

Bei einem schnellen Objekt oder einer schnell bewegten Kamera muss man einen Kompromiss zw Dauer der "Dunkelpause" und der Abbildungsschärfe des Einzelbilds, dh Belichtungszeit finden. Dabei hat sich 1/50sec mit 50 Bildern/sec am besten bewährt, um eine möglichst fließende Bewegung zusammen mit einer möglichst hohen Abbildungsschärfe zu erhalten. Dh auch den Schnellzug, den Fußballspieler oder den Weitspringer nimmt man so am besten auf - vorausgesetzt, es geht dabei nicht um SloMos oder Bildgestaltungseffekte.



Antwort von Stephan82:


hab's jetzt aber auch noch ganz schnell mit einer nikon optik an einem einfachen passiven adapter probiert, und auch damit komme ich bis auf 1/2 sekunde runter...

wie gesagt: wirklich nützlich erscheint mir diese funktion ohnedies nicht.
Naja, ich war schon daran interessiert zu wissen, ob ich das mit meiner GH4 hinbekomme. Ich filme immer wieder mal Kurzfilme und finde diesen verwischten Bildeindruck perfekt, um eine beginnende Ohnmacht oder Schwindel eines Protagonisten darzustellen.

Von daher bin ich froh zu wissen, dass ich diesen Bild-Effekt zumindest mit dem CanonFD-Objektiv realisieren könnte.



Antwort von Stephan82:

Die Grenze scheint tatsächlich bei 2,8 zu liegen.

...nee, denn mit meinem Pana 25mm 1,7 geht es auch nicht.

Erst wenn ich den (passiven) Quenox Adapter montiere, komme ich bis auf 2 runter.

Bezieht sich das auf das Pana 25mm F1.7 oder montierst du dann ein anderes Objektiv an den Quenox-Adapter? Was ist das für ein Adapter? MFT auf MFT mit Focal Reducer? Gibts sowas überhaupt?



Antwort von mash_gh4:


hab's jetzt aber auch noch ganz schnell mit einer nikon optik an einem einfachen passiven adapter probiert, und auch damit komme ich bis auf 1/2 sekunde runter...

wie gesagt: wirklich nützlich erscheint mir diese funktion ohnedies nicht.
Naja, ich war schon daran interessiert zu wissen, ob ich das mit meiner GH4 hinbekomme. Ich filme immer wieder mal Kurzfilme und finde diesen verwischten Bildeindruck perfekt, um eine beginnende Ohnmacht oder Schwindel eines Protagonisten darzustellen.

Von daher bin ich froh zu wissen, dass ich diesen Bild-Effekt zumindest mit dem CanonFD-Objektiv realisieren könnte.

ich würde derartiges wirklich besser in der nachbearbeitung machen.
du brauchst dafür wirklich nur eine einzige "FrameBlend", "TimeBlur" node od.ä. im nuke oder natron. damit hat man meines erachtens nach viel mehr gestaltungsspielraum.



Antwort von Stephan82:


hab's jetzt aber auch noch ganz schnell mit einer nikon optik an einem einfachen passiven adapter probiert, und auch damit komme ich bis auf 1/2 sekunde runter...

wie gesagt: wirklich nützlich erscheint mir diese funktion ohnedies nicht.
Naja, ich war schon daran interessiert zu wissen, ob ich das mit meiner GH4 hinbekomme. Ich filme immer wieder mal Kurzfilme und finde diesen verwischten Bildeindruck perfekt, um eine beginnende Ohnmacht oder Schwindel eines Protagonisten darzustellen.

Von daher bin ich froh zu wissen, dass ich diesen Bild-Effekt zumindest mit dem CanonFD-Objektiv realisieren könnte.

ich würde derartiges wirklich besser in der nachbearbeitung machen.
du brauchst dafür wirklich nur eine einzige "FrameBlend", "TimeBlur" node od.ä. im nuke oder natron. damit hat man meines erachtens nach viel mehr gestaltungsspielraum.
Ja klar, kann man auch in der Post machen.



Antwort von blueplanet:

Bei einem schnellen Objekt oder einer schnell bewegten Kamera muss man einen Kompromiss zw Dauer der "Dunkelpause" und der Abbildungsschärfe des Einzelbilds, dh Belichtungszeit finden. Dabei hat sich 1/50sec mit 50 Bildern/sec am besten bewährt, um eine möglichst fließende Bewegung zusammen mit einer möglichst hohen Abbildungsschärfe zu erhalten. Dh auch den Schnellzug, den Fußballspieler oder den Weitspringer nimmt man so am besten auf - vorausgesetzt, es geht dabei nicht um SloMos oder Bildgestaltungseffekte.

...super erklärt! Vielen Dank! Leider ist das ja mit der GH4 unter UHD nicht möglich - aber das ist nun wirklich ein anderes Thema.



Antwort von Stephan82:

Achja, noch ein kleiner Nachtrag für die GH4-Besitzer.

Ich hatte ja geschrieben, dass ich im Videomodus (Kamerasymbol) nur mit dem Canon FD-Objektiv und Adapter 1/2 Sekunde Belichtungszeit einstellen kann und mit dem Panasonic 12-35 F2.8 nicht.

Tja, stellt mal den Autofocus auf manuell! Kann jetzt auch mit dem Panasonic 12-35mm F2.8 bis 1/2 Sekunde einstellen.

Hatte den Panasonic Support angeschrieben. Die meinten es ginge maximal 1/25. Mhhh, wie man sieht geht maximal 1/2 Sekunde mit manuellem Fokus ;)



Antwort von Olaf Kringel:

...jupp,

kann ich bestätigen.

Danke für den Hinweis.

Gruß,

Olaf



Antwort von mash_gh4:

Tja, stellt mal den Autofocus auf manuell! Kann jetzt auch mit dem Panasonic 12-35mm F2.8 bis 1/2 Sekunde einstellen.

nicht schlecht, dass du das herausgefunden hast! :)

bei mir ist die kamera im video modus fast immer auf MF gestellt. ich verwende nur manchmal den AE lock button zum schnellen einstellen, wenn die einstellungen nach dem ausschalten wieder verloren sind. aber das erklärt natürlich das völlig unterschiedliche verhalten unserer kameras.



Antwort von Stephan82:

Ich fotografiere mit der Cam auch. Daher hatte ich am Anfang der Diskussion noch den Autofokus drin ;)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen:
Frage wegen Bildwiederholrate 24p , 25p , 50p
Verständnis Frage Slow-Mo "für dummies" fps/zeit/codec
50p in 25p rendern
Gefilmt in 50p ==> Rendern zu 25p
50p - 25p - Gleiche Bewegungsunschärfe
VDL: Filmeinstellungen 25p/50p
50p in 25p Video für YT usw.
Flackern bei 50p -> 25p Konvertierung
Editing von MP4 50p und AVCHD 50p am Mac mit welcher software??
Kein 25p in Sony Vegas Movie Studio 12...Was tun bei 25p Aufnahmen?
Premiere Pro GH5s Vlog-L/Rec709 Verständnis Problem
Brauche 4K und 50p
60p und 25p material mischen
50p und 60p Aufnahmen
24p oder 25p Auswertung TV und Kino
Konforming 23,98 zu 25p, FCPX und Compressor scheitern
25p und 50i gemischt auf DVD?
Nikon D810 mit Expeed 4, 1080/50p und 36,3 MP
Test: Nikon D4s: Expeed 4 und 1080/50p
Sony a7s und Avid - 50p oder 50i AVCHD
CES: Nikon D5500 mit 24,2 MP, 1080/50p und flachem Bildprofil
Frage zu NP Akkus und V-Mount und zu dem Kabelwerk ^^
Frage und Zoll und Steuern aus UK
Frage zu Steadycam und Tarierung
RAM und Festplatten Frage
Neu hier und schon ne Frage... ;)

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

ClipKanalschraeg

Aktuelles Video:
ΔNOMΔLY
Specialsschraeg
12-16. Dezember / Villach
K3 Film Festival
21. Dezember / Diverse
Kurzfilmtag 2019
31. Dezember / Berlin
Video-Wettbewerb
7-17. Februar 2019/ Berlin
Berlinale
alle Termine und Einreichfristen


update am 16.Dezember 2018 - 18:00
slashCAM
ist ein Projekt der channelunit GmbH
*Datenschutzhinweis*