Frage von Auf Achse:Servus!
Ich bin auf ein paar Gedanken gekommen bezüglich 50p und Verschlusszeit: Üblicherweise filmt man ja mit 1/50 (bis 1/100) Shutter, das ganze bisher mit 25 Frames/Sec.
50p sind meines wissens 50 Vollbilder / Sec und somit doppelt soviel wie die 25 Frames. Somit könnte bei 50p die Verschlusszeit verdoppelt werden bei gleicher (erwünschter) Bewegungsunschärfe wie bei 25 Frames. Sehe ich das richtig oder hab ich da einen Denkfehler?
Grüsse,
Auf Achse
Antwort von toxitobi:
Verschlusszeit bezieht sich doch auf die Belichtung pro Bild.
Ob das nun 25 oder 50 Bilder pro Sekunde sind die die Kamera aufnimmt ist erstmal egal, wenn man es allerdings umsetzen wollte in der Kamera müsste man bei 1/25 und 50 fps einen Computer hinzuziehen der das ermöglicht und das Ergebnis berechnet. Tatsächlich Physikalisch ist das natürlich unmöglich. 1/50 (die Hälfte von 1/25) wären dann bei 50 Bilder pro Sekunde maximal möglich. Was aber keiner Verdoppelung entspricht.
gruß Toxitobi.
Antwort von WoWu:
Die Bildfrequenz sagt lediglich, wie oft der Bildsensor pro Sekunde abgefragt wird.
Das Shutter sagt lediglich, wie lange Photonen pro Pixel in den Sensor aufgenommen werden.
Nach Ablauf der Shutterzeit, spätestens aber nach Ablauf der Bildfrequenz wird der Inhalt des lichtempfindlichen Sensors in den Zwischenspeicher verschoben.
Du kannst also bei identischer Bildfrequenz keine Shutterzeiten nutzen, die länger als die Zeit pro Einzelbild ist.
Halbierst Du dahingegen die Bildfrequenz von 50 Hz auf 25 Hz kannst Du auch längere Belichtiungszeiten nutzen. Dann muss Deine Kamera aber auch ein 25p Format unterstützen.
(Etwas anders verhält es sich bei (i)-Formaten).
Antwort von Auf Achse:
Servus!
Danke, das leuchtet ein....
Ich hab noch eine Frage zu dem Thema: Wie wird diese Shutterzeit eigentlich signaltechnisch umgesetzt, denn einen echten mechanischen Shutter der für eine gewisse Zeit Licht auf den Sensor / Film lässt gibt es hier nicht. --> Shutter = 1/50 bedeutet dass für eine fünfstigstel Sekunde der Sensor das Bild das soeben auf den Sensor fällt in ein elektronisches Signal umgewandelt wird (und wie du schreibst in einen Zwischenspeicher geschoben wird). Und jetzt der Kern meiner Frage: Bei 25 Frames/sek ist jedes einzelne Bild für 1/25sek sichtbar, also doppelt so lange wie die Shutterzeit. Was passiert nach Ablauf der 1/50 Shutterzeit in den "restlichen" 1/50sek? Bleibt das jeweilige Bild noch 1/50 "stehen"?
Bei 50p wäre dann Shutterzeit und Bildfrequenz ident.
LG, Auf Achse
Antwort von WoWu:
Hallo LG
Ich hoffe, ich habe die Frage richtig verstanden.
Die "Mechanik" des Shutters wird auf dem Bildsensor gesteuert.
Nach dem Auslesen des Zwischenspeichers werden alle Pixelinhalte gelöscht.
Die Zeit von diesem Punkt, bis zu dem Zeitpunkt, in dem die angesammelten Photonen in einen Zwischenspeicher abgelegt werden ist die Shutterzeit.
Die Zeit, bis die Zwischenspeicher ausgelesen werden, ist die Bildfrequenz. Alles, was zwischen Speicherung und Auslesung noch im Bildsensor an Licht ankommt, wird ungenutzt beim nächsten Auslesevorgang gelöscht.
Zum zweiten teil der Frage:
Du siehst ja keine wirklich laufenden Bilder, sondern lediglich aneinander gereihte Einzelbilder.
Wenn Du also 25 Bilder/sec siehst, die aber (je Bild) mit nur 1/50 sec aufgenommen sind, hat jedes einzelne Bild weniger Bewegungsunschärfe gegenüber Bildern die mit 1/25 aufgenommen sind.
Alle Bilder werden aber gleich lange gezeigt (bei 25p sind das 40 ms/Bild).
Daher bekommst Du bei 25p(1/25) salopp gesagt, 25 verwaschene Bilder/s und bei 25p(1/50) 25 scharfe Bilder/s und bei 50p (1/50), 50 scharfe Bilder/sec.
Das bezieht sich natürlich nur auf die Bewegungsunschärfe.
Allerdings hat das auch Vorteile in der Codierung, denn ein scharfes Bild lässt sich effizienter codieren als ein unscharfes Bild.
"Hoffe, das war in der Kürze verständlich.
Antwort von Auf Achse:
Alles klar, DANKE!!
LG, Auf Achse
Antwort von Jan:
Du kannst also bei identischer Bildfrequenz keine Shutterzeiten nutzen, die länger als die Zeit pro Einzelbild ist.
Bei den meisten Kameras kann man ja auch die 1/6 Sekunde manuell einstellen, was dann ja bei 50i gar nicht funktionieren dürfte, weil das Einzelbild zu lang ist.
Das Thema hatte ich erst in einem Gespräch, daher hole ich den Thread noch mal raus.
VG
Jan
Antwort von WoWu:
Ich kann im Augenblick nicht wirklich einordnen, was Du damit meinst, aber Du denkst dran, dass bei Interface für jedes Halbbild die Belichtungszeit eines
ganzen Bildes, also bei 25 Bildern/s die vollen 40 ms (pro Halbbild) zur Verfügung stehen.
So würde ich das verstehen.
Falls ich das nicht richtig verstanden habe, erklär noch mal kurz, was Du meinst.
Antwort von Jan:
Hallo,
ich hatte das Thema eben erst, weil einer meinte, man könne bei 50i mit eben 50 Bildern pro Sekunde gar nicht jedes Einzel Bild der 50 Bilder mit 1/6 Sekunde belichten, weil man dann in keinem Fall auf die 50 Bilder pro Sekunde kommen kann. Die Verschlusszeit ist zu lang, so seine Meinung.
Bei der 1/6 Sekunde wären wir ja bei 9 Einzelbildern schon über den 50 Bildern pro Sekunde.
Nach seiner Rechnug hätten wir das Problem ja schon bei 1/12 oder 1/25 Sekunde, wenn mit 50 Bildern gearbeitet würde.
Canon DSLR Modelle lassen übrigends im Videomodus bei 1080 P 30 als längste Verschlusszeit 1/30 Sekunde zu.
Nur reinen Videokameras können auch länger belichten.
VG
Jan
Antwort von Jott:
"Der eine" hat doch völlig recht? Siehst man ja auch direkt am Ergebnis.
Antwort von WoWu:
Nee, "der eine" hat nicht Recht.
Weil die Shutter speed was ganz anderes ist als die Framerate.
Mit der Framerate bestimmt man die Anzahl der Bilder und mit der Shutter Speed das Akkumulieren von Bewegung.
Das sind zwei Paar Schuhe, die nicht unmittelbar zusammenhängen und deswegen ist Shutter-speed beim Sensor auch eigentlich was Anderes als die Umlaufblende beim Film.
Antwort von Jott:
Es geht doch nur darum, dass man bei vielen Kameras auch 1/12, 1/6, 1/3 Sekunde Shutter einstellen kann. Bei einer Frame Rate von was auch immer, 25, 24, 50, egal. Das Ergebnis sind länger stehende Einzelbilder, oder vielmehr mehrere gleiche hintereinander - mit länger Belichtungszeit - eine visuell reduzierte Frame Rate sozusagen, weil's ja nicht anders geht. Das sieht man schon im Sucher.
Oder wovon redet ihr?
Antwort von WoWu:
Das stimmt auch nicht, denn die Bilder stehen nicht länger, weil es eben nichts mit der Framerate zu tun hat.
Das wird gern verwechselt.
Und wenn Du richtig gelesen hättest, hättest Du auch bemerkt, dass es darum geht, dass lange Shutter mit kurzen Framraten nicht funktionieren.
Tun sie aber. Eben weil es miteinander nichts zu tun hat.
Tja, Videotechnik ist für "Praktiker" nicht immer einfach :-(
Antwort von Jott:
Schalt mal eine Kamera ein und probier's aus. Wird gerne genutzt, zum Beispiel für weichen Zeitraffer: überlanger Shutter, somit zum Beispiel bei Nachtaufnahmen "ziehende" Scheinwerfer der Autos, wie halt bei einer Belichtungszeit von 1/6 Sekunde. Bei 24p z.B. sind dann immer vier Videobilder identisch. Sieht man schon im Sucher und natürlich erst recht beim Durchsteppen in der Timeline. Jetzt vierfach beschleunigt abspielen: Zeitraffer, aber ohne Stottern, wegen der langen Belichtungszeit der Einzelbilder. Sehr schön, sehr organisch, immer gern genommen. Praktiker wissen so was.
Antwort von Jott:
Bei den meisten Kameras kann man ja auch die 1/6 Sekunde manuell einstellen, was dann ja bei 50i gar nicht funktionieren dürfte, weil das Einzelbild zu lang ist.
Das Thema hatte ich erst in einem Gespräch
Du sitzt doch im Elrktronikmarkt an der Quelle? Probier's doch aus, und du siehst, was passiert: Aufnehmen mit 1/6, dann Einzelbilder durchsteppen. Voilà. Da gibt es nichts zu theoretisieren.
Antwort von WoWu:
Kauf Dir mal ne richtige Kamera, die nicht trickst weil man ja nicht immer Zeitraffa macht und die Kamera kann bekanntlich nicht ahnen kann, was hinterher mit dem Bildmaterial geschehen soll.
Aber Praktiker denken das wohl.
Die Kamera generiert alle 25/50 Bilder neu, denn es interessiert sie gar nicht, was Du hinterher in der Timeline damit machen willst.
Sie kumuliert jeweils die Bilder innerhalb der eingestellten Shutterzeit, ohne ein Bild zu wiederholen.
Es ist also nicht richtig, solange sich Bewegung im Bild befindet, dass auch nur 2 Bilder identisch sind.
Mal ganz abgesehen davon, dass man Zeitraffaaufnahmen mit der Framerate und nicht mit dem Shutter macht.
Du verwechselst da immer noch was.
Es ist der Framerate nun mal schnurtsegal, wie lange Du das Shutter auflässt. Du kannst es solange, auflassen, biss der Sensor gefüllt ist und hast dann immernoch 25/50 weisse Bilder.
Aber bei (bestimmten) Praktikern bleibt die Kamera dann wohl stehen.
Antwort von dienstag_01:
Es ist also nicht richtig, solange sich Bewegung im Bild befindet, dass auch nur 2 Bilder identisch sind.
Du bist wirklich krass ahnungslos. Hätte ich nicht gedacht.
Antwort von WoWu:
Dann sag mir doch mal, warum sich die Framerate mit dem Shutter ändern sollte und wenn Du die Shutterfreqünz verkürzt, hast Du wahrscheinlich auch mehr Frames... nach Deiner Logik.
Schalt mal das Gehirn dazu und denk mal, was ein Shutter macht.
Er dreht nämlich nichts an der Framerate sondern lediglich die Rampenfrequenz des Sensors im Refresh.
Also: nicht nur pöbeln... falsifizieren. Und sagen warum es falsch ist und was der Shutter tatsächlich tut.
Aber ich seh' schon, Du bist mal wieder (nur) auf Krawall aus, weil Dein Posting einmal mehr ohne Sachinhalt ist.
Antwort von dienstag_01:
WoWu, man muss hier wirklich nicht sein Gehirn DAZUschalten, sondern einfach ne Kamera EINschalten. Reicht.
Jott hat es sehr gut beschrieben, Bilder kommen nicht dazu sondern Bilder sind gleich.
Antwort von WoWu:
Ich habe 40 Jahre Fernsehen gemacht und sicher etliche Stunden davon auch mit offenem Shutter.
Und wenn Jotts Kamera keine 25 Bilder macht, hat sie ein Speicherproblem, weil die kumulierten Bilder natürlich irgendwo abgelegt sein müssen und gerechnet werden.
Deswegen hab ich gesagt, er soll sich mal eine richtige Kamera kaufen.
Probiere doch einfach mit einer TC Uhr im Bild -(umlaufend, weil Ziffern natürlich bluten)- dann wirst Du sehen, dass alle LEDs (eins pro Bild) auch in der Timeline sind.
Aber wie gesagt ... macht das ruhig untereinander aus.
Ich steh heute nicht auf Krawall.
Antwort von Jan:
Tut mir wirklich leid, ich wollte keine Streitgespräche anfangen.
Der VLC Player zeigt ja auch bei 1/6 Sekunde Shutter trotzdem die 50i Bilder als Frequenz an.
Und trotzdem hat der Fragesteller nicht Unrecht nach der Logik (wohl scheinbar doch nicht) , da man bei 50 Bildern pro Sekunde eigentlich nicht länger für die 50 Bilder belichten (kürzer schon) kann, weil es dann ja keine 50 Bilder mehr sein können, die in einer Sekunde aufgezeichnet werden.
Ich war dann sofort auf WoWu seiner Seite, weil man eben bei Canon und Panasonic Consumer Videokameras doch 1/6 Sekunde einstellen kann und damit auch aufzeichnen kann und das mit 50 Halbbildern, was der VLC Player auch als 50i erkennt.
Zumindest hat er mich damit mal kurz irritiert.
Bei Canon DSLR Kameras kann man eben nicht einen längeren Shutter als den Kehrwert einstellen. Will heissen, bei 30 P als längste Zeit 1/30 Sekunde. Nur die Camcorder (aber auch nicht alle) haben längere Zeiten im Angebot.
Hat das vielleicht etwa mir dem Shuttertyp zu tun, in den Videokameras ist ein elektronischer Shutter, in DSLR Kameras sind mechanische Shutter verbaut ?
Irgendwo ist da ein Denkfehler...
VG
Jan
Antwort von WoWu:
Das Bild wird in der Kamera immer akkumuliert, was sich natürlich sowohl im Bewegungsablauf als auch in der Belichtung niederschlägt.
Beide Parameter müssen korrigiert werden, um ein einheitliches Ergebnis zu präsentieren, sonst würden Bilder innerhalb der (langen) Belichtungsphase immer heller und würden nach dem Redet plötzlich wieder dunkler. Gleichzeitig würden die Unschärfen in "Blöcken" springen. Das wird auch korrigiert.
Die 50 Bilder werden also, je nach Einstellung, nur rd. 10 mal reseted.
Daher entsteht das Blur.
Ich weiss also nach dem vielen hin und her eigentlich gar nicht, was der "Bekannte" denn nun eigentlich sagen will.
Dass man 50 Bilder mit 1/6 Shutter nicht aufnehmen kann ?
Dann liegt er falsch. Das geht.
Bei dem Shutter ist es übrigens egal, ob es mechanisch oder per Rampe geht. An der Bildfrequenz ändert sich nichts.
Wie gesagt, das sind zwei völlig unabhängige Dinge, nur die Kamera muss den Speicher haben, um die Bildakkumulation vornehmen zu können- und natürlich das Stück Software.
Antwort von Jott:
"Und wenn Jotts Kamera keine 25 Bilder macht, hat sie ein Speicherproblem, weil die kumulierten Bilder natürlich irgendwo abgelegt sein müssen und gerechnet werden.
Deswegen hab ich gesagt, er soll sich mal eine richtige Kamera kaufen."
Das macht nicht "Jotts Kamera" so, sondern JEDE Videokamera, die Slow Shutter (also über 360 Grad sozusagen, in Filmspeak) im Menü anbietet. Also Hunderte. Wie schon geschrieben: einfach einschalten und gucken. Live oder aufgezeichnet, egal. Besser gleich 1/3 Sekunde, damit es auch jeder sofort sieht, die Kamera bewegen: visuell drei Bilder pro Sekunde. Ein durchaus bekanntes Stilmittel.
Ich habe gerade in die Specs von wowus geliebter HPX300 geschaut: auch die bietet Slow Shutter, zum Beispiel 1/6 Sekunde bei 24p oder 1/12 bei 60i. Was dabei aufgenommen wird, kann er also jederzeit selber ausprobieren.
Hier kann man's mal anschauen, wenn man von praktischem Ausprobieren nichts hält (2:30 bis 3:15):
Steppt man Frame für Frame durch die Clips, sieht man klipp und klar, dass immer mehrere identische Frames aufeinander folgen, wie beschrieben. Auch die oben genannte, eigentlich jedem Kameramann bekannte Anwendung (weicher Zeitraffer) wird demonstriert. Und nein, das ist nicht Sony-spezifisch.
Antwort von vobe49:
Hallo wowu,
ich habe noch immer ein Verständnisproblem. Wenn die Kamera mit 1/6 sec belichtet, brauch sie pro Frame 0,166 Sekunden. Sie müsste dieses Frame also zwischenspeichern und dann das gespeicherte Frame im Nachhinein 50 mal in den Stream einfügen. Bei längeren Aufnahmezeiten würden m. e. da aber so viele Frames zwischengespeichert werden müssen, dass jeder interne Speicher an seine Grenzen kommt. Ich könnte mir nur vorstellen, dass die Software die aufgenommenen Frames jeweils kontrolliert und nur die besten/unverwackelsten jeweils 50 mal in den Stream einfügt.
Verstehe ich das so richtig ?
Gruß vobe49
Antwort von Jott:
Nein. Guck einfach das Video an. Kein Zwischenspeicher-Voodoo, völlig normale Funktion, die es auch schon im letzten Jahrhundert gab. Der Sony-Mann tut nur so, als wäre das was Neues. Du konntest schon immer stundenlang so aufnehmen, wenn du willst. Wirklich noch nie gesehen?
Antwort von vobe49:
Hallo Jott,
mal angenommen, ich nehme in 50p auf mit einer Shutterzeit von 1/6 Sekunde, dann wäre es rein physikalisch doch so, dass der Sensor, ehe er wieder gelöscht wird, 0,1666 sec. lang belichtet wird. In dieser Zeit würde er 8,3 mal ausgelesen und jedes Frame im Stream abgespeichert, um auf die 50 Frame/sec zu kommen.
Das allerdings würde zwangsweise bedeuten, dass das 1. dieser 8 Frames noch unterbelichtet und erst das letzte richtig belichtet ist. Wenn das so stimmt, müsste die Kamerasoftware diese stufenweise Belichtung jeweils korrigieren, denn wenn ich mir im Schnittprogramm jedes Frame einzeln anschauer, kann ich keine Belichtungsunterschiede erkennen.
Nach meinem Verständnis müsste die Kamerasoftware, wenn das 8. Frame ausgelesen worden ist, auf dessen Basis die anderen 7 Frames nachkorrigieren. Wenn ich mal von der Fotografie ausgehe, würde das natürlich auch die Farbfehler und andere Mängel erklären, die bei einer solchen Langzeitbelichtung sichtbar sind (vielleicht wurde das ja weiter höher mit Fachausdrücken so gesagt und ich hab's nur nicht verstanden - aber mich interessiert das einfach).
Gruß vobe49
Antwort von Jott:
Was beim Auslesen genau passiert, muss dir schon der wowu erklären.
Jedenfalls entsteht bei z.B. 1/6 Sekunde Shutter ein Bild, das 1/6 Sekunde langt belichtet ist. Das wird genau diese 1/6 Sekunde lang auch auf die Karte - früher Band - geschrieben - erst dann kommt das nächste dran. Natürlich passen dann nur 6 Bilder in eine Filmsekunde, weshalb sich ein lang belichtetes Bild über mehrere Frames erstreckt. Das ist jedenfalls das sichtbare Resultat, und das interessiert den Filmschaffenden. Siehe Video. Ich weiß nicht, was daran schwer zu verstehen ist.
Schon die ersten DV-Kameras vor nunmehr bald 20 Jahren konnten das, und damals waren irgend welche Realtime-Bildanalysetricks in Kameras noch völlig undenkbar. Muss also technisch ein ganz simpler Vorgang sein.
"denn wenn ich mir im Schnittprogramm jedes Frame einzeln anschauer, kann ich keine Belichtungsunterschiede erkennen."
Natürlich nicht, ist ja für ein paar Frames immer das gleiche Bild.
Antwort von vobe49:
Hallo Jott,
wenn das tatsächlich so ist, dann ist natürlich auch der Vorteil einer 50p-Aufnahme gegenüber einer 25p in Sachen flüssigere Bewegungsabläufe hin. Der besteht bei 50p dann nur bei Shutterzeiten von =<1/50 sec.
Gruß vobe49
Antwort von Jott:
Kannst du doch machen: 50p mit 1/50 Shutter.
Antwort von Alf_300:
Braucht so eine CAM CAM länger als 20ms um ein Bild zu schreiben, ?
Antwort von Jott:
Ich stell's mir so vor: die Kamera macht quasi ein Foto mit 1/6 Sekunde Belichtungszeit (wenn wir mal bei dem Beispiel 1/6 bleiben). Das bleibt in einem kleinen Zwischenspeicher und wird so lange wiederholt auf die Karte geschrieben, bis das nächste "Foto" mit 1/6 Sekunde Belichtungszeit "geschossen" ist. Und so weiter. Ganz unabhängig davon, mit welcher Framerate die Kamera aufzeichnet.
Schaut man sich das live im Sucher/auf dem Display an, meint man auch, die dadurch entstehende Verzögerung zu bemerken, Noch deutlicher bei 1/3 Sekunde, was bei vielen Kameras/Camcordern die längste Shuttereinstellung ist.
Antwort von carstenkurz:
Genau, das ist einfach eine Entkopplung von Buffer und Auslesetiming. Das konnte meine alte HI8 schon für LowLight.
Bei SLRs könnte man ggfs. mit beweglichen Motiven mal testen, ob da wirklich länger belichtet wird, oder mehrere Bilder verschmolzen werden. Vermutlich gibts beide Ansätze, wobei ich letzteres eher von reinen Videokameras vermute.
- Carsten
Antwort von Jott:
Verschmolzende Bilder würden anders aussehen als eine lange Belichtung. Es gibt ja auch nicht den geringsten Grund dafür, dass eine Kamera zum Beispiel ziehende Autoscheinwerfer bei Night Shots erst kompliziert errechnen sollte. Geht ja einfach so.
Antwort von VideoUndFotoFan:
Bei SLRs könnte man ggf. mit beweglichen Motiven mal testen, ob da wirklich länger belichtet wird, oder mehrere Bilder verschmolzen werden.
Bei meiner GH3 und meiner GX7 beispielsweise wird bei einer Einstelllung von 1/25s tatsächlich mit 1/25s belichtet (was anderes macht eigentlich auch keinen Sinn, weil ja nur so beim ISO-Wert eine Stufe weniger notwendig ist).
Im 1080p50-Stream finden sich dann immer zwei identische Bilder hintereinander - das eine, das 1/25s lang belichtet wurde, und ein zweites gedoppeltes, damit es ein 50p-Stream ist.
Natürlich sind bei den 1/25s auch die Bewegungen mehr verwischt.
Und der 50p-Stream ist eigentlich nur noch 25p-Stream - mit dementsprechenden Bewegungsruckeln.
Sinn machen die 1/25s daher nur, wenn man unbedingt eine ISO-Sufe weniger haben möchte (um noch stärkeres Rauschen (oder noch schlimmeren Matsch durch die Rauschunterdrückung) zu vermeiden).
Antwort von WoWu:
[quote="carstenkurz"Vermutlich gibts beide Ansätze, wobei ich letzteres eher von reinen Videokameras vermute.
Moin Carsten,
Das ist nix anderes als das, was bei HDR auch gemacht wird, nur dass die Kombinationsalgorithmen anders sind und dass sehr viel mehr Zeit zur Verfügung steht denn bei HDR werden 2-3 Bilder
zusätzlich innerhalb von 20/40 ms berechnet und hier lediglich innerhalb der Gesamtbelichtung lediglich das eine Standardframe alle 20/40 ms, also
kein einziges zusätzliches Bild, nur dass der Speicher grösser sein muss und andere Algorithmen für die Kombination angewandt werden.
Also ... kein Voodoo-Zeug, für das Jott es hält, sondern ganz normale Technik, die sogar von den Rechnern besser beherrschbar ist, -weil langsamer- als HDR.
Aber vielleicht eben nix für Semi-Kameras. Das mag sein. Nur warum sollte das nicht in DSLR sein"
Auch die machen HDR. (einige).
Aber das ändert eben nichts an der grundsätzlichen Aussage, dass sich 1/6 und 24 Frames durchaus vertragen ... auch ohne Doppel- und Mehrfachbilder.
Antwort von Jan:
Im 1080p50-Stream finden sich dann immer zwei identische Bilder hintereinander - das eine, das 1/25s lang belichtet wurde, und ein zweites gedoppeltes, damit es ein 50p-Stream ist.
Natürlich sind bei den 1/25s auch die Bewegungen mehr verwischt.
Und der 50p-Stream ist eigentlich nur noch 25p-Stream - mit dementsprechenden Bewegungsruckeln.
Genau in diese Richtung habe ich dann auch gedacht.
Oder die Firmen definieren die 1/6 nicht wirklich als 1/6 Sekunde.
VG
Jan
Antwort von Tiefflieger:
Die Panasonic X900M brechnet Zwischenbilder bei 50p und 1/25s Verschlusszeit, aber das ist Geschmacksache (für mich macht sie es gut).
(Generell mit 1/25s gibt es kein Bewegungsruckeln eher ein Verschmieren).
Antwort von WoWu:
Jeder halbwegs moderne Fernseher macht das heutzutage, warum sollte also eine Kamera das nicht machen, die halbwegs auf dem Stand der Technik ist. Und HDR ist ja nun wirklich kein Teufelkram mehr.
Antwort von dienstag_01:
Die Panasonic X900M brechnet Zwischenbilder bei 50p und 1/25s Verschlusszeit, aber das ist Geschmacksache (für mich macht sie es gut).
(Generell mit 1/25s gibt es kein Bewegungsruckeln eher ein Verschmieren).
Es werden natürlich keine Zwischenbilder berechnet (was soll denn da berechnet werden), sondern 25 Bilder auf 50 verteilt. Also sind zwei nachfolgende jeweils identisch.
Das muss man doch sehen.
Antwort von Tiefflieger:
Die Panasonic X900M brechnet Zwischenbilder bei 50p und 1/25s Verschlusszeit, aber das ist Geschmacksache (für mich macht sie es gut).
(Generell mit 1/25s gibt es kein Bewegungsruckeln eher ein Verschmieren).
Es werden natürlich keine Zwischenbilder berechnet (was soll denn da berechnet werden), sondern 25 Bilder auf 50 verteilt. Also sind zwei nachfolgende jeweils identisch.
Das muss man doch sehen.
Wie gesagt die Panasonic X900M berechnet Zwischenbilder für flüssige 50p Darstellung.
1/25s Verschlusszeit, Blende f1.5, +15dB Gain und 30mm Brennweite
3 folge Frames (am besten in 3 Browser Tabs öffnen und schnell umschalten)
zum Bild http://img5.fotos-hochladen.net/thumbnail/x900mf1515db2ahedvlt9f_thumb.jpg /
/
(click)
Gruss Tiefflieger
Antwort von dienstag_01:
Ok, ist möglich, aber nicht typisch.
Und was das soll, verstehe ich auch nicht. Weil, entweder Langzeitbelichtung oder nicht. Aber egal.
Antwort von WoWu:
Die Zeit ist vorbei, dass Kameras funktionierten, wie zu DV-Zeiten.
Das sollte man eigentlich heute, 20 Jahre danach, schon mal mitbekommen haben.
Antwort von Tiefflieger:
Ok, ist möglich, aber nicht typisch.
Und was das soll, verstehe ich auch nicht. Weil, entweder Langzeitbelichtung oder nicht. Aber egal.
Naja so ganz trivial ist die Zwischenbildberechnung nicht.
Man muss sich nur die Schuppen und Schwebepartikel anschauen.
Da geht es nicht nur um 2 Folge-Bilder die zu einem 3. Zwischenbild interpoliert werden.
Da werden vielleicht mehrere Folgebilder "Objektorientiert" mit Bewegungsvektoren analysiert und das Zwischenbild zusammengesetzt (meine Vermutung).
Antwort von dienstag_01:
Die Zeit ist vorbei, dass Kameras funktionierten, wie zu DV-Zeiten.
Das sollte man eigentlich heute, 20 Jahre danach, schon mal mitbekommen haben.
Heut biste wohl auf Krawall aus?!
Absurd.
In Ermangelung größerer Lust, eigenes Material rauszusuchen:
Antwort von WoWu:
Ich hab ja nicht gesagt, dass das alle Kameras können.
Nur wer sich heute mal mit Kameratechnik einwenig auseinandersetzt, der sollte den Wissensstand von 1996 eigentlich verlassen haben.
Antwort von dienstag_01:
Da hast du völlig recht. Aber wie kommst du auf 1996?
Antwort von WoWu:
DV Start.
Aber Du musst zugeben, das verlinkte Video auf der Wissensbasis des "Liam Darling" und seiner kamera- ist nicht gerade die beste Referenz für die Performanz von modernen Videogeräten.
Das scheint mir aber das Problem zu sein. Die Referenz.
Statt technisch zu schaun, was es gibt, werden solche Videos (bitte anschauen) als Referenz herangezogen. - Und irgendwelche Blogs-
Übrigens 'ne interessante Kamera, die Liam Darling da hat, wo die Scheinwerfer den Autos um Längen vorauseilen.
Antwort von dienstag_01:
WoWu, du kannst uns doch erklären, was genau bei Shuttergeschwindigkeiten länger als die Framedauer genau passiert. Würde einige interessieren. Sich hinzustellen und zu sagen, das Bild ist aber blöd - nagut, ich interpretiere das jetzt mal als eine Art Rantasten an den Gegenstand der Diskussion ;)
Mit Sony EX kann man übrigens auch mit Slow Shutter drehen.
Antwort von Anne Nerven:
WoWu, du kannst uns doch erklären, was genau bei Shuttergeschwindigkeiten länger als die Framedauer genau passiert....Ich bin zwar nicht wowu aber das hat er anfangs schon geschrieben: Das Bild wird eben nur solange belichtet, wie es die Framerate auf dem Sensor läßt. Bei 50P max 1/50 Sek. Bei 100P max 1/100 Sek. Ganz gleich, wie lang ich belichten möchte.
Ich glaube es stellt sich einfach die Frage nach der Hierarchie: bestimmt der Shutter die Framerate oder die Framerate den Shutter.
Antwort von dienstag_01:
Ich bin zwar nicht wowu aber das hat er anfangs schon geschrieben: Das Bild wird eben nur solange belichtet, wie es die Framerate auf dem Sensor läßt. Bei 50P max 1/50 Sek. Bei 100P max 1/100 Sek. Ganz gleich, wie lang ich belichten möchte.
Ok, aber dann gäbe es keine identischen Bilder bei Slow Shutter. Also kann es nicht so sein.
Ich glaube es stellt sich einfach die Frage nach der Hierarchie: bestimmt der Shutter die Framerate oder die Framerate den Shutter.
Die Framerate bleibt ja trotzdem prinzipiell bestehen. Aber klar, Slow Shutter bedeutet eine geringere Bewegungsauflösung als die Framerate.
Antwort von WoWu:
Es gibt eine ansteigende Belichtungsrampe, die der Shutter Einstellung entspricht, danach ein Reset.
Darunter läuft die Framerate, die entsprechend viele Zwischenbilder ablegt, deren Differenzwerte gemischt werden und deren Luma-Werte akkumuliert und auf einem Niveau gehalten, um ein Luma-Pumpen zu vermeiden.
So ist es auch nicht mehr unbedingt erforderlich, dass Shutter und Framerate korrespondieren, weil auch Teilsequenzen integriert werden können.
Ergebnis ist der Blur-Effekt, den wir schon kennen, aber regelmässige Kantendarstellung, also eine Echtzeitverarbeitung, ohne solchen Firlefanz, in dem man Bilder rausnehmen und Geschwindigkeiten verändern muss.
Das war das Prinzip, das sich bis auf die andere Mappinggeschichte von HDR nicht wesentlich unterscheidet, bis auf den Umstand, dass man mit hohen Lichtwerten (an der FW Grenze) noch anders umgeht, als im HDR.
Slow shutter lässt das Bild lediglich "volllaufen" und kopiert es dann.
Das ist Fotografie in Video übertragen, ohne dass man solche Werkzeuge nutzt, die heutzutage längst Bestandteil von Kameras sind. Deswegen ruckt das auch noch wie in den 50er Jahren. Und mit Time-Laps wird das nur zugeschmiert.
So, und nun bin ich auch raus.
Thema ist durch, für mich.
Antwort von dienstag_01:
Es gibt eine ansteigende Belichtungsrampe, die der Shutter Einstellung entspricht, danach ein Reset.
Darunter läuft die Framerate, die entsprechend viele Zwischenbilder ablegt, deren Differenzwerte gemischt werden und deren Luma-Werte akkumuliert und auf einem Niveau gehalten, um ein Luma-Pumpen zu vermeiden.
So ist es auch nicht mehr unbedingt erforderlich, dass Shutter und Framerate korrespondieren, weil auch Teilsequenzen integriert werden können.
Ergebnis ist der Blur-Effekt, den wir schon kennen, aber regelmässige Kantendarstellung, also eine Echtzeitverarbeitung, ohne solchen Firlefanz, in dem man Bilder rausnehmen und Geschwindigkeiten verändern muss.
Das war das Prinzip, das sich bis auf die andere Mappinggeschichte von HDR nicht wesentlich unterscheidet, bis auf den Umstand, dass man mit hohen Lichtwerten (an der FW Grenze) noch anders umgeht, als im HDR.
Slow shutter lässt das Bild lediglich "volllaufen" und kopiert es dann.
Das ist Fotografie in Video übertragen, ohne dass man solche Werkzeuge nutzt, die heutzutage längst Bestandteil von Kameras sind. Deswegen ruckt das auch noch wie in den 50er Jahren. Und mit Time-Laps wird das nur zugeschmiert.
So, und nun bin ich auch raus.
Thema ist durch, für mich.
Aha ;)
Antwort von Tiefflieger:
Ich stelle es mir so vor.
1/6s belichten heisst 6 Vollbilder pro Sekunde die auf 50 Bilder verteilt werden.
Ein Sensor wird nicht nur belichtet sondern auch ausgelesen und zurückgesetzt. Das dauert seine Zeit, so stimmt das Timing auch bei einer 1/50s nicht.
Nun bei 1/6s müssten einfach 2 Bilder zusätlich verlängert werden heisst also die Sequenz für 50p.
6 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
7 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
7 Frames 1/6s
Bei HDR gibt es Doppelkonturen bei Bewegung und langer Belichtung, somit zusätzliche "statische" Artefakte
Gruss Tiefflieger
Antwort von Jott:
Sehr schöner Gaga-Thread!
Antwort von domain:
Nun bei 1/6s
müssten einfach 2 Bilder zusätlich verlängert werden heisst also die Sequenz für 50p.
6 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
7 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
7 Frames 1/6s
Das stimmt so nicht. Selbstverständlich werden konstant immer genau 6 Frames mit demselben Bildinhalt hintereinander aufgezeichnet.
Das wären also 9*6=54 Frames, wobei die letzten 4 bereits in die nächste Sekunde hineinreichen.
Wäre mir allerdings nicht so sicher, dass es immer 6 Frames sein müssen. Bei meinen 1/6 sec. 50i-Aufzeichnungen und im NLE bleibt das Bild nur jeweils für 4 Frames stehen, mysteriös.
Antwort von vobe49:
Das Bild wird eben nur solange belichtet, wie es die Framerate auf dem Sensor läßt. Bei 50P max 1/50 Sek. Bei 100P max 1/100 Sek. Ganz gleich, wie lang ich belichten möchte.
Ich glaube es stellt sich einfach die Frage nach der Hierarchie: bestimmt der Shutter die Framerate oder die Framerate den Shutter.
...das würde dann aber die Auffassung unterstützen, dass längere Shutterzeiten völlig wirkungslos wären - - - sind sie aber nicht, was zu sehen ist, wenn man unter Lowlight mit 1/6 belichtet. Wenn da Zwischenbilder berechnet würden, würde sich im internen Speicher rein logisch bei etwas längeren Aufnahmen eine gewaltige Datenmenge anhäufen. Rein logisch gesehen kann es daher nur so sein, dass das gleiche mit 1/6 sec belichtete Bild in Beispiel 1/6 sec und 50p 8 mal hintereinander in den Stream eingefügt wird.
Ich habe mal eine Tanzvorführung mit 1/12 sec. aufgezeichnet. Schon da bekommt man stark verwischte Aufnahmen, was in diesem Falle aber ein tolles gestalterisches Element war. Das unterstützt die obige Aussage m. E..
vobe49
Antwort von Jott:
"was zu sehen ist, wenn man unter Lowlight mit 1/6 belichtet"
Nicht nur bei Lowlight, auch bei schönstem Sonnenschein (dazu braucht's natürlich heftige ND-Filterung). Wieso tun einige so, als seien SlowShutter-Aufnahmen ein unbekanntes Stilmittel? Oder sogar, als gäbe es das gar nicht? So was kann doch nur jemand behaupten, der seine Kamera nicht kennt oder gar keine hat.
Antwort von VideoUndFotoFan:
Sorry, aber bei den Cams, die Einzelbilder einfach vervielfältigen, wie beispielsweise einfach eine Bilddoppelung bei 1/25s in einem 50p-Stream, ist das sicher kein Stilmittel.
Außer man man will unbedingt einen Ruckel-Stil.
Antwort von Jott:
Davon habe ich nicht gesprochen, macht ja auch keinen Sinn. Dafür gibt's 25p.
Das Stilmittel sind Einzelbilder mit (zu) langer Belichtungszeit (1/12, 1/6, 1/3 Sekunde), also verwischt, die sich dann logischerweise über mehrere Videoframes erstrecken müssen. Das oben verlinkte Video erklärt und zeigt doch alles. Und wer nicht versteht, wie man auf dieser Basis auch schöne, weiche Zeitraffer machen kann (ebenfalls im Video erklärt und gezeigt), dem entgeht halt was.
Antwort von vobe49:
Eigentlich hasse ich einen solchen Besserwisser-Vorwurf-Diskussionsstiel - der ist völlig unangebracht, wenn man sich über eine bestimmte Sachse Klarheit verschaffen will. Wenn jemand an der Diskussion teilnehmen würde, der genau weis, was technisch bei einer 50p-Aufnahme mit Shutter 1/6 passiert, hätte er das klar aufgeschrieben.
Aber man meinen letzten Beitrag richtig gelesen hätte würde man unschwer erkennen, dass es einzig und allein darum ging, dass lange Shutterzeiten auch bei 50p die Belichtung beeinflusst, obwohl die Dauer der Sensorbelichtung mit 0,17 Sekunden je Frame deutlich länger ist als die Zeit von 0,02 Sekunden, mit der der Sensor bei 50p pro Frame eigentlich belichtet werden könnte. Das ist reine Physik und Logik.
Wir sprachen also in keinster Weise über lange Shutterzeiten als Stilmittel. Bei Shutter 1/6 wird die Aufnahme zwar richtig belichtet, sie ist aber auch bei 50p alles andere als flüssig. Dass bedeutet sicherlich aber auch, dass bei 50p und Shutter 1/6 Sekunde jedes belichtete Frame 8 mal hintereinander in den Stream eingepflegt wird. Genau deshalb verwischen ja dann die Konturen so stark.
vobe49
Antwort von WoWu:
Das ist nicht weit genug gedacht denn die Shutter Rampe wirkt nur auf den Reset Transistor des Sensors. Das ist völlig losgelöst von der Framerate. Shutter bestimmt also nur die Integration der Pixel, also das Akkumulieren von Photonen.
Ein interlace arbeitender Sensor integriert beide Halbbilder auch
je 40 ms, weil während der Auslesefhase bereits wieder integriert wird.
Das verdeutlicht, dass die beiden Mechanismen unabhängig voneinander betrachtet werden müssen und nur mittelbar etwas miteinander zu tun haben.
Man darf sich bei den langen Belichtungsraten also nur die Funktion der Rampe des Shutters betrachten und was über die Gesamtstrecke 1/6 o.Ä. mit dem Pegel passiert.
Wenn Du also einmal HDR Funktionen in Kameras genauer untersuchst, findest Du auch, wie es funktioniert.
Das wäre mir jetzt hier einwenig zu lang zu erklären.
Du musst die Funktion dann nur von kurzen HDR Zeiten, auf lange Integrationen übertragen. Aber die Mechanismen sind dieselben.
Deswegen wäre ich mir auch nicht so sicher, dass das 2.Bild bei Tieffliegers 25p Aufnahme, einer Interpolation entspringt ... Die Wahrscheinlichkeit ist sogar sehr gering. Vielmehr denke ich, dass da dieselben Mechanismen greifen, wie oben beschrieben.
Nur muss man sich eben im Karen darüber sein, dass das mit dem, was Sony da beschreibt nichts zu tun hat. So wurde das in den 90er Jahren gemacht, weil man noch nicht die Rechenkapazität in den Kameras zur Verfügung hatte.
Und dann ruckelt das natürlich an allen Ecken und Kanten.
Antwort von dienstag_01:
Wenn jemand an der Diskussion teilnehmen würde, der genau weis, was technisch bei einer 50p-Aufnahme mit Shutter 1/6 passiert, hätte er das klar aufgeschrieben.
Das steht doch nun wirklich schon mehrmals hier im Thread: Wenn die Belichtungszeit länger ist, als die Dauer eines einzelnen Frames, werden soviele Frames, wie für die Belichtungszeit *benötigt* werden, zu einem Frame *zusammengefasst*. Wie eine Langzeitbelichtung. Daher: es gibt einen Einfluß auf die Belichtung, es gibt einen Einfluß auf die Bewegungsunschärfe. Und es gibt einen Einfluß auf die Bewegungsauflösung, es ruckelt (mal mehr, mal weniger).
Antwort von WoWu:
Früher war das so.
Heute werden sie zu mehreren Frames zusammengefasst.
Antwort von dienstag_01:
Früher war das so.
Heute werden sie zu mehreren Frames zusammengefasst.
Ja. Aber eben identischen.
Antwort von Tiefflieger:
Ich habe mit der X900M mit
50p und
1/5s Belichtungszeit einen Testshoot gemacht.
Dabei habe ich
3 identische Frames und dann einen Bildwechsel mit ebenfalls 3 identischen Bildern (sporadisch ~4te Sequenz hat 4 Frames mit identischem Bild).
(Ich habe extra die LEDs der WiFi Basistation im Bild drinn und keine Schlierenbildung oder Luma Flakern.
Falls gewünscht kann ich die Standbilder hier reinstellen)
Gruss Tiefflieger
Antwort von Jott:
Das steht doch nun wirklich schon mehrmals hier im Thread: Wenn die Belichtungszeit länger ist, als die Dauer eines einzelnen Frames, werden soviele Frames, wie für die Belichtungszeit *benötigt* werden, zu einem Frame *zusammengefasst*. Wie eine Langzeitbelichtung. Daher: es gibt einen Einfluß auf die Belichtung, es gibt einen Einfluß auf die Bewegungsunschärfe. Und es gibt einen Einfluß auf die Bewegungsauflösung, es ruckelt (mal mehr, mal weniger).
Wenigstens einer, der mal eine Kamera bedient hat und daher weiß, was visuell passiert. Und auch der Tiefflieger ist den Fakten auf der Spur!
Antwort von WoWu:
Früher war das so.
Heute werden sie zu mehreren Frames zusammengefasst.
Ja. Aber eben identischen.
Nein. Siehe oben.
Antwort von Tiefflieger:
Bei der X900M werden bei 50p,
1/25s ein Zwischenbild generiert
1/5s die Frames in 3er und sporadisch 4er Gruppen zusammengefasst. Rechnerisch ca. 2 zusätzliche Zwischenbilder erzeugt, quasi die Framezahl verdreifacht.
Gruss Tiefflieger
Antwort von dienstag_01:
1/5s die Frames in 3er und sporadisch 4er Gruppen zusammengefasst. Trotzdem werden rechnerisch ca. 2 zusätzliche Zwischenbilder erzeugt, quasi die Framezahl verdreifacht.
Wer weiss, was deine Kamera da macht. Vielleicht experimentiert Panasonic da ein wenig. Leider ist diese Funktion nicht weiter dokumentiert. Aber sicher ein Novum ;)
Antwort von Tiefflieger:
Wie WoWu schreibt könnte bei der X900M für die Zwischenbilder eine HDR Funktion greifen, d.h. Zwischenwerte der Sensorauslese-Rampe ausgewertet werden.
Da aber die X900M drei theoretisch unabhängige RGB Sensoren hat, könnte auch hier "getrickst" werden.
Antwort von dienstag_01:
Klar, könnte. Aber was bringt es, zwischenbilder zu berechnen, aber dann auch nicht mit voller Bewegungsauflösung. Ist irgendwie unlogisch.
Antwort von Tiefflieger:
Zwischenbilder verbesern die Bewegungsdarstellung und da Punktlichtquellen tendeziell nicht und das Bild insgesamt weniger schnell verschmiert, ergibt sich ein besserer Bildeindruck.
Zur vollen Framezahl bei 1/5s Verschlusszeit reicht vermutlich die netto Bildinformation nicht (Lumainformation). (Bei 1/25s reicht es für 50 volle Frames pro Sekunde)
Zwischenbilder können ähnlich zum Deinterlacing rekonstruiert, oder als HDR Zwischenwert ausgelesen oder durch Bewegungsanalyse komplett synthetisch interpoliert werden.
Da gibt es unendliche Möglichkeiten.
Es geht um realtime Darstellung, Timelapse mit "langer" Belichtung z.B. eines Sternenhimmels wird in verkürztem zeitlichen Ablauf dargestellt und wirkt dadurch flüssig.
Antwort von Jan:
Hallo,
wenn ich das gerade richtig mitbekommen habe (das Programm das richtig angezeigt hat) gibt es bei 50i Einstellung mit 1/5 Sekunde Shutter mit meiner RX 100 gleich 10 Einzel Frames für 1 Sekunde Film. Also die 1/5 Sekunde wird wirklich belichtet aber statt 50 Einzelbilder sind es dann die logischen 10 Einzelframes.
Wie dann ein Player trotzdem von 50i spricht, naja....
VG
Jan
Antwort von dienstag_01:
Wie dann ein Player trotzdem von 50i spricht, naja....
Bei stehenden Titeln heisst es ja auch 50p. Das ist das Format.
Antwort von WoWu:
Das ist doch jetzt wieder Haarspalterei. Das sind doch dieselben Mechanismen.
Antwort von dienstag_01:
Bei der X900M werden bei 50p,
1/25s ein Zwischenbild generiert
1/5s die Frames in 3er und sporadisch 4er Gruppen zusammengefasst. Rechnerisch ca. 2 zusätzliche Zwischenbilder erzeugt, quasi die Framezahl verdreifacht.
Ich hab mal ins Handbuch der Cam geschaut, da steht, es gehen maximal 1/25. Und das auch nur, wenn ein bestimmter Modus (Aut. Langzeit-Bel) gewäht wurde. Nichts mit 1/5.
Antwort von Tiefflieger:
Bei der X900M werden bei 50p,
1/25s ein Zwischenbild generiert
1/5s die Frames in 3er und sporadisch 4er Gruppen zusammengefasst. Rechnerisch ca. 2 zusätzliche Zwischenbilder erzeugt, quasi die Framezahl verdreifacht.
Ich hab mal ins Handbuch der Cam geschaut, da steht, es gehen maximal 1/25. Und das auch nur, wenn ein bestimmter Modus (Aut. Langzeit-Bel) gewäht wurde. Nichts mit 1/5.
Die Einstellung heisst "Farbnachtsicht" im manuell Mode.
Die Kamera- und Belichtungsdaten (~EXIF) zu Frames kann ich aus dem AVCHD Datenstrom lesen.
Manuell kann jede Verschlusszeit und Blende/Gain Kombination eingestellt werden.
Die Verschlusszeit ist maximal 1/25s
Antwort von dienstag_01:
Die Einstellung heisst "Farbnachtsicht" im manuell Mode.
Das meinte ich schon weiter oben, dass hier irgendein spezieller Modus vorliegt, der nicht zum Beispiel für Slow Shutter taugt.
Antwort von Tiefflieger:
Die eigentliche Frage lautet, warum will ich Langzeitbelichtung?
Wenn ich bei einem Fotoapparat 1/5s belichte und die Fotos aneinaderreihe habe ich Timelapse (Zeitraffer).
Bei Darstellung in Echtzeit ggf. eine Dia-Show mit Ruckeln.
(Weder die Kamera noch der Bildinhalt darf grosse Bildunterschiede für weiche Bewegung zeigen)
Eine Videokamera darf oder muss zur "Echtzeitaufnahme" mit offenem "Verschluss" arbeiten bis die gemessene und spezifizierte Lichtmenge erreicht ist.
Die Helligkeit im Bild darf nicht Stufenweise von Frame zu Frame zunehmen, sondern gleichmässig zum "Normal" angepasst sein.
Das geht nur, wenn helle Bildteile verkürzt ausgelesen und max. t (Time) belichtete gemischt werden (HDR). Oder man hat ein verwischtes Bild mit massiv überbelichteter Streifenbildung (Lichtbänder wie auch immer).
Wenn im Muster die Auto-Scheinwerfer unnatürlich vorauseilend aussehen, dann passen zeitlich die Langzeitframes und Kurzzeitauslesung nicht zusammen.
Und das Zwischenbilder generiert werden, egal ob bei 1/25s oder 1/5s Belichtungszeit, zeigt wie leistungsfähig die Bildverarbeitung in der Kamera geworden ist.
Mit RAW, Global Shutter/HDR und kontinuierlicher sagen wir 240 fps Sensorauslesung mit 1/5s Belichtungszeit könnte man am Computer das Bild perfektionieren, weil ein Mensch entscheidet was im Bild gezeigt werden soll.
Ausser man hat Freude an Geisterbilder.
Gruss Tiefflieger
Antwort von WoWu:
Das meinte ich schon weiter oben, dass hier irgendein spezieller Modus vorliegt, der nicht zum Beispiel für Slow Shutter taugt.
Von Slow Shutter war in der Originalfrage nie die Rede.
Da ging es nur darum, wie 1/5 Shutter mit 50p/i Bildern zusammenpasst.
Die Antwort drauf ist gegeben ... es passt.
Dass Sony es unter der Bezeichnung "Slow Shutter" nicht kann ist wieder ein ganz anderes Thema.