VideoUndFotoFan hat geschrieben:
Im 1080p50-Stream finden sich dann immer zwei identische Bilder hintereinander - das eine, das 1/25s lang belichtet wurde, und ein zweites gedoppeltes, damit es ein 50p-Stream ist.
Natürlich sind bei den 1/25s auch die Bewegungen mehr verwischt.
Und der 50p-Stream ist eigentlich nur noch 25p-Stream - mit dementsprechenden Bewegungsruckeln.
Genau in diese Richtung habe ich dann auch gedacht.
Oder die Firmen definieren die 1/6 nicht wirklich als 1/6 Sekunde.
Die Panasonic X900M brechnet Zwischenbilder bei 50p und 1/25s Verschlusszeit, aber das ist Geschmacksache (für mich macht sie es gut).
(Generell mit 1/25s gibt es kein Bewegungsruckeln eher ein Verschmieren).
Jeder halbwegs moderne Fernseher macht das heutzutage, warum sollte also eine Kamera das nicht machen, die halbwegs auf dem Stand der Technik ist. Und HDR ist ja nun wirklich kein Teufelkram mehr.
Tiefflieger hat geschrieben:Die Panasonic X900M brechnet Zwischenbilder bei 50p und 1/25s Verschlusszeit, aber das ist Geschmacksache (für mich macht sie es gut).
(Generell mit 1/25s gibt es kein Bewegungsruckeln eher ein Verschmieren).
Es werden natürlich keine Zwischenbilder berechnet (was soll denn da berechnet werden), sondern 25 Bilder auf 50 verteilt. Also sind zwei nachfolgende jeweils identisch.
Das muss man doch sehen.
Tiefflieger hat geschrieben:Die Panasonic X900M brechnet Zwischenbilder bei 50p und 1/25s Verschlusszeit, aber das ist Geschmacksache (für mich macht sie es gut).
(Generell mit 1/25s gibt es kein Bewegungsruckeln eher ein Verschmieren).
Es werden natürlich keine Zwischenbilder berechnet (was soll denn da berechnet werden), sondern 25 Bilder auf 50 verteilt. Also sind zwei nachfolgende jeweils identisch.
Das muss man doch sehen.
Wie gesagt die Panasonic X900M berechnet Zwischenbilder für flüssige 50p Darstellung.
1/25s Verschlusszeit, Blende f1.5, +15dB Gain und 30mm Brennweite
3 folge Frames (am besten in 3 Browser Tabs öffnen und schnell umschalten) / / (click)
dienstag_01 hat geschrieben:Ok, ist möglich, aber nicht typisch.
Und was das soll, verstehe ich auch nicht. Weil, entweder Langzeitbelichtung oder nicht. Aber egal.
Naja so ganz trivial ist die Zwischenbildberechnung nicht.
Man muss sich nur die Schuppen und Schwebepartikel anschauen.
Da geht es nicht nur um 2 Folge-Bilder die zu einem 3. Zwischenbild interpoliert werden.
Da werden vielleicht mehrere Folgebilder "Objektorientiert" mit Bewegungsvektoren analysiert und das Zwischenbild zusammengesetzt (meine Vermutung).
WoWu hat geschrieben:Die Zeit ist vorbei, dass Kameras funktionierten, wie zu DV-Zeiten.
Das sollte man eigentlich heute, 20 Jahre danach, schon mal mitbekommen haben.
Ich hab ja nicht gesagt, dass das alle Kameras können.
Nur wer sich heute mal mit Kameratechnik einwenig auseinandersetzt, der sollte den Wissensstand von 1996 eigentlich verlassen haben.
Aber Du musst zugeben, das verlinkte Video auf der Wissensbasis des "Liam Darling" und seiner kamera- ist nicht gerade die beste Referenz für die Performanz von modernen Videogeräten.
Das scheint mir aber das Problem zu sein. Die Referenz.
Statt technisch zu schaun, was es gibt, werden solche Videos (bitte anschauen) als Referenz herangezogen. - Und irgendwelche Blogs-
Übrigens 'ne interessante Kamera, die Liam Darling da hat, wo die Scheinwerfer den Autos um Längen vorauseilen.
WoWu, du kannst uns doch erklären, was genau bei Shuttergeschwindigkeiten länger als die Framedauer genau passiert. Würde einige interessieren. Sich hinzustellen und zu sagen, das Bild ist aber blöd - nagut, ich interpretiere das jetzt mal als eine Art Rantasten an den Gegenstand der Diskussion ;)
Mit Sony EX kann man übrigens auch mit Slow Shutter drehen.
dienstag_01 hat geschrieben:WoWu, du kannst uns doch erklären, was genau bei Shuttergeschwindigkeiten länger als die Framedauer genau passiert....
Ich bin zwar nicht wowu aber das hat er anfangs schon geschrieben: Das Bild wird eben nur solange belichtet, wie es die Framerate auf dem Sensor läßt. Bei 50P max 1/50 Sek. Bei 100P max 1/100 Sek. Ganz gleich, wie lang ich belichten möchte.
Ich glaube es stellt sich einfach die Frage nach der Hierarchie: bestimmt der Shutter die Framerate oder die Framerate den Shutter.
Anne Nerven hat geschrieben:Ich bin zwar nicht wowu aber das hat er anfangs schon geschrieben: Das Bild wird eben nur solange belichtet, wie es die Framerate auf dem Sensor läßt. Bei 50P max 1/50 Sek. Bei 100P max 1/100 Sek. Ganz gleich, wie lang ich belichten möchte.
Ok, aber dann gäbe es keine identischen Bilder bei Slow Shutter. Also kann es nicht so sein.
Anne Nerven hat geschrieben:Ich glaube es stellt sich einfach die Frage nach der Hierarchie: bestimmt der Shutter die Framerate oder die Framerate den Shutter.
Die Framerate bleibt ja trotzdem prinzipiell bestehen. Aber klar, Slow Shutter bedeutet eine geringere Bewegungsauflösung als die Framerate.
Es gibt eine ansteigende Belichtungsrampe, die der Shutter Einstellung entspricht, danach ein Reset.
Darunter läuft die Framerate, die entsprechend viele Zwischenbilder ablegt, deren Differenzwerte gemischt werden und deren Luma-Werte akkumuliert und auf einem Niveau gehalten, um ein Luma-Pumpen zu vermeiden.
So ist es auch nicht mehr unbedingt erforderlich, dass Shutter und Framerate korrespondieren, weil auch Teilsequenzen integriert werden können.
Ergebnis ist der Blur-Effekt, den wir schon kennen, aber regelmässige Kantendarstellung, also eine Echtzeitverarbeitung, ohne solchen Firlefanz, in dem man Bilder rausnehmen und Geschwindigkeiten verändern muss.
Das war das Prinzip, das sich bis auf die andere Mappinggeschichte von HDR nicht wesentlich unterscheidet, bis auf den Umstand, dass man mit hohen Lichtwerten (an der FW Grenze) noch anders umgeht, als im HDR.
Slow shutter lässt das Bild lediglich "volllaufen" und kopiert es dann.
Das ist Fotografie in Video übertragen, ohne dass man solche Werkzeuge nutzt, die heutzutage längst Bestandteil von Kameras sind. Deswegen ruckt das auch noch wie in den 50er Jahren. Und mit Time-Laps wird das nur zugeschmiert.
So, und nun bin ich auch raus.
Thema ist durch, für mich.
WoWu hat geschrieben:Es gibt eine ansteigende Belichtungsrampe, die der Shutter Einstellung entspricht, danach ein Reset.
Darunter läuft die Framerate, die entsprechend viele Zwischenbilder ablegt, deren Differenzwerte gemischt werden und deren Luma-Werte akkumuliert und auf einem Niveau gehalten, um ein Luma-Pumpen zu vermeiden.
So ist es auch nicht mehr unbedingt erforderlich, dass Shutter und Framerate korrespondieren, weil auch Teilsequenzen integriert werden können.
Ergebnis ist der Blur-Effekt, den wir schon kennen, aber regelmässige Kantendarstellung, also eine Echtzeitverarbeitung, ohne solchen Firlefanz, in dem man Bilder rausnehmen und Geschwindigkeiten verändern muss.
Das war das Prinzip, das sich bis auf die andere Mappinggeschichte von HDR nicht wesentlich unterscheidet, bis auf den Umstand, dass man mit hohen Lichtwerten (an der FW Grenze) noch anders umgeht, als im HDR.
Slow shutter lässt das Bild lediglich "volllaufen" und kopiert es dann.
Das ist Fotografie in Video übertragen, ohne dass man solche Werkzeuge nutzt, die heutzutage längst Bestandteil von Kameras sind. Deswegen ruckt das auch noch wie in den 50er Jahren. Und mit Time-Laps wird das nur zugeschmiert.
So, und nun bin ich auch raus.
Thema ist durch, für mich.
Ich stelle es mir so vor.
1/6s belichten heisst 6 Vollbilder pro Sekunde die auf 50 Bilder verteilt werden.
Ein Sensor wird nicht nur belichtet sondern auch ausgelesen und zurückgesetzt. Das dauert seine Zeit, so stimmt das Timing auch bei einer 1/50s nicht.
Nun bei 1/6s müssten einfach 2 Bilder zusätlich verlängert werden heisst also die Sequenz für 50p.
6 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
7 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
7 Frames 1/6s
Bei HDR gibt es Doppelkonturen bei Bewegung und langer Belichtung, somit zusätzliche "statische" Artefakte
Tiefflieger hat geschrieben:
Nun bei 1/6s müssten einfach 2 Bilder zusätlich verlängert werden heisst also die Sequenz für 50p.
6 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s 7 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s
6 Frames 1/6s 7 Frames 1/6s
Das stimmt so nicht. Selbstverständlich werden konstant immer genau 6 Frames mit demselben Bildinhalt hintereinander aufgezeichnet.
Das wären also 9*6=54 Frames, wobei die letzten 4 bereits in die nächste Sekunde hineinreichen.
Wäre mir allerdings nicht so sicher, dass es immer 6 Frames sein müssen. Bei meinen 1/6 sec. 50i-Aufzeichnungen und im NLE bleibt das Bild nur jeweils für 4 Frames stehen, mysteriös.
dienstag_01 hat geschrieben: Das Bild wird eben nur solange belichtet, wie es die Framerate auf dem Sensor läßt. Bei 50P max 1/50 Sek. Bei 100P max 1/100 Sek. Ganz gleich, wie lang ich belichten möchte.
Ich glaube es stellt sich einfach die Frage nach der Hierarchie: bestimmt der Shutter die Framerate oder die Framerate den Shutter.
...das würde dann aber die Auffassung unterstützen, dass längere Shutterzeiten völlig wirkungslos wären - - - sind sie aber nicht, was zu sehen ist, wenn man unter Lowlight mit 1/6 belichtet. Wenn da Zwischenbilder berechnet würden, würde sich im internen Speicher rein logisch bei etwas längeren Aufnahmen eine gewaltige Datenmenge anhäufen. Rein logisch gesehen kann es daher nur so sein, dass das gleiche mit 1/6 sec belichtete Bild in Beispiel 1/6 sec und 50p 8 mal hintereinander in den Stream eingefügt wird.
Ich habe mal eine Tanzvorführung mit 1/12 sec. aufgezeichnet. Schon da bekommt man stark verwischte Aufnahmen, was in diesem Falle aber ein tolles gestalterisches Element war. Das unterstützt die obige Aussage m. E..
vobe49
"was zu sehen ist, wenn man unter Lowlight mit 1/6 belichtet"
Nicht nur bei Lowlight, auch bei schönstem Sonnenschein (dazu braucht's natürlich heftige ND-Filterung). Wieso tun einige so, als seien SlowShutter-Aufnahmen ein unbekanntes Stilmittel? Oder sogar, als gäbe es das gar nicht? So was kann doch nur jemand behaupten, der seine Kamera nicht kennt oder gar keine hat.
Sorry, aber bei den Cams, die Einzelbilder einfach vervielfältigen, wie beispielsweise einfach eine Bilddoppelung bei 1/25s in einem 50p-Stream, ist das sicher kein Stilmittel.
Außer man man will unbedingt einen Ruckel-Stil.
Davon habe ich nicht gesprochen, macht ja auch keinen Sinn. Dafür gibt's 25p.
Das Stilmittel sind Einzelbilder mit (zu) langer Belichtungszeit (1/12, 1/6, 1/3 Sekunde), also verwischt, die sich dann logischerweise über mehrere Videoframes erstrecken müssen. Das oben verlinkte Video erklärt und zeigt doch alles. Und wer nicht versteht, wie man auf dieser Basis auch schöne, weiche Zeitraffer machen kann (ebenfalls im Video erklärt und gezeigt), dem entgeht halt was.
Eigentlich hasse ich einen solchen Besserwisser-Vorwurf-Diskussionsstiel - der ist völlig unangebracht, wenn man sich über eine bestimmte Sachse Klarheit verschaffen will. Wenn jemand an der Diskussion teilnehmen würde, der genau weis, was technisch bei einer 50p-Aufnahme mit Shutter 1/6 passiert, hätte er das klar aufgeschrieben.
Aber man meinen letzten Beitrag richtig gelesen hätte würde man unschwer erkennen, dass es einzig und allein darum ging, dass lange Shutterzeiten auch bei 50p die Belichtung beeinflusst, obwohl die Dauer der Sensorbelichtung mit 0,17 Sekunden je Frame deutlich länger ist als die Zeit von 0,02 Sekunden, mit der der Sensor bei 50p pro Frame eigentlich belichtet werden könnte. Das ist reine Physik und Logik.
Wir sprachen also in keinster Weise über lange Shutterzeiten als Stilmittel. Bei Shutter 1/6 wird die Aufnahme zwar richtig belichtet, sie ist aber auch bei 50p alles andere als flüssig. Dass bedeutet sicherlich aber auch, dass bei 50p und Shutter 1/6 Sekunde jedes belichtete Frame 8 mal hintereinander in den Stream eingepflegt wird. Genau deshalb verwischen ja dann die Konturen so stark.
vobe49
Das ist nicht weit genug gedacht denn die Shutter Rampe wirkt nur auf den Reset Transistor des Sensors. Das ist völlig losgelöst von der Framerate. Shutter bestimmt also nur die Integration der Pixel, also das Akkumulieren von Photonen.
Ein interlace arbeitender Sensor integriert beide Halbbilder auch je 40 ms, weil während der Auslesefhase bereits wieder integriert wird.
Das verdeutlicht, dass die beiden Mechanismen unabhängig voneinander betrachtet werden müssen und nur mittelbar etwas miteinander zu tun haben.
Man darf sich bei den langen Belichtungsraten also nur die Funktion der Rampe des Shutters betrachten und was über die Gesamtstrecke 1/6 o.Ä. mit dem Pegel passiert.
Wenn Du also einmal HDR Funktionen in Kameras genauer untersuchst, findest Du auch, wie es funktioniert.
Das wäre mir jetzt hier einwenig zu lang zu erklären.
Du musst die Funktion dann nur von kurzen HDR Zeiten, auf lange Integrationen übertragen. Aber die Mechanismen sind dieselben.
Deswegen wäre ich mir auch nicht so sicher, dass das 2.Bild bei Tieffliegers 25p Aufnahme, einer Interpolation entspringt ... Die Wahrscheinlichkeit ist sogar sehr gering. Vielmehr denke ich, dass da dieselben Mechanismen greifen, wie oben beschrieben.
Nur muss man sich eben im Karen darüber sein, dass das mit dem, was Sony da beschreibt nichts zu tun hat. So wurde das in den 90er Jahren gemacht, weil man noch nicht die Rechenkapazität in den Kameras zur Verfügung hatte.
Und dann ruckelt das natürlich an allen Ecken und Kanten.
vobe49 hat geschrieben:Wenn jemand an der Diskussion teilnehmen würde, der genau weis, was technisch bei einer 50p-Aufnahme mit Shutter 1/6 passiert, hätte er das klar aufgeschrieben.
Das steht doch nun wirklich schon mehrmals hier im Thread: Wenn die Belichtungszeit länger ist, als die Dauer eines einzelnen Frames, werden soviele Frames, wie für die Belichtungszeit *benötigt* werden, zu einem Frame *zusammengefasst*. Wie eine Langzeitbelichtung. Daher: es gibt einen Einfluß auf die Belichtung, es gibt einen Einfluß auf die Bewegungsunschärfe. Und es gibt einen Einfluß auf die Bewegungsauflösung, es ruckelt (mal mehr, mal weniger).
Ich habe mit der X900M mit 50p und 1/5s Belichtungszeit einen Testshoot gemacht.
Dabei habe ich 3 identische Frames und dann einen Bildwechsel mit ebenfalls 3 identischen Bildern (sporadisch ~4te Sequenz hat 4 Frames mit identischem Bild).
(Ich habe extra die LEDs der WiFi Basistation im Bild drinn und keine Schlierenbildung oder Luma Flakern.
Falls gewünscht kann ich die Standbilder hier reinstellen)
dienstag_01 hat geschrieben:
Das steht doch nun wirklich schon mehrmals hier im Thread: Wenn die Belichtungszeit länger ist, als die Dauer eines einzelnen Frames, werden soviele Frames, wie für die Belichtungszeit *benötigt* werden, zu einem Frame *zusammengefasst*. Wie eine Langzeitbelichtung. Daher: es gibt einen Einfluß auf die Belichtung, es gibt einen Einfluß auf die Bewegungsunschärfe. Und es gibt einen Einfluß auf die Bewegungsauflösung, es ruckelt (mal mehr, mal weniger).
Wenigstens einer, der mal eine Kamera bedient hat und daher weiß, was visuell passiert. Und auch der Tiefflieger ist den Fakten auf der Spur!
Bei der X900M werden bei 50p,
1/25s ein Zwischenbild generiert
1/5s die Frames in 3er und sporadisch 4er Gruppen zusammengefasst. Rechnerisch ca. 2 zusätzliche Zwischenbilder erzeugt, quasi die Framezahl verdreifacht.
Gruss Tiefflieger
Zuletzt geändert von Tiefflieger am So 08 Dez, 2013 20:03, insgesamt 1-mal geändert.
1/5s die Frames in 3er und sporadisch 4er Gruppen zusammengefasst. Trotzdem werden rechnerisch ca. 2 zusätzliche Zwischenbilder erzeugt, quasi die Framezahl verdreifacht.
Wer weiss, was deine Kamera da macht. Vielleicht experimentiert Panasonic da ein wenig. Leider ist diese Funktion nicht weiter dokumentiert. Aber sicher ein Novum ;)
Wie WoWu schreibt könnte bei der X900M für die Zwischenbilder eine HDR Funktion greifen, d.h. Zwischenwerte der Sensorauslese-Rampe ausgewertet werden.
Da aber die X900M drei theoretisch unabhängige RGB Sensoren hat, könnte auch hier "getrickst" werden.
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.