Logo Logo
/// 

Will High Frame Rate Cinema immer noch nicht zünden?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Das Veröffentlichen eines Kinofilms mit einer höheren FramerateFramerate im Glossar erklärt als 24 Bildern Pro Sekunde scheint bis auf weiteres keine gute Idee zu bleiben. Auch wenn immer wieder Mar...

Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Will High FrameFrame im Glossar erklärt Rate Cinema immer noch nicht zünden?




Antwort von Zworg:

Was wäre wenn man HFR mit mehr Motionblur kombiniert?
Ist doch mal ein Kompromiss.... he, he.... ;)



Antwort von Rick SSon:

Ich denke es liegt wirklich daran, der "billige Videolook" nun mal auch mit der höheren FramerateFramerate im Glossar erklärt zutun hat. Würde Video wie Kino aussehen und andersrum, dann wären hohe Frameraten wohl kein Thema. Is' halt einfach Gewohnheit und ich schließe mich diesem "Gefühl" auch tatsächlich an.





Antwort von Sir Richarrdt:

Und du würdest einem Marktforscher, der einem Farmaunternehmen X nahe steht auch glauben, dass deine ( noch gar nicht etablierte und wh gentisch auch nie auftretende) Krankheit, durch das gute (sauteure) Medikament geheilt wird?

Da rennt der Schw-a-nz schneller als der H-u-nd....
Wenn das gemacht wird und wir von Motionblur bis was immer alles drinn haben, landen wir
dann nicht wieder bei etwas weiterer Betrachtung dort wo wir schon sind, oder soll es eben wie Homevideo aussehen, weil manche hier vor lauter Pixxelzählen seit Jahrzehnten net mehr hingeguckt haben?

Irgendwer in dem Forum hat mal gesagt.. " wo Marketing drinn, ein Produkt bereits hin..."
Langsam glaube ich das. Eine Armee von (gut bezahlten) Armleuchtern erzählt den ganze Tag der Herde ( der wh. gar net mehr wirklich Anwesenden) die schönen bunten Geschichten nur nicht DIE Geschichte, DAS SCRIPT und DEN PLOT..

das nicht :)

und wenn, warum adaptiertm man net mal auf jden einzelnen Menschen hin?
warum will man mir Barilla 5 nicht mher aldente verhökern und erzählen es wäre " besser"?
noch nie etwas gekocht?
Dasd ist der Punkt, es schaut nach sau beschissenem Homevideo aus, und dafür kome ich net ins Kino, dafür reicht KIKKASS.. :)



Antwort von momo2000:

James Cameron wird's schon richten



Antwort von Wingis:

Nein es liegt nicht einfach an den Sehgewohnheiten und es wäre auch nicht umgekehrt so schwierig. Der Punkt ist einfach dass die filmische Aufzeichnung mit ihren - damals unumgänglichen und heute oft beibehaltenen - Mängeln die Erzählung visuell von der Realität abkoppelt und wir so die gebotene Geschichte als eine "andere" Realität erfahren und genießen können. Je realistischer aber die Bildaufzeichnung stattfindet - je eher erkennen wir diese Aufzeichnung auch wieder als Realität. Und dann passiert, was mir schon den ersten Hobbit völlig kaputt gemacht hat. Ich sehe Darsteller in Kostümen in - zugegeben großartigen - Sets und mit Requisiten in den Händen. Die künstliche erschaffene Welt entlarvt sich selbst und die Schwelle, die einst FramerateFramerate im Glossar erklärt, Filmkorn und Auflösung schufen und die die Welt der Erzählung von unserer Realität abgrenzte, bröckelt zunehmend. Denn mittlerweile haben die digitalen Möglichkeiten den guten alten Film ein- und in einigen Aspekten sogar bereits überholt. Das soll aber auch hier garkein 9.746. Film vs. Digital-Anstoss werden, sondern ich bin der Meinung, dass die Bemühungen, filmisch inszenierte Handlung realistischer festzuhalten immer nur zu einer Zerstörung der Illusion führen wird. Auch der inflationäre Einsatz von immer besser ausgearbeiteten digitalen Effekten zeigt dieses Phänomen. Je echter die Dinge aussehen und je detailgetreuer das unrealistische gezeigt werden kann, desto weniger akzeptieren wir als Zuschauer es. Wir stellen in Frage, was unser Auge sieht und schon sind wir raus aus der Geschichte. Vielleicht werden sich die Zuschauer irgendwann an, vom Markt diktierte, 48 oder mehr fps gewöhnen, aber dabei würde dem Kino das letzte bisschen Magie verloren gehen, dass mich schon viele Stunden vor der Leinwand gefesselt hat.



Antwort von Jott:

Andererseits schaltet kaum jemand zu Hause die Frameinterpolation des Fernsehers ab, fast alle gucken kritiklos Spielfilme und Serien im Reality-Soap-Look. Fürchterlich, aber juckt nicht. Ich sehe auch 24p als eine der Grundlagen für die Illusion an. Für andere ist das offensichtlich schnurz. Man wird sehen ...



Antwort von StanleyK2:

Fürchterlich Behauptung
aber juckt nicht Eben.
Ich sehe auch 24p als eine der Grundlagen für die Illusion an. Ach was
Für andere ist das offensichtlich schnurz Ja, genau.

Aber mal ehrlich:

Fall 1:
a) ich nehm ne alte Cine Cam und kurbele was in 35mm. Das Ergebnis schau ich mir dann in klassicher Projektion an.
b) ich nehm einen Henkelmann mit 1/3" 3Chip und nehm was in 1080p50 auf und schau das auf einem Flachbildschirm an.

Gibt es da einen Unterschied? Sicher, aber was solls? Früher war auch fast alles aus Holz ..

Fall 2:
a) Ich nehm einen modernen Camcorder, der fast alles kann und nehm in 1080p24 auf
b) Ich nehm den gleichen Camcorder, und nehm 1080p50(600) auf

a) wird da bei schnellen Bewegungen schon mal etwas mehr ruckeln, aber sonst?

Ja und nun? Streit um des Kaisers Bart? Also die diversen Aussagen, nur mit 24 fps ist es Kino oder nur damit ist story telling möglich usw. erscheinen mir - vorsichtig gesagt - etwas "strange". Nostalgie, Elite-Kunst, Distinktionismus, Dogmatismus oder einfach nur BT?



Antwort von WoWu:

Blur wird bei hohen Bildauflösungen nicht nur durch die FramerateFramerate im Glossar erklärt verkürzt sondern auch durch den Bearbeitungsalgorithmus.
Grund genug, für Firmen auf das Mittelformat zu setzen, bei dem die Auflösung tatsächlich optisch und nicht per Software umgesetzt wird.
http://www.cv-foundation.org/openaccess ... _paper.pdf
Das ganze auf die Framrate zu schieben ist viel zu kurz gesprungen.



Antwort von iasi:

So harrsch die Kritik an Hobbits auch war - Teil 1 überholt die ersten zwei Herr-der-Ringe-Filme an der Kinokasse.
Zusammen spielten die 3 Hobbit-Filme immerhin 3 Mrd.$ ein.
An HFR liegt es wohl zuletzt, dass diese 2 Stunden-mühsam-laufen-dann-in-2 Minuten-per-Adler-ans-Ziel-Fliegen-Filme so schlechte Kritiken bekamen.

Es gibt leider auch nicht viele 3D-Filme, die durch 3D wirklich gewinnen (und bei denen man nicht die 3D-Brille verflucht).



Antwort von Jott:

Also die diversen Aussagen, nur mit 24 fps ist es Kino oder nur damit ist story telling möglich usw. erscheinen mir - vorsichtig gesagt - etwas "strange". Nostalgie, Elite-Kunst, Distinktionismus, Dogmatismus oder einfach nur BT?

Kannst du so sehen. Aber wieso bleiben dann 99,99% aller Regisseure bei 24p, obwohl sie ihre digitalen Cine-Kameras problemlos auf 48 oder 60fps stellen könnten? Lass denen doch ihre Meinung, so wie du deine hast. Die Zeit wird zeigen, wo's hinläuft.



Antwort von iasi:

Also die diversen Aussagen, nur mit 24 fps ist es Kino oder nur damit ist story telling möglich usw. erscheinen mir - vorsichtig gesagt - etwas "strange". Nostalgie, Elite-Kunst, Distinktionismus, Dogmatismus oder einfach nur BT?

Kannst du so sehen. Aber wieso bleiben dann 99,99% aller Regisseure bei 24p, obwohl sie ihre digitalen Cine-Kameras problemlos auf 48 oder 60fps stellen könnten? Lass denen doch ihre Meinung, so wie du deine hast. Die Zeit wird zeigen, wo's hinläuft.

Bis vor kurzem wurden alle Filme noch in 2k gemastert - obwohl es schon 4k-Kameras und auch 4k-Kinos gab ...

Lieber bläst man dann die 2k für 4k und IMAX auf - ganz so wie man mittlerweile lieber 3D aus 2D in der Post errechnen lässt.
99,99% aller Regisseure haben kein Problem damit, ihren Zuschauern Fakes zu verkaufen und sie dafür auch noch Aufpreise zahlen zu lassen.

0,01% liefern hingegen das Bestmögliche ab.



Antwort von StanleyK2:

Lass denen doch ihre Meinung, so wie du deine hast.
Sowieso



Antwort von WoWu:

Es ist eine Frage der Zeit, wann es bei 24 auch ruckelt, weil die Framrate gar nicht das kritische Kriterium ist sondern die Art, wie aufgelöst wird.
Bin dann mal darauf gespannt, welche Blogbeiträge dann kommen.



Antwort von iasi:

Die langsame Bildfrequenz von 24fps macht doch nicht den Kinoeindruck aus.
Durch Umlaufblende wurde versucht, diesen Mangel etwas zu mildern.

Filmische Erzählen hängt doch nicht von 24fps ab - und der Bildeindruck ergibt sich aus all den anderen filmischen Mitteln, die einem zur Verfügung stehen.

HFR beseitigt einen Mangel, der sich aus technisch-finanziellen Gründen ergab.
Nun kann man wenigstens einen schnelleren Panoramaschwenk machen :)



Antwort von iasi:

Es ist eine Frage der Zeit, wann es bei 24 auch ruckelt, weil die Framrate gar nicht das kritische Kriterium ist sondern die Art, wie aufgelöst wird.
Bin dann mal darauf gespannt, welche Blogbeiträge dann kommen.

Es ruckelt doch längst.

Tabellen mit Schwenkgeschwindigkeiten gibt es doch schon sehr lange. Zwischen Panorama- und Rissschwenk "zerreisst" es schon lange das Bild.



Antwort von WoWu:

Lies mal oben den Artikel denn den Algorithmen ist es völlig wurscht, ob die Unschärfe aus Bewegung (auch Schwenk) oder mangelnder Tiefenschärfe weggerechnet wird.
Nicht umsonst haben sie wieder Software eingefügt, die künstliche Unschärfe erzeugt.
Nur wird das alles, weil es so schön einfach ist, auf die Framrate geschoben.
Dieser Videolook entsteht aber ganz woanders.
Mal ganz abgesehen davon, dass das ShutterShutter im Glossar erklärt die eigentliche Bewegungsunschärfe macht denn da wird festgelegt, wieviele Pixels pro Bild eine Bewegung im eingestellten Zeitintervall überstreicht, also wie scharf die Bewegung noch dargestellt wird.
Davon hängt nämlich auch die Schwenkgeschwindigkeit ab, von der Anzahl der Pixels und dem ShutterShutter im Glossar erklärt und erst in zweiter linie von der Framerate.



Antwort von iasi:

Lies mal oben den Artikel denn den Algorithmen ist es völlig wurscht, ob die Unschärfe aus Bewegung (auch Schwenk) oder mangelnder Tiefenschärfe weggerechnet wird.
Nicht umsonst haben sie wieder Software eingefügt, die künstliche Unschärfe erzeugt.
Nur wird das alles, weil es so schön einfach ist, auf die Framrate geschoben.
Dieser Videolook entsteht aber ganz woanders.
Mal ganz abgesehen davon, dass das ShutterShutter im Glossar erklärt die eigentliche Bewegungsunschärfe macht denn da wird festgelegt, wieviele Pixels pro Bild eine Bewegung im eingestellten Zeitintervall überstreicht, als wie scharf die Bewegung noch dargestellt wird.
Damit hängt nämlich auch die Schwenkgeschwindigkeit ab, von der Anzahl der Pixels und dem ShutterShutter im Glossar erklärt und erst in zweiter linie von der Framerate.

Du trennst da etwas, das man eigentlich nicht trennen kann:
wenn der ShutterShutter im Glossar erklärt zu kurz wird, hast du bei niedriger FramerateFramerate im Glossar erklärt übel sichtbare "Sprünge". Es geht ja auch darum, wie viele PixelPixel im Glossar erklärt bei einem Schwenk zwischen den einzelnen Bildern übersprungen werden - bei sehr kurzer Belichtungszeit und geringer FramerateFramerate im Glossar erklärt wäre dies bei schnellen Schwenks sehr unschön. Länge Belichtungszeit führt dann zur Unschärfe, die die Sprünge "überdeckt" bzw. verwischt.

Ich denke, ich verstehe (zumindest im Ansatz) was du bzgl. den Algorithmen meinst - interessant.



Antwort von WoWu:

Ich will damit auch nur sagen, dass das Festmachen des Problems an der FramerateFramerate im Glossar erklärt zu kurz gesprungen ist, denn hohe Auflösungen gehen meistens einher mit kleineren Pixelabständen und damit mit einer größeren Bewegungsunschärfe, die in erster Linie mit dem ShutterShutter im Glossar erklärt kompensiert wird und im Idealfall wieder dieselbe Bewegungsunschärfe erreichen, wie im Filmbeteich..
Aber solche kleinen Pixels auf kleinen Sensoren gehen eben meistens mit der Nachberechnung einher, die aus der Bewegungsunschärfe wieder Kanten macht und das sieht eben so mistig aus.
Daher ist der Blogbeitrag nicht besonders erhellend, weil da vermeintlich die FramerateFramerate im Glossar erklärt als Generalschuldiger erkannt wird.
Und das ist eben falsch.
Streng genommen würde sich die FramerateFramerate im Glossar erklärt sowieso erst ergeben, wenn man mit dem ShutterShutter im Glossar erklärt das BlurBlur im Glossar erklärt gewählt hat.
Wer dogmatisch mit 120 Hz dreht, hat selbst schuld, wenn er das ShutterShutter im Glossar erklärt nicht mehr kreativ einsetzen kann.
Das ist aber dann Bedienfehler.



Antwort von iasi:

Ich will damit auch nur sagen, dass das Festmachen des Problems an der FramerateFramerate im Glossar erklärt zu kurz gesprungen ist, denn hohe Auflösungen gehen meistens einher mit kleineren Pixelabständen und damit mit einer größeren Bewegungsunschärfe, die in erster Linie mit dem ShutterShutter im Glossar erklärt kompensiert wird und im Idealfall wieder dieselbe Bewegungsunschärfe erreichen, wie im Filmbeteich..
Aber solche kleinen Pixels auf kleinen Sensoren gehen eben meistens mit der Nachberechnung einher, die aus der Bewegungsunschärfe wieder Kanten macht und das sieht eben so mistig aus.
Daher ist der Blogbeitrag nicht besonders erhellend, weil er da nur an der FramerateFramerate im Glossar erklärt rumgedoktert wird und die als Generalschuldiger erkannt ist.
Und das ist eben falsch.

ja - generell sehe ich in kleinen Pixeln kein Problem, aber ich sehe jetzt was du meinst: Wenn die Software diese kleinen PixelPixel im Glossar erklärt getrennt "behandelt", kann dies zu unschönen Resultaten führen, da sie zusammengefasst verfälschte Ergebnisse liefern.
Stellt sich mir die Frage: Wie kann man diese "Nachberechnungen" steuern?
Und: An welcher Stelle des gesamten Prozesses muss man besonders damit rechnen?

Eine größere Bewegungsunschärfe kann ich übrigens aufgrund höherer Pixelzahl bei gleicher Sensorgröße nicht nachvollziehen. Der Bildbereich, der z.B. durch eine sich bewegende Person überstrichen wird, ändert sich ja nicht, daher sehe ich auch nicht, weshalb dies nun mit kürzerem ShutterShutter im Glossar erklärt ausglichen werden müsste.
Aber ich sehe die Problematik, wenn die Software diesen Bereich nun z.B. durch Kantenanhebung auf der feineren Pixelbasis verfälscht.



Antwort von iasi:


Streng genommen würde sich die FramerateFramerate im Glossar erklärt sowieso erst ergeben, wenn man mit dem ShutterShutter im Glossar erklärt das BlurBlur im Glossar erklärt gewählt hat.
Wer dogmatisch mit 120 Hz dreht, hat selbst schuld, wenn er das ShutterShutter im Glossar erklärt nicht mehr kreativ einsetzen kann.
Das ist aber dann Bedienfehler.

Du kannst dann aber eben auch eher auf BlurBlur im Glossar erklärt verzichten, wenn du 120fps drehst - es erlaubt kürzere Belichtungszeiten.
Man muss zudem nicht unbedingt bei 180° bleiben, wenn man 48, 50, 60 oder gar 120fps dreht.
1/48s bei 48fps ergeben denselben BlurBlur im Glossar erklärt, wie 1/48s bei 24fps.

Dogmatisch ist eh immer schlecht.
Das Festklammern an 24fps ist eben leider auch dogmatisch.



Antwort von WoWu:

Doch, gerade in den kleinen Pixels liegt das Problem, denn bei Bewegungsunschärfe handelt es sich ja um eine Auflösungsreduzierung.
Wen in einem Zeitraum x ein gegenstand über einen großen PixelPixel im Glossar erklärt streift, ist die Auflösung maximal. BlurBlur im Glossar erklärt ist gleich Auflösung.
verkleinert man die Pixels und behält die Bewegung bei, dann streicht der Gegenstand über 2, 4 oder mehr Pixels. Nun muss man die Auflösungsverhältnisse gegeneinander betrachten.
Die Periode zwischen den Pixels ist bei kleinen Pixels deutlich kürzer. Ich muss also, um denselben Blureffekt (Gegenstand im Verhältnis zur effektiven Bildauflösung) halbieren, oder vierteln. Ansonsten erzeugt der Blureffekt nur noch 1/2. bzw. 1/4 der Auflösung, ist also im Verhältnis zum Restbild höllisch unscharf. Und selbst langsamere Bewegungen, die z. B. nur 2 PixelPixel im Glossar erklärt überstreichen, sind schon deutlich unschärfer als bei großen Pixels.
Du musst also mit der ShutterShutter im Glossar erklärt Zeit wieder das richtige Unschärfeverhältnis zur Bildschärfe wieder herstellen.
Daraus resultieren auch die ShutterShutter im Glossar erklärt und Frameraten Empfehlungen der Broadcaster.
Die sehen das Problem natürlich auch.

Was die Algorithmen betrifft ... da wirst Du nicht abschalten können, denn wenn 4K aus 2k erstellt werden müssen, kommt man da nicht drum herum.
Das Einzige, was hilft, sind größere Pixels, ein größerer Sensor und damit ein, dem Film entsprechendes Bildfeld.
Dann stimmen alle Parameter auch bei höheren Auflösungen wieder überein.
Da ist schon was dran, dass die guten Hersteller optisch auflösen wollen und nicht rechnerisch.
Aber das siehst Du ja anders.
Nur treten die Beispiele jetzt immer deutlicher zutage.
Darüber diskutiert haben wir ja schon vor 2 Jahren aber nun stellt sich ja langsam raus, das wohl doch was dran ist.



Antwort von iasi:

Wenn ein Gegenstand nun einen Bereich von 16 Pixeln eines Sensors mit niedriger Auflösung oder von 64 Pixeln bei höherer Auflösung abdeckt, macht am Ende keinen Unterschied, was die Unschärfe betrifft - vielmehr ist die Abstufung an den Rändern bzw den Übergängen feiner.

Auf Pixelebene ist doch ein PixelPixel im Glossar erklärt nicht schärfer als 4, nur weil es gröber auflöst.
Ein grobkörniger Film ist doch bei Bewegungen nicht schärfer, als ein feinkörniger - ein feinkörniger bildet das BlurBlur im Glossar erklärt nur feiner ab und wirkt dann im Verhältnis zu seiner Ausgangsschärfe unschärfer.

Es ist wie bei einem "weichen" Objektiv: Liegt der Fokus leicht daneben, ist dies weniger auffällig, als bei einer knackscharfen Optik.

Ich sehe auch nicht, wie größere Sensoren und größere PixelPixel im Glossar erklärt das Softwareproblem lösen könnten - feinere Auflösung bringt vermehrte Störungen. Andererseits werden diese Störungen aber auch durch die feinere Auflösung verkleinert.

Größere Sensoren und größere PixelPixel im Glossar erklärt haben aber natürlich unbestreitbare Vorteile.
Nur: Ein 25 Kodakchrome kam schon ziemlich nah an Mittelformat heran.



Antwort von WoWu:

Doch, die Ortsfrequenz ist doch viel höher bei kleinen Pixels.
Schau mal beim IRT rein.
Rainer Schäfer hat da eine sehr schöne Ausarbeitung gemach.
Da war hier auch mal ein Vortrag verlinkt. Musst mal suchen.
Bewegungsunschärfe steht immer im Verhältnis zur spatiale Auflösung und wenn in einer 4K Auflösung die Bewegungsunschärfe nur 1k ist, fällt das stärker auf, als wenn Du ein 2K BasisbildBasisbild im Glossar erklärt hast.
Die Ortsfrequenzen liegen dann dichter beieinander.
Und es geht ja vor allen Dingen auch darum, dass sehr viel langsamere Bewegungen schon zu kräftiger Bewegungsunschärfe führen, was in Umgebungen mit niedrigerer Ortsfrequenz gar nicht auffällt.
Mit Film lässt sich das übrigens nur schwer vergleichen, weil die Kristalle sich anders, zufällig verhalten.
Aber das haben wir hier auch schon ein paarmal besprochen.



Antwort von Axel:

HFR beseitigt einen Mangel, der sich aus technisch-finanziellen Gründen ergab.
Nun kann man wenigstens einen schnelleren Panoramaschwenk machen :)
(...)
Tabellen mit Schwenkgeschwindigkeiten gibt es doch schon sehr lange. Zwischen Panorama- und Rissschwenk "zerreisst" es schon lange das Bild.

Ermüdend, iasi.

Menschen können nicht schwenken. Panoramaschwenks sind der menschlichen Wahrnehmung nicht möglich. Reißschwenks sind möglich, aber beim Wenden des Kopfes blinzeln wir unwillkürlich (=Schnitt).

Also sind natürliche Schwenks Verfolger-Schwenks. Bewegungsunschärfe erwünscht, da Motiv freistellend und Geschwindigkeit signalisierend:

Panoramaschwenks sind reine Kinosprache. Auf der RED-Seite gibt es (zweites Videopaar: "Judder at 24" und "Smooth at 60") ein Vergleichsbeispiel. Stimmt, holperig bei 24, weich bei 60. Aber der Schwenk ist Kacke, weil er weder von Motiv A nach Motiv B leitet, noch etwas erzählt noch etwas verfolgt. Die Schwenktabellen für 24 @ 180° gelten auch für HFR ....

Weiter darunter: "Action at 24". Hier hat RED gemogelt. Die 24 fps Aufnahmen haben keine proportionale Bewegungsunschärfe. Sonst hätte das Bike wesentlich dynamischer gewirkt, wäre wesentlich stärker (wie das Slotcar oben) freigestellt worden und hätte weniger gezittert. Aber egal, du wirst es nicht sehen oder es bestreiten.

Aber - böse -nehmen wir "Action at 60". Zweifellos, das schärfere Video, noch weniger Motion BlurBlur im Glossar erklärt, sieht besser aufgelöst aus. Aber undramatisch. Wen juckt's, ob das Dingen fliegt? Spinn ich oder stroboskopieren im zweiten Video die Bäume im Hintergrund? Tatsache, auch im runtergeladenen Video zerhackt's die Konturen!

Dogmatisch ist eh immer schlecht.
Das Festklammern an 24fps ist eben leider auch dogmatisch.

Ungefähr so wie bei Regen eine Regenjacke anzuziehen.



Antwort von WoWu:

@IASI

Ich hatte noch vergessen ... was die Schwenkgeschwindigkeiten angeht, so hat sich überhaupt nichts geändert, denn egal ob für SD, HD oder UHD 1/2 gilt immer noch dieselbe Formel und vor Allem sind neben der FramerateFramerate im Glossar erklärt das ShutterShutter im Glossar erklärt und die Pixels von wesentlichem Einfluss, wie erwähnt.
Nach UHD hin werden daher, bei identischer Einstellung wie HD, die Geschwindigkeiten langsamer. Und dass bei HD keine höheren Frameraten möglich waren, liegt ja am Kamerahersteller und nicht an Übertragungssystem.



Antwort von iasi:


Ermüdend, iasi.

Menschen können nicht schwenken. Panoramaschwenks sind der menschlichen Wahrnehmung nicht möglich. Reißschwenks sind möglich, aber beim Wenden des Kopfes blinzeln wir unwillkürlich (=Schnitt).

Also sind natürliche Schwenks Verfolger-Schwenks. Bewegungsunschärfe erwünscht, da Motiv freistellend und Geschwindigkeit signalisierend:

Panoramaschwenks sind reine Kinosprache.

So ein Quatsch.
Als ob wir nicht den Blick über eine Landschaft schweifen lassen könnten.
Panoramaschwenks sind nichts anderes als das Drehen des Kopfes. Unschärfen sind dabei unerwünscht - auch bei schnellen Kopfbewegungen - die Pupillenbewegung wirkt dabei ausgleichend. Die Evolution selektiert den aus, der Nahrung und Gefahren nicht auf weite Entfernungen und in einem großen Areal erkennen kann. Gerade bei Schwenks kennt das Auge eigentlich kein Motion Blur.
Der Begriff "sich umschauen" ist dir auch bekannt?
Du betrittst also einen Raum und da sich nichts bewegt, das du verfolgen kannst, bleibt dein Blick immer schön nach vorn gerichtet?



Antwort von Jott:

So ein Quatsch.

Kein Quatsch. Ein Mensch schwenkt nicht wie eine Kamera, auch nicht beim Kopf drehen. Kann er nicht. Axel hat recht. Kannst ja mal deine Augenpartie filmen beim Kopf drehen oder Landschaftschweifen und gucken, was da passiert.



Antwort von iasi:

@IASI

Ich hatte noch vergessen ... was die Schwenkgeschwindigkeiten angeht, so hat sich überhaupt nichts geändert, denn egal ob für SD, HD oder UHD 1/2 gilt immer noch dieselbe Formel und vor Allem sind neben der FramerateFramerate im Glossar erklärt das ShutterShutter im Glossar erklärt und die Pixels von wesentlichem Einfluss, wie erwähnt.
Nach UHD hin werden daher, bei identischer Einstellung wie HD, die Geschwindigkeiten langsamer. Und dass bei HD keine höheren Frameraten möglich waren, liegt ja am Kamerahersteller und nicht an Übertragungssystem.

Ich verstehe - nur sollte man das Auflösungsvermögen auch berücksichtigen.
Du hast bei UHD schon bei starrer Einstellung eine höhere Auflösung als bei HD. Wie beim DoF den Zerstreuungskreisdurchmesser muss man auch bei Schwenks eine Unschärfetoleranz berücksichtigen. Das Objekt im Bild ist bei gleicher Sensorgröße und BrennweiteBrennweite im Glossar erklärt immer gleich groß - ein Schwenk erzeugt immer eine Unschärfe - die Frage ist, wie große dieser Unschärfebereich werden darf.



Antwort von iasi:

So ein Quatsch.

Kein Quatsch. Ein Mensch schwenkt nicht wie eine Kamera, auch nicht beim Kopf drehen. Kann er nicht. Axel hat recht. Kannst ja mal deine Augenpartie filmen beim Kopf drehen oder Landschaftschweifen und gucken, was da passiert.

Bei einem Kameraschwenk wird die Kopfbewegung simmuliert. Natürlich bewegen sich dabei dann die Pupillen des Zuschauers und erfassen einzelne Details im Bild. Gerade deshalb ist Bewegungsunschärfe dabei ein Problem.
Selbst bei schnellen Kopfbewegungen arbeiten die Pupillen ausgleichend gegen die Bewegung, um Unschärfen zu vermeiden.



Antwort von domain:

Meiner Meinung nach müsste Bewegungsunschärfe bei höheren K-Auflösungen eine abnehmende Bedeutung haben und zwar in Richtung von Null. War bei niedrigen Frameraten ja auch nur eine Krücke, um durch unscharfe Kanten einen Stroboeffekt zu vermeiden.
Vorschlag in Form einer Richtwerte-Formel :-)

Fps = 25*K
Shutter = 1/(50*K)

Ergibt bei 4K also 100 fps bei einer VerschlusszeitVerschlusszeit im Glossar erklärt von 1/200



Antwort von motiongroup:

ich musste bei Avatar im apollo das Kino verlassen, die erzwungene Achterbahnfahrt tat das ihrige. Ganz gegenteilige Erfahrung bei Prometheus ein wahrer Augenschmaus für die Sinne..

Ist bei den Transformerteilen nicht anders.. mit aufsteigender Zahl wurde diese Serie zunehmend ein Martyrium für die Sinnesorgane.. das hatte auch nichts mehr Aktion zu tun, vielmehr mit bunten Fraktale die über die Leinwand huschten... ein Irrsinn.
So und nicht anders läuft es auch hier auf den nicht gewollten Effekt der Reizüberflutung hinaus..
Das erste mal das ich diese für mich Beeinträchtigung bei sehen feststellen musste war Tarzan von Disney als Jonny Weismüller über die Baumstämme glitt

NOGO



Antwort von Frank Glencairn:


Bei einem Kameraschwenk wird die Kopfbewegung simmuliert.

Keine Simulation, sondern eine Allegorie - etwas daß du im wirklichen Leben nie machen könntest - es sei denn man stellt ich auf einen Drehteller und lähmt deine Augenmuskulatur.



Antwort von radneuerfinder:

@WoWu, @IASI

Vielleicht kann man es so formulieren:
Die Bewegungsunschärfe wird von Schwenkgeschwindigkeit, Belichtungszeit, etc. bestimmt. Sie ist unabhängig von der Sensorauflösung, unabhängig vom maximalen Detailreichtum eines Bildes ohne Motion Blur. Ist dieser Detailreichtum aus irgendeinem Grund höher (mehr k, mehr Bildrate), so wächst der Unterschied, das wahrgenommene "SchärfeDelta" zwischen unbewegtem Bild und Schwenk, bzw. Bewegung im Bild.



Antwort von domain:

Deshalb sieht man bei Profifilmen Schwenks ja auch selten.
Geht alles in Richtung von Kamerafahrten mit dem Vorteil, dass sich der Vordergrund stärker verschiebt als der Hintergrund, was zwangsläufig eine räumliche Interpretation ergibt.



Antwort von blueplanet:

Vorschlag in Form einer Richtwerte-Formel :-)

Fps = 25*K
Shutter = 1/(50*K)

Ergibt bei 4K also 100 fps bei einer VerschlusszeitVerschlusszeit im Glossar erklärt von 1/200

...was aber auch ganz neckisch ausschaut ist 50fsp mit 1/50. Also relativ hohe Detailauflösung mit einem Touch von 24/25fps ;). Auch hervorragend geeignet, um bei schlechten Lichtsituationen hohe ISO-Zahlen zu vermeiden.



Antwort von Axel:

Bei einem Kameraschwenk wird die Kopfbewegung simmuliert.

Ich weiß, was du sagen willst, aber es ist ungenau formuliert und deswegen im Ergebnis falsch. Genau formuliert müsste es heißen: ein Panoramaschwenk wird vom Zuschauer im selben Sinne verstanden wie das Sich Umsehen in einer natürlichen Umgebung, obwohl dies nach einem völlig anderen Prinzip abläuft.

Über dieses Prinzip brauchen wir nicht mit wilden Behauptungen uns gegenseitig des Irrtums zu bezichtigen, wir können es direkt testen. Ideal ist z.B., wenn du, wie ich, vor einem Desktop-Rechner an einem Drehstuhl sitzt. Der Drehstuhl ist in diesem Versuch jetzt mal der Schwenkkopf.

Natürlich bewegen sich dabei dann die Pupillen des Zuschauers und erfassen einzelne Details im Bild.

Was im Einzelnen beim Sehen, geschweige denn beim Wahrnehmen passiert, ist noch komplizierter, aber dieses "Erfassen" ist verkürzt gesagt ein Hängenbleiben, eine Fixierung an "Motiven", Strukturen, die inhaltliche Einheiten darstellen - Haus, Baum, Auto, so in dem Sinne. Danach scannt das Auge in einem stakkatoartigen Vor-und-Zurück-Schwenk die Aussicht nach dem nächsten Blickfang. Das 360° Panorama ist in Wirklichkeit aus tausenden Abbildern zusammengestitcht.

Selbst bei schnellen Kopfbewegungen arbeiten die Pupillen ausgleichend gegen die Bewegung, um Unschärfen zu vermeiden.

Ausgleichend?
Wenn ich das jetzt so gerade nachzuvollziehen versuche, stelle ich fest, dass ich sofort das Gefühl habe, warte mal, mit dieser Bewegung kann ich meine Umgebung nicht gut erfassen, das ist, um mit dir zu sprechen, Quatsch. Wieso drehe ich nicht gleich den Kopf so, wie es mir mein Kopf vorschlägt, nämlich mit "mehreren Takes"? Im Selbstversuch kommt es mir so vor, als wolle mir mein innerer Cutter einen mittelschnellen 360°-"Schwenk" lieber in einer 5er oder 6er Standbild-Sequenz zeigen. Bei dir / euch?

Unschärfen sind dabei unerwünscht - auch bei schnellen Kopfbewegungen - die Pupillenbewegung wirkt dabei ausgleichend.

Darüber habe ich jetzt ein paar Minuten nachgedacht und es im Selbstversuch nachvollzogen. Es gelingt mir nicht, mir beim normalen Sehen das Begriffspaar Schärfe/Unschärfe überhaupt bewusst zu machen. Das, was ich fixiere, ist automatisch scharf. Was heißt beim natürlichen Sehen Unschärfe? Natürlich kann ich den Fernsehturm am Horizont über meinen Zeigefinger vor der Nase fixieren und vice versa, aber sowas Albernes macht man doch nicht, wenn man sie noch alle hat. sDoF ist Kino-Semantik, nichts, was physiologisches Sehen simuliert. Dito Panoramaschwenks.

Gerade bei Schwenks kennt das Auge eigentlich kein Motion Blur.

Bei Panoramaschwenks kennt es sie nicht, weil es sie gar nicht machen kann. Und bei Verfolgungsschwenks?

Das habe ich vorhin auf der Straße probiert. Eine ältere Dame. Ich fixierte sie. Was geschah mit der Umgebung? Wurde sie unscharf? Verschmiert?

Es ist noch viel wilder. Nichts wird unscharf, aber die Umgebung mutiert zu einer Art als gegeben hingenommener Staffage, die man akzeptiert, aber nicht wirklich "sieht". Das wurde mir schlagartig klar, als ein Mädchen mit einem knallroten Regencape plötzlich an der Dame vorbeiging. Es war nicht durch ein Wurmloch plötzlich in die Szene getreten, sondern hatte sich durch die Signalfarbe im herbstlichen Grau meine Aufmerksamkeit, die willkürlich auf die alte Dame gerichtet war, erkämpft. In diesem Augenblick hatte ich die rote Jacke fixiert, dagegen war ich völlig machtlos. Ich wusste, die alte Dame war noch da.

Für mein Empfinden ist der Motion BlurBlur im Glossar erklärt, der die Umgebung verschmiert und das verfolgte Motiv freistellt zwar nicht physiologisch korrekt, aber psychologisch plausibel. Die Umgebung wird unwichtig.

Ich finde, jeder sollte das mal versuchen und dabei genau beobachten, genau unterscheiden, was er jeweils wirklich sieht.

Die meisten sind sich ja auch der Tatsache nicht bewusst, dass das natürliche Sehen - vom reinen Linsen-Sensor-Apparat Auge her - ständig eine Unschärfe-Dunkelheit-Entsättigungs-Vignette zeigt. Nur ein paar lächerliche Grad unseres Gesichtsfelds können auf einmal scharf, hell und in Farbe erfasst werden. Zum Glück nehmen wir nicht so wahr. Aber auch das kann man leicht testen. Ich weiß, rechts von mir ist das Bücherregal, ich weiß, es hat bunte Buchrücken, aber solange ich stur geradeaus starre, kann ich es nur vage erahnen, es könnte auch eine irgendwie gemusterte Tapete sein, möglicherweise farbig.

Was nun den 60 fps Verfolgungsschwenk von der RED-Seite betrifft, testet bitte mal, ob ihr die Bäume im Hintergrund auch in etwa so seht:

Das Video (benutzt, wie RED empfiehlt, den Download-Button, damit euch euer Browser keinen Streich spielt) enthält keinen nennenswerten Motion BlurBlur im Glossar erklärt, wie ein Einzelbild beweist:

Vielleicht sollte es besser mehr Motion BlurBlur im Glossar erklärt enthalten. Oder wie seht ihr das?



Antwort von domain:

Mehr Motionblur ist m.E. nicht nötig, aber unschärfer könnte der Hintergrund schon sein.
Überhaupt ist die Diskussion um Schwenks ohne Verfolgungsabsicht eher entbehrlich, weil man diese bei Profifilmen ohnehin nur selten sieht.
Geht alles in Richtung von Kamerafahrten mit dem Vorteil, dass sich der Vordergrund stärker verschiebt als der Hintergrund, was eine räumliche Interpretation zulässt.



Antwort von Axel:

Mehr Motionblur ist m.E. nicht nötig, aber unschärfer könnte der Hintergrund schon sein.

Und mir geht's nicht um eine Geschmacksfrage, sondern darum, woher Filmjudder kommt. Sehr betulich macht RED uns vor, wie unser Hirn aus zu wenigen Phasen einfach keine flüssige Bewegung machen kann. Alter Hut, die HFR-Dogmatiker predigen das seit fast 50 Jahren (Trumbulls Showscan war so Mitte 70er, vor ein paar Jahren in Konkurs gegangen).

Es gibt einen weiteren Faktor, der mit vielen oder wenigen Phasen gar nichts zu tun hat und gegen den selbst 120 fps nichts ausrichten: Trackingpunkte für's Gehirn, wo keine hingehören. Falscher Anteil an Motion BlurBlur im Glossar erklärt, falsche Schwenkgeschwindigkeit.



Antwort von Wingis:

Wie ich weiter oben schon geschrieben habe, ist natürlich die Aufzeichnung mit 24 fps nicht der einzige Faktor, der "den Kinolook" ausmacht. Es ist ein Zusammenspiel unglaublich vieler Faktoren von denen die meisten auf dem damals technisch machbaren beruhen. Heute schaut man natürlich, wo und wie weit man die Grenzen überschreiten kann. Für mich zerstören aber eben genau diese Versuche oftmals einen Grossteil des Kino-Feelings. Und wie schon einige hier zuvor ansprachen, kann es doch kein Zufall sein, dass viele Filmemacher, denen ganz andere Möglichkeiten offen stehen, dennoch bei den guten "alten" 24p als Bildfrequenz ihrer Wahl bleiben und Software-Hersteller Plugins kreieren, die diese - technisch schlechteren Eigenschaften - nachträglich auf besser aufgezeichnetes Material übertragen können.

Den Erfolg oder Misserfolgs eines Films kann man sicher auch nicht an der FramerateFramerate im Glossar erklärt festmachen, aber Fakt ist, dass der Film auch gut in der klassischen 24p-Variante lief. Ich habe beide Versionen gesehen (Teil 1) und konnte mich erst im zweiten Durchlauf (24p) überhaupt über verkorkste Figuren und holprige Erzählweise aufregen. Im ersten Versuch hatte ich wirklich zu sehr mit dem "Making-of-Effekt" zu kämpfen, wie ich ihn nenne. Während ich in der HFR-Verison Martin Freeman durch ein neuseeländisches Filmset laufen sah, rannte da in der 24p Version zumindest Bilbo Beutlin durch's Auenland.

Und ja - mich nerven Interpolation, Nachschärfung, Color-Booster, Ultra Deep Black Megaperls Color Oxyclean und diese ganzen Spielereien an den modernen TV-Geräten auch und das erste was ich nach dem auspacken eines solchen Bildserienbetrachters tue, ist diese ganzen Gimmicks auszuschalten. Bis auf - und das wird mir jetzt sicher, selbst ohne Erwähnung eines Markennamens, als Werbung ausgelegt - Ambilight, was ich eine nette Spielerei finde, die zwar kein Mensch braucht, aber tatsächlich den wahrgenommenen filmischen Raum subjektiv vergrößert.



Antwort von dienstag_01:

Die Reduzierung der Ästhetik von Abbildung auf menschliche Wahrnehmung halte ich für eindimensional. Oder anders: die menschliche Wahrnehmung ist gerade NICHT das bestimmende Kriterium für die Bewertung der Funktionsweise einer Bildsprache. Kein Mensch würde sich sonst die Momentaufnahme Foto antun. Und natürlich muss ein Panorama-Schwenk scharf sein, genauso wie eine Kamerafahrt (wenn sie nicht mit Schärfe/Unschärfe spielt). WIE scharf ist eben die Frage, die einige versuchen mit der Orientierung an technischer Machbarkeit zu beantworten, andere, eben Filmemacher, suchen die Antworten in den Weiten (und Tiefen) der Bildgestaltung.



Antwort von domain:

Ein annähernd richtiges Kinofeeling kommt bei mir erst bei den seltenen Projektionen mit meinem 9,5mm Pathe Baby auf.

zum Bild http://rbsc.princeton.edu/pathebaby/sit ... istory.jpg

Wichtig sind hier alle Entfremdungen von einer realistischen Darstellung, als da sind:
1. SW
2. Variable Abspielgeschwindigkeit in Abhängigkeit vom Handkurbelantrieb (dürfte aber real mit weniger als 18 fps aufgennommen worden sein)
3. Unruhiger Filmstand, mit Ausnahme der Texteinblendungen, weil hier der Film für 7 Kurbelumdrehungen still steht und gerne Blasen wirft
4. Jede Menge Staub und Kratzer im Material

Was mir noch fehlt, sind Notlichter bei den Ausgängen, Popcorn mampfende Zuseher mit ihren emotionalen Kommentaren und ein großer Zuseher genau vor mir im flachen muffigen Uraltkino.
Wenn all das fehlt, kann einfach kein richtiges Kinofeeling aufkommen ;-)



Antwort von Axel:

Die Reduzierung der Ästhetik von Abbildung auf menschliche Wahrnehmung halte ich für eindimensional. Oder anders: die menschliche Wahrnehmung ist gerade NICHT das bestimmende Kriterium für die Bewertung der Funktionsweise einer Bildsprache.

Danke. Sehr gut klargestellt.

Ein bisschen anders ausgedrückt, mit einem anderen Schwerpunkt: Bildsprache und Realismus - die der Sinneswahrnehmung nachempfundene Darstellung - bedingen sich nicht nur nicht, ab einem gewissen Punkt behindert das sukzessive Wegfallen verfremdender Elemente sogar die Ausdrucksmöglichkeiten.

Und natürlich muss ein Panorama-Schwenk scharf sein, genauso wie eine Kamerafahrt (wenn sie nicht mit Schärfe/Unschärfe spielt). WIE scharf ist eben die Frage, die einige versuchen mit der Orientierung an technischer Machbarkeit zu beantworten, andere, eben Filmemacher, suchen die Antworten in den Weiten (und Tiefen) der Bildgestaltung.

Ein Panoramaschwenk dient dazu, dem Betrachter eine Buena Vista oder eine Mala Vista vorzuführen. Majestätische Schwere, Schärfe und Glätte der Bewegung sind die erstrebenswerten Merkmale. Ein bekannter Lieblingsfilm iasis ist Lawrence von Arabien, darin gibt es solche Schwenks. Ich zweifle nicht daran, dass sie mit HFR noch sahniger wären, als sie es jetzt schon sind. Aber sie sind jetzt schon ein Genuss, in 24p, wegen der angemessenen Schwenkgeschwindigkeit. Die erwähnte Sahnigkeit ist nett, schafft es aber nicht in den Status einer filmsprachlichen Erweiterung der Möglichkeiten und wird deshalb verschmäht, nicht zuletzt, da sie wg. Intraframe-Kompression im DCP fünfmal soviel Daten erzeugt. Und noch nicht einmal Begeisterung hervorruft, wie es eine so teuer erkaufte ästhetische Verbesserung ja wohl sollte.

Wie domain sehr richtig schrieb, ist ein Panoramaschwenk in Filmen selten, nicht, weil man ihn nicht durchführen kann, sondern, weil er erzählerisch meist nicht effizient ist. Er ist vorwiegend selbstzweckhaft.

Sehr im Gegensatz zu Verfolgungsschwenks. Es gibt noch Erzählschwenks, die man aber ähnlich selten sieht wie Panoramaschwenks. Früher waren sie sehr beliebt, aber sie richten die Aufmerksamkeit des Zuschauers zu stark auf die Kamera. Hitchcocks Rear Window enthält alle Variationen in der hier von mir getimeten*(*falls das wegen einer Werbung nicht geht: zu 1'30" skimmen) Plansequenz. Schon als Jugendlicher (ich noch mit Super 8), als ich den Film zum ersten Mal sah, fiel mir auf, wie sehr alles ruckelte. Und wie kitschig und altbacken der Erzählschwenk wirkte (berühmter Fotoreporter, der sich bei einem Autounfall das Bein gebrochen hat). Aber ich bewunderte, wie effektiv und filmisch er war.

Wie auch immer, es gibt HFR und Konsorten als etablierte Gestaltungsmittel in der Filmsprache bereits, nämlich des Dokumentarfilms. Ein Schwenk in einer Reportage muss nicht sagen, schau her, wie prächtig, er kann sagen, das ist die Mülldeponie Dingenskirchen, und so sieht es hier halt aus, nächstes Bild.

Das ist vielleicht eines der Probleme. HFR ist zu stark mit Non-Fiction verknüpft.



Antwort von dienstag_01:

Sehr schön bildhaft beschrieben. Wie immer ;)
Ich muss ja sagen, dass mich periodisch ruckelnde Schwenks noch nie wirklich gestört haben (im verlinkten Hitchcock-Video geht es mir bissel anders, aber das liegt wahrscheinlich eher an der grottigen Auflösung), Ruckeln was Stoppen oder Hängen suggeriert dann aber schon.
Vielleicht ist mein Gehirn einfach weiter, als das anderer. Oder lässt sich leichter austricksen ;)



Antwort von Frank Glencairn:

Ich hab rear Window mal im Kino gesehen, da ruckelt nix.

Aber wenn ich einen 24p Film auf 29kommairgendwas frames beschleunige, das ganze irgendwie aufnehme, in einen LongGOP CodecCodec im Glossar erklärt quetsche, auf YT hochlade und dann auf einem 60 Hz. Monitor anschaue womöglich schon.



Antwort von dienstag_01:

Na klar, da sind einfach doppelte Frames drin ;)



Antwort von Funless:

Das ist vielleicht eines der Probleme. HFR ist zu stark mit Non-Fiction verknüpft.

Nicht unbedingt, bei Computer-/Videospielen kann die FrameFrame im Glossar erklärt Rate nicht hoch genug sein. Je höher dort diese ist, desto flüssiger die Spieldarstellung desto größere Immersion beim gameplay, desto intensiveres Pseudo-Realitätserlebnis. Sobald die FrameFrame im Glossar erklärt Rate in die Knie geht, es zu ruckeln beginnt, geht die Immersion verloren.

Und wenn man in diesem Kontext bedenkt, dass im Jahr 2016 die Zahl der Videospieler höher ist als jemals zuvor, bedingt durch die stetig wachsende Anzahl der sogenannten "Casual Gamer", kann man wohl schon davon ausgehen dass die allgemeinen Sehgewohnheiten längst bei hohen FrameFrame im Glossar erklärt Raten angekommen ist.

Und vielleicht liegt ja hier der Fehler beim Denkansatz? Dass die HFR Film-Fraktion vielleicht versucht diese offensichtlich eingebürgerte Sehgewohnheit in den Filmbereich zu übertragen?

Ich für meinen Teil denke schon, dass bei Filmen die eine gewisse Computer-/Videospielästhetik vorweisen HFR durchaus Sinn macht. Bspw. bei den kommenden Avatar Fortsetzungen von Cameron.

Aber wie gesagt nur bei solchen Filmen (wenn überhaupt). Doch als Standard in allen Filmen? Vielleicht in 15 - 25 Jahren wenn die zweite Generation der "digital Natives" erwachsen geworden ist.



Antwort von kling:

HFR ist kompletter Mumpitz, die absichtliche Zerstörung von Filmlook. Geeignet nur für Sujets, die bewusst billig aussehen sollen, auch etwas für nerdige Ingenieure und Testbildfilmer. Noch was: Nein, eine "Umerziehung" ist nicemals möglich, da die visuelle Rezeption allein von der Neuronal-Geschwindigkeit des menschlichen Gehirns abhängt. Der cineastisch chronisch überschätzte Peter Jackson ist schlicht auf ein paar Scharlatane hereingefallen.



Antwort von Jott:

Eigentlich nicht. HFR gab es ja nur als 3D-Fassung, damit es empfindlichen Hobbit-Guckern weniger schlecht wird. Es gibt auch 3D-Fassungen in 24p, und die 2D-Releases war immer nur ganz normal in 24p. So schlau war er schon, die Nummer nicht vorzuschreiben, sondern den Leuten die Wahl zu lassen.



Antwort von Roland Schulz:

Jetzt will ich auch mal meinen "persönlich gefärbten" Senf dazugeben:

1.: Ich finde es erstaunlich wie WoWu"s eigentlich hervorragende Darstellung hier ignoriert oder teilweise anscheinend bewusst missverstanden wird: Bei einer hochauflösenderen Aufzeichnung bewegter Motive muss eigentlich zwangsweise auch die Bildfrequenz steigen und die Shutterzeit sinken, wenn Bewegungen nicht in "Unschärfe" untergehen sollen.
Behält man die VerschlusszeitVerschlusszeit im Glossar erklärt bei, wird das Bild zwar bei gleichem Abbildungsmaßstab gleich unscharf (gleicher Kreis an Unschärfe, COC), ein statisches Bild würde bei der höheren Auflösung aber einen größeren Unterschied zum bewegten Bild darstellen als ein mit einer niedrigeren Auflösung aufgenommenes. Dieser jetzt deutlichere Unterschied wird, zumindest bei mir, störend bei der Betrachtung wirken. Glaube dieser Punkt ist noch nicht so richtig aufgezeigt worden.
Nochmal: Wenn die technischen Grenzen nahezu ausgelotet werden haben wir bei einer zweifach so hohen horizontalen wie vertikalen Auflösung auch ein ungefähr zweifach so "detailliertes" Bild bei statischen Motiven.
Behalten wir die Bildwiederholfrequenz und VerschlusszeitVerschlusszeit im Glossar erklärt bei und nehmen dynamische Motive (Schwenks, Bewegungen…) auf, wird sich der "Detaillierungsgrad" sehr stark der Aufzeichnung der geringeren Auflösung annähern wenn nicht sich mit ihr decken. Eine 4K Aufnahme sieht jetzt aus wie eine 2K Aufnahme (oder sogar geringer), der Vorteil ist dahin. Die dynamische Aufnahme stellt so einen großen Unterschied zur statischen Aufnahme dar. Der Zuschauer wird ständig zwischen 2K und 4K "umgeschaltet", was "mich" nervt!

2.: Aus 1. folgt u.A. für "mich", dass ich kaum noch ins Kino gehe. Ich finde in NRW kein Kino, welches meine Qualitätsansprüche oder "Sehgewohnheiten" erfüllt. Die Handlung muss mich schon richtig interessieren damit ich mir so einen bildqualitativen "Schrott" noch antue. Ich sehe nicht nur mangelhaft fokussierte oder mit schlechten Optiken ausgestattete Projektoren, auch die allgemeine Schärfe, die Dynamik oder die Schwarzwerte sind "mir" ein Greul!! Mir fehlt es klar an "Tiefe".
"Ich" bevorzuge klar die Richtung "Videolook", wobei Schatten und Spitzlichter trotzdem nicht clippen dürfen, aber wenn ich in ein schwarzes Loch gucke muss das auch schwarz sein oder zumindest einen hohen Kontrast zur Umgebung darstellen! Bei dieser gegenwärtig teilweise übertrieben flachen Suppe fallen mir die Haare aus!! HDR, wenn es denn im Kino technisch möglich und genutzt wird, könnte "mich" nochmal überzeugen. Zudem sollte die technisch mögliche Auflösung auch annähernd, aber nicht überreizt (Aliasing), genutzt werden.

3.: Shutterzeit gleich halbe Bildwiederholfrequenz mag vielleicht für"s Kino (noch) gelten, da mir keine digitale Projektion bekannt ist die eine Frameinterpolation leistet (ggf. gibt"s sowas aber schon).
Wer heute zuhause noch nen TV ohne Frameinterpolation nutzt hat"s nicht besser verdient, PC- und Mobileuser haben Pech gehabt! Wenn ich in 4K bei 24/25p filme (weil "die (prosumer…)-Technik" einfach nicht mehr hergibt) versaue ich mit 1/48 bzw. 1/50 bei dynamischen Aufnahmen einen Großteil der potentiellen Auflösung bei dynamischen Motiven. "Ich" sehe bei den meisten Aufnahmen daher einen Vorteil in einer deutlich kürzeren Shutterzeit, das "Ruckeln" beseitigt die Frameinterpolation des Anzeigegerätes in den "meisten Fällen" überaus erfolgreich. Aufpassen muss man allerdings schon bei "periodischen" Motiven (sich drehende Räder, Zäune u.ä.).
Bei statischen Motiven spielt die Shutterzeit ohnehin keine Rolle!!

Eine höhere Bildfrequenz würde "ich" in jedem Fall sehr begrüßen, der limitierende Faktor ist nur die zur Verfügung stehende BandbreiteBandbreite im Glossar erklärt der Aufzeichnung und Übertragung.

"Ich" will keinen "Kinolook", ich gehe deshalb kaum mehr hin… (und damit bin ich in meinem Umfeld nicht alleine).



Antwort von dienstag_01:

Interessanter Aspekt, aber:
Wenn man davon ausgeht, dass die Auflösung von 35mm-Film vergleichbar mit 4k ist (zumindest aus der Zeit, als noch nicht durchgehend 2k gemastert wurde), dann müsste man diesen *Schärfe-Umschalt-Effekt* zwischen statischen und bewegten Szenen schon von früher kennen.
Wieso nicht?



Antwort von rudi:


Wenn man davon ausgeht, dass die Auflösung von 35mm-Film vergleichbar mit 4k ist (zumindest aus der Zeit, als noch nicht durchgehend 2k gemastert wurde), dann müsste man diesen *Schärfe-Umschalt-Effekt* zwischen statischen und bewegten Szenen schon von früher kennen.
Wieso nicht?
Vielleicht weil 35mm-Film niemals so scharf war, wie 4K? Höchstens die Korn-Struktur und die bleibt immer "gleich scharf", egal ob Schwenk oder ruhiges Bild.



Antwort von dienstag_01:

Vielleicht weil 35mm-Film niemals so scharf war, wie 4K? Höchstens die Korn-Struktur und die bleibt immer "gleich scharf", egal ob Schwenk oder ruhiges Bild.
Überzeugt mich nicht ;)
Zum einen, was wäre denn das entscheidende Kriterium für die Schärfe/Auflösung von Film, wenn nicht das Korn?
Zum anderen, die *Pixel-Struktur* einer digitalen Kamera bleibt selbstverständlich auch unabhängig der gefilmten Szene gleich.



Antwort von Axel:

Interessanter Aspekt, aber:
Wenn man davon ausgeht, dass die Auflösung von 35mm-Film vergleichbar mit 4k ist (zumindest aus der Zeit, als noch nicht durchgehend 2k gemastert wurde), dann müsste man diesen *Schärfe-Umschalt-Effekt* zwischen statischen und bewegten Szenen schon von früher kennen.
Wieso nicht?

Ein Einzelbild aus einem 35mm-Kinofilm war "Halbformat", aber fast Viertelformat, da nicht 4:3, sondern 17:9 gecroppt. Es hätte sich - bestenfalls - ein 13 x 18 cm Print davon machen lassen, der i.d.R. wohl weniger Gesichtsfeld füllt als eine 15 Meter Leinwand.

Warum es trotzdem größer ging, das liegt daran, dass im Gegensatz zum fixen Pixelraster von digitalem Film bei physischem Film Fotokörner die kleinsten Bildelemente (pixel = picture element) sind. Ihre Anordnung in der Emulsion ist zufällig und in jedem FrameFrame im Glossar erklärt völlig unterschiedlich. Ein Haar von einem Filmkorn Breite, das 24-mal pro Sekunde von anderen Filmkörnern dargestellt wird, ist deutlich besser aufgelöst als in einem Standbild oder in einem digitalen Bild, wo es ein PixelPixel im Glossar erklärt breit ist (wenn überhaupt). Das ist vergleichbar mit der Bandlaufgeschwindigkeit bei analogen Tonbändern oder der höheren Tonqualität von Vinyl-Singles bei 45 UpM statt 33. George Lucas wollte parallel zu seiner - erfolgreichen - Forderung nach besserem Kino-Ton ("THX") auch das Bild schärfer kriegen. Aber nicht durch 70mm, sondern durch Verdoppelung der Bildfrequenz. Ja, HFR hätte analoges Kino schärfer gemacht. Der Zusammenhang bei digitalem UHD-Kino ist NUR durch die bei HFR geringere Bewegungsunschärfe gegeben, während bei analogem Film sogar diese noch durch die Kornstruktur gedithert wurde.

"Ich" will keinen "Kinolook", ich gehe deshalb kaum mehr hin… (und damit bin ich in meinem Umfeld nicht alleine).

Ja, Kino insgesamt ist Retro. Es war nie der Ort für die bessere Schärfe, und heute sowieso nicht mehr.

Was nie aus der Mode kommen wird ist ein wie auch immer geartetes Erzählen von Geschichten in Bildern, VoD, Spiele, VR, wer weiß?



Antwort von Jott:

Interessanter Aspekt, aber:
Wenn man davon ausgeht, dass die Auflösung von 35mm-Film vergleichbar mit 4k ist (zumindest aus der Zeit, als noch nicht durchgehend 2k gemastert wurde), dann müsste man diesen *Schärfe-Umschalt-Effekt* zwischen statischen und bewegten Szenen schon von früher kennen.
Wieso nicht?

Guter Einwand. Die Kombi 24p und hochauflösend gab und gibt es ja schon. 70mm-Film (von Kubricks Odyssey bis Old Shatterhand - yeah!). sowieso IMAX (die "echte" Variante). Hatte immer funktioniert ohne irgend einen Switcheffekt zwischen statischer und bewegter Kamera.

Das diskutierte Problem scheint mir daher nur eine Kopfgeburt zu sein. Bei einem Schwenk - so oder so gruselig, wird in aller Regel vermieden - bricht die Auflösung sowieso immer zusammen, sofern man's nicht absichtlich shuttern lässt - egal ob SD, HD, 4K oder sonst was.



Antwort von blueplanet:

Wenn ich in 4K bei 24/25p filme (weil "die (prosumer…)-Technik" einfach nicht mehr hergibt) versaue ich mit 1/48 bzw. 1/50 bei dynamischen Aufnahmen einen Großteil der potentiellen Auflösung bei dynamischen Motiven. "Ich" sehe bei den meisten Aufnahmen daher einen Vorteil in einer deutlich kürzeren Shutterzeit...

...was heist deutlich? 4K,25fsp=1/100 oder gar 1/200? Dann wird's aber echt "look-technisch". Ich denke, der "Knackpunkt" sind die (um wieder ein harmonischen Bildeindruck + neuzeitliche Detailauflösung hinzubekommen) 25fsp. Für 4K gestaltet sich 50fsp einfach essenziell.

Selbst habe ich mit 4K und 50fsp bei 1/100 in punkto dynamische Aufnahme keine Erfahrungen. Ich denke jedoch, das kommt dem 25fsp bei 1/50 -rein von der "Harmonie" her betrachtet- sehr nah. Halt nur feiner aufgelöst ;).

Meine eigenen Erfahrungen beziehen sich bisher auf 4K mit 25fsp und in der Regel 1/50. Und hier schaut es bei dynamischen Inhalten (z.B. Kamera steht, Auto fährt) so aus, dass der statische Hintergrund wunderbar detailreich ist, aber die Bewegungsunschärfe des Fahrzeugs im Gegensatz zu FHD, nicht wirklich dazu passt bzw. sich mehr oder weniger zusammenruckelt. Sicherlich spielen da noch andere Faktoren hinein (Bandbreite der Aufzeichnung, Sensor, Kamerastandpunkt/Winkel, Geschwindigkeit des Fahrzeugs etc.) - doch dürfte das stets im Hinterkopf zu haben, die meisten Semi-Filmer überfordern. Die Gradwanderung ist einfach zu detailreich. Aber wer gesteht sich das schon gerne ein... ;))



Antwort von dienstag_01:

@Axel
Um deine Aussage zu verstehen: du meinst also, 35mm hat geringere Auflösung, aber höhere Schärfe als 4k?

Wie ist es bei den von Jott beschriebenen 70mm? Gab es hier den beschriebenen *Schärfe-Umschalt-Effekt*?



Antwort von Jott:

Noch ein Grübelbeispiel: TV, Sport, gerne Fussball. Live-TV ist schon seit Erfindung des Fernsehens HFR (so ein uralter Hut ist das!). Erst 576i50, heute 1080i50, also 50 Bewegungsphasen pro Sekunde. Hobbit-Technik. In SD wie in HD. Gibt es einen Wahrnehmungsunterschied zwischen beiden Auflösungen? Oder zu 4K? Schweizer können Fussball in 2160p50 sehen, das müsste ja nach obigen Theorien gruselig sein. Ist es aber nicht, oder?



Antwort von Axel:

@Axel
Um deine Aussage zu verstehen: du meinst also, 35mm hat geringere Auflösung, aber höhere Schärfe als 4k?

Bei größtmöglicher Schärfe (eine Annäherung an einen hypothetisch absoluten Wert, abhängig von optisch-mechanischen Toleranzen) sieht man bei 35mm das Fotokorn, bei Digital das Pixelraster mit bloßem Auge. Das ist ein untrügliches Zeichen dafür, dass entweder das Bild zu stark vergrößert wurde (ob durch Projizieren oder Skalieren ist egal) oder die Auflösung zu gering ist. Auflösung ist relativ zu Größe (und Größe wiederum zum Betrachtungsabstand), Schärfe aber nicht. Auch ein schlecht aufgelöstes Bild, sagen wir Super 8, kann in 15 Metern Breite perfekt scharf wiedergegeben werden, man sähe dann halt rumwirbelnde bunte Bälle (in der Theorie, die Filmlampe müsste dann so stark sein, dass der langsam durch den Projektor ratternde Film wahrscheinlich schmölze, außerdem ist ein ausreichend sauberer Bildstand für diese Vergrößerung schwieriger, siehe o.e. mechanisch-optische Toleranz). Allerdings, bei 50 Metern Abstand des Zuschauers von dieser 15 Meter Leinwand wäre auch die Auflösung wieder okay, geht mal nahe an eine Plakatwand.

Wie ist es bei den von Jott beschriebenen 70mm? Gab es hier den beschriebenen *Schärfe-Umschalt-Effekt*?

Den gibt es wahrscheinlich nur durch zusätzliche Kompression. Klar sinkt die Auflösung bei bewegter Kamera dramatisch, weil alle Details in einer Blur-Suppe verrührt werden. Aber hey, Leute, so ist das Leben! Wenn ihr 1000 Bilder pro Sekunde mit 1/10000 Shutterzeit in 10k auf einer Ultra-Retina-Postkarte betrachten würdet, würden vertikale Linien trotzdem ruckeln wie Hulle, weil euer Hirn anfangen würde zu rauchen, Tiefflieger lässt grüßen.

Jemand, für den bewegte Bilder Bilder in Bewegung sind und keine Stoppt-den-Motion-Blur!-Kalenderbilder, den juckt es nicht, wenn er zum Beispiel in diesem Bild nicht brav jeden Grashalm zählen kann:




Antwort von Funless:

Ich kann dieses ganze Theater um den perversen Pixelporn überhaupt nicht nachvollziehen. Hat für mich den selben Stellenwert wie dieser leidige Zirkus um das Hautton Thema.

Manchmal kommt es mir vor, dass hier offenbar der "Weg" wichtiger ist, als das "Ziel".



Antwort von wüdara:

So nebenbei:
Die "Funktion" wie das "dumme" Hühnervolk seinen Kopf auch in den wirrsten Lagen zu stabilisieren vermag,würde ich mir für ne Steady oder nen Gimbal wünschen:-)
Sieht man auf Axels Beispielfoto wieder sehr schön-Kopf und Kragen trotz schneller Laufbewegung vergleichsweise scharf abgebildet,der übrige Federball trotz gleicher Entfernung zeigt Bewegungsunschärfe.





Antwort von Rudolf Max:

Dialog von gestern Abend in der Stammbeiz:

"Hallo Rudolf, ich komme soeben aus dem Kino..."

"Und, was hast du denn gesehen...?"

"Irgend so ein moderner, totgegradeter Film ohne jedwelche schlaue Handlung..."

"Na, das muss ja unheimlich Spass gemacht haben..."

"Ja, absolut geiler Film... wurde ja schliesslich auch mit 120 Frames gedreht... sehr sehenswert...musst du dir auch antun..."

"Enstschuldige, muss mal eben kurz kotzen..."

Rudolf



Antwort von wüdara:

Ich kann dieses ganze Theater um den perversen Pixelporn überhaupt nicht nachvollziehen. Hat für mich den selben Stellenwert wie dieser leidige Zirkus um das Hautton Thema.

Manchmal kommt es mir vor, dass hier offenbar der "Weg" wichtiger ist, als das "Ziel".

Das schockierende Erkennen der eigenen Unzulänglichkeit bringt den Hang zur nur noch theoretisch/technischen Seite.



Antwort von freezer:

Sehr interessante Lektüre: Interview mit Ang Lee
http://deadline.com/2016/10/ang-lee-bil ... 201836438/



Antwort von Roland Schulz:


Wenn man davon ausgeht, dass die Auflösung von 35mm-Film vergleichbar mit 4k ist (zumindest aus der Zeit, als noch nicht durchgehend 2k gemastert wurde), dann müsste man diesen *Schärfe-Umschalt-Effekt* zwischen statischen und bewegten Szenen schon von früher kennen.
Wieso nicht?
Vielleicht weil 35mm-Film niemals so scharf war, wie 4K? Höchstens die Korn-Struktur und die bleibt immer "gleich scharf", egal ob Schwenk oder ruhiges Bild.

Den Effekt sieht man "selten", weil vieles (kätzerisch "das Meiste"!) in 4K überhaupt kein 4K ist. Warum ist 4K im 2K Downscale so "toll" und "schärfer" als natives 2K? - weil die meisten 2K Kameras auch weiter von der Systemgrenze entfernt sind/waren als es ein 4K Downscale ist.
Mit Oversampling Kameras wie ner 6/8K Red, ner ggf. kommenden 6K FS7 Nachfolge, von mir aus auch ner Samsung NX1 oder besonders einer Sony a6300 kann aber sehr nah an die 4K Systemgrenze kommen. Da sieht man sofort den "Motion Blur" Effekt bzw. eine signifikante Auflösungsreduzierung, wenn man bei ner 1/48s o.ä. die Kamera bewegt. Die Auflösung wird sich bei Bewegung "immer" verschlechtern, eine kürzere Shutterzeit wird diesen Effekt aber verkleinern. Der Nachteil der dabei entsteht ist bekannt (Stakkato, "Ruckeln"...) und ohne Frameinterpolation in der Abspielkette teilweise wirklich nicht schön anzusehen. Wie erwähnt werden selbst mit Frameinterpolation bestimmte Bildinhalte ("periodisch", sich drehende Räder, Zäune...) durch eine kurze VerschlusszeitVerschlusszeit im Glossar erklärt nicht "schöner".



Antwort von domain:

Sehr interessante Lektüre: Interview mit Ang Lee
http://deadline.com/2016/10/ang-lee-bil ... 201836438/

Interessantes Interview.
Ang Lees Ziel waren ja zunächst 60fps in 4K 3D, so wie sie auch Cameron testete, weil 48fps beim Publikum nicht so richtig ankamen, offenbar noch immer zu viel flicker.
Dann kam er auf die risikoreiche Idee mit 120fps, eine FramerateFramerate im Glossar erklärt, wie sie auch bei professionellen Flugsimulatoren zum Einsatz kommt, um ein möglichst realistische Abbild der Realität zu gewährleisten. So nebenbei ist 120 praktischerweise auch ein Vielfaches von 24 und 60.
Die nachfolgenden Probleme waren allerdings beträchtlich. U.a mussten sich die Schauspieler eine andere Spielweise angewöhnen und auch das Schminken erforderte einen neuen Qualitätstandard, bis hin zur Überlegung, überhaupt nicht mehr zu schminken.

Seine Entscheidung für dieses FormatFormat im Glossar erklärt begründete er übrigens so:
"Would I stay in movie land, or move out of movie land? That was a tough decision. A conscious, morality decision. When you watch a film, you feel the flicker, which is severe in 24fps 3D. It is more subtle at 60, but you still know you’re in movie land .."

Und dieses lieb gewonnene movie land wollte er offenbar verlassen und neue Wege gehen.



Antwort von dienstag_01:

Vielleicht sollte man an dieser Stelle mal erwähnen, dass es einen grundsätzlichen Unterschied macht, ob man von 2D oder 3D spricht. Wahrnehmung funktioniert anders, das Gehirn *leistet* anderes.



Antwort von Axel:

Also, wie gesagt, ausgehend von dem Interview, Hintergründen zu der Story des Films sowie am wichtigsten von den verfügbaren Trailern / Featurettes auf Youtube kann ich mir vorstellen, dass dies ein Film wird, der mir gefällt, wenn auch vielleicht leider kein Box-Office-Hit.

Die nachfolgenden Probleme waren allerdings beträchtlich. U.a mussten sich die Schauspieler eine andere Spielweise angewöhnen und auch das Schminken erforderte einen neuen Qualitätstandard, bis hin zur Überlegung, überhaupt nicht mehr zu schminken.

Sehr spannend. Auf Netflix gibt es zur Zeit einen 11-minütigen Kurzfilm in 4k HFR (60fps) HDR ("Dolbyvision, sagt der Abspann) namens Meridian. Näheres hier:


Nun habe ich zwar weder 4k noch Dolbyvision, aber natürlich mehr Hz als Verstand, daher klappt das mit dem HFR, und knusprig scharf ist der Clip auf 1080p1080p im Glossar erklärt auch. Und ich glaube zu verstehen, was das Problem ist. Das wirklich schöne Film-Noir-Set mit der atmosphärischen Ausleuchtung sieht nach Fake aus, nach angestaubtem Wachsfigurenkabinett. Das Schauspiel wirkt wie Schauspiel, wie vom Teleprompter abgelesen oder mühsam auswendig gelernt, die Haut zu zerklüftet. In der Tagszene im Auto sieht man jede Sommersprosse des Fahrers, fast schon eklig. Am schlimmsten aber die digitalen Matte-paintings, das KeyingKeying im Glossar erklärt und die CGI. 90er-Jahre-Niveau.

Seine Entscheidung für dieses FormatFormat im Glossar erklärt begründete er übrigens so:
"Would I stay in movie land, or move out of movie land? That was a tough decision. A conscious, morality decision. When you watch a film, you feel the flicker, which is severe in 24fps 3D. It is more subtle at 60, but you still know you’re in movie land .."

Hm, die Frage ist, ob wir in absehbarer Zeit den Film wirklich in den 120 fps zu sehen kriegen oder bloß in einer konvertierten Fassung. Denn in 60 B/s könnten wir den Film ja dann gar nicht angemessen würdigen.



Antwort von carstenkurz:

Nachdem Sony gegenüber der ISDCF Ende September noch von 3 verschiedenen HFR Kino-Versionen für das Billy Lynn Release gesprochen hatte:

3D/60fps/2k
2D/120fps/2k
2D/60fps/2k

kursiert aktuell die Meldung, dass Sony zumindest für USA kurzfristig ALLE HFR Versionen gecancelt hat und der Film nur in 24fps und 2D in die Kinos kommt. Ausschließlich in 2 speziellen Locations in NY und L.A. soll das Material im Aquisitionsformat 3D/4k/120fps gezeigt werden (auf speziellen Projektionssystemen, über die kein Kino verfügt).
'Kurzfristig' heisst, dass der Film am 11.11. starten sollte...

Wer das oben verlinkte Interview mit Ang Lee gelesen hat, kann sich vorstellen, dass das Produktionsteam über diese Entscheidung des Studios überhaupt nicht amused sein wird, die haben sich offensichtlich wirklich den Arsch aufgerissen angesichts der HFR Ästhetik, und dann das...

Mal sehen, ob sich das Gerücht bewahrheitet, und ob es auch international keine HFR Kopien geben wird...

Sowas könnte HFR insgesamt den Todesstoß versetzen...

- Carsten



Antwort von iasi:

Sehr interessante Lektüre: Interview mit Ang Lee
http://deadline.com/2016/10/ang-lee-bil ... 201836438/

Und dieses lieb gewonnene movie land wollte er offenbar verlassen und neue Wege gehen.

Das ist doch bei dem Thema, der Handlung und dem Hintrgrund nachvollziehbar.
Eben eine künstlerische Entscheidung.
Wer nur Unterhaltung und Märchenstunde im Kino erwartet, wird natürlich enttäuscht werden - der kann dann ja Star Wars anschauen.



Antwort von domain:

Mal sehen, wie qualitativ wertvoll ein 24fps-Ergebnis aufgrund der relativ kurzen Belichtungszeiten bei 120fps aussehen wird.
Normal müsste es ohne hochwertig korrigierende Algorithmen ziemlich shuttern, was ich persönlich allerdings liebe.
Bei einem Schwenk kann das Bild gar nicht genug stottern, weil einem dann nostalgisch bewusst wird, wie das technische Prinzip von Film (= Übertölpeln der Wahrnehmungsphysiologie) eigentlich funktioniert ;-)



Antwort von carstenkurz:

Die werden für die 24fps reichlich motion blur eingerechnet haben. Es ist aber ja ohnehin so, dass keineswegs der gesamte Film in HFR kommen sollte, sondern nur größere Teile bestimmter Szenen. So ähnlich wie man das auch in Saving Private Ryan oder Gladiator gemacht hat. Weiss aber nicht, ob man auch nur überwiegend dieses Material in HFR gedreht hat, oder alles und dann später entschieden.

Als Regisseur würde ich so einem Studio den Laufpass geben. Mag natürlich dennoch sein, dass das eine, wenn auch last-minute, aber doch kooperative Entscheidung war.

Und die Frage bleibt, ob wegen der wieder mal reichlich schlechten Kritiken auf die HFR Ästhetik, oder wegen der technischen Distributionsprobleme so entschieden wurde.

- Carsten



Antwort von dienstag_01:

Es ist aber ja ohnehin so, dass keineswegs der gesamte Film in HFR kommen sollte, sondern nur größere Teile bestimmter Szenen. So ähnlich wie man das auch in Saving Private Ryan oder Gladiator gemacht hat.
Hä? Und dann spielt der Player den Film mit unterschiedlichen Framerates ab? Welcher?



Antwort von carstenkurz:

Nein, technisch würden die Kinoserver in diesem Fall durchgängig je nach FormatFormat im Glossar erklärt 60, 120 oder gar 240 fps abspielen, und das Kino-DCP enthält auch durchgängig diese Bildrate. Kinoserver können innerhalb einer CPL, innerhalb eines Filmes keine Wiedergabebildraten dynamisch wechseln, nur innerhalb separater Programmteile (z.B. Vorprogramm, Trailer, Hauptfilm)

Aber z.B. in 24fps 'Passagen' wären mehrere dieser aufeinanderfolgenden 120fps frames identisch und würden somit einen 24fps identischen Look erzeugen.

A-A-A-A-A-B-C-D-E-F-
---24 fps------120fps

Wobei es eben ggfs. einen Unterschied macht, ob diese frames mal aus einer 120fps Aufnahme extrahiert wurden, oder ob sie mit 24fps aufgenommen wurden. Diese Varianten wird das Produktionsteam sicher alle ausführlich getestet haben. Man kann das wegen der unterschiedlichen Motionblur Anteile nicht einfach so wahlfrei machen, aber größere Segmente wären durchaus zumutbar, das hat man bei Saving Private Ryan oder Gladiator mit der Strobing Optik auch gesehen,

- Carsten



Antwort von Axel:

Da stellt sich doch die Frage, warum man nicht auch für's Kino eine Interframe-Kompression benutzt. Bei 120 fps steckt soviel Redundanz in den Daten! Auffällig ist ja z.B., dass für das Umschalten von 25p auf 50p mit Mpeg4 i.d.R. nur 15-20 % größere Files entstehen.



Antwort von dienstag_01:

Und mit diesen Frequenzen lassen sich Beamer ansteuern?



Antwort von carstenkurz:

Man hat sich für DCI aus guten Gründen sehr früh gegen jeglichen Interframe-Codec entschieden. Da stehen jetzt Richtung 150.000 J2K basierte Server rum. DCI 1.2 auf höhere Bildraten aufzublasen war schon schwer genug. Einen neuen CodecCodec im Glossar erklärt zu etablieren ist unmöglich.
Gibt ja auch keine wirtschaftlichen Gründe dafür, wen interessiert der Bandbreitenbedarf an der Stelle aus Kostengründen? In der Aquisition und Post sind hohe Bildraten noch ein gewisses Kostenproblem, aber in der Distribution ist es egal, ob das DCP auf der Platte 150 oder 500 GByte belegt.

Wobei man bei Billy Lynn ohnehin alle HFR Formate auf 250MBit/s gemaxt hätte. Ja, sogar die 120fps/2D/2k Version. Auch aus Kompatibilitätsgründen. J2K kann das ab.

@dienstag: Ein Großteil der aktuellen Kinoserver und Projektoren kann 120fps/2k (2D). Im Grunde in Vorwegnahme der HFR Vorbereitungen vom Hobbit (48->96) oder Avatar 2 (60->120). Für 120fps in 3D bräuchte man zwei gekoppelte Projektoren. Von Christie gibt es die Mirage-Projektoren, die können 4K mit 120fps. Mit zwei davon könnte man Billy Lynn also im nativen FormatFormat im Glossar erklärt 120fps/4K/3D wiedergeben. Aber das sind keine Kinosysteme und die stehen auch in keinem Kino. Und auch die Zuspielgeräte dafür wären keine normalen Kinoserver, sondern Spezialprodukte. Könnte man also nur für begrenzte Zeiträume bei speziellen Events für Billy Lynn nutzen, wie das jetzt wohl in NY und L.A. gemacht wird.

- Carsten




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Very High Frame Rate
BMPC 4K immer noch nicht verfügbar
VHS ist immer noch nicht tot
frame rate aendern mit transcode ?
ClipKanal: The History of Frame Rate for Film
AviDemux neueste Version 2.6.9 V2 kanns immer noch nicht mit YUY2
GoPro: Auslieferung der Karma-Drohne steht noch immer nicht fest
Erbitte Rat - Kurzfilm (Zielregion BRD, Europa) welche Frame rate?
Windows 10 ist fertig. Aber noch nicht für jedermann
Frame.io iOS App verfügbar für Projekt-Feedback von unterwegs
Avid Pro Tools Sample Rate auf 48 kHz nicht möglich
Pocket 4k - noch immer ...
Noch immer Hakeln in DVB-C
BMPCC immer noch unschlagbar?
Immer noch mit Maßband?
5min Video immer noch 400MB
DVD DL Rohlinge immer noch sch*teuer
Sind die Macpros immer noch günstiger?
Produktvideo Amazon immer noch so miese Qualität?
Immer noch Problem mit Pinnacle PCTV Sat
Nach Erdbeben in Japan: Sonys Bildsensor Fabrik steht noch immer still
Noch immer: Keine Verständigung zwischen TV-Karte und DVD-Recorder
DJI Zenmuse Z30 -- noch mehr Zoom für Inspektionsflüge uä.
Gibt es immer noch Probleme mit Adobe CC 2015 und dem New Mac Pro?
DJI Manifold: High Performance Rechner für Drohnen
Frame.io Integration jetzt auch für After Effects

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen