Logo Logo
/// 

4k: The Expendables 3 used scales, zooms, and repos on 50% of the feature



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum RED EPIC / Scarlet-X / Dragon / Raven-Forum

Frage von iasi:


... as a creative tool to improve the story.

http://www.reduser.net/forum/showthread ... -DISCOVERY

Ja - wer es nocht nicht versucht hat, sollte es wirklich mal nachholen:
4k+ erweitert nun mal die Gestaltungsmöglichkeiten.

Dies ist dann bei einer BMCC nicht anders, wenn man 2,5k-RAW und 1080p-ProRes vergleicht.
Und wenn es z.B. auch nur eine fast unmerkliche Verdichtung durch ein langsames digitales ZoomZoom im Glossar erklärt ist.



Antwort von Valentino:

Das übliche Auflösungs Gesüzel von Reduser.....

Weder technisch noch wissenschaftlich fundiert oder gar eine neue Ansicht.

Bei Action kann das Zoomen ganz hilfreich sein, aber bei einem szenischen Film sollen die DOPs auf ihren Bildausschnitt bestehen und ihn entsprechend wählen.

Man rahmt die Monalisa auch nicht neu, nur weil es der Museumsdirektor gerne so hätte.

Schade das es nur wenige wissenschaftliche Arbeiten über die tatsächliche Farb-Auflösung von JPEG2000 (stark)komprimierten Rohdaten aus Bayer-Sensoren gibt ;-)



Antwort von Frank Glencairn:

Michael Cioni ist so ein elender Schwätzer.





Antwort von prime:

Das ist alles schön und gut solange man am Ende nicht die native Auflösung ausgeben muss und extreme Skalierung verwendet hat.

Hab ich sehr of gemacht mit HDV/DV wo am Ende immer DV ausgegeben werden musste, aber wenn jemand heute das ganze in HDVHDV im Glossar erklärt haben wollen würde dann entweder Unscharfe Szenen (da crop) oder neue Bildeinstellung.

Das ganze "more pixel = more precision"-bla bla geht eben so lange gut solange man von minimalen Skalierungsfaktoren redet und die haben viele auch in SD-Zeiten angewendet (leicht schiefes Bild z.B.).

In welcher Auflösung wurde ursprünglich gedreht und was wird letztlich zu sehen sein?



Antwort von Jan Reiff:

wissenschaftlich nicht fundiert (was für ein Gesülze wieder von diesen Nerds) ...

watch in 4K Geordie Boys

https://www.youtube.com/watch?v=NhGjQ2j ... fke_G2149A

schon scheisse diese Farbauflösung



Antwort von iasi:

@prime

Stimmt schon - nur hat man z.B. bei der BMCC mit 2,5k etwas Spielraum in Richtung HD.

Und wenn man von 5k der Epic kommt, ist eben selbst bei 4k-Ausgabe noch Spielraum.

Zumal gerade bei 4k nicht in jedem Fall ins Auge springt, wenn man mal bis auf 3k hineincropt.



Antwort von iasi:

Das übliche Auflösungs Gesüzel von Reduser.....

Weder technisch noch wissenschaftlich fundiert oder gar eine neue Ansicht.

Bei Action kann das Zoomen ganz hilfreich sein, aber bei einem szenischen Film sollen die DOPs auf ihren Bildausschnitt bestehen und ihn entsprechend wählen.

Man rahmt die Monalisa auch nicht neu, nur weil es der Museumsdirektor gerne so hätte.

Schade das es nur wenige wissenschaftliche Arbeiten über die tatsächliche Farb-Auflösung von JPEG2000 (stark)komprimierten Rohdaten aus Bayer-Sensoren gibt ;-)

Reinzoomen in der Post gab"s auch schon zu Negativzeiten.

Die Vorstellung, dass die digitale Technik eben auch hier noch weitere Möglichkeiten liefert, scheinen dir schwer vorstellbar.
Mal abgesehen von Stabiliserung und Objektivkorrekturen ist eben nun einmal eine z.B. ohne großen Aufwand zu realisierende Möglichkeit, langsam und ruhig das Bild zu verdichten. Wenn ich denke welchen Aufwand dies beim Dreh bedeutet, will man dies mit einer Fahrt realisieren.
Und da ist die Farb-Auflösung nun wirklich das unbedeutenste Problem - zumal ja immer wieder referiert wird, dass die 4k-Auflösung gar nicht wahrnehmbar sei.
Die Wirkung eines sehr langsamen, nur unterschwellig wahrnehmbaren Annäherns an einen Darsteller ist hingegen enorm.

Fotografen nutzen die Möglichkeit, den Bildausschnitt in der Nachbearbeitung zu optimieren übrigens schon immer.
Durch die hohe Auflösung aktueller Kameras, bietet sich eben diese Möglichkeit nun auch im Filmbereich.



Antwort von iasi:

übrigens:
Wer hier rumätzt, sollte doch auch mal damit beginnen, einen kreativen Gedanken auf die Möglichkeiten, die hohe Auflösung bietet, zu verschwenden.



Antwort von Jan Reiff:

PS:

Kameratests, Materialtests usw gehören zum Handwerk.

oder bist Du der Nächste, der mir den Job erklären will ?



Antwort von Jott:

In 2014 braucht man doch keine Red mehr, um für Kadrierungsspielraum etc. in 4K zu drehen?



Antwort von Jan Reiff:

2K is enough



Antwort von Jott:

Als Zielformat wohl schon, sonst wär's im Kino dunkel.



Antwort von Frank Glencairn:

Laut Cioni sieht aufgeblasenes Material sowieso besser aus, weil es "mehr Pixel" sind (sic).

This is one reason why standard definition DVDs look better on HDTV sets than SDTV sets (more pixels on the HD display).



Antwort von Jan Reiff:

und laut Colani sollten Polizisten in blau rumlaufen



Antwort von WoWu:

Die Vorstellung, dass die digitale Technik eben auch hier noch weitere Möglichkeiten liefert, scheinen dir schwer vorstellbar.
Mal abgesehen von Stabiliserung und Objektivkorrekturen ist eben nun einmal eine z.B. ohne großen Aufwand zu realisierende Möglichkeit, langsam und ruhig das Bild zu verdichten.
Das hat leider nichts mit einer optischen Bildverdichtung gemein. Du bekommst ziemlich das Motion BlurBlur im Glossar erklärt um die Ohren gehauen, weil sich das in Abhängigkeit des Shutters zum Pixelabstand entsteht und der ist bei hohen Auflösungen entsprechend klein - und damit das MB relativ gross. Zoomst Du da jetzt rein, vergrössert sich das BlurBlur im Glossar erklärt deutlich. Das wäre bei einer geringeren Auflösung und demselben Bildausschnitt besser. Gleichwohl auch mit einem optischen ZoomZoom im Glossar erklärt, weil die Pixelabstände dann unverändert zum BlurBlur im Glossar erklärt bleiben.

Mit Qualität bezahlter Post-Effekt.
Es sei denn, es tut sich nix in der Szene. Dann klappt das.
Mal ganz abgesehen davon, dass andere ArtefakteArtefakte im Glossar erklärt auch gut sichtbar werden.
Und Bilder ohne ArtefakteArtefakte im Glossar erklärt hab ich noch nicht gesehen.

Es ist immer schlecht, die "technische Maske" vom Bildinhalt zu trennen.
Das sieht man immer irgendwo.



Antwort von iasi:

Ich denke da auch wirklich nur an das langsame, minimale Annähern an einen Darsteller - oder eine sanfte Bewegung.

Auch ein Schwenk kann "Qualität" kosten - und sei es nur, dass bei langer BrennweiteBrennweite im Glossar erklärt sich jede noch so leichte Erschütterung überträgt. Und wenn man es übertreibt, und sich nicht an die Schwenkgeschwindigkeit hält, bekommt man ebenso ein BlurBlur im Glossar erklärt, das die Details weichwäscht.

Aber: Schon 10%-Reinzoomen in einer 10-Sekunden-Einstellung kann eine enorme Wirkung erzielen und einen Dialog in seiner Intensität verstärken.

Eben alles im rechten Maß und der Szene/Einstellung angemessen.



Antwort von WoWu:

Wobei die Bewegungsunschärfe nicht vom Zoomen kommt, sondern fester Bildbestandteil ist und durch das Post-Pro Zoomen einfach nur grösser wird.
Dazu kommt noch, dass auch solche Dinge, wie Rauschen und Kanten sich gegenüber nicht gezoomten Bestandteilen vergrössern und das Korn fällt spätestens beim nächsten Anschnitt auf, wenn man wieder auf das "Normalmass" schneidet.
Solche Post-Effekte bergen immer ein hohes Risiko, dass sie auffallen, speziell bei 4K, weil aufgrund der kleinen Pixels ziemlich viele Kompromisse gemacht werden müssen.
4K klingt immer so toll, birgt aber eine Menge Unzulänglichkeiten, die 2K nicht hat.
Probier es doch einfach mal aus und mach mal ein paar Anschnitte hintereinander ... Du wirst den Unterschied schnell erkennen.
ich wäre da also nicht so euphorisch, was die Verwendbarkeit von Crops angeht.



Antwort von otaku:

PS:

Kameratests, Materialtests usw gehören zum Handwerk.

oder bist Du der Nächste, der mir den Job erklären will ?

totaler scheiss, hoert nicht auf den typ. kameratests oder ueberhaupt irgend ein handwerkliches geschick bei der aufnahme ist total ueberbewertet genau wie licht am set, totaler scheiss.

viele gruesse aus der post, wir wollen ja auch arbeiten ;-)



Antwort von WoWu:

:-)



Antwort von otaku:

@wowu

jan hatte vor einiger zeit mal testaufnahmen der red hier im original gepostet und ich hatte darin etwas rum geruehrt um zu sehen wie beschussfest das ist, weil ich der meinung war das arri 2k material besser aussieht als red 2k material, das war zumindest der ausgangspunkt.
jedenfalls war es so, das das material das jan gedreht hatte natuerlich nicht in 100% aufloesung mit einem 2k runter scalierten mithalten konnte, aber bei etwar 30% verkleinerung von seinem 6k! lappen konnte ich keinen unterschied zu nativem 2k mehr sehen, was ja bedeutet ich hab immer noch fast den doppelten spielraum zum original 2k. das fand ich erschreckend und war fuer mich eine erleuchtung.

das richtig kadrieren natuerlich dennoch von vorteil ist, das ich post auch nicht in 4k machen moechte etc das alles aendert sich dadurch nicht, aber man hat halt die moeglichkeit wenn was schief geht das noch zu retten, weil ich einen schritt zurueck auf dem 4k/6k lappen dann doch noch informationen habe die im 2k einfach nicht mehr da sind.

ob jetzt 100% pixel gehen oder nur 70% das ist mir ja erstmal egal solange ich hoch headroom habe.



Antwort von WoWu:

@ otaku

Solange der Sensor mitwächst, also die identische Pixelgrösse und Objektivauflösung, angepasst auf den grösseren Bildkreis, klappt das auch, weil Du dann ja auch dieselben Aufnahmebedingungen, wie bei 2K hast.
Aber heutzutage wird ja nur noch über Pixelmengen Marketing gemacht und keiner schaut mehr danach, was das eigentlich für das Signal bedeutet.
4K auf kleinem Sensor ist ja heute keine Seltenheit mehr. Und das funktioniert nicht.
Aber wenn der Sensor gross genug ist ... und die andern Parameter auch passen, ist Crop auch machbar. Nur lässt sich das nicht allein an der Pixelmenge festmachen.
Ich verstehe sowieso nicht, warum alle auf den unwichtigsten Wert stieren und die Parameter, die die Bildqualität eigentlich ausmachen überhaupt nicht mehr im Auge haben.
Früher bei den 1/3" Sensoren habe sie alle sie Nase gerümpft und kriegen gar nicht mit, dass manche Kameras heute -durch die hohe spatiale Auflösung- bereits weit drunter liegen und ihnen die Beugungsgrenze bereits die Auflösung wieder versaut. So wird dann aus 4K ohnehin ein 2K Modell, auch ohne Crop.



Antwort von otaku:

ueber kameras im allgemeinen kann ich nichts sagen, dazu kenne ich mich viel zu schlecht aus. ich hab ueber die red und den dragon sensor gesprochen, aber darum geht es hier doch auch oder?



Antwort von WoWu:

Ich hab die Dragon Werte jetzt nicht im Kopf .. kann also sein, dass das passt.
Nur wird ja generell im 4/6K Umfeld gern mit solchen "Vorzügen" argumentiert.
Dabei trifft das für die wenigsten Kameras zu.



Antwort von otaku:

ich hab keine ahnung wie die red dragon unter der haube aussieht, mein test war auch alles andere als wissenschaftlich. ich hab einfach nur probiert in wie weit ich rum scalieren kann bis es zu qualitaetseinbruechen (bzw sichtbaren veraenderungen) kommt, messinstument war also in diesem fall mein auge und da wuerde ich natuerlich auf +/- 5% nicht wetten. der test viel nur deutlich besser aus als ich erwartet haette.

dazu muss ich sagen, das die unterhaltung damals mit dem vergleich arri/red4k anfing, und meine theorie war, das wenn ich einen red pixel mit einem arri pixel vergleiche, oder besser gesagt wenn ich aus 4k red die gleiche aufloesung heraus crop die eine alexa hat, dann sieht die alexa deutlich besser aus. jan meine damals das das moeglich ist aber der dragon nicht nur mehr pixel hat sondern einfach der deutlich bessere chip ist und ich den test mal mit dragon footage machen soll.
und dabei kam heraus, das nach ca. 30% downscaling der 6k bilder - also bei downscaling auf ca 4k danach optisch kein unterschied mehr feststellbar ist. jan sagte damals das sich das mit seinen erfahrungen auch aus 4k zeiten weitestgehend deckt, und das die "tatsaechliche" aufloesung der 4k red in etwar auf arri level lag, etwas drueber anstatt 2,5k arri in der richtung von 3k. aber der dragon wirklich ein grosser schritt in die richtige richtung ist, der meinung bin ich selbst als 4k hasser auch. das ding ist zzt fuer mich die offenbarung. messen hin technik her. da zaehlt fuer mich dann einfach was mein auge sagt.

ich bin aber der meinung was man sehen kann, das kann man auch messen, und ich wuerde gerne wissen warum das so ist.



Antwort von WoWu:

Hast Du den vergleich noch irgendwo auf dem Rechner ?
Interessiert mich.



Antwort von Jott:

Wenn ich denke welchen Aufwand dies beim Dreh bedeutet, will man dies mit einer Fahrt realisieren.

Du wirst doch hoffentlich nicht ZoomZoom im Glossar erklärt mit Fahrt verwechseln?



Antwort von iasi:

Wobei die Bewegungsunschärfe nicht vom Zoomen kommt, sondern fester Bildbestandteil ist und durch das Post-Pro Zoomen einfach nur grösser wird.
Dazu kommt noch, dass auch solche Dinge, wie Rauschen und Kanten sich gegenüber nicht gezoomten Bestandteilen vergrössern und das Korn fällt spätestens beim nächsten Anschnitt auf, wenn man wieder auf das "Normalmass" schneidet.
Solche Post-Effekte bergen immer ein hohes Risiko, dass sie auffallen, speziell bei 4K, weil aufgrund der kleinen Pixels ziemlich viele Kompromisse gemacht werden müssen.
4K klingt immer so toll, birgt aber eine Menge Unzulänglichkeiten, die 2K nicht hat.
Probier es doch einfach mal aus und mach mal ein paar Anschnitte hintereinander ... Du wirst den Unterschied schnell erkennen.
ich wäre da also nicht so euphorisch, was die Verwendbarkeit von Crops angeht.

Ich nutzte diese Gestaltungsmöglichkeiten - und gerade, wenn ich als Ausgabeformat 2k/HD habe, ist es nicht so problematisch, wie es in der Theorie vielleicht erscheinen mag.

3k-Aufnahmen sind für 2k bei Red durchaus noch nutzbar ohne dass es im Vergleich zu 4k direkt ins Auge sticht und irritiertend auffällt. Es geht doch auch immer nur darum, ob die Kamera dem Zuschauer bewußt wird und er aus der Handlung gerissen wird. Wenn ich das Kameragewackele in manchen Filmen und so manche selbstverliebte Kamerafahrt sehe, ist so ein Crop im Vergleich absolut unauffällig.

Der Vergleich zwischen BMCC und Pocket macht es doch auch deutlich:
Der selbe Sensor, aber bei der Pocket eben nur im Crop genutzt. Sollte es wirklich derart stark auffallen, könnte man Aufnahmen dieser beiden Kameras nicht mixen.

Weshalb du zudem immer versuchst, die Auflösung als unbedeutend hinzustellen, leuchtet mir nicht ein. Ich habe den Eindruck, du blendest bei der Betrachtung einige Aspekte aus. Zu sagen, dass mehr PixelPixel im Glossar erklärt auf der gleichen Sensorfläche automatisch schlechter sind, unterschlägt die Weiterentwicklung in der Sensortechnik. Genauso könntest du sagen, das Korn bei 35mm-Negativen ist immer gleich groß.
Zudem stellst du eben auch nicht mit in Rechnung, dass schon allein aufgrund der höheren, zur Verfügung stehenden Rechenleistung, das DeBayering und auch das Skalieren sich verbessert haben.
"Skyfall" wurde z.B. hochgerechnet und Dank der guten IMAX-Software war das Ergebnis gut. Noch besser ist aber eben, wenn man höhere Auflösung als Ausgangsmaterial zur Verfügung hat.

In der Praxis sehe ich eben die Gestaltungsmöglichkeiten, die mir höhere Auflösung bietet. Übrigens auch ein Grund, weshalb ich z.B. 2,5kRAW und nicht 1080p/ProRes zur Aufnahme nutze.

Natürlich gibt"s immer Grenzen und wenn man es übertreibt, fliegt einem das Bild um die Ohren.



Antwort von iasi:

Wenn ich denke welchen Aufwand dies beim Dreh bedeutet, will man dies mit einer Fahrt realisieren.

Du wirst doch hoffentlich nicht ZoomZoom im Glossar erklärt mit Fahrt verwechseln?

Digitaler ZoomZoom im Glossar erklärt entspricht einer Kameraranfahrt und nicht einem optischen Zoom.



Antwort von domain:

Na das wäre ja super, ist aber leider nicht der Fall.
Erst bei einer wirklichen Kamerafahrt verschieben sich Objekte im Vordergrund gegenüber dem Hintergrund, womit ein 3D-Effekt entsteht.



Antwort von Jan Reiff:

da ja alles immer im Handschuhfach bereit liegt ...

HD crop vom Dragon, ... sieht auf jedem HD screen noch mehr als brauchbar aus, ich kann da jeden beruhigen ...

Szenen im youtube Film
Hafen + Ruine
https://www.youtube.com/watch?v=NhGjQ2j ... fke_G2149A



Antwort von sgywalka:

Das Jahr des Herren 14hundert 14!

opss. 2014..is ja egal.

pest=ebola
krieg=krieg
-------------------------------------------------------------------------------------
Wie tief sinken wir jetz bald, dass wir jetz schon da ankommen?
Kommt als nächstes der "BILD-AUS-schnitt-Diktator"?
-------------------------------------------------------------------------------------
Werbespot: "....und zu diesem 4k-Luftpumperl erhalten sie noch den
jahresvorat an bunten, sehr schönene Pixeln, die aus der berühmten
Werkstatt von 10bit-Fälschung kommen, und wenn se jetz soooofort bä....
( er holt Luft)...stellen, dan gibt es noch das 3-fach set-
" DEIN-DOF+FOCUSPULLER-via-gra-er-hält-läääner-still-bis 12K und 120
Minuten!"

bestellen se jetzt....

Karl hainz :: ( mein Asi-ferein-vertretungs-Focus-king)
" scheff--ich krign steifen...!"

öh?

:)



Antwort von sgywalka:

die Werbung geht noch weiter!

Und dazu das SUPERKLEBESET " GALLILEO-4000-kleb die SONNE-fest"
und der Motiv-sucher-waschlappen Fussel 9.0.

.......................tchhhhhhhhhhhhhhhhhhhhhhhhhhhhhh..trrtrtrt....tactac.



Antwort von Jan Reiff:

fhfhfschnenschnnollschneschesdjschniamiamiaschnnsnnfffhghh

meintest Du das ?



Antwort von iasi:

Na das wäre ja super, ist aber leider nicht der Fall.
Erst bei einer wirklichen Kamerafahrt verschieben sich Objekte im Vordergrund gegenüber dem Hintergrund, womit ein 3D-Effekt entsteht.

Und erst bei einem optischen ZoomZoom im Glossar erklärt änderen sich die Tiefendarstellung und die Schärfentiefe.

Optisches ZoomZoom im Glossar erklärt, Kamerafahrt, digitale "Fahrt" und digitales ZoomZoom im Glossar erklärt sind eben unterschiedlich - aber gestalterisch nutzen kann ich eben doch alle 4.

Neulich sah ich eine intensive Einstellung bei der die Kamera sehr sehr langsam auf einen Darsteller zufuhr. Dies ist dann eben auch schon wieder eine enorme Herausforderungen während des Drehs. Es hadelte sich um eine Hollywood-produktion mit üppigem Budget. Eine ähnliche Wirkung wäre eben auch mit einem digitalen ZoomZoom im Glossar erklärt zu erreichen, was dann einem deutschen Budget entsprechen würde.



Antwort von iasi:

die Werbung geht noch weiter!

Und dazu das SUPERKLEBESET " GALLILEO-4000-kleb die SONNE-fest"
und der Motiv-sucher-waschlappen Fussel 9.0.

.......................tchhhhhhhhhhhhhhhhhhhhhhhhhhhhhh..trrtrtrt....tactac.

Warum nur denke ich nei deinen Beiträgen immer öfter an alte Komiker, die ihre besten Tage hinter sich haebn und nur noch alte Witze ständig neu aufkochen. Wenn die kreative Luft raus ist, dann pppppppppppffffffffffffffffffffffffffff ....



Antwort von Jan Reiff:

sgywalkie talkie

der Otto Waalkes von Slashcam



Antwort von WoWu:

@iasi
Den vergleich eines Sensorcrops mit einem Bildschirmcrop kannst Du nicht anstellen, weil bei einem Sensorcrop "lediglich" die Objektivfehler vergrössert werden, nicht aber die sensorsprzifischen Artefakte.
Und die sind, -trotz der von Dir angeführtlichen vermeintlichen Verbesserung der Sensoren- nach wie vor vorhanden. Und viele ArtefakteArtefakte im Glossar erklärt lassen sich auch gar nicht beseitigen.
An der zeitlichen Auflösung eines Objektes auf einer Bildreproduktion hat sich nun mal nichts geändert, weil sie nicht mit einer Sensorentwicklung beeinflusst werden kann.

Ohnehin vergleiche ich keineswegs ältere Sensoren mit Neueren denn die Vergrösserung von Sensorartefakten und deren Sichtbarkeit bei einem Anschnitt betrifft immer nur ein und denselben Sensor und ist lediglich darin bedingt, dass solche ArtefakteArtefakte im Glossar erklärt durch ein mögliches ZoomZoom im Glossar erklärt vergrössert bzw. sichtbar werden.

Aber wie ich oben schon sagte.
Es betrifft in erster Linie die Sensoren, die auf identischer Fläche, mehr räumliche Auflösung unterbringen und weniger die Sensoren, die adäquat die Fläche vergrössern, um mit identischen Pixelgrössen zu arbeiten.
Die Zusammenhänge von Pixelgrösse und Abbildungsleistung sollte Dir ja geläufig sein.
Das es bei einem solchen Sensor möglich ist, steht also ganz ausser Frage.

Meine Einwand richtet sich nur gegen eine derartige Pauschalisierung : 4K=Cropmöglichkeit, wie es nur allzu häufig angeführt wird denn das ist wirklich Mumpitz.

HD crop vom Dragon, ... sieht auf jedem HD screen noch mehr als brauchbar aus, ich kann da jeden beruhigen ...

Da muss man aber schon beide Augen zudrücken.
Speziell auch Bild 2, das schon sehr drastisch die Sensorartefakte zeigt.



Antwort von iasi:

@iasi
Den vergleich eines Sensorcrops mit einem Bildschirmcrop

Wo mache ich den denn?

Du hast natürlich recht, was die Qualitätseinbußen angeht - nur halte ich diese für nicht ganz so dramatisch, wenn man es mit dem Crop nicht übertreibt.

Ich würde die Crop-Möglichkeiten auch nicht auf 4k beschränken, sondern allgemein sagen, dass sofern das Ausgangsmaterial den Spielraum im Hinblick auf das Ausgabeformat bietet, dieser auch genutzt werden kann.

Konkret halte ich einen 2k-Crop bei einer Red nur in wenigen Ausnahmefällen für ein 2k/HD-Endformat für nutzbar.

Bei einer 2,5k-BMCC kann ich wiederum auch mal bis zu (max.) 20% hereingehen, wenn es der Handlung nutzt. Meist genügt schon weniger.

Ich bin da auch ziemlich prakmatisch und wäge den Aufwand beim Dreh und die Qualitätseinbußen bei Nutzung der digitalen Möglichkeiten ab. Wie schon mal oben gesagt: Eine langsame, kaum merkliche Heranfahrt an einen Darsteller über 20 Sekunden würde enormen Aufwand während des Drehs bedeuten - die Wirkung wäre jedoch letztlich dieselbe, wie wenn ich digital von 0 bis 10% ins Bild gehe. Da es keine epische Landschaftseinstellung ist, kann ich dann auch gut damit Leben, dass ich nicht mehr die maximale Auflösung habe - bei 4k+ ist dies dann auch nochmal leichter zu verkraften.

Wenn ich aber 1080p1080p im Glossar erklärt drehe, ist der Spielraum eben doch sehr gering, soll am Ende FHD geliefert werden.

Ach ja - nochmal zu Entwicklungen im Sensorbereich:
Pixelanzahl und Sensorfläche bilden natürlich eine wichtige Relation. Aber wie auch bei Filmemulsionen, bei denen sich die Kornstrukturen über die Jahrzehnte immer weiter verfeinert haben, gibt es im Sensorbereich eine Entwicklung.



Antwort von Jan Reiff:

@iasi
Den vergleich eines Sensorcrops mit einem Bildschirmcrop kannst Du nicht anstellen, weil bei einem Sensorcrop "lediglich" die Objektivfehler vergrössert werden, nicht aber die sensorsprzifischen Artefakte.
Und die sind, -trotz der von Dir angeführtlichen vermeintlichen Verbesserung der Sensoren- nach wie vor vorhanden. Und viele ArtefakteArtefakte im Glossar erklärt lassen sich auch gar nicht beseitigen.
An der zeitlichen Auflösung eines Objektes auf einer Bildreproduktion hat sich nun mal nichts geändert, weil sie nicht mit einer Sensorentwicklung beeinflusst werden kann.

Ohnehin vergleiche ich keineswegs ältere Sensoren mit Neueren denn die Vergrösserung von Sensorartefakten und deren Sichtbarkeit bei einem Anschnitt betrifft immer nur ein und denselben Sensor und ist lediglich darin bedingt, dass solche ArtefakteArtefakte im Glossar erklärt durch ein mögliches ZoomZoom im Glossar erklärt vergrössert bzw. sichtbar werden.

Aber wie ich oben schon sagte.
Es betrifft in erster Linie die Sensoren, die auf identischer Fläche, mehr räumliche Auflösung unterbringen und weniger die Sensoren, die adäquat die Fläche vergrössern, um mit identischen Pixelgrössen zu arbeiten.
Die Zusammenhänge von Pixelgrösse und Abbildungsleistung sollte Dir ja geläufig sein.
Das es bei einem solchen Sensor möglich ist, steht also ganz ausser Frage.

Meine Einwand richtet sich nur gegen eine derartige Pauschalisierung : 4K=Cropmöglichkeit, wie es nur allzu häufig angeführt wird denn das ist wirklich Mumpitz.

HD crop vom Dragon, ... sieht auf jedem HD screen noch mehr als brauchbar aus, ich kann da jeden beruhigen ...

Da muss man aber schon beide Augen zudrücken.
Speziell auch Bild 2, das schon sehr drastisch die Sensorartefakte zeigt.

sorry, wenn ich die Bilder auf dem HD laufen lasse sehe ich diese Artifakte nicht .. wieso sollte der Container z.B. plötzlich schlechter aussehen wie du in deinem Splitscreen ? wir croppen hier im Rechner soweit rein und lassen das Bild weiter laufen auf einem Samsung 50" HD ... sehe da keine Treppchen wie in deinem Splitscreen. Das so keiner nen Film dreht (ausser stilistisch siehe meine REM Post) is klar, aber genau dafür ist es möglich - und Bild 1 - trifft den Focus mehr auf den Punkt sieht hier okay aus, wir reden hier von einem ordentlichen Crop in Folks ... wir haben bei dem Kinofilm letztes Jahr in Istanbul das mehrmals auch eingesetzt und hier und da geile Ergebnisse erzielt (scale in von einem Fahrer im Auto zurück auf eine Kreuzungstotale - und mit Dragon ist das nochmal cooler). Es ist eben ein eigenständiger Style - und wird sicherlich mit noch mehr Auflösung noch interessanter werden



Antwort von Jan Reiff:

stilistisch hat es schon einen EIGENEN Style, den gerade Sensoren wie Dragon gut bedienen können

denke da immer an R.E.M



es sind neu Möglichkeiten, und ja es IST ein "creative tool"

weiss nicht wo Cioni ein Schwätzer sein soll



Antwort von iasi:

stilistisch hat es schon einen EIGENEN Style, den gerade Sensoren wie Dragon gut bedienen können

denke da immer an R.E.M



es sind neu Möglichkeiten, und ja es IST ein "creative tool"

weiss nicht wo Cioni ein Schwätzer sein soll

nettes Beispiel - wenn auch schon wieder etwas extrem.

Ich denke auch, dass Cioni durchaus richtig liegt, wenn er diese Gestaltungsmöglichkeiten beschreibt und nutzt.



Antwort von WoWu:

da core ... prinzipiell ist dagegen nichts einzuwenden, wenn man einen Sensor hat, der präzise genug arbeitet.
Nur zeigt das Beispiel oben schon deutlich, -bei der Vergrösserung- die Limits.
Und das selbst bei einem grossen Sensor. Entsprechend sehen die Bilder aus, wenn man einen der kleineren Sensoren benutzt.

Was den Crop betrifft hattest Du oben den Unterschied zwischen einem Sensorcrop und einer solchen "Vergrösserung" angeführt.
Dazwischen liegen natürlich "Welten" weil Du im Objektivcrop" lediglich die Objektivfehler vergrösserst, in einem solchen Sensor-Vergrösserungsverfahren aber beides, Objektivfehler + Sensor-und Verarbeitungsfehler.

sorry, wenn ich die Bilder auf dem HD laufen lasse sehe ich diese Artifakte nicht .. wieso sollte der Container z.B. plötzlich schlechter aussehen wie du in deinem Splitscreen ?

Na, weil Du ihn vergrössert hast .... mitsamt allen Artefakten, die eine solche Übertragung so mit sich bringt.
Und da sind noch nicht mal die ArtefakteArtefakte im Glossar erklärt drin, die Bewegung im Bild erzeugen.
Wenn die erst mal dazu kommen ...

Solche "Gestaltungsmittel" sollte man schon sehr dezent benutzen und ob sie dann wirklich das schlagende Argument für 4K sein.
Na, ich weiss nicht.



Antwort von Jan Reiff:

nochmal, bitte

das ist von mir gedrehtes Footage, es läuft hier in Motion auf einen HD 50"

ich skaliere "live" rein, so wie die Stills --- also das Original 6k File liegt in einem HD Fenster - output dieses Auschnitts in HD 1080p1080p im Glossar erklärt auf HD Monitor.

Schaut brauchbar aus

hab F5 footage hier, mache dasselbe, weniger details, ... Alexa footage kackt noch mehr ab

ist Fakt, ob man es braucht ist ja was anderes - nur hat der Drachen (und die F65) gute Reserven für diese Stilmittel



Antwort von Jan Reiff:

auch getestet vor einigen Wochen für einen Commercial

der Klassiker. Fahrt auf ein Gesicht ins Auge - mit Dragon konnten wir ordentlich skalieren bis dann eine neue Einstellung vom Makroauge getrackt wurde bis es eine ganze Fahrt ergab

auch hier war der VFX Mann für Dragon mehr als dankbar und war begeistert was möglich ist

in der Fotografie ist dieser Vorteil doch schon lange gegeben - ich hole mir aus 7R Material, mit dem ich viel Food knipse manchmal Ausschnitte raus, was vorher nur mit Hasselblads usw oder analog möglich war.

Gerade die digitale Sensorentechnik ist bei Film immer noch am Anfang, umso bemerkenswerter ist es, was Firmen wie Red in einer so kurzen Zeit an Firmenbestehen auf dem Markt haben ... mit kann die Detailauflösung nicht hoch genug sein, nicht nur aus "Crop" Gründen, sondern weil ich mittlerweile auch das 4K- Schauen schon als Alltag ansehe



Antwort von WoWu:

Das ändert nichts daran, dass es bei gleicher Skalierung einen Unterschied gibt.
Man kann jetzt natürlich beide Auflösungen auf 480 Zeilen skalieren, wie das verzinkte Video. Dann wird der Unterschied natürlich immer kleiner.
Wenn Du also die Videos für's WEB machst und nur Briefmarkengrösse anbietest, dann merkt kein Mensch mehr den Unterschied aber je qualitativ besser das Monitoring wird, umso deutlicher wird der Unterschied sichtbar.
Das der Unterschied vorhanden ist, zeigen die Splits.



Antwort von iasi:

Der Dragon bietet mit seinen 6k noch etwas mehr Spielraum, als das Material von F5 und Alexa, wenn man dasselbe Zielformat nimmt.

Aber bis zur HD-Auflösung wirst du wohl auch nicht reincroppen. Da bekommt man wirklich die Objektivschwächen etc. herausvergrößert.

Einen digitalen "Schwenk" mit 2k-Crop über eine 6k-Aufnahme von einer zu anderen Seite lassen wohl nur sehr sehr wenige Objektive zu.



Antwort von Jan Reiff:

Das ändert nichts daran, dass es bei gleicher Skalierung einen Unterschied gibt.
Man kann jetzt natürlich beide Auflösungen auf 480 Zeilen skalieren, wie das verzinkte Video. Dann wird der Unterschied natürlich immer kleiner.
Wenn Du also die Videos für's WEB machst und nur Briefmarkengrösse anbietest, dann merkt kein Mensch mehr den Unterschied aber je qualitativ besser das Monitoring wird, umso deutlicher wird der Unterschied sichtbar.
Das der Unterschied vorhanden ist, zeigen die Splits.

nochmal: du hast meinen Crop genommen, also den 1080p1080p im Glossar erklärt Ausschnitt aus einem 6K Bild - und dann ?
wieso ist es links verpixelt ? Verstehe Deinen Ansatz nicht. ich sehe hier keine Treppchen auf dem HD, auf dem 4K schon, aber es geht ja gerade um HD / 2K "Master"



Antwort von WoWu:

Ich hab nur Deine beiden angebotenen Bilder auf eine Grösse gezoomt.
Was für Material das ist, weiss ich leider nicht. Aber wenn Du die hier zum vergleich anbietest, gehe ich davon aus, dass es sich um bestmögliches Material handelt.
Nur an solchen Dingen, wie die Vergrösserung der Kantenaufsteilungen ändert auch anderes Material nichts



Antwort von Jan Reiff:

du hast ja den Film gesehen und dadurch auch dass es nur kleine Ausschnitte aus dem 6K Bild sind bzw 4K Master



Antwort von WoWu:

Aber es kommt auf die Reproduktionsqualität an denn den Unterschied in der Auflösungsqualität siehst Du in den Stills.
Wenn das ganze nun im Mäusekino gezeigt wird, wirst Du keinen Unterschied sehen, aber wenn es hochwertig gezeigt wird, wird der Unterschied immer drastischer und die Stills zeigen nur die Differenz auf. Mehr nicht.
Wie Du damit in der Produktion umgehst, ist ganz allein Deine Sache.
Wenn Du also alles verkleinerst, wird der Unterschied geringer, dafür treten ArtefakteArtefakte im Glossar erklärt der Unterabtastung zusätzlich auf.
Nur geht es darum, ob es in einem solchen Sensor-Bild Crop Unterschiede gibt oder nicht. Und wie man sieht, gibt es sie.
Ob sie in einem Video nun unbedingt auffallen, hängt von andern Kriterien ab.



Antwort von Jan Reiff:

ein Beispiel

der Regisseur will, dass ich ihm nen Typ zeige, der auf diesem Kran steht

wir haben nur diese Totale (sample anbei , Screenshot aus youtube)

man sagt dann, Du hast nicht mehr alle klar.

aber was hole ich noch raus.

Also, Redcine , 6K Original, ich hole mir diesen Ausschnitt und es endet als HD Master / 2K ...

das bekomme ich dann, zumindest hier bei uns

interessant wird es werden, wenn das Modul kommt und man mal ohne OLPF die Dinge betrachten kann - schon die Dragon Monochrome ist krass in der Detailauflösung



Antwort von Jan Reiff:

Aber es kommt auf die Reproduktionsqualität an denn den Unterschied in der Auflösungsqualität siehst Du in den Stills.
Wenn das ganze nun im Mäusekino gezeigt wird, wirst Du keinen Unterschied sehen, aber wenn es hochwertig gezeigt wird, wird der Unterschied immer drastischer und die Stills zeigen nur die Differenz auf. Mehr nicht.
Wie Du damit in der Produktion umgehst, ist ganz allein Deine Sache.
Wenn Du also alles verkleinerst, wird der Unterschied geringer, dafür treten ArtefakteArtefakte im Glossar erklärt der Unterabtastung zusätzlich auf.
Nur geht es darum, ob es in einem solchen Sensor-Bild Crop Unterschiede gibt oder nicht. Und wie man sieht, gibt es sie.
Ob sie in einem Video nun unbedingt auffallen, hängt von andern Kriterien ab.

wie gesagt, ich gehe jetzt von einem 2K / HD Master aus

das das Ganze auf 4K anders ausschaut, habe ich ja gesagt - aber der Trend, den Sony und Red vorgeben, mehr Auflösung, bietet eben mehr Spielraum, ob man es nutzt, ist eine andere Geschichte ... denke keiner wird das große Bestreben haben, dieses Kreuz vom Kran in Vollformat skalieren zu wollen - aber wie bei Expendables eingesetzt ist das alles keine Spinnerei oder Geschwätz



Antwort von WoWu:

Ich weiss ja, was Du damit sagen willst, aber ein solches Experiment müsstest Du nun mal gegen ein optisches ZoomZoom im Glossar erklärt stellen, was ja eine identische Wirkung hätte, um Vergleiche zu ziehen.
Wenn es nur darum geht, schlechte Szenen Vorbereitung zu kompensieren, ist so etwas sicher eine Methode aber vom qualitativen Standpunkt her sicher nicht die Beste.
Für solche Gag-Filmchen, wie verlinkt, ist das auch sicher alles möglich und für solche Qualitäten, wie in dem Fischen gezeigt, wäre wahrscheinlich nicht mal ein Dragon erforderlich.
Aber für hochwertige Produktionen muss man schon ziemlich genau hinschauen, was noch reicht und was nicht mehr.
Wie gesagt ... es gibt auch optische Methoden, solche Kranbeispiele zu managen. Und ich tippe mal drauf, dass die Qualität besser wird.

wie gesagt, ich gehe jetzt von einem 2K / HD Master aus

das das Ganze auf 4K anders ausschaut,
Das ist ein Irrglaube, denn Du hast es mit derselben Pixelgrösse in der Darstellung zu tun. Lediglich die Schirmfläche ist 4x größer aber der Bildpunkt ist genauso gross wie in HD.



Antwort von WoWu:

@ Jan

ich würde aber auch dieses kleine Experiment hier nicht so hoch bewerten wollen. Denn richtiger ist es, das mit originalmaterial zu machen. Deswegen hatte ich otaku oben gefragt, ob er seinen Test noch hat, denn ich gehe davon aus, dass er es sehr viel substantieller angegangen ist und ganz sicher auch noch sehr viel genauere Ergebnisse hat.
Nur dass man Sensorflächen in der Post nicht beliebig vergrössern kann, ohne sich die bekannten ArtefakteArtefakte im Glossar erklärt einzufangen, dürfte unstreitig sein.
Frage ist eben immer nur, wie man damit umgeht und ob man sie irgendwie kaschieren kann oder bis wohin man sie noch tolerieren mag.



Antwort von Jan Reiff:

ich habe hier einen HD Schirm, und einen riesigen 4K Screen eines Kollegen

auf diesem 4K sieht es bescheidener aus als auf dem HD, aber immer noch

ich setze 4K Screens nicht mit 50"Zoll gleich, sonst hat 4K für mich keinen Sinn. Size does matter

das wir allg hier nicht davon reden, dass dies einen optischen ZoomZoom im Glossar erklärt oder eine optische Nahe ersetzt ist ja klar, aber es ist ein nice to have, in Actionszenen durchaus stilistisch einsetzbar, ohne dass man es als Fehler ansieht - diese extremen Crops dienen nur der Veranschaulichung - und die Strassenschilder sind auf einem HD Schirm von 50" noch gut.

Mehr gibt es für einen Zuschauer nicht zu "sehen"

wenn ich aus Dynamikgründen nochmal in der Post bei einer Verfolgung von dem Autoreifen aufziehen kann ist es cool, wenn es mit hohem ShutterShutter im Glossar erklärt gedreht wirkt es wie ein Stilmittel. habe das oft genug gemacht und auf großen Screens sah es top aus, mit Dragon nochmal besser.



Antwort von otaku:

oki - sorry ne hab das original file nicht mehr.
ihr geht aber falsch an die sache ran.

jan koenntest du bitte mal ein orinal frame posten in original 6k groesse, ohne crop oder rescale.

wir vergessen jetzt mal das debayering vom original, das verbesser die qualitaet zwar noch ein wenig, aber jpg wird nicht massiv abweichen.

poste doch den hafen bitte nochmal in voller aufloesung. dann baue ich das schnell nochmal nach und erklaere den gedanken dabei, das hab ich offensichtlich nicht so erklaert das man das auch versteht.



Antwort von Jan Reiff:

@ Jan

ich würde aber auch dieses kleine Experiment hier nicht so hoch bewerten wollen. Denn richtiger ist es, das mit originalmaterial zu machen. Deswegen hatte ich otaku oben gefragt, ob er seinen Test noch hat, denn ich gehe davon aus, dass er es sehr viel substantieller angegangen ist und ganz sicher auch noch sehr viel genauere Ergebnisse hat.
Nur dass man Sensorflächen in der Post nicht beliebig vergrössern kann, ohne sich die bekannten ArtefakteArtefakte im Glossar erklärt einzufangen, dürfte unstreitig sein.
Frage ist eben immer nur, wie man damit umgeht und ob man sie irgendwie kaschieren kann oder bis wohin man sie noch tolerieren mag.

Klar, aber der Ausgang war ja wie gesagt ein Actionfilm, bei dem die Post-Supervisor anscheinend ohne großes Murren fröhlich hin und herskaliert haben. Ich habe den Film gesehen und er sah gut aus, Ballerkino, es rummst und bumst - okay - mir ist nicht aufgefallen dass im Bild (nachträglich) rumgezoomt wurde. ich habe mit Dragon Makros gedreht von lieben Garten-Viechern, und dann nochmal ordentlich Spielraum gehabt ohne dass es weh tat und aus dieser Fliege wurde eben ein Godzilla Monster, schon im nativen Makro, aber was dann ging aus dem 6K File war nochmal enorm. Zumal der OLPF der Dragon weniger "verwäscht" als noch von der MX.



Antwort von Jan Reiff:

oki - sorry ne hab das original file nicht mehr.
ihr geht aber falsch an die sache ran.

jan koenntest du bitte mal ein orinal frame posten in original 6k groesse, ohne crop oder rescale.

wir vergessen jetzt mal das debayering vom original, das verbesser die qualitaet zwar noch ein wenig, aber jpg wird nicht massiv abweichen.

poste doch den hafen bitte nochmal in voller aufloesung. dann baue ich das schnell nochmal nach und erklaere den gedanken dabei, das hab ich offensichtlich nicht so erklaert das man das auch versteht.

bin nicht merh im studio
kann dir später diese hausruine posten, die hab ich im handschuhfach sogar als r3d



Antwort von WoWu:

@otaku

Streng genommen kannst Du das nur mit einem (oder mehreren) echten Frames im NLE machen, weil jedes andere Grafikprogramm nicht mit denselben Algorithmen arbeitet und eigentlich wenig interessiert, was ein Grafikprogramm daraus macht sondern lediglich, was mein Videoworkflow daraus erstellt.
Ergebnisse von Grafikprogrammen sind z.Tl. drastisch unterschiedlich.
Daher wären ein paar Frames, die man in ein NLE einladen könnte der richtige Ansatz und auch die skalierung dort vorzunehmen.



Antwort von iasi:

Ich weiss ja, was Du damit sagen willst, aber ein solches Experiment müsstest Du nun mal gegen ein optisches ZoomZoom im Glossar erklärt stellen, was ja eine identische Wirkung hätte, um Vergleiche zu ziehen.
Wenn es nur darum geht, schlechte Szenen Vorbereitung zu kompensieren, ist so etwas sicher eine Methode aber vom qualitativen Standpunkt her sicher nicht die Beste.
Für solche Gag-Filmchen, wie verlinkt, ist das auch sicher alles möglich und für solche Qualitäten, wie in dem Fischen gezeigt, wäre wahrscheinlich nicht mal ein Dragon erforderlich.
Aber für hochwertige Produktionen muss man schon ziemlich genau hinschauen, was noch reicht und was nicht mehr.
Wie gesagt ... es gibt auch optische Methoden, solche Kranbeispiele zu managen. Und ich tippe mal drauf, dass die Qualität besser wird.

wie gesagt, ich gehe jetzt von einem 2K / HD Master aus

das das Ganze auf 4K anders ausschaut,
Das ist ein Irrglaube, denn Du hast es mit derselben Pixelgrösse in der Darstellung zu tun. Lediglich die Schirmfläche ist 4x größer aber der Bildpunkt ist genauso gross wie in HD.

Ein optisches ZoomZoom im Glossar erklärt hätte eine andere Bildwirkung.
Und in der Praxis sind eben auch hochwertige Produktionen limitiert, was Zeit und Material betrifft. Ein kurzer digitaler Ransprung kann einen großen Unterschied im Ergebnis machen, auch wenn es nur wenige Bilder sind, aber während dem Dreh fallen diese wenigen Fames dem Umbauaufwand zum Opfer.

So sanft wie in der Post bekommt man zudem während des Drehs manche Bewegung nur sehr schwer hin.



Antwort von iasi:


Nur dass man Sensorflächen in der Post nicht beliebig vergrössern kann, ohne sich die bekannten ArtefakteArtefakte im Glossar erklärt einzufangen, dürfte unstreitig sein.
Frage ist eben immer nur, wie man damit umgeht und ob man sie irgendwie kaschieren kann oder bis wohin man sie noch tolerieren mag.

ja - es ist immer ein Abwägen - eine gestalterische Möglichkeit bietet sich jedenfalls.

Und mit gutem 6k-Ausgagsmaterial hat man eben mehr Spielraum, als mit HD-Aufnahmen, wenn HD am Ende herauskommen soll.



Antwort von otaku:

@wowu

das stimmt 100% klar ein r3d file waehre mir am liebsten aber meine post software kann auch ein einzelbild verarbeiten, ich bin mir sicher deine auch, schau mal nach ;-)

ich will nur verdeutlichen, das euer workflow nicht richtig ist, dazu reicht mir auch ein jpg auch wenn es im ergebniss leicht abweichen wird.

lass uns das gleich testen wenn jan zu hause ist.



Antwort von WoWu:

Nein, das ist schon klar es war auch nur die Verdeutlichung, dass beispielsweise eine Kantenaufstellung, die mindestens 1 PixelPixel im Glossar erklärt pro KanteKante im Glossar erklärt haben muss (meistens hat sie mehr), bei Faktor 4 dann doppelt so breit (hoch) wird und selbst bei Unterabtastungen des 6K Materials proportional die ArtefakteArtefakte im Glossar erklärt zum Nutzbild ansteigen, sodass der Unterschied in den Artefakten sich vergrössert.

Dennoch bleibt es eine Frage, was man im Bild noch tolleriert.
Es heisst also nicht, dass man es nicht nutzen kann, zumal der Dragon mit knapp 5µ und einer optischen Anforderung von 100 Lp/mm ja noch ganz manierlich daherkommt.
Andere Sensoren sind da viel zickiger.



Antwort von Jan Reiff:

R3D "s ...

https://www.wetransfer.com/downloads/0d ... 106/3fe7ec

ohne gewähr (!!)

blind schnell raus exportiert, wir haben zum teil SCHNELL und dreckig gedreht (an, roter knopf und wieder tschüss) um wieder wegzukommen, die Gegend da ist so lala um länger mit teurem Equipment sich breit zu machen, zumal einige "zuschauer" kamen und dazu die nacht ... bilder wirken wesentlich heller als es war ...



Antwort von Jan Reiff:

übrigens net von "zuhause" geschickt

die viel verschmähte kleine Lacie SSD tb2 im handschuhfach mit macbook pro + vodafone stick

Handschuhfach, ihr versteht ...

geile Sache

Feuer frei



Antwort von iasi:

R3D "s ...

https://www.wetransfer.com/downloads/0d ... 106/3fe7ec

ohne gewähr (!!)

blind schnell raus exportiert, wir haben zum teil SCHNELL und dreckig gedreht (an, roter knopf und wieder tschüss) um wieder wegzukommen, die Gegend da ist so lala um länger mit teurem Equipment sich breit zu machen, zumal einige "zuschauer" kamen und dazu die nacht ... bilder wirken wesentlich heller als es war ...

und wie weit würdest du da reingehen?



Antwort von Jan Reiff:

für mich stellt sich die Frage auch selten, eine Konzentration auf die Schilder rechts funzt bei HD / 2K noch ohne dass es wirklich schmerzt.

ich schaue das nicht auf PC Monitoren an sondern auf HD TV bzw Samsung 4K ...

für das ultimative crispe bild hätte ich ggf noch hier und da die blende schliessen können

ab f4 gerade bei totalen verliert es sich etwas bei den red primes wenn man pixelpeeping machen will

ne sorgfältige und dezente nachschärfung bringt auch einiges, red raw war schon immer soft im 1:1

bei dem kran im gegenlicht finde ich die details im zaun und an dem treppengeländer schon very nice, das sind ja alles keine super optimalen set up"s, ist ja wie hier schon ein vollprofi gesagt hat nur ein ganz unnötiger test

mit DEB on off sieht man auch dessen funktion, hier jetzt nur sehr leicht

nochmal nen spürbaren tick knackiger und feiner kommt alles mit ADD, aber dafür müsste ich jetzt 3-4 frames rausrendern, maybe later



Antwort von Jan Reiff:

Lord Helmchen, ...

das ist so die Schmerzgrenze bevor es dann auch pixelt

wobei der Schärfepunkt doch eher rechts liegt und da ist noch viel Spielraum wenn man sich das jpeg anschaut und mal reinzoomt

jo mei, is ne coole Mühle der Drachen, und in 5 Jahren lachen wir sowieso über diese Auflöung



Antwort von otaku:

oki, so ich hab mal wieder in den bildern rum geruehrt.
diesmal musste ich leider die sache etwas anders angehen als beim letzten mal, weil ich zu hause noch nicht wirklich auf einen nativen 6k workflow eingestellt bin (schande ueber mich), und dadurch haben sich jetzt auch ein paar effekte ergeben, die entweder auf meine unzulaenglichkeit zurueck zu fuehren sind, oder darauf, das das red cine tool da unter der haube irgend was veranstaltet was in richtung "creative interpolation" geht. das werde ich mir in den naechsten tagen noch genauer ansehen.
jedenfalls musste ich mir die augen reiben, weil das ergebniss diesesmal noch erschreckender ausgefallen ist als beim letzten mal.

jetzt mal zu den details und wie ich vorgegangen bin.

dummerweise (also dumm fuer mich) hat jan seiner dragon ein update verpasst, das dumme daran fuer mich ist, ich kann die files mit nuke nicht mehr nativ lesen, auch das update auf nuke8 hat da nicht weiter geholfen, laut foundry ist der bug gefixed, bei mir ist aber dieses bugfix nicht angekommen. mein viewer ist leider schwarz. davinci und scratch play koennen die bilder zwar einwandfrei lesen, allerdings bekomme ich die da nicht in voller aufloesung raus, weil es ja 6k ist und resolve light bei uhd die bremse zieht.

soweit so bloed. also hab ich das red cine mal runter geladen. ich hatte die letzte version vor ca 8 jahren mal installiert und fand das kotzig, da hat red aber inzwischen richtig viel arbeit investiert und es lacht mich heute total an. es ist wirklich geil und macht einen sehr guten eindruck.
leider kann ich es null bedienen, aber das wird sich in den naechsten tagen aendern. das erste was mir aufgefallen ist, das hat jetzt mit unserem thema nicht so viel zu tuen aber ich will es dennoch sagen, der dynamikumfang des red footage ist der OBER HAMMER!!! obwohl der himmel ja sehr ausgebrannt scheint, das kann ich so weit herunter graden (also nur luma!) bis der himmel platsch blau ist und jedes feinste woelkchen wieder sichtbar wird. das haut mich bei so einer aufnahme die ja tendenz ueberbelichtet ist voll aus den socken, aber wie auch immer, darum gehts ja gerade nicht.

ich hab also das file mit hoechster debayering qualitaet aus dem red cine in voller aufloesung 6144x2592 als openexr raus exportiert und dann ins nuke geschubst.

jetzt hab ich ein setup gebaut ohne zu gucken was passiert, sondern einfach mit den werten meines letzten tests also original downscale auf 70% (also ca 4k) und daneben ein downscale auf 30% (also ca hd).
wie erwartet, siehe anhang, ist die schaerfe in beiden bildern identisch, gerade an den streben oder den kaputten fensterscheiben ist das ja sehr gut zu sehen. das einzige mini detail was nicht matched ist der noise im schwarz. aber da finde ich, das da die kirche im dorf bleiben muss um es mit unseres kanzlers worten zu sagen, weil das bild ja tatsaechlich in den schatten geliftet ist, wenn ich die wirklich auf den nullpunkt ziehe (also ohne die zu crashen!) ist das noise nicht mehr vorhanden, und entsprechend der letzte feine unterschied auch nicht mehr da.

ok, das war der versuch ohne sinn und verstand, jetzt hab ich das setup mal kopiert und nochmal skaliert, weil ich wissen wollte, ob ich wie beim letzten mal wieder bei ca. 70% downscale lande, oder ob die kombination aus red update und conversion in red cine zu anderen ergebnissen fuehrt als vor einigen wochen. das ergebniss sieht man im 2ten anhang.
ich habe also das 70% bild wieder hoch scaliert richtung original aufloesung. bei 100% hab ich dann aufgehoert, weil ich da wirklich fast keinen unterschied feststellen kann. die schaerfe, das "antialising" an den streben, die details in der scheibe, das alles hat fuer mein auge die fast gleiche schaerfe wie das hd bild. also selbst bei 100% finde ich das total vertretbar. ein unterschied ist da, aber mini mini mini. muesste man jetzt wieder genau testen wie weit man zurueck muss bis der unterschied total verschwindet aber ich glaube 15-20% kleiner werden jetzt inzwischen reichen. das update hat es aus meiner sicht also gebracht.

das einzige was mich bei dem test jetzt verwundert hat ist das mein ergebniss das ich aus dem red cine raus exportiert habe nicht identisch zu der darstellung im red cine aussah. da moechte ich technisches versagen meinerseits nicht ausschliessen, dem muss ich noch mal genau auf den grund gehen. das andere ist, ich habe das gefuehl, aber das ist tatsaechlich nur ein gefuehl und da kann ich zzt noch nicht verbindlich sagen ob das tatsaechlich stimmt. aber das renderergebniss aus redcine siehr fuer mich aus als waehre da nicht nur ein debayer unterwegs sondern auch eine interpolation die dem bild details/schaerfe hinzu zu fuegen versucht. wenn das so ist, dann ist das natuerlich fuer die abbildung des originals nicht wirklich hilfreich, in der praxis aber durchaus ein brauchbarer effekt. aber da will ich wirklich nicht ausschliessen das ich da total daneben liege und einfach nur eine einstellung falsch habe bzw mein auge mich einfach in die irre fuehrt.

jedenfalls wie auch schon beim letzten test, red ist (inzwischen) voll geil, beide daumen hoch.

was ich immer noch sehr sehr gerne testen wuerde ist dragon bluescrenn/greenscreen material.



Antwort von otaku:

attachments vergessen



Antwort von otaku:

ja ganz grosses tennis, wenn man einen vergleich raus rechnet hilft natuerlich auch die gleiche farbaufloesung.
hier dann das 100% bild nochmal richtig



Antwort von Jan Reiff:

;-)

das die Dragon nicht ultraclean ist ja bekannt, aber macht generell bei optimaler Entwicklung und DEB on usw und mit leichtem NR keine Probleme

ich schicke dir lieber nicht 3frames von einem Bild, bei ADD export rastest du dann aus vor Freude heh heh

das ist dann wie eine 5 Sterne Day Spa Luxus Behandlung fürs Raw: NoiseNoise im Glossar erklärt komplett weg und noch feiner Details



Antwort von Jan Reiff:

Dynamik ist auf einer Ebene mit Alexa und F65, ja

wenn ich alle Tricks anwende (wie ADD) kann ich mehr aus den Schatten rausholen beim Drachen, wobei mein FavoritenTool weiterhin HDR ist in Extremsituationen, 1-2 stops merkt man nicht bei Motion und 1-2 stops mehr sind eben 1-2 stops mehr, so dass wir hier über 15 Blenden DR haben die brauchbar (!) ist - das ist das Entscheidende.

Wie man zum Ergebnis kommt ist egal , interessiert weder Kunde noch Zuschauer. Gerade für Werbung, bei der man um die 30 Sekunden am Ende rendernrendern im Glossar erklärt muss, ist sowohl ADD als auch HDR kein Problem vom Aufwand.
Am Ende steht dann das aktuell beste digitale Filmbild.



Antwort von otaku:

hat hdr nicht einen zeitversatz? wie kann man das bei bewegungen nutzen?
ich dachte das ist ehr fuer photos oder so



Antwort von Jan Reiff:

HDR macht 2 "Tracks"

also z.B. 1/50 und 1/200

bis 2 stops ist das so gering bei Motion, dass ich es fast kaum sehe auch wenn ich es weiß, bei ganz schnellen Bewegungen eher nein, aber bei allem was in Normalgeschwindigkeit läuft siehst du nix - wundert mich dass es selten eingesetzt wird, ist cooles tool

house of cards wurde komplett hdr gedreht

oder du willst eben den himmel behalten und die schatten besser belichten (Dragon braucht etwas mehr puder dort im dunklen) dann eben fröhlich die blende dazugeben, denn schon diese eine blende kann beim Drachen den noisefloor im schatten deutlich verbessern - ist die MX oben einfach weggerissen, ist es jetzt unten rum mit dem noise - nur zum vorteil, der verschwindet - deshalb müssen viele kapieren, dass Dragon NICHT MX ist)



Antwort von iasi:

am Kran kann man schon auch das Limit erkennen - da vergrößert man eben die Objektivschwächen heraus.



Antwort von Jan Reiff:

naja, volles Gegenlicht bei nicht mehr gerade optimalen Lichtbedingungen, wie gesagt, da haben die Jungs hinter uns im Wohnwagen schon das Licht angehabt ... dafür sieht das Original, v.a. auf nem 4K Samsung immer noch brachial aus - muss am Ende weicher gegradet werden, ist ja auch ein fahles Gegenlicht - redlogfilm und dann leichtes Grading, passt ...
wirklich interessant wären mal die neuen Schneider, hoffe Ketch Rossi kommt bald mal durch mit seinem Set.

hab ähnliche Situationen mit anderen Mühlen gedreht, und wenn überhaupt packts die F65 oder Alexa XT auf diesem Level, ... nur eben für das doppelte an Kohle ... für mich als Produzent der sein Zeug kauft ist die Entscheidung da immer recht einfach gewesen.
die F55 würde mich mal interessieren, denke wir werden mit der Mühle da nochmal einen 1:1 Vergleich machen, ist ca gleiche Preisklasse, was ich aber jetzt schon sagen kann, ist dass die Dragon geilere Farben macht ...



Antwort von Jan Reiff:

das Kranbild ist auch auf den Himmel belichtet, trotz der hohen DR ist es eben dann doch eher ein Scherenschnitt, und dann sieht es wieder gesund aus, aber feinste Drahtseile sind sauber gezeichnet

mit den neuen SSD wäre noch weniger KompressionKompression im Glossar erklärt möglich btw

so oder so, wenn ich den 4444 prores in 4K auf dem 4K Samsung anschaue geht draussen eine Sternschnuppe runter - das ist aktuell state of art, und wenn ich bedenke dass wir am Anfang sind in der Entwicklung (was sind schon 10 jahre) dann frohe Ostern ...

auch wenn es einigen nicht gefällt, hat Red mit dem Dragon Sensor nen Wurf mit Schmackes hingelegt. Ob da noch mehr versprochen wurde ändert nix an dem status quo, dass es Spass macht damit zu produzieren.



Antwort von otaku:

ah oki - ich hatte bei meinem letzten spielfilm sie situation das ein shot hdr war. ich hab jetzt keine ahnung ob das dragon oder mx war, die aufloesung war 5k daher denke ich dragon. jedenfalls war das eine kran fahrt, die allerdings nur in die totale gesehen hat, keine schnelle bewegung im fordergrund, weil kein fordergrund vorhanden. in meinem fall passten die bilder nicht uebereinander, obwohl gar nicht so viel bewegung da war. das war mega fummelig daraus was zu machen was man brauchen kann.

allerdings gab es da so einige probleme der technischen art daher hab ich keine ahnung wo genau da der fehler im detail war. wuerde ich gerne mal testen wenn du da footage hast.



Antwort von Jan Reiff:

MX ist 5K, Dragon 6K

war ggf zuviel HDR ? du kannst ja nachträglich den grad wieder einstellen wieviel es sein soll innerhalb der gewählten range

bei Dragon braucht man ohnehin hdr weniger weil der sensor bei highlights eher müde lächelt endlich. würde deshlab sogar sagen, dass gerade mal 1 stop mehr auf halde fast für alles reicht, weil ein reines HDR bild sieht zu unnatürlich aus.

generell mag ich ein leicht rauschiges Bild immer lieber als clippings, ...
basis ist immer redlogfilm bei uns, ich kenne immer noch zuviele die glauben, redgamma 3,4 usw ist reingebacken ins material und verschenken bis zu 3 stops



Antwort von iasi:

naja, volles Gegenlicht bei nicht mehr gerade optimalen Lichtbedingungen, wie gesagt, da haben die Jungs hinter uns im Wohnwagen schon das Licht angehabt ... dafür sieht das Original, v.a. auf nem 4K Samsung immer noch brachial aus - muss am Ende weicher gegradet werden, ist ja auch ein fahles Gegenlicht - redlogfilm und dann leichtes Grading, passt ...
wirklich interessant wären mal die neuen Schneider, hoffe Ketch Rossi kommt bald mal durch mit seinem Set.

hab ähnliche Situationen mit anderen Mühlen gedreht, und wenn überhaupt packts die F65 oder Alexa XT auf diesem Level, ... nur eben für das doppelte an Kohle ... für mich als Produzent der sein Zeug kauft ist die Entscheidung da immer recht einfach gewesen.
die F55 würde mich mal interessieren, denke wir werden mit der Mühle da nochmal einen 1:1 Vergleich machen, ist ca gleiche Preisklasse, was ich aber jetzt schon sagen kann, ist dass die Dragon geilere Farben macht ...

tja - die neuen Schneider sollen ja DIE Linsen für den Dragon sein. Hab mal einen Vergleichstest gesehen - auch bei den Objektiven bemerkt man eben den Fortschritt.

Aber ein Set kostet wieviel?



Antwort von Jan Reiff:

kenne nur Sachen von Ketch und das ist alles fett

frag mich nicht was die kosten, will"s gar nicht wissen

aber ja, die machen nochmal alles ne runde knackiger ... (wenn man supergenau hinschaut)
für den Preis damals waren die Red Primes aber aller Ehren wert (und sind es noch)



Antwort von otaku:

ja ich meine 13 blenden macht so schon kein monitor, wenn ich bei wie du es belichtet hast mit film gamma die blacklevels auf null ziehe und dann kurz die lichter ausschneide (natuerlich nicht als key sondern per clamp und difference) und die dann 3 blenden runter ziehe, dann hab ich zeichnung bis hinter indien und ich kann die mitten immer noch hin legen wo ich will.

die kameras koennen so viel mehr als unsere monitor oder digitalen projektoren das ist schon unheimlich.

ich bin halt sehr gespannt was fuer daten wir bei so feinen aufloesungen in zukunft noch aus den bildern generieren koennen.

zzt kann ich ja geometrie informationen aus dem footage nur bei bewegter kamera herausziehen, und je mehr parallaxe desto besser geht das, aber bei der abbildungsgenauigkeit, koennte ich mir vorstellen, das es auch bald moeglich ist, abstaende aus dem athmosphaerischem dunst zu generieren, also je weiter der abstand desto gerinnger werden die kontraste ja oder besser desto hoeher die schwarzwerte, ich kann mir vorstellen das wir sowas bald auslesen koennen und daraus rueckschluesse ziehen koennen.



Antwort von Jott:

""Skyfall" wurde z.B. hochgerechnet und Dank der guten IMAX-Software war das Ergebnis gut."

Imax Digital-Kinos projizieren 2K.



Antwort von Jan Reiff:

was is eigentlich aus den Barco Projektoren geworden ?

Skyfall hätte mal nen guten Drehbuchautor gebraucht statt Imax



Antwort von iasi:

""Skyfall" wurde z.B. hochgerechnet und Dank der guten IMAX-Software war das Ergebnis gut."

Imax Digital-Kinos projizieren 2K.

merkwürdig, dass sich Roger Deakins dann zunächst so viele Sorgen gemacht hatte, bevor er die Ergebnisse sah



Antwort von Jan Reiff:

mir immer noch ein Rätsel warum Bond auf digital gedreht wurde

hat mir null gefallen - fand es schlichtweg zu klinisch durchgehend



Antwort von otaku:

""Skyfall" wurde z.B. hochgerechnet und Dank der guten IMAX-Software war das Ergebnis gut."

Imax Digital-Kinos projizieren 2K.

merkwürdig, dass sich Roger Deakins dann zunächst so viele Sorgen gemacht hatte, bevor er die Ergebnisse sah

naja was soll er sonst sagen,
"...jo wir machen skyfall fuer imax aber das ist ja heute der gleiche 2k gammel wie im kino, da reicht ja die qualitaet von meinem handy... gaehn..."

oder sollte er sagen:

"...uiiiii wir wollten ja ins imax boahhhhhhh.... sooooo ein groooooosssser screen... puh das wird echt ne mega bombastische super herausforderung... aber nachdem ich mein zeugs dann gesehen habe war ich soooooooo begeistert, das ich denke ein einax screen ist noch viel zu klein fuer meinen wi-wa-wutzel film....

ich glaube im zweifel sorgt der 2te kommentar fuer mehr zuschauer ;-)



Antwort von iasi:

Deakins hatte in einem Interview gesagt, dass er nach Produktionsbeginn und Wahl der Alexa davon erfahren hatte, dass Skyfall auch in IMAX-Kinos laufen solle. Er hatte Befürchtungen, war dann aber beruhigt, als er die Ergebnisse der IMAX-Software sah.

Manchmal ist es gar nicht nötig, sich etwas zusammen zu fantasieren.
IMAX ist zudem nicht deshalb so erfolgreich und die Zuschauer bereit, dafür mehr Eintrittsgeld zu bezahlen, weil es auch nur 2k bietet - während sich in den USA in herkömmlichen Kinos 4k-Projektoren immermehr verbreiten.



Antwort von iasi:

mir immer noch ein Rätsel warum Bond auf digital gedreht wurde

hat mir null gefallen - fand es schlichtweg zu klinisch durchgehend

Ich fand ihn eher auf der Handlungsebene schwach - optisch hatte er so manches zu bieten, das sich einem ins Hirn einprägt.



Antwort von Jott:

Ich habe nichts gegen 4K oder höher, warum auch. So viele Möglichkeiten (darum geht der Thread ja eigentlich) und Spaß jenseits theoretischer Einlassungen. Feine Sache.

Aber all diese 4K-Projektoren in den Kinos, egal ob in den USA oder hier, sind nicht primär dafür da, dass 4K-Filme gezeigt werden - es gibt ja so gut wie keine, weil selbst Blockbuster in 2K gefinished werden - sondern dass man keine PixelPixel im Glossar erklärt mehr erkennen kann. Die des Projektors. Das ist alles. Gespielt wird in 99 komma sonst was aller Fälle 2K. Als Blow Up. Wenn selbst der Filmfreak meint, er sieht 4K, dann gibt es ganz offensichtlich keinen Bedarf, an dieser Nummer etwas zu ändern.

Ich wollt's nur mal erwähnen, weil so viele glauben, dass sie 4K im Kino sehen, nur weil mit einer hochauflösenden Kamera gedreht wurde. Das hat nichts miteinander zu tun.

Woraus ich wiederum für mich ableite, dass sich 4K als Delivery FormatFormat im Glossar erklärt nicht zuerst im Kinosaal breit machen wird - völlig überflüssig für chipsmampfende Horden - sondern anderweitig.



Antwort von iasi:

Wir wollen hier zwar keine erneute 4k-Diskussion beginnen, aber zum einen ist dieses Upscaling nun einmal von wirklich hoher Qualität und zum anderen stellen die Studios auf einen 4k-Workflow um.
Es ist natürlich klar, dass dies nicht von heute auf morgen geht, denn die bisherige 2k-Infrastruktur will ja u.a. auch zuerst mal abgeschrieben sein. Aber dennoch: 4k ist das 70mm der digitalen Projektion.
Und wie die Techniker ja immer erklären, waren bisher nursehr wenige Kameras wirklich in der Lage 4k-Ausgangsauflösung zu bieten - F55 und Red MX sollen dies z.B. nicht erreichen.
Aber es ist wirklich reine Theorie. In der Praxis zeigen sich die Leute begeistert von der besseren Bildqualität in 4k-Kinos und von UHD-TVs - und sie sind bereit, dafür einen Aufpreis zu bezahlen. Der nächste Schritt ist dann eben der 4k-Workflow, der nochmals eine Steigerung bringen kann.

Es hängt zudem auch sehr vom Film ab, ob er wirklich von der höheren Auflösung profitiert - Elysium bot nur sehr wenige Einstellungen, bei denen man sagen konnte, dass die 5k-Red etwas brachten. Ansonsten war es wohl eher das geringe Gewicht und die kompakte Bauform, die genutzt wurde.

Leider werden Red-Cams eben auch sehr oft nur für Effekt-Filme genutzt, bei denen man hauptsächlich Bilder aus dem Rechner zu sehen bekommt.



Antwort von Jan Reiff:

generell ist die hohe Auflösung erstmal auf Kameraseite von Nutzen

schon zu SD Zeiten sah ein 35mm Scan besser aus als ein Digi Beta Tatort - u.a. wegen Dynamik, klar, aber eben auch ein dichteres Bild.

Mich hat bei Skyfall das Digitale gestört, egal ob F65, Red oder Alexa.
Wenn ich Skyfall betrachte und dagegen das reiche Bild der alten Bonds halte ich es für die falsche Entscheidung, stilistisch. Geld spielt da keine Rolle, man wollte Bond noch moderner machen, und so nah die Graig Figur nun auch am Original Bond / Roman ist, so weit weg ist der Charme der Filme an sich, bis hin zu heftigsten Drehbuch Bugs, am Ende habe ich das Kino verlassen, war mir dann zu blöd.



Antwort von Jan Reiff:

Ich habe nichts gegen 4K oder höher, warum auch. So viele Möglichkeiten (darum geht der Thread ja eigentlich) und Spaß jenseits theoretischer Einlassungen. Feine Sache.

Aber all diese 4K-Projektoren in den Kinos, egal ob in den USA oder hier, sind nicht primär dafür da, dass 4K-Filme gezeigt werden - es gibt ja so gut wie keine, weil selbst Blockbuster in 2K gefinished werden - sondern dass man keine PixelPixel im Glossar erklärt mehr erkennen kann. Die des Projektors. Das ist alles. Gespielt wird in 99 komma sonst was aller Fälle 2K. Als Blow Up. Wenn selbst der Filmfreak meint, er sieht 4K, dann gibt es ganz offensichtlich keinen Bedarf, an dieser Nummer etwas zu ändern.

Ich wollt's nur mal erwähnen, weil so viele glauben, dass sie 4K im Kino sehen, nur weil mit einer hochauflösenden Kamera gedreht wurde. Das hat nichts miteinander zu tun.

Woraus ich wiederum für mich ableite, dass sich 4K als Delivery FormatFormat im Glossar erklärt nicht zuerst im Kinosaal breit machen wird - völlig überflüssig für chipsmampfende Horden - sondern anderweitig.

Gut, die Leute denken auch sie sehen HD wenn sie Raab schauen.
steht halt Pro7 HD oben drüber.
Ändert nichts an der Tatsache, dass guter 4K Content (z.B. von F65 oder Dragon) auf einem großen 4K Screen ein anderer Erlebnis ist als HD sehen.



Antwort von iasi:

generell ist die hohe Auflösung erstmal auf Kameraseite von Nutzen

schon zu SD Zeiten sah ein 35mm Scan besser aus als ein Digi Beta Tatort - u.a. wegen Dynamik, klar, aber eben auch ein dichteres Bild.

Mich hat bei Skyfall das Digitale gestört, egal ob F65, Red oder Alexa.
Wenn ich Skyfall betrachte und dagegen das reiche Bild der alten Bonds halte ich es für die falsche Entscheidung, stilistisch. Geld spielt da keine Rolle, man wollte Bond noch moderner machen, und so nah die Graig Figur nun auch am Original Bond / Roman ist, so weit weg ist der Charme der Filme an sich, bis hin zu heftigsten Drehbuch Bugs, am Ende habe ich das Kino verlassen, war mir dann zu blöd.

Bei den alten Bonds blieben mir weit weniger Bilder in Erinnerung als bei Skyfall. Zum Teil war die Optik der alten Bond Filme Durchschnittsware - manchmal sogar auf B-Movie-Niveau.
Wenn nur die Handlung etwas besser gewesen wäre. Früher ging es bei Bond darum, die Welt vor einem Superschurken zu retten - bei Skyfall kümmert sich Bond um ein altes Frauchen.



Antwort von Jan Reiff:

Never

die großen Bilder haben die "alten Bonds"

gerade das naive trashige hat die viel cooleren Bilder gebracht

unique

Skyfall Action war müde zum größten Teil, alles schon besser gesehen (U Bahn Crash) - auch die Mädels sind nix mehr ...

fand zum Beispiel die Nachtszenen mit den roternen Laternen recht videomässig -

für mich die falsche Entscheidung aktuell. Nolan sollte mal nen Bond drehen



Antwort von otaku:

nolan sollte 3 bonds drehen ;-)



Antwort von iasi:

nolan sollte 3 bonds drehen ;-)

oh nein - der kann nicht die Action, die ein Bond braucht.



Antwort von iasi:

Never

die großen Bilder haben die "alten Bonds"

gerade das naive trashige hat die viel cooleren Bilder gebracht

unique

Skyfall Action war müde zum größten Teil, alles schon besser gesehen (U Bahn Crash) - auch die Mädels sind nix mehr ...

fand zum Beispiel die Nachtszenen mit den roternen Laternen recht videomässig -

für mich die falsche Entscheidung aktuell. Nolan sollte mal nen Bond drehen

klingt nach verklärtem Blick - die Bonds hatten doch noch nie einen einheitlichen Look.
Was sie boten, war Live-Action mit echten und vor allem spektakulären Stunts ... und die hatte der erste Craig-Bond eben auch.



Antwort von Jan Reiff:

wenn einer Action kann dann Nolan



Antwort von Jan Reiff:

der erste Craig Bond hatte grauenvolle Action, viel zu schnell geschnitten

das ist ja der Gag bei Bond gewesen, oder eben bei Nolan, Spielberg: Plansequenzen, ohne viele Schnitte



Antwort von iasi:

der erste Craig Bond hatte grauenvolle Action, viel zu schnell geschnitten

das ist ja der Gag bei Bond gewesen, oder eben bei Nolan, Spielberg: Plansequenzen, ohne viele Schnitte

Die Prügelszenen im letzten Nolan-Batman waren grausam. Die Szene mit den ranstürmenden Polizisten war ein Geschmarre.
Und im 2.Teil war die Schnittfolge absolut zu hoch - wenn er die Bösen im Hochhausrohbau ausschaltet.
Ach ja - und die ganze Bergfestungserstürmung in Inception war fade und zumeist aufgesetzt. Nur wenn Nolan neue Perspektiven reinbringt und die Handlung im Vordergrund steht, ist die Action ok.

Du kannst über den 2.Bond sagen, dass die Action schnlecht weil hektisch geschnitten war - beim ersten Craig-Bond war sie jedoch sehr gut. Nimm nur die gesamte Anfangssequenz inkl. Erstürmung der Botschaft.

Ich halte auch nichts von reinen langen Plansequenzen bei Action-Szenen - man nimmt sich die Möglichkeit das Tempo zu variieren. Auch Spielberg setzt zur rechten Zeit ein Schnittstakkato ein.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum RED EPIC / Scarlet-X / Dragon / Raven-Forum

Antworten zu ähnlichen Fragen:
Facebook bekommt Live-Streaming Feature...
Unscharf Maskieren - Bug oder Feature?
Ronin-S Create-Feature "Track" geht nicht
DaVinci Resolve 15 und Super Scale Feature
Neue China Zooms von DZO
Hollywood-Filmemacher protestieren gegen neues Netflix-Feature
BEHIND THE SCENES: first feature film shot entirely on Prius backup camera
Fujinon E-Mount (only) Cine Zooms: neue MK 18-55 T2.9 u. MK 50-135
warum ruckeln Schwenks/Zooms bei H.264-Transportstreams?
Messevideo: Angénieux EZ-Serie Zooms S35 und Vollformat/VistaVision
RED Monstro / Proxy Workflow in Premiere mit digitalen Zooms
Wie Interview Situation / Produkt Feature nur mit einer Cam machen?
Speedbooster Ultra/XL und Sigma Art Zooms (18-35 u.a.) an der Panasonic GH5 - Teil 2
Speedbooster Ultra/XL und Sigma Art Zooms (18-35 u.a.) an der Panasonic GH5 - Teil 1
Neue Sigma Objektive: 56mm F1.4 (Contemporary), 2x ART F1.4 sowie zwei (Super)Tele-Zooms // Photokina 20
Messevideo: Neue Funktionen Adobe Premiere Pro u. bestes, verstecktes Pro-Feature // NAB 2018
Angenieux: Günstige neue EZ Serie Zooms für S35+Fullframe/VistaVi

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
21-24. November / Hannover
up-and-coming
22-23. November / Hamm
Hammer Kurzfilmnächte
27. November / München
Camgaroo Award 2019
30. November / Bünde
Bünder Kurzfilmfestival 2019
alle Termine und Einreichfristen