Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sehenswert: Webvideo, Kino, TV und Film Tips-Forum

Infoseite // Dynamic Range at its best? ARRI Alexa mini im Schnee



Frage von Starshine Pictures:


Gerade über dieses Video gestolpert. Ich finde es schon echt beeindruckend wie man bei grellem Sonnenschein im Schnee noch so viel Zeichnung in die schattigen Täler bekommt (z.B. bei 1:40). Oder ist das längst nichts besonderes mehr? Ich finds bombe.




Hier noch das BTS



Grüsse, Stephan von Starshine Pictures

Space


Antwort von iasi:

das ist natürlich noch immer etwas besonderes ... also mit action-cams ist so etwas noch immer "schwierig" zu erreichen ...

arri ist aber nicht mehr allein auf dem DR-feld ...

Space


Antwort von klusterdegenerierung:

Sorry Stefan, aber ich sehe da nur sehr wenig abstufungen, alles ein Brei!
Fast immer ist der Schnee eine Fläche, hat keine Struktur und überall den gleichen Ton, sieht aus wie im Photoshop makiert und Fläche gefüllt.

Desweiteren ist auch mal irgendwann gut mit Log und Co wenn nur noch Matsch dabei raus kommt.

Sieht aus wie durch einen billigen Plastik ND Filter, kein Kontrast keine Tiefe.
Wenn Dich das umhaut, dann siehe Dir mal das Buch von Ansel Adams Zonentheorie an, da dürftest Du den Mund nicht wieder zu bekommen.

Ich will das jetzt überhaupt nicht schlecht machen, aber wenn Du mir jetzt gesagt hättest, das Du das mit einer C100 gemacht hättest, hätte ich Dich gefragt ob ich Dir das nächste mal meine alte 5DII ausleihen soll!

Unabhängig davon dreht aber jetzt jeder am log Rad, egal wie scheisse es aussieht, bald zeigen sich alle nur noch ein graues Blatt und sagen guckmal 25 Blendenstufen! ;-)

Space


Antwort von motiongroup:

hänge mich an Kluster, gefällt mir auch nicht was aber sicher nicht an der Cam liegen wird sondern an der Nachbearbeitung. Nebelsuppenartiges, blasses Irgendwas... was wollen sie damit suggerieren, K2 kurz vor einen WhiteOut..

Space


Antwort von Frank Glencairn:

War ja die meiste Zeit bewölkt, wo sollen denn da Kontraste herkommen.

Space


Antwort von motiongroup:

Unterhalb der Wolken vielleicht ;)

Selbe Situation sogar noch mit diffusem Gegenlicht und das aus GoPro und olympus epl2 Material.. Sorry ist nur ein 720er iPad 2 Screenshot.

In der Summe gesehen..., man kanns auch übertreiben.

Space


Antwort von g3m1n1:

Was haben denn alle mittlerweile gegen einen vernünftigen Schwarzwert?
Alles ist nurnoch grau :-/

Space


Antwort von Tiefflieger:

Was haben denn alle mittlerweile gegen einen vernünftigen Schwarzwert?
Alles ist nurnoch grau :-/ Wenigstens ist der ARRI Schriftzug im Vorspann weiss ;-)

Mich stören schon Lange "Demo-" Videos die mit hell brauner Kondensmilch überzogen sind.
Schnee muss weiss sein, ich kann ja heute abend mal ein Videoframe reinstellen von meiner 3-Chip Videokamera Modelljahr 2010.
Aber ohne Gammakorrektur und hohem Kontrastumfang gibt es diesen Bildeindruck.
Ähnliches gibt es auch wenn gegen die Sonne gefilmt wird und von Wolken im zartblau bis grauem Schatten alles zu sehen ist.

Gruss Tiefflieger

Space


Antwort von rkunstmann:

Hmm,
ich mag auch keine milchig grauen Bilder; es kommt dem Auge ja entgegen schwarz und weiß zu bekommen und keinen Matsch, wobei es aber auch Situationen gibt in denen wenig Kontrast Sinn macht; ist kontextabhängig, meistens finde ich das aber eher prätentiös und wirkt irgendwie als hätte man den Sinn von den ganzen LOG Einstellungen der neuen Cams missverstanden. Schnee hat halt nun mal wenig Zeichnung, wenn frisch gefallen und reflektiert glaube ich fast 98% des einfallenden Lichts. Wenn man im Gebirg im Schnee unterwegs ist sieht man ja auch nur weiß. Kann da nicht sogar Schwindel und Desorientierung auftreten manchmal? Bin kein Skifahrer;)

Beste Grüße!

Robert

Space



Space


Antwort von Jott:

Ist auch eine visuelle Mode. Jeder dritte Werbespot sieht so aus, als wäre der unbearbeitete Log-Look einfach als hip und cool durchgewunken worden.

In ein paar Jahren ist alles wieder anders, gecrusht und quietschbunt, keine Sorge! :-)

Space


Antwort von Starshine Pictures:

Ich weiss ja nicht wie das abläuft bei den Kameraherstellern. Ich denke mir aber dass sie Vorserienmodelle an verschiedene Filmer verschicken mit dem Auftrag, mit einem Kurzfilm die Vorzüge des neuen Produktes darzustellen und gleichzeitig noch Feedback über Firmware und Haptik zu bekommen. Und die Helikoptermädels sollten vielleicht Dynamikumfang und Mobilität darstellen. Das haben sie getan. Mit knallig bunten Farben und hohen Kontrasten lässt sich das eben nicht so gut transportieren wie in fast Log-Look. Ich finds passend. Reduziert und trocken, aber trotzdem episch. Wer es bunter mag, büddeschön:






Space


Antwort von WoWu:

Unabhängig davon dreht aber jetzt jeder am log Rad, egal wie scheisse es aussieht, bald zeigen sich alle nur noch ein graues Blatt und sagen guckmal 25 Blendenstufen! ;-) :-))

Das ist die Angst vor Schwarz.

Space


Antwort von Paralkar:

Is das Making Of auch mit nem Gimbal gefilmt?

Wäre schon sehr inzestuös :-D

Space


Antwort von motiongroup:

na schau, geht ja auch anders Starshine, dass lass ich mir einreden.. und trotzdem, was soll die kosten? ne das funktioniert um 10% des Preises ebenso.

schau dich um auf Vimeo..

Space


Antwort von Frank Glencairn:


Unabhängig davon dreht aber jetzt jeder am log Rad, egal wie scheisse es aussieht, bald zeigen sich alle nur noch ein graues Blatt und sagen guckmal 25 Blendenstufen! ;-) In dem Mini Schnee Material waren max 8 Blenden, wenns hoch kommt.

Und der andere Clip mit den Booten - willkürliche Aneinandereihung von unmotivierten Kamerafahrten (hauptsache irgendwie in Bewegung), lieblos komponierte Bilder und Text aus dem Bullshit-Zufalls-Generator.

meh

Space


Antwort von SirRollingVonShutter:

Fast immer ist der Schnee eine Fläche, hat keine Struktur und überall den gleichen Ton, sieht aus wie im Photoshop makiert und Fläche gefüllt. Das sind halt die Eigenschaften von Schnee. Oder kennst du eine anderere Art von Schnee? Wenn ich auf Gletschern fahre, dann sieht das ganz genauso aus.

Space


Antwort von Starshine Pictures:

Habe mir den Alpenfilm noch mal angeschaut. Finde ihn immernoch richtig gut und absolut passend. Die Aussage wird für mich fantastisch transportiert. Die Alpen sind nicht nur Halligallijuppeida. Sie sind eben auch rauh und feindseelig. Ich wohne hier in den Bergen. Ich sehe die Landschaft auch nicht mehr nur knallig bunt und wunderschön.


Grüsse, Stephan von Starshine Pictures

Space


Antwort von Tiefflieger:

Etwas Farbe in den Bergen kann ich bieten, alles bewegte Kamera oder fahrendem Zug. Eine FullHD Consumer Kamera Jahr 2010 (alles unbearbeitet)

Im normalen Videoumfang (16..235) / vollem RGB Wertebereich 8 Bit / farbiges Gestein aus dem fahrenden Zug / noch etwas Kontraste
/ / / zum Bild http://www.fotos-hochladen.net/thumbnail/sd707305sqt64mncga_thumb.jpg (click)

Wenn man wirklich leuchtende Farben in Gegenlicht will, hilft die Perspektive und das Motiv (unbearbeitet im Videoumfang) / leuchtende Farben im Schatten
/ zum Bild http://www.fotos-hochladen.net/thumbnail/sd707340sxodf4n3c2_thumb.jpg / zum Bild http://www.fotos-hochladen.net/thumbnail/sd707343y4p9gq6ajl_thumb.jpg (click)

Gruss Tiefflieger

Space



Space


Antwort von Rudolf Max:

So täte ich das erste Bild vom Tiefflieger als schön bezeichnen...

Was ich sagen will: Ich will nicht zwingend die wirkliche Realität sehen, ich will einfach schöne Bilder sehen.. egal, ob als Bild oder als Film... die Realität kann ich immer sehen, schöne Bilder nicht immer...

Ein sehr schönes Bild vom tiefflieger, aber eben, mit ein paar wenigen Klicks in Photshop kann ich ihm noch etwas zuätzliches mitgeben, was es etwas von der Realität abhebt oder verändert, aber es zu einem schönen Bild macht...

Mag nicht jedem gefallen, aber egal, ist ja bloss meine kleine Meinung...

Rudolf

Space


Antwort von Tiefflieger:

Danke Rudolf sieht sehr schön aus :-)

Space


Antwort von domain:

Im Gegensatz zu Diafilmen arbeiteten Negativfilme ja immer schon sehr weich und mit großem Kontrastumfang. Erst beim Umkopieren oder Vergrößern wurde dann eine gezielte Kontrastaufsteilung vorgenommen. Schön, dass heutige Camcorder auch im Positivbereich solche Umfänge und Möglichkeiten aufweisen.
Speziell beim 1. Video aber wurden die Möglichkeiten nicht ausgeschöpft. Es gibt auf dem Bild nämlich keinen Nebel und die Entfernung zu den Felsbrocken ist auch nicht groß, also müsste dort stellenweise eigentlich ein ziemliches Schwarz vorkommen. Auch der Himmel links oben stimmt nicht, er müsste viel heller sein.
Die Waveform sagt eigentlich alles.
Es stimmt schon, dieses verhunzte „Grading“ folgt einer reinen Modeerscheinung.





Space


Antwort von rkunstmann:

Fast immer ist der Schnee eine Fläche, hat keine Struktur und überall den gleichen Ton, sieht aus wie im Photoshop makiert und Fläche gefüllt. Das sind halt die Eigenschaften von Schnee. Oder kennst du eine anderere Art von Schnee? Wenn ich auf Gletschern fahre, dann sieht das ganz genauso aus. Genau, was ich meinte bzw. mich gefragt habe... Ich nehme an Du hast dann dort auf dem Gletscher auch eine Sonnenbrille auf, oder?

Schnee ist halt weiß...

Space


Antwort von rkunstmann:

Oder nochmal so ausgedrückt: Bei strahlend blauem Himmel, wenn man hoch guckt fängt man schon an flirrende Muster zu sehen (Blutgefäße, die auf die Netzhaut projiziert werden); Das kenne ich von frisch gefallenem Schnee bei Sonne und blauem Himmel aber noch krasser; das scheint mir unser an sich sehr gutes sehen sogar etwas zu überfordern... Also 25 Blenden Umfang sind vllt. (sicher) nicht schlecht in der Theorie, aber es sollte halt zu dem passen, was ich als Mensch zu sehen erwarte (Ausnahmen bestätigen die Regel). Die extremen crushed Looks aus den 90ern brauche ich aber auch nicht mehr;)

Beste Grüße!

PS: Also das alles innerhalb künstlerischer erweiterter Grenzen... Also bei The Matrix oder Fight Club war das Grading schon damals super cool (imho), wenn auch nicht total realistisch, aber halt passend und alles noch analog und ohne DaVinci Ressolve...

Letzten Endes fängt alles halt beim "Sehen" an und ich habe halt noch keinen grauen Star;)

Space


Antwort von domain:

Letzten Endes fängt alles halt beim "Sehen" an und ich habe halt noch keinen grauen Star;) Ist erst operiert der Star, sieht man wieder klar :-)
Das korrigierte Bild ist aber noch lange nicht das, was Autokontrast in Photoshop machen würde (da gäbe es wirklich Schwarz und Weiß), sondern nur eine moderate Kontrastaufsteilung per Auge, wobei der Schnee noch Durchzeichnung hat.
Mir ist schon klar, was der Autor erreichen bzw. demonstrieren wollte. Aber der butterweiche Saucenlook gefällt mir bei Naturaufnahmen überhaupt nicht, kann aber für Porträts durchaus brauchbar sein.






Space


Antwort von iasi:

Es geht Arri wohl vor allem darum, zu ziegen, was die Kamera kann und eben nicht, wie man eine Berglandschaft graden kann.

Ich denke, Arri setzt einfach mal voraus, dass Leute, die eine Arri-Kamera nutzen, das Material einschätzen können, das die Kamera liefert und in dem Video angedeutet werden soll - man kann sich dann durchaus vorstellen, was da im Grading möglich ist.

Ein Einzelbild aus einer Flugaufnahme rauszugreifen und den Teil einer Aufnahme, der Schatten zeigt, als zu flach zu beurteilen ohne den Teil im grellen Sonnenlicht zu berücksichtigen, ist ...

Das ist eben keine 8bit-Action-Kamera oder DSLR-Kamera, bei der gilt: Was aus der Kamera kommt, ist auch schon fast das, was auf dem TV landet.

Die Aufnahmen zeigen Zeichnung in den den Schatten bis tief hinunter und eben auch in den Lichtern (speziell Schnee), wobei im Gegenlicht die Highlights weich auslaufen.
Wer da nicht da Potential des Materials erkennt, sollte besser bei der GoPro ode GH4 bleiben.
Nur wird"s dann eben z.B. mit der schwarzen Hose und dem Schnee eher schwierig ...

Space


Antwort von klusterdegenerierung:

Da magst Du ja vielleicht recht haben, aber Schnee ist nunmal kein gutes Testfeld für Dynamik, weil es ja meistens selber kaum einen Blendenumfang besitzt.

Ausserdem wäre es doch dann schon wünschenwert, wenn man Material hat wo man durch das Log und dem Dynamikumfang, auch dieses gut umgestzt sieht.

Bloß weil irgendwas total ausgewaschen ist, heißt es ja nicht gleichzeitig das es viel Dynamik hat und genauso gibt es Flatmaterial bei dem einen der Blendenumfang so sehr ins Auge sticht, das er hinten wieder raus kommt! :-))

Aber hier finde ich das Material nicht geeignet, da wäre doch wohl ein sonniger Herbstwald mit Baumstämmen im Gegenlicht und vielen Blenden wohl eher geeignet!

Mir stellt sich bei sowas halt sofort die Frage, wenn 15 Blenden, warum dann nicht unmissverständlich diese auch zeigen?
Da muß ich dann auch mal wieder Ansel heran ziehen, denn der hat gezeigt was er aus einen Neopan rausholt und hat nicht ein total flaues Foto präsentiert.

Oder zuminsdest eine Version von Flat und gegradet sidebyside wählen.

Space


Antwort von Frank Glencairn:

Mir stellt sich bei sowas halt sofort die Frage, wenn 15 Blenden, warum dann nicht unmissverständlich diese auch zeigen? 15 Blenden in einem 8bit codec auf Vimeo?

Space



Space


Antwort von domain:

Das ist kein offizielles ARRI-Demovideo, die waren nur als Sponsor beteiligt ebenso wie Teradeck und Clear Cut Pictures fur die Postproduktion. Wenn sie die Dynamikfähigkeiten der Arri hätten demonstrieren wollen, dann hätte das Video ganz anders aufgebaut werden müssen.
Nein, die Postproduktion hat das Video wirklich ernst gemeint.

Space


Antwort von klusterdegenerierung:

Mir stellt sich bei sowas halt sofort die Frage, wenn 15 Blenden, warum dann nicht unmissverständlich diese auch zeigen? 15 Blenden in einem 8bit codec auf Vimeo? ;-) Natürlich nicht, aber das hat da ja jetzt auch nix mehr mit zun tun, da sieht man ja nicht mal 4bit ;-))

Space


Antwort von klusterdegenerierung:

Das ist kein offizielles ARRI-Demovideo, die waren nur als Sponsor beteiligt ebenso wie Teradeck und Clear Cut Pictures fur die Postproduktion. Wenn sie die Dynamikfähigkeiten der Arri hätten demonstrieren wollen, dann hätte das Video ganz anders aufgebaut werden müssen.
Nein, die Postproduktion hat das Video wirklich ernst gemeint. Was wollten die denn dann zeigen , das Video ist doch hier auch schon als totale Pleite entlarft worden, oder? ;-))

Space


Antwort von iasi:

Das ist kein offizielles ARRI-Demovideo, die waren nur als Sponsor beteiligt ebenso wie Teradeck und Clear Cut Pictures fur die Postproduktion. Wenn sie die Dynamikfähigkeiten der Arri hätten demonstrieren wollen, dann hätte das Video ganz anders aufgebaut werden müssen.
Nein, die Postproduktion hat das Video wirklich ernst gemeint. Was wollten die denn dann zeigen , das Video ist doch hier auch schon als totale Pleite entlarft worden, oder? ;-)) Also ich sehe, was ich von der Kamera sehen will, um einen Eindruck zu erhalten.
Es wäre eine totale Pleite für mich gewesen, wenn gegradet worden wäre, bis es "schön" aussieht.

Das Video ist auch recht gut "aufgebaut", um den DR der Arri zu demonstrieren.
- Flüge aus dem Schatten auf sonnenbeschienene Schneeflächen.
- Der Fahrer mit schwarzer Hose im Schnee.
- Tiefe Sonne, die die Täler im Dunkel und die Höhen im Licht lässt.
...

Und das muss man der Mini lassen: Sie meistert all diese Herausforderungen sehr gut.

Wer Probleme hat, sich vorzustellen, was man aus dem Material, das die Mini liefert, machen kann, für den ist das natürlich die "totale Pleite" :)

Space


Antwort von domain:

Ich möchte aber keine Vorstellung in der Phantasie, sondern eine normal funktionierende Postbearbeitung, die auf verschiedene Kontrast-Bedingungen entsprechend reagiert.
Also jedenfalls der Grader stand komplett daneben.

Space


Antwort von Rudolf Max:

Ich behaupte einfach mal, dass ich dieses Video auch mit meiner Sony RX-10 hätte machen können... so viel schlechter wären die Bilder auch nicht geworden...

Space


Antwort von DeeZiD:

Ich behaupte einfach mal, dass fast niemand hier außer iasi wirklich erkennt, was die Kamera eigentlich kann und den Videolook (das was Tiefflieger hier gezeigt hat inkl. Halos durch Nachschärfung, überstrahlten Bildbereichen inkl. fiesem Rolloff) toll findet.

Natürlich würde ich mein Material niemals so abgeben/hochladen/etc...
Aber gerade die Gegenlichtsituationen (direkt in die Sonne) fand ich extrem beeindruckend.

Und das sage ich als (sehnsüchtig auf V-LOG wartender) GH4-Besitzer. :D

Space


Antwort von iasi:

Ich behaupte einfach mal, dass fast niemand hier außer iasi wirklich erkennt, was die Kamera eigentlich kann und den Videolook (das was Tiefflieger hier gezeigt hat inkl. Halos durch Nachschärfung, überstrahlten Bildbereichen inkl. fiesem Rolloff) toll findet.

Natürlich würde ich mein Material niemals so abgeben/hochladen/etc...
Aber gerade die Gegenlichtsituationen (direkt in die Sonne) fand ich extrem beeindruckend.

Und das sage ich als (sehnsüchtig auf V-LOG wartender) GH4-Besitzer. :D genau - das sieht schon fast nach "aus der Kamera" aus - minimales Grading - klar bekommt man anhand des 8-Bit-Vimeo-Videos nur eine Andeutung dessen, was die kleine Arri geliefert hat, aber diese Andeutung ist mir lieber, als ein gegradtes Skifahrervideo ...

Space


Antwort von domain:

Im Gegensatz zu Diafilmen arbeiteten Negativfilme ja immer schon sehr weich und mit großem Kontrastumfang. Erst beim Umkopieren oder Vergrößern wurde dann eine gezielte Kontrastaufsteilung vorgenommen. Schön, dass heutige Camcorder auch im Positivbereich solche Umfänge und Möglichkeiten aufweisen. Dem ist nichts mehr hinzuzufügen. Dazu brauchen wir keinen iasi, das erkennt ja ein Blinder. Tolle Kamera.

Space



Space


Antwort von srone:

Im Gegensatz zu Diafilmen arbeiteten Negativfilme ja immer schon sehr weich und mit großem Kontrastumfang. Erst beim Umkopieren oder Vergrößern wurde dann eine gezielte Kontrastaufsteilung vorgenommen. Schön, dass heutige Camcorder auch im Positivbereich solche Umfänge und Möglichkeiten aufweisen. Dem ist nichts mehr hinzuzufügen. Dazu brauchen wir keinen iasi, das erkennt ja ein Blinder. Tolle Kamera. hallo domain, du zitierst dich neuerdings selber? das wird doch nicht jetzt das ende von slashcam sein, wo sich jeder nur mehr selber zitiert? ;-)))

lg

srone

Space


Antwort von domain:

Weißt du srone, manchmal versuche ich etwas zum Schmunzeln einzubringen. Liege vermutlich ziemlich oft daneben, hätte nie ein Gag-Writer werden können.
Meine einzige Genugtuung ist, dass viele Norddeutsche noch bierernster sind, aber anderseits Sgywalker wieder überschießend ist.

Space


Antwort von srone:

Weißt du srone, manchmal versuche ich etwas zum Schmunzeln einzubringen. Liege vermutlich ziemlich oft daneben, hätte nie ein Gag-Writer werden können. na komm, so schlecht ist das nicht, leider ist dieser ruhige philosophische teil bei slashcam nicht mehr so gefragt ;-))

Meine einzige Genugtuung ist, dass viele Norddeutsche noch bierernster sind, aber anderseits Sgywalker wieder überschießend ist. dein alter ego?

lg

srone

Space


Antwort von domain:

Interessant finde ich ja schon seine spontanen assoziativen immer weiter fortschreitenden spontanen Verästelungen der Gedanken bis ins Unverständlich gehend. Erinnert mich ans Träumen mit realem Hintergrund.

Um aber zum Thema zurückzukommen: ich emfinde die Suche nach formalen Aspekten in der Foto- und Videografie schon beinahe als nervend. Jeder sucht seinen eigenen Stil und die meisten den Filmlook und neuerdings auch diese flachen Dinger.

Was hat Hitchcock mal gesagt: es gibt drei wichtige Dinge beim Film: 1.2.und 3. das Drehbuch.
Nun so streng sehe ich das nicht, eine außergewöhnliche formale Gestaltung eines Films ist eben auch eine Gestaltung und aus Überlegungen über Wirkungen geboren, z.B. über die Wirkung von Farben.
Aber mir scheint, dass vieles nur aus Nachahmungswillen und den Modetrends folgend produziert wird.
Wie klänge folgende hypothetische Aussage: wie stelle ich es nur an, dass ich den tollen Videolook mit meinem Scheißnegativmaterial erreichen könnte?

Space


Antwort von srone:

Wie klänge folgende hypothetische Aussage: wie stelle ich es nur an, dass ich den tollen Videolook mit meinem Scheißnegativmaterial erreichen könnte? ;-)))

lg

srone

Space


Antwort von iasi:

Im Gegensatz zu Diafilmen arbeiteten Negativfilme ja immer schon sehr weich und mit großem Kontrastumfang. Erst beim Umkopieren oder Vergrößern wurde dann eine gezielte Kontrastaufsteilung vorgenommen. Schön, dass heutige Camcorder auch im Positivbereich solche Umfänge und Möglichkeiten aufweisen. Dem ist nichts mehr hinzuzufügen. Dazu brauchen wir keinen iasi, das erkennt ja ein Blinder. Tolle Kamera. Iasi würde so etwas sicherlich auch nicht verzapfen, denn das ist schlicht falsch, was der "Zitierte", da von sich gibt - zu Dia- und Negativfilm.

Space


Antwort von Tiefflieger:

Ich habe mir mal ein Standbild vorgenommen und versucht etwas mehr Details herauszuholen.
Das Problem ist, dass man in 8 bit nichts wirklich sieht. Banding ist ebenfalls nicht ausgeschlossen.
/ / (click)
In den Bergen im mittleren Bildteil ist vermutlich keine Detail-Zeichnung mehr.

Folgendes betrifft nicht direkt die Alexa mini.
Das Urteil ob man korrekt belichtet mit einem "Camcorder" direkt in 8bit weniger sieht, ist jedem selbst überlassen.
Und der "ungegradete" Film sagt für mich nicht wirklich etwas aus.

Gruss Tiefflieger

Space


Antwort von klusterdegenerierung:

Story ist ein bisschen Flach, aber zumindest ein paar mehr Blenden.
Ja ich weiß, bisschen offtopic, aber sieht zumindest nicht schlechter aus ;-)



Space


Antwort von iasi:

Ich habe mir mal ein Standbild vorgenommen und versucht etwas mehr Details herauszuholen.
Das Problem ist, dass man in 8 bit nichts wirklich sieht. Banding ist ebenfalls nicht ausgeschlossen.

In den Bergen im mittleren Bildteil ist vermutlich keine Detail-Zeichnung mehr.

Folgendes betrifft nicht direkt die Alexa mini.
Das Urteil ob man korrekt belichtet mit einem "Camcorder" direkt in 8bit weniger sieht, ist jedem selbst überlassen.
Und der "ungegradete" Film sagt für mich nicht wirklich etwas aus.

Gruss Tiefflieger und was soll das eigentlich?

sicherlich liegt das Material aus der Mini nicht als stark komprimiertes 8bit 4:2:0 vor ...
Mit deinem 8bit Camcorder "siehst" du am Ausgang sicherlich nichts vergleichbares ...

wenn man ein wenig die Lichtverhältnisse abschätzen kann, die vorgeherrscht hatten, dann sagt einem der "ungegradete" Film auch etwas

Space



Space


Antwort von iasi:

Story ist ein bisschen Flach, aber zumindest ein paar mehr Blenden.
Ja ich weiß, bisschen offtopic, aber sieht zumindest nicht schlechter aus ;-)
aha - wenn"s in den Lichtern clippt und die Schatten in sattes Schwarz absaufen, dann ist"s also gut ...

Space


Antwort von DeeZiD:

Story ist ein bisschen Flach, aber zumindest ein paar mehr Blenden.
Ja ich weiß, bisschen offtopic, aber sieht zumindest nicht schlechter aus ;-)
aha - wenn"s in den Lichtern clippt und die Schatten in sattes Schwarz absaufen, dann ist"s also gut ...
Fands auch furchtbar... :D
Aber selbst aus ARRI RAW bekommen viele Leute solche "Ergebnisse" ;)

Space


Antwort von Starshine Pictures:

Ich hab so das Gefühl dass Dynamikumfang von jedem hier anders verstanden wird. Das hat doch nix mit Schwarz und Weiss zu tun, höchstens als maximale faktische Grenzen des Machbaren. Wenn ich Möglichst Schwarz und Weiss drin haben will brauch ich dich keinen hohen Dynamikumfang.

Der Schneefilm bedeutet so ziemlich das selbe für die Arri wie wenn die Heidi Klum zu ihren Hühnern sagt: "Bitte stellt euch ungeschminkt beim Casting vor. Nur so kann man sehen was tatsächlich in euch steckt." Klar sehen einige geschminkt besser aus, mit vielen Farben und hohen Schwarzwerten im Gesicht. Aber beim Casting gehts eben nicht ums Ergebnis sondern um das Potential eines Models. Oder eben einer Kamera.


Grüsse, Stephan von Starshine Pictures

Space


Antwort von WoWu:

Du irrst Dich.
Das hat was mit schwarz und weiss zu tun und nur am Rande mit der Blendenzahl, denn die Angabe macht nur Sinn, wenn Du den Verlauf der Übertragungskurve mit gewichtest, denn streng genommen kannst Du so viele Blenden übertragen, wie Marketing es vorgibt. Du musst nur die Übertragungsfunktion flach genug machen.
Zwar hast Du dann kaum mehr Werte pro Blende, aber egal, Marketing hat seine 25 Blenden, egal, wie es hinterher aussieht.

Das Beispiel mit dem grauen Blatt, das 25 Blenden hat, war da schon ganz gut.

Dynamik definiert sich nun mal sehr nachvollziehbar.
Und das hat auch nix mit Geschmack zu tun oder künstlerischer Freiheit.
Künstlerisch ist dabei nur die Verkürzung der Blendenwerte in der Übertragung und das Hochstilisieren von Banding an den daraus resultierenden Übrgángen zur Kunst.

Space


Antwort von motiongroup:

In der Summe gesehen ist es doch vollkommen egal was der technische Hintergrund des ganzen ist, der Film ist als Ergebnis einfach flach und für mich eher keine Referenz für Arri und Steffan Starshine, wenn du dich bei ServusTv und RedbullTv etwas auskennst wird dir schnell klar das dieser Schnee Beitrag einfach einfach ist.. Jeder von euch bringt das mit dem Equipment anders aber vermutlich besser hin und ich denke auch nicht das es am Equipment lag sondern am Mann an den Mischern..und Stellern.

Space


Antwort von Spaceman:

Der Filmbeitrag ist mal wieder ein schönes Beispiel wie Color Grading voll in die Hose geht. Das arme Arri Material kann nichts dafür und hätte besseres verdient... Sowas im Internet hochzuladen ist ne Frechheit und sollte von Arri verboten werden...

Space


Antwort von Spaceman:

Und wer ein graues Bild mit nicht vorhandenem Schwarzpunkt auch noch mit durchgezeichneten Schatten verwechselt sollte dringend zum Optiker 😉

Space


Antwort von iasi:

Der Filmbeitrag ist mal wieder ein schönes Beispiel wie Color Grading voll in die Hose geht. Das arme Arri Material kann nichts dafür und hätte besseres verdient... Sowas im Internet hochzuladen ist ne Frechheit und sollte von Arri verboten werden... Es geht im Video um die Arri Mini und eben nicht in erster Linie um Skifahren und hohe Berge.
Was die Macher zeigen wollen, das zeigen sie - und das ist eben nicht ein Beispiel für farbenfrohes und kontrastreiches Color Grading.

Dem Betrachter werden natürlich 2 Dinge abverlangt:
1. Er muss sich das Ausgangsmaterial vorstellen. (Das geht mit solch einem Video eben doch noch besser als nach wildem Grading)
2. Er muss sich vorstellen, was man mit diesem Ausgangsmaterial machen kann.

Würde man hier eine RAW-Aufnahme bereit stellen und darum bitten, sie doch mal zu graden, dann würde man so viele verschiedene Ergebnisse erhalten, wie sich Leute an dem Material versuchen.

Space


Antwort von Spaceman:

Neh leider nicht. Das ist ein filmisches Endprodukt und kein Arri Log C Testfilm. Im Abspann lässt sich die Pospro inkl. einem Coloristen namentlich feiern.... Unglaublich was heutzutage für ein Schrott produziert wird...😩

Space



Space


Antwort von Jan Reiff:

Apropos DR und Look und Feel, Skintones, Noise usw


DER ULTIMATIVE ALBTRAUM VIELER HIER :

ein APPLE (!!) Spot shot on RED (!!) Dragon

Da müsst Ihr jetzt durch, 2 Feindbilder in einem :



Kamera: Wally Pfister (Inception, Dark Knight, Memento ...)

Frage mich mal wieder hier: warum rauscht da nix ?? Die Dragon is doch sooooo noisy.

Schön"Sonntach

Space


Antwort von Spaceman:

Nah in dem Clip passt wenigstens das Grading einigermassen!

Space


Antwort von Rudolf Max:

Hallo,

Ich sehe das Ganze folgendermassen: Laufe ich mit nacktem Auge durch die Gegend, kommt es immer wieder mal vor, dass ich entweder so stark geblendet werde, dass ich nichts mehr sehe, oder aber es ist so duster, dass ich auch wieder nichts mehr sehen kann. Ist doch völlig normal.

Das menschliche Auge, genauso wie jedes "Filmmaterial", egal ob ein Sensor oder Kodak, hat eine begrenzte Dynamikweite. Da kann es in jedem Film mal vorkommen, dass entweder etwas ausbrennt oder absäuft. Das ist doch nichts unnomrales. Vorausgesetzt, es ist nicht unbedingt der Hauptdarsteller, der da im Schwarz absäuft... das nennt sich dann eben korrekte Belichtung auf das Hauptmotiv, der Rest ist eher weniger wichtig und da werden diese Dynamikfehler seit Beginn der Filmerei stillschweigend akzeptiert.

Nun kommen aber ein paar technikverliebte und wollen mir weismachen, dass es "nicht sein dürfe", dass da mal etwas im "Nichts" verschwindet. Das ganze Dynamikthema kann man sehr gut auch mit Audio vergleichen: Dort werden auch Dynamikkompessoren benutzt, die dafür sorgen, dass die lautesten Stellen nicht übersteuern, das Aufnahmematerial nicht überfordern, die leisen Stellen aber trotzdem noch hörbar bleiben und nicht im Grundrauschen versinken. Heraus kommen dann eben Tonaufnahmen, die alle wie ein Einheitsbrei klingen. Kann man aber eben nur beschränkt und teilweise auskorrigieren. Die Musik als solches muss stimmen, dann stört sich niemand an den technischen Unzulänglichkeiten. MP3 wird ja auch akzeptiert, obwohl jeder weiss, dass es so ungefähr das mieseste ist, was uns Hörern aufgezängt wird...

Es wird immer so bleiben, dass das menschliche Auge und auch das Gehör viel mehr können, als man auf irgend einem Medium aufzeichnen kann. Solange das so ist, wird es auch immer Stimmen geben, die sich da an irgendwelchen Schwächen stören. Egal, ob Helligkeitskontraste oder auch Lautstärkenschwankungen, irgendwo ist immer ein Kompromis vonnöten.

Spielt doch aber alles nur eine untergeordnete Rolle, ich will ja am Schluss nicht die Technik geniessen, sondern vielmehr das filmische Resultat. Eine gute Musik bleibt eine gute Musik, auch auf Mittelwelle oder ab Compactcassette. Ein guter Film bleibt ein guter Film, ob am Smartphone oder im Kino betrachtet.

Umgekehrt geht es aber auch: Eine schlechte Musik wird durch überzüchtete Technik auch nicht schöner, genauso, wie ein schlechter Film durch Technik, äh... Grading nicht besser wird. Es kann zwar ein bisschen helfen, aber kann sicher nicht über eine lahme Handlung, schlechte Schauspieler, langweilige Handlung usw., hinwegtäuschen.

So gesehen könnte man heute locker behaupten, dass versucht wird, künstlerische Schwäche durch überzüchtete Technik zu ersetzen. Man sehe sich mal das Programm der Fernsesender um: Da wird geistige und künstlerische Scheisse Hoch-Drei ausgestrahlt, dafür aber in HD und "perfekt" durchgegradet.

Wenn das die Zukunft ist, dann gute Nacht...

Rudolf

Space


Antwort von klusterdegenerierung:

Story ist ein bisschen Flach, aber zumindest ein paar mehr Blenden.
Ja ich weiß, bisschen offtopic, aber sieht zumindest nicht schlechter aus ;-)
aha - wenn"s in den Lichtern clippt und die Schatten in sattes Schwarz absaufen, dann ist"s also gut ... iasi, ich hab drauf gewartet :-))

Space


Antwort von dienstag_01:

Das ganze hat ja mit Technikverliebtheit so überhaupt nichts zu tun.
Hier geht es um Ästhetik und einer bis zum Kotzen getriebenen Übersättigung an perfektioniert leblos-glatten Videobildern, die man entweder einfach nicht mehr sehen kann /will oder aber von denen man sich auf Teufel komm raus abheben will.
Und dazu sind alle tauglichen und untauglichen Mittel recht ;)

Space


Antwort von klusterdegenerierung:

@iasi
Natürlich war das GH4 Video kein gutes Beispiel, aber es hat wenigsten ein bisschen kontrast und man sieht mehr "umgesetzte" Blendenstufen.

Hier ist aber der Finalisierer definitiv zu weit gegangen und hat das clipping ignoriert, da hast Du volkommen Recht.

Was mir eigentlich, unabhängig vom flachen Log look, nicht am Arri Material zusagt, ist ganz einfach die Tatsache das es keine Tiefe und Brillianz erscheinen lässt. Klar, Weitwinkelaufnahmen sind bei kleiner Blende immer schwer scharf zu stellen, aber in den meißten Fällen sind Weitwinkelaufnahmen meißtens eher scharf, nicht aber hier.

Ich vermiße einfach eine gewisse Grundqualität. Sieht so aus als wenn man an einer Pocket eine ganz alte TV Optik mit weniger als SD Auflösung benutzt.

Ich vermute aber das an der Arii ein PL Mount oder zumindest ein EF Mount verbaut ist, an dem der Kameramann bestimmt eine hochwertige Optik hatte.

Wenn jetzt einer von uns das Video ohne das CI etc. gepostet hätte, hättest Du bestimmt auch gesagt, na ja, bisschen matschig, sieht aus wie aus ner Handycam mit focus Problemen! Hätte der jenige dann gesagt, nein das ist ne Arri mit ner 20er Zeiss Prime, wärst Du wohl aus dem lachen nicht mehr raus gekommen.

In meinem grässlich gegradetem GH4 Video sieht man ganz gut, was so eine Prime PL an der GH4 rausreisst, denn die Auflösung ist wirklich sehr gut.
Sehen kannst Du das in manchen Closeups mit dem Mädel, da sieht man jedes einzelne Haar ohne 4:2:0 Kanten wie man es bei eine DSLR häufig hat!
EInfach nur klar und brilliant.

Ich weiß das der vergleich nicht 1:1 auf die Arri zu übertragen ist, aber wenn einem eins ins Auge sticht, dann doch wohl die algemein schlechte Auflösung, warum auch immer und hat aber auch nix mit Vimeo zu tun, andere können das auch.

Ich bin mir sicher das die Arri was kann, aber die Darstellung dieses könnens, ist hier in allen Belangen gescheitert, warum und weshalb mal hinten angestellt.

Gehst Du da mit mir dacore? ;-)

Space


Antwort von Jott:

D'accord.

Space


Antwort von klusterdegenerierung:

D'accord. Oder so! lol ;-))

Space


Antwort von iasi:

Ich bin mir sicher das die Arri was kann, aber die Darstellung dieses könnens, ist hier in allen Belangen gescheitert, warum und weshalb mal hinten angestellt.

Gehst Du da mit mir dacore? ;-) Es geht im den Video, darum zu zeigen, welches Potential in der Mini und dem Material daraus steckt.
Wenn du es dir ansiehst und dir überlegst, dass das Ausgangsmaterial nicht nur 8bit 4:2:0 hat, dann kannst du dir doch vorstellen, was du mit diesem Material anstellen kannst - da sind dann beim Grading eben weit weit weniger Grenzen gesetzt, als z.B bei GH4-Material.
Ausbrennende Lichter und schwarze Schatten müssen nicht schlecht sein - hängt von dem ab, was du willst und brauchst - und im Arri-Mini-Material sehe ich eben auch diese Möglichkeit.

Ich sehe aber eben gerne so ein flaches Video, statt ein kontrastreiches mit tiefen Schwarz und clippenden Lichter, um einen Eindruck vom Potential der Kamera erhalten zu können.

Wie schon gesagt: Ich kann mir dann ja immer noch ausmalen, wie es aussehen könnte, wenn man intensives Grading macht.

Space



Space


Antwort von iasi:

Ich bin mir sicher das die Arri was kann, aber die Darstellung dieses könnens, ist hier in allen Belangen gescheitert, warum und weshalb mal hinten angestellt.

Gehst Du da mit mir dacore? ;-) Es geht im den Video, darum zu zeigen, welches Potential in der Mini und dem Material daraus steckt.
Wenn du es dir ansiehst und dir überlegst, dass das Ausgangsmaterial nicht nur 8bit 4:2:0 hat, dann kannst du dir doch vorstellen, was du mit diesem Material anstellen kannst - da sind dann beim Grading eben weit weit weniger Grenzen gesetzt, als z.B bei GH4-Material.
Ausbrennende Lichter und schwarze Schatten müssen nicht schlecht sein - hängt von dem ab, was du willst und brauchst - und im Arri-Mini-Material sehe ich eben auch diese Möglichkeit.

Ich sehe aber eben gerne so ein flaches Video, statt ein kontrastreiches mit tiefen Schwarz und clippenden Lichter, um einen Eindruck vom Potential der Kamera erhalten zu können.

Wie schon gesagt: Ich kann mir dann ja immer noch ausmalen, wie es aussehen könnte, wenn man intensives Grading macht.

Space


Antwort von iasi:

Apropos DR und Look und Feel, Skintones, Noise usw


DER ULTIMATIVE ALBTRAUM VIELER HIER :

ein APPLE (!!) Spot shot on RED (!!) Dragon

Da müsst Ihr jetzt durch, 2 Feindbilder in einem :



Kamera: Wally Pfister (Inception, Dark Knight, Memento ...)

Frage mich mal wieder hier: warum rauscht da nix ?? Die Dragon is doch sooooo noisy.

Schön"Sonntach Warum erwähnst du ständig das Rauschen beim Dragon?

Klar rauscht der Dragon, wenn man ihn falsch behandelt - bei anderen Kameras verhindert das dann nur eine sehr beherzt eingreifende interne NR - so ist das nun mal.

Über das Ührchen könnte man streiten ... Hoffentlich fällt den Apfeljanern auch mal wieder etwas wirklich inovatives ein.
Aber Apple ist eh nur noch die Mode-Marke im Technik-Bereich ... Nicht mal 10bit kann man einem MacPro entlocken, obwohl er FirePro-Karten drin stecken hat - aus dem Geländewagen ist eben ein Luxus-SUV geworden.

Space


Antwort von klusterdegenerierung:

Ich bin mir sicher das die Arri was kann, aber die Darstellung dieses könnens, ist hier in allen Belangen gescheitert, warum und weshalb mal hinten angestellt.

Gehst Du da mit mir dacore? ;-) Es geht im den Video, darum zu zeigen, welches Potential in der Mini und dem Material daraus steckt.
Wenn du es dir ansiehst und dir überlegst, dass das Ausgangsmaterial nicht nur 8bit 4:2:0 hat, dann kannst du dir doch vorstellen, was du mit diesem Material anstellen kannst Ach ist Dir das auch schon aufgefallen?
Aber Du scheinst mir extrem Blind zu sein, wenn Du meinst dass das Material gut ist oder man was besonderes damit reissen kann.
Sorry aber das ist einfach alles andere als professionell und Du gestehst es Dir jetzt nicht ein um Dein Gesicht zu waren!

Wenn es wirklich gutes Rohmaterial WÄRE sähe es so schon um vielfaches besser aus!!

Guck es Dir doch mal genau an! Das kann jeder Henkelmann besser!

Space


Antwort von Jott:

Wer erklärt dem Iasi das mit den 10 Bit/12 Bit am Mac? :-)

Space


Antwort von Starshine Pictures:

Wenn einer mag kann er sich ja hier etwas Samplematerial von der Alexa runter laden und selbst testen was sich so mit dem Material anstellen lässt. Ist zwar nicht von der Mini, aber dürfte in etwa vergleichbar sein.

http://www.arri.com/camera/alexa/learn/ ... e_footage/


Grüsse, Stephan von Starshine Pictures

Space


Antwort von iasi:

Wer erklärt dem Iasi das mit den 10 Bit/12 Bit am Mac? :-) die Leute von CT

http://www.heise.de/newsticker/meldung/ ... 14271.html

lies und lerne

Space


Antwort von iasi:

Ich bin mir sicher das die Arri was kann, aber die Darstellung dieses könnens, ist hier in allen Belangen gescheitert, warum und weshalb mal hinten angestellt.

Gehst Du da mit mir dacore? ;-) Es geht im den Video, darum zu zeigen, welches Potential in der Mini und dem Material daraus steckt.
Wenn du es dir ansiehst und dir überlegst, dass das Ausgangsmaterial nicht nur 8bit 4:2:0 hat, dann kannst du dir doch vorstellen, was du mit diesem Material anstellen kannst Ach ist Dir das auch schon aufgefallen?
Aber Du scheinst mir extrem Blind zu sein, wenn Du meinst dass das Material gut ist oder man was besonderes damit reissen kann.
Sorry aber das ist einfach alles andere als professionell und Du gestehst es Dir jetzt nicht ein um Dein Gesicht zu waren!

Wenn es wirklich gutes Rohmaterial WÄRE sähe es so schon um vielfaches besser aus!!

Guck es Dir doch mal genau an! Das kann jeder Henkelmann besser! Wir reden hier über diese Aufnahmen:
?!

Langsam wundert"s mich nicht mehr, dass so wenige etwas mit RAW anfangen können und nach ProRes schreien.

Space


Antwort von Jott:

Wer erklärt dem Iasi das mit den 10 Bit/12 Bit am Mac? :-) die Leute von CT

http://www.heise.de/newsticker/meldung/ ... 14271.html

lies und lerne Lies besser woanders ... wie das geht mit der 10Bit- oder gar 12-Bit-Ausgabe. Ist eigentlich Allgemeinwissen. Zurück zum Thema.

Space


Antwort von klusterdegenerierung:

Wer erklärt dem Iasi das mit den 10 Bit/12 Bit am Mac? :-) die Leute von CT

http://www.heise.de/newsticker/meldung/ ... 14271.html

lies und lerne HAHAHA gerade der Heise Artikel in dem 500 Leute nur blödsinn schreiben und den einen der Ahnung hat, nicht zu hören und fertig machen!

Sorry iasi, aber den Artikle kannst Du getrost vergessen.

Space



Space


Antwort von klusterdegenerierung:

@iasi,
noch mal ganz langsam zum mitdenken!
JA ich und all die anderen haben verstanden das Du das Material als Rohmaterial ansiehst, welches viele Möglchkeiten beinhaltet!

Darum geht es aber doch garnicht! Es ist kein gutes "Rohmaterial" und um das zu sehen muß man nicht viel auf der Pfanne haben.

Ich kann Dir auch gerne das Arri Logo rausschneiden, vielleicht bist Du dann nicht mehr so geblendet!

Space


Antwort von iasi:

@iasi,
noch mal ganz langsam zum mitdenken!
JA ich und all die anderen haben verstanden das Du das Material als Rohmaterial ansiehst, welches viele Möglchkeiten beinhaltet!

Darum geht es aber doch garnicht! Es ist kein gutes "Rohmaterial" und um das zu sehen muß man nicht viel auf der Pfanne haben.

Ich kann Dir auch gerne das Arri Logo rausschneiden, vielleicht bist Du dann nicht mehr so geblendet! Ich bin doch der RED-Mann - und nur weil du und manch anderer es als "kein gutes Rohmaterial" ansehen, ist"s eben doch beeindruckend gut - und das sage ich, obwohl das Arri-Logo gezeigt wurde.

Und nochmal, um es vielleicht begreiflich zu machen:
Zunächst mal kommt es darauf an, dass richtig belichtet wird - d.h. den DR möglichst optimal ausnutzen - und das wurde hier getan.
Solche Aufnahmen kann man dann in jede Richtung graden - zumal es ja nicht nur 8bit sind.
Da ist kein harten Clippen in den Lichtern. Da ist Zeichnung in den Schatten - selbst in der schwarzen Hose. Über so etwas freuen sich die Post-Leute normalerweise.

Diejenigen, die ständig über LUTs in der Kamera und ProRes reden, weil sie eigentlich schon das fertige Bild aus der Kamera bekommen wollen, mögen das vielleicht nicht verstehen ...

Space


Antwort von klusterdegenerierung:

iasi, das Material ist unscharf und matschig!

Space


Antwort von Rudolf Max:

@: iasi, das Material ist unscharf und matschig!...

dem schliesse ich mich an. Mich würden diese Aufnahmen weiter nicht stören, man kann da ja reichlich daran "rumbasteln" bis es einem gefällt, aber ich meine, die Bilder sind sowas von langweilig, dass sich da kaum ein Aufwand lohnt. Wenn schon eine Demovideo, dann doch bitte etwas, was nicht gar so stinkelahm daherkommt...

Mag sein, dasss ich das etwas befangen sehe, da ich täglich solche Berge vor meiner Nase sehe. Gerade daher weiss ich aber, dass die schweizer Berge in Natura doch wesentlich angenehmer zum Betrachten sind als die gezeigten Arri Aufnahmen. Wenn alles immer bloss so grau in grau und so unscharf wäre, ich würde ins Flachland ziehen, bloss um sowas nicht dauernd sehen zu müssen... und natürlich auch als erstes zum Optiker gehen, um mir eine scharf zeichnende Brille zu verpassen... *smile

Man kann auch getrost mal fragen, wo denn eigentlich die Nachbearbeitung solches Rohmaterials beginnen sollte... schon in der Kamera, oder doch erst zu Hause im Computer...?

Rudolf

Space


Antwort von DeeZiD:

iasi, das Material ist unscharf und matschig! Was an Vimeo liegt (2,5Mbit/s bei 1080p - PFUI!). YouTube in 4k (Bitrate ebenfalls sehr niedrig, aber deutlich schärfer) würde hier die deutlich bessere Qualität liefern. Außerdem weiß niemand, mit welchem Algorithmus hier runterskaliert wurde. Macht mitunter eine Menge aus!

Und was du als matschig bezeichnet nennt man fehlende Scharfzeichnung, ein Nachschärfen in der Post vor dem Upload mitsamt starker Kompression wäre aber von Vorteil.

Als GH4-Besitzer natürlich nicht nachvollziehbar, zumal diese selbst bei Schärfe -5 noch fröhlich in bester Videolook-manier Halos malt... :(


Hier mal ein Screenshot des stark komprimierten 8-Bit!-Materials stark in PS nachbearbeitet (sollte selbst Tiefflieger gefallen):

Space


Antwort von klusterdegenerierung:

iasi, das Material ist unscharf und matschig! Was an Vimeo liegt (2,5Mbit/s bei 1080p - PFUI!). YouTube in 4k (Bitrate ebenfalls sehr niedrig, aber deutlich schärfer) würde hier die deutlich bessere Qualität liefern. Außerdem weiß niemand, mit welchem Algorithmus hier runterskaliert wurde. Macht mitunter eine Menge aus!

Und was du als matschig bezeichnet nennt man fehlende Scharfzeichnung, ein Nachschärfen in der Post vor dem Upload mitsamt starker Kompression wäre aber von Vorteil.

Als GH4-Besitzer natürlich nicht nachvollziehbar, zumal diese selbst bei Schärfe -5 noch fröhlich in bester Videolook-manier Halos malt... :(


Hier mal ein Screenshot des stark komprimierten 8-Bit!-Materials stark in PS nachbearbeitet (sollte selbst Tiefflieger gefallen): Unscharf heist nicht nur, keine schärfe im Video, sondern auch, das es entweder verpatzt wurde oder die cam es nicht besser kann.

Und das jetzt wieder die GH4 Schärfe Nummer herhalten muß war ja klar!
Du, die KANN wenigstens scharf!
Und wenn Du meinst das man auch keine Schärfe zum Kontrast braucht, dann brauchst Du auch keine Cam, dann male Dir doch Deine Berge! :-)

Space


Antwort von Rudolf Max:

@: Hier mal ein Screenshot des stark komprimierten 8-Bit!-Materials stark in PS nachbearbeitet (sollte selbst Tiefflieger gefallen)

Ja, so sieht es schon deutlich angenehmer aus...gefällt mir...

Klar, dass da gewisse Bildbereiche eine simple graue Fläche ohne Details darstellen, aber das ist in der Natur eben so und auch nicht anders. Dafür stimmen nun die Kontraste und das Gesamtbild, um das geht es ja schliesslich...

Rudolf

Space


Antwort von DeeZiD:

Unscharf heist nicht nur, keine schärfe im Video, sondern auch, das es entweder verpatzt wurde oder die cam es nicht besser kann.

Und das jetzt wieder die GH4 Schärfe Nummer herhalten muß war ja klar!
Du, die KANN wenigstens scharf!
Und wenn Du meinst das man auch keine Schärfe zum Kontrast braucht, dann brauchst Du auch keine Cam, dann male Dir doch Deine Berge! :-)
Gehe eher von verpatzt aus. Die Alexa produziert bereits perfektes 2k-Material. Bei 2.5Mbit bleibt davon allerdings nicht viel übrig, erst recht nicht bei solch niedrigen Kontrasten und wie gesagt: Wer weiß, wie hier skaliert wurde (Premiere skaliert beispielsweise furchtbar schlecht runter)...

Außerdem kann man bei einer RED/ARRI-Kamera immer noch entscheiden, ob man Videoschärfe will oder eben nicht. Was bei einer FS7, GH4, a7s (ja, wirklich), NX1 etc. kaum möglich ist.

Bin übrigens selbst Besitzer einer GH4 und warte nachwievor auf den versprochenen LOG-Modus. ;)

Space


Antwort von iasi:

Wenn man selbst aus einem Vimeo-Standbild so etwas herausholen kann, sollte sich doch nun jeder auch vorstellen können, was man mit dem Ausgangsmaterial anstellen kann.

Und nochmal: Ich bin froh, dass das Video fast ohne Grading zu sehen ist - nur so lässt sich eine Kamera (und eben nicht nur die Fähigkeiten der Post-Leute) beurteilen.

Space



Space


Antwort von Rudolf Max:

@: iasi:

Ich würde ganz gerne mal einen Blick in dein neuestes Drehbuch werfen...

Ich höre immer bloss technisches Geschwafel, aber über das eigentliche, was eine Kamera können sollte, nämlich gute Filme herstellen, höre ich gar nichts...

Glaube mir, die technische Perfektion ist nichts alles... ich kann mir auch mit einem perfekten neuen Hammer sehr schmerzhaft auf den Finger klopfen...

Ich kann aber auch mit einer einfachen Kamera tolle Filme machen... so im Gegenzug...

Also, was soll das ganze feilschen um irgendwelche Mengen von Stopps und DR bis zum abwinken... erkläre man mit doch bitte mal...

Rudolf

P.S. Das ganze Forum ist meiner Ansicht nach inzwischen so total technik orientiert, dass man als ganz normaler Filmemacher sich echt ein bisschen blöde vorkommt...

Rudolf

Space


Antwort von klusterdegenerierung:

Bin übrigens selbst Besitzer einer GH4 und warte nachwievor auf den versprochenen LOG-Modus. ;) Soll er denn nu kommen? Wurde da nicht wieder zurück gerudert?

Space


Antwort von Rudolf Max:

@:: Wenn man selbst aus einem Vimeo-Standbild so etwas herausholen kann, sollte sich doch nun jeder auch vorstellen können, was man mit dem Ausgangsmaterial anstellen kann.

Sowas hole ich locker auch aus meiner Billigkamera raus: Der Sony RX-10...

Wenn ich dazu extra eine teure Arri kaufen muss, dann suche ich mir ein anderes Hobby...

Für dieses Geld mache doch viel lieber wieder mal tollen Urlaub... auf Galapagos z.B.... da war ich schon des öfteren...

Rudolf

Space


Antwort von klusterdegenerierung:

@:: Wenn man selbst aus einem Vimeo-Standbild so etwas herausholen kann, sollte sich doch nun jeder auch vorstellen können, was man mit dem Ausgangsmaterial anstellen kann.

Sowas hole ich locker auch aus meiner Billigkamera raus: Der Sony RX-10...

Wenn ich dazu extra eine teure Arri kaufen muss, dann suche ich mir ein anderes Hobby...

Für dieses Geld mache doch viel lieber wieder mal tollen Urlaub... auf Galapagos z.B.... da war ich schon des öfteren...

Rudolf Ich wollte ihm jetzt auch nicht noch mal erklären, das ich die Ebayjpgs eines Freundes, die er mit ner Urlaubsknipse macht, im CameraRaw noch mal so richtig auffetze und die Schatten voll hell bekomme und wieder Zeichnung ins Weiß hole! ;-))

Space


Antwort von iasi:

@: iasi:

Ich würde ganz gerne mal einen Blick in dein neuestes Drehbuch werfen...

Ich höre immer bloss technisches Geschwafel, aber über das eigentliche, was eine Kamera können sollte, nämlich gute Filme herstellen, höre ich gar nichts...

Glaube mir, die technische Perfektion ist nichts alles... ich kann mir auch mit einem perfekten neuen Hammer sehr schmerzhaft auf den Finger klopfen...

Ich kann aber auch mit einer einfachen Kamera tolle Filme machen... so im Gegenzug...

Also, was soll das ganze feilschen um irgendwelche Mengen von Stopps und DR bis zum abwinken... erkläre man mit doch bitte mal...

Rudolf

P.S. Das ganze Forum ist meiner Ansicht nach inzwischen so total technik orientiert, dass man als ganz normaler Filmemacher sich echt ein bisschen blöde vorkommt...

Rudolf schon klar - dieses Lied nun wieder
der Titel lautet zwar "Dynamic Range at its best?" aber nun soll auch gleich noch über Drehbücher diskutiert werden ...

Vielleicht wäre es aber doch besser ein neues Thema zu starten - da können wir ja gerne über Drehbücher diskutieren.
Hier geht"s aber eben nun einmal um eine Kamera - ein Werkzeug.
Und es ist eben schon auch wichtig, sein Werkzeug gut zu wählen, zu kennen
und damit richtig zu arbeiten.

Space


Antwort von iasi:

@:: Wenn man selbst aus einem Vimeo-Standbild so etwas herausholen kann, sollte sich doch nun jeder auch vorstellen können, was man mit dem Ausgangsmaterial anstellen kann.

Sowas hole ich locker auch aus meiner Billigkamera raus: Der Sony RX-10...

Wenn ich dazu extra eine teure Arri kaufen muss, dann suche ich mir ein anderes Hobby...

Für dieses Geld mache doch viel lieber wieder mal tollen Urlaub... auf Galapagos z.B.... da war ich schon des öfteren...

Rudolf Was soll man dazu sagen ...

Vielleichts gehst du ja wirklich mal in die Berge und versuchst mit deiner Sony RX-10 Aufnahmen zu machen, die du dann unbehandelt bei Vimeo hochlädst, auf dass andere Snappshots davon machen und diese graden.

Auf den sonnenbeschienen Schnee, den Himmel und die schwarze Hose bin ich dann mal gespannt.

Space


Antwort von iasi:


Ich wollte ihm jetzt auch nicht noch mal erklären, das ich die Ebayjpgs eines Freundes, die er mit ner Urlaubsknipse macht, im CameraRaw noch mal so richtig auffetze und die Schatten voll hell bekomme und wieder Zeichnung ins Weiß hole! ;-)) genau - dann mal los und rein mit den Ebayjpgs in CameraRaw ... :)

Space


Antwort von Rudolf Max:

@: Auf den sonnenbeschienen Schnee, den Himmel und die schwarze Hose bin ich dann mal gespannt.

Solch langweilige Bilder fillme ich schon gar nicht... schon gar nicht extra mit einer schwarzen Hose... eine hellere hätte denselben Zweck erfüllt... für ein "Demovideo"...

Ja, ich weiss, die Drohne reisst alles raus... früher war ein Slider und solches Zeugs noch ausreichend...äh... war schon damals völlig überflüssig...

Rudolf

Space


Antwort von Jan Reiff:

Wer erklärt dem Iasi das mit den 10 Bit/12 Bit am Mac? :-) die Leute von CT

http://www.heise.de/newsticker/meldung/ ... 14271.html

lies und lerne
ich bin immer wieder beruhigt dass ich mit meinen (displaying!) 8bit Macs doch immer wieder Fotografien bearbeite, die dann auf dem Hochglanz Papier des Kunden im Magazin krachend geil aussehen.
Net schlecht für nen Amateur Tool
Der Heise Artikel ist mitunter das Peinlichste an "Journalismus" was ich in den letzten Jahren gelesen habe. Was "n Bullshit. Ganze Großverlage wie u.a. bei Burda arbeiten auf Macs in der Grafik ... da ändert auch das neue Feindbild iwatch nix ... Ich glaube für manche ist es unerträglich, dass Apple eigentlich keine "Workstations" mehr bauen muss, um die Milliarden zu verdienen (was auch der Sinn eines kommerziellen Unternehmens ist), und solange Apple auch noch eine i-Pfanne oder einen i-Küchenschrubber mit W-lan rausbringt und damit Milliarden verdient wird der Heise Autor ganz sicher nicht glücklich in seiner kleinen Welt, weil er die große Welt da draussen im Jahre 2015 leider nicht versteht.

Space


Antwort von klusterdegenerierung:

Wer erklärt dem Iasi das mit den 10 Bit/12 Bit am Mac? :-) die Leute von CT

http://www.heise.de/newsticker/meldung/ ... 14271.html

lies und lerne
ich bin immer wieder beruhigt dass ich mit meinen (displaying!) 8bit Macs doch immer wieder Fotografien bearbeite, die dann auf dem Hochglanz Papier des Kunden im Magazin krachend geil aussehen.
Net schlecht für nen Amateur Tool
Der Heise Artikel ist mitunter das Peinlichste an "Journalismus" was ich in den letzten Jahren gelesen habe. Was "n Bullshit. Ganze Großverlage wie u.a. bei Burda arbeiten auf Macs in der Grafik ... da ändert auch das neue Feindbild iwatch nix ... Ich glaube für manche ist es unerträglich, dass Apple eigentlich keine "Workstations" mehr bauen muss, um die Milliarden zu verdienen (was auch der Sinn eines kommerziellen Unternehmens ist), und solange Apple auch noch eine i-Pfanne oder einen i-Küchenschrubber mit W-lan rausbringt und damit Milliarden verdient wird der Heise Autor ganz sicher nicht glücklich in seiner kleinen Welt, weil er die große Welt da draussen im Jahre 2015 leider nicht versteht. +1

Zumal es nie von Nöten war ein RGB Bild in 10Bit zu sehen, welches im Proof oder Druck als CYMK rausgeht und ein eventuelles Banding auf der Trommel der Heidelberg sowieso verläuft!

Einfach zum piepen dieser Artikel!
Ganz davon abgesehen das die damaligen Macs mit ihren Quadrokarten die einzigen waren die überhaupt 10Bit konnten, wenn sie sollten.

Das dies aber nun so garnix mit dem Betriebssystem als solches zu tun hat, hat der arme leider nicht auf dem Schirm!

Space


Antwort von WoWu:

Wer erklärt dem Iasi das mit den 10 Bit/12 Bit am Mac? :-) die Leute von CT

http://www.heise.de/newsticker/meldung/ ... 14271.html

lies und lerne Aber das ist doch nun eine alte Weisheit, dass man immer dort vorsichtig sein muss, wo "PRO" draufsteht.
Allerdings im Augenblick auch da, wo 4k oder mehr draufsteht.
Ich glaube, die Firmen schreiben es drauf, damit keiner nachschaut.
Wer für "PRO" bezahlt hat, möchte gar nicht wissen, dass nur "SEMI" drin ist.

Das scheint auch so mit der Bezeichnung "Demeokratie" zu sein.
Die schreiben es auch drauf, damit keiner nachschaut.
Und es klappt ja, genauso, wie bei den Werbefritzen der Industrie.

Space


Antwort von motiongroup:

solche Dinge begegnen uns das ganze Leben, mal ist die Wurst mit nem richtigen Doktor gefüllt, mal ist's mit billiger Gutenbergschen COPY Paste gefüllt... Da hat sich ne ganze Nation an der Nase herum führen lassen und sogar der Rest der Welt.

Und na klar pro hat mit ner 10bit gui zu tun alles klar..

Space


Antwort von iasi:

Wer erklärt dem Iasi das mit den 10 Bit/12 Bit am Mac? :-) die Leute von CT

http://www.heise.de/newsticker/meldung/ ... 14271.html

lies und lerne
ich bin immer wieder beruhigt dass ich mit meinen (displaying!) 8bit Macs doch immer wieder Fotografien bearbeite, die dann auf dem Hochglanz Papier des Kunden im Magazin krachend geil aussehen.
Net schlecht für nen Amateur Tool
Der Heise Artikel ist mitunter das Peinlichste an "Journalismus" was ich in den letzten Jahren gelesen habe. Was "n Bullshit. Ganze Großverlage wie u.a. bei Burda arbeiten auf Macs in der Grafik ... da ändert auch das neue Feindbild iwatch nix ... Ich glaube für manche ist es unerträglich, dass Apple eigentlich keine "Workstations" mehr bauen muss, um die Milliarden zu verdienen (was auch der Sinn eines kommerziellen Unternehmens ist), und solange Apple auch noch eine i-Pfanne oder einen i-Küchenschrubber mit W-lan rausbringt und damit Milliarden verdient wird der Heise Autor ganz sicher nicht glücklich in seiner kleinen Welt, weil er die große Welt da draussen im Jahre 2015 leider nicht versteht. Es ändert doch aber nichts daran, dass Apple die teure FirePro brach liegen lässt. Es ist ja nicht gerade so, als wäre eine 10bit-Darstellung völlig unnötig.

Apple ist nur noch eine Mode-Marke - betrachtet man sich die Gewinnmarschen, dann kann man sogar von Luxus-Marke sprechen. Ich pesönlich halte nicht viel von Luxus - und auch nicht von Leuten, die denken, sie müssten sich mit Luxus schmücken.
Apple galt mal als Schmiede für Grafikhardware - heute ist es eben nur noch ein Designerladen.

Space


Antwort von Jott:

Die Meinung sei dir unbenommen, wenn du sie haben musst. Dass du sicherlich nie Red-Material mit MacPro plus fcp x bearbeitet hast, sollte aber auch klar sein. Richtig? Richtig. Deswegen bleibt es nur eine Meinung.

Es heißt übrigens Margen. Hohe Margen sind gut für's Geschäft, für Apple genauso wie für gewinnorientierte Auftragsfilmer. Ja, so was gibt's!

Wie wurde eigentlich die Kurve von dem Arri-Schneefilm zu Apple ist Sch... gekriegt?

Space


Antwort von domain:



10 Bit sind doch viel zu wenig. Wenn das hier die Waveform der relativ unveränderten Originalaufnahme (von oben) ist, dann werden hier doch ca. nur 5 von 10 Bit ausgenützt. Die Lichter gehen nur bis knapp über 60% und die 0% werden auch nicht erreicht.
Was soll eine derart flache Log-Kurve, die eigentlich nur für einige Extremfälle gedacht ist und später so gespreizt werden muss, dass die Quantisierungssprünge gröber als bei einer 8 Bit-Aufzeichnung ausfallen, die den vollen Bitbereich schon bei der Aufnahme annähernd ausreizt? Dazu gibt es bei Profikameras ja div. Profile, sowie Knee und Blackstretch, nur muss man da schon vor Aufnahme Entscheidungen treffen, schrecklich.
Ach, ich habe beinahe vergessen, dass bei flachen Aufzeichnungen erst in der Post die richtigen Kontraste hergestellt werden.
Ergibt schön viel genussvolle Nachbearbeitung bei 90% der Aufnahmen :-)

Space


Antwort von iasi:

Die Meinung sei dir unbenommen, wenn du sie haben musst. Dass du sicherlich nie Red-Material mit MacPro plus fcp x bearbeitet hast, sollte aber auch klar sein. Richtig? Richtig. Deswegen bleibt es nur eine Meinung. Richtig ist, dass man eben durchaus auch mal etwas in einem Ausgabeformat mit mehr als 8bit liefern muss.
Irgendwie kommt der MacPro mir vor wie ein Kombi, bei dem man die Heckklappe zugeschweißt hat - damit"s besser aussieht.
Es heißt übrigens Margen. Hohe Margen sind gut für's Geschäft, für Apple genauso wie für gewinnorientierte Auftragsfilmer. Ja, so was gibt's! Danke für die Korrektur.
Ich mache Apple ja keine Vorwürfe, sondern nur denen, die denken, sie müssten Luxusgüter haben.
Wie wurde eigentlich die Kurve von dem Arri-Schneefilm zu Apple ist Sch... gekriegt? du weißt doch, wie so was im Forum läuft

Space


Antwort von iasi:


10 Bit sind doch viel zu wenig. Wenn das hier die Waveform der relativ unveränderten Originalaufnahme (von oben) ist, dann werden hier doch ca. nur 5 von 10 Bit ausgenützt. Die Lichter gehen nur bis knapp über 60% und die 0% werden auch nicht erreicht.
Was soll eine derart flache Log-Kurve, die eigentlich nur für einige Extremfälle gedacht ist und später so gespreizt werden muss, dass die Quantisierungssprünge gröber als bei einer 8 Bit-Aufzeichnung ausfallen, die den vollen Bitbereich schon bei der Aufnahme annähernd ausreizt? Dazu gibt es bei Profikameras ja div. Profile, sowie Knee und Blackstretch, nur muss man da schon vor Aufnahme Entscheidungen treffen, schrecklich.
Ach, ich habe beinahe vergessen, dass bei flachen Aufzeichnungen erst in der Post die richtigen Kontraste hergestellt werden.
Ergibt schön viel genussvolle Nachbearbeitung bei 90% der Aufnahmen :-) deshalb kann die Mini ja schließlich auch mehr als 10bit ...

vielleicht wird an diesem Beispiel dann ja auch mal einigen klar, was 12bit gegenüber von 8bit für Vorteile bringt.
Denn in diesem schmalen 12bit-Band, stecken mehr Abstufungen, als in einer 8bit-Aufnahme, die oben und unten anstößt.

Space


Antwort von domain:

Ja stimmt, sieht dann ja schon besser aus, auch wenn der enorme Nachbearbeitungsaufwand bleibt:

ARRI
Output Type:
12-bit ARRIRAW
10-bit 1080PsF 4:4:4 RGB (HD-SDI)
10-bit 1080PsF 4:2:2 YCbCr (HD-SDI)
12-bit 2K Apple ProRes
10-bit HD Apple ProRes

Logisch wäre dann aber in Zukunft eine 2*8=16 Bit-Aufzeichnung, wie bei den Musik CDs mit 96 DB DNR schon lange üblich. Die internen AD-Wandler der Camcorder schaffen das meines Wissens ja schon länger.

Space


Antwort von Jott:

Richtig ist, dass man eben durchaus auch mal etwas in einem Ausgabeformat mit mehr als 8bit liefern muss. Du glaubst wirklich, mit einem Mac könne man nur 8 Bit produzieren/ausgeben? Wirklich jetzt? Ganz ehrlich? So einen Quatsch hast du nicht mal bei Heise gelesen, wenn du genauer hinschaust. Die schreiben nämlich ganz korrekt kein Sterbenswörtchen zu Videobearbeitung und Videoausgabe, nicht wahr?

10 Bit/12 Bit - alles egal und Alltag am Mac. Mit Arri-Material sowieso: ProRes 4444 12Bit rein und raus auf jedem billigen iMac. Du machst dich lächerlich, echt. Lieber zurück zur Arri.

Space


Antwort von Frank Glencairn:


Es ändert doch aber nichts daran, dass Apple die teure FirePro brach liegen lässt. Das sind keine FirePro und teuer sind sie auch nicht.
Was glaubst du warum Apple diese Chipsätze von AMDs Resterampe verkrüppelt und runter getaktet hat?

Space


Antwort von Jan Reiff:

mag alles sein

Resterampe usw

aber FCPX und Red Dragon Raw flutscht wie Butter im Schnitt.

Mehr braucht"s bei uns nicht.
Selbst Photoshop läuft und wir bekommen jedes Food Bild pünktlich zum Kunden. Die High End Leute hier holen sich halt PC"s, so sei es. Amen.

Dass die bei Apple nur das Geld aus der Tasche ziehen wollen is klar, andere Hersteller sind letztlich barmherzige Samariter.

Warte noch auf das Video, wo ein PC übers Wasser laufen kann.

Guten Tag, mein Name ist Heise und ich kaufe hier ein ...

Space


Antwort von iasi:

Richtig ist, dass man eben durchaus auch mal etwas in einem Ausgabeformat mit mehr als 8bit liefern muss. Du glaubst wirklich, mit einem Mac könne man nur 8 Bit produzieren/ausgeben? Wirklich jetzt? Ganz ehrlich? So einen Quatsch hast du nicht mal bei Heise gelesen, wenn du genauer hinschaust. Die schreiben nämlich ganz korrekt kein Sterbenswörtchen zu Videobearbeitung und Videoausgabe, nicht wahr?

10 Bit/12 Bit - alles egal und Alltag am Mac. Mit Arri-Material sowieso: ProRes 4444 12Bit rein und raus auf jedem billigen iMac. Du machst dich lächerlich, echt. Lieber zurück zur Arri. du verstehst nur was du verstehen willst?

das problem ist doch, dass der MacPro nur eine 10bit-Displayausgabe bietet - trotz AMD-FirePro, die das eigentlich beherrschen.
Da hat wohl Apple einen Deal mit AMD gemacht, um die FirePros billiger zu bekommen und den eh schon üppigen Gewinn weiter zu steigern.

Space


Antwort von iasi:

mag alles sein

Resterampe usw

aber FCPX und Red Dragon Raw flutscht wie Butter im Schnitt.

Mehr braucht"s bei uns nicht.
Selbst Photoshop läuft und wir bekommen jedes Food Bild pünktlich zum Kunden. Die High End Leute hier holen sich halt PC"s, so sei es. Amen.

Dass die bei Apple nur das Geld aus der Tasche ziehen wollen is klar, andere Hersteller sind letztlich barmherzige Samariter.

Warte noch auf das Video, wo ein PC übers Wasser laufen kann.

Guten Tag, mein Name ist Heise und ich kaufe hier ein ... Apple macht eben das, was Apple mit den Apple-usern machen kann - Apples Gewinnmarchen sagen ja alles ...

Space


Antwort von iasi:

Ja stimmt, sieht dann ja schon besser aus, auch wenn der enorme Nachbearbeitungsaufwand bleibt:

ARRI
Output Type:
12-bit ARRIRAW
10-bit 1080PsF 4:4:4 RGB (HD-SDI)
10-bit 1080PsF 4:2:2 YCbCr (HD-SDI)
12-bit 2K Apple ProRes
10-bit HD Apple ProRes

Logisch wäre dann aber in Zukunft eine 2*8=16 Bit-Aufzeichnung, wie bei den Musik CDs mit 96 DB DNR schon lange üblich. Die internen AD-Wandler der Camcorder schaffen das meines Wissens ja schon länger. Die Post ist eben Teil der Produktion - was die einen als enorme Nachbearbeitungsaufwand betrachten, sehen andere eben als enormen Gestaltungsspielraum.
Und eins sollte auch klar sein: Diese Aufnahmen bekommt man mit einer 8bit-Kamera nicht hin, wenn man nicht ständig während der Aufnahme die Belichtung korrigiert - und selbst dann kommen nur sehr wenige Kamera an den DR der Alexa heran.

Space


Antwort von Jott:

Es sind immer noch "Margen"! :-)

Und ja, sie sind so hoch, wie man's den Kunden eben beibringen kann. Egal ob bei Apple, Arri, RED oder bei deinem Bäcker. Das ist marktwirtschaftlich auch geboten als Unternehmen. Wie ist das bei dir? Verschenkst du deine Leistungen oder Gerätschaften und lebst von Luft und Liebe?

Space


Antwort von wp:

oder so: ma:rchen

Space


Antwort von Jan Reiff:

und wenn der Mac Pro 50 000 kostet, ist meine Sache

weiss nicht was sich so Schnuller wie der von Heise überhaupt aufregen - er geht bestimmt jeden Tag zu seinem Arbeitgeber und sagt: eigentlich würde ich ja gerne auch umsonst arbeiten, aber eigentlich ...

und wenn ich mir nen Mac nur wegen Design kaufe - auch nicht das Bier von anderen.
Sondern: meine Kohle. Mache ich was ich will mit.

Dasselbe gilt auch für Kameras. Wenn ich auf Totenschädel stehe, hole ich mir ne Weapon. Wenn ich mit ner Kamera nen Nagel in die Wand hämmern will, ne Arri ...

Nur entscheiden, tu ich das.

Gleiches gilt auch für die i-watch. Is mir doch egal wer die kauft. Mein Leben wird dadurch nicht schlechter wenn andere daran Spass haben und vr dem Laden übernachten.

Space


Antwort von Peppermintpost:

also mit den 10bit im Mac, was ja auch genau die Überschrift dieses Beitrags ist, da möchte ich noch mal zum Verständniss nachfragen.

Wer eine Quadro Grafikkarte im PC benutzt ist ein Schwachkopf weil ja eine GTX viel schneller und billiger ist und 10Bit sowieso keiner braucht. Richtig? Aber wer einen Mac kauft der ebenfalls keine 10Bit kann aber schneller ist als eine GTX ist auch ein Schwachkopf. Richtig?
Hmmm.... was muss ich denn jetzt kaufen? Einen bastel PC der sowieso nicht läuft, weil sich dann die Frage von 8 und 10Bit kompl erübrigt? Oder hab ich da wieder was falsch verstanden?

Ach wenn es mir doch bloß jemand erklären könnte....

moment, bitte noch nicht antworten, muss schnell popcorn machen

Space


Antwort von iasi:

Heise ist ein Fachmagazin - und von denen erwartet man nun einmal Einschätzungen zu einem MacPro.
Es ist eben schlicht schwach, wenn es ein Pro-Rechner, der ja gerade im Bildbarbeitungbereich groß sein will, dann aber bei der Monitorausgabe so klein ist, wie jeder Billigrechner.
Und das, obwohl er eigentlich die notwendige Hardware besitzt ...

Wer einem Konzern sein Geld in den Rachen werfen will, der darf das natürlich tun ... aber er muss sich dann eben z.B. auch die Frage gefallen lassen, ob das Geld nicht auch hätte anderes eingesetzt werden können.

Space


Antwort von iasi:

also mit den 10bit im Mac, was ja auch genau die Überschrift dieses Beitrags ist, da möchte ich noch mal zum Verständniss nachfragen.

Wer eine Quadro Grafikkarte im PC benutzt ist ein Schwachkopf weil ja eine GTX viel schneller und billiger ist und 10Bit sowieso keiner braucht. Richtig? Aber wer einen Mac kauft der ebenfalls keine 10Bit kann aber schneller ist als eine GTX ist auch ein Schwachkopf. Richtig? na wenn du so fragst ... :)

Für etwas zu bezahlen, das man eigentlich nicht braucht und nicht nutzt, ist gelinde gesagt Luxus ...
Hmmm.... was muss ich denn jetzt kaufen? Einen bastel PC der sowieso nicht läuft, weil sich dann die Frage von 8 und 10Bit kompl erübrigt? Oder hab ich da wieder was falsch verstanden? Man kann sich einen Rechner auch konfigurieren lassen - ganz nach den Anforderungen, die man hat.

Man könnte es auch plump formulieren:
Spar dir den Aufpreis für eine Quadro und spende das Geld für einen guten Zweck.

Space


Antwort von Jott:

Was soll man einem Mac-Hasser erklären? Der glaubt einfach an Heise und gut ist.

Space


Antwort von Peppermintpost:



Man könnte es auch plump formulieren:
Spar dir den Aufpreis für eine Quadro und spende das Geld für einen guten Zweck. man könnte aber auch sagen:

Spar dir den Aufpreis für eine Quadro und spende das Geld für ein gutes Betriebssystem.

oder man könnte sagen:

Jabba dabba duh* (*frei nach Fred Feuerstein)

Aber was ändert das?

Space


Antwort von Jott:

Jabba dabba duh trifft's ganz gut! :-)

Space


Antwort von motiongroup:


Es ändert doch aber nichts daran, dass Apple die teure FirePro brach liegen lässt. Das sind keine FirePro und teuer sind sie auch nicht.
Was glaubst du warum Apple diese Chipsätze von AMDs Resterampe verkrüppelt und runter getaktet hat?
Die ewig gleiche Leier, selbiges beim leidigen ECC Thema.

http://www.amd.com/de-de/solutions/prof ... l/d-series

zwei Drittel aller Quadros werden OHNE ECC geliefert
http://www.nvidia.de/object/quadro-desk ... cs-de.html
und basieren ebenso auf den gleichen GPU Kernen wie die Standard Gaming GPUs von Nvidia
http://de.wikipedia.org/wiki/Nvidia_Quadro

langsam hat‘s nen bart.... solange die Leistung stimmt nicht wirklich eine Diskussion wert.

Space


Antwort von iasi:



Man könnte es auch plump formulieren:
Spar dir den Aufpreis für eine Quadro und spende das Geld für einen guten Zweck. man könnte aber auch sagen:

Spar dir den Aufpreis für eine Quadro und spende das Geld für ein gutes Betriebssystem.

oder man könnte sagen:

Jabba dabba duh* (*frei nach Fred Feuerstein)

Aber was ändert das? Betriebssystem?

Damit arbeite ich nicht - darauf läuft nur die Software, mit der ich arbeite ... eigentlich will ich so wenig wie möglich mit dem Betriebssystem zu tun haben.

Space


Antwort von iasi:

.... solange die Leistung stimmt nicht wirklich eine Diskussion wert. tut sie ja nicht ... der MacPro tuckert mit 8 statt 10bit :)

und kostet trotzdem viel Geld

Space


Antwort von Peppermintpost:

.... solange die Leistung stimmt nicht wirklich eine Diskussion wert. tut sie ja nicht ... der MacPro tuckert mit 8 statt 10bit :)

und kostet trotzdem viel Geld Dazu würde ich nochmal den Test der SlashcamRed durchlesen wo sie eine z620 oder z820 mit Quadro gegen einen MacPro getestst haben.
Da bekommt tuckern dann eine ganz neue Bedeutung.

Traurig das ausgerechnet ich als HP Fanboy das schreiben muss.

Space


Antwort von motiongroup:

Da bist im Irrtum zumal du bspw via THB und der passenden Erweiterung selbst aus Photoshop in 10Bit via SDI oder HDMI WYSIWIG an den passenden Monitoren ausgeben kannst..
Adobe Photoshop

When working on those special graphics for your video productions, you can use the WYSIWYG feature of Matrox I/O products to preview your images on an external monitor. You can see how your graphics will be seen by your client.
schau mal hier

https://www.blackmagicdesign.com/produc ... t/workflow

SDI Color Precision

8, 10-bit YUV 4:2:2 and 8, 10, 12-bit RGB 4:4:4.

Space


Antwort von Tiefflieger:

iasi, das Material ist unscharf und matschig! Was an Vimeo liegt (2,5Mbit/s bei 1080p - PFUI!). YouTube in 4k (Bitrate ebenfalls sehr niedrig, aber deutlich schärfer) würde hier die deutlich bessere Qualität liefern. Außerdem weiß niemand, mit welchem Algorithmus hier runterskaliert wurde. Macht mitunter eine Menge aus!

Und was du als matschig bezeichnet nennt man fehlende Scharfzeichnung, ein Nachschärfen in der Post vor dem Upload mitsamt starker Kompression wäre aber von Vorteil.

Als GH4-Besitzer natürlich nicht nachvollziehbar, zumal diese selbst bei Schärfe -5 noch fröhlich in bester Videolook-manier Halos malt... :(


Hier mal ein Screenshot des stark komprimierten 8-Bit!-Materials stark in PS nachbearbeitet (sollte selbst Tiefflieger gefallen): Ja das sieht besser aus :-)
Auch wenn es im Schnee Schatten noch grün hat, was vermutlich wegen des "flat" 8 bit ist.

Gruss Tiefflieger

Space


Antwort von Jott:

Da bist im Irrtum zumal du bspw via THB und der passenden Erweiterung selbst aus Photoshop in 10Bit via SDI oder HDMI WYSIWIG an den passenden Monitoren ausgeben kannst..
Adobe Photoshop

When working on those special graphics for your video productions, you can use the WYSIWYG feature of Matrox I/O products to preview your images on an external monitor. You can see how your graphics will be seen by your client.
schau mal hier

https://www.blackmagicdesign.com/produc ... t/workflow

SDI Color Precision

8, 10-bit YUV 4:2:2 and 8, 10, 12-bit RGB 4:4:4. Och, jetzt hast du's verraten. Dass man Footage gar nicht auf einem Computer-Monitor beurteilt (außer es geht nur um YouTube), sondern unter Mac wie Windows anderweitig, weil ... egal, Heise ist ja ein Fachmagazin.

Space


Antwort von iasi:

jetzt winden wir uns aber wieder - um ja nicht eingestehen zu müssen, dass der MacPro trotz FirePro keine 10 sondern nur 8bit ausgeben kann, wenn man nicht etwas dranhängt ...
Ich sag ja: Ein Kombi mit verschweister Heckklappe, mit dem man nur mit einem Anhänger etwas transportieren kann - für einen Dachträger fehlen schließlich auch die Befestigungen.

https://www.amd.com/Documents/10-Bit.pdf

Space


Antwort von motiongroup:

was du sagst bleibt dir unbenommen und der Rest macht es eben so wie es vorgesehen ist ohne wenn und aber und vorallem ohne Probleme weil sie dafür so oder so das passen Equipement verwenden und es damit egal ist ob der Canvas im GUI in 8 oder 10 bit dargestellt wird.

Space


Antwort von iasi:

was du sagst bleibt dir unbenommen und der Rest macht es eben so wie es vorgesehen ist ohne wenn und aber und vorallem ohne Probleme weil sie dafür so oder so das passen Equipement verwenden und es damit egal ist ob der Canvas im GUI in 8 oder 10 bit dargestellt wird. genau - selbst wenn man für 8bit die hohen 10bit-Preise bezahlt ... Apple freut so eine Einstellung - so spart sie sich den Aufwand für den Programmcode, der nötig wäre, um die 10bit zu aktivieren, die im Eimer schlummern. :)

Space


Antwort von Jott:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? Damit man "nichts dranhängen muss"? Cool. Für gescheites Monitoring wird eigentlich auch bei Windows ein Blackmagic/AJA/sonstwas-Kästchen oder -Kärtchen genommen, nicht wahr?

Guckst du wirklich deine Premiere-Oberfläche in 10 Bit? Und falls ja, wozu?

Space


Antwort von motiongroup:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? schaut so aus und ich bin raus..

Space


Antwort von iasi:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? schaut so aus und ich bin raus.. und tschüs

Space


Antwort von iasi:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? Damit man "nichts dranhängen muss"? Cool. Für gescheites Monitoring wird eigentlich auch bei Windows ein Blackmagic/AJA/sonstwas-Kästchen oder -Kärtchen genommen, nicht wahr?

Guckst du wirklich deine Premiere-Oberfläche in 10 Bit? Und falls ja, wozu? Du solltest das mal all den Leuten mal erzählen, die so viel Geld für Quadro- und FirePro-Karten ausgegeben haben ... wenn die gewußt hätten, dass man ja eigentlich Kästchen dranhängt, um 10bit zu bekommen, hätten sie sich die Ausgabe für die Pro-Karten vielleicht nochmal überlegt.

Schon klar:
Die Firmen, die wirklich Kritik verdienen, sind AMD und Nvidia ... die mit ihren 10bit Neppereien. :)

Space


Antwort von Jott:

Keine Antwort? War zu erwarten.

Space


Antwort von iasi:

Keine Antwort? War zu erwarten. Auf manche Fragen muss man schlicht nicht antworten ... lohnt einfach nicht ...

Zudem:
60Hz?! :)

Space


Antwort von motiongroup:

Keine Antwort? War zu erwarten. gggg hast du dir die 7177 Beiträge mal durchgelesen.;) über's Erwartungsstadium sind wir hinaus glaub ich :)

Space


Antwort von iasi:

Keine Antwort? War zu erwarten. gggg hast du dir die 7177 Beiträge mal durchgelesen.;) über's Erwartungsstadium sind wir hinaus glaub ich :) Wollen die Kinderchen wieder eine Kasperl-Vorstellung?

Bringt doch gar nichts, wie das Beispiel hier mit dem Arri-Mini-Video zeigt.
Wenn"s nicht bunt und knallig ist, gefällt"s den Kinderchen doch eh nicht - und dann wird mit den 8bit-Standbildern rumgespielt, um die unruhig werdenden Kinderchen zu beruhigen. :)

Ne ne - die Kinderchen sollen doch schön mit ihrem Eimer und ProRes-Proxies rumspielen ... die Gehäuseform hat Apple wirklich gut gewählt ... :)

Space


Antwort von motiongroup:

war vorhersehbar hossa HEISE schon wieder ggggggg
http://www.heise.de/newsticker/meldung/ ... 17979.html

Space


Antwort von WoWu:

Super ... Dann ist das ja auch nicht mehr weit, dass man auch Mietmäuler und Fanboys automatisch erkennt.

Space


Antwort von motiongroup:

Super ... Dann ist das ja auch nicht mehr weit, dass man auch Mietmäuler und Fanboys automatisch erkennt. die Jubelperser nicht vergessen ....gggg

Space


Antwort von WoWu:

Kommt doch auf's Selbe hinaus. Sind eben nur militante Mietmäuler.
So zu sagen die "Söldner" unter den Marketing Agents.

Space


Antwort von Jott:

Als passionierter fcp x- und Apple-Niedermacher brauchst du erst diesen Heise-Kommentar, um zu bemerken, dass es nur "Millionen" Farben gibt beim Screen deines MacBooks? Komisch, all die Jahre davor war das nie ein Thema, ausgerechnet bei dir. Was für ein Versäumnis! Schön, dass du mal wieder ein neues Thema gefunden hast nach "4K geht nicht".

Währenddessen springen Hunderttausende, wenn nicht Millionen von Grafikern aus dem Fernseher, weil sie seit 20 Jahren heimlich von ihrem 8-Bit-Screen am professionellen Arbeiten gehindert wurden. Ein Drama. Der Heisebub weiß gar nicht, was er da angerichtet hat.

Editoren dagegen springen nicht, denn sie haben ja schon immer dedizierte Ausgabekarten oder -Boxen, um korrektes Video zu sehen, egal ob unter OSX oder Windows. In so viel Bit wie sie wollen. Das weiß auch der Heisebub, deswegen war er schlau genug, bei seinem Shitstorm-Generator das Thema Video außen vor zu lassen.

Space


Antwort von iasi:

Apple ist in.
Apple ist schick.
Das reicht.

Apple ist ein Telefonhersteller ... mit schicken Luxusphones - darauf stehen eben auch die Chinesen, die sich"s leisten können :)

http://www.spiegel.de/wirtschaft/untern ... 30958.html

Space


Antwort von Jott:

ARRI ist in.
ARRI ist schick.
Das reicht.

ARRI ist ein ProRes-Kamera-Hersteller ... mit schickem Markenname - darauf stehen eben auch die Producer, die sich's leisten können :)


(kleiner Versuch, zum Thema zurück zu kommen)

Space


Antwort von iasi:

ARRI ist in.
ARRI ist schick.
Das reicht.

ARRI ist ein ProRes-Kamera-Hersteller ... mit schickem Markenname - darauf stehen eben auch die Producer, die sich's leisten können :)


(kleiner Versuch, zum Thema zurück zu kommen) gut gemacht :)

Space


Antwort von motiongroup:

Kommt doch auf's Selbe hinaus. Sind eben nur militante Mietmäuler.
So zu sagen die "Söldner" unter den Marketing Agents. ach so die meinst wie hier zum bleistift

http://forum.slashcam.de/convergent-des ... ght=atomos

kommt hin, Daumen hoch.

Space


Antwort von Jan Reiff:

Apple ist in.
Apple ist schick.
Das reicht.

Apple ist ein Telefonhersteller ... mit schicken Luxusphones - darauf stehen eben auch die Chinesen, die sich"s leisten können :)

http://www.spiegel.de/wirtschaft/untern ... 30958.html hab grade versucht den 5K imac ans ohr zu halten, aber hab keine verbindung bekommen. shit. liegt wohl am 8bit

Space


Antwort von Frank Glencairn:

... und um noch ein bisschen Öl in's Feuer zu gießen:

8bit JPG Handy Bilder von meinem HTC, das jetzt nicht gerade für seine gute Kamera bekannt ist :-)

Blauer Himmel, strahlende Sonne, nix brennt aus und trotzdem volle Zeichnung in den Schatten.

Space


Antwort von klusterdegenerierung:

... und um noch ein bisschen Öl in's Feuer zu gießen:

8bit JPG Handy Bilder von meinem HTC, das jetzt nicht gerade für seine gute Kamera bekannt ist :-)

Blauer Himmel, strahlende Sonne, nix brennt aus und trotzdem volle Zeichnung in den Schatten. +1

Das 2. gefällt mir am besten! :-)
Aber Frank, ohne Dein TVLogic bist Du doch mit der BMCC da oben komplett am "A" oder?

Von mir auch noch ein locationshot aus den Bergen.

Space


Antwort von Rudolf Max:

Nicht schlecht, diese Bilder...

Man sieht zwar, dass da keine Profikamera am Werk war, aber immerhin, die Durchzeichnung ist doch ganz erstaunlich...

Mir gefallen aber am meisten die sehr massiven Stative... sowas fehlt mir noch...

Rudolf

Space


Antwort von soahC:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? Damit man "nichts dranhängen muss"? Cool. Für gescheites Monitoring wird eigentlich auch bei Windows ein Blackmagic/AJA/sonstwas-Kästchen oder -Kärtchen genommen, nicht wahr?

Guckst du wirklich deine Premiere-Oberfläche in 10 Bit? Und falls ja, wozu? Diese Kästchen waren früher doch hauptsächlich notwendig, weil die Grafikkarten einfach nicht genügend Ausgänge für 2 Monitore + Vorschau hatten. Mittlerweile kann man sich das getrost sparen, oder glaubst du der Output wird durch eine Blackmagic Karte besser?
Im Gegenteil, man spart sich eine weiteres Stück Hardware, weitere Treiber die eingreifen und das Meckern des Avid, der ja noch nie der größte Freund von BM Karten war.

Space


Antwort von Frank Glencairn:

Aber Frank, ohne Dein TVLogic bist Du doch mit der BMCC da oben komplett am "A" oder?

. Das war auf dem Zugspitzgletscher. Da war es so hell, daß wir immer - ganz oldschool - mit Molton Tüchern über dem Kopf arbeiten mußten, da war auf KEINEM Monitor irgendwas zu sehen.

Space


Antwort von Frank Glencairn:

[

Diese Kästchen waren doch früher doch hauptsächlich notwendig, weil die Grafikkarten einfach nicht genügend Ausgänge für 2 Monitore + Vorschau hatten. Mittlerweile kann man sich das getrost sparen, oder glaubst du der Output wird durch eine Blackmagic Karte besser? Nein, das macht schon Sinn.

Ein RGB Computer Signal aus einer GraKa, ist was ganz anderes als ein YUV Video Signal aus einer I/O Karte oder Kästchen.

Space


Antwort von soahC:

Das stimmt natürlich, aber YCbCr 444 ist mit normalen PC Grafikkarten ja auch möglich.

Space


Antwort von Frank Glencairn:

Für Farbkorrektur brauchst du einen kontrollierten closed Loop, in den das OS nicht reinpfuschen kann.

Space


Antwort von domain:

Die Waveform von Bild 2 sieht aber voll Kacke aus, weil der gesamte Tonwertbereich belegt ist.




Aber immerhin kann man daraus ein wundervoll flaches Bild entwickeln :-)





Wenn man das dann aber wieder aufsteilt, sieht man schon Tonwertabrisse, besonders rechts unten. Aber bitte, nach dieser Quälerei in 8 Bit mit zwischendurch ganz flachem Profil



Space


Antwort von klusterdegenerierung:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? Damit man "nichts dranhängen muss"? Cool. Für gescheites Monitoring wird eigentlich auch bei Windows ein Blackmagic/AJA/sonstwas-Kästchen oder -Kärtchen genommen, nicht wahr?

Guckst du wirklich deine Premiere-Oberfläche in 10 Bit? Und falls ja, wozu? Diese Kästchen waren früher doch hauptsächlich notwendig, weil die Grafikkarten einfach nicht genügend Ausgänge für 2 Monitore + Vorschau hatten. Mittlerweile kann man sich das getrost sparen, oder glaubst du der Output wird durch eine Blackmagic Karte besser?
Im Gegenteil, man spart sich eine weiteres Stück Hardware, weitere Treiber die eingreifen und das Meckern des Avid, der ja noch nie der größte Freund von BM Karten war. Du hast echt nicht im geringsten verstanden worum es geht!

Space


Antwort von klusterdegenerierung:

Die Waveform von Bild 2 sieht aber voll Kacke aus, weil der gesamte Tonwertbereich belegt ist. Das ist aber Bild 1.
Ich fand 2 einfach nur gut wegen Frank! ;-)

Space


Antwort von klusterdegenerierung:

Ich finde wir sollten eine neue Rubrik einführen!

ARRI vs 8bit Handys ;-))

Space


Antwort von Tiefflieger:

Am Ende zählt nur das Ergeniss.
Und was ich zuhause am HDTV sehe ist oftmals verbesserungswürdig, verglichen mit meinem Camcorder.

Aus meiner Sicht könnte alles mit Arri am TV produziert werden.
Solange die nachfolgenden Bild- und Tonprozesse hochwertig sind.
Aber wenn ich aus meinem Camcorder bessere Bilddetailqualität als Bluray bekomme, muss ich mich schon fragen.

Gemäss Tests im Kino konnten Zuschauer Bluray nicht von DCI Zuspielung unterscheiden.
Meiner Meinung nach gibt es noch viel Potential nach oben und es liegt scheinbar nicht an der Kamera.

Gruss Tiefflieger

Space


Antwort von soahC:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? Damit man "nichts dranhängen muss"? Cool. Für gescheites Monitoring wird eigentlich auch bei Windows ein Blackmagic/AJA/sonstwas-Kästchen oder -Kärtchen genommen, nicht wahr?

Guckst du wirklich deine Premiere-Oberfläche in 10 Bit? Und falls ja, wozu? Diese Kästchen waren früher doch hauptsächlich notwendig, weil die Grafikkarten einfach nicht genügend Ausgänge für 2 Monitore + Vorschau hatten. Mittlerweile kann man sich das getrost sparen, oder glaubst du der Output wird durch eine Blackmagic Karte besser?
Im Gegenteil, man spart sich eine weiteres Stück Hardware, weitere Treiber die eingreifen und das Meckern des Avid, der ja noch nie der größte Freund von BM Karten war. Du hast echt nicht im geringsten verstanden worum es geht! Es geht um Verhältnismäßigkeit. Ein Unterschied, der nur technisch meßbar ist, ist einfach nicht relevant. Und Ich spreche hier von Farbkorrektur, Grading etc.., das man Selbst macht, weil es einfach zum fertigen Schnitt dazu gehört.
Bei Projekten, bei denen WIRKLICH professionell gegraded wird, und es auch auf das letzt bischen Farbinformation ankommt, wird das sowieso extern vom Profi gemacht. Oder ist hier plötzlich jeder Colorist? Falls ja, dann entschuldigung. Falls nein behaupte Ich, auch wenn es gegen die "so perfekt wie nöglich" Einstellung verstößt, die Ich ja selbst vertrete, dass 8bit reicht. Der Unterschied wird nicht sichtbar sein.

Space


Antwort von Starshine Pictures:

Ich würde mir jedenfalls nie anmassen einer 45.000 Dollar Kamera auf die alle grossen DoP's der Welt von Holly- bis Bollywood scharf sind, anzukreiden, dass sie keine besseren Bilder macht als ein Handy, eine BMPCC oder eine GoPro. Selbst wenn ich im gezeigten Material keine Vorteile sehe würde ich darauf vertrauen dass die wirklich kompetenten Leute schon wissen warum sie diese Cam wollen. Und dafür so viel Geld zahlen.



Grüsse, Stephan von Starshine Pictures

Space


Antwort von klusterdegenerierung:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? Damit man "nichts dranhängen muss"? Cool. Für gescheites Monitoring wird eigentlich auch bei Windows ein Blackmagic/AJA/sonstwas-Kästchen oder -Kärtchen genommen, nicht wahr?

Guckst du wirklich deine Premiere-Oberfläche in 10 Bit? Und falls ja, wozu? Diese Kästchen waren früher doch hauptsächlich notwendig, weil die Grafikkarten einfach nicht genügend Ausgänge für 2 Monitore + Vorschau hatten. Mittlerweile kann man sich das getrost sparen, oder glaubst du der Output wird durch eine Blackmagic Karte besser?
Im Gegenteil, man spart sich eine weiteres Stück Hardware, weitere Treiber die eingreifen und das Meckern des Avid, der ja noch nie der größte Freund von BM Karten war. Du hast echt nicht im geringsten verstanden worum es geht! Es geht um Verhältnismäßigkeit. Ein Unterschied, der nur technisch meßbar ist, ist einfach nicht relevant. Und Ich spreche hier von Farbkorrektur, Grading etc.., das man Selbst macht, weil es einfach zum fertigen Schnitt dazu gehört.
Bei Projekten, bei denen WIRKLICH professionell gegraded wird, und es auch auf das letzt bischen Farbinformation ankommt, wird das sowieso extern vom Profi gemacht. Oder ist hier plötzlich jeder Colorist? Falls ja, dann entschuldigung. Falls nein behaupte Ich, auch wenn es gegen die "so perfekt wie nöglich" Einstellung verstößt, die Ich ja selbst vertrete, dass 8bit reicht. Der Unterschied wird nicht sichtbar sein. Wieso redest Du an Deinen eigenen Sachen vorbei? Es ging doch um die "Kästchen"!
Und die brauch man um 10Bit zu visualisieren, mit ner GeForce geht das nicht.

Space


Antwort von klusterdegenerierung:

Ich würde mir jedenfalls nie anmassen einer 45.000 Dollar Kamera auf die alle grossen DoP's der Welt von Holly- bis Bollywood scharf sind, anzukreiden, dass sie keine besseren Bilder macht als ein Handy, eine BMPCC oder eine GoPro. Selbst wenn ich im gezeigten Material keine Vorteile sehe würde ich darauf vertrauen dass die wirklich kompetenten Leute schon wissen warum sie diese Cam wollen. Und dafür so viel Geld zahlen.



Grüsse, Stephan von Starshine Pictures Tja, wenn man immer auf der Stelle treten will, kann man das auch gut machen!!

Space


Antwort von Tiefflieger:

Sorry,
Aus meiner Hobbyfilmersicht

Also ganz ehrlich, wenn ich Schauspieler einladen müsste. Eine Aufnahmeteam habe, eine Location arrangieren um einen Auftrag umsetzen. Und sollte beim abliefern etwas nicht passen, dann möchte ich die Aufnahmen nicht wiederholen müssen.

Für jeden Teilschritt gibt es Spezialisten die wissen wie man mit dem Material umgeht. Denn es hat nutzbare Reserven um Betonungen und Inhalte "sichtbar" herauszuarbeiten.

Und da wäre der Preis bei der/den Kamera(s) nur ein Faktor.
Abgesehen davon, dass ich optisch mit einer Handgroßen Kamera unpassend daherkäme. Und als Handlanger gewertet und behandelt würde.

Gruss Tiefflieger

Eine GoPro 4K liefert gute Bilder, die aber trotzdem noch nichts mit einer "echten" FullHD Kamera zu tun haben.

Space


Antwort von Frank Glencairn:

Einfach ein entsprechend großes Preisschild dranhängen ;-)

Space


Antwort von iasi:

Apple ist in.
Apple ist schick.
Das reicht.

Apple ist ein Telefonhersteller ... mit schicken Luxusphones - darauf stehen eben auch die Chinesen, die sich"s leisten können :)

http://www.spiegel.de/wirtschaft/untern ... 30958.html hab grade versucht den 5K imac ans ohr zu halten, aber hab keine verbindung bekommen. shit. liegt wohl am 8bit ne ne ... die sind schick - das ist wichtig ... richtig? :)

und da man sich mit Hilfe der Schirme auch die Haare machen kann, bleibt man selbst auch schick ...
während dem "Arbeiten" sieht man sich eben gern auch selbst vor dem schicken Gerät sitzen ... das bietet ein Apple eben auch, weil die Apple-Leute wissen, was ihre Kunden wollen :)

Space


Antwort von iasi:

... und um noch ein bisschen Öl in's Feuer zu gießen:

8bit JPG Handy Bilder von meinem HTC, das jetzt nicht gerade für seine gute Kamera bekannt ist :-)

Blauer Himmel, strahlende Sonne, nix brennt aus und trotzdem volle Zeichnung in den Schatten. Definiere "Schatten" :)

und wenn du gerade dabei bist, bitte auch gleich "volle Zeichnung" :)

Space


Antwort von klusterdegenerierung:

Würde man eigentlich über ein anderes Unternehmen, welches auch Profit orientiert ist, so reden wenn es einen CEO hätte wie Steve Jobs, der sich in der Öffentlichkeit auch so darstellt?

Ich meine ja nur, weil alle anderen wie Dell & Co verschenken ihr Geld ja an arme Indische Kinder und die Angestellten verzichten auf die hälfte ihres Lohns um damit Wasserpumpen in Afrika zu finanzieren! ;-)

Space


Antwort von iasi:

Würde man eigentlich über ein anderes Unternehmen, welches auch Profit orientiert ist, so reden wenn es einen CEO hätte wie Steve Jobs, der sich in der Öffentlichkeit auch so darstellt?

Ich meine ja nur, weil alle anderen wie Dell & Co verschenken ihr Geld ja an arme Indische Kinder und die Angestellten verzichten auf die hälfte ihres Lohns um damit Wasserpumpen in Afrika zu finanzieren! ;-) Dell hortet nicht Milliarden ... Dell hat nicht Gewinnmarchen wie eine Luxus-Marke ...

Die Apple-Kunden könnten ein wenig auf den Preis schauen und vielleicht weniger Geld in den Apple-Rachen werfen und stattdessen Kindern in Afrika bessere Bildung ermöglichen ... nur mal so als Idee ...

Wenn Griechenland 7 Mrd. will, dann fordert man Einschnitte im Sozialen System Griechenlands ... wenn Apple 70 Mrd. an Dividenden ausschüttet, dann ist das OK ... nur mal so als Gedanke ...

Apple ist schon etwa besonders ... :)

Space


Antwort von soahC:

Du nimmst also einen normalen 60Hz-PC-Monitor zur Kontrolle? Damit man "nichts dranhängen muss"? Cool. Für gescheites Monitoring wird eigentlich auch bei Windows ein Blackmagic/AJA/sonstwas-Kästchen oder -Kärtchen genommen, nicht wahr?

Guckst du wirklich deine Premiere-Oberfläche in 10 Bit? Und falls ja, wozu? Diese Kästchen waren früher doch hauptsächlich notwendig, weil die Grafikkarten einfach nicht genügend Ausgänge für 2 Monitore + Vorschau hatten. Mittlerweile kann man sich das getrost sparen, oder glaubst du der Output wird durch eine Blackmagic Karte besser?
Im Gegenteil, man spart sich eine weiteres Stück Hardware, weitere Treiber die eingreifen und das Meckern des Avid, der ja noch nie der größte Freund von BM Karten war. Du hast echt nicht im geringsten verstanden worum es geht! Es geht um Verhältnismäßigkeit. Ein Unterschied, der nur technisch meßbar ist, ist einfach nicht relevant. Und Ich spreche hier von Farbkorrektur, Grading etc.., das man Selbst macht, weil es einfach zum fertigen Schnitt dazu gehört.
Bei Projekten, bei denen WIRKLICH professionell gegraded wird, und es auch auf das letzt bischen Farbinformation ankommt, wird das sowieso extern vom Profi gemacht. Oder ist hier plötzlich jeder Colorist? Falls ja, dann entschuldigung. Falls nein behaupte Ich, auch wenn es gegen die "so perfekt wie nöglich" Einstellung verstößt, die Ich ja selbst vertrete, dass 8bit reicht. Der Unterschied wird nicht sichtbar sein. Wieso redest Du an Deinen eigenen Sachen vorbei? Es ging doch um die "Kästchen"!
Und die brauch man um 10Bit zu visualisieren, mit ner GeForce geht das nicht. Ich habe schon verstanden wofür die Kästchen da sind. Ich behaupte nur, dass das graden in 10bit oder 8bit keinen extremen großen Unterschied macht (wohlgemerkt der Output, Ich spreche nicht vom Material an sich).
Es sei denn man ist Vollprofi und muss das Material in wirklich krasser Weise anpacken.

Natürlich ist es optimal mit 10bit Output und 10bit Panel, aber wer hier graded so professionell und extrem dass sich die Anschaffung lohnt?

Space


Antwort von domain:

Definiere "Schatten" :)
und wenn du gerade dabei bist, bitte auch gleich "volle Zeichnung" :) Also wenn das keine gute Schattendurchzeichnung ist, dann weiß ich nicht. Manche scheinen dermaßen auf flache Gradationen getrimmt zu sein, dass sie im annähernden Schwarz gar keine Zeichnung mehr erkennen wollen oder können. Schatten hier mal aufgehellt:



Space


Antwort von Jott:

Es sind immer noch "Margen"! :-)

Space


Antwort von Frank Glencairn:

Definiere "Schatten" :)

und wenn du gerade dabei bist, bitte auch gleich "volle Zeichnung" :) Was soll ich da definieren? Ein Blick auf die Waveform die domain gepostet hat sagt alles.

Space


Antwort von iasi:

Es sind immer noch "Margen"! :-) endlich ... ich hatte schon gedacht, du koregirst gar nicht mehr ... :)

Space


Antwort von motiongroup:

Natürlich ist es optimal mit 10bit Output und 10bit Panel, aber wer hier graded so professionell und extrem dass sich die Anschaffung lohnt? all die Dampfplauderer und Heiseversteher die schon seit Jahren unter Windows und Lightroom auf ihren Monitoren in 30bit auf Profiniveau nachbearbeiten und nun das Geschäftsmodel von Apple als neuen Feind gefunden haben... tolle Wurst..

Space


Antwort von iasi:

Natürlich ist es optimal mit 10bit Output und 10bit Panel, aber wer hier graded so professionell und extrem dass sich die Anschaffung lohnt? all die Dampfplauderer und Heiseversteher die schon seit Jahren unter Windows und Lightroom auf ihren Monitoren in 30bit auf Profiniveau nachbearbeiten und nun das Geschäftsmodel von Apple als neuen Feind gefunden haben... tolle Wurst.. Feind?

ne - warum ... Apple ist schick - und verdient bestens daran ... solange die Kunden bezahlen, ist doch alles bestens - für Apple ...

Space


Antwort von Jott:

"endlich ... ich hatte schon gedacht, du koregirst gar nicht mehr"

Sorry für das verspätete Korrigieren, pardon, Koregiren.

Space


Antwort von Spaceman:

Ok, jetzt sind die Filmemacher von dem Arri Schneefilm aber genug auseinandergenommen worden.

Die sind halt in die Colograding Falle "Schwarzwert hochziehen" reingetappt.

Kann schon mal passieren auf der Suche nach dem Hollywood Look...

Space


Antwort von klusterdegenerierung:

Ok, jetzt sind die Filmemacher von dem Arri Schneefilm aber genug auseinandergenommen worden.

Die sind halt in die Colograding Falle "Schwarzwert hochziehen" reingetappt.

Kann schon mal passieren auf der Suche nach dem Hollywood Look... Ist nicht so schlimm, Stefan hatte den Thread nur erstellt, damit iasi wieder was zum schreiben hat!
Seine Frau hat ihn beauftragt, damit er ihr nicht den ganzen Tag auf die Nüsse geht!

Dafür haben wir aber bei ihr einen gut, weil wir uns das ganze gesülze jetzt reinziehen müßen!
Und Stefan hat voll die A Karte gezogen, weil er so tun mußte als wenn er das Arrimaterial gut findet und kommt nu aus der Nummer nicht mehr raus!

Dafür schmeißen wir alle zusammen und drehen für Stefan die nächste Hochzeit und er macht sich einen schönen Tag mit seiner Family in den Bergen! ;-)

Jolladahütti! :-))

Space


Antwort von iasi:

Ok, jetzt sind die Filmemacher von dem Arri Schneefilm aber genug auseinandergenommen worden.

Die sind halt in die Colograding Falle "Schwarzwert hochziehen" reingetappt.

Kann schon mal passieren auf der Suche nach dem Hollywood Look... und dabei wünschen sich doch alle einen schönen Berg- und Skifahrerfilm, selbst, wenn"s eigentlich um eine Kamera gehen soll ...

Schön auch, dass wir nun wissen, dass die Könner hier mit einem Handy Besseres abliefern können, als irgendwelche Filmer, die von Arri unterstützt werden ...

"Hollywood Look" ... interessant ...

Zumindest scheint das 8bit-Rumgespiele, das hier präsentiert wurde, wohl nicht dieser "Hollywood Look" ist, denn sonst hätten die Filmemacher ja versucht, sich den Meisterwerken hier zumindest anzunähern.

Ich kann das leider nicht - dieses 8bit-Grading von flachem Material ...

Vielleicht sollten aber auch einfach mal einige hier ordentlich belichtetes Raw nehmen und damit richtiges Grading machen - vielleicht geht ihnen dann mal ein Licht auf ...

Space


Antwort von iasi:

Definiere "Schatten" :)
und wenn du gerade dabei bist, bitte auch gleich "volle Zeichnung" :) Also wenn das keine gute Schattendurchzeichnung ist, dann weiß ich nicht. Manche scheinen dermaßen auf flache Gradationen getrimmt zu sein, dass sie im annähernden Schwarz gar keine Zeichnung mehr erkennen wollen oder können. Schatten hier mal aufgehellt:

ohhh jeee ... jetzt sieht"s ja genaus flach aus wie das Arri Mini-Zeug ...

da kann man fast keinen Unterschied erkennen zu ... ja ... zu was denn?

Space


Antwort von Spaceman:

Oje, das Equipment auf dem Foto sieht aus wie ein Schrotthaufen auf der Skipiste.

Aufruf an Apple: Bitte Bitte Designed eine Kinokamera an der alles dran ist und die auch noch gut aussieht!!! Möglichst aus einem Guss!

Danke!

Space


Antwort von Frank Glencairn:

LOL - Das sind jetzt eher mobile und relativ aufgeräumte Kamera setups. Das kleine Besteck sozusagen.


...

Sowas hier ist eher der Normalfall

Space


Antwort von klusterdegenerierung:

Bild 3 ist der Fluxgenerator! :-))

Space


Antwort von klusterdegenerierung:

@iasi
Damit Du weißt wo die Knete bleibt ;-)



Space


Antwort von Tiefflieger:

Das sind alles gesparte Steuergelder, die viele internationale Firmen in eigene Denkmäler investieren.

Von unten nach oben und die Regentropfen landen in irgendwelchen Pfützen.
Aber jeder kann die erwirtschaftete Leistung nach eigenem gusto verteilen.

Alles eine Frage der Zeit ob ausgehöhlte Kartenhauser halten.

Gruss Tiefflieger

Space


Antwort von Peppermintpost:

@frank

echt? stereo (die ersten 2 bilder) ist der normalfall? ;-)

Space


Antwort von domain:

Das sind jetzt eher mobile und relativ aufgeräumte Kamera setups. Interessante Aufnahme überhaupt: der die sterile Alpenluft aromatisierende Kameramann schätzt für das Making-off mit einem Directors-Viewfinder die nächste Aufnahme mit der auf Wasserkühlung umgebauten BMCC ein.

Nebenbei: diese 12 (-16) Bit-Aufnahmen führen theoretisch eigentlich zu einer ganz neuen Belichtungssteuerung, nämlich über das Full-well (minus ca.10%) des Sensors.
Der Kameramann hält die Kamera zunächst in die krasseste Lichtsituation und drückt probeweise eine Taste. Wenn die Spitzlichter zu hell sind, wird die Belichtungszeit halt verringert oder die Blende weiter geschlossen, andernfalls die Belichtung so vergrößert, bis die maximal mögliche Sättigung des Sensors erreicht wird.
Die Waveform in heller Umgebung würde demnach etwa so aussehen, kann aber nach unten immer noch enorm bis auf 0 % ohne Banding gedehnt werden



Space


Antwort von Ab-gedreht:

Das sind jetzt eher mobile und relativ aufgeräumte Kamera setups. Interessante Aufnahme überhaupt: der die sterile Alpenluft aromatisierende Kameramann schätzt für das Making-off mit einem Directors-Viewfinder die nächste Aufnahme mit der auf Wasserkühlung umgebauten BMCC ein.

Nebenbei: diese 12 (-16) Bit-Aufnahmen führen theoretisch eigentlich zu einer ganz neuen Belichtungssteuerung, nämlich über das Full-well (minus ca.10%) des Sensors.
Der Kameramann hält die Kamera zunächst in die krasseste Lichtsituation und drückt probeweise eine Taste. Wenn die Spitzlichter zu hell sind, wird die Belichtungszeit halt verringert oder die Blende weiter geschlossen, andernfalls die Belichtung so vergrößert, bis die maximal mögliche Sättigung des Sensors erreicht wird.
Die Waveform in heller Umgebung würde demnach etwa so aussehen, kann aber nach unten immer noch enorm bis auf 0 % ohne Banding gedehnt werden

Stink normales ETTR oder wat?

Space


Antwort von klusterdegenerierung:

He?
Wo ist denn jetzt Dein cooler Text geblieben und das footage dazu, welches Du uns zeigen wolltest?

Space


Antwort von Ab-gedreht:

Jetzt haben wir dauernd mich hinter der Kamera gesehen.. deshalb hier mal das Material aus der Kamera. Alles Out of Camera.

Kameras: BM 4K, BM2,5K, Gopro 4

eine 2,5K war in Raw, die anderen Prores. Jetzt darf geraten werden...

Space


Antwort von Rudolf Max:

Seid ihr euch inzwischen einig darüber geworden, ob die Kamera mit den halbschlauen Aufnahmen von ganz am Anfang dieses Threads ihren Preis wert ist oder gar nicht zu gebrauchen ist...?

Da schaut man mal einen Tag nicht in diesen Thread, schon muss man halbe Bücher lesen... *smile

Ich für meinen Teil nutze weiterhin die Kamera, die ich besitze und schiele nicht in Richtung Arri oder Red oder was weiss ich. So eine Kamera könnte ich mir schon gar nicht leisten und wüsste auch nicht recht, was ich damit anfangen sollte...

Mache ich eben mit meiner Amateurknipse (RX-10) weiter Bilder und Videos, die sich in keinster Weise mit solchen Profiaufnahmen messen können... mir doch egal... *smile

So, ich bin dann mal raus, dieses Thema ist für mich gegessen...

Rudolf

Space


Antwort von iasi:

@iasi
Damit Du weißt wo die Knete bleibt ;-)

auf den ersten Blick dachte ich an unseren neuen Hauptstadtflughafen :)

aber dieses Versailles der Neuzeit ist auch nicht schlecht.

Space


Antwort von iasi:

Seid ihr euch inzwischen einig darüber geworden, ob die Kamera mit den halbschlauen Aufnahmen von ganz am Anfang dieses Threads ihren Preis wert ist oder gar nicht zu gebrauchen ist...?

Da schaut man mal einen Tag nicht in diesen Thread, schon muss man halbe Bücher lesen... *smile

Ich für meinen Teil nutze weiterhin die Kamera, die ich besitze und schiele nicht in Richtung Arri oder Red oder was weiss ich. So eine Kamera könnte ich mir schon gar nicht leisten und wüsste auch nicht recht, was ich damit anfangen sollte...

Mache ich eben mit meiner Amateurknipse (RX-10) weiter Bilder und Videos, die sich in keinster Weise mit solchen Profiaufnahmen messen können... mir doch egal... *smile

So, ich bin dann mal raus, dieses Thema ist für mich gegessen...

Rudolf Die Aufnahmen vom Anfang - also der Arri Mini - sind beeindruckend gut - auch wenn auf Grading weitestgehend verzichtet wurde, was hier so viele stört.

Es ist eben auch noch mal etwas anderes, ob man eine Aufnahmen vom Stativ macht oder die Kamera aus dem Schatten des Berges auf die sonnenbestrahlten Gipfel steigt - da muss eine Kamera eben schon reichlich Kontraste verarbeiten.

Space


Antwort von Jott:

@iasi
Damit Du weißt wo die Knete bleibt ;-)

auf den ersten Blick dachte ich an unseren neuen Hauptstadtflughafen :)

aber dieses Versailles der Neuzeit ist auch nicht schlecht. Ach Iasi. Verglichen mit der fetten Samsung Headquarters Town in Seoul (mal Bilder googlen) wird das "Versailles" eher ein Gartenhäuschen. Hauptsache, das Feindbild wird gepflegt! :-)

Space


Antwort von klusterdegenerierung:

. deshalb hier mal das Material aus der Kamera Bin i jetzt bläd oder woas?
Wo ist denn nu das footage aus der Cam?

Space


Antwort von iasi:

@iasi
Damit Du weißt wo die Knete bleibt ;-)

auf den ersten Blick dachte ich an unseren neuen Hauptstadtflughafen :)

aber dieses Versailles der Neuzeit ist auch nicht schlecht. Ach Iasi. Verglichen mit der fetten Samsung Headquarters Town in Seoul (mal Bilder googlen) wird das "Versailles" eher ein Gartenhäuschen. Hauptsache, das Feindbild wird gepflegt! :-) ich hab doch nichts gegen Apple - es findet sich immer jemand, der gern das Geld von Leuten nimmt, die damit gern um sich werfen, damit man sie wahr nimmt ... und nun rate mal, wer gemeint ist :)

Space


Antwort von motiongroup:

ich hab doch nichts gegen Apple - es findet sich immer jemand, der gern das Geld von Leuten nimmt, die damit gern um sich werfen, damit man sie wahr nimmt ... und nun rate mal, wer gemeint ist :) na dann erleuchte uns mal mein Ogdru Jahad, deine Beiträge erinnern an einen Uroboros, sprich du drehst dich im Kreis.

Space


Antwort von iasi:

ich hab doch nichts gegen Apple - es findet sich immer jemand, der gern das Geld von Leuten nimmt, die damit gern um sich werfen, damit man sie wahr nimmt ... und nun rate mal, wer gemeint ist :) na dann erleuchte uns mal mein Ogdru Jahad, deine Beiträge erinnern an einen Uroboros, sprich du drehst dich im Kreis. Vereinfacht:

Verschwendung vs Mangel

Space


Antwort von motiongroup:

eher so, Verschwendung von Lebenszeit aus Mangel an Wissen bedingt durch das Lesen auf Heise. ;)

Space


Antwort von iasi:

eher so, Verschwendung von Lebenszeit aus Mangel an Wissen bedingt durch das Lesen auf Heise. ;) Lesen bildet :)

Space


Antwort von klusterdegenerierung:

Aber lesen will gelernt sein ;-)

Space


Antwort von motiongroup:

fruchtet leider nicht immer ggggg



Space


Antwort von iasi:

fruchtet leider nicht immer ggggg

Bitte erklären:
Zusammenhang zu LESEN :)

Space


Antwort von iasi:

Um nochmal zum Thema zurückzukehren:

Man sollte das, was aus der Kamera kommt, von dem, was auf dem Bildschirm oder der Leinwand landet, unterscheiden.
Das Arri-Video versucht einen Eindruck davon zu vermitteln, was aus der Kamera kommt - das ist natürlich mit einem Vimeo-Video nicht so ganz einfach.
Aber wenn man ein wenig Erfahrung mit >10bit hat, kann man sich anhand des Videos immerhin vorstellen, was die Arri-Mini kann und liefert.

Space


Antwort von klusterdegenerierung:

Ok, dann bekommst Du jetzt abschließend den Arriverdienstorden und wir können den Thread endlich schließen.

Iasi for Arrident!

Space


Antwort von iasi:

Ok, dann bekommst Du jetzt abschließend den Arriverdienstorden und wir können den Thread endlich schließen.

Iasi for Arrident! RED ... Iasi ist einer aus dem Red-Lager ...

Einen Thread schließt man überiges, indem man nichts mehr rein schreibt ... :)

Der Red-Mann sagt jedoch nochmals zu Mini:
Auch die kleine Arri hat den DR und das schöne Highlight-Verhalten der Alexa-Familie geerbt.
Diesen Eindruck hinterlässt das Video.

Natürlich könnte das eine Red Dragon ebenso gut - und zudem noch in weit höherer Auflösung :)

Wer davon träumt, dass eine 8bit-Fotokamera ähnliches liefern kann, der sollte bei schön gegradeten Youtube-Bergvideos bleiben :)

Space


Antwort von klusterdegenerierung:

Wann zeigst Du uns eigentlich endlich mal Deine ganzen tollen Red DR shots?
Vielleicht auch was aus den Bergen, oder hast Du die nur ausgedruckt und auf einen Pappkarton aufgeklebt? ;-)

Space


Antwort von iasi:

Wann zeigst Du uns eigentlich endlich mal Deine ganzen tollen Red DR shots?
Vielleicht auch was aus den Bergen, oder hast Du die nur ausgedruckt und auf einen Pappkarton aufgeklebt? ;-) das mit dem Ausdrucken und Aufkleben ist eine nette Idee

aber geh doch erst mal mit gutm Beispiel voran und zeig du etwas vor ... nur eine Erwartungshaltung zu präsentieren, ist etwas wenig ...

Space


Antwort von klusterdegenerierung:

Wann zeigst Du uns eigentlich endlich mal Deine ganzen tollen Red DR shots?
Vielleicht auch was aus den Bergen, oder hast Du die nur ausgedruckt und auf einen Pappkarton aufgeklebt? ;-) das mit dem Ausdrucken und Aufkleben ist eine nette Idee

aber geh doch erst mal mit gutm Beispiel voran und zeig du etwas vor ... nur eine Erwartungshaltung zu präsentieren, ist etwas wenig ... Ich war schon mal dran hier! :-)

Space


Antwort von iasi:

Wann zeigst Du uns eigentlich endlich mal Deine ganzen tollen Red DR shots?
Vielleicht auch was aus den Bergen, oder hast Du die nur ausgedruckt und auf einen Pappkarton aufgeklebt? ;-) das mit dem Ausdrucken und Aufkleben ist eine nette Idee

aber geh doch erst mal mit gutm Beispiel voran und zeig du etwas vor ... nur eine Erwartungshaltung zu präsentieren, ist etwas wenig ... Ich war schon mal dran hier! :-) Wo?
Ist mir entgangen :)

Space


Antwort von klusterdegenerierung:

Ich hatte mal eins gepostet weil Stefan mich dazu ermuntert hat, sonst hätte ich es wohl nicht gemacht!

Man macht sich ja hier mit sowas am laufenden Band lächerlich.
Es ging darum das ich ein Slomo der GH4 zeigen wollte, weil wir vorher die Diskussion hatten das die GH4 einfach immer zu scharf ist und bei slomo nicht wenigerscharf sondern matschig wird!

Dies wollte ich eigentlich mit dem Video widerlegen, aber irgendwie sind wir darüber weg gekommen!

http://forum.slashcam.de/latinslomo-vt1 ... latinslomo

So, jetzt bist Du dran! Hosen runter! ;-))

Space


Antwort von klusterdegenerierung:

So, jetzt bist Du dran! Hosen runter! ;-))

Iasi?
Bist Du spontan Krank geworden, oder hast Du ausversehen Deine Festplatte formatiert? Lol ;-))

Space


Antwort von iasi:

So, jetzt bist Du dran! Hosen runter! ;-))

Iasi?
Bist Du spontan Krank geworden, oder hast Du ausversehen Deine Festplatte formatiert? Lol ;-)) so schnell geht das nicht - wenn, dann gibt"s raw-einzelbilder, damit jeder rumspielen kann und nicht gleich über"s grading des jpgs sondern über das, was die kamera liefert, reden kann.

raw kann man hier nicht einfach hochladen

Space


Antwort von klusterdegenerierung:

So, jetzt bist Du dran! Hosen runter! ;-))

Iasi?
Bist Du spontan Krank geworden, oder hast Du ausversehen Deine Festplatte formatiert? Lol ;-)) so schnell geht das nicht - wenn, dann gibt"s raw-einzelbilder, damit jeder rumspielen kann und nicht gleich über"s grading des jpgs sondern über das, was die kamera liefert, reden kann.

raw kann man hier nicht einfach hochladen Hallo? Jpgs?
Wir sind im Zeitalter der bewegten Bilder ;-)

Space


Antwort von motiongroup:

Na Kluster, was glaubst wie's weiter geht..
Übrigens, jetzt müssen sich alle 10bit Ausgabefetischisten unter Windows mit lightroom das Leben nehmen... Die 6 ist wie die 5 und die Vorgänger auch nicht 10bit resp 30bit tauglich. Waaaaaaas, dass kann doch gar nicht sein, die meistbenutzte fotoanpass- und katalogisierungssuite kann das nicht.. ;)

Space


Antwort von iasi:

So, jetzt bist Du dran! Hosen runter! ;-))

Iasi?
Bist Du spontan Krank geworden, oder hast Du ausversehen Deine Festplatte formatiert? Lol ;-)) so schnell geht das nicht - wenn, dann gibt"s raw-einzelbilder, damit jeder rumspielen kann und nicht gleich über"s grading des jpgs sondern über das, was die kamera liefert, reden kann.

raw kann man hier nicht einfach hochladen Hallo? Jpgs?
Wir sind im Zeitalter der bewegten Bilder ;-) nimm"s als Metapher

Space


Antwort von iasi:

Na Kluster, was glaubst wie's weiter geht..
Übrigens, jetzt müssen sich alle 10bit Ausgabefetischisten unter Windows mit lightroom das Leben nehmen... Die 6 ist wie die 5 und die Vorgänger auch nicht 10bit resp 30bit tauglich. Waaaaaaas, dass kann doch gar nicht sein, die meistbenutzte fotoanpass- und katalogisierungssuite kann das nicht.. ;) aber ein windows rechner mit FirePro-Karte kann"s nun mal - somit hatte auch der lightroom-nutzer schon immer die möglichkeit zu einer software zu wechseln, die"s kann ... das betriebssystem hatte ihn also nie daran gehindert, seine teure hardware auch voll zu nutzen.

da war es eben immer so, dass die grafikkartenhersteller für die billigeren gamekarten das kästchen für die 10bit-aktivierung deaktiviert hatten ... bei einem macpro übernimmt eben nun mal apple generell für alle karten - also auch für die teuren karten ...

und wer ein richtiger fan ist, der verteidigt eben auch so etwas ... :)
schon den neuesten fan-artikel für"s handgelenk gekauft?

respekt - apple maht"s schon richtig ...

Space


Antwort von Jan Reiff:

die DR der Sensoren ist nahezu gleichauf, egal ob Arri, Red oder Sony usw...
der Sprung bei Red von MX auf Dragon war nochmal deutlich, v.a. weil man den Sensor massiv mehr mit Licht füttern kann bis was clippt - und selbst wenn die Ampel minimal angeht ist der roll off noch weich genug damit es nicht fies aussieht. da war MX unterlegen. Dragon und Alexa Sensor sind da sehr ähnlich.
Im Gegensatz zu vielen anderen halte ich die Dragon in den Schatten für deftig pushbar. Das Beispiel hier ist der Standard OLP und dann auf ISO12800 gepusht. Der Stuhl oder die Bücher sind tatsächlich am untersten Ende der Belichtung, dass es nicht clean ist ist logisch, aber es ist weit weg von den Katastrophen die andere schon mit ISO 1000 abliefern.
Gespannt bin ich auf die Black Magics.
Ich habe aber auch schon konkretes Footage der Weapon gesehen, auch wenn es nur eine halbe Blende mehr ist die Weapon packt, verbessert sich der Spielraum nochmal in die richtige Richtung.
Wie oft gesagt, in paar Jahren reden wir nicht mehr von DR ... egal bei welcher Marke, die gleichen sich alle an. Mehr als gut möglich, dass ne 5000 Dollar Ursa zeitnah einer 40 000 Arri überlegen ist. Wäre nicht das erste Mal dass teuer nicht besser heisst.

Space


Antwort von iasi:

die DR der Sensoren ist nahezu gleichauf, egal ob Arri, Red oder Sony usw...
der Sprung bei Red von MX auf Dragon war nochmal deutlich, v.a. weil man den Sensor massiv mehr mit Licht füttern kann bis was clippt - und selbst wenn die Ampel minimal angeht ist der roll off noch weich genug damit es nicht fies aussieht. da war MX unterlegen. Dragon und Alexa Sensor sind da sehr ähnlich. ja - den größten Fortschritt des Dragon gegenüber dem MX sehe ich auch beim roll off - hier war die Alexa gegenüber dem MX besser - mit dem Dragon hat Red nun aber aufgeschlossen
Im Gegensatz zu vielen anderen halte ich die Dragon in den Schatten für deftig pushbar. Das Beispiel hier ist der Standard OLP und dann auf ISO12800 gepusht. Der Stuhl oder die Bücher sind tatsächlich am untersten Ende der Belichtung, dass es nicht clean ist ist logisch, aber es ist weit weg von den Katastrophen die andere schon mit ISO 1000 abliefern. Katastrophen sehen nur die Leute, die ein Raw-Bild erwarten, das aussieht, wie eine Low-Light-Aufnahme aus einer A7s.
Frei von Rauschen ist der Dragon auch nicht - aber man bekommt es in der Post recht gut in den Griff.
Ich war schon vom MX überrascht, der trotz übelstem Restlicht und extremer Unterbelichtung noch Material lieferte, das man wider erwarten noch bearbeiten konnte.

Gespannt bin ich auf die Black Magics.
Ich habe aber auch schon konkretes Footage der Weapon gesehen, auch wenn es nur eine halbe Blende mehr ist die Weapon packt, verbessert sich der Spielraum nochmal in die richtige Richtung.
Wie oft gesagt, in paar Jahren reden wir nicht mehr von DR ... egal bei welcher Marke, die gleichen sich alle an. Mehr als gut möglich, dass ne 5000 Dollar Ursa zeitnah einer 40 000 Arri überlegen ist. Wäre nicht das erste Mal dass teuer nicht besser heisst. Die Kameras sind schon heute ziemlich gleich auf - die Unterschiede liegen in den Details - behaupte ich mal. Man muss/kann die geeigneste Kamera für jede Anforderung wählen.
Das Problem: Wer ist schon wirklich in mehrere Kameras voll eingearbeitet - und dabei denke ich nicht an Knöpfchen und Menüführung.

Gib einem Alexa-Mann eine Dragon in die Hand und schau, was er aus der Dragon rausholen kann - umgekehrt ist es natürlich das Gleiche - das Potential der Dragon wird der Arrianer nicht mal eben ausschöpfen können.
Nicht zu vergessen die Post-Leute.

Man muss sich nur das Camera-Shootout 2012 ansehen, bei dem nicht nur Kameras sondern Teams mit ihren Kameras gegeneinander angetreten waren. So eindeutig waren die Unterschiede am Ende nicht, wie man anhand der Preisunterschiede der Kameras vielleicht gedacht hatte.

Space


Antwort von Jan Reiff:

muss immer einen natürlichen Look behalten
mit redlogfilm und leichter Kurve hast Du eigentlich alle Infos die Du brauchst, same same bei Alexa ... aber auch schon mit ner 2.5er Black Magic, das ist alles nah beinander

Kamera von Terrasse gehalten hier bei unserem Ferienhaus in der Normandie ... (ist nicht voll im Focus waren auch alte Fotogläser die ich geteste habe)

aber das ist nahezu out of box, und das reicht in 90% aller Fälle schon dicke

Space


Antwort von iasi:

muss immer einen natürlichen Look behalten
mit redlogfilm und leichter Kurve hast Du eigentlich alle Infos die Du brauchst, same same bei Alexa ... aber auch schon mit ner 2.5er Black Magic, das ist alles nah beinander

Kamera von Terrasse gehalten hier bei unserem Ferienhaus in der Normandie ... (ist nicht voll im Focus waren auch alte Fotogläser die ich geteste habe)

aber das ist nahezu out of box, und das reicht in 90% aller Fälle schon dicke bist du mittlerweile vom 50er abgekommen und bevorzugst nun WW? :)

die 2.5k BMCC glänzt wirklich mit großem DR - aber clippen sollte besser nichts.
es wäre schön gewesen, wenn BMD die 2,5k in Richtung micro weiterentwickelt hätte - mit SSD ...

Space


Antwort von Jott:

Schönes Fachgesimpel - auch wenn einer von beiden nur Hörensagen drauf hat.

Space


Antwort von iasi:

Schönes Fachgesimpel - auch wenn einer von beiden nur Hörensagen drauf hat. Versuchst du auf diese Weise mitzureden?
Besser geht"s nicht?
Schade. :)

Space


Antwort von Peppermintpost:

muss immer einen natürlichen Look behalten
mit redlogfilm und leichter Kurve hast Du eigentlich alle Infos die Du brauchst, same same bei Alexa ... aber auch schon mit ner 2.5er Black Magic, das ist alles nah beinander
wir haben letztes Wochenende mit der 4k BMD Cinecam gedreht (Studiodreh, also keine extremen Lichtsituationen). Die Bildqualität ist wirklich gut. Wenn man bedenkt was das Spielzeug kostet ist die Bildqualität sogar sensationell. Aber ne Arri oder ne Red sind da schon auch auf den ersten Blick eine andere Nummer. Wer das maximum an Bildqualität will das für Geld zu bekommen ist, der ist mit den beiden Platzhirschen schon immer noch extrem gut aufgestellt, alle anderen liefern m.M. nach nur Achtungserfolge.
Ich bin auf die nächste Generation (ursa mini und aja) gespannt, ob da nur das Marketing richtig gut ist, oder ob die Produkte das auch halten. Wenn die Produkte halten was das Marketing verspricht könnte es eng werden, ist es m.M. nach zur Zeit aber noch nicht.

Space


Antwort von iasi:

muss immer einen natürlichen Look behalten
mit redlogfilm und leichter Kurve hast Du eigentlich alle Infos die Du brauchst, same same bei Alexa ... aber auch schon mit ner 2.5er Black Magic, das ist alles nah beinander
wir haben letztes Wochenende mit der 4k BMD Cinecam gedreht (Studiodreh, also keine extremen Lichtsituationen). Die Bildqualität ist wirklich gut. Wenn man bedenkt was das Spielzeug kostet ist die Bildqualität sogar sensationell. Aber ne Arri oder ne Red sind da schon auch auf den ersten Blick eine andere Nummer. Ist der Unterschied beim Studiodreh wirklich so deutlich?
Man hat alles unter Kontrolle, kann optimal für die Kamera Licht setzen und muss nicht ans Limit gehen.

Space


Antwort von Frank Glencairn:

Der 4k Sensor von CMOSIS ist halt nicht so der Bringer - der Fairchild Snsor der 2.5k ist viel näher an der Alexa dran, und mindestens auf dem selben Level wie die Epic, wenn nicht besser - erst bei der Dragon wird die Luft für BM dünn.

Space


Antwort von Peppermintpost:

wir hatten in unserem Fall nicht mit harten Einspiegelungen von Highlights zu kämpfen, und somit nach oben auch keine Probleme, aber wir hatten schwarze Anzüge und ich finde nach unten hin wird der Sensor dann etwas matschig. Der 2,5k Sensor verhält sich anders, da hat Frank recht.
Die beiden Sensoren sind für mich, wenn man das vergleichen kann etwa so wie Kodak T-Max vs Tri-X, Tri-X kommt halt immer mit seinem eigenen schroffen Look daher, wenn man den mag ist der Look aber super, T-Max ist der modernere, technisch bessere, und neutralere, wenn man ihn aber ausserhalb seiner wohlfühlzohne betreibt wirds komisch.

Allerdings spreche ich hier von Details im Raw Footage die zum einen nach dem CC wohl ohnehin nicht mehr sichtbar sind, und ich rede über ein Niveau das im Vergleich 50.000$ Kamera mit 30.000$ Linse vs Consumer Kamera mit Photo Linse zwar sichtbar ist, einem aber niemand ankreiden wird, weil kaum jemand den Unterschied kennt.

Also wie gesagt, kein BM bashing, sondern nur ein Pro Argument das High End Equipment schon noch mehr kann. Ob es das Wert ist kann sich nur jeder selbst beantworten.

Space


Antwort von iasi:

Der 4k Sensor von CMOSIS ist halt nicht so der Bringer - der Fairchild Snsor der 2.5k ist viel näher an der Alexa dran, und mindestens auf dem selben Level wie die Epic, wenn nicht besser - erst bei der Dragon wird die Luft für BM dünn. der 2,5k ist gut - aber ich würde nicht so weit gehen zu sagen, er wäre mit dem MX auf einem Level.
Wobei die Level eh ziemlich nah beieinander liegen und es schon Situationen braucht, die die Kameras jeweils an ihr Limit bringen, um Unterschiede zu sehen.

Mein Eindruck:
Alexa und Dragon haben den besseren roll off (wie Jan schon sagte)
Dragon ist gutmütiger als der MX, was Farbtemperatur betrifft.
BMCC und MX schenken sich beim DR nicht viel - ich finde aber, dass die Highlights bei der BMCC noch kritischer sind und sie auch schneller zu unschönen Effekten neigt (RS etc.)

Für den Preis schlägt sich die BMCC jedoch recht gut.
Die Alexa ist aber eben "verlässlicher" und überrascht also nicht mit den "unschönen" Effekten und verzeiht eben auch Überbelichtung bzw Highlights.

Dragon bietet eben zusätzlich höhere Auflösung bei geringeren Datenmengen.

Auf die BMD Mini 4,6k kann man wohl gespannt sein - auch im Hinblick auf die Alexa Mini ...

@Peppermintpost
Es ist kein Bashing, wenn man auch die Schwächen von Kameras benennt. Die BMD 4k kenne ich nicht - ich hatte nur gehört, dass er wohl eher für"s Studio geeignet sein soll (eben auch von Frank)

Space


Antwort von Spaceman:

Wer in Zeiten von Blackmagic und Co noch 30'000€ für ne Cam und 20'000€ für ne Optik ausgibt gehört windelweich gehauen!

Space


Antwort von iasi:

Wer in Zeiten von Blackmagic und Co noch 30'000€ für ne Cam und 20'000€ für ne Optik ausgibt gehört windelweich gehauen! das kann man so nun auch nicht sagen - die Unterschiede mögen zwar generel gering sein, aber sie sind vorhanden - und gerade in den extremen trennt sich die Spreu vom Weizen:
Bei f5.6/t5.6 mag man vielleicht kaum Unterschiede zwischen sehr teuren Cine-Linsen und guten Fotolinsen sehen, aber offen sieht das dann eben doch nochmal ganz anders aus - mal ganz abgesehen von dem Unterschied zwischen f1.4 und t1.4.
Willst du das Beste und auch mal ans Limit gehen ohne Kompromisse machen zu müssen, dann ...
Zudem kommt es auch auf die Relationen an. Hast du 100 Millionen oder 100.000 als Budget?

Wer Werbeclips dreht, bei denen eine Sekunde soviel kostet, wie eine Minute bei einer TV-Produktion, der kann eben auch mal das x-fache für die Kamera einkalkulieren.

Space


Antwort von Spaceman:

Ächtungen: RAW Kameras haben keinen Rolloff. Das Bild wird linear aufgezeichnet.
Den Rolloff gibts in der Post. Bei 13 oder 14 Blendenstufen verfügbarer Dynamikumfang nen schicken Rolloff hinzubekommen ist wahrlich keine Kunst.

Worin sich Sensoren allerdings unterscheiden ist der Noise.

Space


Antwort von domain:

Der Thread läuft jetzt ja schon über Gebühr lange und es kommen immer spezialisierte Wortmeldungen.
Dabei ist es eigentlich schon ein bisserl merkwürdig, dass viele auch professionelle Kameramänner ihre ureigenste Kompetenz in Punkto Beleuchtung und Licht an die ungeahnten und unglaublichen Möglichkeiten (von z.B. RAW) abgeben.
Aber so war es nie, dass man jeden Schrott noch in der Nachbearbeitung retten konnte.
Es hilft ja nichts, Lichter (mit tollem Roll-off) und Schatten in der Nachbearbeitung noch reinzuholen, wenn eine professionelle Lichtgestaltung von Haus aus derzeit überhaupt eher ein Fremdwort zu sein scheint und einfach nicht angewandt wird.
Insgesamt offenbart sich m.E. der Trend zu einer gewissen Sorglosigkeit.
Der in der Post wird es schon richten, die Kameramänner brauchen immer weniger Ausbildung und das ist auch gut so.
Schon bald werden ihnen DIY und Autodidaktische den Rang streitig machen.
Wird genauso laufen wie in der Textverarbeitung, im Publishing oder im Grafikbereich inkl. Photoshop, jeder engagierte und talentierte Laie beherrscht das in relativ kurzer Zeit.

Space


Antwort von iasi:

Ächtungen: RAW Kameras haben keinen Rolloff. Das Bild wird linear aufgezeichnet.
Den Rolloff gibts in der Post. Bei 13 oder 14 Blendenstufen verfügbarer Dynamikumfang nen schicken Rolloff hinzubekommen ist wahrlich keine Kunst.

Worin sich Sensoren allerdings unterscheiden ist der Noise. oh nein - der Übergang in den Lichtern bis zum Clippen unterscheidet sich sehr ... ein direkter Dragon-MX-Vergleich wäre hier mal interessant (gibt"s sicherlich irgendwo)

Space


Antwort von Spaceman:

Die überteuerten Cine Preise werden solange abgerufen bis die letzte Kuh gemolken ist. Das geht vielleicht noch ein oder 2 Jahre gut aber spätestens dann wird auch Die Filmbranche aufwachen und sich fragen warum z.B. Eine Hochkarätige Modeproduktion im Fotobereich mit einer 2000 Euro Spiegelreflexkamera und einer 2000 Euro Optik funktioniert und die Auflösung in der Zeitschrift sogar ein Vielfaches von dem beträgt was man im Kino zu sehen bekommt...

Space


Antwort von klusterdegenerierung:

Iasi, wie lange willst Du uns denn jetzt noch auf Deine "jpgs" warten lassen, oder ist das auch alles nur blabla wie der rest?


Oder mußt Du jetzt mit "Deiner Red" das erstemal raws drehen und die wandelst Du dann in jpg"s, damit wir sie dann dem Arrifootage gegenüberstellen könne oder wie?

Ich finde, so langsam mußt auch Du einsehen das Dein Kartenhaus beginnt zusammen zu brechen!

Space


Antwort von Jan Reiff:

@ Spaceman

naja, ---
der Unterschied guter Gläser ist schon noch schwerwiegend, v.a. beim Pumpen ...
und ...
auch was der Sensor macht wenn er überladen / überbelichtet wird. Hier ist das Dragonbild schlichtweg "cremiger" als noch bei MX. v.a. kannst Du bei Alexa und Dragon eben die Blende auf und auf machen und denkst Ah! noch mehr ? Ok ... ist schon nah dran zu dem was man sich bei Negativ getraut hat ...

Wie bei dem Bild von der Terrasse ist der erste Eindruck des Dragonsensors viel viel öfter angenehmer und in sich erwachsener als noch bei MX, Dragon und Alexa ähneln sich da sehr. Das ist ein Look&Feel der nicht nur durch DR kommt, sondern v.a. durch die Farben, wobei ich sogar ein minimales subtiles Rauschen nie als Nachteil sehe, im Gegenteil, bei Dragon ist es so fein dass das Bild eine organische Textur bekommt und mehr Charakter erhält.
Viele Kameras sind mir persönlich zu glatt und kalt.

die 2.5 Black Magic habe ich auch noch hier, und fand die immer vom Bild her ziemlich cool, das Handling der Kamera steht auf einem anderen Blatt. die URSA zeigt ziemlich nettes Footage bis dato, spannend was kommt.

Space


Antwort von Peppermintpost:

Wer in Zeiten von Blackmagic und Co noch 30'000€ für ne Cam und 20'000€ für ne Optik ausgibt gehört windelweich gehauen! ja da hast du absolut recht, ist genau so beim essen - jeder der mehr als 3 Euro für ein Essen ausgibt sollte auch verhauen werden weils für 2,99 ja schon tolle Mikrowellen Gerichte gibt.

Oder wer mehr als 10.000 Euro für ein Auto ausgibt, weil die Chinesen ja schon wirklich tolle Autos für 9.999 bauen.

Oder ein Computer für über 499,- auch alles schwachsinn, weil medion ja tolle Rechner für 499,- anbietet.

Wer so argumentiert hatte selber noch nie was anständiges in den Fingern oder gehört zur ewigen bastel Fraktion die es einfach beunruhigt wenn man was aus dem Karton nimmt und es funktioniert wie von Geisterhand auch ohne den grossen Schraubenschlüssel auszupacken.

Sorry aber da wird persöhnliche Meinung und Geschmack als Tatsache verkauft.

Space


Antwort von Spaceman:

@ Domain : ja das sind die Zeiten von RAW. Ist schon genial. Beim Filmen muss man nur noch darauf achten dass der Sensor sein Licht bekommt. Überbelichtungen sind kein Thema solange nichts klippt. Einfach draufhalten Hauptsache irgendein Segment des Sensors ist belichtet. Easy.

Der Rest wird in der Post entwickelt. Da werden dann die Kontraste, Rolloffs und Farben gezaubert...

Space


Antwort von srone:

@ Domain : ja das sind die Zeiten von RAW. Ist schon genial. Beim Filmen muss man nur noch darauf achten dass der Sensor sein Licht bekommt. Überbelichtungen sind kein Thema solange nichts klippt. Einfach draufhalten Hauptsache irgendein Segment des Sensors ist belichtet. Easy.

Der Rest wird in der Post entwickelt. Da werden dann die Kontraste, Rolloffs und Farben gezaubert... auch @domain, wie du siehst, sorglos. ;-))

lg

srone

Space


Antwort von WoWu:

Ächtungen: RAW Kameras haben keinen Rolloff. Das Bild wird linear aufgezeichnet.
Den Rolloff gibts in der Post. Bei 13 oder 14 Blendenstufen verfügbarer Dynamikumfang nen schicken Rolloff hinzubekommen ist wahrlich keine Kunst.

Worin sich Sensoren allerdings unterscheiden ist der Noise. oh nein - der Übergang in den Lichtern bis zum Clippen unterscheidet sich sehr ... ein direkter Dragon-MX-Vergleich wäre hier mal interessant (gibt"s sicherlich irgendwo) Den Roll off gibt's nicht in der Post sondern in der Übertragungsfunktion.
ARRI hat sich da sehr stark am Negativfilm orientiert, weil Belichtung da SCHWARZ ist und sehr weich in die Schlieren übergeht, was im Positiv den weichen Übergang nach Weiss ergibt.
Red macht das, nicht viel anders als die andern Kamerahersteller.
(Siehe Vergleich). Der Sensor macht an der Stelle gar nichts denn der "zählt" nur die auftreffenden Photonen. Die Verteilung wird in der Übertragung vorgenommen.
Die Cineon Kennlinie versucht den weichen Übergang dadurch hin zu bekommen, dass sie den Weisspunkt einfach bei (bummelig 800 -hab den genauen Wert jetzt nicht im Kopf) legt.
Dadurch hat Du im Hellbereich relativ viele Werte, leider zu Lasten einer Dynamikkompression im dunklen Bereich.

Space


Antwort von Jan Reiff:

gut, wenn Du ein Highlight im Haar willst von einem backlight oder eine Kante zur Modulation des Gesichts gilt immer noch das Handwerk des Leuchtens. Flaues Haar Kontraste zu geben in der Werbung ist in der Post normal, aber trotzdem musst Du dem Coloristen eine Basis geben.
Es ist eher die Balance heute zu wissen, was muss ich machen und was ist alles möglich in der Post, denn die Drehs stehen unter immer mehr Zeitdruck.

Beispiel Fotografie: was waren das noch für Polaroid Orgien usw früher - da musste auf den Punkt gearbeitet werden, stundenlang Lichtsetzen (Food z.B.) - heute steht Photoshop daneben, check, passt, next.

Dramaturgisches Licht wird durch Raw nicht ersetzt.

Space


Antwort von srone:

...Es ist eher die Balance heute zu wissen, was muss ich machen und was ist alles möglich in der Post, denn die Drehs stehen unter immer mehr Zeitdruck...

...Dramaturgisches Licht wird durch Raw nicht ersetzt. sehe ich ganz genauso. ;-)

lg

srone

Space


Antwort von Jan Reiff:

Ächtungen: RAW Kameras haben keinen Rolloff. Das Bild wird linear aufgezeichnet.
Den Rolloff gibts in der Post. Bei 13 oder 14 Blendenstufen verfügbarer Dynamikumfang nen schicken Rolloff hinzubekommen ist wahrlich keine Kunst.

Worin sich Sensoren allerdings unterscheiden ist der Noise. oh nein - der Übergang in den Lichtern bis zum Clippen unterscheidet sich sehr ... ein direkter Dragon-MX-Vergleich wäre hier mal interessant (gibt"s sicherlich irgendwo) Den Roll off gibt's nicht in der Post sondern in der Übertragungsfunktion.
ARRI hat sich da sehr stark am Negativfilm orientiert, weil Belichtung da SCHWARZ ist und sehr wich in die Schlieren übergeht, was im Positiv den wichen Übergang nach Weiss ergibt.
Red macht das, nicht viel anders als die andern Kamerahersteller.
(Siehe Vergleich). Der Sensor macht an der Stelle gar nichts denn der "zählt" nur die auftreffenden Photonen. Die Verteilung wird in der Übertragung vorgenommen.
Die Cineon Kennlinie versucht den wichen Übergang dadurch hin zu bekommen, dass sie den Weisspunkt einfach bei (bummelig 800 -hab den genauen Wert jetzt nicht im Kopf) legt.
Dadurch hat Du im Hellbereich relativ viele Werte, leider zu Lasten einer Dynamikkompression im dunklen Bereich.
und trotzdem sehen 80% deutscher TV Movies auf Alexa aus wie Digi Beta. Das ist auch eine wahre Kunst ... wobei ich den Kameraleuten da wenig die Schuld gebe, was die Redakteure alles anrichten kurz vor Sendekopie ist der blanke Hohn. Da werden Nachtaufnahmen die sorgfältig geleuchtet waren (und weil es Nacht ist auch mal dunkler sind) wieder so hochgezogen bis die Balken rauschen, dann kommt noch fett NR drauf und fertig ist der Look einer Alexa oder Red, der alles ad absurdum führt. Aber Redaktion hat Schiss dass es zu düster ist, auch wenn dann danach um 22 Uhr ein US Film läuft der in Finsternis versinkt, das ist dann toll weil Hollywood. Und Redakteure interessieren sich weder für Kontrastumfang noch für Parameter, sie haben schlichtweg keine Ahnung von rein gar nix, fängt schon beim deutschen Titelgenerator an ... kann das nicht mehr anschauen, kannst alles direkt auf den alte Digi Betas drehen ...

Space


Antwort von Spaceman:

@ Peppermintpost: der Abeglaube dass Cine teuer sein muss weils besser ist wird von den Herstellern eiskalt ausgenutzt.

mehr Infos hier: www.cine- ichziehedichueberdenTischundduweisstnichtwieweit

Aber die Filmer lassen auch nicht mehr alles mit sich machen und deshalb fallen die Preise für Cinekameras monatlich um mehrere 1000 Euro. von ehemals über 100'000 Euro...

Das heißt die Umrechnung mit dem sogenannten Cinefaktor geht bald nicht mehr. egal ob Kamera, Objektive oder Zubehör.


Die Formel ging mal so:

Schriftzug "Cine" aufs Produkt = Preis * Faktor 10.

So kommt es dass billigst herzustellendes Zubehör wie Z.B ein Rod System bestehend aus billigsten Alustangen und Plastik plötzlich für mehr als 1000 EUR angeboten wird... und auch noch gekauft wird...

Space


Antwort von WoWu:

Moin Jeff..

Man darf Kino nicht mit TV vergleichen.
Premeire hat mal "Bad Man" unentzerrt übertragen und hatte innerhalb von 30 min. 250.000 Anrufer in der "cue" .... "graue Sosse" war noch das harmloseste.
Du hast bei TV völlig andere Sehbedingungen.
Aber die Filmer lassen auch nicht mehr alles mit sich machen und deshalb fallen die Preise für Cinekameras monatlich um mehrere 1000 Euro. von ehemals über 100'000 Euro... Leider wissen das die Objektivhersteller noch nicht.
Da liegst Du noch in den alten Kategorien.
Und ich würde lieber in gutes Glas investieren, als in mehr Pixels, wo sowieso hinterher nicht mehr Bildinhalt dabei herauskommt.

Space


Antwort von Spaceman:

@ WoWu: Dir ist aber schon klar dass die "Übertragungsfunktion" , also die Umwandlung der RAW Daten z.B. in irgendein Log Format in der Post passiert.
RAW aus der Kamera hat keinen Rolloff!

Space


Antwort von srone:

also doch, der "überdrehte" fernseher als referenz?

lg

srone

Space


Antwort von WoWu:

@ WoWu: Dir ist aber schon klar dass die "Übertragungsfunktion" , also die Umwandlung der RAW Daten z.B. in irgendein Log Format in der Post passiert.
RAW aus der Kamera hat keinen Rolloff! Dann schau Dir mal an, was bei RED aus der Kamera kommt... .. und das ist kein RAW sondern ein Bildformat.
Du kommst an keinen einzigen De-Bayering Punkt mehr.
Und ob da eine Übertragungsfunktion zwischen Sensor und Ausgang liegt.
RED nennt das nur RAW, weil es für RAW keine verbindliche Normierung gibt.
Abgesehen davon, kannst Du selbst RAW Daten mappen. Wo steht geschrieben, dass die linear übertragen werden müssen ?

Space


Antwort von srone:

@ WoWu: Dir ist aber schon klar dass die "Übertragungsfunktion" , also die Umwandlung der RAW Daten z.B. in irgendein Log Format in der Post passiert.
RAW aus der Kamera hat keinen Rolloff! falsch, das ist die übertragungsfunktion "photon" zu "rawwert" und die passiert in der kamera.

lg

srone

Space


Antwort von Spaceman:

Neh, WOWu dass was Du oben zeigst ist die Umwandlung der RAW Daten in Logformate. sowas kam zu alten Zeiten auch mal aus der Kamera als 10 Bit 422 Log oder vom Scanner... hat mit heutigen RAW Kameras die linear ausgeben aber nichts mehr zu tun

Space


Antwort von WoWu:

Srone war schneller ...

Ich hatte das noch nachgereicht ... RAW Daten können ebenso in der Übertragung gemapped sein, wie andere Daten.
Nur dass das Wort Übrtragung immer so verstanden wird, als würde es den Weg aus der Kamera beschreiben ... das ist aber nicht so. Das passiert schon in der Kamera.

Space


Antwort von Spaceman:

An den obigen Kurven sieht man auch ganz schönen den Irrglauben " Die Alexa hätten nen besseren Rolloff" nur weil das Log C Format halt nen kleinen Rolloff eingebaut hat. log ist aber nicht RAW und die Raw Daten aus der Alexa kommen genauso straight linear raus wie bei der Rede. wer will kann das natürlich auch mit seinen Red Rohdaten veranstalten und beim umwandeln in Log nen Rolloff einbauen. geht alles easy in der Post...

Space


Antwort von srone:

grundsätzlich sollte man einmal festhalten, dass sich transistoren (audio) bzw sensoren (video) alles andere als linear verhalten, hier gilt es einen möglichst grossen (dynamic range) linearen bereich herauszu"mappen" (danke wowu), das ist es dann, was dir als raw verkauft wird.

lg

srone

Space


Antwort von Peppermintpost:

@ Peppermintpost: der Abeglaube dass Cine teuer sein muss weils besser ist wird von den Herstellern eiskalt ausgenutzt.

mehr Infos hier: www.cine- ichziehedichueberdenTischundduweisstnichtwieweit

Aber die Filmer lassen auch nicht mehr alles mit sich machen und deshalb fallen die Preise für Cinekameras monatlich um mehrere 1000 Euro. von ehemals über 100'000 Euro...

Das heißt die Umrechnung mit dem sogenannten Cinefaktor geht bald nicht mehr. egal ob Kamera, Objektive oder Zubehör.


Die Formel ging mal so:

Schriftzug "Cine" aufs Produkt = Preis * Faktor 10.

So kommt es dass billigst herzustellendes Zubehör wie Z.B ein Rod System bestehend aus billigsten Alustangen und Plastik plötzlich für mehr als 1000 EUR angeboten wird... und auch noch gekauft wird...
das stimmt so so nicht. Klar gibt es China Rod Systeme, Matteboxen und Follow Focus für kompl. 500 Euro, und darunter sind sogar einige die nicht super sind, aber durchaus brauchbar ihren Dienst verrichten. Und dann gibt es Chrosziel oder Arri die für die gleiche Funktion gerne auch mal ein paar Tausender verlangen. Aber schau dir die Dinger mal im Vergleich an, oder lies Testberichte, so eine China Gummi Mattebox ist nunmal nicht das gleiche wie die Chrosziel Carbon Mattebox, bei Chrosziel must du die Filter nicht mit nem Hammer rein Klopfen oder sie fallen dir beim Filmen wieder raus, oder ein Follow Focus von Arri reagiert halt auf feinste Veränderungen ohne einen Kilometer Spiel. Da kannste 20x den Focus ziehen und wenn du deine Makierung triffst dann ist das auch jedes mal gleich. Ob man das in jedem Fall und für jeden Einsatz so braucht? Klar das steht auf einem anderen Blatt. Aber wenn du den Level an Präzision und Zuverlässigkeit willst, dann must du halt das teure Zeugs kaufen. Und was die Preise angeht, klar ist es unverhältnissmässig teuer ein präzisions Produkt zu bauen, das in sehr geringen Stückzahlen produziert wird. Steht alles ausser Frage. Das hat aber nichts mit "Cine-Faktor" zu tuen, das ist bei allen Produkten so. Ein Erasko Mikrowellen Essen das am Tag 50.000 mal Produziert wird ist auch billiger als ein 5 Sterne Menue, auch wenn Erasko unter Umständen sogar eine gute Qualität liefert würde ich deswegen noch lange nicht sagen das alle panne sind die mehr wollen.

Zusätzlich sollte man auch mal im Auge behalten wie das Produkt eingesetzt wird und wie weit dann der Herstellungspreis noch eine Rolle spielt. Wenn ich eine Werbung mache die ein Budget von 700.000 hat, und ein Media Budget von 10 Millionen, dann ist ja die grosse Frage, warum soll ich das mit einer Kamera drehen mit der ich beim Dreh evtl 5000 Euro billiger bin, die mir aber im Zweifelsfall einen Hauch weniger Qualität liefert? Da steht der preisliche Vorteil einfach nicht im Verhältniss zu dem was ich mit dem Produkt anstellen will. Wenn ich aber einen Indi Film drehe den gerade mal 2000 Leute auf youtube sehen, oder ein Image Film der nur auf einer Company Website läuft, klar da kann man sich fragen ob so ein technischer Tamtam wirklich sein muss.

Space


Antwort von Spaceman:

Also ich bekomme aus Digitalkameras egal ob Red, BMC oder DSLR die RAW Daten als lineares Signal.

Space


Antwort von srone:

Also ich bekomme aus Digitalkameras egal ob Red, BMC oder DSLR die RAW Daten als lineares Signal. genau, weil die firmware den nichtlinearen sensor, in die dir vorliegeneden linearen raw-daten "mapped". ;-)

lg

srone

Space


Antwort von Spaceman:

??? Das ist Quatsch.

Space


Antwort von Jan Reiff:

Alexa hat nen Lowcon vorm Sensor, der die Highlights weicher macht

Space


Antwort von srone:

??? Das ist Quatsch. damit erübrigt sich eine weitere diskussion ab hier, verweise auf weitergehende bildungsmassnahmen.

lg

srone

Space


Antwort von WoWu:

Du kommst doch bei RED nicht mal in die Nähe der RAW Daten. Das Signal ist doch auch noch komprimiert.
Und den Pseudo"Roll off' machst Du dadurch, dass Du den Weisspunkt absenkst aber dafür dann den oberen Bereich expandierst.

Space


Antwort von Jan Reiff:

@ wowu

natürlich hat TV andere Maßstäbe.
also warum die Alexa rausholen, da reicht echt ne Digi Beta was manchen Redakteuren vorschwebt: hell, scharf.

Aber am Set laufen alle mit Arri-Mützen rum und 4000 Kabel kommen aus dem Body.
Ist schon fast Satire wenn man dann das Resultat im TV sieht.

Space


Antwort von WoWu:

Das sprichst Du gelassen aus.
Aber es gibt, wie ich finde, einen guten Weg dazwischen und wenn wir eines Tages auch noch eine grössere Dynamik und besseren Farbraum haben sollten, können die TV Leute schon mal bei den Kinoleuten einwenig abgucken.
Aber heute ist das noch zu früh, ans TV mit Kinomassstäben heran zu gehen.

Space


Antwort von srone:

Alexa hat nen Lowcon vorm Sensor, der die Highlights weicher macht i know. aber ist ja alles linear, was raw ist, lol.

lg

srone

Space


Antwort von Spaceman:

@WoWu, dass ist natürlich auch falsch was Du da schreibst insbesondere zum Rolloff.

Ich kann nur allen Beteiligten empfehlen sich schnellstmöglich zum Thema RAW und Lineares Signal schlau zu machen bevor die Foto Raw Fotografierer die Macht bei der Videofraktion übernehmen 😊

Space


Antwort von Jan Reiff:

was ihr da redet ist am Ende auch Nerd-Zeug ohne praktischen Nutzen.

es zählt Look and Feel. Ob der vom Raw kommt, vom Pseudo Raw oder ProRes ist mir egal wie man das nennt, Fakt ist man kann unendlich viel wieder rausholen aus den Daten an Info.

die neueren Sensoren sind schlichtweg angenehmer bei so Bildern wie hier, tiefe Sonne am Atlantik, scheint in unser Haus - unsere kleine Tochter im direkten Licht, einfach schnell draufgehalten um die Stimmung zu bekommen, kene Ahnung welche Blende (alte Nikkor) - war einfach schnell und ohne groß aufs Histogram zu schauen.
Das war vor einige Jahren noch schlichtweg fies, jetzt ist es schon nahe dran an dem was mir Negativ verzeiht, selbst wenn es wie am Geländer komplett wegbricht und clippt.
Ich für meinen Teil mache immer ein leichtes Korn auf sowas, Textur, nimmt das Cleane und gibt mehr Emotion.

Space


Antwort von Jan Reiff:

@ wowu

ich habe früher auch Regie gemacht bei TV Movies ...
ich will da nicht mehr hin

nicht nur das Bild, auch Schnitt, die wissen alles besser -
"Action" Szenen gehören mit möglichst vielen Schnitten vergewaltigt, weil bei Tante Redaktion ist Action = schnelle Schnitte

es ist unwürdig zum Teil für jeden der Film und Filmsprache liebt
ich will da nicht mehr hin, ausser man hat die Freiheiten die man braucht um eine Handschrift zu geben.

ein Dominik Graf "darf" das, aber dann wird"s schon düster

Space


Antwort von Jan Reiff:

und der Oberwitz ist:

die Redaktionen zeigen dann US Filme und sagen: so soll das aussehen ...

Is klar ...

Zirkus.

Space


Antwort von srone:

was ihr da redet ist am Ende auch Nerd-Zeug ohne praktischen Nutzen. nicht ganz, es geht um das einschätzen von situationen, bzw deren aufzeichenbarkeit, kameraarbeit im allgemeinen, da interesssiert es mich schon, wie mein lineares raw, vom hersteller "gebastelt" wird.

lg

srone

Space


Antwort von Jan Reiff:

geh mal davon aus, dass der größte Teil der besten DOP"s davon KEINE Ahnung hat ...

Space


Antwort von srone:

und der Oberwitz ist:

die Redaktionen zeigen dann US Filme und sagen: so soll das aussehen ...

Is klar ...

Zirkus. kannst du das nicht? ;-)))

lg

srone

Space


Antwort von klusterdegenerierung:

Arbeiten wir uns jetzt dem längstem Thread von Slashcam entgegen? ;-)

Space


Antwort von WoWu:

Also ich bekomme aus Digitalkameras egal ob Red, BMC oder DSLR die RAW Daten als lineares Signal. Aus der BMC kommt doch ein TIFF.
Seit wann ist das ein RAW Signal.
Du bekommst aus den Kameras ein "literarisiertes" Videosignal, also ein flachgebogenes Format, das Du dann zurückbiegen kannst, aber die ganzen charakteristischen Elemente des RAW Signals bekommst Du nicht.
Es ist eben nur so, dass das jeder einfach RAW nennt, weil es für den Begriff keine offizielle Definition gibt und ihn jeder nach Gusto benutzen kann.

Space


Antwort von Jan Reiff:

und der Oberwitz ist:

die Redaktionen zeigen dann US Filme und sagen: so soll das aussehen ...

Is klar ...

Zirkus. kannst du das nicht? ;-)))

lg

srone
"So wie Se7en, so spannend muss das sein"
"Ok"
Dreh.
"Das ist aber zu dunkel"
"Ach !"

Space


Antwort von srone:

geh mal davon aus, dass der größte Teil der besten DOP"s davon KEINE Ahnung hat ...

glaub ich dir nicht (:-)), nicht technisch gesehen, aber wenigstens erfühlen sie sich ihren bereich, wie mit den oben erwähnten "weichen highlights" der alexa, ich muss mir nicht die arbeit machen machen, dass technisch zu ergründen, aber es ist ein argument bezüglich eines zu erwartenden looks.

lg

srone

Space


Antwort von Jan Reiff:

RAW gibt"s beim Metzger.

Space


Antwort von Jan Reiff:

geh mal davon aus, dass der größte Teil der besten DOP"s davon KEINE Ahnung hat ...

glaub ich dir nicht (:-)), nicht technisch gesehen, aber wenigstens erfühlen sie sich ihren bereich, wie mit den oben erwähnten "weichen highlights" der alexa, ich muss mir nicht die arbeit machen machen, dass technisch zu ergründen, aber es ist ein argument bezüglich eines zu erwartenden looks.

lg

srone Ich meine einem DOP der für Fincher dreht wird Dir keine Referat über lineares Raw mit Algorithmen und Matrix hie rund da geben - das sind Künstler und keine Informatiker. Musst Dich mal mit so Leuten unterhalten ;-)

Space


Antwort von WoWu:

Wenn ich ganz ehrlich bin, finde ich 90% dieser "neuen Looks" sowas von sch..., dass ich oft einfach abschalte.
Ich hoffe nicht, dass sich der Mist im TV so durchsetzt, wie er heute präsentiert wird.

Space


Antwort von srone:

"So wie Se7en, so spannend muss das sein"
"Ok"
Dreh.
"Das ist aber zu dunkel"
"Ach !" gross auf einer kerze auf einem biertisch, zieh auf ihr gesicht auf, nein nicht auf das dekolte, lol, ör, ohne filter.

lg

srone

Space


Antwort von Jan Reiff:

die Sache ist, dass bei Negativfilm Überbelichtetes eine Farbe ist

und nicht tote Pixel

und da kommen wir gottseidank langsam hin

35mm:


Space


Antwort von Spaceman:

@ Wowu: jetzt aber nicht mit Erbsen zählen anfangen nur weil Du oben die nicht zum Thema RAW passenden Log Kurven gezeigt hast.

Klar RAW kann man auch so interpretieren dass es noch viele Vorstufen vorm Debayer vorliegt. Schwarz-weiß.

ich lade quasi die Photonen in meinen Grading Suite alles andere ist ja schon behandelt 😄

Spaß beiseite, ich denke jeder weiß was gemeint ist wenn es um RAW geht.

Space


Antwort von Jan Reiff:

Wenn ich ganz ehrlich bin, finde ich 90% dieser "neuen Looks" sowas von sch..., dass ich oft einfach abschalte.
Ich hoffe nicht, dass sich der Mist im TV so durchsetzt, wie er heute präsentiert wird. welcher Look ?

Space


Antwort von srone:

geh mal davon aus, dass der größte Teil der besten DOP"s davon KEINE Ahnung hat ...

glaub ich dir nicht (:-)), nicht technisch gesehen, aber wenigstens erfühlen sie sich ihren bereich, wie mit den oben erwähnten "weichen highlights" der alexa, ich muss mir nicht die arbeit machen machen, dass technisch zu ergründen, aber es ist ein argument bezüglich eines zu erwartenden looks.

lg

srone Ich meine einem DOP der für Fincher dreht wird Dir keine Referat über lineares Raw mit Algorithmen und Matrix hie rund da geben - das sind Künstler und keine Informatiker. Musst Dich mal mit so Leuten unterhalten ;-) meine lebensgefährtin ist bildende künstlerin;-), mein zweites standbein ist kunstfilm, bzw künstlerdokus. jan, es geht mir um die erfassbarkeit von kameraarbeit, wo man sicher diskutieren kann, wo das anfängt bzw aufhört.

lg

srone

Space


Antwort von Spaceman:

@jan: du willst mir aber nicht erzählen dass du den Anfänger Grading Fehler nämlich die Lichter gelb zu färben um einen auf Kino zu machen tollfindest, oder ?

Space


Antwort von Jan Reiff:

Lichter gelb färben ?

oder meinst Du den Snapshot ?

Space


Antwort von Peppermintpost:

Wenn ich ganz ehrlich bin, finde ich 90% dieser "neuen Looks" sowas von sch..., dass ich oft einfach abschalte.
Ich hoffe nicht, dass sich der Mist im TV so durchsetzt, wie er heute präsentiert wird. welcher Look ? deuscher TV Look ist doch recht einfach. Einen Baumarkt 500W Strahler in der Raum Ecke plaziert und iso 1600 ist neutral, grüne Folie und es ist Matrix, rote Folie und es ist Se7en, blaue Folie und es ist Transformers.
In der Post dann Sättigung 200% ist Familienprogramm und Sättigung 50% ist Abend Krimi.

Easy ;-)

Space


Antwort von Rudolf Max:

Einige nennen es Grading, die anderen nennen es einfach künstlichen Farbstich...

Wenn sogenannte "Künstler", auch Coloristen genannt, solche oftmals grauenhafte Farbstiche herstellen können, sollten sie ja eigentlich auch anständige Farben herzaubern können...

Oder sind diese "Künstler" schon so deppert, dass sie sowas nicht mehr schaffen...?

Man müsste weit mehr über einen korrekten Weissabgleich reden als über irgendwelche utopischen Dynamikumfänge...

Provozieren macht doch echt Spass... *grins

Rudolf

Space


Antwort von Jan Reiff:

die meisten vergessen, dass der Look eines Bildes mehr ist:

Art Direction
Kostüm
Ausstattung Farben usw usw

Space


Antwort von Jan Reiff:

Einige nennen es Grading, die anderen nennen es einfach künstlichen Farbstich...

Wenn sogenannte "Künstler", auch Coloristen genannt, solche oftmals grauenhafte Farbstiche herstellen können, sollten sie ja eigentlich auch anständige Farben herzaubern können...

Oder sind diese "Künstler" schon so deppert, dass sie sowas nicht mehr schaffen...?

Man müsste weit mehr über einen korrekten Weissabgleich reden als über irgendwelche utopischen Dynamikumfänge...

Provozieren macht doch echt Spass... *grins

Rudolf sag dass mal Michael Bay oder Bruckheimer
Die lachen Euch aus

Space


Antwort von srone:

Einige nennen es Grading, die anderen nennen es einfach künstlichen Farbstich...

Wenn sogenannte "Künstler", auch Coloristen genannt, solche oftmals grauenhafte Farbstiche herstellen können, sollten sie ja eigentlich auch anständige Farben herzaubern können...

Oder sind diese "Künstler" schon so deppert, dass sie sowas nicht mehr schaffen...?

Man müsste weit mehr über einen korrekten Weissabgleich reden als über irgendwelche utopischen Dynamikumfänge...

Provozieren macht doch echt Spass... *grins

Rudolf lieber rudolf,

das ist sehr unartig von dir ;-))

lg

srone

Space


Antwort von Spaceman:

@ peppermint: hehe genau das ist gut. So sieht Color Grading im deutschen Tv aus. Und beim Tatort kommt neben der 50% Sättigung noch ein grünstich mit rein. Auch über die Gesichter, würg...

Space


Antwort von Rudolf Max:

srone: Das ist gewollt... *smile

@: sag dass mal Michael Bay oder Bruckheimer ... Die lachen euch aus...
(wenn die Typen wüssten, dass ich ihren Scheiss gar nicht ansehe... Zapp... *smile

Rudolf

Space


Antwort von Spaceman:

Deutsche Filme im TV sind immer ein schönes Beispiel wie der Filmlook voll in die Hose geht.

Abhilfe: lieber in der Standardeinstellung drehen und zum Videlook stehen.

Space


Antwort von Jan Reiff:

Einige nennen es Grading, die anderen nennen es einfach künstlichen Farbstich...

Wenn sogenannte "Künstler", auch Coloristen genannt, solche oftmals grauenhafte Farbstiche herstellen können, sollten sie ja eigentlich auch anständige Farben herzaubern können...

Oder sind diese "Künstler" schon so deppert, dass sie sowas nicht mehr schaffen...?

Man müsste weit mehr über einen korrekten Weissabgleich reden als über irgendwelche utopischen Dynamikumfänge...

Provozieren macht doch echt Spass... *grins

Rudolf es muss der Emotion dienen. Nie dem Messinstrument

Space


Antwort von srone:

die meisten vergessen, dass der Look eines Bildes mehr ist:

Art Direction
Kostüm
Ausstattung Farben usw usw von "axel" auch schön, als "production value" deklariert, ja jan, gerne, immer.

trotzdem, bleibt das negativ-value, habe ich raw, kann ich alles, es gilt die feinsinnigkeit des sehens zu fördern, im kontext zum final gewünschten ergebnis, deswegen auch dein sinngemässes zitat von oben "raw alleine, macht keine spannende lichtstimmung" ;-)

lg

srone

Space


Antwort von Jan Reiff:

glaube ich nicht dass "Raw" ein Freischein ist, war Negativ auch nicht (wobei da ein Missgeschick mit Tages-oder Kunstlichtfilm bitterer war)

- der erste Satz unseres Dozenten in Ludwigsburg (1993) für Kamera hatte nichts mit Technik usw zu tun, sondern war ganz einfach:

(mit ausländischem Akzent)

"Wo ist Drama ?"

daran hat sich nichts geändert.

Space


Antwort von Spaceman:

Doch das ist ja das geniale an RAW. einfach draufhalten, der Rest wird später entwickelt. Checken die meisten aber nicht den Vorteil.
Wird nur noch von der Lytro Technik getoppt, hier müsste Mann nichtmal mehr scharf stellen beim drehen....

Space


Antwort von Jan Reiff:

spätestens nach dem Rausschmiss wissen sie dann dass es nicht so ist ;-)

Space


Antwort von domain:

Habe neulich einen sehr schönen und schon etwas älteren Dokumentarfilm im TV gesehen. Dabei gar nicht auf die allumfassende Dynamik geachtet. Alles Wesentliche war richtig belichtet und erkennbar.
Am Ende lief so ein Lauftext herunter. U.a. Schnitt: Wolfgang Wunderlich.
Ob das unser WoWu, damals noch in der BRD war?
Falls ja, Kompliment. War sehr gut geschnitten, ging runter wie Öl auch mit div. Ausbrennungen und Tiefenversottungen, die aber sowas von nebensächlich waren.

Space


Antwort von iasi:

Iasi, wie lange willst Du uns denn jetzt noch auf Deine "jpgs" warten lassen, oder ist das auch alles nur blabla wie der rest?


Oder mußt Du jetzt mit "Deiner Red" das erstemal raws drehen und die wandelst Du dann in jpg"s, damit wir sie dann dem Arrifootage gegenüberstellen könne oder wie?

Ich finde, so langsam mußt auch Du einsehen das Dein Kartenhaus beginnt zusammen zu brechen! ne - irgendwie hab ich eigentlich keinen Bedarf an den "Diskussionen" über meine "jpg"s"
und beweisen muss ich eh nichts

frag dich doch lieber mal, wer hier eigentlich dauernd blabla abliefert, statt beim Thema zu bleiben
Allein schon dieses "dem Arrifootage gegenüberstellen könne" - Welchem Arrifootage denn bitte?
Dem Vimeo-Video, über dessen "Grading" sich so viele beklagen? :)

Space


Antwort von iasi:

Doch das ist ja das geniale an RAW. einfach draufhalten, der Rest wird später entwickelt. also so einfach ist"s dann doch nicht.

Space


Antwort von iasi:

glaube ich nicht dass "Raw" ein Freischein ist, war Negativ auch nicht (wobei da ein Missgeschick mit Tages-oder Kunstlichtfilm bitterer war)

- der erste Satz unseres Dozenten in Ludwigsburg (1993) für Kamera hatte nichts mit Technik usw zu tun, sondern war ganz einfach:

(mit ausländischem Akzent)

"Wo ist Drama ?"

daran hat sich nichts geändert. das passende Werkzeug will aber dennoch erst mal gewählt sein

filmsprachliche Mittel ... die Kamera bietet zahlreiche - man muss sie nur auch bewußt und planvoll einsetzen - dazu gehört dann auch die Wahl der geeigneten Kamera ... wenn das Bauchgefühl sagt, dieser oder jener "Look" sei doch toll, dann wird"s meist nichts.

Space


Antwort von Jott:

Ob das unser WoWu, damals noch in der BRD war? Ist nur ein zufälliger Namensvetter.

Space


Antwort von iasi:

Ächtungen: RAW Kameras haben keinen Rolloff. Das Bild wird linear aufgezeichnet.
Den Rolloff gibts in der Post. Bei 13 oder 14 Blendenstufen verfügbarer Dynamikumfang nen schicken Rolloff hinzubekommen ist wahrlich keine Kunst.

Worin sich Sensoren allerdings unterscheiden ist der Noise. oh nein - der Übergang in den Lichtern bis zum Clippen unterscheidet sich sehr ... ein direkter Dragon-MX-Vergleich wäre hier mal interessant (gibt"s sicherlich irgendwo) Den Roll off gibt's nicht in der Post sondern in der Übertragungsfunktion.
ARRI hat sich da sehr stark am Negativfilm orientiert, weil Belichtung da SCHWARZ ist und sehr weich in die Schlieren übergeht, was im Positiv den weichen Übergang nach Weiss ergibt.
Red macht das, nicht viel anders als die andern Kamerahersteller.
(Siehe Vergleich). Der Sensor macht an der Stelle gar nichts denn der "zählt" nur die auftreffenden Photonen. Die Verteilung wird in der Übertragung vorgenommen.
Die Cineon Kennlinie versucht den weichen Übergang dadurch hin zu bekommen, dass sie den Weisspunkt einfach bei (bummelig 800 -hab den genauen Wert jetzt nicht im Kopf) legt.
Dadurch hat Du im Hellbereich relativ viele Werte, leider zu Lasten einer Dynamikkompression im dunklen Bereich. Ist das im Diagramm die Kurve der Epic MX?
Ich erinnere mich an eine flachere Kurve des Dragon in den Lichtern - nahe an der der Alexa.

Space


Antwort von Jan Reiff:

Um es auf analog zurückzuführen

- welche Kamera nehme ich hiess letztlich nur: 16 oder 35mm ?
- Hersteller war eher persönliches Empfinden, hat aber nix am Belichten geändert
- Filmmaterial ist nicht vergleichbar mit heutiger Wahl, da war die stilistische Entscheidung viel schwerwiegender als mit heutigen "log" cams

heisst: Wenn Skyfall auf Red Epic gedreht worden wäre (mit deren Mitteln) wäre es keinem aufgefallen, umgekehrt könnte "House of Cards" auch Alexa sein, die Kamera ist da für den Look des Films nicht wirklich mehr wichtig.
Teils hatte Red mit ihrer innovativen kompakten Bauweise noch manche Vorteile der neuen Systeme wie Freefly usw

aber am Ende, wie gesagt, enden wir alle wieder auf dem gleichen Level, wenn nahezu alle Sensoren letztlich gleich sind.

Space


Antwort von iasi:

Du kommst doch bei RED nicht mal in die Nähe der RAW Daten. Das Signal ist doch auch noch komprimiert.
Und den Pseudo"Roll off' machst Du dadurch, dass Du den Weisspunkt absenkst aber dafür dann den oberen Bereich expandierst. Wie"s nun im Detail gemacht wird, ist doch egal - wichtig ist, was man erhält.

Alexa und Dragon haben im Vergleich zu vielen anderen Kameras einen angenehm Verlauf in den Lichtern - das zählt.

Space


Antwort von iasi:

Wenn ich ganz ehrlich bin, finde ich 90% dieser "neuen Looks" sowas von sch..., dass ich oft einfach abschalte.
Ich hoffe nicht, dass sich der Mist im TV so durchsetzt, wie er heute präsentiert wird. hier sind wir mal einer Meinung

Space


Antwort von iasi:

Um es auf analog zurückzuführen

- welche Kamera nehme ich hiess letztlich nur: 16 oder 35mm ?
- Hersteller war eher persönliches Empfinden, hat aber nix am Belichten geändert
- Filmmaterial ist nicht vergleichbar mit heutiger Wahl, da war die stilistische Entscheidung viel schwerwiegender als mit heutigen "log" cams

heisst: Wenn Skyfall auf Red Epic gedreht worden wäre (mit deren Mitteln) wäre es keinem aufgefallen, umgekehrt könnte "House of Cards" auch Alexa sein, die Kamera ist da für den Look des Films nicht wirklich mehr wichtig.
Teils hatte Red mit ihrer innovativen kompakten Bauweise noch manche Vorteile der neuen Systeme wie Freefly usw

aber am Ende, wie gesagt, enden wir alle wieder auf dem gleichen Level, wenn nahezu alle Sensoren letztlich gleich sind. Man hat heute mehr Gestaltungsmöglichkeiten - mehr bzw genauer steuerbare Ausdrucksmittel.
Man kann mit der Wahl des Filmmaterials und dessen Belichtung/Entwicklung einen "Look" wählen - digital bedeutet dann eine zunehmende Verlagerung der Entscheidung vom Kameramann in die Post - und das scheinen viele zu fürchten.

Beim deutschen TV scheint man nicht viel vom Potential der Post zu halten, dreht aber dennoch digital.
Und weil die Alexa ja das Negativ nachahmt, wird sie gern genommen, um dann wenigstens ein wenig aus der Negativ-Welt in die verkrüppelte deutsche digital-TV-Provinz hinüber zu retten.

Space


Antwort von Jan Reiff:

die Alexa wird genommen weil

Prores - ab in den Schnitt

TV Movie hat heute im besten Luxusfall paar Tage Grading, dann is aus die Maus.

Und so siehts halt aus

und gibst Dir Mühe und schaffst Atmosphäre kommt die Tante mit Hornbrille aus der Redaktion und schraubt Dir wieder alles auf hell im worst case.

Schau Dir doch die Serien an, Einheitslook.
Aber auch wenig Einsatz oft von der kreativen Seite.
Man kann ja auch einfach mal Fenster vom Kripo-Auto nass machen um mal nachts etwas Atmosphäre zu haben als diesen geleckten Standardlook unter der Laterne.
Und nen entfernten Donner vom Regen der niederging hat auch jede Anstalt in der Konserve, aber es ist schlichtweg nur noch runtergerotzt zum größten Teil - das ist nochmal das andere Thema: das völlig belanglose Sound-Design ...

Space


Antwort von Peppermintpost:

Man kann mit der Wahl des Filmmaterials und dessen Belichtung/Entwicklung einen "Look" wählen - digital bedeutet dann eine zunehmende Verlagerung der Entscheidung vom Kameramann in die Post - und das scheinen viele zu fürchten.
Das stimmt wenn du von Super8 sprichst, da zeigt dir der Projektor direkt was du gedreht hast, ansonsten ist das aber Quatsch.
Auch zu Zeiten von 35 und 16 war der Einfluss der Post genau so massiv wie heute. Dein Negativ musste auch erst einmal durch die Telecine, wo es genau so verbogen wurde wie heute, oder im Fall von Spielfilm wo das Master selbst auch noch Film war und das Negativ durch einen Scanner digitalisiert wurde und am Ende mit zum Beispiel einem Arri Laser ausbelichtet wurde, da fanden auch nicht weniger Bild verbiegungen statt.
Selbst wenn es kompl. "analog" bearbeitet wurde hat sich in der Lichtbestimmung im Kopierwerk noch so einiges verschoben.

Der wirklich grosse Unterschied zu früher ist, das man eine Idee haben musste was man haben wollte, und das seinem Coloristen auch irgendwie vermitteln musste und das wars dann. Wenn man aber mitten in der Postproduktion festgestellt hat das die Entscheidungen in der Telecine schlecht waren, dann war das schmerzhaft, weil teuer.
Das ist heute anders.
Heute, weils halt billig ist denkt keiner mehr darüber nach was man eigendlich will, weil man es ja zu jeder Zeit schön ändern kann. Und wenn irgend etwas eine tolle Qualität garantiert, das wissen wir ja aus Erfahrung, dann wenn man sein Gehirn kompl. abschaltet und sich dazu null vorbereitet. Deswegen sehen so viele Digitale Produktionen auch so überzeugend aus, wie mit Digibeta gedreht und mit Baumarkt Licht beleuchtet.
Diejenigen die einfach ignorieren das jetzt alles digital ist, und genau so arbeiten wie früher mit Film, also erst Hirn an, dann Kamera an, die erziehlen auch die gleichen Ergebnisse, und die Kamera die beim einen aussieht wie Digibeta macht beim anderen plötzlich Bilder wie bei Ridely Scott.

Space


Antwort von iasi:

leider wohl wahr

man hat leider so oft das gefühl, dass die Kamera wackelt, weil jemand das Gefühl hatte, Handkamera sei doch toll. Gezielt und überlegt im Hinblick auf Aussage und Wirkung eingesetzt wird dies scheinbar kaum noch.

Das Vokabular des Film ist durch die Digitaltechnik zwar größer geworden, aber dennoch erhält man meist nur unbedachtes Gestammel.

Space


Antwort von WoWu:

@Iasi
Wie"s nun im Detail gemacht wird, ist doch egal - wichtig ist, was man erhält. Wenn es Dir egel ist, dass Du unten Deinen Dynamikbereich komprimierst und oben zwar weich im ton, aber hart in der Abstufung wirst ... ja dann ist das egal.
Dann kannst Du aber auch gleich zur Cineon LOG greifen.
Die macht das nämlich gleich ab Sensor und behält die oberen Werte dicht und expandiert sie nicht.
Aber im Prinzip hast Du Recht ... wenn man mit den Nebenwirkungen leben kann, kriegt man das auch in der Post hingepfuscht.
Und für 8Bit reichen die restlichen Werte sogar noch aus, wenn Du von 12 Bit kommst.

@Spaceman

Du kannst ja mal schauen, ob Du lineare Werte hast, wenn Deine letzte Blende (bei Weiss) (-nur 1 EV !!! ) bei 2048 anfängt und, sofern ein linearer Verlauf vor der Kamera hängt, bei 4096 endet, also alle 2048 für nur 1 Blende benutzt werden.
Da bin ich aber gespannt ... aber ich wette, dass das nicht so ist.

Space


Antwort von Spaceman:

Log direkt aus der Kamera ist Schnee von gestern. Das brauchte man früher als über log noch auf 10 Bit runterkomprimiert werden musste. Die Zeiten sind Gottseidank vorbei. Aus RAW kannst Du Dir perfekt jede Log Kurve generieren. Muss nicht unbedingt der veraltete Cineon Standard sein aus Analog Kodak Zeiten...

Space


Antwort von WoWu:

Log direkt aus der Kamera ist Schnee von gestern. Spruch
Das brauchte man früher als über log noch auf 10 Bit runterkomprimiert werden musste. Die Zeiten sind Gottseidank vorbei. Wozu brauchst Du heute RAW ?
Gibst Du 12 Bit ab ?
Aus RAW kannst Du Dir perfekt jede Log Kurve generieren. Wer generiert sich schon 'ne LOG Kurve, wenn das RAW material bereits so gemapped ist?
In der Post brauchst Du 'ne 709, um das Zeug überhaupt anständig beurteilen zu können. Spätestens als LUT im Monitor. Muss nicht unbedingt der veraltete Cineon Standard sein aus Analog Kodak Zeiten... Du warst doch der, der von weichen Weissausläufen geschwärmt hat und sich das in der Post hindrehen wollte.
Die Cineon ist nunmal genau die Kurve, die mit tiefem Weisspunkt den oberen Lichtbereich so füllt, wie analoger Negativfilm das durch die Umkehrung auch gemacht hat.
Nur dass auf Deine Methode die vorhandenen, in der Dynamik bereits komprimierten Werte nun wieder expandiert werden und Du aus 12 Bit dadurch gerade mal 8Bit in der obersten Blende hinbekommst und in der zweiten Blende schon bei 8 Bit im sichtbaren Abstufungsbereich liegst.
Ich glaube, Du solltest mal weniger Bloginhalte nachreden und Dich einwenig mit der Materie beschäftigen.

Ich muss srone da mal wieder Recht geben. Der hat rechtzeitig die Sinnlosigkeit der Diskussion erkannt.
Bei mir dauert das immer etwas länger, weil ich es einfach nicht glauben kann.
Aber er hat Recht ... hat keinen Sinn.

Space


Antwort von Spaceman:

WoWu das ist natürlich kompletter Unsinn. Da liegst Du genauso falsch wie Srone und man merkt dass Du aus dem Videobereich kommst.

RAW wird eben nicht automatisch in ein Log Format gemappt. Dann bräuchtest du kein Raw. Log ist eine Krükenlösung bei der die Lichter komprimiert werden. quasi eine auf RAW angewendete LUT um Möglichst viel Dynamik bei wenig Speicherplatz unterzubringen!
Es ist aber schon ein Unterschied ob Du beim Grading auf RAW Daten basierend arbeitest oder nur auf einer Log. egal was nachher hinten rauskommt, 10 oder 8 bit.

Cineon ist in Zeiten von RAW nicht mehr zeitgemäß.

Erzähl mal einem Fotografen er solle anstatt RAW komprimiertes Cineon verwenden. Der wird nicht lange Fackeln und die Männer im weißen Kittel kommen lassen...

Space


Antwort von Spaceman:

In der Post brauchst auch keine REC709 inverse LUT es sei denn Du willst Dein Filmmaterial zurück auf Videolook graden - was ja Schwachsinn wäre...

Space


Antwort von Spaceman:

Wenn Du Cineon gewöhnt bist und unbedingt damit arbeiten willst kannst das ja machen. Da gibt es ja extra Hilfestellungen für alle die mit RAW noch nichts anfangen können.

Im Gradingprogramm kannst du ja wählen ob Du mit den Original Linearen Daten arbeitest oder noch ne Hilfestütze dazwischen legst.

Bei Red kannst Du z.B. wählen zwischen den folgenden Hilfspaketen:

- Redlogfilm: entspricht Cineon Log
- Redgamma4: entspricht einem Möchtegern Filmlook
- Rec709: entspricht Videolook

Space


Antwort von Frank Glencairn:

Ich schau gerade "Arrow" - kann man mal sehen, daß man auch ne Alexa völlig beschissen und videomäßig ausschauen lassen kann.

Space


Antwort von iasi:

Ich schau gerade "Arrow" - kann man mal sehen, daß man auch ne Alexa völlig beschissen und videomäßig ausschauen lassen kann. Dafür kann man ja viele andere Beispiele finden - man schaue sich nur deutsche Produktionen an.

Man kann alles verhunzen - auch gutes Dragon-Material, wie Jan ja schon so bitter beklagt hatte.

Übrigens hatte Emmerich seinen "Stonewall" mit der Dragon gedreht, während Tarantino bei seinem neusten auf 70mm setzt (und 4k Master) ... gerade gesehen ...

"Daredevil" passt übrigens recht gut ... sieht aber nicht nach "House of Cards" aus - trotz gleicher Kamera ...

Space


Antwort von srone:

Man kann mit der Wahl des Filmmaterials und dessen Belichtung/Entwicklung einen "Look" wählen - digital bedeutet dann eine zunehmende Verlagerung der Entscheidung vom Kameramann in die Post - und das scheinen viele zu fürchten. gibt nicht ein super "belichtetes" und ausgeleuchtetes raw, soviel mehr her, wie ein "ich halte drauf, weil es raw ist"?

bildgüte, vom set bis zum consumer, innerhalb nachvollziehbarer spezifikationen, das ist das ziel, ob ein raw-hype (damit kannst du plötzlich alles) da hilft, eher nicht.

lg

srone

Space


Antwort von srone:

weitergehend, wenn wir von einem sehr gut gemachten kamarabild ausgehen, würde sich ein solches, auch prima in 8bit 4:2:0 verkaufen lassen, keiner hätte einen grund zu meckern.

ich verstehe deinen ansatz gut(@iasi), er bringt nur leider wenig, wenn nicht die gesamte übertragungskette dem entspricht, so daß der einfluss des einleuchtens bzw (danke "axel") der "production values" immer noch um ein vielfaches grösser sind, als raw, und hier scheitert es total in deutschen produktionen, licht von der stange - mode von h&m (beispielhaft) etc, dieses production-value wird nicht bedient, geschweige denn irgendwie genutzt, wir sind uns - glaub ich - einig, so schwierig ein "art-director" am set sein kann, wenn er weiss was er tut, wären wir, glaube ich, da wo es spannend ist. ;-))

lg

srone

Space


Antwort von WoWu:

RAW wird eben nicht automatisch in ein Log Format gemappt. Automatisch nicht, aber von der Herstellersoftware.
Schau Dir doch mal den Wertebereich Deiner obersten Blende an.
Dann bist Du schlauer ... und solange sind das alles hohle Sprüche, die Du irgendwo in irgendwelchen Foren aufgeschnappt hast.
Schau Dir auch mal Deine Signalkompression an


Da liegst Du genauso falsch wie Srone und man merkt dass Du aus dem Videobereich kommst. Dreht Deine RED auf Film ?
Wenn Du wirklich vom Film kämst ... was ich mir bei aller Phantasie nicht vorstellen kann, dann wüsstest Du besser mit solchen Vorlagen wie der Werteverteilung der Cineon Übertragung umzugehen.
Zumal Du ja ansagst, dass Du ein weiches Rolloff haben willst.
Genau das macht Kodak in der Kurve nämlich.
Nur dass sie dabei auf den kompletten Werteumfang des Sensorz zugreifen und nicht, wie Du auf dynamikkomprimierte Wertetabellen.

Und was di LUTs angeht ... Du gehörst warscheinlich auch zu den Aspiranten, die im ACES Workflow ohne RRTs und ODTs arbeiten, weil das Rühren in der grauen Suppe viel cooler ist.
Mann, Du bist mir ja vielleicht ein "Fachmann".

WoWu das ist natürlich kompletter Unsinn. Na da bin ich aber mal gespannt, was genau falsch ist und wie es richtig ist.
Falsifizier doch einfach mal.
Aber komm nicht wieder mit irgendwelchem Geschwafel.
Du würdest ja schon weit kommen, wenn Du uns zeigen würdest, wieviele Werte Deine hellste Blende hat. Das wird ja nicht so schwer sein und das wäre ja schon ein Anfang.
Du bist doch vom Fach, wie Du sagst. Also ... "Butter bei die Fische".

Space


Antwort von domain:

Habe mal etwas im Internet recherchiert.
Red-RAW kann offenbar je nach Bedarf weich oder normal "entwickelt“ werden. Wichtig erscheint mir, dass im Kameramonitor die knackigere Variante gezeigt wird und so erschien mir das Bild auch damals auf einer Präsentationsvorstellung der RED One in Graz.
Dass man später mit der weichen Variante RedLogfilm besser graden kann ist natürlich eine andere Sache. Aber diese unterscheidet sich allem Anschein nach nicht so gravierend von RedGamma4, immerhin sind die Schattenpartien noch deutlich als solche zu erkennen und gehen nicht im grauen Einheitsbrei unter. Man kann alles übertreiben.





Space


Antwort von Spaceman:

Mit RAW als Basis aus der Kamera kommt kannst Du alles machen. Das ist was WoWu nicht versteht. Du kannst dir z.B. eine Log Cineon Kurve darüberlegen wenn Du die letzten 10 Jahre noch aus Filmzeiten kommend so gearbeitet hast und Dich nicht umstellen willst. Redlogfilm ist das Cineon bei Red. (Cineon Log braucht gewiss keiner wegen irgendeinem Rolloff. Das geht anders besser)

Redgamma4 ist schon fertig entwickelt und ist z.B. für Dailies gedacht, ist also kein Log. Oder man nutzt es für die Monitorvorschau.

Redgamma4 kann man sich vorstellen als Log welches mittels S-Kurve fertigentwickelt wurde...

Space


Antwort von Spaceman:

@iasi: ja das mit dem Grading ist heutzutage das Problem. Die Werkzeuge sind alle gut egal ob Sony, Arri, Red oder BMD. Die einen haben mehr Auflösung, die anderen weniger. Aber aus jeder kann man ein Hollywood Bild rauszaubern. BMD richtig gegraded kann in jeden Blockbuster reingeschnitten werden ohne das irgendeiner was merkt.

Aber was man heutzutage so sieht, da staunt man was für hässliche Videolooks hierzulande aus den teuren Kameras rausgeholt wird.

Passt aber zu den Äußerungen von Wowu der sich ja scheinbar auch erstmal ne REC709 Lut auf sein Log Material knallt um den Videolook zu generieren...

😉

Space


Antwort von Peppermintpost:

einigen wir uns doch ALLE bitte auf folgendes.
Arri, Red, Sony, BM, Panasonic etc, die haben alle keine Ahnung. Auch die hier im Forum die es Studiert haben oder seit 20 Jahren im Beruf sind, sind alle Spinner. Der einzige der wirklich genau weiss worum es geht ist SPACEMAN, der kann zwar nie und in keinem seiner Beiträge jemals irgend etwas belegen, fügt auch niemals Informationen hinzu aus denen man irgend einen Benefit ziehen könnte, aber er ist der Erleuchtete.

Ich schlage vor diese Leistung in Zukunft und mit allem Respekt bei jedem seiner Beiträge die Leistung mit einem
"Ja ne, ist klar"
zu würdingen, und dann können wir anderen uns ja wieder mit unserem Meinungs und Wissenaustausch beschäftigen, wir werden ja vermutlich noch eine lange Zeit brauchen um diesen Grad der Erleuchtung zu erlangen.

Also @Spacemen

Ja ne, ist klar und danke für den Hinweis.

Space


Antwort von iasi:

Man kann mit der Wahl des Filmmaterials und dessen Belichtung/Entwicklung einen "Look" wählen - digital bedeutet dann eine zunehmende Verlagerung der Entscheidung vom Kameramann in die Post - und das scheinen viele zu fürchten. gibt nicht ein super "belichtetes" und ausgeleuchtetes raw, soviel mehr her, wie ein "ich halte drauf, weil es raw ist"?

bildgüte, vom set bis zum consumer, innerhalb nachvollziehbarer spezifikationen, das ist das ziel, ob ein raw-hype (damit kannst du plötzlich alles) da hilft, eher nicht.

lg

srone So ganz klar ist mir jetzt nicht, was du damit sagen willst.

Ordentliche Belichtung setzte ich eigentlich immer voraus.

Wer einen betimmten Negativfilm wählt und sich entschließt ihn in der Entwicklung zupushen, der belichtet ihn auch entsprechend.

Den DR bei Digitalkameras optimal auszunutzen, sollte ebenfalls selbstverständlich sein - Raw hat doch nichts mit Ausgleich falscher Belichtung zu tun.

Was aber Raw bzw hoher DR bietet, das ist - und hier mal auch an die Adresse von WoWu, der ja meint 12bit sei überflüssig - die Möglichkeit sehr gezielt in der Post gestalterisch auch einzelne Bildteile zu verändern.
Bei "Birdman" wurde dies z.B. sehr konsequent genutzt. Man kann also u.a. durchaus in der Post noch "Licht setzen".

Der "Birdman"-Kameramann drehte nun mit der Alexa65 mit vorhandenem Licht - und nutzt die Post-Möglichkeiten ebenso wie das Production Value "Landschaft" ...
Nicht das Makenhemd gibt einer Szene den Wert, sondern die Location und die Lichtstimmung.
Jeder kennt wohl die Geschichte vom "Lawrence of Arabia"-Kameramann, der am frühen Morgen vor dem Drehtag aufgestanden ist, um die Schatten in den Fußspuren im Sand zu messen.

Space


Antwort von iasi:

einigen wir uns doch ALLE bitte auf folgendes.
Arri, Red, Sony, BM, Panasonic etc, die haben alle keine Ahnung. Auch die hier im Forum die es Studiert haben oder seit 20 Jahren im Beruf sind, sind alle Spinner. Der einzige der wirklich genau weiss worum es geht ist SPACEMAN, der kann zwar nie und in keinem seiner Beiträge jemals irgend etwas belegen, fügt auch niemals Informationen hinzu aus denen man irgend einen Benefit ziehen könnte, aber er ist der Erleuchtete.

Ich schlage vor diese Leistung in Zukunft und mit allem Respekt bei jedem seiner Beiträge die Leistung mit einem
"Ja ne, ist klar"
zu würdingen, und dann können wir anderen uns ja wieder mit unserem Meinungs und Wissenaustausch beschäftigen, wir werden ja vermutlich noch eine lange Zeit brauchen um diesen Grad der Erleuchtung zu erlangen.

Also @Spacemen

Ja ne, ist klar und danke für den Hinweis. Das ist ja süß - da haben also Leute vor einigen Jahrzehnten studiert und wissen daher automatisch alles über die aktuelle Technik. :)

Und wenn alle immer nur beim bewährten Schema bleiben würden, dann würde es keine Entwicklung geben - was man ja auch in der deutschen Filmlandschaft sehr gut beobachten kann.
Ich denke bei "ALLE" eigentlich immer an Lemminge und Klippen sowie Fliegen und Hundhaufen ...

Statt sich mal Gedanken darüber zu machen, was wohl für Gestaltungsmöglichkeiten in einer Alexa Mini steckt, wird versucht ein "richtiges Bild" hinzubiegen - laaaangweilig

Space


Antwort von Valentino:

Ist schon echt eine Leistung wie Iasi und Spaceman mal wieder ein Beitrag künstlich aufgeblasen haben ;-)

Mein nicht ganz so ernst zu nehmender Vorschlag an das Slashcam-Team, die beiden dürfen nur 10 Kommentare pro Woche abgeben ;-)

@Iasi
Wer so viel Zeit fürs schreiben hat, der hat doch sonst nichts zu tun.

Starte ab heute die Aktion "Ein Job für iasi", wer ist dabei?
Zusammen können wir die Kommentare auf ein 1/10 reduzieren und iasi
bekommt mal einen Einblick in die reale Produktionswelt.
Genug Freelancer gibt es hier ja im Forum.

Space


Antwort von klusterdegenerierung:

Ich bin dabei, denn das Großm... nimmt den Mund mit seiner Red so voll und schafft es nicht mal eins seiner eigenen Raws zu posten.

Immer groß erzählen kann jeder, spricht man ihn auf seine eigene Arbeit an, verschwindet er in die Versenkung oder beteildigt sich munter an anderen Threads!

Iasi ist uns nach so viel geblubber endlich mal einen geilen Red Film schuldig!

Space


Antwort von iasi:

Valentino ist so ein Vertreter der "alten Schule" ... immer schön das machen, was alle machen - und schön der Masse folgen, denn dann kann man sich dann schön gemütlich verstecken, wähernd man ganz wichtig tut ...

Es heißt dann auch bei ihm immer "wir machen das bei unserer Produktion" so oder so ... ein Zeichen dafür, dass Valentino sich immer schön einreiht und mitmarschiert ...
Kreativ ist jedenfalls anderes.

Space


Antwort von iasi:

Ich bin dabei, denn das Großm... nimmt den Mund mit seiner Red so voll und schafft es nicht mal eins seiner eigenen Raws zu posten.

Immer groß erzählen kann jeder, spricht man ihn auf seine eigene Arbeit an, verschwindet er in die Versenkung oder beteildigt sich munter an anderen Threads!

Iasi ist uns nach so viel geblubber endlich mal einen geilen Red Film schuldig! Ich verschwinde nicht ... ich bin auch nichts schuldig - das hättest du nur gern - aber denk mal: Was du willst, zählt nicht.

Da hast du also mal ein Video gezeigt und denkst, das würde deinen Argumenten nun mehr Gewicht verleihen?
Das ist ja ganz so wie Valentino, der mal eine Alexa in der Hand hielt und nun denkt, alles ganz genau zu wissen.

Erzähl mir doch, dass du schon für"s deutsche TV gearbeitet hast, damit ich in Ehrfurcht erstarren kann. :)
Oder für eine dieser grandiosen deutschen Filmproduktionen ... :) schließlich sind sie ja so erfolgreich (in Deutschland)

Space


Antwort von WoWu:

@ Iasi Was aber Raw bzw hoher DR bietet, das ist - und hier mal auch an die Adresse von WoWu, der ja meint 12bit sei überflüssig - die Möglichkeit sehr gezielt in der Post gestalterisch auch einzelne Bildteile zu verändern. Behaupte nicht Dinge, die Du nicht belegen kannst.
ich habe nie behauptet, 12 Bit (oder RAW) seien überflüssig, ganz im Gegenteil.
Mal ganz abgesehen davon, dass das zwei völlig unterschiedliche Paar Schuhe sind und nur von Dir (und Spacemen) offenbar nicht richtig auseinander gehalten werden können.

Aber nur so begründet sich dann auch das Unverständnis einfachster Zusammenhänge in Videoprozessen.
Ich kann da nur raten, weniger "schnacken" und weniger Fan-Blogs und einwenig mehr Know-How aneignen.

Space


Antwort von Spaceman:

Ne, WoWu bitte nicht die Tatsachen verdrehen.
Der einzige der nicht verstanden hat dass ein aus RAW gemapptes Log nur ne Hilfestellung für Cineon Gewohnheitstiere alter Schule ist, also Leute die nicht mit RAW umgehen, können bist Du...


Oder hast Du schon mal einen Fotografen gesehen der in Lightroom sein sauberes RAW Footage mit ner Log Kurve mappt (verhunzt) ?
Na, geht jetzt Licht auf?

💡

Space


Antwort von iasi:

Wozu brauchst Du heute RAW ?
Gibst Du 12 Bit ab ?
Behauptet hast du"s zwar nicht - aber ...

Es ist wie mit deinen Argumenten bzgl. hoher Auflösung - immer betrachtest du nur das erreichbare Maxima, aber nicht die Tendenz, die eben auch schon Möglichkeiten eröffnet.

Und wenn eine Optik z.B. einen Sensor nicht ausreizt, so ist es doch schon ein erheblicher Gewinn, wenn der Sensor die Optik ausreizt.
Nur weil das eine vielleicht nicht erreichbar ist, muss man das andere doch nicht lassen - einen Gewinn an Gestaltungsmöglichkeiten und Bildqualität liefert es allemal.

Und im Vergleich zu 10bit bietet eben auch 12bit mehr Gestaltungsmöglichkeiten - ganz egal, welches Format am Ende herauskommen soll.

Wenn (wie z.B. bei Birdman") ein Gesicht in der Post aufgehellt werden kann, ohne große Kompromisse eingehen zu müssen, dann ist dies eine tolle neue Möglichkeit, die es zu analogen Negativzeiten so (praktikabel) nicht gab.
Mehr Pixel, die zur Verfügung stehen, sind dabei ebenfalls vorteilhaft - ob sie nun wirklich 4mal so viele Bilddetails zeigen oder nicht (2k zu 4k). Höhere Auflösung erschließt neue Gestaltungsmöglichkeiten - das zählt.

Sehe ich mir das Alexa Mini-Video an, dann sehe ich da nicht flaches Grading sondern die Gestaltungsmöglichkeiten, die der DR bietet.

Es spielt dabei auch keine Rolle, wie Arri oder Red nun das weiche Auslaufen in den Lichtern realisieren - das mag dich als Techniker vielleicht interessieren - was zählt ist das erzielbare Bildergebnis. Mit einer BMCC könnte man einige dieser Aufnahmen so nicht machen, wenn man nicht in der Post flickschustern will.

Space


Antwort von WoWu:

@ Spacemen
"Ja ne, ist klar"

@Iasi

Benutz doch mal nicht dieses Blog-Geschnatter und sprich doch mal nicht von "ausreizen" sondern benenn doch mal präzise, was da nicht funktioniert. Du bist dann nämlich ein ganzes Stück der Lösung náher, weil das Verstädnis der Zusammenhänge dann nämlich kommt.


Es ist wie mit deinen Argumenten bzgl. hoher Auflösung - immer betrachtest du nur das erreichbare Maxima, aber nicht die Tendenz, die eben auch schon Möglichkeiten eröffnet. Leider entstehen aus Tendenzen keine Videobilder und wenn Du 6K glauben möchtest, die offenbar von RED auch als "Tendenz" gemeint sind, dann spiegelt das nur die Kitteltreue wider, die Du gern andern Forumteilnehmern vorwirfst, sie selbst aber biz zum Excess lebst. Und im Vergleich zu 10bit bietet eben auch 12bit mehr Gestaltungsmöglichkeiten - ganz egal, welches Format am Ende herauskommen soll. Eine alte Weisheit, der hier wohl niemand widerspricht, mit der Du aber auch keine tieferen Einsichten hervorrufst.
Wenn (wie z.B. bei Birdman") ein Gesicht in der Post aufgehellt werden kann, ohne große Kompromisse eingehen zu müssen Wieder so ein Spruch ... was heisst das, "ohne große Kompromisse" .. welche Kompromisse und worauf soll das zurück zu führen sein ? dann ist dies eine tolle neue Möglichkeit, die es zu analogen Negativzeiten so (praktikabel) nicht gab Sprichst Du jetzt plötzlich über Workflow ?

Was Du erreichen willst ist lediglich, dass möglichst viele Mitleser mit dem Kopf nicken und gar nicht merken, dass dass das am eigentlichen Theme völlig vorbei geht.
Mal ganz abgesehen davon, dass ich weder was gegen 12 Bit, noch gegen RAW, noch neue Workflows habe.
Ich habe nur was dagegen, dass Pfuscher solche Techniken so gebrauchen, dass graue Sosse dabei herauskommt und das auch noch als Kunst verkaufen ..."wer braucht schon einen LUT ?"
Sehe ich mir das Alexa Mini-Video an, dann sehe ich da nicht flaches Grading sondern die Gestaltungsmöglichkeiten, die der DR bietet. Schaust Du immer RAW Daten ... und verrätst Du mir auch ... wie ?
Wenn Du ein Bild sehen kannst, sind das nämlich gar keine RAW Daten mehr sondern haben schon lange den Konverter durchlaufen und wenn man sieht, was in einigen Konvertern so geschieht, dann siehst Du nur das, was die Hersteller Dich sehen lassen wollen und das hat oft nichts mit der Kamera oder ihren Möglichkeiten zu tun denn nimmst Du einen andern Konverter, sieht das schon wieder ganz anders aus.
Und was ist mit De-Bayeting ? Wie fliesst das in Deine "Kamerabeurteilung" ein.
Du versuchst eine Kamera nach Post-Prozess Ergebnissen -womöglich über youtube- zu beurteilen ?
Du tust mir Leid.
Es spielt dabei auch keine Rolle, wie Arri oder Red nun das weiche Auslaufen in den Lichtern realisieren Das klang oben noch ganz anders ... ach nee, sorry, das machst Du ja alles in der Post, einschliesslich Beleuchtung.
Mit einer BMCC könnte man einige dieser Aufnahmen so nicht machen, wenn man nicht in der Post flickschustern will. Du vergisst, dass die Post nur ermöglicht, was die Kamera zulässt.
Was Du nicht im Bild hast, kannst Du auch in der Post nicht beeinflussen.

Aber bewahre Dir Dein kindliches Vertrauen in die Entwicklung der Technik und hoff drauf, dass jahrhundertalte Naturgesetze sich als gegenstandslos erweisen.
Da hoffe ich auch noch drauf ... schön wär's, wenn endlich mal jemand die Gravitation abschaffen würde

Space


Antwort von Starshine Pictures:

Der Tatort der gerade läuft sieht aber auch komisch gegradet aus. Oder ist das so beabsichtigt?

Space


Antwort von Rudolf Max:

Wenn die "gewissen Leute" sehen täten, wie in diesem Tatortfilm (ARD) die dunklen Schatten absaufen, dann würden sie verstehen... *smile

Aber was nicht sein darf...

Rudolf

Space


Antwort von Jott:

Warum sollte das nicht beabsichtigt sein?

Space


Antwort von iasi:


@Iasi

Benutz doch mal nicht dieses Blog-Geschnatter und sprich doch mal nicht von "ausreizen" sondern benenn doch mal präzise, was da nicht funktioniert. Du bist dann nämlich ein ganzes Stück der Lösung náher, weil das Verstädnis der Zusammenhänge dann nämlich kommt.


Es ist wie mit deinen Argumenten bzgl. hoher Auflösung - immer betrachtest du nur das erreichbare Maxima, aber nicht die Tendenz, die eben auch schon Möglichkeiten eröffnet. Leider entstehen aus Tendenzen keine Videobilder und wenn Du 6K glauben möchtest, die offenbar von RED auch als "Tendenz" gemeint sind, dann spiegelt das nur die Kitteltreue wider, die Du gern andern Forumteilnehmern vorwirfst, sie selbst aber biz zum Excess lebst. Du redest mal wieder von Red - ist doch merkwürdig, dass immer andere damit beginnen von Red zu reden und es mir dann vorwerfen.

Für jemanden, der ständig mit Fachbegriffe und Abkürzungen um sich wirft, sollte es doch auch möglich sein, zu verstehen, dass auch wenn ein Opjektiv vielleicht nicht das liefert, was für 6k notwendig wäre, es aber eben doch mehr kann, als nur 2k.
Schon vor Jahrzehnten konnte man mit einem Kodakchrome 25 mehr aus einem Objektiv herausholen, als mit anderen Farbfilmen - ein 6k-Sensor holt ebenfalls mehr aus einem Objektiv, als ein 2k-Sensor.

Selbst der Red-Häuptling sieht nur sehr wenige Objektive, die seinem Dragon-Sensor gewachsen sind.
Und doch: Ein gutes Objektiv bringt mehr Bilddetails auf einen 6k-Sensor als auf einen 2k-Sensor.
Dxomark testet Objektive an Kameras mit unterschiedlicher Pixeldichte - und kommt zu Ergebnissen, die dies bestätgen.

Du willst das nicht so sehen, weil bei einem Sensor mit 36MPixel nicht auch 36MPixel raus kommen - gut - mir genügt jedoch schon, dass die Auslösung schlicht höher ist, als bei einer Kamera mit geringerer Pixeldichte.

Deshalb musst du aber nicht immer den Besserwisser spielen - und du musst dich auch nicht ständig hinter Fachbegriffen verstecken - die größte Achtung hatte ich immer vor Fachleuten, die ihr Wissen einfach und allgemein verständlich formulieren können. Alle anderen sind mir suspekt. Und denke mal lieber nicht, ich würde dies hier schreiben, weil mich deine Auslassungen überfordern. Nur halte ich dich eben gerade nicht für einen Blender, der etwas verdecken will.

Häng dich bitte auch nicht immer an Begrifflichkeiten auf, deren Definition du dann zwar nicht angibst, es aber dennoch ganz wichtig damit nimmst.

Raw - ja - weitgehend "unbehandeltes" Ausgangsmaterial mit mindestens 12bit - das darfst du darunter verstehen, wenn ich den Begriff benutze.
Es ist doch in der Praxis ziemlich egal, ob dies nun von den reinen Sensordaten abweicht oder nicht.
Wichtig ist, welche Möglichkeiten dieses Ausgangsmaterial eröffnet.
Du kannst das dann auch gerne "Soße" oder "Teppich" nennen - oder einen neuen Begriff dafür definieren.

Wichtig ist jedoch, dass das Ausgangsmaterial einer Kamera bestimmt, welche Gestaltungsmöglichkeiten ich in der Post habe.
Ganz simples Beispiel:
Kommt da 8bit raus, weil das meiste schon in der Kamera gelaufen ist, ist mir die Möglichkeit weitgehend verbaut, einzelne Bildteile in der Post gezielt zu bearbeiten.
Wenn da 1080p/8bit rauskommt, ist"s das eigentlich schon ziemlich gewesen - ab damit direkt auf Sendung.
10bit ist nicht Fisch nicht Fleisch.

Dass sich alle - du ja auch - so über das flache Bild des Mini-Videos aufregen, ganz so als ob es ein Werbevideo für die Alpen wäre, zeigt mir eigentlich nur, dass bei vielen die Vorstellung davon fehlt, was das Ausgangsmaterial an Gradingmöglichkeiten bietet.

"Daredevil" sieht so gar nicht aus wie "House of Cards" - und nun denk mal: Da wurde die gleiche Kamera genutzt - woran liegt"s dann also?

Space


Antwort von Starshine Pictures:

@Jott
Ich bin nun wahrlich kein Grading Künstler, aber dass da was mit den Farben nicht stimmte hab sogar ich gesehen.

Space


Antwort von Jott:

Was soll man sagen - bei Matrix stimmte auch was nicht. Genau so klar erkennbarer Grünstich.

Kunst darf alles! :-)

Space


Antwort von Valentino:

Der Tatort der gerade läuft sieht aber auch komisch gegradet aus. Oder ist das so beabsichtigt? Jup das sollte so aussehen und das bei einem Kameramix von Alexa über Red EPIC MX+Dragon und BMPC für die Sprünge.
Naja ein paar GoPro Aufnahmen waren auch dabei aber das nur ein paar Webvideos gewesen.

Space


Antwort von Starshine Pictures:

Und wenn das so grün aussehen soll, von hell bis dunkel durch alle Bereiche, was ist da der Sinn dahinter? Also was will man damit für eine Aussage generieren? Ich bin ja sonst wirklich nicht so pingelig mit Looks. Ich vertrau da eigentlich gern auf die Kompetenz und die Intension des Coloristen und/oder Regisseurs. Aber das hat sich mir diesmal so gar nicht erschlossen.

Space


Antwort von Spaceman:

@ iasi: so ist halt der WoWu. Wirft mit Fachbegriffen um sich und verliert sich in irgendwelchen Details aber der wirkliche Durchblick fehlt ihm.

Bestes Beispiel Auflösung: Wenns nach ihm ginge dürfte es ne aktuelle Canon 5ds mit 50 Megapixeln Vollformat gar nicht geben. Weil die wegen Beugung usw. gar nicht funktionieren kann. Komisch dass die auch nen 1.6 APSC Crop hat und dann auf 19 Megapixel kommt. Das wiederum ist exakt die Auflösung die Millionen von Nutzern seit über 6 Jahren auf Ihrer Canon 7d problemlos nutzen. Ohne Klagen und Beschwerden. Komisch oder. 😉

Mehr Infos hier:

www.technik-die-seit-dem-letzten-Jahrze ... weifeln.de

Space


Antwort von srone:

Man kann mit der Wahl des Filmmaterials und dessen Belichtung/Entwicklung einen "Look" wählen - digital bedeutet dann eine zunehmende Verlagerung der Entscheidung vom Kameramann in die Post - und das scheinen viele zu fürchten. gibt nicht ein super "belichtetes" und ausgeleuchtetes raw, soviel mehr her, wie ein "ich halte drauf, weil es raw ist"?

bildgüte, vom set bis zum consumer, innerhalb nachvollziehbarer spezifikationen, das ist das ziel, ob ein raw-hype (damit kannst du plötzlich alles) da hilft, eher nicht.

lg

srone So ganz klar ist mir jetzt nicht, was du damit sagen willst.

Ordentliche Belichtung setzte ich eigentlich immer voraus.

Wer einen betimmten Negativfilm wählt und sich entschließt ihn in der Entwicklung zupushen, der belichtet ihn auch entsprechend.

Den DR bei Digitalkameras optimal auszunutzen, sollte ebenfalls selbstverständlich sein - Raw hat doch nichts mit Ausgleich falscher Belichtung zu tun. das sieht spaceman, wohl anders ;-)
Was aber Raw bzw hoher DR bietet, das ist - und hier mal auch an die Adresse von WoWu, der ja meint 12bit sei überflüssig - die Möglichkeit sehr gezielt in der Post gestalterisch auch einzelne Bildteile zu verändern.
Bei "Birdman" wurde dies z.B. sehr konsequent genutzt. Man kann also u.a. durchaus in der Post noch "Licht setzen". aber doch sehr eingeschränkt, ich kann die gradation der lichtstimmung verändern, ein wenig aufhellen, doch meinen job sollte ich gemacht haben.

ich stelle mich hier auf den standpunkt, wer es nicht schafft in 4:2:0 8bit ein gutes bild zu erzeugen, der wird es in 10/12/14/16bit raw oder whatever auch nicht schaffen ;-)

lg

srone

Space


Antwort von Spaceman:

@starshine: schönes Beispiel wie Color Grading voll in die Hose gehen kann.
Exakt was ich schon weiter oben geschrieben hatte. Alle Anfängerfehler sind hier mal wieder auf der Suche nach dem Filmlook vertreten.
Der "Tatort" ist in dem Fall das Grading.

Space


Antwort von srone:

@ iasi: so ist halt der WoWu. Wirft mit Fachbegriffen um sich und verliert sich in irgendwelchen Details aber der wirkliche Durchblick fehlt ihm. aber du hast ihn?

ja, ne is klar.

lg

srone

Space


Antwort von iasi:

Und wenn das so grün aussehen soll, von hell bis dunkel durch alle Bereiche, was ist da der Sinn dahinter? Also was will man damit für eine Aussage generieren? Ich bin ja sonst wirklich nicht so pingelig mit Looks. Ich vertrau da eigentlich gern auf die Kompetenz und die Intension des Coloristen und/oder Regisseurs. Aber das hat sich mir diesmal so gar nicht erschlossen. Man hätte ja zumindest die Hauttöne etwas weniger grün machen können - das geht schließlich heute relativ leicht und schnell ...

Bei Daredevil hat man auch in jeder Szene eine andere Farbgebung - auch mal grünlich - aber offensichtlich hatten sich die Macher etwas mehr Mühe gegeben und nicht nur den Farbeimer drüber gekippt.

Space


Antwort von Jan Reiff:

Und wenn das so grün aussehen soll, von hell bis dunkel durch alle Bereiche, was ist da der Sinn dahinter? Also was will man damit für eine Aussage generieren? Ich bin ja sonst wirklich nicht so pingelig mit Looks. Ich vertrau da eigentlich gern auf die Kompetenz und die Intension des Coloristen und/oder Regisseurs. Aber das hat sich mir diesmal so gar nicht erschlossen. ähhh, sorry, war essen ... deswegen eine Frage:

ist das nativ vom Tatort mit den Shrek - Leuten ?
Oder hast Du da noch was geschraubt ?

Space


Antwort von Spaceman:

Hehe Shrek, das ist gut. Jungs, war nett mit Euch. Ich muss los, mein Raumschiff wartet...

🚀

Space


Antwort von iasi:

Was aber Raw bzw hoher DR bietet, das ist - und hier mal auch an die Adresse von WoWu, der ja meint 12bit sei überflüssig - die Möglichkeit sehr gezielt in der Post gestalterisch auch einzelne Bildteile zu verändern.
Bei "Birdman" wurde dies z.B. sehr konsequent genutzt. Man kann also u.a. durchaus in der Post noch "Licht setzen". aber doch sehr eingeschränkt, ich kann die gradation der lichtstimmung verändern, ein wenig aufhellen, doch meinen job sollte ich gemacht haben.

ich stelle mich hier auf den standpunkt, wer es nicht schafft in 4:2:0 8bit ein gutes bild zu erzeugen, der wird es in 10/12/14/16bit raw oder whatever auch nicht schaffen ;-)

lg

srone hmmm ... ich stimme dir zwar zu, aber 4:2:0 8bit ist eine andere Arbeitsweise - schau dir nur mal die Ausleuchtungsskizzen und das Verhältnis Lichtsetzen vs Grading beim Camera-Shootout 2012 an.

Die 8bit-Leute verwendeten weit mehr Zeit und Material auf die Lichtsetzung, während die Raw-Leute die Feinheiten in der Post gestalteten und auch mehr Zeit mit dem Grading verwendeten.

Wenn man sich beim Lichtsetzen auf das Notwendigste beschränken will oder muss, ist Raw sehr hilfreich - dann kann man auch mit dem vorhandenen Licht mit einer Alexa65 drehen.

Space


Antwort von iasi:

Und wenn das so grün aussehen soll, von hell bis dunkel durch alle Bereiche, was ist da der Sinn dahinter? Also was will man damit für eine Aussage generieren? Ich bin ja sonst wirklich nicht so pingelig mit Looks. Ich vertrau da eigentlich gern auf die Kompetenz und die Intension des Coloristen und/oder Regisseurs. Aber das hat sich mir diesmal so gar nicht erschlossen. ähhh, sorry, war essen ... deswegen eine Frage:

ist das nativ vom Tatort mit den Shrek - Leuten ?
Oder hast Du da noch was geschraubt ? das hatte ich mich auch schon gefragt

Space


Antwort von srone:

Die 8bit-Leute verwendeten weit mehr Zeit und Material auf die Lichtsetzung, während die Raw-Leute die Feinheiten in der Post gestalteten und auch mehr Zeit mit dem Grading verwendeten.

Wenn man sich beim Lichtsetzen auf das Notwendigste beschränken will oder muss, ist Raw sehr hilfreich - dann kann man auch mit dem vorhandenen Licht mit einer Alexa65 drehen. hier sollten wir klar trennen, setze ich als dop das licht oder will ich natural, beides trifft eine aussage, jedoch nicht die selbe, beides sollte ich beherrschen, plus der mischform mit wenig dr (4:2:0 8bit), ein immer noch gutes bild zu erzeugen.

lg

srone

Space


Antwort von Starshine Pictures:

Nein, das ist genau so über den Sender gegangen. Habs grad noch mal am iPhone aus der Mediathek raus gesucht und diese Screenshots gemacht.

Space


Antwort von Peppermintpost:

@starshine

vermutlich wäre das zu wenig matrix gewesen ;-)

Space


Antwort von Frank Glencairn:


Bei Daredevil hat man auch in jeder Szene eine andere Farbgebung - auch mal grünlich - aber offensichtlich hatten sich die Macher etwas mehr Mühe gegeben und nicht nur den Farbeimer drüber gekippt. Erstens ist Matthew Lloyd jemand der ganz außergewöhnlich gut mit Licht umgehen kann, was er in den beiden Fargo Folgen, die er gedreht hat ebenfalls bewiesen hat, und zweitens gehe ich jede Wette ein, daß das Tatort Material erst nach DNCHD oder Prores in rec709 rausgerechnet wurde, und dann dadrauf coloriert, und nicht auf den Originalfiles - ein Workflow der bei Daredevil so eher nicht gemacht wurde.

Space


Antwort von Starshine Pictures:

@Peppermintpost
Na guck, geht doch. Wahrscheinlich hast du nicht viel mehr gemacht als den Weissabgleich angepasst oder? Kannst ja auch mal so einen Clip machen wie die Typen von "VideoLab" mit Man Of Steel. Peppermintpost vs. Tatort ☺️

@Frank
Also meinst du die haben vielleicht ihre Daten vertauscht? Der Colorist hat die Proxies bekommen die eigentlich an den Cutter gehen sollten? 😜 Nuja. Wenn man aber sieht was Pepper da aus meinem 200 kb iPhone Screenshot von der Mediathek raus geholt hat kann es eigentlich keine Entschuldigung sein dass man nicht das Original Material zur Verfügung hatte. Da sass der Fehler vorm Computer, nicht darin. Irgend etwas ist da schief gelaufen in der Kette zwischen Beleuchter - Kameramann - Regisseur - Colorist - Endabnahme. Kann mir nicht vorstellen dass die Leute vom Anfang der Kette mit ihren 100.000 Euro Kameras und aufwändigem Lichtequipment so ein Ergebnis im Sinn hatten. Mich würde da wirklich mal ein Insider Bericht interessieren wie es bei so einer Tatortproduktion zugeht, und mit wie viel Faulheit und eigener Überschätzung da die Qualität des teuren Equips wieder wett gemacht wird. Wollen wir da mal den Wallraff rein schicken? Das wär doch mal was ...



Grüsse, Stephan von Starshine Pictures

Space


Antwort von Jensli:

[quote="Starshine Pictures Irgend etwas ist da schief gelaufen in der Kette zwischen Beleuchter - Kameramann - Regisseur - Colorist - Endabnahme.

Der Durchschnittszuschauer bemerkt das doch gar nicht. Der freut sich, wenn unter seinem ARD-Logo das HD-Zeichen steht und mehr will er gar nicht. Sonst sind die Tatorte meistens sehr sauber gegradet und am langen Wochenende waren einige ARD-Degeto Produktionen im Programm (hab die Titel jetzt nicht parat), da konnte die Alexa mal so richtig zeigen, was sie kann - die Filme waren zwar Schrott, aber das Bild erste Sahne!

Space


Antwort von Tiefflieger:

Was mich an der ganzen Diskussion etwas irritiert,

1. Mit Debayering kann man keine "echten" Farbverläufe erhalten, nur eine Annäherung in einem . z.B. 20 Pixel Sensor-Bildbereich mit einer "Referenzfarbe" (Helligkeistverlauf in einem Farbgewichteten Sensorpixelbereich. "Echte" Farbstufungenund im Pixelbereich mit angrenzenden Farben können z.B. nur 3-Chip oder Foeven Sensoren ermitteln)

2. Persönlich bin ich an einem Bildeindruck interessiert, der auch dem "tatsächlichen" erlebten entspricht. Meine Videokamera Modell 2013 in 1080p50 kommt dem schon nahe. Ob Kino oder TV, die Formate entsprechen bezüglich Farben eher einem Erzählmedium. Dokumentationen z.B. in Tierfilmen wirken da eher "authentisch", nebst dem die Bildauflösung real im HD-TV bezüglich Artefakt-Blockbildung so bestenfalls im 4 Pixelbereich stimmt.

Insofern soll/kann jeder mit RAW, "linearem" 10/12/16 bit etc. arbeiten.
Aber nicht mit dem Anspruch auf Authetizität sondern eher von Farbechtheit wie "Pantone" Farben in Druckverfahren vorherrschen (Druckverfahren erreichen nicht mal 70% von sRGB (CMYK)).
Mit Farbtafeln können vielleicht Autokarosseriefarben in der Werbung abgeglichen werden, was "real" mit Licht etc. in "natürlicher" Umgebung vielleicht nicht erreicht wird ;-)

Gruss Tiefflieger

Space


Antwort von Peppermintpost:

@Tiefflieger

mit dem Verlauf, das verstehe ich nicht. Wenn ich im einfachsten Fall einen Schwarzen, Grauen und Weissen Pixel habe, dann ist das in meinem Kopf schon die einfachste Form eines Verlaufes, und das kann doch jede Kamera. Ich kann dir da nicht folgen, was genau du meinst.

Was deine Interpretation von Abbildungsqualität angeht, das verstehe ich gut, und die ist in deinen Fall (Doku) auch total schlüssig. Ich denke Wowu würde dir da auch 100% zustimmen und vermutlich der aller grösste Teil der Broadcaster. Bei den Spielfilmern würde ich das Anforderungsprofil aber etwas anders sehen, und eine Arri ist an der Stelle für mich eher eine Spielfilm Kamera (auch wenn es natürlich Dokus gegeben hat die damit gedreht worden sind und auch weiter geben wird). Im Spielfilm ist es ja nicht mein Ansatz die Realität so gut abzubilden wie möglich. Im Gegenteil. Ich möchte den Zuschauer in eine Märchenwelt transportieren. Was dazu nötig ist, das ist viel schwieriger in technische Begriffe zu verpacken, und zu messen was gut und was richtig ist.
Also ich behaupte zum Beispiel, du kannst einen Spielfilm besser auf Super8 drehen, als auf DigiBeta, obwohl natürlich eine DigiBeta in jedem technischem Aspekt den du irgendwie anlegen kannst besser ist.

Ich bin leider nicht Techniker genug um jetzt im Detail zu erklären was wirklich genau einen Film Look ausmacht, und welche Faktoren da ineinander greifen müssen, aber der Ansatz ist halt ein ganz anderer als deiner. Das macht keinen der beiden Ansätze falsch oder richtig, sind nur andere Anforderungen. Ikegami ist ja nicht besser oder schlechter als Arri, ist halt nur was anderes.

Space


Antwort von WoWu:

@Iasi Die 8bit-Leute verwendeten weit mehr Zeit und Material auf die Lichtsetzung, während die Raw-Leute die Feinheiten in der Post gestalteten und auch mehr Zeit mit dem Grading verwendeten. Sie mûssen mehr Zeit in der Post verbringen, weil sie am Set Mist gebaut haben.
Deine Lichttheorie ist völlig absurd.
Wenn Du z.B. im unteren Bereich 30% total unterbelichtet hast, also sagen wir mal keine Photonen auf den Sensor bekommen hast, dann sind bei 8 Bit vielleicht Blenden Schwarz und bei 12 Bit sind dann 6 Blenden Schwarz.
Die Dynamik eines Sensors hat nämlich absolut nichts mit der Photonenmenge zu tun, die den Sensor belichtet sondern nur mit deren Verteilung auf die Übertragung.
Und wenn die Lichtmenge für ein Pixel erreicht ist, (Full Well), dann ist sie bei einem Pixel auf einem 8 Bit Sensor ebenso erreicht, wie bei einem Pixel auf einem 12 Bit Sensor.
Der Unterschied ist nur, dass Du zwischen Schwarz und Weiss mehr Graustufen hast. Wenn aber in den Graustufen kein Licht ist, saufen sie bei 12 Bit ebenso ab, wi bei 8 Bit, es saufen bei 12 Bit nur eben mehr Graustufen ab.

War das jetzt für Dich verständlich ... wahrscheinlich nicht.
Dann hat das mit dem Verständnis aber andere Gründe, als von Dir angeführt.

Space


Antwort von WoWu:

@Iasi Raw - ja - weitgehend "unbehandeltes" Ausgangsmaterial mit mindestens 12bit - das darfst du darunter verstehen, wenn ich den Begriff benutze. Siehst Du ... das habe ich gemeint.
Was heisst "weitestgehend" ?
Und was hat das mit 12 Bit zu tun.
Ist das RAW Signal eines 8 Bit fähigen Sensors kein RAW ?
Denn RAW hat mit der Sensordynamik überhaupt nichts zu tun.
Dann schon eher mit dem Kameraprozessing, durch das die Menge der Werte, die ja das Dynamikverhalten bestimmen, bei z.B. 8 Bit künstlich reduziert werden, weil der Datenkanal für die Gesamtmenge an Werten nicht ausreicht.

Und was die Objektive betrifft ... mein Reden sei1t Leipzig .... die performen aber nicht nur besser auf Sensoren mit hohen Pixelzahlen, sondern auch mit geringer Auflösung, einfach weil sie eine bessere MTF haben.
Das hängt also mit dem Sensor in diesem Bezug nur sehr begrenzt zusammen.

Space


Antwort von Tiefflieger:

@Tiefflieger

mit dem Verlauf, das verstehe ich nicht. Wenn ich im einfachsten Fall einen Schwarzen, Grauen und Weissen Pixel habe, dann ist das in meinem Kopf schon die einfachste Form eines Verlaufes, und das kann doch jede Kamera. Ich kann dir da nicht folgen, was genau du meinst. Beispiel ich habe für UHD Bildetailauflösung einen Bildsensor mit 12 Megapixeln.
Das Objektiv ist verzeichnungsfrei und kann ideal ohne Chromaeffekte 12 Millionen optische Bildpunkte (Lichtflecken) in Deckungsgleichem Raster abbilden (Linenauflösung horizontal/vertikal und diagonal).
Im idealfall kann man den Helligkeitsverlauf den der Sensor erfasst in Zwischenstufen von schwarz und weiss abbilden (Paradox aber im Film wird das schwarz/weiss, Monochromauflösung genannt. Weil Monochrom eigentlich Dithering voraussetzt aber ich lass es :-)

Mit Debayering (mathematisch) und einen Farbfilter vor dem Sensor bestehend aus 2 grün und je einem rot und blau Pixel kann ein Mischwert gebildet werden.
D.h. aus den 4 Farbsubpixeln könnte ein RGB Pixel gebildet werden, aber dadurch reduziert sich zugunsten der Misch-Farbgenauigkeit die Bilddetailauflösung gemessen in Farbbildlinen auf 3 Millionen Bildschnittpunkte.
Was netto knapp über FullHD ist, dafür in "echtem" Farbverlauf was auch ein "orange", "lila" 3MP Raster sauber differenziert.
Wenn ich aber UHD Bilddetailauflösung möchte fehlen für die "exakte" Mischfarbe die RGB Information. In der Helligkeit habe ich sie, so kann ich aus benachbarten Pixeln mit Debayering eine mathematische Farbgewichtung (eine Anmnahme, Farb+Helligkeitsdifferenz) machen.

Den Autolack einer Karosserie kann ich in Nachbearbeitung wunderbar abbilden, da er nur "eine" Farbe in Helligkeit-Schattierungen enthält (RAW und Farbbearbeitung ohne Farbigem-Umgebungsstreulicht). D.h. ich kann einem Autobauer die perfekten Lackfarben liefern.
Bei einem Blattgrün in der Totalen in einem Mischwald funktioniert das nicht mehr. Da bekommt das herbstlich rote Ahornblatt ein hellere grün, wie die mehrheitlich deckenden dunklere Tannennadeln im Vordergrund. Erst bei mehr als 4x5 Bildpixeln könnte das rot durchscheinen.

Gruss Tiefflieger

Space


Antwort von Peppermintpost:

@Tiefflieger

ich hoffe ich hab das verstanden, bin mir nicht 100% sicher. Ist interessant, weil ich da noch nie drüber nach gedacht habe. Zur Zeit denken ja alle eher über die Anzahl der Pixel nach. Meine Beobachtung ist ja schon seit langem, das ein Camera Raw nicht wirklich scharf ist und es erst nach einem gewissen downscaling wird. Jan Reif und ich hatten den Test mit seinen Red Daten ja mal vor ca einem Jahr hier gemacht. Damals bin ich zu dem Ergebniss gekommen das bei einem Dragon Bild in 6k Raw eine Scalierung auf ca 4k die maximale Schärfe hat, aber was die Farben angeht ist mir das bis jetzt praktisch noch nicht so ins Auge gefallen wie du es beschreibst, ich werde mir den Effekt mal genauer ansehen. Ist auf jeden Fall ein interessanter Ansatz der mir bis gerade nicht klar war. Pixel Anzahl ist halt nicht alles. Das vergessen wir leider viel zu oft, oder streiten es sogar ab.

Space


Antwort von iasi:

@Iasi Raw - ja - weitgehend "unbehandeltes" Ausgangsmaterial mit mindestens 12bit - das darfst du darunter verstehen, wenn ich den Begriff benutze. Siehst Du ... das habe ich gemeint.
Was heisst "weitestgehend" ?
Und was hat das mit 12 Bit zu tun.
Ist das RAW Signal eines 8 Bit fähigen Sensors kein RAW ?
Denn RAW hat mit der Sensordynamik überhaupt nichts zu tun.
Dann schon eher mit dem Kameraprozessing, durch das die Menge der Werte, die ja das Dynamikverhalten bestimmen, bei z.B. 8 Bit künstlich reduziert werden, weil der Datenkanal für die Gesamtmenge an Werten nicht ausreicht. Dem widerspreche ich nicht. Ich gehe eben von dem "Raw-Begriff" der Kamerahersteller aus. Es ist sicherlich auch sinnvoll, bestimmte Anpassungen der Sensordaten in der Kamera vorzunehmen - daher erwarte ich auch keine reinen Sensordaten.
Ich habe mehr Gestaltungsspielraum mit z.B. RedRaw, als mit 8-Bit-Material - und das ist mir wichtig - übrigens ist dies auch unabhängig vom Endformat.
Und was die Objektive betrifft ... mein Reden sei1t Leipzig .... die performen aber nicht nur besser auf Sensoren mit hohen Pixelzahlen, sondern auch mit geringer Auflösung, einfach weil sie eine bessere MTF haben.
Das hängt also mit dem Sensor in diesem Bezug nur sehr begrenzt zusammen. Das bestreitet auch keiner: eine miese Linse wird durch einen Sensor mit höherer Pixeldichte nicht besser.
Aber aus einer guten Linse holt man eben mit solch einem Sensor durchaus mehr heraus. Deshalb vermeide ich z.B. auch so weit wie möglich Offenblende oder den Bereich ab dem Diffraction übermäßig zuschlägt.

Da geht noch was - eben auch mit einem 6k-Sensor wie dem Dragon. Wobei ich hier auch denke, dass das Limit für Pixeldichte erreicht ist.

Space


Antwort von iasi:


Bei Daredevil hat man auch in jeder Szene eine andere Farbgebung - auch mal grünlich - aber offensichtlich hatten sich die Macher etwas mehr Mühe gegeben und nicht nur den Farbeimer drüber gekippt. Erstens ist Matthew Lloyd jemand der ganz außergewöhnlich gut mit Licht umgehen kann, was er in den beiden Fargo Folgen, die er gedreht hat ebenfalls bewiesen hat, und zweitens gehe ich jede Wette ein, daß das Tatort Material erst nach DNCHD oder Prores in rec709 rausgerechnet wurde, und dann dadrauf coloriert, und nicht auf den Originalfiles - ein Workflow der bei Daredevil so eher nicht gemacht wurde. Da wirst du wohl leider mit deiner Vermutung richtig liegen, befürchte ich.

Aber Tatort ist deutsches Premium-TV - da erwartet man doch einen deutschen "Matthew Lloyd" am Werke.
Oder sollten all die vielen neuen Filmfakultäten denn nichts gebracht haben?

Space


Antwort von WoWu:

Iasi Dem widerspreche ich nicht. Ich gehe eben von dem "Raw-Begriff" der Kamerahersteller aus. Das sind wir aber bei einem ganz wichtigen Punkt.
Es kommt Dir also nicht auf das RAW Format an sondern nur darauf, mit 12 Bit arbeiten zu können, egal ob das Format bereits komprimiert werden musste oder nicht.
Wir reden also über zwei völlig unterschiedliche Dinge, weil in einem RAW Format noch in das De-Bayering eingegriffen werden kann und man dort ganz wesentliche Gewichtungen vornehmen kann und weil es farbraumneutral ist.

Nicht so das Signal, von dem Du sprichst, weil es komprimiert und bereits de-bayert, also nicht mehr farbraumneutral ist und eigentlich eine LOG Übertragung eines Videosignals ist und nur RAW vom Hersteller genannt wird.
Das hat aber immer noch nichts mit der Lichtsetzung am SET zu tun, weil die sich weder in RAW noch in LOG noch in lin Übertragungsformaten unterschiedlich verhält.
Wenn Du kein Licht am Set hast, rufen auch alle Signale in 12 Bit ebenso wie in 8 Bit ab, nur dass der "Lichtmangel" in 12 Bit über viel mehr Werte reicht, als in 8 Bit.
Deswegen ist es nicht richtig, zu sagen, man könne die Belichtung in der Post machen. In der Post kannst Du immer nur die Verstärkung machen - aber das kannst Du bei 8 Bit ebenso.


Aber aus einer guten Linse holt man eben mit solch einem Sensor durchaus mehr heraus. Deshalb vermeide ich z.B. auch so weit wie möglich Offenblende oder den Bereich ab dem Diffraction übermäßig zuschlägt. Das ist leider wieder nichts-sagend:
"Was soll man "mehr rausholen" ?
Und auch die "Offenblende" hat mit guter oder schlechter Linse absolut nichts zu tun, weil dies eine Frage des Auflagemasses bzw. der exakten Justierung der Linse ist.
Und was die Diffraktion betrifft so ist dies eine Konstante, in Abhängigkeit des Lichtschachtes, der nun wiederum kameraspezifisch und blendabhängig ist.
Mit der Linse änderst Du also nichts an der Diffraktion aber wenn Du kleinere Pixels nimmst, dann steigt sie natürlich an.
Mit andern Worten ... je mehr Pixels Du auf derselben Fläche hast umso grösser ist die Diffraktion oder anders herum ... je kleiner die Pixels umso höher muss die Linse auflösen.
Was glaubst Du, warum ARRI in der 65 ein Mittelformat genommen hat .... weil nämlich die Objektive damit wieder im normalen und bezahlbaren Auflösungsbereich landen und nicht bei 200 Lp/mm liegen müssen.


Da geht noch was - eben auch mit einem 6k-Sensor wie dem Dragon. Das haben wir ja gesehen ... 4K ist gerade mal 2K und 6K erreicht nicht mal die UHD geschweige denn die 4K Anforderung.

Space


Antwort von Tiefflieger:

@Tiefflieger

ich hoffe ich hab das verstanden, bin mir nicht 100% sicher. Ist interessant, weil ich da noch nie drüber nach gedacht habe. Zur Zeit denken ja alle eher über die Anzahl der Pixel nach. Meine Beobachtung ist ja schon seit langem, das ein Camera Raw nicht wirklich scharf ist und es erst nach einem gewissen downscaling wird. Jan Reif und ich hatten den Test mit seinen Red Daten ja mal vor ca einem Jahr hier gemacht. Damals bin ich zu dem Ergebniss gekommen das bei einem Dragon Bild in 6k Raw eine Scalierung auf ca 4k die maximale Schärfe hat, aber was die Farben angeht ist mir das bis jetzt praktisch noch nicht so ins Auge gefallen wie du es beschreibst, ich werde mir den Effekt mal genauer ansehen. Ist auf jeden Fall ein interessanter Ansatz der mir bis gerade nicht klar war. Pixel Anzahl ist halt nicht alles. Das vergessen wir leider viel zu oft, oder streiten es sogar ab. Ein weiches Bild im Kino das in 2K Darstellung auch wirklich 2K Bildinhalt in Farbdetails hat ist aus meiner Sicht genügend.
Mit weich meine ich fehlende Kontrastkanten und starke künstliche Kontraste die debayert ggf. gar nicht exakt erfasst werden.

Unterschiede zur Videokamera im HD-Fernsehen sieht man spätestens, wenn eine HD Computergrafik oder ein hochauflösendes Foto von einer DSLR eingeblendet wird.
Daher bevorzuge ich auch ein "echtes" 1080p50 aus einer 3-Chip Kamera in allen Farbnuancen einem debayerten 4Kp24 oder gar 30fps Bild.
Dazu kommt, dass Bewegtbilder mit hoher fps mehr Farbtransition und Objektabgrenzung (Verschlusszeit) beinhaltet.
Dezente Kontrastanpassung die auch mal helle oder dunkle Töne an Übergängen hat, sind für mich in einem farblich differenzierten Bild nicht störend (in der farblichen Nachbearbeitung schon, was ich nicht mache. Für mich sollten Farben und Kontraste nach dem Bildprozessing für das Ausgabeformat stimmen. Aus meiner 3-Chip Consumer Cam in 1080p50 erhalte ich inhaltlich trotz AVCHD Kompression oft Bilder die sogar 8K Upscaling in farblichen Übergängen ohne störende Artefakte vertragen).

4K Aufnahme und 2K CGI mit 2K Ausbelichtung und Vorführung kann/wird bezüglich Farbdetails perfekt aussehen. Erst wenn das Punktraster der Darstellung gesehen werden könnte lohnt sich ein 4K Upscaling.
Echtes 4K flimmert nicht und ist bezüglich der Farben sehr detailliert, aber erst 8K Kamerauflösung bietet wirklich mehr sichtbare Details in einer Totalen. Und auch da hat die grosse NGK Kamera für das Japanische Fernsehen eine 3 Sensoren Bilderfassung.

Gruss Tiefflieger

PS alle Semi- und Prof Kamerabilder die ich von FullHD TV Kameras gesehen habe, erreichen nicht wirklich diese Auflösung.
Meine von 2012 in neutralen Farben direkt ab Kamera schon , die Vorgängerkameras Modelljahr 2010 im Eingangsbildbeispiel und die von 2011 des gleichen Herstellers hatten je nach Situation noch Farb- und Überzeichnungsprobleme :-)

Space


Antwort von iasi:

Echtes 4K flimmert nicht und ist bezüglich der Farben sehr detailliert, aber erst 8K Kamerauflösung bietet wirklich mehr sichtbare Details in einer Totalen. Und auch da hat die grosse NGK Kamera für das Japanische Fernsehen eine 3 Sensoren Bilderfassung.
so so - und wie kommst du nun darauf?

4fache Auflösung bringt also nichts - erst ab 16facher Auflösung sieht man mehr Details?

Merkwürdig ist jedoch, dass meine Sigma SD14 mit ihrem Sensor, der ja so wunderbare Farben bietet, dennoch weniger Bilddetails zeigt, als mein Canon 5dII.

Space


Antwort von Frank Glencairn:

Das Problem mit der Auflösung ist, daß es einen Sweetspot gibt. Wenn man - um die Auflösung wahrnehmen zu können, so nah dran sitzen muß, daß man nicht mehr den ganzen Screen im Blickfeld hat, ist Schluss.

Zusätzlich kommt hinzu, daß man dann Details sieht, die man nicht sehen möchte, weil sie einen aus der Geschichte reißen und damit den Film versauen (Kontaktlinsen, falsche Bärte, Klebestellen von Prosthetics usw.)

4k ist IMHO der Oberanschlag, 2k reichen meiner Meinung nach aber auch vollauf.

Space


Antwort von Peppermintpost:

Das Problem mit der Auflösung ist, daß es einen Sweetspot gibt. Wenn man - um die Auflösung wahrnehmen zu können, so nah dran sitzen muß, daß man nicht mehr den ganzen Screen im Blickfeld hat, ist Schluss.

Zusätzlich kommt hinzu, daß man dann Details sieht, die man nicht sehen möchte, weil sie einen aus der Geschichte reißen und damit den Film versauen (Kontaktlinsen, falsche Bärte, Klebestellen von Prosthetics usw.)

4k ist IMHO der Oberanschlag, 2k reichen meiner Meinung nach aber auch vollauf. Beifall, in jedem Detail stimme ich 100% zu. Deswegen finde ich auch das BMD mit dem Sensor der neuen MiniUrsa nachgedacht hat. 4,6k ist geil weil ich wenn ich ein 4k Master liefern muss immer noch etwas overscan habe um z.B. Bildstabilisierung oder sowas zu machen, aber 8k brauche ich dann wirklich nicht mehr, da gehts nur noch ins totale Gagaland. Da will ich auch mit den Kunden nichts mehr zu tuen haben. Wer 4k will, der hört schon das Grass wachsen, aber bei 8k, da sollen sich die ganzen 15 Jährigen mir ADHS mal drum kümmern.

Space


Antwort von iasi:


Das ist leider wieder nichts-sagend:
"Was soll man "mehr rausholen" ?
Und auch die "Offenblende" hat mit guter oder schlechter Linse absolut nichts zu tun, weil dies eine Frage des Auflagemasses bzw. der exakten Justierung der Linse ist.
Und was die Diffraktion betrifft so ist dies eine Konstante, in Abhängigkeit des Lichtschachtes, der nun wiederum kameraspezifisch und blendabhängig ist.
Mit der Linse änderst Du also nichts an der Diffraktion aber wenn Du kleinere Pixels nimmst, dann steigt sie natürlich an.
Mit andern Worten ... je mehr Pixels Du auf derselben Fläche hast umso grösser ist die Diffraktion oder anders herum ... je kleiner die Pixels umso höher muss die Linse auflösen.
Was glaubst Du, warum ARRI in der 65 ein Mittelformat genommen hat .... weil nämlich die Objektive damit wieder im normalen und bezahlbaren Auflösungsbereich landen und nicht bei 200 Lp/mm liegen müssen. oh je - das ist ja mal wieder alle meilenweit von der Realität entfernt - und deshlab reden wir auch ständig aneinander vorbei.

Und wie er sich wieder windet, damit er doch recht behalten kann.
Natürlich ist ein Objektiv bei offener Blende in der Praxis nicht so gut, wie auf ihre optimale Blende abgeblendet. Das hast du nun einmal bei 99% aller Objektive. Und bei zu kleiner Blende nimmt die Abbildungsqualität ebenfalls ab.
Das ist nun mal so.

Und natürlich erzielt man mit einem guten Objektiv an einem 35mm-16MPixel-Sensor eine höhere Auflösung als an einem 8MPixel-Sensor. Auch das ist in der Praxis eben nun einmal so - ich hatte es dir ja schon oft genug verlinkt.
Vielleicht solltest du deine Theorien mal wieder mit der Realität erden.

Es ist z.B. nicht eine "Frage des Auflagemasses bzw. der exakten Justierung der Linse", dass ein Objektiv bei größter Öffnung eine schwächere Bildqualität liefert, als abgeblendet auf z.B. T2.8 oder T4. Das hast du eben nun einmal bei Objektiven, die du kaufen kannst.

"We all know these lenses perform well closed down to a T 2.8, so this shootout was designed to push the lenses to their limits wide open. Most of the flaws visible wide open disappear once stopped down"
http://www.reduser.net/forum/showthread ... ot-Results

Ich nehme doch an, du weißt das auch.

Space


Antwort von Tiefflieger:

Echtes 4K flimmert nicht und ist bezüglich der Farben sehr detailliert, aber erst 8K Kamerauflösung bietet wirklich mehr sichtbare Details in einer Totalen. Und auch da hat die grosse NGK Kamera für das Japanische Fernsehen eine 3 Sensoren Bilderfassung.
so so - und wie kommst du nun darauf?

4fache Auflösung bringt also nichts - erst ab 16facher Auflösung sieht man mehr Details?

Merkwürdig ist jedoch, dass meine Sigma SD14 mit ihrem Sensor, der ja so wunderbare Farben bietet, dennoch weniger Bilddetails zeigt, als mein Canon 5dII. Aus meiner Amateur Sicht, nimm mal eine Übersichtstafel in einem Zoo auf.
Die Tafel ist Bildfüllend und in FullHD ist die Kleinschrift mit Tiersymbolen gerade noch erkennbar.
In UHD kann die Schrift in entsprechender Grösse entziffert werden.
Aber selbst für einen grossen 4K Fernseher ist es nicht nicht ausreichend gross dargestellt. Erst in 8K wäre alles einwandfrei.

Ein Muster aus AVCHD 1080p50 Modelljahr 2010 (minimal bewegte Kamera), am 4K Fernseher (Upscaling) kann es knapp gelesen werden.
(click)

In 8K nimmt man eher mit unbewegter Kamera auf, was auch niedrige Frameraten erlaubt. Beim Fussball und bewegter Kamera um auch das "kleinste" Vergehen zu sehen braucht es dann 120 fps. In der Totalen kann dann auch der gesamte Spielablauf und jede Zuschauerregung auf der Tribüne gegenüber in den Gesichtern analysiert werden.
In "echtem" FullHD reicht es für Kopf/Körperhaltung und angedeutete Mimik, in 4K besser und 8k eindeutig (was aber auch die Augenbewegung bei Darstellung berücksichtigt, denn es ist ja nicht nur die Kamerabewegung/Verschlusszeit die Details ausmachen).

Space


Antwort von iasi:

Das Problem mit der Auflösung ist, daß es einen Sweetspot gibt. Wenn man - um die Auflösung wahrnehmen zu können, so nah dran sitzen muß, daß man nicht mehr den ganzen Screen im Blickfeld hat, ist Schluss.

Zusätzlich kommt hinzu, daß man dann Details sieht, die man nicht sehen möchte, weil sie einen aus der Geschichte reißen und damit den Film versauen (Kontaktlinsen, falsche Bärte, Klebestellen von Prosthetics usw.)

4k ist IMHO der Oberanschlag, 2k reichen meiner Meinung nach aber auch vollauf. Beifall, in jedem Detail stimme ich 100% zu. Deswegen finde ich auch das BMD mit dem Sensor der neuen MiniUrsa nachgedacht hat. 4,6k ist geil weil ich wenn ich ein 4k Master liefern muss immer noch etwas overscan habe um z.B. Bildstabilisierung oder sowas zu machen, aber 8k brauche ich dann wirklich nicht mehr, da gehts nur noch ins totale Gagaland. Da will ich auch mit den Kunden nichts mehr zu tuen haben. Wer 4k will, der hört schon das Grass wachsen, aber bei 8k, da sollen sich die ganzen 15 Jährigen mir ADHS mal drum kümmern. das ist witzig - genau so etwas konnte man noch vor kurzer Zeit mit anderen Zahlen hören.

Die menschliche Wahrnemung ist eben doch noch etwas komplexer, als dass man sie auf Linienpaare herunterbrechen könnte ... der Mensch kann z.B. aus großer Entfernung in einer sehr großen Menschenmenge eine bekannte Person erkennen - sogar, wenn diese abgewandt ist.
Es ist wie mit diesen Auflösungsvergleichen zwischen Filmnegativ und Sensor - da wird z.B. die von Bild zu Bild wechselnde Kornstruktur einfach nicht beachtet und man vergleicht Standbilder.

Es ist doch interessant:
Zeigt man Leuten 4k oder gar 8k-Aufnahmen, sind sie beeindruckt und sprechen z.B. von räumlicherer Bildwirkung ...

Space


Antwort von Frank Glencairn:

Zeigt man Leuten 4k oder gar 8k-Aufnahmen, sind sie beeindruckt und sprechen z.B. von räumlicherer Bildwirkung ... ...die es natürlich - nur aufgrund der höheren Auflösung - in einem 2D Bild nicht geben kann, was zeigt wie völlig subjektiv das Ganze ist, und sich mehr im Kopf als auf dem Screen abspielt.

Jede Wette, daß die selben Leute auch von 2k beindruckt wären, wenn man ihnen sagen würde es wäre 4k.

Space


Antwort von Jott:

Das ist sicher so. Passiert gerne auch "Fachleuten" im 4K-Kino, die sich entzückt fast in die Hose machen, nicht wissend, dass sie nur 2K sehen.

Space


Antwort von Tiefflieger:

Zeigt man Leuten 4k oder gar 8k-Aufnahmen, sind sie beeindruckt und sprechen z.B. von räumlicherer Bildwirkung ... ...die es natürlich - nur aufgrund der höheren Auflösung - in einem 2D Bild nicht geben kann, was zeigt wie völlig subjektiv das Ganze ist, und sich mehr im Kopf als auf dem Screen abspielt.

Jede Wette, daß die selben Leute auch von 2k beindruckt wären, wenn man ihnen sagen würde es wäre 4k. Den plastischen Tiefeneffekt kann man bereits im Internet-Browser bei einem kleinen Nebenbild in hochauflösender Werbung sehen.
Das hat mit dem Kontrastverlauf und dem Bildaufbau zu tun.
Darum sind die Bergbilder der Alexa in grau so schrecklich und für mich nichtssagend, was kein Urteil über die Kamera ist.

Space


Antwort von WoWu:

@Iasi "We all know these lenses perform well closed down to a T 2.8, so this shootout was designed to push the lenses to their limits wide open. Most of the flaws visible wide open disappear once stopped down"
http://www.reduser.net/forum/showthread ... ot-Results

Ich nehme doch an, du weißt das auch.
Siehst Du, das ist Dein Problem.
Nur weil es jemand in einem Fan-Forum schreibt, glaubst Du jeden Mist.
Natürlich hat ein Objektiv eine förderliche Blende, die sich aus Abbildungsfehler und MTF zusammen setzt.
Nur dass die MTF mit grösserer Blendenöffnung zunimmt und bei Offenblende nun mal ihr Maximum erreicht hat und auch die Beugungswerte am geringsten sind, vorausgesetzt, das der Abstand der Linsengruppe auf die Blende exakt eingestellt ist.
Dadurch wird nämlich der leichten Zunahme der optische Abberation und Diffraktion entgegen gewirkt, die bei einer mittleren Einstellung des Auflagemasses auftritt.
Vielleicht solltest Du Dir mal voraugen führen, dass unterschiedliche Farben auch unterschiedliche Eintrittstiefen haben.
Zoomobjektive bilden da eine Ausnahme, weil es keinen festen Brennweitenwert gibt, aber ich kann mich nicht erinnern, dass wir in Bezug auf die Beleuchtung eines Sets über Zoomobjektive gesprochen haben.
Vielmehr in es um die MTF und die ist nun mal bei Offenblende und exakter Feinjustierung des Objektivs am grössten.
Dass Andere auf solche Vorzüge verzichten, nur weil sie aus Bequemlichkeit die "Förderliche" benutzen, spricht nicht für sie.

Space


Antwort von iasi:

Zeigt man Leuten 4k oder gar 8k-Aufnahmen, sind sie beeindruckt und sprechen z.B. von räumlicherer Bildwirkung ... ...die es natürlich - nur aufgrund der höheren Auflösung - in einem 2D Bild nicht geben kann, was zeigt wie völlig subjektiv das Ganze ist, und sich mehr im Kopf als auf dem Screen abspielt.

Jede Wette, daß die selben Leute auch von 2k beindruckt wären, wenn man ihnen sagen würde es wäre 4k. "Sehen" spielt sich vor allem im Kopf ab.

Space


Antwort von WoWu:

Stimmt, deswegen glauben soviele 4K dort zu sehen, wo es möglichst dick drauf steht.

Space


Antwort von iasi:

@Iasi "We all know these lenses perform well closed down to a T 2.8, so this shootout was designed to push the lenses to their limits wide open. Most of the flaws visible wide open disappear once stopped down"
http://www.reduser.net/forum/showthread ... ot-Results

Ich nehme doch an, du weißt das auch.
Siehst Du, das ist Dein Problem.
Nur weil es jemand in einem Fan-Forum schreibt, glaubst Du jeden Mist.
Natürlich hat ein Objektiv eine förderliche Blende, die sich aus Abbildungsfehler und MTF zusammen setzt.
Nur dass die MTF mit grösserer Blendenöffnung zunimmt und bei Offenblende nun mal ihr Maximum erreicht hat und auch die Beugungswerte am geringsten sind, vorausgesetzt, das der Abstand der Linsengruppe auf die Blende exakt eingestellt ist.
Dadurch wird nämlich der leichten Zunahme der optische Abberation und Diffraktion entgegen gewirkt, die bei einer mittleren Einstellung des Auflagemasses auftritt.
Vielleicht solltest Du Dir mal voraugen führen, dass unterschiedliche Farben auch unterschiedliche Eintrittstiefen haben.
Zoomobjektive bilden da eine Ausnahme, weil es keinen festen Brennweitenwert gibt, aber ich kann mich nicht erinnern, dass wir in Bezug auf die Beleuchtung eines Sets über Zoomobjektive gesprochen haben.
Vielmehr in es um die MTF und die ist nun mal bei Offenblende und exakter Feinjustierung des Objektivs am grössten.
Dass Andere auf solche Vorzüge verzichten, nur weil sie aus Bequemlichkeit die "Förderliche" benutzen, spricht nicht für sie. ja ja - das wird schon "Mist" sein ... auch was all die Objektivtester so ermitteln, ist "Mist" ... aber es ist wohl nur deshalb "Mist", weil"s nicht in deine Theorie passt.

Zeig mir doch mal ein Objektiv, das bei Offenblende die höchste Auflösung erreicht - ich kann dir hunderte zeigen, die das nicht tun.

Hier mal ein Test, dessen Resultat du scheinbar für "Mist" hältst:
http://www.lenstip.com/390.4-Lens_revie ... ution.html

und glaub mir - davon gibt es sehr viele.

Mit Theorien ist das immer so eine Sache - es gibt da eine Theorie zur Anzahl von Schnittpunkten paralleler Geraden im Raum n-ter Ordnung - und es gibt auch eine bewiesene Formel dazu ... alles schön und richtig ... nur schneiden sich in unserer Alltagsrealtität parallele Geraden eben leider nicht.

Space


Antwort von WoWu:

Tja, Iasi ... deswegen bist Du auch in Deinen Fan-Blogs so gut aufgehoben.
Dort sprechen alle dieselbe Sprache und der Anspruch ist überschaubar.
Und komm mir jetzt nicht mit Inzidenzstrukturen.
Aber wir können gern das Thema dahin wechseln.
Mal sehn, ob da Deine Defizite ebenso gross sind.

Space


Antwort von Spaceman:

*** wegen Beleidigung gelöscht ***

Ich sag nur Schuster bleib bei Deinen Leisten, sprich beim 50i Video mit Henkelmann.
Die Filmbranche ist dann doch ne Nummer zu groß...

Kann mal jemand bei Gelegenheit sich dem WoWu annehmen und ihm die Grundlagen erklären, z.B. dass Log nicht gleich RAW ist usw.

Vielen Dank und liebe Grüße

Euer Spaceman

Space


Antwort von iasi:

Tja, Iasi ... deswegen bist Du auch in Deinen Fan-Blogs so gut aufgehoben.
Dort sprechen alle dieselbe Sprache und der Anspruch ist überschaubar.
Und komm mir jetzt nicht mit Inzidenzstrukturen.
Aber wir können gern das Thema dahin wechseln.
Mal sehn, ob da Deine Defizite ebenso gross sind. so so - das Thema wechseln ... denkst du denn, das diese Diskusionen dann anderes verlaufen.

Zu einer guten Argumentation gehört Behauptung, Begründung und Beleg/Beweis - Letzteres lieferst du leider meist nicht.
Und leider nutzt du eine Diskussion nicht als Austausch von Argumenten - aber dazu ist sie eigentlich gut und nützlich.

Pauschal alles abzutun ist übrigens auch nicht gerade sinnvoll.
Wenn du denkst, dass reduser ein "Fan-Blogs" sei, bei dem nur "Mist" verbreitet wird, dann hast du aber ein wenig hilfreiches Schubladendenken.
Es gibt auch ein Forum von Roger Deakins - darin war auch mal von Objektiven die Rede - aber was Deakins da schreibt, ist ja auch Mist.

Vor allem aber sehe ich eben den Unterschied bei Objektiven, die ich bei Offenblende und eben auch abgeblendet nutze. Nun kommst du natürlich wieder damit, dass meine Objektive nicht dem theoretischen Ideal entsprechen ... nur tut das eben leider kein Objektiv.

Space


Antwort von Spaceman:

Also schlage vor wir lassen den WoWu jetzt mal durchatmen.
Der verzettelt sich sonst so in seinem Halbwissen dass er da nicht mehr alleine rauskommt.

Wer mir durch den einen oder anderen Kommentar sehr positiv aufgefallen ist, ist übrigens der Tiefflieger. Der scheint tiefzustapeln und als einer der wenigen ganz guten Durchblick zu haben. Er hat erkannt hat dass die Plastizität eines Bildes mit der Kontrastkurve zusammenhängt. Was wiederum bedeutet dass der Filmlook mit seinen cremigen Kontrastverläufen maßgeblich an der Gammakurve hängt.

Respekt Tiefflieger, Du bist ganz nah am heiligen Gral Filmlook dran.

Während andere noch auf dem Holzweg sind und versuchen Plastizität ins Bild zu bekommen bist Du vermutlich schon unterwegs in Richtung weichem Filmlook Gemälde...

Space


Antwort von WoWu:

@Iasi
Ich wills nochmal mit Grundlagen versuchen, die Dir bei all Deinen Tests wahrscheinlich vorenthalten geblieben sind.
Ich weiss, Du hast was gegen Kenntnisse, aber hin und wieder muss man darauf wohl zurückgreifen ... und komm mir nicht wieder mit dem Praktikergelabere.
Praktiker sind nur Anwender ohne Hintergrundwissen.

Also. Du sprichst von Abblenden und behauptest, Du tust dies, weil die Objektive nix taugen bei Offenblende.
Es gibt eine sogenannte förderliche Blende,bei der die Abbildungsfehler gerade eben nicht durch die Beugungsunschärfe übertroffen werden. Bei ihr ist die Schärfeleistung des Objektivs am höchsten.
Da steht aber übertroffen. Was passier also an dieser Stelle ?
Blende ich also weiter auf, nehmen die Abbildungsfehler zu. Die sind zunächst einmal abhängig vom Durchmesser der Optik und vom Linsenschliff und bestehen in erster Linie darin, dass die Lichtbrechung grösser wird und die einzelnen Lichtkomponenten eine grösseren Eindringtiefe bekommen, im Sensor also in der Ebene nach hinten verlagert werden.
Verändert man jetzt das Auflagemass so, dass die Entfernung für diese Blende verkürzt wird, korrigiert man diesen Fehler damit.
Nach wie vor ist die MTF bei Offenblende am grössten und damit die Kontrastleistung am höchsten, sofern die Abberationsfehler justiert sind.
Das ganze funktioniert nicht bei Zooobjektiven ... oder nur, wenn man sie als Festbrennweiten einsetzt und auch dann nur, wenn die Abberationsleistung nicht wirklich unterirdisch ist. Stark korrigierte Objektive verhalten sich da ausserdem schlechter als unterkorrigierte, bei denen oft nicht einmal nachgezogen werden muss, die also ihre volle Objektivleistung bei Offenblende haben und das Auflagemass auf Blau eingestellt ist.

Edit:
Tiefflieger, das gäbe mir aber jetzt zu denken.

Space


Antwort von Tiefflieger:

Also schlage vor wir lassen den WoWu jetzt mal durchatmen.
Der verzettelt sich sonst so in seinem Halbwissen dass er da nicht mehr alleine rauskommt.

Wer mir durch den einen oder anderen Kommentar sehr positiv aufgefallen ist, ist übrigens der Tiefflieger. Der scheint tiefzustapeln und als einer der wenigen ganz guten Durchblick zu haben. Er hat erkannt hat dass die Plastizität eines Bildes mit der Kontrastkurve zusammenhängt. Was wiederum bedeutet dass der Filmlook mit seinen cremigen Kontrastverläufen maßgeblich an der Gammakurve hängt.

Respekt Tiefflieger, Du bist ganz nah am heiligen Gral Filmlook dran.

Während andere noch auf dem Holzweg sind und versuchen Plastizität ins Bild zu bekommen bist Du vermutlich schon unterwegs in Richtung weichem Filmlook Gemälde... Ich schätze WoWu sehr und hat mir viele Denkanstösse geliefert.
Man muss wirklich unterscheiden ob Details aus dem Bildprozessing oder optisch entstehen. Digital verarbeitet ist immer beides vorhanden, nur Elektronik kann Kosten bei der Optik und/oder Nachbearbeitung sparen (sofern alle Parameter stimmig sind).

Wenn ein Film "echte" Farbverläufe und nicht "flächig" angenährte Farben mit Helligkeitsnuancen enthält, braucht es in RAW Gammaverläufe die dem "gewünschten" Bildeindruck entspricht.
Auf Foto-HDR Farben wie auf Kondensmilch-Farben ohne weiss und schwarz kann ich verzichten. 1-2x ist etwas neues spannend, wirkt aber irgendwann ausgeleiert.

Gruss Tiefflieger

Space


Antwort von Spaceman:

*** wegen Beleidigung gelöscht ***

Stelle mir gerade vor wie Du am Set die Crew ganz *** wegen Beleidigung gelöscht *** und dann kommt hinten als Ergebnis so nen Tatort Bild raus.

;-)

Space


Antwort von Tiefflieger:

@Iasi
Ich wills nochmal mit Grundlagen versuchen, die Dir bei all Deinen Tests wahrscheinlich vorenthalten geblieben sind.
Ich weiss, Du hast was gegen Kenntnisse, aber hin und wieder muss man darauf wohl zurückgreifen ... und komm mir nicht wieder mit dem Praktikergelabere.
Praktiker sind nur Anwender ohne Hintergrundwissen.


Edit:
Tiefflieger, das gäbe mir aber jetzt zu denken. Mir ist das bewusst, darum habe ich auch von "ideal ohne Chromaeffekte" (resultierend Aberration) im vorherigen Beitrag gesprochen. (IR-Sperrfilter rot=unschärfe oder UV im Blaubereich, Sensor Spektrumsempfindlichkeitssbereich).
Bei den optischen Punktbildern habe ich nur vom Ideal gesprochen, da der Fokusbereich und somit Pixelüberdeckung im Farbspektrum RGB nicht identisch ist.
Und das mit den kleinen Pixeln ist mir auch bewusst, mit dem Modell 2013 habe ich in Belichtungsreihen gezeigt was Bildprozessing in Kombination mit spezifiziertem Kameraverhalten als Ergebnis resultiert (Beugung).

Die Festobjektiv-Abbildungsleistung ist im mittleren Blendenbereich am besten.
Offene Blende mit grossem Sensor im "mm" Tiefenschärfebereich hat für mich nichts mit HD zu tun ;-)

Bei einem 1- oder 3-Chip Camcorder inkl. Bildprocessing sind alle Parameter ab Werk spezifiziert, aufeinander abgestimmt und somit in engen Grenzen gegeben.
Mit der grossen Kamera hat man mehr Freiheitsgrade in der Bildinhalterfassung und grössere Eigenverantwortung (aber nicht in der Positionierung und Platzverhältniss, da braucht es die Alexa mini)

Gruss Tiefflieger

Space


Antwort von srone:

Bei einem 1- oder 3-Chip Camcorder inkl. Bildprocessing sind alle Parameter ab Werk spezifiziert, aufeinander abgestimmt und somit in engen Grenzen gegeben.
Mit der grossen Kamera hat man mehr Freiheitsgrade in der Bildinhalterfassung und grössere Eigenverantwortung die wird offensichtlich nicht von allen gesehen ;-)

lg

srone

Space


Antwort von srone:

*** wegen Beleidigung gelöscht ***

Stelle mir gerade vor wie Du am Set die Crew ganz *** wegen Beleidigung gelöscht *** und dann kommt hinten als Ergebnis so nen Tatort Bild raus.

;-) danke, tom.

lg

srone

Space


Antwort von Peppermintpost:

@tiefflieger
ja mit den Kondensmilch Farben, da hab ich mich in meiner Anfangszeit im Spielfilm auch schwer getan, ich komme ja aus der Werbung, und da hab ich sowas nie bis extrem selten bekommen. Ich halte es auch für relativ unsinnig mit einem LUT so zu drehen das ich alle Super Brights cover, die ich am Ende ja sowieso clampe. Hab ich so einige Diskussionen zum Thema gehabt und mich irgendwann damit abgefunden, das es halt so ist.
Beim Spielfilm, wenn auf Alexa oder Red gedreht wird die ja auch eine prima Farbtiefe und minimale Kompression mit sich bringen, war es am Ende ja auch relativ egal, weil das Ergebniss nach Farbkorrektur ja dann trotz verbiege Philosohie gut ausgesehen hat. Wo ich aber richtig den Kopf schüttel ist wenn man die gleiche Taktik dann mit z.B. einer Canon 5D versucht, wo das Footage schon totkomkrimiert und in 8bit aus der Kamera kommt. Ich denke auch, das es sehr viel sinnvoller ist den ganzen dynamik Bereich der Kamera zu nutzen und besser daran zu arbeiten, das die consumer Chips oben herum nicht so ekelhaft clipen. Ich halte für besser sich durch leichtes unterbelichten zu schützen als solche Bildverbiegekurven zu nutzen, wo am Ende des Tages keiner mehr ne Idee hat wie man damit eigendlich richtig umgeht. Aber dann müsste man ja auch wieder einen Richtigen Sucher an der Kamera haben und im Zweifel auch noch einen Belichtungsmesser, sowas will ja heute keiner mehr.

Space


Antwort von WoWu:

Waveform tut da 'n ganz guten Job.
Unterbelichten ist nicht so gut, weil das über die Blende läuft und Du bei einer Blende Unterbelichtung 50% Deiner Übertragungswerte nicht bedienst, denn Du bist da ja noch im linearen Bereich.

Tiefflieger

Meine kleine Bemerkung bezog sich nicht auf Deine Inhalte. Sorry, wenn das so rübergekommen ist.
Nicht bei Dir bin ich bei den besten Objektiveigenschaften im mittleren Bereich, es sei denn Du hast einen Mittelformatsensor, bei dem die Beugung sich erst ziemlich spät bemerkbar macht. Ansonsten bist bei den meisten Sensoren schon ohne Nachschärfen nicht mehr gut bedient.
Wie gesagt .. die beste MTF hast Du immer noch bei offener Blende.
Übrigens sind da festverbaute Objektive deutlich im Vorteil, weil sie über den Stellmotor das Auflagemass nachziehen können (und tun). Wenn sie dann auch noch die Aberration korrigieren, sind die Dinger bis "Offen" meistens knackescharf.
Die müssen das machen, weil man sonst merken würde, dass nicht viel Qualität verbaut ist.
Mit den 3"Chips bin ich übrigens auch bei Dir. ich habe neulich mal Bilder der Hitachi SK4000 gesehen. Die haben noch einen 4. Sensor für das Offset des Lukas drin.
Das sind schon tolle Bilder, gar keine Frage und kompromissloses Chroma.

Space


Antwort von domain:

Wie gesagt .. die beste MTF hast Du immer noch bei offener Blende.

Ich denke Wowu hat diesbezüglich schon auch recht, aber das gilt nur für spezielle Objektive, z.B. für Objektive für sehr kleine Sensoren, die bilden tatsächlich bei offener Blende am besten ab und auch für Objektive für Kopierer und Scanner, die arbeiten tatsächlich ohne Abblendung, aber nur deshalb, weil die genauen Entfernungen vom Objekt zum Objektiv und vom Objektiv zum Sensor vorgegeben und bekannt ist.
Auf dem konventionellen Fotosektor und für größere Sensoren bis hin zum Vollformat aber gilt immer noch, dass erst mit einer moderaten Abblendung die maximale MTF (min. übrigens 0,5 des Originalkontrastes) erreicht wird.
Hier die MTF-Funktionen vom Zeiss Planar 80 mm für die Hasselblad von 10 bis 40 Linienpaare (3-fach im Diagramm untereinander) und bis zu 40 mm vom Zentrum horizontal ausscherend.
Unschwer zu erkennen, dass die MTF bei Blende 5,6 gegenüber 2,8 zugenommen hat.

Space


Antwort von WoWu:

Domain

... weill die Aberration zunimmt.
Halte dagegen mal die Kurven des Abberationsverhalten, dann wirst Du sehen, dass das hochgeht.
Daher muss das kompensiert werden.
Ansonsten verändert sich ja nichts am Glas, dass der Kontrast runter geht.
Die Strahlen treffen nur nicht mehr am selben Punkt auf sondern ein Teil hinter der eigentlichen Projektionsfläche. Und für MTF brauchst Du natürlich die Helligkeit in der Summe aus allen drei Farben.
Du musst bei Offenblende die Auflage bei 'blau' halten.
Darauf habe ich aber in allen Beiträgen nun mehrfach hingewiesen.

Space


Antwort von domain:

Ist für Praktiker eigentlich ziemlich wurscht was da simultan zu- oder abnimmt, Hauptsache es wird bei Blende 5,6 schärfer als bei 2,8 :-)

Space


Antwort von WoWu:

Ja, weil solche Praktiker nicht wissen, was da abläuft und nicht wissen, dass sie mit der Veränderung des Auflagemasses die Situation verbessern können.

Das sind ja eben die Praktiker, die ich meine. Licht über die Verstärkung und 50% echtes Licht am Set verschenken, weil sie zu faul sind, für Offenblende eine Neujustierung vorzunehmen.
Tolle Praktiker sind das.

Space


Antwort von domain:

Das Auflagemaß spielt m.E. bei Festbrennweiten doch nur eine Rolle, ob bei der Einstellung auf Unendlich diese auch scharf abgebildet wird.
Ansonsten und darunter wird doch alles per exakter manueller Fokussierung erledigt

Space


Antwort von WoWu:

Die "exakt" manuelle Fokussierung funktioniert aber nur in dem Bereich, wo Die Aberration die Eintrittstiefen nicht auseinander zieht.
Sonst gäbe es ja keine Aberration.
Und die nimmt nunmal durch verstärkte Nutzung der Randstrahlen drastisch zu, die vorher durch die Blende abgeschnitten wurden.
Und dagegen kann man nachjustieren.
Für Festbrennweiten gab es früher sogar mal Ringe zur Feinjustage. Ich weiss nicht, ob es die heute noch gibt.
Hier nochmal eine Grafik aus einem andern Zusammenhang aber sie zeigt die Beziehung der sandstrahlen zum Schärfenpunkt.
Du must mit dem Schärfepunkt in Richtung der Aberration, um die MTF wieder ansteigen zu lassen.
Und das macht man nun mal üblicherweise mit dem Auflagemass.

Space


Antwort von domain:

Der Abstand von der Bajonett-Oberkante zum Sensor muss mal lt. Spezifikation (auf die du ja so viel Wert legst) bis auf 1/100mm stimmen. Alle weiteren Fehler können dann nur mehr am Objektiv liegen und dir ist sicher bekannt, dass diese von jedem einfachen Fotomechaniker innerhalb von Minuten über die Madenschrauben am Schneckengewinde justiert werden können.

Space


Antwort von WoWu:

Das mag ja alles für Umgebungen zutreffen, an denen keine Möglichkeit einer Auflagemasseinstellung besteht.
Reden wir über Plattenkameras oder über Videogeräte ?

Space


Antwort von domain:

Jedes Objektiv wird beim Hersteller u.a. auf das korrekte Auflagemaß manuell justiert, aber da kommen halt Schlampereien vor. Wäre schön traurig und kostspielig, wenn das und eine nachträgliche Korrektur ein kompliziertes Prozedere wäre.

Space


Antwort von WoWu:

Das hat mit Schlamperei glücklicherweise nichts zu tun.
Wie man sehen kann ist der Strahlenverlauf immer unscharf, denn Abberation ist allgegenwärtig und die unterschiedlichen Wellenlängen haben immer unterschidliche Eindringtiefen.
Jedenfalls in der Natur aber für Iasi gelten ja solche Gesetze nicht.
Wir nehmen nur diese Diffraktion in gewissem Umfang nicht wahr und erachten es als scharfes Bild.
In dem Bereich bewegt sich die Fotografie.
Kommen wir aus dem Bereich heraus und Abberation von Randstrahlen wird zu so grosser Diffraktion, dass wir es als unscharf erachten, dann haben wir aber nur den eingetellten Schärfebereich verlassen.
Ziehen wir diesen nach, verlagert sich die Schärfe wieder und ein neuer scharfer Bereich ist definiert und die Randstrahlen werden wieder als "scharf" erachtet.

Es ist also kein Pfusch im Spiel, sondern die Verabredung, was, wann wo als "scharf" tituliert bzw. mpfunden wird.
Unscharf (im physikalischen Sinn) ist es sowieso, nur eben so geringfügig, dass es uns nichts ausmacht.

Ich steig jetzt hier aus und zieh mir mal den Tatort aus der Mediathek rein.
Gute nacht.

Space


Antwort von motiongroup:

http://www.univie.ac.at/mikroskopie/1_g ... fehler.htm

Trifft die Astronomen viel mehr als die Filmer, die Lösungen dafür sind auch bekannt..

Space


Antwort von domain:

So wie ich es verstanden habe, macht WoWu aber nicht auf einen der dort erörterten Abbildungsfehler der Linsen selbst aufmerksam (sphärische Aberration, chromatische Aberration, Bildfeldwölbung, Verzeichnung, Koma) sondern auf das Phänomen der unterschiedlich starken Beugungseffekte einzelner Farben in Abhängigkeit vom immer kleiner werdenden absoluten Blendendurchmesser bei Abblendung.
Bei kleinen kurzbrennweitigen Objektiven daher viel stärker ausgeprägt als bei „Normalobjektiven“, weil dort das Blendenloch ja von Haus relativ groß ist.
Insofern stimmt natürlich schon, dass für Rot z.B. das „Auflagenmaß“ anders sein müsste als für Blau, das am wenigsten auf Diffraktion reagiert.

Man sieht bei dieser Darstellung schön, um wie viel enger die Abstände der Teilstriche bei Blau als bei Rot sind. Bei weißem Licht kommt es natürlich zu den unschönen Überlagerungen, allein begründet durch eine zu starke Abblendung.


zum Bild


Schöner Thread übrigens, weil wir hier vom Hundertsten ins Tausendste kommen und immer noch was zum Lesen und Schreiben finden :-)

Space


Antwort von iasi:

So wie ich es verstanden habe, macht WoWu aber nicht auf einen der dort erörterten Abbildungsfehler der Linsen selbst aufmerksam (sphärische Aberration, chromatische Aberration, Bildfeldwölbung, Verzeichnung, Koma) sondern auf das Phänomen der unterschiedlich starken Beugungseffekte einzelner Farben in Abhängigkeit vom immer kleiner werdenden absoluten Blendendurchmesser bei Abblendung.
Bei kleinen kurzbrennweitigen Objektiven daher viel stärker ausgeprägt als bei „Normalobjektiven“, weil dort das Blendenloch ja von Haus relativ groß ist.
Insofern stimmt natürlich schon, dass für Rot z.B. das „Auflagenmaß“ anders sein müsste als für Blau, das am wenigsten auf Diffraktion reagiert.

Man sieht bei dieser Darstellung schön, um wie viel enger die Abstände der Teilstriche bei Blau als bei Rot sind. Bei weißem Licht kommt es natürlich zu den unschönen Überlagerungen, allein begründet durch eine zu starke Abblendung.


zum Bild


Schöner Thread übrigens, weil wir hier vom Hundertsten ins Tausendste kommen und immer noch was zum Lesen und Schreiben finden :-) Es ist aber eben nicht damit getan, sich einen Effekt herauszugreifen und alles darauf herunterbrechen zu wollen. Objektivhersteller haben mit unterschiedlichen Effekten zu kämpfen und können diesen durchaus begegnen, wobei jede Maßnahme zu Wechseleffekten führt - eben ein komplexes System, das ausbalanciert wird.
Da fällt nicht einfach nur Licht durch ein paar Gläser - die Objektivköche haben da mittlerweile sehr raffinierte Rezepte entwickelt und versuchen ständig neue Zutaten.
Das ist dann ganz so wie mit den Sensoren - auch wenn das Bayer-Prinzip gleich sein mag, rühren die Bäcker eben doch ständig feinere Backmischungen an - und zu einem Sensor gehört eben auch die darauf abgestimmte Interpolation, die Dank leistungsfähigerer Rechner, eben nun auch rechenaufwändiger ausfallen darf - was es ermöglicht, eben doch noch mehr herauszukitzeln, als früher.
Wer die Möglichkeit nicht nutzt, ein besseres Roll off zu erhalten, nur weil er puristisch an einer reinen Raw-Vorstellung festhält, der veschenkt letztlich eben viel.

Space


Antwort von WoWu:

sich einen Effekt herauszugreifen und alles darauf herunterbrechen zu wollen Ursachen sind nun mal manchmal banale Effekte. Objektivhersteller haben mit unterschiedlichen Effekten zu kämpfen und können diesen durchaus begegnen Und warum arbeitest Du dann immer noch mit der "Förderlichen" ?
Ich dache, die Hersteller könnten all diesen Problemen begegnen.
Wobei "begegnen" vielleicht stimmt, nur abstellen können sie sie wohl nicht. wobei jede Maßnahme zu Wechseleffekten führt Dann sag doch mal, was damit genau gemeint ist.
Was passiert Deiner Meinung nach -als Wechselwirkung-, wenn man den Schärfebereich an das Effektresultat anpasst ? eben ein komplexes System, das ausbalanciert wird. Wer balanciert denn nun was aus ? Da fällt nicht einfach nur Licht durch ein paar Gläser Ach, sag bloss !
Das überrascht uns wahrscheinlich alle. die Objektivköche haben da mittlerweile sehr raffinierte Rezepte entwickelt und versuchen ständig neue Zutaten. Sag mal, kommst Du Dir nicht selbst albern vor, wenn Du sowas schreibst ?
...Oder sowas:... Das ist dann ganz so wie mit den Sensoren - auch wenn das Bayer-Prinzip gleich sein mag, rühren die Bäcker eben doch ständig feinere Backmischungen an... Aber das, scheint ja Dein Favorit zu sein:
... was es ermöglicht, eben doch noch mehr herauszukitzeln, als früher. Wer die Möglichkeit nicht nutzt, ein besseres Roll off zu erhalten, nur weil er puristisch an einer reinen Raw-Vorstellung festhält, der veschenkt letztlich eben viel. ... ich denke, Du hast es nicht wirklich verstanden, sonst wäre dieser Satz anders ausgefallen.


@domain

Ich stimme Dir in einem Punkt nicht zu:
Es gibt nicht mehr viel zu schreiben, solange es solche Antwoten -wie zitiert- generiert.

Mit Dir (und noch ein paar Andern) macht es ja Spass, weil Denkanstösse in beide Richtungen fliessen und viele Nachdenkimpulse auslösen - aber wenn ständig über "Bande" gespielt werden muss, verliert jeder Impuls einfach zuviel Energie.

Iasi und dieser Raumfahrer sollen doch kein Licht am Set, sondern meinetwegen in der Post setzen und Rolloff mit Blenden unterbelichten.
Hauptsache, sie generieren Graupapier mit 5 Blendendynamik als Kunst.

Joseph Beuys hat auch seine "Soziale Plastik" in Raumecken abgesondert und hat genügend Menschen begeistert, die das als anthroposophisches Gesamtkunstwerk angesehen haben.
So wird das mit den grauen Filmen wohl auch sein.

Space


Antwort von domain:

Es ist aber eben nicht damit getan, sich einen Effekt herauszugreifen und alles darauf herunterbrechen zu wollen. Objektivhersteller haben mit unterschiedlichen Effekten zu kämpfen und können diesen durchaus begegnen, wobei jede Maßnahme zu Wechseleffekten führt - eben ein komplexes System, das ausbalanciert wird. Sehe ich genau so. WoWu greift sich einen Effekt heraus und übersieht dabei, dass eigentlich alles eine Kompromissabwägung ist. Ansonsten wäre gar nicht erklärbar, dass das Zeiss 80 mm (wie gezeigt) bei Blende 5,6 insgesamt eine bessere Abbildungsleistung als bei 2,8 hat.
Und was die eigentlich verschieden notwendigen Auflagenmaße betrifft: theoretisch richtig, aber trotzdem in der Praxis völlig daneben.
Kann eigentlich nur bei der Unendlicheinstellung eine Rolle spielen, darunter wird halt die Kompromiss-Schärfe manuell korrigiert.

Space


Antwort von Frank Glencairn:

Eure Sorgen möchte ich haben Jungs.

Keiner von uns hier in diesem Forum, wird durch eine BM/RED/SONY/ALEXA, durch irgendeine Optik, durch irgendeine Auflösung von HD aufwärts oder sonstwas in seinem filmischen Schaffen in irgendeiner Form ausgebremst.

Alle Kameras, alle Optiken und alle Auflösungen sind gut genug für alles.

Wir sind wieder da wo wir vor Jahren mit 16/35mm Film schon mal waren, der limitirende Faktor ist wieder der Mensch, nicht mehr die Maschine.

Space


Antwort von WoWu:

@ Domain

Na ja, so daneben kann's nicht sein, sonst hätte bisher keine Sensorhersteller gegeben, die sich auf solche "Spezialitäten" eingelassen haben und von der BTA (Broadcast Technology Association) bereits 1994 der Standard (BTA S- 1005-A) für HDTV formuliert wurde, der festlegt dass der Blauauszug 5μm und der Rotauszug 10μm hinter dem Grünauszug scharf abgebildet werden muss.
Das beseitigt das Grundproblem. Hier geht es aber eben darum, dem "Sonderfall" Randstrahlen zu begegnen, der eben durch diese "allgemeine" Sensorbauform nicht abgedeckt ist.
Ich gebe Dir Recht, aufgrund dessen, dass die Sensoren bereits den 1005A berücksichtigen gibt es innerhalb der 10 µ kein Problem mehr. Aber eben ausserhalb dieses Bereiches.
Der Standard ist hier auch nur ein Hinweis auf eine Lösung. Umgehen muss man mit den Randstrahlen dann schon selbst ... mit dem veränderten Auflagemass.
Aber für die Praktiker gibt es ja die "Förderliche" und solche Praktiker können ja auch leicht mal mit 50 oder mehr % Lichtverlust arbeiten ... schliesslich gibt es ja die Post und da wird Licht mit dem Verstärkungsregler gemacht.

@Frank
Und warum hechelt jeder der letzten zusätzlichen Blende nach ?
Wobei sie 2, oder drei Blenden durch Know How gewinnen könnten ?
Es geht ja auch gar nicht darum, dass die Kameras nicht ausreichend funktionieren sondern darum, dass behauptet wird, Offenblende sei nicht benutzbar.
Du vergiss aber, dass Diffraktion die Bildauflösung verringert denn Unschärfe ist nichts anderes als weniger Auflösung.
Und es soll ja Leute geben, die schon in 6 oder 8K denken.

Space


Antwort von domain:

Eure Sorgen möchte ich haben Jungs. Das verstehst du nicht Frank.
Stell dir einen Pensionär wie mich, Bruno oder WoWu vor, der nur darauf wartet, irgend etwas Gescheites antworten zu können. Ist quasi eine geistige Gymnastik und lustvoller als Sudoku.
Auch du musst dich allmählich mit der überalternden Gesellschaft und ihren Bedürfnissen abfinden :-)
In der Hauptsache bin ich aber Motorradfahrer. Erst heute auf einen 1000m hohen Pass geglüht und dort vor der Wanderung noch eine geraucht. Helmut Schmid ist mein Vorbild.

Space


Antwort von WoWu:

@Domain,
das ist ja interessant, dass Du einfach so von Dir auf Andere schliesst.
Das, was Du da schreibst trifft erst einmal nur auf Dich zu.

Wenn ich schlaue Kommentare absondern will, dann gönne ich sie den Seminaristen. Die bezahlen schliesslich dafür denn Bildung ist in diesem Land nicht kostenfrei.

Space


Antwort von domain:

Ja du bist schon außergewöhnlich WoWu und eigentlich noch kein typischer Pensionist wie der leicht verknöcherte Bruno, das haben wohl schon alle bemerkt.
Keine Plattitüden, sondern immer nur fundiertes Wissen.
Beneidenswert auf diesem speziellen Sektor, wenn auch mich die Einspritzanlagen der BMW und der Porsches mehr interessieren.
Daher auch: no further investment in Camcorder etc., nur mehr in den anstehenden Porsche 981.
€ 72 000.- habe ich schon gespart, wird nicht mehr lange dauern. Man gönnt sich ja sonst nix als Letztanschaffung ;-)

Space


Antwort von Angry_C:

@Domain,
das ist ja interessant, dass Du einfach so von Dir auf Andere schliesst.
Das, was Du da schreibst trifft erst einmal nur auf Dich zu.

Wenn ich schlaue Kommentare absondern will, dann gönne ich sie den Seminaristen. Die bezahlen schliesslich dafür denn Bildung ist in diesem Land nicht kostenfrei. VHS Seminare für Senioren? Schade um das schöne Geld...Hoffe, zumindest sie bleiben von deinen Phantasien der Neuzeit-Vodoo-Rekonstruktionsfiltern heutiger Konsumercamcorder verschont.

Diese ganze Theorie kann mal wieder niemand in der Praxis mit eigenen Augen nachempfinden. Also warum über Dinge streiten, bei denen es nur um das letzte Promille Qualität geht?

Darüber kann man sich im Physikforum austauschen, wo Leute anwesend sind, die sich dafür interessieren.

Space


Antwort von Jott:

Entspannt, der Porsche - verglichen mit den über 100.000 Dollar für eine drehfähige RED Weapon Vista Vision, die plötzlich alle sabbernd brauchen (hat einer auf reduser so ausgerechnet). Da drunter ja gar nichts mehr geht und sich jeder non-Weapon-User fortan marketing-geschuldet als Loser vorkommen muss, ist die Abwendung von diesen Dingen durchaus weise.

Space


Antwort von dienstag_01:

Darüber kann man sich im Physikforum austauschen, wo Leute anwesend sind, die sich dafür interessieren. Keine Sorge, die gibt es hier ;)

Space


Antwort von iasi:

Eure Sorgen möchte ich haben Jungs.

Keiner von uns hier in diesem Forum, wird durch eine BM/RED/SONY/ALEXA, durch irgendeine Optik, durch irgendeine Auflösung von HD aufwärts oder sonstwas in seinem filmischen Schaffen in irgendeiner Form ausgebremst.

Alle Kameras, alle Optiken und alle Auflösungen sind gut genug für alles.

Wir sind wieder da wo wir vor Jahren mit 16/35mm Film schon mal waren, der limitirende Faktor ist wieder der Mensch, nicht mehr die Maschine. ja - aber es ist eben doch sinnvoll immer auch zu bedenken, dass je nach Objektiv und Blende die Schärfe zu den Rändern hin ziemlich abnehmen kann.
Das kann dann in der Praxis bei einem Schnitt von Nah auf Over-Sholder durchaus so wirken, als hätte der Focus nicht richtig gesessen - und sobald so etwas auffällt und sich dem Zuschauer ins Bewußtsein drängt, ist"s mit der filmischen Magie dahin und der Zuschauer aus der Handlung gerissen - im schlimmsten Fall.

Space


Antwort von iasi:

sich einen Effekt herauszugreifen und alles darauf herunterbrechen zu wollen Ursachen sind nun mal manchmal banale Effekte. Objektivhersteller haben mit unterschiedlichen Effekten zu kämpfen und können diesen durchaus begegnen Und warum arbeitest Du dann immer noch mit der "Förderlichen" ?
Ich dache, die Hersteller könnten all diesen Problemen begegnen.
Wobei "begegnen" vielleicht stimmt, nur abstellen können sie sie wohl nicht. wobei jede Maßnahme zu Wechseleffekten führt Dann sag doch mal, was damit genau gemeint ist.
Was passiert Deiner Meinung nach -als Wechselwirkung-, wenn man den Schärfebereich an das Effektresultat anpasst ? eben ein komplexes System, das ausbalanciert wird. Wer balanciert denn nun was aus ? Da fällt nicht einfach nur Licht durch ein paar Gläser Ach, sag bloss !
Das überrascht uns wahrscheinlich alle. die Objektivköche haben da mittlerweile sehr raffinierte Rezepte entwickelt und versuchen ständig neue Zutaten. Sag mal, kommst Du Dir nicht selbst albern vor, wenn Du sowas schreibst ?
...Oder sowas:... Das ist dann ganz so wie mit den Sensoren - auch wenn das Bayer-Prinzip gleich sein mag, rühren die Bäcker eben doch ständig feinere Backmischungen an... Aber das, scheint ja Dein Favorit zu sein:
... was es ermöglicht, eben doch noch mehr herauszukitzeln, als früher. Wer die Möglichkeit nicht nutzt, ein besseres Roll off zu erhalten, nur weil er puristisch an einer reinen Raw-Vorstellung festhält, der veschenkt letztlich eben viel. ... ich denke, Du hast es nicht wirklich verstanden, sonst wäre dieser Satz anders ausgefallen.
Oder du willst nicht verstehen, sonst wären hier viel deiner Sätze anders ausgefallen.

Es gibt eben nicht nur eine banale Ursache.

Wenn du an der einen Seite etwas verstellst, dann verändert sich eben auch etwas an der anderen Seite.
Und nochmal: Du kannst deine gundsätzlichen Formeln nicht einfach auf komplexe System anwenden.
Das Material, die Beschichtungen, ... all das verändert deine Grundlagenanordnung ...

Du willst immer gern die Feinheiten wegschieben und dir dein einfaches "banales" Modell zimmern - dadurch entfernst du dich aber nun mal von der Realität, wie diese Diskussion mal wieder zeigt.
Deine Theorie zur Offenblende deckt sich nun einmal nicht mit dem, was Objektive leisten. Und wenn du als Konsequenz daraus immer Offenblende benutzt, erhältst du nun einmal in der Praxis Resultate, die suboptimal sind.

Space


Antwort von iasi:

Entspannt, der Porsche - verglichen mit den über 100.000 Dollar für eine drehfähige RED Weapon Vista Vision, die plötzlich alle sabbernd brauchen (hat einer auf reduser so ausgerechnet). Da drunter ja gar nichts mehr geht und sich jeder non-Weapon-User fortan marketing-geschuldet als Loser vorkommen muss, ist die Abwendung von diesen Dingen durchaus weise. Tja - Red hebt eben nun endgültig ab.

Wobei eine RED Weapon Vista Vision nicht einem der "einfachen" Porsche-Modelle entspricht - das wäre dann schon ein ...

Insgesamt dreht Red schon immer recht beständig an der Preisschraube - wenn der MX ausläuft, dann ist der Einstieg bei Red gleich mal eine Stange teurer.
Aber man misst sich schließlich mit Arri & Co - und die sind auch nicht zimperlich, wenn"s um die Preisgestaltung geht.
Auch Canon verlangt ja nun mehr für seine C300 II.

Eigentlich wäre Sony mit einer aufgebohrten A7s (RAW-Ausgabe) fast schon in Vista Vision-Größen ... auch wenn"s für die Oberliga noch nicht reichen würde.

Space


Antwort von WoWu:

Iasis

Ich glaube, Du lebst in Sprechblasen und bist entlastet von jeglichem Sachverstand.
Aber wnigstens hast Du das Küchenvokabular hinter Dir gelassen.
Sprechblase Nr.1 Wenn du an der einen Seite etwas verstellst, dann verändert sich eben auch etwas an der anderen Seite. Von wlcher Seite sprichst Du ? Links oder Rechts ... und was ver'ndert sich Rechts, wenn ich links -ja was eigentlich- verändere.
Nichts Konkretes, wi auch ... also Sprechblase, wie üblich.
Sag mal, machst Du mit sowas eigentlich Eindruck im RED Forum ?
Sind das genau solche Pfeiffen, dass die das nicht merken ?

Sprechblase 2 Du kannst deine gundsätzlichen Formeln nicht einfach auf komplexe System anwenden. Komplexe Systeme basieren auf solchen Grundsätzlichkeiten.
Aber ich hatte vergessen, dass für Dich ja auch keine optischen Gesetze gelten.
Aber bisher fehlt mir noch Deine Falsifizierung.

Sprechlase Nr. 3 Das Material, die Beschichtungen, ... all das verändert deine Grundlagenanordnung Nicht die Anwendung verändert die Formel sondern die Formel das Ergebnis.

Sprechblase Nr. 4 Du willst immer gern die Feinheiten wegschieben Ganz im Gegenteil, Du kannst nur Feinheiten nicht erkennen, weil Du keinen Bezug dazu hast. Nur "Grobes" kann ich bei Dir auch nicht erkennen.
Ausser Sorüchen habe ich noch nie etwas sachbezogenes von dir gehört.
Korrigier mich, wenn ich in den 8 Jahren in Posting übersehen haben sollte.

Sprechblase Nr. 5 und dir dein einfaches "banales" Modell zimmern s ist ja schade, das Du selbst solchen "banalen" Dingen nicht folgen kannst oder sie evt;. mit etwas weniger Banalem anreichern kannst.
Steht Dir doch frei, das Niveau zu heben.
Deine Theorie zur Offenblende deckt sich nun einmal nicht mit dem, was Objektive leisten. Auf dieser falschen Theorie baut ein Industriestandard auf BTA S- 1005-A) , nach dem alle besseren Hersteller ihre Gläser für HDTV bauen.

Lesen bildet also.
Und wenn du als Konsequenz daraus immer Offenblende benutzt Falsch ... ich bin nur nicht so dämlich und höre -bei Bedarf- bei der "Förderlichen auf und verschenke 50-75% Licht, wenn ich durch eine Kameraumstellung bessere Ergebnisse erreichen kann.
Ich glaube, Sachverhalte zu lesen und sie zu verstehen sind bei Dir nicht ein und derselbe Vorgang.


@Domain Man gönnt sich ja sonst nix als Letztanschaffung Das mit der Letztanschaffung ist aber jetzt auch locker übertrieben.
Fahr ihn erst mal zu Schrott und dann sehen wir weiter, was dann dran ist.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sehenswert: Webvideo, Kino, TV und Film Tips-Forum

Antworten zu ähnlichen Fragen //


Dynamic Shootout - ARRI ALEXA Mini LF vs. Sony VENICE 2 mit 8K
David gegen Goliath - Canon C70 gegen ARRI Alexa LF im Dynamic Shootout
Dynamic Range Video Vergleich Lumix S1 Fuji X-T3
Dialogue Levels and Dynamic Range (Netflix)
Panasonic Unveils 35MP Organic Super35 CMOS Sensor with Global Shutter and Great Dynamic Range
Panasonic G9II im Praxistest: Phasen-Hybrid AF, Dynamic Range Boost, V-LOG - die heimliche GH7?
iPhone 15 Pro Dynamic Range, Rolling Shutter and Exposure Latitude
DJI Osmo Action 5 Pro Sensortest -Dynamic Range und Rolling Shutter
Blackmagic URSA Cine 12K LF Sensortest - Dynamic Range und Rolling Shutter
Watch Artificial Intelligence Lose Its Mind While Watching Bob Ross
ALEXA 65 vs. ALEXA MINI
ARRI ALEXA 35 in der Praxis: 17 Stops Dynamikumfang, Reveal Colorscience, ARRI RAW, 120 fps uvm.
ARRI SUP 7.0 Update Beta - ALEXA Mini LF jetzt auch mit vielen S35-Optionen
ARRI ALEXA Mini LF -- SUP 7.1 Beta bringt anamorphotisches 2.8K LF 1:1 - 2.8K Format
ARRI ALEXA Mini LF - Sensor-Qualität, Debayering und Rolling Shutter
Produktionsstopp für die ARRI Alexa Mini
ARRI Alexa Mini LF SUP 7.2 bringt kleinere Verbesserungen
Jetzt eine Arri Alexa mini kaufen?




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash