Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Off-Topic-Forum

Infoseite // Kinefinity: Neue Firmware KineOS 7.1 bringt MAVO Edge Kameras neuen ProRes4444-Effizienzmodus und SDI-Funktionen



Newsmeldung von slashCAM:



Kinefinity hat offiziell die Firmware KineOS 7.1 für seine MAVO Edge Vollformat-Kinokameras veröffentlicht hier unser Test der Kinefinity MAVO Edge 6K: ProRes statt com...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Kinefinity: Neue Firmware KineOS 7.1 bringt MAVO Edge Kameras neuen ProRes4444-Effizienzmodus und SDI-Funktionen


Space


Antwort von -paleface-:

Schade das Kinefinity irgendwie gefühlt weg vom Markt ist.

Z-Cam hat da mehr Gas gegeben.

Space


Antwort von Darth Schneider:

Wie genau meinst du das ?
Aus meiner Sicht spielen die Kinefinty sogar in einer etwas höheren (professionelleren) Liga als die ZCams…;))
Oder ?
Gruss Boris

Space


Antwort von iasi:

FF 7.2K 3:2 (7168×4760) / 50fps / 12bit

Beeindruckend.

Anamorph hat die Edge dann wohl die Nase leicht vorn.

Space


Antwort von iasi:

-paleface- hat geschrieben:
Schade das Kinefinity irgendwie gefühlt weg vom Markt ist.

Z-Cam hat da mehr Gas gegeben.
Z-Cam spielt in einer niedrigeren Liga.

Im Heimatland dürfte Kinefinity zudem wohl bekannter und verbreiteter sein.

Space


Antwort von Frank Glencairn:

-paleface- hat geschrieben:
Schade das Kinefinity irgendwie gefühlt weg vom Markt ist.
Was heißt weg? Du kannst doch jederzeit eine kaufen.

Space


Antwort von -paleface-:

Ich sehe die Kameras nirgends.

Z-Cams dagegen schon öfters.

Kinefinity scheint man auch nur bei einem Händler in Deutschland zu bekommen. Z-Cam dagegen bei mehreren.

Space


Antwort von roki100:

Der Preis spielt sicherlich eine Rolle. Ich meine, der eingebaute Sensor in Mavo LF (6K), scheint der gleiche zu sein, wie der Sensor, der auch in Sigma FP, S1H/S5 etc. verbaut ist. Den Preis mit Würfelgehäuse/Design, Anschlüsse, 6K up to 75fps etc. lässt sich das damit wirklich rechtfertigen?

Die Z-Cam Community ist größer und einige davon liefern mit der Z-Cam interessante professionelle Ergebnisse, die mit ne teuere Mavo nicht anders/schlechter oder besser wären. Es werden mehr Interessen damit geweckt, statt mit überteuerte Gehäusedesign, mehr Anschlüsse usw.

Space


Antwort von Darth Schneider:

Das ist doch einfach eine kleinere Firma und sie verkaufen ihre Produkte denke ich fast ausschliesslich über kleinere Profi Ausstatter/Vermieter (noch) nicht über Gross/Consumer Händler, so wie Z-Cam.

P.S.:
Hier, ein Klick und Gefunden, geliefert in ein paar Wochen…

https://shop.visuals.ch/de/zu/1042303-k ... -edge.html
https://shop.visuals.ch/de/cinema/10423 ... -pack.html

Und Äm,,,
https://shop.visuals.ch/de/cinema/10170 ... -pack.html

Die haben 14 Stops DR, kommen auch mit internen, motorisierten NDs und weiss Gott was alles…
Eine viel höhere Liga als die Z-Cams, sind die definitiv !….;)))

Ich würde wetten das auf den Dingern so einiges gedreht wird, ich wüsste nicht warum nicht…
Gruss Boris

Space



Space


Antwort von roki100:

iasi hat geschrieben:
Im Heimatland dürfte Kinefinity zudem wohl bekannter und verbreiteter sein.
Ja, wird hier so verbreitet. Ist das aber wirklich der Fall?
Als Chinese würde ich mich auch fragen, warum ca. $17.000 für Mavo LF (mit Zubehör bereit für den dreh), wo doch ne Z-Cam F6 (mit dem selben Sensor) + EF- und PL-Mount dazu + eND-Modul + 8Sinn Cage + NinjaV (ProResRAW) oder VideoAssist (BRAW) usw. um die $6000 kostet (2x F6-Sets ist man immer noch günstiger als eine Mavo).

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Im Heimatland dürfte Kinefinity zudem wohl bekannter und verbreiteter sein.
Ja, wird hier so verbreitet. Ist das aber wirklich der Fall?
Als Chinese würde ich mich auch fragen, warum ca. $17.000 für Mavo LF (mit Zubehör bereit für den dreh), wo doch ne Z-Cam F6 (mit dem selben Sensor) + EF- und PL-Mount dazu + eND-Modul + 8Sinn Cage + NinjaV (ProResRAW) oder VideoAssist (BRAW) usw. um die $6000 kostet (2x F6-Sets ist man immer noch günstiger als eine Mavo).
Weil die Z-Cam intern bei weitem nicht das liefert, was die Edge offeriert.

12bit 8k HFR - davon können Z-Cam-Nutzer auch mit allen erdenklichen Anbauten nur träumen.

12-bit Apple ProRes RAW at up to 6Kp30 via HDMI reicht nicht an eine Edge heran - auch nicht im Doppelpack.

Space


Antwort von roki100:

iasi hat geschrieben:
12bit 8k HFR - davon können Z-Cam-Nutzer auch mit allen erdenklichen Anbauten nur träumen.
Ich meinte nicht 8K, sondern 6K. Und wenn ich richtig gesehen habe, 75fps bei Mavo, im vergleich zu 6144x3240 @48fps max (DCI 6K)
und 6144x2592 @60fps max (DCI 6K 2.4:1)) bei Z-Cam. Und DAS rechtfertig mM. auch nicht den überteuerten Preis für Mavo.
8K ist noch teuerer bzw. überteuerter... die ist irgendwo bei $20.000 drehfertig, die Alternative wäre hier die Z9 mit 8K 60P usw. Für das Geld bekommt Du quasi 3x Z9 mit TicoRAW und ProResRAW intern.
12-bit Apple ProRes RAW at up to 6Kp30 via HDMI reicht nicht an eine Edge heran - auch nicht im Doppelpack. Hätte ich keine Probleme mit darauf zu verzichten und 4K60P zu nutzen und das Geld stattdessen in sinnvolleres zu investieren vll. noch zweite F6 und zusätzlich sowohl ProResRAW und BRAW (NinjaV und Video Assist).... ohne zu zucken würde ich die 2K mehr und paar FPS mehr problemlos ausblenden können - auch als Profi ;)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
12bit 8k HFR - davon können Z-Cam-Nutzer auch mit allen erdenklichen Anbauten nur träumen.
Ich meinte nicht 8K, sondern 6K. Und wenn ich richtig gesehen habe, 75fps bei Mavo, im vergleich zu 6144x3240 @48fps max (DCI 6K)
und 6144x2592 @60fps max (DCI 6K 2.4:1)) bei Z-Cam. Und DAS rechtfertig mM. auch nicht den überteuerten Preis für Mavo.
8K ist noch teuerer bzw. überteuerter...
12bit bekommt man bei Z-Cam mit maximal 6k/30fps via HDMI.

Da sind die FF 8K DCI 8192x4320/2~55fps intern eben eine ganz andere Nummer und Leistungsklasse.
Mit der einen Kamera bekommt man 6k/30p und mit der anderen Kamera 8k HFR.

Nicht anders bei der Edge 6k:
FF 6K OG 3:2 6016×3984, 0.2~48fps für Anamorph und
FF 6K 17:9 6016×3172, 0.2~60fps

Und:
Uncompressed RAW dng 12bits
RAW resolution frame rate will be updated in subsequent firmware versions of MAVO Edge 6K


Was zählt, ist in welchem Format das Material der Kamera dann in der Post vorliegt.

Z-Cam bietet hier DSLM-Niveau - und nicht einmal mehr das, seit es R5, R5C und Z9 gibt.

Space


Antwort von roki100:

Die größere Community sagt doch mehr als tausend Worte. ;) Dabei sind nicht nur YouTuber, Foren user & Co. sondern auch Profis.

Space


Antwort von iasi:

roki100 hat geschrieben:
Die größere Community sagt doch mehr als tausend Worte. ;) Dabei sind nicht nur YouTuber, Foren user & Co. sondern auch Profis.
Das sagt schon mal gar nichts.

Ich wähle doch ein Werkzeug nicht anhand der Anzahl derer, die darüber reden.

Mit einer Z-Cam kann man keine HFR-Produktion machen, bei der auch die Postproduktion genutzt werden soll.

Intern bekommt man nicht mehr als 10bit und extern gehen via HDMI nur 30fps in 12bit.
So schaut´s aus, mit all den Z-Cams.
Daher sind sie auch billiger zu haben.

Space


Antwort von roki100:

iasi hat geschrieben:
Mit einer Z-Cam kann man keine HFR-Produktion machen, bei der auch die Postproduktion genutzt werden soll.
Allein schon damit gab es bestimmt mehr Produktionen mit Z-Cam's als mit Mavo's...

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Mit einer Z-Cam kann man keine HFR-Produktion machen, bei der auch die Postproduktion genutzt werden soll.
Allein schon damit gab es bestimmt mehr Produktionen mit Z-Cam's als mit Mavo's...
Du bekommst nur 10bit-Material aus einer Z-Cam bei HFR.

Ganz egal, wieviele Produktionen mit einer Z-Cam gedreht wurden.

Externes ProRes-Raw via HDMI ist wiederum eher eine Krücke und wird schon seit langem auch von Panasonic geboten.

Was eine Edge eben auch noch bietet:
dual SSD slot
Internal e-ND filter
dual SDI ports
etc.

Space


Antwort von roki100:

Externes ProRes-Raw via HDMI ist wiederum eher eine Krücke und wird schon seit langem auch von Panasonic geboten. Von wegen Krücke. ;) Atomos, Panasonic (wie auch BMD mit Kameras und int. sowie ext. RAW/VideoAssist) ist doch ein gutes Beispiel dafür, dass Qualität&professionell auch günstiger geht. Auch zB. die S1H wurde sicherlich mehr professionell weltweit eingesetzt, als sonst was von Mavo - die angeblich viel mehr in China Lieblinge findet...
iasi hat geschrieben:
Du bekommst nur 10bit-Material aus einer Z-Cam bei HFR.
10Bit ist doch auch für die Postproduktion und nicht für die Wiedergabe....Wer mM. mit 10Bit (mit "nur" 1,07 Milliarden Farben) nichts anfangen kann, der kann genau soviel auch mit 12Bit anfangen.
dual SSD slot
Internal e-ND filter
dual SDI ports
Es gibt auch für Z-Cam e-ND filter und SDI auch.... Aber auch ohne das; findest Du nicht, dass der Preis für eND, dual SSD slot, dual SDI Ports etwas übertrieben ist? Andere finden das schon, sonst wäre die Kamera beliebter als wie es aktuell ist. Da schaut man vll. hin, findet das Gehäusedesign toll, denkt sich wow, alles durchdacht usw. und das wars. Kaufen tun es (wie es aussieht) wenige und die, die professionell dabei sind bzw. Kamera mieten um filme zu machen, die werden sich sowieso höchstwahrscheinlich eher für die ARRI usw. entscheiden. Und wer kauft, um nicht mehr mieten zu müssen, da gibt es gute Alternativen, die Konkurrenz ist groß und fairer mit den Preise.

SlashCAM Fazit:
Die Kinefinity MAVO Edge 6K bietet in der "nackten" Bildqualität keine Vorteile gegenüber den meisten, vielfach günstigeren Konkurrenten, denn Rolling Shutter und Dynamik sind mittlerweile eher als durchschnittlich einzustufen. Echte Vorteile können dagegen die spezielle, kompakte Form des Bodys sowie der integrierte eVari-ND-Filter darstellen. Ob man die eingesetzten Speichermedien mit USB-C Ausgang als praktisch eingestuft, hängt dagegen stark vom eigenen Workflow ab. Wie mit jeder Kinefinity Kamera zuvor haben wir auch wieder einige Bugs erlebt, die wahrscheinlich irgendwann ausgebügelt sein werden...

Space



Space


Antwort von Darth Schneider:

Die Kinefinitys können doch aber echt viel mehr als die Z-Cams und machen auch einen viel professionelleren Eindruck.
Jeder der das nicht auf den ersten Blick sofort bemerkt braucht definitiv eine Brille…;)))

Der einzige Grund warum womöglich mehr die Z-Cams gekauft werden ist doch nur darum weil sie billiger sind…
Das macht die Z-Cams aber noch lange nicht besser…

Apropos:



Ich denke die Kameras werden wahrscheinlich von vielen Leuten unterschätzt.
Die Zielgruppe ist doch ganz klar die Red Kundschaft…;)

Gruss Boris

Space


Antwort von iasi:

roki100 hat geschrieben:
Externes ProRes-Raw via HDMI ist wiederum eher eine Krücke und wird schon seit langem auch von Panasonic geboten. Von wegen Krücke. ;) Atomos, Panasonic (wie auch BMD mit Kameras und int. sowie ext. RAW/VideoAssist) ist doch ein gutes Beispiel dafür, dass Qualität&professionell auch günstiger geht. Auch zB. die S1H wurde sicherlich mehr professionell weltweit eingesetzt, als sonst was von Mavo - die angeblich viel mehr in China Lieblinge findet...
iasi hat geschrieben:
Du bekommst nur 10bit-Material aus einer Z-Cam bei HFR.
10Bit ist doch auch für die Postproduktion und nicht für die Wiedergabe....Wer mM. mit 10Bit (mit "nur" 1,07 Milliarden Farben) nichts anfangen kann, der kann genau soviel auch mit 12Bit anfangen.
Ein externer Rekorder, der per HDMI verbunden wird, ist eine Krücke.

12bit bietet mehr Gestaltungsspielraum in der Post.

30fps sind eklatant weniger als HFR.

Die Edge bietet 12bit auch Open Gate, was anamorphe Produktionen erst wirklich sinnvoll macht.

Das sind zentrale Unterschiede.

Die Edge 6k soll zudem bald das bieten, was man bisher nur von Arri bekommt: unkomprimiertes Raw.
Und dann spielt sie wirklich in der Arri-Red-Klasse mit.

Die Z-Cams konkurrieren mit all den Kameras, die erst durch einen Ninja V Raw aufzeichnen können.

Space


Antwort von Darth Schneider:

…also konkurrieren die Z-Cams mit den aktuellen Consumer/Prosumer dslms….;)
Gruss Boris

Space


Antwort von Jott:

" KineOS 7.1 bringt auch den ProRes4444-Effizienzmodus, welcher bei gleichbleibend hohem Dynamikumfang und visueller Bildqualität die Komprimierung des Videos um 50% erhöhen soll"

Was soll das denn sein? Fake-ProRes? Von Apple kommt so was meines Wissens jedenfalls nicht. Rezept für Probleme?

Space


Antwort von iasi:

Jott hat geschrieben:
„ KineOS 7.1 bringt auch den ProRes4444-Effizienzmodus, welcher bei gleichbleibend hohem Dynamikumfang und visueller Bildqualität die Komprimierung des Videos um 50% erhöhen soll“

Was soll das denn sein? Fake-ProRes? Von Apple kommt so was meines Wissens jedenfalls nicht. Rezept für Probleme?
ProRes4444 HE ist eben so stark komprimiert, dass die Datenraten denen von ProRes 422 HQ nahe kommen.
Höhere Rechenleistung erlaubt effizientere Komprimierung, daher bietet sich dies durchaus an, denn Rechenleistung hat man heute eigentlich genügend.
Apple rührt sich seit ProRes-Raw ja nicht mehr - von denen kommt eher nichts.

Space


Antwort von roki100:

iasi hat geschrieben:
Die Edge 6k soll zudem bald das bieten, was man bisher nur von Arri bekommt: unkomprimiertes Raw.
Und dann spielt sie wirklich in der Arri-Red-Klasse mit.
SlashCAM
Allerdings fand sich bei unserem Modell in der Beta-Firmware eine Option für "uncompressed RAW". Hier sind die Datenraten jedoch astronomisch und nur in den seltensten Anwendungsfällen praktikabel. Ein kurzer Test dieses Formats scheiterte bei uns zudem an einer stark verzerrten Vorschau-Darstellung.

Mavo Edge in der Arri-Red-Klasse auf Chinesisch - schaut man sich das genauer an, kann die nicht mehr als günstigere Konkurrenz (wie auch im SlashCAM Fazit zu lesen ist), außer mehr FPS...
Die Edge bietet 12bit auch Open Gate, was anamorphe Produktionen erst wirklich sinnvoll macht. die Z-Cam doch auch
Die Z-Cams konkurrieren mit all den Kameras, die erst durch einen Ninja V Raw aufzeichnen können. Bildschirm muss sowieso oben drauf, ob nun bei Edge nur als Bildschirm, oder bei Z-Cam als Bildschirm + Recorder (man hat die Wahl, entweder ProRes RAW, was damals auch bei Mavo dabei war und später entfernt wurde, oder BRAW mit Video Assist). Ansonsten geht auch ZRAW intern (lässt sich in unkomprimiertes cDNG Umwandeln, wie auch ProResRAW).

Die Vorstellung, dass nur die Kameras in Profi Liga spielen, weil sie würfelförmig sind (was Z-Cams auch sind), weil sie mehr Anschlüsse bieten (doppelt statt jeweils ein Anschluss wie bei Z-Cam), weil ein Bildschirm oben drauf geschraubt werden kann jedoch nur nicht als Recorder usw. usf. ist doch Banane. ;)
Vor allem ist Banane, wenn Mavo für proprietäre Medien KineMAG $1000 verlangt in denen handelsübliche Samsung SSDs drin stecken. Die Samsung SSD für ca.100€ lässt sich ein paar Zentimeter weiter oben in den NinjaV stecken und in RAW aufnehmen.

Space


Antwort von Darth Schneider:

Ich denke in dieser Preisklasse spielt der Verkaufspreis keine Rolle mehr.;)
Die Kunden mieten das Zeugs doch meist eh, von der Kamera, über das ganze Zubehör mit Gläsern, bis hin zu den (Aufnahme) Speichermedien…
Zuverlässig muss es sein.
Gruss Boris

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Die Edge 6k soll zudem bald das bieten, was man bisher nur von Arri bekommt: unkomprimiertes Raw.
Und dann spielt sie wirklich in der Arri-Red-Klasse mit.
SlashCAM
Allerdings fand sich bei unserem Modell in der Beta-Firmware eine Option für "uncompressed RAW". Hier sind die Datenraten jedoch astronomisch und nur in den seltensten Anwendungsfällen praktikabel. Ein kurzer Test dieses Formats scheiterte bei uns zudem an einer stark verzerrten Vorschau-Darstellung.

Mavo Edge in der Arri-Red-Klasse auf Chinesisch - schaut man sich das genauer an, kann die nicht mehr als günstigere Konkurrenz (wie auch im SlashCAM Fazit zu lesen ist), außer mehr FPS...
Unkomprimiertes Raw vom vollen Sensor ist ein besonderes Merkmal der Arri-Alexas.
Die Edge 6k wird dies dann sogar in höherer Auflösung als Arri bieten.
roki100 hat geschrieben:
Die Edge bietet 12bit auch Open Gate, was anamorphe Produktionen erst wirklich sinnvoll macht. die Z-Cam doch auch
Ein knappes Nein.
roki100 hat geschrieben:
Die Z-Cams konkurrieren mit all den Kameras, die erst durch einen Ninja V Raw aufzeichnen können. Bildschirm muss sowieso oben drauf, ob nun bei Edge nur als Bildschirm, oder bei Z-Cam als Bildschirm + Recorder (man hat die Wahl, entweder ProRes RAW, was damals auch bei Mavo dabei war und später entfernt wurde, oder BRAW mit Video Assist). Ansonsten geht auch ZRAW intern (lässt sich in unkomprimiertes cDNG Umwandeln, wie auch ProResRAW).

Die Vorstellung, dass nur die Kameras in Profi Liga spielen, weil sie würfelförmig sind (was Z-Cams auch sind), weil sie mehr Anschlüsse bieten (doppelt statt jeweils ein Anschluss wie bei Z-Cam), weil ein Bildschirm oben drauf geschraubt werden kann jedoch nur nicht als Recorder usw. usf. ist doch Banane. ;)
Vor allem ist Banane, wenn Mavo für proprietäre Medien KineMAG $1000 verlangt in denen handelsübliche Samsung SSDs drin stecken. Die Samsung SSD für ca.100€ lässt sich ein paar Zentimeter weiter oben in den NinjaV stecken und in RAW aufnehmen.
Es geht eben gerade nicht, um die Bauform und all die Anbaumöglichkeiten, sondern darum, was die Kamera letztlich an Material liefert.

Z Cam gibt jedenfalls dies hier an:
ZRAW* / H.265 main 10 profile / H.264 high profile**
* up to 4K @30fps

Canon schreibt z.B. bei der R5C:
12 Bit Cinema RAW Light LT
8.192 x 4.320 / 50p


Nicht mal mit einem externen Rekorder kommen die ZCams da auch nur annähernd heran.

Es gibt nun einmal Leute, denen ist das Format, in dem die Aufnahmen letztlich vorliegen, wichtiger, als ein paar gesparte Euros.
Was man von einer Z-Cam bekommt, ist nun mal nicht überzeugend, wenn man mehr möchte, als 10bit.

Übrigens kannst du auch einen
KineMAG Nano Body
für
$199.00
kaufen, wenn du selbst eine M.2 SSD kaufen und nutzen möchtest.

Space


Antwort von Jott:

iasi hat geschrieben:
ProRes4444 HE ist eben so stark komprimiert, dass die Datenraten denen von ProRes 422 HQ nahe kommen.

Ah, Iasi-Expertise. ProRes ist in allen Varianten exakt definiert, deswegen Industriestandard. Es gibt kein "ProRes 4444 HE". Deswegen die zarte Nachfrage, was das sein soll. Eine Kinefinity-Erfindung? Viel Spaß damit, aber diese Kameras finden den Weg hierher sowieso nur in homöopathischen Dosen, also was soll's ...

Space



Space


Antwort von markusG:

Jott hat geschrieben:
Es gibt kein "ProRes 4444 HE". Deswegen die zarte Nachfrage, was das sein soll. Eine Kinefinity-Erfindung? Viel Spaß damit
As stated by Kinefinity: “Without influencing the high dynamic range and visual information fidelity, 4444 efficiency mode can increase the compression ratio by 50%, significantly saving the space of SSD”. It must be noted that the 4444 efficiency mode (HE) is in Beta trial version. Kinefinity adds that when shooting ProRes 4444 HE, the data rate is optimized to 50% of standard ProRes 4444 with marginal compromising on the quality of the image, and it also supports ProRes 4444 editing and color grading system. “This makes the new codec more efficient than ProRes 422 HQ but with better image quality” Kinefinity stated. This is not the first time that the ‘HE’ mode of ProRes is implemented. The HE version of ProRes 444 was released in the Nov. 2021 firmware as well. However, now it targets the 4444 flavor. Ich geh mal davon aus, dass mit dem (von mir) gehighlighteten Satz die Aussage getroffen wurde, dass das ganze keine Kompatibilitätsprobleme verursachen soll.

Space


Antwort von Jott:

Ist mir egal, da ich never ever von denen eine Kamera kaufen oder nutzen würde.
"ProRes HE" ist nichts von Apple, da schraubt Kinefinity also selber dran rum. Für Mutige.

Space


Antwort von markusG:


Ist mir egal, da ich never ever von denen eine Kamera kaufen oder nutzen würde. und doch scheint dich das Thema zu interessieren – also einfach abwarten und auf die Erfahrungen der
Für Mutige. warten :)

Space


Antwort von Jott:

Jeder wie er mag. Verstehe nicht so recht, was an diesen RED-Kopien von Interesse sein soll.

"und doch scheint dich das Thema zu interessieren"

Ich bin nur über das nicht existierende "ProRes HE" gestolpert. Die Finger damit verbrennen dürfen sich gerne andere. Was tut man nicht alles, nur um Speicher zu sparen! :-)
Mein Tipp: das bleibt so lange "Beta", bis Apple ihnen den Stecker zieht.

Space


Antwort von iasi:

Jott hat geschrieben:
iasi hat geschrieben:
ProRes4444 HE ist eben so stark komprimiert, dass die Datenraten denen von ProRes 422 HQ nahe kommen.

Ah, Iasi-Expertise. ProRes ist in allen Varianten exakt definiert, deswegen Industriestandard. Es gibt kein "ProRes 4444 HE". Deswegen die zarte Nachfrage, was das sein soll. Eine Kinefinity-Erfindung? Viel Spaß damit, aber diese Kameras finden den Weg hierher sowieso nur in homöopathischen Dosen, also was soll's ...
Eine kurze Internetsuche hätte dir diese vielen Sätze erspart. ;)

Aber ich bin ja gerne behilflich:
https://ymcinema.com/2022/10/03/kinefin ... s-4444-he/

Space


Antwort von iasi:

Jott hat geschrieben:
Jeder wie er mag. Verstehe nicht so recht, was an diesen RED-Kopien von Interesse sein soll.

"und doch scheint dich das Thema zu interessieren"

Ich bin nur über das nicht existierende "ProRes HE" gestolpert. Die Finger damit verbrennen dürfen sich gerne andere. Was tut man nicht alles, nur um Speicher zu sparen! :-)
Mein Tipp: das bleibt so lange "Beta", bis Apple ihnen den Stecker zieht.
So etwas nennt man auch technische Weiterentwicklung.
Bei Kompressionsalgorithmen spielt nun einmal auch der Rechenaufwand eine Rolle. Hat man mehr Rechenpower zur Verfügung kann man auch komplexere Algorithmen nutzen.

Der olle ProRes 4444-Codec ist nun einmal nicht sehr effizient komprimiert und eine fette Kuh.
12bit (ProRes 4444 HE) mit geringerer Datenrate als 10bit (ProRes HQ) nimmt man nun einmal gern.

Was hingegen niemand so recht mag:
Ein Raw-Format, das zunächst mit einem Hacker-Tool in unkomprimierte DNGs umgewandet werden muss und zudem nicht mal die volle Sensorauflösung bzw. hohe Frameraten bietet.
So etwas ist heute schlicht überflüssig, denn es gibt reichlich Alternativen.

Space


Antwort von pillepalle:

iasi hat geschrieben:
Der olle ProRes 4444-Codec ist nun einmal nicht sehr effizient komprimiert und eine fette Kuh.
Diese Hobbyfilmermentalität... :)

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Der olle ProRes 4444-Codec ist nun einmal nicht sehr effizient komprimiert und eine fette Kuh.
Diese Hobbyfilmermentalität... :)

VG
So denkt natürlich jemand, der noch nie mit den Datenmengen von ProRes 4444 oder Raw zu tun hatte. ;)

Nur mal als Gedankenhilfe:
Nicht mal bei einer 5:1 Komprimierung erreicht RedRaw die Datenraten von ProRes 4444 bei gleicher Auflösung und Framerate.

Space


Antwort von iasi:

Jott hat geschrieben:
Jeder wie er mag. Verstehe nicht so recht, was an diesen RED-Kopien von Interesse sein soll.

"und doch scheint dich das Thema zu interessieren"

Ich bin nur über das nicht existierende "ProRes HE" gestolpert. Die Finger damit verbrennen dürfen sich gerne andere. Was tut man nicht alles, nur um Speicher zu sparen! :-)
Mein Tipp: das bleibt so lange "Beta", bis Apple ihnen den Stecker zieht.
Interessant wäre z.B. der volle Sensorreadout im 3:2-Format für anamorphe Aufnahmen, die Red nicht bietet.

Ein ProRes 4444 HE-Codec, der aufgrund niedrigerer Datenraten höhere Auflösungen und Frameraten erlaubt, ist ein Vorteil.
Apple muss das wiederum sowieso nicht jucken.

Space



Space


Antwort von pillepalle:

@ iasi

Es hat doch niemand von unkomprimierten RAW geredet. Es ging um ProRes 4444. So fett und uneffizient das er immer noch zu einem der beliebtesten Codecs bei Spielfilm-Produktionen gehört. Jedenfalls sind Speicherplatz und Speichermedienpreise Dinge die da eher weniger wichtig sind. Bewährte Codecs die überall problemlos laufen schon eher. Auch eine Alexa produziert riesen Datenmengen und sie ist trotzdem die beliebteste Kamera. Es spricht auch nichts gegen ProRes 4444 HE, wenn es sich in der Praxis bewährt. Aber das muss es eben erst noch.

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
@ iasi

Es hat doch niemand von unkomprimierten RAW geredet. Es ging um ProRes 4444. So fett und uneffizient das er immer noch zu einem der beliebtesten Codecs bei Spielfilm-Produktionen gehört. Jedenfalls sind Speicherplatz und Speichermedienpreise Dinge die da eher weniger wichtig sind. Bewährte Codecs die überall problemlos laufen schon eher. Auch eine Alexa produziert riesen Datenmengen und sie ist trotzdem die beliebteste Kamera. Es spricht auch nichts gegen ProRes 4444 HE, wenn es sich in der Praxis bewährt. Aber das muss es eben erst noch.

VG
Dann sag ich"s nochmal:
Eine Alexa hat auch deshalb eine vergleichweise niedrigere Auflösung, da die unkomprimiertes Raw wegschreibt.

ProRes4444 erzeugt größere Datenraten, als all die komprimierten Raw-Formate - dies beschränkt daher auch die möglichen Auflösung und Frameraten.

ProRes war auch nie als Aufnahmeformat konzipiert worden, sondern ursprünglich für den Videoschnitt in der Postproduktion (intermediate format).

Für Kinefinity ist ProRes 4444 HE natürlich auch eher eine Notlösung, da komprimiertes Raw nicht genutzt werden darf.
Aber immerhin bietet Kinefinity einen 12bit-Codec und eben nicht nur 10bit.

Nvidia-Karten unterstützen z.B. auch 12bit-HEVC und doch speisen Z-Cam, Panasonic, Sony etc. mit 10bit-Codecs ab. Für mich ist dies die "Videoklasse", denn die Postmöglichkeiten sind dadurch limitiert.
12bit-Kameras sind hingegen für mich Cine-Klasse-Kameras.
12bit via HDMI ist eine Krücke im Sinne einer Notlösung.

Für eine 8-Bit-Wiedergabe kommt man von 10bit.
Für 10bit-Kinoqualität sollte man von 12bit kommen.

Space


Antwort von pillepalle:

iasi hat geschrieben:
12bit via HDMI ist eine Krücke im Sinne einer Notlösung.
Wegen der berüchtigten Video-Kobolde die heimlich das HDMI Kabel herausziehen? Oder weil alle anderen Komponenten der aufgeriggten Cine-Kamera nie an Kabeln hängen? Stimmt, der Follow-Focus ist ja auch nur eine Notlösung der ganz altmodischen DoPs :)

VG

Space


Antwort von Jott:

„ Apple muss das wiederum sowieso nicht jucken.“

Und wie die so was jucken wird. Apple ist Lizenzgeber und hat massiv den Daumen drauf. Eben weil ProRes Industriestandard ist.

Das Marketing von Kinefinity funktioniert ganz gut: nahezu wortgleicher Pressetext in allen Kanälen, man ist wieder im Gespräch. Halbierte Datenrate! Speicher sparen! Yippieh! Ich frag mich schon, wer die Zielgruppe sein soll. Speicher ist doch kein Thema im Cine-Bereich, den leiht man für ein paar Euro. Da setzt doch niemand auf eine inoffizielle ProRes-Modifikation aus China.

Deinen (und „Jarreds“) Aufschrei möchte ich hören, würde ein Hersteller auf eigene Faust dein geliebtes Redraw modifizieren und damit werben! :-)

Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
12bit via HDMI ist eine Krücke im Sinne einer Notlösung.
Wegen der berüchtigten Video-Kobolde die heimlich das HDMI Kabel herausziehen? Oder weil alle anderen Komponenten der aufgeriggten Cine-Kamera nie an Kabeln hängen? Stimmt, der Follow-Focus ist ja auch nur eine Notlösung der ganz altmodischen DoPs :)

VG
Nein - natürlich ist ein HDMI-Kabel für den Kameraeinsatz konstruiert und konzipiert worden.
Es ist auch integraler Teil des gesamten Kamerakonzepts, dass über das HDMI-Kabel die Sensordaten an einen Monitor mit Aufnahmefunktionen geschickt wird.
Nur Firmen wie Arri sind so dumm und entwickeln eigene Lösungen jenseits von HDMI.

Warum aber gelingt es einer doch recht billigen P6k 6k-12bit-Raw mit 50fps aufzuzeichnen, während die tolle HDMI-Lösung mehr als knapp 6k mit 30fps nicht packt?
Ist da etwa ein Limit erreicht?

Space


Antwort von iasi:

Jott hat geschrieben:
" Apple muss das wiederum sowieso nicht jucken."

Und wie die so was jucken wird. Apple ist Lizenzgeber und hat massiv den Daumen drauf. Eben weil ProRes Industriestandard ist.

Das Marketing von Kinefinity funktioniert ganz gut: nahezu wortgleicher Pressetext in allen Kanälen, man ist wieder im Gespräch. Halbierte Datenrate! Speicher sparen! Yippieh! Ich frag mich schon, wer die Zielgruppe sein soll. Speicher ist doch kein Thema im Cine-Bereich, den leiht man für ein paar Euro. Da setzt doch niemand auf eine inoffizielle ProRes-Modifikation aus China.

Deinen (und "Jarreds") Aufschrei möchte ich hören, würde ein Hersteller auf eigene Faust dein geliebtes Redraw modifizieren und damit werben! :-)
Eine weitere Implementierung von ProRes wurde 2011 im Open-Source-Projekt libavcodec realisiert.

Und du hast wohl noch nie mit ProRes 4444 zu tun gehabt, denn sonst würdest du wohl eher nicht so über die Datenraten reden.
Es geht ja nicht nur um die Datenmengen, die entstehen, sondern um hohe Auflösungen bei hohen Frameraten, die auf einem Speicher landen sollen.

Bei 8192 × 4320 mit 50fps müssen 9437 Mbits/s bei ProRes 4444 und 14156 Mbits/s bei ProRes 4444 XQ weggeschrieben werden.

Kinefinity merkt dann eben bei den technischen Specs der Edge 8k auch an:
Limited to the Storage Media or storage interface speed; not all resolutions and frame rates support ProRes4444 and 4444XQ.

Es geht also nicht ums Geld.

Space


Antwort von pillepalle:

iasi hat geschrieben:
Warum aber gelingt es einer doch recht billigen P6k 6k-12bit-Raw mit 50fps aufzuzeichnen, während die tolle HDMI-Lösung mehr als knapp 6k mit 30fps nicht packt?
Ist da etwa ein Limit erreicht?
Das Limit liegt jedenfalls nicht am Kabel ;) Und für viele ist eine Notlösung besser als gar keine Lösung. Ja, wir sind uns beide einig das Arri das bei ihren Kameras viel besser gelöst hat. Und trotzdem nutzen wir beide keine...

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Warum aber gelingt es einer doch recht billigen P6k 6k-12bit-Raw mit 50fps aufzuzeichnen, während die tolle HDMI-Lösung mehr als knapp 6k mit 30fps nicht packt?
Ist da etwa ein Limit erreicht?
Das Limit liegt jedenfalls nicht am Kabel ;) Und für viele ist eine Notlösung besser als gar keine Lösung. Ja, wir sind uns beide einig das Arri das bei ihren Kameras viel besser gelöst hat. Und trotzdem nutzen wir beide keine...

VG
Es gibt doch alternative Lösungen:
Interne 12bit-Aufzeichnung.
Und dafür braucht es ja nicht mal eine Arri.

Wie schon gesagt:
Grafikkarten unterstützen 12bit-HEVC - warum bieten Z-Cam, Panasonic, Sony etc. nicht wenigstens ein solches internes Aufzeichnungsformat?
Immer nur die Schwarze-Peter-Karte "Red-Patent" zu zeigen, zieht schon lange nicht mehr.

"Cine" im Namen oder der Beschreibung zu führen, aber dann nur intern 10bit zu bieten, ist nicht mehr angemessen.

Space


Antwort von pillepalle:

iasi hat geschrieben:
Es gibt doch alternative Lösungen:
Interne 12bit-Aufzeichnung.
Und dafür braucht es ja nicht mal eine Arri.
Ja, aber noch relativ wenige, die dafür andere Pferdefüße haben. Nicht jeder kapriziert sich beim Kamerakauf auf bestimmte Codec-Optionen. Und viele kommen eben auch mit 10 Bit zu guten Ergebnissen. Du siehst alles immer nur durch die iasi-Brille bei der die Specs auf dem Papier über allem stehen. In der Praxis sind aber oft andere Dinge wichtiger.

VG

Space



Space


Antwort von Jott:

„ Und du hast wohl noch nie mit ProRes 4444 zu tun gehabt“

Eher fast täglich, wegen des Alphakanals. Sprich besser mit dir selber.

Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Es gibt doch alternative Lösungen:
Interne 12bit-Aufzeichnung.
Und dafür braucht es ja nicht mal eine Arri.
Ja, aber noch relativ wenige, die dafür andere Pferdefüße haben. Nicht jeder kapriziert sich beim Kamerakauf auf bestimmte Codec-Optionen. Und viele kommen eben auch mit 10 Bit zu guten Ergebnissen. Du siehst alles immer nur durch die iasi-Brille bei der die Specs auf dem Papier über allem stehen. In der Praxis sind aber oft andere Dinge wichtiger.

VG
Ich sehe den Unterschied, der doch eigentlich gar nicht zu übersehen ist.

Es geht auch nicht um Specs, sondern um das, was am Ende auf der Speicherkarte landet.
Willst du denn heute noch mit 8bit 420 in FHD drehen?

Meine Iasi-Brille zeigt mir recht deutlich, was man beim aktuellen Stand der Technik heute erwarten kann.
Hersteller, die von "Cinema" reden, müssen aus meiner Sicht heute 12bit intern bieten.

Video ist dann all das, was nicht auf Cinema abzielt.

Kinefinity zielt auf die 10bit-Kinoproduktion ab.
Z-Cam eher nicht.

Nicht jeder Inhalt verlangt nach bestmöglicher Aufnahmequalität, aber wenn eine Aufnahme auch noch einige Jahre überdauern soll, darf es beim Aufnahmeformat keine Kompromisse geben.

Space


Antwort von iasi:

Jott hat geschrieben:
„ Und du hast wohl noch nie mit ProRes 4444 zu tun gehabt“

Eher fast täglich, wegen des Alphakanals. Sprich besser mit dir selber.
Nein - ich spreche - anders als du - lieber über ProRes 4444 statt ständig über Leute.
Was du täglich tust, juckt mich nicht, weil es mich keinen Deut weiter bringt.

Was mich interessiert, ist das Potential, das in 12bit-Material steckt, und die Datenraten von ProRes 4444 XQ im Vergleich zu z.B. RedRaw.
Eine Red Monstro schreibt 8k/50p nur noch mit einer 10:1-Komprimierung weg.
Da geht mit ProRes 4444 XQ gar nichts mehr.

Space


Antwort von pillepalle:

iasi hat geschrieben:
Meine Iasi-Brille zeigt mir recht deutlich, was man beim aktuellen Stand der Technik heute erwarten kann.
Hersteller, die von "Cinema" reden, müssen aus meiner Sicht heute 12bit intern bieten.

Video ist dann all das, was nicht auf Cinema abzielt.
Ja, aber manche Videofilmchen auf Netflix sind auch gar nicht so schlecht ;) Aber die haben ja auch einen LKW voller Licht und müssen das Material gar nicht mehr so extrem verbiegen. Ganz andere Bedingungen als bei Dir.

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Meine Iasi-Brille zeigt mir recht deutlich, was man beim aktuellen Stand der Technik heute erwarten kann.
Hersteller, die von "Cinema" reden, müssen aus meiner Sicht heute 12bit intern bieten.

Video ist dann all das, was nicht auf Cinema abzielt.
Ja, aber manche Videofilmchen auf Netflix sind auch gar nicht so schlecht ;) Aber die haben ja auch einen LKW voller Licht und müssen das Material gar nicht mehr so extrem verbiegen. Ganz andere Bedingungen als bei Dir.

VG
Und selbst bei Netflix nutzen alle ein 12bit-Aufnahmeformat, das ihnen dann die vollen Postmöglichkeiten eröffnet.
Einen LKW voller Licht benötigen vor allem diejenigen, denen ein Transporter voller Licht nicht genügt. ;)

Space


Antwort von Darth Schneider:

Ja sind dann jetzt seit neustem 10 Bit besser als 12 Bit ?

12 Bit bietet einfach mehr Flexibilität zum bearbeiten, nicht zuletzt für Effekte, weil mehr Farben beziehungsweise mehr Bildinformationen vorhanden sind.
Dasselbe gilt für 4:4:4..
Das ist doch ein Fakt.

Nicht das 10 Bit nicht für sehr vieles sicher auch reicht,
aber wer die Auswahl hat…?
Dann kommt es natürlich darauf an was man macht…

Apropos Cinema.
Nehmen denn die grossen Cine Reds, Arris und Sony Venice und Co. nicht eh schon länger mit 12/16 Bit und auch mit 4:4:4 auf ?
Dafür wird es schon gute Gründe geben, die Kundschaft will und braucht das scheinbar..:)
Gruss Boris

Space


Antwort von Jott:

Blümchenfilmer auch. Die sind mit 10Bit am Arsch, muss man wissen.

Space


Antwort von Darth Schneider:

Die genau eben nicht, dafür genügt doch ganz sicher 8 Bit.
Ausser natürlich sie filmen die Blümchen vor einer Greenscreen…;)))
Gruss Boris

Space


Antwort von pillepalle:

Ja sind dann jetzt seit neustem 10 Bit besser als 12 Bit ? Darum ging's ja auch nicht. Es ging darum dass iasi eine neue Norm aufgestellt hat, wann die Hersteller ihre Kameras Cinema-Camera nennen dürfen. Also für sein Verständnis als Forist. Nämlich nur dann, wenn sie die 12 Bit Codecs auch intern können. Haben natürlich fast alle Hersteller bisher falsch gemacht. So dürfte auch die FX30 nicht zur Cinema Line gehören. Aber auch umgekehrt vermarkten andere Hersteller eine Z9 als Hybride Foto- und Videokamera, obwohl sie sie ja nach iasis Verständnis Cinema Kamera nennen könnten.

Deshalb bezog ich mich ja vorher auch darauf, dass es bei einer Kamera um mehr als nur um die Specs ginge. Aber was weiß ich schon...

VG

Space



Space


Antwort von Darth Schneider:

Das ist doch immer relativ.
Z.B.: Die Sony FS100 und die Canon C100 sind doch eigentlich auch Cine Kameras, und nehmen nicht mit 12 Bit, ja nicht mal mit 10 Bit auf.
Und machen trotzdem immer noch schöne Bilder…

Und natürlich geht es gar nicht nur um die Codec/Aufnahme Specs, sonst wären ja grundsätzlich alle 10/12 Bit fähigen Kameras Netflix zertifiziert, das sind sie genau aus diesem Grund aber eben nicht.
Da gibt es scheinbar noch mehr genau so wichtige Faktoren..;)
Gruss Boris

Space


Antwort von pillepalle:

@ Darth

Das war ja auch mein Einwand, aber das zählt alles nicht. So wie es für 'echtes' 4K mehr Ks braucht, braucht es für die Produktion immer 2 Bit Farbtiefe mehr als für die Delivery (nach iasi). Passt aber auch ins Bild. Nach iasi darf man dann mit 8 Bit gar nicht mehr filmen :)

VG

Space


Antwort von prime:

iasi hat geschrieben:
Eine weitere Implementierung von ProRes wurde 2011 im Open-Source-Projekt libavcodec realisiert.
Diese Implementation ist durch Reverse-Engineering entstanden, hält sich aber trotzdem so nah an die offiziellen Implementation wie möglich. Obwohl die ffmpeg-Entwickler alle Freiheit der Welt haben und bessere Kompression, geringere/höhere Bitrate usw. usf. machen könnten ist es so weit möglich ziemlich nah dran an "echten" ProRes. Kann man sich natürlich fragen warum?

Naja Kinefinity-Nutzer werden schon wissen was sie machen.

pillepalle hat geschrieben:
Nach iasi darf man dann mit 8 Bit gar nicht mehr filmen :)
Doch darf man, nur eben für 6 bit Notebookpanels ;-D

Space


Antwort von iasi:

pillepalle hat geschrieben:
Ja sind dann jetzt seit neustem 10 Bit besser als 12 Bit ?
Darum ging's ja auch nicht. Es ging darum dass iasi eine neue Norm aufgestellt hat, wann die Hersteller ihre Kameras Cinema-Camera nennen dürfen. Also für sein Verständnis als Forist. Nämlich nur dann, wenn sie die 12 Bit Codecs auch intern können. Haben natürlich fast alle Hersteller bisher falsch gemacht. So dürfte auch die FX30 nicht zur Cinema Line gehören. Aber auch umgekehrt vermarkten andere Hersteller eine Z9 als Hybride Foto- und Videokamera, obwohl sie sie ja nach iasis Verständnis Cinema Kamera nennen könnten.

Deshalb bezog ich mich ja vorher auch darauf, dass es bei einer Kamera um mehr als nur um die Specs ginge. Aber was weiß ich schon...

VG Kameras, die üblicherweise für Kinoproduktionen genutzt werden, bieten heute nun einmal zumindest 12bit.
Das ist die technische Entwicklung und hat seine Gründe in der Qualität und dem Gestaltungsspielraum.

Und richtig: Eine FX30 ist keine Cinema-Kamera.
Eine FX3 wird nur durch die HDMI-out-Krücke den heutigen Anforderungen gerecht.

Das ist wie einst 16mm vs. 35mm.

Space


Antwort von iasi:

prime hat geschrieben:
iasi hat geschrieben:
Eine weitere Implementierung von ProRes wurde 2011 im Open-Source-Projekt libavcodec realisiert.
Diese Implementation ist durch Reverse-Engineering entstanden, hält sich aber trotzdem so nah an die offiziellen Implementation wie möglich. Obwohl die ffmpeg-Entwickler alle Freiheit der Welt haben und bessere Kompression, geringere/höhere Bitrate usw. usf. machen könnten ist es so weit möglich ziemlich nah dran an "echten" ProRes. Kann man sich natürlich fragen warum?

Naja Kinefinity-Nutzer werden schon wissen was sie machen.
Die Antwort könnte wohl sein: Da die ffmpeg-Entwickler keine Kameras bauen.

Eine effizientere Komprimierung muss am "Grundgerüst" nichts ändern.

Red hat RedRaw schließlich auch weiterentwickelt.

Space


Antwort von pillepalle:

iasi hat geschrieben:
Kameras, die üblicherweise für Kinoproduktionen genutzt werden, bieten heute nun einmal zumindest 12bit.
Das ist die technische Entwicklung und hat seine Gründe in der Qualität und dem Gestaltungsspielraum.

Und richtig: Eine FX30 ist keine Cinema-Kamera.
Eine FX3 wird nur durch die HDMI-out-Krücke den heutigen Anforderungen gerecht.

Das ist wie einst 16mm vs. 35mm.
Und für die 70mm User war dann 35mm eine Krücke? Es gab schon immer unterschiedliche Formate und Auflösungen für unterschiedliche Zwecke. Das hat doch nichts mit Krücke zu tun. Es gibt bestimmte Mindestanforderungen die man erfüllen muss, aber man muss sie nicht immer überbieten. Das ist dann nur die Kür. Wer 10 Bit liefern muss, kann auch in 10 Bit Aufnehmen. Klappt wunderbar und merkt im Ergebnis niemand. Das man mit mehr Farbtiefe und Auflösung noch mehr Möglichkeiten hat, ist ja unbestritten. Aber vorauszusetzen das jeder diesen 'Spielraum' braucht, ist eine völlig willkürliche Festlegung von Dir.

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Kameras, die üblicherweise für Kinoproduktionen genutzt werden, bieten heute nun einmal zumindest 12bit.
Das ist die technische Entwicklung und hat seine Gründe in der Qualität und dem Gestaltungsspielraum.

Und richtig: Eine FX30 ist keine Cinema-Kamera.
Eine FX3 wird nur durch die HDMI-out-Krücke den heutigen Anforderungen gerecht.

Das ist wie einst 16mm vs. 35mm.
Und für die 70mm User war dann 35mm eine Krücke? Es gab schon immer unterschiedliche Formate und Auflösungen für unterschiedliche Zwecke. Das hat doch nichts mit Krücke zu tun. Es gibt bestimmte Mindestanforderungen die man erfüllen muss, aber man muss sie nicht immer überbieten. Das ist dann nur die Kür. Wer 10 Bit liefern muss, kann auch in 10 Bit Aufnehmen. Klappt wunderbar und merkt im Ergebnis niemand. Das man mit mehr Farbtiefe und Auflösung noch mehr Möglichkeiten hat, ist ja unbestritten. Aber vorauszusetzen das jeder diesen 'Spielraum' braucht, ist eine völlig willkürliche Festlegung von Dir.

VG
35mm-Negativ war für 35mm-Kinoproduktion das übliche Minimum.

Heute haben wir 12bit als das übliche Minimum für 10bit-Kinoproduktionen.

Jeder muss sich doch auch fragen, warum er nicht die höchstmögliche technische Qualität zur Aufnahme nutzt.
Würdest du denn heute noch in 1080p drehen?

Warum wohl hat Arri nun eine 4k-S35-Alexa herausgebracht?

Die Ergebnisse der Dreharbeiten liegen am Ende in Form eines "Digitalen Negativs" vor. Und dessen Format legt die höchstmögliche Qualität fest.
Den Unterschied zwischen 1080p/8bit und 8k/12bit kann man sehen.
Und auch der Unterschied zwischen 4k/10bit und 8k/12bit tritt in der Post zutage.

Welchen Grund sollte es denn geben, bei einer Kinoproduktion Abstriche bei der Qualität des Aufnahmeformates zu machen?

Space


Antwort von Jott:

iasi hat geschrieben:
Warum wohl hat Arri nun eine 4k-S35-Alexa herausgebracht?
Um Leute zu ärgern, denen 4K keinesfalls reichen, weil wegen De-Bayering und so ... Hollywood wird untergehen wegen dieser miesen Bildqualität. Da fehlt der Gestaltungsspielraum.

Space


Antwort von iasi:

Jott hat geschrieben:
iasi hat geschrieben:
Warum wohl hat Arri nun eine 4k-S35-Alexa herausgebracht?
Um Leute zu ärgern, denen 4K keinesfalls reichen, weil wegen De-Bayering und so ... Hollywood wird untergehen wegen dieser miesen Bildqualität. Da fehlt der Gestaltungsspielraum.
Da hast du wohl etwas nicht ganz mitbekommen.

Der Ruf nach einer S35-Alexa für 4k - die es zuvor nicht gab - wurde so laut, dass auch Arri ihn nicht überhören konnte.

Übrigens ist Arri der Gestaltungsspielraum sogar so wichtig, dass auf Komprimierung verzichtet und reines Raw gespeichert wird.
Nicht mal ProRes 4444 XQ ist den Produktionsfirmen heute genug, wenn sie zur Alexa greifen.

Aber manch einer hängt noch immer dem Glauben an, dass ein 10bit-Codec ausreichen würde, um für die große Leinwand zu drehen - und natürlich haben sie dabei dann auch immer Hollywood im Sinn.

Space



Space


Antwort von Jott:

iasi hat geschrieben:
Jott hat geschrieben:


Um Leute zu ärgern, denen 4K keinesfalls reichen, weil wegen De-Bayering und so ... Hollywood wird untergehen wegen dieser miesen Bildqualität. Da fehlt der Gestaltungsspielraum.
Da hast du wohl etwas nicht ganz mitbekommen.
Ich habe mitbekommen, dass du eine 4K-Kamera für eine 4K-Produktion nicht akzeptierst. Es muss schon 6K oder 8K sein, nicht wahr? Darum geht's doch oben und in vielen anderen Threads? Das ist doch ein Punkt, mit dem du belegst, dass es keine brauchbare Kamera für dich gibt? Oder hast du dich wieder umentschieden und bist aus dem Wolkenkuckucksheim ein Treppchen runtergestiegen in die Realität, wo 4K dann doch gut genug sind?

Space


Antwort von pillepalle:

@ iasi

Erklär mir doch mal bitte warum die 10 Bit der Produktion nicht für ein 10 Bit Delivery ausreichen sollten? Gilt da etwa auch das Nyquist-Shannon-Theorem? ;)

Und ganz unabhängig davon, dasss es aus technischer Sicht nicht nötig ist, spielen die Unterschiede bestenfalls auf entsprechenden Endgeräten eine Rolle. Denn 'Cinema' findet heutzutage nicht mehr nur auf der großen Kinoleinwand statt. Es gibt auch Streaming, das Netz und Nutzer mit ganz miesen Endgeräten ;) Die beste Qualität ist die für den Zweck passende, nicht immer die höchstmögliche.

VG

Space


Antwort von iasi:

Jott hat geschrieben:
iasi hat geschrieben:


Da hast du wohl etwas nicht ganz mitbekommen.
Ich habe mitbekommen, dass du eine 4K-Kamera für eine 4K-Produktion nicht akzeptierst. Es muss schon 6K oder 8K sein, nicht wahr? Darum geht's doch oben und in vielen anderen Threads? Das ist doch ein Punkt, mit dem du belegst, dass es keine brauchbare Kamera für dich gibt? Oder hast du dich wieder umentschieden und bist aus dem Wolkenkuckucksheim ein Treppchen runtergestiegen in die Realität, wo 4K dann doch gut genug sind?
Üblicherweise sollte ein Bayer-Sensor zumindest 20-25% mehr Auflösung als das Endformat bieten.
Die Alexa S35 bietet 4,6k-Auflösung.
Ideal ist für 4k-Endformat eine 8k-Bayer-Auflösung.

Wobei Arri eben doch auch ziemlich intensiv gefeilt und u.a. den ARRI Debayer Algorithm ADA-7 entwickelt hat. Und dann ist da noch das 3:2 Open Gate, das Liebhaber von Anamorphoten natürlich Freudensprünge machen lässt.

Space


Antwort von iasi:

pillepalle hat geschrieben:
@ iasi

Erklär mir doch mal bitte warum die 10 Bit der Produktion nicht für ein 10 Bit Delivery ausreichen sollten? Gilt da etwa auch das Nyquist-Shannon-Theorem? ;)

Und ganz unabhängig davon, dasss es aus technischer Sicht nicht nötig ist, spielen die Unterschiede bestenfalls auf entsprechenden Endgeräten eine Rolle. Denn 'Cinema' findet heutzutage nicht mehr nur auf der großen Kinoleinwand statt. Es gibt auch Streaming, das Netz und Nutzer mit ganz miesen Endgeräten ;) Die beste Qualität ist die für den Zweck passende, nicht immer die höchstmögliche.

VG
Erklär du mir doch mal, weshalb bei einer Kinoproduktion in 10bit aufgezeichnet werden soll?
Warum sollte man sich heute noch beim Festhalten all des Produktionsaufwands auf 10bit beschränken?
Ich will nun gar nicht weiter auf die Vorteile von 12bit gegenüber 10bit eingehen, die nun einmal bestehen.
Welchen Grund soll es geben, diese Vorteile ungenutzt zu lassen - und zwar für alle Zeit, denn man kann aus 12bit jederzeit 10bit bekommen, aber 10bit lassen sich nicht vermehrern.
Ein 16mm-Positiv bekommst du von einem 35mm-Negativ ohne Einschränkungen - ein 35mm-Positiv von einem 16mm-Negativ ist jedoch nicht ideal.

Space


Antwort von pillepalle:

@ iasi

Es geht nicht um besser. Du sagst aber es bräuchte 12 Bit um 10 Bit zu liefern und das stimmt einfach nicht. Für Dich ist eine 10 Bit Kamera keine Cinecam, weil Du meinst 12 Bit zu brauchen ;)

iasi hat geschrieben:
Und dann ist da noch das 3:2 Open Gate, das Liebhaber von Anamorphoten natürlich Freudensprünge machen lässt.
Es gibt übrigens eine ganz interessante Antwort zu dem Thema im Arri Forum, warum 3:2 und nicht 4:3.
The ALEXA 35 sensor has a 3:2 aspect ratio, just like the sensors of almost all our other digital cameras. Yes, it is true, the ALEXA Classic, XT, SXT, Mini, LF, Mini LF and AMIRA all have a 3:2 aspect ratio sensor; the only exception is the ALEXA 65 with its 2.1:1 aspect ratio sensor.

Why 3:2? Because it is a very good compromise between a very wide sensor, which you would want for shooting with spherical lenses for a 2.39:1 deliverable, and a very tall sensor, which you would want for shooting with 2x anamorphic lenses for a 2.39:1 deliverable. Those are the two most extreme shooting formats for sensor width and height.

So what is 4:3? 4:3 is a left over term from the film days, defined originally in 1917 by the SMPE (before they had the "T" in their name) as the aspect ratio of the film negative's Silent Aperture. Later, this would also be called Super 35. In 1932, the AMPAS defined the smaller Academy Aperture, which also has a 4:3 aspect ratio, known afterwards as Academy Regular 35. When the first ALEXA became available with a sensor taller than 16:9, we marketed it as a "Cinematic 4:3" sensor, even though it really had a 3:2 aspect ratio, in order to differentiate it from the 16:9 competition. But, really, there is nothing 4:3 about it, nor is there any modern deliverable that requires 4:3.

So what sensor area do you need for 2x anamorphic lenses, if not 4:3? For anamorphic 2x lenses you need a 6:5 aspect ratio area on the sensor. The target deliverable aspect ratio for 2x anamorphic lenses is 2.39:1 (don't get me started with that 2.35:1 stuff; it has been 2.39:1 since 1970!). Since a 2x anamorphic lens will squeeze the 2.39:1 image by half, you end up needing a 1.195:1 area on the sensor. For simplicity's sake, we rounded that up to 1.2:1, which is the same as 6:5, to stay with full integers.

6:5 Modes in ALEXA 35:
ProRes 3.3K: 3328x2790
ARRIRAW 3.3K 3328x2790
ProRes 4K 2.39:1 Ana 2x: 3328x2790 -- de-squeezed to --> 4096x1716

Space


Antwort von prime:

iasi hat geschrieben:
Die Antwort könnte wohl sein: Da die ffmpeg-Entwickler keine Kameras bauen.
Ich glaube eher, auch den ffmpeg-Entwicklern ist klar: ein ProRes-Derivat das nur in ffmpeg komplett rund läuft ist komplett überflüssig. Gut möglich das die Kinefinity Entwickler Kompatibiliät wahren mit ihrer selbstgebauter Variante, aber wie bereits geschrieben - muss jeder selbst wissen ob er sowas nutzen will.
Red hat RedRaw schließlich auch weiterentwickelt. Ist für RED auch nicht wirklich schwierig, da sie die einzigen sind die den passenden Decoder bzw. SDK zur Decodierung liefern. Die müssen auf keine Kompatibilität von "Dritt-Implementationen" achten. Auch wenn es RED immer nur RedRAW nennt, muss es nicht wirklich großartig identisch sein bei jeden Update (s. Umstieg von Wavelet auf DCT). Solange man im NLE und anderer Software keinen Unterschied bemerkt, und dafür sorgt ja der passende Decoder. Also ob sie nun die Daten auf diese oder jene Art und Weise speichern, weiß nur RED und auch nur RED liefert den Decoder. Verhält sich alles wie eine Blackbox mehr oder weniger. Gleiches Spiel mit BRAW.

Anders ist es bei bereits etablierten und festgelegten Spezifikationen die nicht nur von einem einzigen Hersteller implementiert werden. Da kann schonmal was gänzlich unerwartetes rauskommen, weil der eine einen falschen Decoder oder der andere einen falschen Encoder gebaut hat.
Übrigens ist Arri der Gestaltungsspielraum sogar so wichtig, dass auf Komprimierung verzichtet und reines Raw gespeichert wird. Ich glaube wenn Arri ohne zusätzliche Kosten (Lizenzierung von RED-Patenten) RAW (verlustfrei) komprimieren könnten, würden sie das auch tun. Sie machen daraus marketing-technisch nur das Beste: wir sind die einzigen die unkomprimiert speichern!!! Wenn sie nicht dazu gezwungen wären, würden sie es auch nicht tun.

Space


Antwort von iasi:

pillepalle hat geschrieben:
@ iasi

Es geht nicht um besser. Du sagst aber es bräuchte 12 Bit um 10 Bit zu liefern und das stimmt einfach nicht. Für Dich ist eine 10 Bit Kamera keine Cinecam, weil Du meinst 12 Bit zu brauchen ;)
Um die heutigen Post-Möglichkeiten voll nutzen zu können, braucht es 12bit.
Es gibt keinen Grund mehr für die Einschränkung auf 10bit.

Heute haben bieten Kinokameras 12bit.

Von einer neuen Kamera, die der Hersteller als Cinema-Kamera tituliert, erwarte ich daher die 12bit.

Die Kameraaufnahmen liegen in ihrer "Negativ"-Form entweder als 12bit oder 10bit vor.
Warum willst du dich auf die 10bit beschränken?
Und denke auch mal perspektivisch in die Zukunft.

Diese Aufnahmen stellen einen Wert dar.
pillepalle hat geschrieben:
iasi hat geschrieben:
Und dann ist da noch das 3:2 Open Gate, das Liebhaber von Anamorphoten natürlich Freudensprünge machen lässt.
Es gibt übrigens eine ganz interessante Antwort zu dem Thema im Arri Forum, warum 3:2 und nicht 4:3.
The ALEXA 35 sensor has a 3:2 aspect ratio, just like the sensors of almost all our other digital cameras. Yes, it is true, the ALEXA Classic, XT, SXT, Mini, LF, Mini LF and AMIRA all have a 3:2 aspect ratio sensor; the only exception is the ALEXA 65 with its 2.1:1 aspect ratio sensor.

Why 3:2? Because it is a very good compromise between a very wide sensor, which you would want for shooting with spherical lenses for a 2.39:1 deliverable, and a very tall sensor, which you would want for shooting with 2x anamorphic lenses for a 2.39:1 deliverable. Those are the two most extreme shooting formats for sensor width and height.

So what is 4:3? 4:3 is a left over term from the film days, defined originally in 1917 by the SMPE (before they had the “T” in their name) as the aspect ratio of the film negative's Silent Aperture. Later, this would also be called Super 35. In 1932, the AMPAS defined the smaller Academy Aperture, which also has a 4:3 aspect ratio, known afterwards as Academy Regular 35. When the first ALEXA became available with a sensor taller than 16:9, we marketed it as a “Cinematic 4:3” sensor, even though it really had a 3:2 aspect ratio, in order to differentiate it from the 16:9 competition. But, really, there is nothing 4:3 about it, nor is there any modern deliverable that requires 4:3.

So what sensor area do you need for 2x anamorphic lenses, if not 4:3? For anamorphic 2x lenses you need a 6:5 aspect ratio area on the sensor. The target deliverable aspect ratio for 2x anamorphic lenses is 2.39:1 (don't get me started with that 2.35:1 stuff; it has been 2.39:1 since 1970!). Since a 2x anamorphic lens will squeeze the 2.39:1 image by half, you end up needing a 1.195:1 area on the sensor. For simplicity's sake, we rounded that up to 1.2:1, which is the same as 6:5, to stay with full integers.

6:5 Modes in ALEXA 35:
ProRes 3.3K: 3328x2790
ARRIRAW 3.3K 3328x2790
ProRes 4K 2.39:1 Ana 2x: 3328x2790 -- de-squeezed to --> 4096x1716
Nur mal Dune:
Aspect Ratio
1.43 : 1 (IMAX Laser: some scenes)
1.90 : 1 (Digital IMAX: some scenes)
2.39 : 1

Dieses Dogma 2x anamorphic lenses is 2.39:1 galt doch noch nie.

Joker wurde z.T. mit Alexa 65 gedreht, ist aber dennoch im Format
1.85 : 1

Es gibt ja auch andere als nur die 2x-Linsen - 1,33x, 1,8x ...

Space


Antwort von roki100:

iasi hat geschrieben:
Um die heutigen Post-Möglichkeiten voll nutzen zu können, braucht es 12bit.
10Bit ist doch nur für Post. Ich verstehe wirklich nicht, wie Du darauf kommt, dass 10Bit für die Wiedergabe dabei ist.

Space


Antwort von pillepalle:

roki100 hat geschrieben:
10Bit ist doch nur für Post. Ich verstehe wirklich nicht, wie Du darauf kommt, dass 10Bit für die Wiedergabe dabei ist.
Im Kino wird schon in 10 Bit projeziert und auch gute Monitore unterstützen heutzutage 10 Bit, ist bei HDR, glaube ich, sogar gefordert.

VG

Space



Space


Antwort von roki100:

Das ja. Was ich meinte ist, dass die 10Bit bei den Kameras dabei ist, um die heutigen Post-Möglichkeiten/Colorgrading nutzen zu können... Mit 8Bit kommt man da nicht weit, und mit 10Bit kommt auch Netflix weiter bzw. zertifizieren auch 10Bit Kameras.

Space


Antwort von pillepalle:

@ roki

Ja, aber bei Netflix sitzen ja auch nur Luschen ;) Der iasi-Standart ist nochmal eine Liga darüber.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
@ roki

Ja, aber bei Netflix sitzen ja auch nur Luschen ;) Der iasi-Standart ist nochmal eine Liga darüber.

VG
Hmmm...stimmt!

Space


Antwort von andieymi:

pillepalle hat geschrieben:
roki100 hat geschrieben:
10Bit ist doch nur für Post. Ich verstehe wirklich nicht, wie Du darauf kommt, dass 10Bit für die Wiedergabe dabei ist.
Im Kino wird schon in 10 Bit projeziert und auch gute Monitore unterstützen heutzutage 10 Bit, ist bei HDR, glaube ich, sogar gefordert.

VG
Sogar in 12. Und abgesehen davon ist bei HDR 10-Bit Ausstrahlung gefordert.

Also ich weiß nicht, wer sagt dass Ausstrahlung immer 8-Bit sein muss, die Gegenbeispiele sind vielfältig.

Space


Antwort von pillepalle:

andieymi hat geschrieben:
pillepalle hat geschrieben:


Im Kino wird schon in 10 Bit projeziert und auch gute Monitore unterstützen heutzutage 10 Bit, ist bei HDR, glaube ich, sogar gefordert.

VG
Sogar in 12.
Mist. Dann reichen die 12 Bit der Kamera ja gar nicht 🙃

VG

Space


Antwort von iasi:

pillepalle hat geschrieben:
@ roki

Ja, aber bei Netflix sitzen ja auch nur Luschen ;) Der iasi-Standart ist nochmal eine Liga darüber.

VG
Genau - die drehen ihre teuren Eigenproduktionen auch nur in 12bit, weil die Luschen einfach nicht kappieren, was pillepalle und roki verkünden. :)

Space


Antwort von iasi:

pillepalle hat geschrieben:
andieymi hat geschrieben:


Sogar in 12.
Mist. Dann reichen die 12 Bit der Kamera ja gar nicht 🙃

VG
Hui - und vor allem zählt ja einzig der heutige Standard.
Kinofilme sind schließlich Wegwerfprodukte, was die Studios mit ihren ständigen Veröffentlichungen ihrer alten Schinken einfach nicht einsehen wollen.

Vielleicht liegt das auch an den Finanzheinis, die den Studios immer erklären, dass das alte Zeug ihr Kapital darstellt, das dann die Budgets für neue Produktionen absichert und somit erst ermöglicht.

Tja - und die Netflix-Luschen denken wirklich, ihre Eigenproduktionen die sie heute drehen, seien auch in 10 Jahren noch brauchbar und etwas wert.
Vor bald 10 Jahren dachten die Luschen schon, sie müssten House of Cards mit Red-Kameras in Raw drehen.
Warum nur hatten Pillepalle und Roki ihnen damals nicht erklärt, wie überflüssig das war. :)

Space


Antwort von pillepalle:

iasi hat geschrieben:
Hui - und vor allem zählt ja einzig der heutige Standard.
Kinofilme sind schließlich Wegwerfprodukte, was die Studios mit ihren ständigen Veröffentlichungen ihrer alten Schinken einfach nicht einsehen wollen.
Deshalb wirst Du ja auch nie etwas drehen, weil Du dafür immer die Technik von morgen brauchst. Da nehme ich lieber die Technik von gestern und fange schon mal ;)

VG

Space


Antwort von poki1000:

pillepalle hat geschrieben:
iasi hat geschrieben:
Hui - und vor allem zählt ja einzig der heutige Standard.
Kinofilme sind schließlich Wegwerfprodukte, was die Studios mit ihren ständigen Veröffentlichungen ihrer alten Schinken einfach nicht einsehen wollen.
Deshalb wirst Du ja auch nie etwas drehen, weil Du dafür immer die Technik von morgen brauchst. Da nehme ich lieber die Technik von gestern und fange schon mal ;)

VG
"contemporary" darf die Technik schon sein...;-)

Space



Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Hui - und vor allem zählt ja einzig der heutige Standard.
Kinofilme sind schließlich Wegwerfprodukte, was die Studios mit ihren ständigen Veröffentlichungen ihrer alten Schinken einfach nicht einsehen wollen.
Deshalb wirst Du ja auch nie etwas drehen, weil Du dafür immer die Technik von morgen brauchst. Da nehme ich lieber die Technik von gestern und fange schon mal ;)

VG
Die Technik gibt es - wie schon oft gesagt - längst: 12bit.
12bit 8k HFR schaffen mittlerweile sogar schon viele Kameras.

Space


Antwort von roki100:

iasi hat geschrieben:
12bit 8k HFR schaffen mittlerweile sogar schon viele Kameras.

Mavo 8K zB. produziert(laut manche Berichte) viel Rauschen... Deswegen bevorzugen manche Mavo Lieblinge die Mavo 6K, weil das Bild sauberer ist (bessere ISO Leistung), sind schneller mit guten Ergebnisse usw.

Mit den heutigen 8K-Kameras hat man doch mehr Nachteile als irgendwelche visuelle Vorteile. Die Canon R5 zB. wird zum Bügeleisen...
NeatVideo auf 8K unkomprimiertes cDNG? Allein die Wiedergabe ist ne Krücke - ein paar Minuten 8K-Material 12Bit für Sci-Fi VFX etc. (VFX scheint deine Tätigkeit zu sein?) mit deinem PC zu bearbeiten und raus zu rendern dauert Stunden, Tage.... Lieber weniger K, dafür sauber, schneller, etc. Oder nicht?

Space


Antwort von Jott:

iasi hat geschrieben:
12bit 8k HFR schaffen mittlerweile sogar schon viele Kameras.
Und nur die blöde neue Arri dümpelt bei 4K (Entschuldigung: 4,6K) rum. Dabei schaffen mittlerweile sogar schon viele Kameras 12Bit 8K HFR! Sagt das Specs-Quartett. Alles, was in den nächsten Jahren mit der neuen Arri gedreht wird, sind nach Iasi-Maßstäben folglich Wegwerfprodukte. Alles, was vorher mühevoll mit den alten Alexas gedreht wurde, sowieso. Wenn die Studios das nur wüssten, die Armen.


„Nicht mal ProRes 4444 XQ ist den Produktionsfirmen heute genug, wenn sie zur Alexa greifen.“

So, so. Was du so alles weißt! :-)

Space


Antwort von iasi:

Jott hat geschrieben:
iasi hat geschrieben:
12bit 8k HFR schaffen mittlerweile sogar schon viele Kameras.
Und nur die blöde neue Arri dümpelt bei 4K (Entschuldigung: 4,6K) rum. Dabei schaffen mittlerweile sogar schon viele Kameras 12Bit 8K HFR! Sagt das Specs-Quartett. Alles, was in den nächsten Jahren mit der neuen Arri gedreht wird, sind nach Iasi-Maßstäben folglich Wegwerfprodukte. Alles, was vorher mühevoll mit den alten Alexas gedreht wurde, sowieso. Wenn die Studios das nur wüssten, die Armen.


„Nicht mal ProRes 4444 XQ ist den Produktionsfirmen heute genug, wenn sie zur Alexa greifen.“

So, so. Was du so alles weißt! :-)
Das kannst du auch wissen, wenn du z.B. bei IMDB mal nach den technischen Daten von aktuellen Filmen suchst.
Da sagen sich die Filmemacher eben auch:
Warum soll ich für meine Produktion mit der Alexa ProRes nutzen, wenn ich die Bilder in unkomprimiertem Raw festhalten und verewigen kann?

Andererseits hielt die BBC einst nicht viel von der Langlebigkeit von Monty Python’s Flying Circus: Die Bänder sollten gelöscht werden.
Hat unser Jott etwa bei seinen Drehs die gleiche Einstellung wie die BBC damals?

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
12bit 8k HFR schaffen mittlerweile sogar schon viele Kameras.

Mavo 8K zB. produziert(laut manche Berichte) viel Rauschen... Deswegen bevorzugen manche Mavo Lieblinge die Mavo 6K, weil das Bild sauberer ist (bessere ISO Leistung), sind schneller mit guten Ergebnisse usw.

Mit den heutigen 8K-Kameras hat man doch mehr Nachteile als irgendwelche visuelle Vorteile. Die Canon R5 zB. wird zum Bügeleisen...
NeatVideo auf 8K unkomprimiertes cDNG? Allein die Wiedergabe ist ne Krücke - ein paar Minuten 8K-Material 12Bit für Sci-Fi VFX etc. (VFX scheint deine Tätigkeit zu sein?) mit deinem PC zu bearbeiten und raus zu rendern dauert Stunden, Tage.... Lieber weniger K, dafür sauber, schneller, etc. Oder nicht?
Red bietet 8k - schon seit einiger Zeit.
Die Canon R5C wird nicht mehr heiß.
Nikon Z9 ...
Ursa 12k ...
...

Weil dein PC etwas schlapp ist, zeichnest du etwa nur in FHD auf?

Space


Antwort von Jott:

Auf Alexas wird überwiegend ProRes gedreht, raw-Option hin oder her. Arri und all die Erwachsenen da draußen wissen schon, was sie tun. Die drehen und produzieren ja im Gegensatz zu dir, Iasi.

Arri (die von Anfang an ihre Kameras rund um ProRes konzipiert hatten) sagt dazu:

“Recording clips in Apple ProRes 4444 XQ can preserve the full sensor quantization in logarithmic encoding, with the same range of colors available in ARRIRAW. Images recorded in a 4:4:4 codec are almost indistinguishable from uncompressed HD or UHD material.”

Wenn sich also eine faule Sau den raw-Workflow sparen, seine Karte in ein Macbook stopfen und gleich losschneiden will, dann hat die faule Sau ihren Spaß damit. Auch Netflix zum Beispiel weiß um den Typ faule Sau, selbstverständlich akzeptieren sie auch Alexa-ProRes. Ganz unabhängig davon was du, Iasi, davon hältst. Die Predigten aus deiner Theoriewelt haben nichts mit der Praxis zu tun.

Aber Arri ist sowieso nichts für dich. Du suchst ja nach 8K/12Bit/HFR ... drunter geht nix.

Space


Antwort von markusG:

iasi hat geschrieben:
Kinofilme sind schließlich Wegwerfprodukte, was die Studios mit ihren ständigen Veröffentlichungen ihrer alten Schinken einfach nicht einsehen wollen.
Welche Filme werden denn von den Studios nochmal nach der initialen Auswertung erneut in die Kinos gebracht? Kenne das nur von einzelnen Kinos aus Eigeninitiative ("Filmclub"), und da wird auch gerne mal zerkratzte 16mm Kopien von Kultfilmen gezeigt^^

Studios produzieren lieber Remakes/Reboots...

Space


Antwort von andieymi:

Können wir uns einigen, dass vermutlich irgendwo in der Mitte Sinn macht?

Glaube nicht, dass jemand den Unterschied zwischen 12 und 10-Bit sieht. 1 Mrd. Tonwerte ist für die Wiedergabe schon ausreichend. 68 Mrd. dann eher overkill.
Aber dass 8-Bit nicht reichen, brauchen wir eigentlich auch nicht diskutieren, oder schaut ihr alle gern Stufengradients?

Re-Mastering ist bei heutigem Material zwar nur eingeschränkt sinnvoll, niemand scannt Dir ein neues 8K-Intermediate vom 4K-Rohmaterial, für einen 8K Dynamikmaster. Selbst die aktuellen HDR-Masterings sind danke Metadaten ja etwas FutureProof, weil bis wir alle ein 3000-Nit Peak OLED Panel im Wohnzimmer rumstehen haben vergeht noch etwas Zeit.

Und außer in Deutschland (wo die meisten Releases sich doch eher am Konzept Liebeskomödie oder bayrische Polizei-Klamauk-Geschichte orientieren) wird tatsächlich für Kino nicht immer nur ProRes gedreht. Das ist hauptsächlich ÖR-Fernsehfilm. Die meisten Studio-Filme mit internationalem Release sind schon auch Arri-Raw. Andererseits bietet selbst Arri seit längerem HDE - also komprimiertes Raw - allerdings nicht in camera sondern erst vom Codex Drive weg. Es spielt auch einfach budgetär keine Rolle. Aber der Sprung kam auch oft erst mit 4K-Mastering. Davor war mehr noch in ProRes.

Abgesehen davon: Außer für Doku dreht dann niemand weniger als 4444. Das ist auch 12-Bit, so who cares.

Und das Auflösungsargument zieht auch einfach nicht in der Praxis - mit Fincher als Ausnahme von der Regal. Red ist danke der Panavision Schützenhilfe wieder mehr da als noch vor 3-5 Jahren, allerdings liegt das hauptsächlich am Millenium DXL-Ökosystem mit eigener (Panavision, nicht Red) Color Science und den Optiken. Nicht an 8K.

Aber iasi kann ja einen Thread aufmachen, wenn sich die ersten Filmemacher entscheiden, dass sie jetzt nur mehr auf Ursa Mini 12K, Nikon Z9 oder R5 als A-Cam drehen weil sie 8-12K mit 60fps brauchen weil die Archivsicherheit angerufen hat.

Space


Antwort von Frank Glencairn:

Jott hat geschrieben:

Wenn sich also eine faule Sau den raw-Workflow sparen, seine Karte in ein Macbook stopfen und gleich losschneiden will, dann hat die faule Sau ihren Spaß damit.
Wobei es eigentlich - dank nativer Unterstützung und Color Management - keinen "raw Workflow" mehr gibt,
Man kann auch ne Karte mit raw Material in ein Notebook stopfen und gleich losschneiden, wenn man das will.

Space


Antwort von Jott:

Kann man alles. Da aber Arri die Lizenz von Apple nicht mangels Bedarf aufkündigt, wollen die Leute den ollen Codec wohl weiterhin. Aus Gründen, die uns egal sein können.

Um was ging‘s überhaupt? Ach ja, Kinefinity.

Space


Antwort von iasi:

Jott hat geschrieben:
Auf Alexas wird überwiegend ProRes gedreht, ...
Ne.

Space


Antwort von iasi:

andieymi hat geschrieben:
Können wir uns einigen, dass vermutlich irgendwo in der Mitte Sinn macht?

Glaube nicht, dass jemand den Unterschied zwischen 12 und 10-Bit sieht. 1 Mrd. Tonwerte ist für die Wiedergabe schon ausreichend. 68 Mrd. dann eher overkill.
Aber dass 8-Bit nicht reichen, brauchen wir eigentlich auch nicht diskutieren, oder schaut ihr alle gern Stufengradients?

Re-Mastering ist bei heutigem Material zwar nur eingeschränkt sinnvoll, niemand scannt Dir ein neues 8K-Intermediate vom 4K-Rohmaterial, für einen 8K Dynamikmaster. Selbst die aktuellen HDR-Masterings sind danke Metadaten ja etwas FutureProof, weil bis wir alle ein 3000-Nit Peak OLED Panel im Wohnzimmer rumstehen haben vergeht noch etwas Zeit.

Und außer in Deutschland (wo die meisten Releases sich doch eher am Konzept Liebeskomödie oder bayrische Polizei-Klamauk-Geschichte orientieren) wird tatsächlich für Kino nicht immer nur ProRes gedreht. Das ist hauptsächlich ÖR-Fernsehfilm. Die meisten Studio-Filme mit internationalem Release sind schon auch Arri-Raw. Andererseits bietet selbst Arri seit längerem HDE - also komprimiertes Raw - allerdings nicht in camera sondern erst vom Codex Drive weg. Es spielt auch einfach budgetär keine Rolle. Aber der Sprung kam auch oft erst mit 4K-Mastering. Davor war mehr noch in ProRes.

Abgesehen davon: Außer für Doku dreht dann niemand weniger als 4444. Das ist auch 12-Bit, so who cares.

Und das Auflösungsargument zieht auch einfach nicht in der Praxis - mit Fincher als Ausnahme von der Regal. Red ist danke der Panavision Schützenhilfe wieder mehr da als noch vor 3-5 Jahren, allerdings liegt das hauptsächlich am Millenium DXL-Ökosystem mit eigener (Panavision, nicht Red) Color Science und den Optiken. Nicht an 8K.

Aber iasi kann ja einen Thread aufmachen, wenn sich die ersten Filmemacher entscheiden, dass sie jetzt nur mehr auf Ursa Mini 12K, Nikon Z9 oder R5 als A-Cam drehen weil sie 8-12K mit 60fps brauchen weil die Archivsicherheit angerufen hat.
Es stellt sich eben immer die Frage, warum eine Kinofilmproduktion (es geht schließlich um "Cinema"-Kameras) beim Aufnahmeformat nicht das bestmögliche Aufnahmeformat nutzen soll, das technisch aktull geboten wird.

Das Aufnahmematerial ist das Kapital einer Produktionsfirma.
Aus Filmnegativen wurden zunächst PAL, dann HD, dann 2k, dann 4k ... Abtastungen herausgeholt. Mittlerweile ist man bei der Korngröße angekommen.
Digitale Aufnahmen können nicht erneut abgetastet werden - bei der Aufnahme wird daher das Limit gesetzt, was die ks, die bits und die fps betrifft.

Die Laserprojektion wird z.B. nun schneller Einzug in den Kinos halten, was eine weitere Verbesserung der Projektionsqualität bedeutet.
Avatar 2 könnte HFR zum Durchbruch verhelfen.
Jedenfalls könnte irgendwann ein "3000-Nit Peak OLED Panel im Wohnzimmer rumstehen", auf dem dann die 2022-Produktion auch noch glänzen könnte.

In 8k drehen z.B. Red-User schon seit geraumer Zeit.
Und ein Ursa 12k-User wird wohl kaum in 4k drehen.

Space


Antwort von Jott:

Ich vermute mal stark, dass mit den vergötterten "Cine-Kameras" zum Beispiel viel mehr Hochglanz-Werbung und so was gedreht wird als ausgerechnet Spielfilme. Täusche ich mich da? Ich glaube, dass diese krampfhafte Einordnung - egal was drauf steht - überhaupt nicht funktioniert. Wer so was wissen müsste, sind Verleiher. Ich frag mal demnächst, einer der Größeren (versorgt Spielfilm, Werbung und uns, auch mit Personal) ist hier um die Ecke.

Space


Antwort von pillepalle:

@ iasi

Und warum kaufst Du Dir dann eine Pocket mit nur 6K, wenn Dir Auflösung und HFR so wichtig sind?

Sind Dir Deine Sachen etwa nicht wichtig? Und was sollen die Leute erst in 30 Jahren über Deine Filme mit der miesen Auflösung denken? 🙃

VG

Space


Antwort von Jott:

iasi hat geschrieben:
Und ein Ursa 12k-User wird wohl kaum in 4k drehen.
Wieso kaufst du die eigentlich nicht? Die macht doch alles, was für dich so lebenswichtig ist - und ist obendrein spottbillig geworden. Was übersehe ich? Ein "12K User"-T-Shirt würde dir doch wunderbar stehen.

Space


Antwort von Funless:

Jott hat geschrieben:
iasi hat geschrieben:
Und ein Ursa 12k-User wird wohl kaum in 4k drehen.
Wieso kaufst du die eigentlich nicht? Die macht doch alles, was für dich so lebenswichtig ist - und ist obendrein spottbillig geworden. Was übersehe ich?
Du übersiehst, dass die Ursula 12K beim besten Willen nicht in den Fußraum eines Autos für einen Bottom-Up Shot rein passt ohne den Unterboden des Kraftfahrzeugs auseinander zu flexen. Oder ganz aktuell: Die Shot aus dem Blickwinkel der Schublade in Blonde hätte mit einer Ursula 12K im Leben nicht realisiert werden können. Da kann man mal sehen was da alles beachtet werden muss.

Space


Antwort von andieymi:

iasi hat geschrieben:
Es stellt sich eben immer die Frage, warum eine Kinofilmproduktion (es geht schließlich um "Cinema"-Kameras) beim Aufnahmeformat nicht das bestmögliche Aufnahmeformat nutzen soll, das technisch aktull geboten wird.
Wie kommst Du darauf, dass das bei Kinofilmproduktionen nicht trotzdem hauptsächlich der Fall ist?

Aber es macht eben einen Unterschied, ob das ein internationaler Release von einem namhaften Regisseur ist (der vielleicht auch in 40 Jahren noch mal von jemandem gesehen wird), oder ein TV-Fernsehfilm/Serie aus einer Sendereihe, in der das alte Publikum "mitaltert" (ich wollte jetzt bewusst nicht sagen wegstirbt). Kaum jemand wird sich Sturm der Liebe Folge 513 oder die X-te Rosamunde-Pilcher Verfilmung in 30 Jahren anschauen. Da ist dann ProRes halt auch gut genug. Sogar mehr als.
iasi hat geschrieben:
Jedenfalls könnte irgendwann ein "3000-Nit Peak OLED Panel im Wohnzimmer rumstehen", auf dem dann die 2022-Produktion auch noch glänzen könnte.
In 8k drehen z.B. Red-User schon seit geraumer Zeit.
Und ein Ursa 12k-User wird wohl kaum in 4k drehen.
Ich sehe keinen Grund, wieso 10 Jahre alter 2K-Content nicht auch auf einem 3000-Nit-OLED Display schlecht aussehen sollte. HDR ist heute eigentlich schon - zumindest in der Theorie - dafür ausgelegt, dass solch hohe Mastering-Spitzenhelligkeiten ja in Metadaten landen, da hinkt tatsächlich einfach die Consumer-Hardware nach, nicht die Qualität des Rohmaterials.

Arri hat die Alexa rausgebracht, da gab es HDR noch nicht wirklich in der Praxis. Und trotzdem war das Material HDR-Ready, seit jeher.

Du gewichtest Auflösung scheinbar über alles, trotzdem zeigt die Realität, dass sehr wenig auf der 12K Ursa gedreht wird - Spielfilm eher die Ausnahme - Gleiches gilt für alle anderen 8K Kameras: Ausnahmen bestehen nur wenn Red draufsteht, Panavision davorhängt und Fincher in 8K aufzeichnen lässt weil er maximal 6-7K nutzt und alles reframen lässt. Aber nicht für alle 8K Alternativen von Canon, Nikon, Kinefinity, etc.

Es scheint wohl, du bist der einzige der permanent fordert alles zu maximieren. Und es dreht auch kaum jemand 10-Bit für Kino, aber eben auch nicht alle unkomprimiertes Raw oder 8K-schwach-komprimiertes Raw für Kino. Da liegt viel Bandbreite dazwischen und die bestengebuchtesten DPs sind denke ich die, welche die richtigen Entscheidungen für ein Projekt treffen - das heißt eben nicht immer automatisch die beste Qualität.

Space


Antwort von Jott:

Funless hat geschrieben:
Du übersiehst, dass die Ursula 12K beim besten Willen nicht in den Fußraum eines Autos für einen Bottom-Up Shot rein passt ohne den Unterboden des Kraftfahrzeugs auseinander zu flexen.
Okay ... wobei im Jahr 2022 für diese paar Frames locker eine GoPro reicht. Ätsch, Iasibergh. Aber wenn's auch im Fussraum 12K sein müssen, dann löst man das mit einem Spiegel und gemütlichem Filmen durch die offene Tür. In eigentlich jedem Autoverfolgungs-Film gibt es diesen "Pedalschuss", ein klassischer Zwischenschnitt. Irgendwie hat das bis jetzt noch jeder Regisseur hingekriegt.

Space


Antwort von iasi:

pillepalle hat geschrieben:
@ iasi

Und warum kaufst Du Dir dann eine Pocket mit nur 6K, wenn Dir Auflösung und HFR so wichtig sind?

Sind Dir Deine Sachen etwa nicht wichtig? Und was sollen die Leute erst in 30 Jahren über Deine Filme mit der miesen Auflösung denken? 🙃

VG
Weil morgen noch kein Dreh ansteht, kaufe ich mir heute auch noch nicht die Kamera für übermorgen. Morgen könnte schließlich eine noch geeignetere Kamera veröffentlicht werden.
Zudem ist für den Dreh übermorgen das Anmieten (vielleicht auch mehrerer Kameras) möglicherweise rentabler.

Die P6k bietet immerhin schon mal 12bit Raw, HFR und 6k - das reicht für kleinere Sachen und die Vorbereitungsphase durchaus.

Space


Antwort von iasi:

Jott hat geschrieben:
Funless hat geschrieben:
Du übersiehst, dass die Ursula 12K beim besten Willen nicht in den Fußraum eines Autos für einen Bottom-Up Shot rein passt ohne den Unterboden des Kraftfahrzeugs auseinander zu flexen.
Okay ... wobei im Jahr 2022 für diese paar Frames locker eine GoPro reicht. Ätsch, Iasibergh. Aber wenn's auch im Fussraum 12K sein müssen, dann löst man das mit einem Spiegel und gemütlichem Filmen durch die offene Tür. In eigentlich jedem Autoverfolgungs-Film gibt es diesen "Pedalschuss", ein klassischer Zwischenschnitt. Irgendwie hat das bis jetzt noch jeder Regisseur hingekriegt.
Für den Fußraum tut´s dann auch eine R5C oder Z9 oder Komodo.
Eine GoPro braucht´s nur noch für wenige spezielle Aufnahmeanforderungen.

Jott und Funless tun sich wohl etwas schwer, mit der Zeit zu gehen.

Den "Pedalschuss" kann man schon seit der Red Epic machen, ohne den Fahrzugboden aufzuschneiden. Frag Soderbergh.

Space


Antwort von markusG:

iasi hat geschrieben:
Digitale Aufnahmen können nicht erneut abgetastet werden - bei der Aufnahme wird daher das Limit gesetzt, was die ks, die bits und die fps betrifft.
Ich glaub du lebst unterm Stein. Bereits heute werden Aufnahmen in grottigstem Ausgangsstadium restauriert, mit KI in ungeahnter Qualität (u. Wirtschaftlichkeit). Und je besser das Material, desto einfacher. Auflösung (zeitlich wie spatial) aufzublasen ist schon lange kein Hexenwerk mehr.

Nenn es einfach Remaster statt Neuabtastung.

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Digitale Aufnahmen können nicht erneut abgetastet werden - bei der Aufnahme wird daher das Limit gesetzt, was die ks, die bits und die fps betrifft.
Ich glaub du lebst unterm Stein. Bereits heute werden Aufnahmen in grottigstem Ausgangsstadium restauriert, mit KI in ungeahnter Qualität (u. Wirtschaftlichkeit). Und je besser das Material, desto einfacher. Auflösung (zeitlich wie spatial) aufzublasen ist schon lange kein Hexenwerk mehr.

Nenn es einfach Remaster statt Neuabtastung.
Ja ja - die heilige KI, die Wasser in Wein verwandelt.

War dieses "Fix it in Post" früher nicht eher negativ konnotiert?

Vor allem denkst du, die Beseitigung von Schäden am Negativ sei gleichzusetzen mit dem Errechnen von Details, die nie im Ausgangsmaterial vorhanden waren.

Lies mal dieses interessante Wenders-Interview, das hier (ich glaube von Frank?) mal verlinkt worden war.
https://lwlies.com/interviews/wim-wende ... -the-film/

Zudem: Wenn´s beim Grading von 10bit-Material die Farben "verreisst", hilft dir auch eine KI nichts.

Space


Antwort von markusG:

iasi hat geschrieben:
War dieses "Fix it in Post" früher nicht eher negativ konnotiert?

Beim Remaster muss ja nicht Zwangsläufig das repariert werden (mit Ausnahmen wie zB Haltekabel raus retuschieren bei blade Runner). Reicht ja es am die Auflösungsgepflogenheiten der Zukunft anzupassen.

Vor allem denkst du, die Beseitigung von Schäden am Negativ sei gleichzusetzen mit dem Errechnen von Details, die nie im Ausgangsmaterial vorhanden waren.

Lies mal dieses interessante Wenders-Interview, das hier (ich glaube von Frank?) mal verlinkt worden war.
https://lwlies.com/interviews/wim-wende ... -the-film/

Zudem: Wenn"s beim Grading von 10bit-Material die Farben "verreisst", hilft dir auch eine KI nichts.
Ich sagte ja : du lebst wohl unterm Stein ;)

Wir reden ja auch nicht zum retten versauter Aufnahmen. Warum sollte ein Film mit "verissenen Farben" überhaupt im Kino oder bei Netflix laufen?

Space


Antwort von roki100:

iasi hat geschrieben:
Weil dein PC etwas schlapp ist, zeichnest du etwa nur in FHD auf?
Wenn ja, dann ja, lieber weniger K und sauberes Bild, von mir aus auch FHD - warum auch nicht? Hab keine Probleme mit FHD... mit 8K uncompressed RAW zB. hätte ich (und ich wäre da nicht allein) schon Probleme. Du nicht?
Und Mavo 6K, mit all den Schickimickis, brauch ich nicht, für mich reicht die alternative mit dem selben senso, ist günstiger und bietet trotzdem genug Features inkl. AF. Warum ist dir HFR in mehr K und RAW so wichtig?
Und mal ehrlich, 10Bit "verreisst" nicht so schnell wie Du das darstellst. Selbst völlig zerrissenes WB, ließ sich nachträglich problemlos korrigieren. ZB. so aufgenommen: Bildschirmfoto 2022-10-11 um 20.54.22.png nachträglich mit Curves korrigiert und ich finde es ist okay: Bildschirmfoto 2022-10-11 um 20.56.17.png

Space


Antwort von iasi:

markusG hat geschrieben:

Wir reden ja auch nicht zum retten versauter Aufnahmen. Warum sollte ein Film mit "verissenen Farben" überhaupt im Kino oder bei Netflix laufen?
Doch - genau davon reden wir, denn das macht eben den Unterschied zwischen 10bit und 12bit aus:

https://youtu.be/bqG16N1ILb4?t=62

Space


Antwort von roki100:

Er sagt er hat kein Banding gesehen, ich sehe aber Banding ;)
Bildschirmfoto 2022-10-11 um 20.58.53.png mit 10Bit wäre das Ergebnis nicht schlechter, oder?

Space


Antwort von markusG:

iasi hat geschrieben:
Doch - genau davon reden wir
nein, wir - oder genauer: du - redest hiervon: iasi hat geschrieben:
Es stellt sich eben immer die Frage, warum eine Kinofilmproduktion (es geht schließlich um "Cinema"-Kameras) beim Aufnahmeformat nicht das bestmögliche Aufnahmeformat nutzen soll, das technisch aktull geboten wird.

Das Aufnahmematerial ist das Kapital einer Produktionsfirma.
Aus Filmnegativen wurden zunächst PAL, dann HD, dann 2k, dann 4k ... Abtastungen herausgeholt. Mittlerweile ist man bei der Korngröße angekommen.
Digitale Aufnahmen können nicht erneut abgetastet werden - bei der Aufnahme wird daher das Limit gesetzt, was die ks, die bits und die fps betrifft.

Die Laserprojektion wird z.B. nun schneller Einzug in den Kinos halten, was eine weitere Verbesserung der Projektionsqualität bedeutet.
Avatar 2 könnte HFR zum Durchbruch verhelfen.
Jedenfalls könnte irgendwann ein "3000-Nit Peak OLED Panel im Wohnzimmer rumstehen", auf dem dann die 2022-Produktion auch noch glänzen könnte.
oder iasi hat geschrieben:
Da sagen sich die Filmemacher eben auch:
Warum soll ich für meine Produktion mit der Alexa ProRes nutzen, wenn ich die Bilder in unkomprimiertem Raw festhalten und verewigen kann?
oder iasi hat geschrieben:
Kinofilme sind schließlich Wegwerfprodukte, was die Studios mit ihren ständigen Veröffentlichungen ihrer alten Schinken einfach nicht einsehen wollen.

Vielleicht liegt das auch an den Finanzheinis, die den Studios immer erklären, dass das alte Zeug ihr Kapital darstellt, das dann die Budgets für neue Produktionen absichert und somit erst ermöglicht.
usw.

Schließe nicht von dir auf andere. Kinofilme (oder von mir aus auch Netflix-Produktionen) die jetzt laufen können auch in 2k 10bit in Zukunft wunderbar ge-remastered werden, viel leichter als es in der Vergangenheit war. Wir reden hier eben nicht von Garbage in, (Mild) Garbage out!

Wenn du keine Wertschätzung dafür hast was vor der Kamera passiert und das Bild verk****, und das alles durch Spielraum in der Post ersetzen möchtest ("Post will fix it"), ist das dein Ding, hat aber mit "Cine" nicht das geringste zu tun.

Space


Antwort von iasi:

roki100 hat geschrieben:
Er sagt er hat kein Banding gesehen, ich sehe aber Banding ;)

Bildschirmfoto 2022-10-11 um 20.58.53.png
mit 10Bit wäre das Ergebnis nicht schlechter, oder?
Bei youtube siehst du Banding?
Wie geht denn das? :)

Space


Antwort von iasi:

@markusG

Schau und hör dir mal an, was der Netflix-Kameramann Messerschmidt zum Aufnahmeformat sagt.

Immerhin hatte er für die Netflix-Produktion Mank einen Oscar bekommen.

Wenn du natürlich nicht mal Messerschmidt glaubst, was die Ansprüche an Aufnahmeformaten angeht, dann musst du eben bei deiner Meinung bleiben, dass dies alles nur meine Vorstellung von Ansprüchen an Cine-Formaten sei.

Da ich den Unterschied zwischen 10bit und 12+bit-Raw-Formaten selbst beim Grading vor mir hatte, bleibe ich jedenfalls dabei, dass eine Filmproduktion mehr verdient, als 10bit.

Space


Antwort von markusG:

iasi hat geschrieben:
Schau und hör dir mal an, was der Netflix-Kameramann Messerschmidt zum Aufnahmeformat sagt.

Immerhin hatte er für die Netflix-Produktion Mank einen Oscar bekommen.
Ach und der hat die Farben verissen? (oder von mir aus Belichtung bei Mank)

War ja deine Ausgangslage...


ist ja sowieso total banane:
mein Argument ist dass man mit dem heutigen, guten Ausgangsmaterial (was heute z.B. auch 10-bit 2k ProRes immer noch ist!) problemlos auch in Zukunft "hochskalieren" kann, was du verneinst bzw. ausweichst mit irgendwelchen verk*** Aufnahmen.

Gleichzeitig verlangst du hochgradiges Material, um zukunftssicher zu sein. Finde den Fehler ;)

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:
Er sagt er hat kein Banding gesehen, ich sehe aber Banding ;)

Bildschirmfoto 2022-10-11 um 20.58.53.png
mit 10Bit wäre das Ergebnis nicht schlechter, oder?
Bei youtube siehst du Banding?
Wie geht denn das? :)
Das Ergebnis zählt ;)
Aber da wir wieder bei K sind und Du die R5C genannt hast, hier noch einer.
https://youtu.be/nyyb-sPOOCw?t=29
Sony 4K A7SIII zeigt, wie gut die R5C 8K CRAW ist. Oder?
Und auch die Alexa 2K schaut besser aus als 8K RAW von der R5C. Ab 23:10 zeigt er, wie die Alexa 2K die R5C 8K RAW (DynamicRange) verreisst... ;)

Warum also etwas nachträglich bearbeiten und sich dabei einbilden, dass es besser sein muss, weil 8K RAW (wobei Du manches mit NeatVideo denoisen musst), wo doch die 4K von A7SIII nicht schlechter ist bzw. auch gute Ergebnisse haben kannst, ohne dass dein PC dabei zu Krücke wird?

Und ja, die Z9 ist gut, mM. besser als die 8K von Mavo, R5C usw. (zumindest das was ich bisher gesehen habe) und da sind wir wieder bei dem übertriebenen Preis für Mavo. Lieber 3x Z9 inkl. Zubehör usw. und Du bekommst TicoRAW und ProResRAW, statt problematisches uncompressed cDNG...

Space


Antwort von Darth Schneider:

Wisst ihr was absolut Sinnlos ist und auch bleibt ?
Die Bildqualität zu beurteilen nur anhand von ein paar YouTube Videos, von einer Kamera die ihr nicht kennt…Gefilmt von Leuten die die Kamera mal genau für 3 Stunden zum ausprobieren haben und somit die Kamera auch gar nicht kennen..
Eben absolut sinnlos..;))
Gruss Boris

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Schau und hör dir mal an, was der Netflix-Kameramann Messerschmidt zum Aufnahmeformat sagt.

Immerhin hatte er für die Netflix-Produktion Mank einen Oscar bekommen.
Ach und der hat die Farben verissen? (oder von mir aus Belichtung bei Mank)

War ja deine Ausgangslage...


ist ja sowieso total banane:
mein Argument ist dass man mit dem heutigen, guten Ausgangsmaterial (was heute z.B. auch 10-bit 2k ProRes immer noch ist!) problemlos auch in Zukunft "hochskalieren" kann, was du verneinst bzw. ausweichst mit irgendwelchen verk*** Aufnahmen.

Gleichzeitig verlangst du hochgradiges Material, um zukunftssicher zu sein. Finde den Fehler ;)
Roger Deakins erzählte in einem Interview von seinem Schrecken, als er hörte, dass sein ARRIRAW 2.8K-Material von Skyfall auf 4k hochskaliert werden sollte.
Er nutzt nun ARRIRAW 4.5K.

Und hier ist der Fehler auch schon gefunden:
Von wegen problemlos "hochskalieren". ;)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Bei youtube siehst du Banding?
Wie geht denn das? :)
Das Ergebnis zählt ;)
Aber da wir wieder bei K sind und Du die R5C genannt hast, hier noch einer.
https://youtu.be/nyyb-sPOOCw?t=29
Sony 4K A7SIII zeigt, wie gut die R5C 8K CRAW ist. Oder?
Und auch die Alexa 2K schaut besser aus als 8K RAW von der R5C. Ab 23:10 zeigt er, wie die Alexa 2K die R5C 8K RAW (DynamicRange) verreisst... ;)

Warum also etwas nachträglich bearbeiten und sich dabei einbilden, dass es besser sein muss, weil 8K RAW (wobei Du manches mit NeatVideo denoisen musst), wo doch die 4K von A7SIII nicht schlechter ist bzw. auch gute Ergebnisse haben kannst, ohne dass dein PC dabei zu Krücke wird?

Und ja, die Z9 ist gut, mM. besser als die 8K von Mavo, R5C usw. (zumindest das was ich bisher gesehen habe) und da sind wir wieder bei dem übertriebenen Preis für Mavo. Lieber 3x Z9 inkl. Zubehör usw. und Du bekommst TicoRAW und ProResRAW, statt problematisches uncompressed cDNG...
Wir reden hier von "Cinema"-Kameras und du führst hier einen youtuber an.
Da halte ich mich lieber an jemanden aus dem "Cinema"-Bereich, den dann eben auch interessiert, ob es an "Farben mangelt".

https://youtu.be/bqG16N1ILb4?t=79

Space


Antwort von markusG:

iasi hat geschrieben:
Roger Deakins erzählte in einem Interview von seinem Schrecken, als er hörte, dass sein ARRIRAW 2.8K-Material von Skyfall auf 4k hochskaliert werden sollte.
Und? Ist Skyfall nun Augenkrebs?

Space


Antwort von Jott:

Absolut.

https://ew.com/movies/roger-deakins-sky ... ames-bond/

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Roger Deakins erzählte in einem Interview von seinem Schrecken, als er hörte, dass sein ARRIRAW 2.8K-Material von Skyfall auf 4k hochskaliert werden sollte.
Und? Ist Skyfall nun Augenkrebs?
Man erkennt recht deutlich, welche Einstellungen in 2,8k und welche mit Red gedreht wurden.

Zudem ist ARRIRAW unkomprimiertes 12bit-Raw und eben nicht 10bit-Video.

Space


Antwort von iasi:

Jott hat geschrieben:
Absolut.

https://ew.com/movies/roger-deakins-sky ... ames-bond/
12bit ARRIRAW ist eben doch noch ein anderes Ausgangsmaterial als euer 10bit-Videocodec.

Space


Antwort von roki100:

iasi hat geschrieben:
Wir reden hier von "Cinema"-Kameras und du führst hier einen youtuber an.
Aaah iasi, ich wollte dir eigentlich nicht den youtuber zeigen, sondern die Bilder, den Vergleich, die er mit den Kameras zeigt ;)
Es ändert doch nichts daran wenn "Cinema"-Leute den selben Vergleich gemacht hätten. Die gezeigten Bilder sagen mehr aus, als cinema-Philosophen mit 10000...Wörter. Der youtuber vergleicht und der andere plappert wie zB. "kein Banding mit ProRes RAW" das ist doch klar, dass das gar nicht erwähnt gehört...kein Banding auch mit 10Bit ist doch genau so klar. ;) 1,07 Milliarden Farben, keine Eule der Welt wird da Banding sehen....

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Wir reden hier von "Cinema"-Kameras und du führst hier einen youtuber an.
Aaah iasi, ich wollte dir eigentlich nicht den youtuber zeigen, sondern die Bilder die er mit den Kameras zeigt ;)
Es ändert doch nichts daran wenn"Cinema"-Leute den selben Vergleich gemacht hätten. Der youtuber vergleicht und der andere plappert wie zB. "kein Banding bei ProRes RAW" das ist doch so klar, dass das gar nicht erwähnt gehört...kein Banding auch mit 10Bit ist doch genau so klar. ;)
Es gibt da schon einen erheblichen Unterschied zwischen einem Kameramann, der Teil einer Filmproduktionskette ist, bei der die Postproduktion sehr viel mehr Zeit in Anspruch nimmt, als die eigentliche Drehzeit, oder einem youtuber, der mal ein wenig herumfilmt, das Material per LUT anschaubar macht und beim Entwertungsmarkt youtube hochlädt.

Jemand wie Messerschmidt testet eine Kamera im Hinblick auf einen Produktionseinsatz - und bringt es dabei eben auch in den Grenzbereich. Bei schmalbandigem Farbspektrum des Lichts ist man sehr schnell am Limit.
Vor allem ist eben gerade gar nicht klar, dass man mit 10bit kein Banding bekommt - im Gegenteil.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:

Aaah iasi, ich wollte dir eigentlich nicht den youtuber zeigen, sondern die Bilder die er mit den Kameras zeigt ;)
Es ändert doch nichts daran wenn"Cinema"-Leute den selben Vergleich gemacht hätten. Der youtuber vergleicht und der andere plappert wie zB. "kein Banding bei ProRes RAW" das ist doch so klar, dass das gar nicht erwähnt gehört...kein Banding auch mit 10Bit ist doch genau so klar. ;)
Es gibt da schon einen erheblichen Unterschied zwischen einem Kameramann, der Teil einer Filmproduktionskette ist, bei der die Postproduktion sehr viel mehr Zeit in Anspruch nimmt, als die eigentliche Drehzeit, oder einem youtuber, der mal ein wenig herumfilmt, das Material per LUT anschaubar macht und beim Entwertungsmarkt youtube hochlädt.
Aber was Du hier nun machst ist: Du machst den youtuber schlecht, um die gezeigten Bilder zu ignorieren bzw. um dich zu bestätigen. Das ist Banane... ;) Der youtuber ist nicht die Kameras, die verglichen werden, sondern er ist freundlich und vergleicht beide Kameras und zeigt das ua. auch die Arri Alexa mit ins Spiel. Wer bitte von cinema Leute will widersprechen bzw. behaupten, dass zB. die Arri mit 2K ProRes4444 schlechter ist als R5C mit 8K RAW, außer Du? ;) Schau dir das mal an, Arri 2K ProRes und mehr Details in den Highlights, während R5C mit 8K RAW ausgebrannte Skintone produziert. Da ist nachträglich in der post nichts zu retten...und das von Arri Alexa 2K (kein RAW) aber schon. Da wir bei Mavo sind. Mavo 6K wäre da auch besser, weil mehr Details in den Highlights, als die Mavo 8K, während die 8K auch noch mehr rauschen produziert (8K HFR produziert höchstwahrscheinlich noch mehr rauschen, hab keine Bilder gefunden/gesehen).... Die 6K hat bessere ISO Leistung, die Pixel sind größer (kann mehr licht aufnehmen) usw. usf. Du hast also mehr Vorteile, statt mehr K = mehr Nachteile.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Es gibt da schon einen erheblichen Unterschied zwischen einem Kameramann, der Teil einer Filmproduktionskette ist, bei der die Postproduktion sehr viel mehr Zeit in Anspruch nimmt, als die eigentliche Drehzeit, oder einem youtuber, der mal ein wenig herumfilmt, das Material per LUT anschaubar macht und beim Entwertungsmarkt youtube hochlädt.
Aber was Du hier nun machst ist: Du machst den youtuber schlecht, um die gezeigten Bilder zu ignorieren bzw. um dich zu bestätigen. Das ist Banane... ;) Der youtuber ist nicht die Kameras, die verglichen werden, sondern er ist freundlich und vergleicht beide Kameras und zeigt das ua. auch die Arri Alexa mit ins Spiel. Wer bitte von cinema Leute will widersprechen bzw. behaupten, dass zB. die Arri mit 2K ProRes4444 schlechter ist als R5C mit 8K RAW, außer Du? ;) Schau dir das mal an, Arri 2K ProRes und mehr Details in den Highlights, während R5C mit 8K RAW ausgebrannte Skintone produziert. Da ist nachträglich in der post nichts zu retten...und das von Arri Alexa 2K (kein RAW) aber schon. Da wir bei Mavo sind. Mavo 6K wäre da auch besser, weil mehr Details in den Highlights, als die Mavo 8K, während die 8K auch noch mehr rauschen produziert (8K HFR produziert höchstwahrscheinlich noch mehr rauschen, hab keine Bilder gefunden/gesehen).... Die 6K hat bessere ISO Leistung, die Pixel sind größer (kann mehr licht aufnehmen) usw. usf. Du hast also mehr Vorteile, statt mehr K = mehr Nachteile.
Welche Bilder?

Wir reden hier über Cinema-Kameras und Kinoprojektionen.
Was willst du denn ständig mit deinen youtube-Bildern?

Messerschmidt schaut sich das in DCI-P3 und eben nicht dem youtube-Brei an.

https://youtu.be/bqG16N1ILb4?t=84

Und das ist eben auch das Problem, um das es mir geht:
Da wird "Cinema" draufgeschrieben, aber für die Leinwand wird damit dann doch nichts gedreht.
Das sind Videokameras mit ihren 10bit-Videocodecs für Video-Wiedergabe. :)

Space


Antwort von roki100:

Ich schreibe doch ganze Zeit über Kameras, die in dem YouTube Video gezeigt werden und Du über Video in Fettmarkiert... ;)
Welche Bilder? Na die gezeigten Bilder im YouTube-Video... R5C 8K RAW im vergleich zu A7SIII 4K (digital nah gezoomt).
Bildschirmfoto 2022-10-12 um 18.37.55.png
Oder Arri Alexa 2K, von Sofa aus betrachtet unsichtbarer Auflösungsunterschied im Vergleich zu R5C 8K RAW....und der entscheidende Unterschied in den Highlights mit Alexa trotzt 2K ProRes4444... Bildschirmfoto 2022-10-12 um 18.39.12.png Du schreibst doch ständig von nachträgliche Spielraum in der Post. Was bringt in diesem Fall mehr Auflösung und RAW, wenn zB. die Wiederherstellung von Highlights bei der R5C schneller "verreissen" als kein-RAW...? Nachträglich kann man auf die 2K von Alexa superscale verwenden - das lässt sich also noch machen...bei den ausgebrannte (zB.) Gesichter, kannst aber nix machen...Alles in einem ist in diesem Fall Alexa mit 2K Vorteilhafter für die Post und das obwohl kein ArriRAW. Daher finde ich mehr dynamicrange sinnvoller, statt mehr Marketing-K....

Space


Antwort von iasi:

roki100 hat geschrieben:
Ich schreibe doch ganze Zeit über Kameras, die in dem YouTube Video gezeigt werden und Du über Video in Fettmarkiert... ;)
Welche Bilder? Na die gezeigten Bilder im YouTube-Video... R5C 8K RAW im vergleich zu A7SIII 4K (digital nah gezoomt).

Bildschirmfoto 2022-10-12 um 18.37.55.png
Aber darum geht es doch:
Diese Bilder zeigen nur, was dabei herauskommt, wenn man Aufnahmen von einer Kamera bei youtube hochläd.
Über die Kamera sagen sie rein gar nichts aus.

Es geht auch gar nicht um Highlights, die wiederhergestellt werden sollen.
Man wird ja wohl voraussetzen dürfen, dass korrekt belichtet wird.
Worauf es ankommt, sind die Farbabstufungen, die auch in einem kleinen Spektrum zur Verfügung stehen.
Und da liegen eben Welten zwischen z.B. ArriRaw, RedRaw oder auch CDNG einer BMCC und 10bit-Codecs.

So viele reden über den DR einer Alexa.
Nur wenige betrachten sich aber die Konstanz der Farbwiedergabe einer Alexa über den gesamten Blendenbereich.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:
Ich schreibe doch ganze Zeit über Kameras, die in dem YouTube Video gezeigt werden und Du über Video in Fettmarkiert... ;)


Na die gezeigten Bilder im YouTube-Video... R5C 8K RAW im vergleich zu A7SIII 4K (digital nah gezoomt).

Bildschirmfoto 2022-10-12 um 18.37.55.png
Aber darum geht es doch:
Diese Bilder zeigen nur, was dabei herauskommt, wenn man Aufnahmen von einer Kamera bei youtube hochläd.
Über die Kamera sagen sie rein gar nichts aus.
Er hat im Voraus daran gedacht und daher rein gezoomt, damit Du sowas später nicht behaupten kannst... ;) 10x rein gezoomt, oder 3m von Sofa entfernt, spielt keine Rolle...die 8K von der R5C ist nicht wirklich etwas sensationelles und zB. die neue Alexa mit 4.6K S35 und unschlagbares DR dagegen aber schon.
Es geht auch gar nicht um Highlights, die wiederhergestellt werden sollen.
Man wird ja wohl voraussetzen dürfen, dass korrekt belichtet wird.
...oder, im Fall von 10Bit, zB. die WB korrekt gesetzt hat... ;) Wenn wir damit Anfangen, dann können wir gleich in 8Bit aufnehmen, weil wir vor der Aufnahme für korrektes Bild gesorgt haben. Und da liegen eben Welten zwischen z.B. ArriRaw, RedRaw oder auch CDNG einer BMCC und 10bit-Codecs. Ja, RAW macht die 10Bit eben nicht unprofesioneller... Du zeigst ja nicht wo die visuellen Grenzen sind, um dir Sachlich zustimmen zu können. Die Leute können aber selbst testen ;) Die grenze ist nämlich irgendwo da, wo man mit den Farbreglern sowieso nie gehen würde, auch mit RAW nicht.... ZB.; Du kannst bei RAW die Schatten anhieben, doch bei 8K RAW-Material (zB. von Mavo) sind die Schatten so verrauscht, dass es kein Sinn macht, die Schatten hochzuziehen... Und wenn Du NeatVideo drauf legst, dann wirkt NeatVideo auf das gesamte Bild so stark, dass das bild ohne NeatVideo von der 2K Arri Alexa besser aussieht (auch dank DualGain)... und die 4K oder 6K Sensoren mit bessere ISO Leistung sowieso...und Du bist schneller mit bearbeiten und dein PC schneller mit raus rendern ;)

Space


Antwort von iasi:

Da kann er bei youtube reinzoomen soweit er will, das ändert nichts an der hohen Komprimierung oder der geringen Farbabstufung.

WB-Set ändert nichts an den Lichtverhältnissen und der Aufnahmen durch den Sensor.
Bei Raw kannst du da einstellen, was du willst.

Bei der Belichtung steuert man die Lichtmenge.
Bei WB-Set beinflußt man nur den DeBayer-Prozess.

Schau dir mal das Video nochmal an - was Messerschmidt über seinen Testdreh sagt, bringt es auf den Punkt, worum es bei 12bit vs 10bit geht.
Weder die Highlights noch die Schatten sind dabei interessant.

Bildwichtige Teile lässt man doch (möglichst) nicht in die Schatten rutschen, um sie dann später hochziehen zu müssen. Auch das verstehe ich unter korrekter Belichtung.

Space


Antwort von roki100:

iasi hat geschrieben:
Da kann er bei youtube reinzoomen soweit er will, das ändert nichts an der hohen Komprimierung oder der geringen Farbabstufung.
mit dem rein zoomen hat er doch nicht beabsichtigt die geringe/höhere Farbabstufung zu zeigen, sondern 8K RAW Auflösung im Vergleich zu 4K A7SIII LOG.
WB-Set ändert nichts an den Lichtverhältnissen und der Aufnahmen durch den Sensor. Der Vorteil von RAW ist doch, dass ua. WB nicht eingebacken ist und wenn Du bei 10Bit vorher WB passend gesetzt hast, ist der eine Vorteil von RAW schonmal überflüssig, oder? Und ISO belässt man sowieso am besten auf nativ.... Und die +2Bit als Vorteil, gilt viel mehr für Leute die VFX machen und das Bild mit irgendwelche Sci-Fi Effekte und Transformers 3D Animationen vergewaltigen (meistens werden die 3D Objekte doch in 1080p / 2K vorbereitet, weil 8K Transformers raus rendern einfach verrückt ist mit export Wartezeiten...), was die meisten Foren User aber bestimmt nicht machen, sondern höchstens nur Looks graden und vll. bisschen Greenscreen als VFX und 3D Titel, 3D Bilderrahmen... oder Matte Painting Explosionen usw. und somit ist 10Bit, für Leute die nur graden und bisschen VFX machen doch völlig ausreichend.... RAW bedeutet eben nicht: das Bild während des Drehs kaputt machen, um es nachträglich korrigieren zu können. Wenn Du 10Bit Codec benutzt und WB, ISO passend gesetzt hast / gut belichtet hast und das Bild heile ist, dann passt nachträglich auch alles mit dem grading.

Für mich ist RAW nur besser für Run & Rec^^ Muss nicht WB beachten, muss nicht ISO beachten (höchstens, aha, es ist etwas dunkel, dann doch besser zweiten native ISO in der Kamera einstellen)... ;)

Space


Antwort von prime:

Naja 8K HFR RAW gibt es ja auch erst seit ein paar Tagen... sobald sich das in der Kinofilmwelt rumgesprochen hat, werden alle Spielfilme nur noch in 8K HFR RAW aufgezeichnet, Post natürlich in 8K und Delivery erst recht in 8K ;-P

Es ist das ewige iasi-Karussel. Deakins ist ja schon genannt worden, der Rest kommt dann vielleicht auch noch.
iasi hat geschrieben:
Wir reden hier von "Cinema"-Kameras und du führst hier einen youtuber an.
Gab es da nicht einen YouTuber der seine (click-baitigen) YouTube Tech-Videos mit 8K REDs gedreht hat? Hat dem jemand schon ne Abmahnung geschickt?

Space


Antwort von iasi:

prime hat geschrieben:
Naja 8K HFR RAW gibt es ja auch erst seit ein paar Tagen... sobald sich das in der Kinofilmwelt rumgesprochen hat, werden alle Spielfilme nur noch in 8K HFR RAW aufgezeichnet, Post natürlich in 8K und Delivery erst recht in 8K ;-P

Es ist das ewige iasi-Karussel. Deakins ist ja schon genannt worden, der Rest kommt dann vielleicht auch noch.
So ist das nunmal. Das technisch Mögliche setzt sich irgendwann durch.
8k-Aufzeichnung liefert aber mit Bayer-Sensoren nur ideales 4k. Also müssen wir wohl noch ein wenig warten - bisher gibt´s nur die Ursa 12k :)

Der gute alte Audi 100 hatte ein Top-Motorisierung mit 136PS - heute bietet die kleinste Motorisierung eines Passat 120PS, die dann den meisten Käufern nicht genügt.
Was sagt uns das?

Aber immerhin:
Wer das Filmmaterial in höchstmöglicher Qualität vorliegen hat, ist für die Zukunft auch bestmöglich gewappnet.
Wer zu Zeiten von 2k-Kinoproduktion in 2k-10bit gedreht hat, tut sich in Zukunft vielleicht schwerer, sein Material weiter auszuwerten.
prime hat geschrieben:
iasi hat geschrieben:
Wir reden hier von "Cinema"-Kameras und du führst hier einen youtuber an.
Gab es da nicht einen YouTuber der seine (click-baitigen) YouTube Tech-Videos mit 8K REDs gedreht hat? Hat dem jemand schon ne Abmahnung geschickt?
Tja - und all die Alexa-Tester auf youtube nicht zu vergessen. ;)

Space


Antwort von roki100:

iasi hat geschrieben:
8k-Aufzeichnung liefert aber mit Bayer-Sensoren nur ideales 4k.
Wie zB. in dem YouTube Video oben mit der R5C 8K RAW im Vergleich zu A7SIII 4K 10x zoom zu sehen ist? ;)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Da kann er bei youtube reinzoomen soweit er will, das ändert nichts an der hohen Komprimierung oder der geringen Farbabstufung.
mit dem rein zoomen hat er doch nicht beabsichtigt die geringe/höhere Farbabstufung zu zeigen, sondern 8K RAW Auflösung im Vergleich zu 4K A7SIII LOG.
WB-Set ändert nichts an den Lichtverhältnissen und der Aufnahmen durch den Sensor. Der Vorteil von RAW ist doch, dass ua. WB nicht eingebacken ist und wenn Du bei 10Bit vorher WB passend gesetzt hast, ist der eine Vorteil von RAW schonmal überflüssig, oder? Und ISO belässt man sowieso am besten auf nativ.... Und die +2Bit als Vorteil, gilt viel mehr für Leute die VFX machen und das Bild mit irgendwelche Sci-Fi Effekte und Transformers 3D Animationen vergewaltigen (meistens werden die 3D Objekte doch in 1080p / 2K vorbereitet, weil 8K Transformers raus rendern einfach verrückt ist mit export Wartezeiten...), was die meisten Foren User aber bestimmt nicht machen, sondern höchstens nur Looks graden und vll. bisschen Greenscreen als VFX und 3D Titel, 3D Bilderrahmen... oder Matte Painting Explosionen usw. und somit ist 10Bit, für Leute die nur graden und bisschen VFX machen doch völlig ausreichend.... RAW bedeutet eben nicht: das Bild während des Drehs kaputt machen, um es nachträglich korrigieren zu können. Wenn Du 10Bit Codec benutzt und WB, ISO passend gesetzt hast / gut belichtet hast und das Bild heile ist, dann passt nachträglich auch alles mit dem grading.

Für mich ist RAW nur besser für Run & Rec^^ Muss nicht WB beachten, muss nicht ISO beachten (höchstens, aha, es ist etwas dunkel, dann doch besser zweiten native ISO in der Kamera einstellen)... ;)
Es ist eine Frage des Spielraums.
Diese +2bit erlauben eine Bildgestaltung in der Post, die du mit 10bit nicht mehr hast.
Es geht zudem nicht nur um WB-Set sondern um den deBayer-Prozess in der Kamera vs in der Post. Schau dir mal die vielen schönen Regler an, die z.B. Resolve im Raw-Fenster bietet.
Hab ich z.B. RedRaw, dann kann ich auch bei Jahre altem Material die neue verbesserte Color-Science nutzen.
Das Material ist nachhaltiger.

Und mal ganz abgesehen davon, dass weder Objektivdaten, Blende, Fokuspunkt bekannt sind, erkenne ich bei der 8k-Aufnahme die Stangen im Geländer, während die 4k-Aufnahme nur noch eine Fläche liefert.
Und dies sind nun einmal Bilddetails, die selbst die beste KI nicht mehr herbeizaubern kann.

https://youtu.be/nyyb-sPOOCw?t=57

Space


Antwort von roki100:

iasi hat geschrieben:
Und mal ganz abgesehen davon, dass weder Objektivdaten, Blende, Fokuspunkt bekannt sind, erkenne ich bei der 8k-Aufnahme die Stangen im Geländer, während die 4k-Aufnahme nur noch eine Fläche liefert.
Erst bei 10x zoom.... das war 4K von A7SIII. Im Vergleich zB. zu 6K von Panasonic, oder ZCAM F6, von mir aus auch Mavo 6K, da erkennst Du höchstwahrscheinlich auch bei 5x zoom kein nennenswerten Unterschied mehr (was sowieso keinen Sinn macht 5x digital zu zoomen, geschweige denn 10x) stattdessen hast Du andere/weitere Vorteile mit 6K, zB. mehr Dynamicrange, bessere ISO Leistung, das Bild ist sauberer usw.
Diese +2bit erlauben eine Bildgestaltung in der Post, die du mit 10bit nicht mehr hast. Kannst Du bitte ein paar Beispiele zeigen, was Du (nicht nur RAW Regler und kein VFX Transformer usw.) mit 10Bit für colorgrading nicht hast und was Du mit +2Bit hast und kannst. Das ist ernstgemeint, weil mich das wirklich interessiert. Selbst habe ich mir schon gezeigt, ich habe zB. noch kein Banding bei 10Bit gesehen.

Space


Antwort von prime:

iasi hat geschrieben:
Der gute alte Audi 100 hatte ein Top-Motorisierung mit 136PS - heute bietet die kleinste Motorisierung eines Passat 120PS, die dann den meisten Käufern nicht genügt.
Was sagt uns das?
Das du von Autos genauso wenig Ahnung hast wie von Kameras und realen Produktionsalltag? Das du über Spec-Vergleich nicht hinaus kommst?
iasi hat geschrieben:
Tja - und all die Alexa-Tester auf youtube nicht zu vergessen. ;)
Auch die sind doch ein gutes Beispiel, das die Leute nur Geld machen wollen (Klicks / Werbung, Geld bzw. andere Goodies damit sie das genannte Produkt "bewerben"). Auch denen ist das "Cinema"-Label egal. Daran hängen sich nur Leute wie du auf ;-P
iasi hat geschrieben:
Wer zu Zeiten von 2k-Kinoproduktion in 2k-10bit gedreht hat, tut sich in Zukunft vielleicht schwerer, sein Material weiter auszuwerten.
Setzt natürlich voraus, das man überhaupt Material zur Auswertung hat :P

Deakins, Autovergleich, perfektes 4k-Debayer-Ergebnis haben wir schon, was steht sonst noch an?

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Und mal ganz abgesehen davon, dass weder Objektivdaten, Blende, Fokuspunkt bekannt sind, erkenne ich bei der 8k-Aufnahme die Stangen im Geländer, während die 4k-Aufnahme nur noch eine Fläche liefert.
Erst bei 10x zoom.... das war 4K von A7SIII. Im Vergleich zB. zu 6K von Panasonic, oder ZCAM F6, von mir aus auch Mavo 6K, da erkennst Du höchstwahrscheinlich auch bei 5x zoom kein nennenswerten Unterschied mehr (was sowieso keinen Sinn macht 5x digital zu zoomen, geschweige denn 10x) stattdessen hast Du andere/weitere Vorteile mit 6K, zB. mehr Dynamicrange, bessere ISO Leistung, das Bild ist sauberer usw.
Erst verlinkst du dies als Beispiel und dann relativierst du es wieder.

Es geht um Bilddetails, die vorhanden sind - oder auch nicht.

Bei idealer Blende und auf der Fokusebene (wo der Zerstreuungskreisdurchmesser gegen Null geht) wird der Unterschied zudem nochmal deutlicher.

Schau dir auch die Testcharts der Kameratests von slashcam an.

Und nochmal:
Willst du wirklich youtube-Videos als Beurteilungsbasis im Hinblick auf dein Aufnahmeformat nehmen?
Ich erinnere mich z.B. an Samsung NX1-Nutzer, die ganz begeistert waren über die Qualitätssteigerung durch den Hack, der die H265-Datenrate auf Höhen brachte, die du bei youtube nie hast.

Space


Antwort von iasi:

prime hat geschrieben:
iasi hat geschrieben:
Der gute alte Audi 100 hatte ein Top-Motorisierung mit 136PS - heute bietet die kleinste Motorisierung eines Passat 120PS, die dann den meisten Käufern nicht genügt.
Was sagt uns das?
Das du von Autos genauso wenig Ahnung hast wie von Kameras und realen Produktionsalltag? Das du über Spec-Vergleich nicht hinaus kommst?
Und dass du mit Sozialverhalten Probleme hast? ;)
Stichwort: Leeres arrogantes Gerede.
Es ist doch auch bezeichnend, dass du so schnell persönlich wirst und dabei sachlich nichts beiträgst. ;)
prime hat geschrieben:
iasi hat geschrieben:
Tja - und all die Alexa-Tester auf youtube nicht zu vergessen. ;)
Auch die sind doch ein gutes Beispiel, das die Leute nur Geld machen wollen (Klicks / Werbung, Geld bzw. andere Goodies damit sie das genannte Produkt "bewerben"). Auch denen ist das "Cinema"-Label egal. Daran hängen sich nur Leute wie du auf ;-P
Und du kommst dir nun so schlau vor, wie ein Kind, das erklärt, dass ein Apfel eine Frucht ist. :)
Nun bist du sicherlich stolz. ;)
prime hat geschrieben:
iasi hat geschrieben:
Wer zu Zeiten von 2k-Kinoproduktion in 2k-10bit gedreht hat, tut sich in Zukunft vielleicht schwerer, sein Material weiter auszuwerten.
Setzt natürlich voraus, das man überhaupt Material zur Auswertung hat :P

Deakins, Autovergleich, perfektes 4k-Debayer-Ergebnis haben wir schon, was steht sonst noch an?
Von deiner Seite wohl wie immer nichts.
Wo sind denn deine Argumente, auf die man antworten könnte.

Da fällt mir ein Zitat von Jean-Jacques Rousseau ein:
Beleidigungen sind die Argumente jener, die über keine Argumente verfügen.

Space


Antwort von prime:

Du kannst natürlich noch so offene Fragen als Argument verpacken. Man merkt halt schnell das du nie was interessantes oder auch nur ansatzweise sinnvolles hier schreibst, das sind die ewig gleichen Sachen aus der iasi-Liste-an-verworrenen "Argumenten". Das hat überhaupt gar nix mit persönlich werden oder gar Beleidigung zu tun. Wenn dir absolut gar nix mehr einfällt, dann kommt ein Zitat, als ob das ein Argument wäre. Deine absolut realitätsfremden Beiträge kann hier ja jeder selbst durchlesen und sich daraus eine eigene Meinung bilden. Wer spielt hier immer den Oberlehrer? Wer redet abfällig über "Youtuber" oder gar Leute die für Lohn arbeiten?

Um nur mal bei deinen 8K HFR zu bleiben, du hast nicht mal im Ansatz das verstanden was ich geschrieben habe. RED bietet 8K HFR schon seit wann? Seit mehreren Jahren. Es ist aber weder bei Hobby-Filmern, YouTubern noch in Hollywood, Bollywood oder sonstwo der "defakto"-Standard. Zumindest bei einigen von den genannten Gruppen ist reichlich Geld da um alles in 8K HFR zu machen, gemacht wird es aber trotzdem nicht. Erklär es uns? Üblicherweise kommst du an dieser Stelle mit "einarbeiten", "erprobte Workflows", "Workstations die abgeschrieben werden müssen" und der Wahl der Alexa bei Mad Max (wie immer ohne Quelle). Vielleicht wird in N Jahren alles 8K 120 Hz sein, dann kannst du daherkommen und sagen "seht ihr!! Ich hatte recht!". Und dann? Geht es darum "recht zu haben"? Ja mehr K, kann potenziell mehr Details darstellen, ja mehr FPS können Bewegungen flüssiger darstellen... und dann?

Ich hab persönlich gar nichts gegen 8K HFR, oder gar höher. Ich gehöre zu der von dir verpöhnten "Arbeit für Geld"-Gruppe die einfach 4K oder gar 8K machen wenn der Kunde es will und zahlt.

All diese Diskussionen sind immer gleich, dabei drehst du ja selbst nicht in 8K HFR, warum nicht? Dein Getuhe (und nichts anderes ist es) das nur das Beste immer gut genug sei, ist irgendwie einfach nur lachhaft und absolut unglaubwürdig.

Space


Antwort von Jott:

Zwei Jahre noch, dann sieht garantiert irgend ein pixelpeepender YouTuber auch bei 12Bit Banding, und auf geht's in Richtung in 14 oder 16Bit. Man braucht ja schließlich den Gestaltungsspielraum. 12Bit ist nur noch billiges Video.

Währenddessen fragen sich alle, die eine schnöde 8Bit-Kamera haben (inclusiv Fernsehleute mit ihren XDCAMs) und das Material problemlos farbkorrigieren, was das Theater soll und kratzen sich am Kopf.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:


Erst bei 10x zoom.... das war 4K von A7SIII. Im Vergleich zB. zu 6K von Panasonic, oder ZCAM F6, von mir aus auch Mavo 6K, da erkennst Du höchstwahrscheinlich auch bei 5x zoom kein nennenswerten Unterschied mehr (was sowieso keinen Sinn macht 5x digital zu zoomen, geschweige denn 10x) stattdessen hast Du andere/weitere Vorteile mit 6K, zB. mehr Dynamicrange, bessere ISO Leistung, das Bild ist sauberer usw.
Erst verlinkst du dies als Beispiel und dann relativierst du es wieder.
Nein, sondern das Video zeigt, dass der Unterschied im Vergleich zu 4K A7SIII so minimal ist , dass Du erst bei 10x zoom minimal etwas erkennst (so minimal und nicht der rede wert...). Wäre bei Sony a7SIII kamerainterne Bildmanipulationen deaktiviert (also so, wie das bei RAW der Fall ist), dann wäre wahrscheinlich das Bild bei 10x zoom, detailreicher...Und mit 6K RAW sieht das wiederum sowieso anders aus.
Bei idealer Blende und auf der Fokusebene (wo der Zerstreuungskreisdurchmesser gegen Null geht) wird der Unterschied zudem nochmal deutlicher.
Wenn es so deutliche ist, dann hast Du es einfacher das mal genauer zu zeigen...würde mich echt interessieren. Oder schreib mir klar und deutlich, was ich machen muss, um den Unterschied deutlich zu erkennen. Ich habe schon sooft 10Bit ProRes (gut ausgeleuchtete Szene, WB, ISO passend gesetzt) mit 12Bit verglichen und es gab nachträglich keine colorgrading Besonderheiten mit 12Bit, die mit 10Bit unmöglich wären...

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Erst verlinkst du dies als Beispiel und dann relativierst du es wieder.
Nein, sondern das Video zeigt, dass der Unterschied im Vergleich zu 4K A7SIII so minimal ist , dass Du erst bei 10x zoom minimal etwas erkennst (so minimal und nicht der rede wert...). Wäre bei Sony a7SIII kamerainterne Bildmanipulationen deaktiviert (also so, wie das bei RAW der Fall ist), dann wäre wahrscheinlich das Bild bei 10x zoom, detailreicher...Und mit 6K RAW sieht das wiederum sowieso anders aus.
Bei idealer Blende und auf der Fokusebene (wo der Zerstreuungskreisdurchmesser gegen Null geht) wird der Unterschied zudem nochmal deutlicher.
Wenn es so deutliche ist, dann hast Du es einfacher das mal genauer zu zeigen...würde mich echt interessieren. Oder schreib mir klar und deutlich, was ich machen muss, um den Unterschied deutlich zu erkennen. Ich habe schon sooft 10Bit ProRes (gut ausgeleuchtete Szene, WB, ISO passend gesetzt) mit 12Bit verglichen und es gab nachträglich keine colorgrading Besonderheiten mit 12Bit, die mit 10Bit unmöglich wären...
Wenn du eine ideale 08/15-Aufnahmen machst und dann nicht intensiv gradest, siehst du auf deinem Monitor wahrscheinlich wirklich nicht viel.
Nun lass aber nur mal einen Darsteller den Kopf abwenden und das Gesicht aus dem Hauptlicht geraten - vielleicht sogar nahe einer angeleuchteten blauen Fläche, die aufs Gesicht reflektiert. Natürlich kann man "cut" schreien und den Darsteller an seinen Spielraum erinnern ... Vielleicht ist seine Darstellung in diesem Moment und während dieser Aufnahme aber auch brilliant.

Space


Antwort von Funless:

iasi hat geschrieben:
Nun lass aber nur mal einen Darsteller den Kopf abwenden und das Gesicht aus dem Hauptlicht geraten - vielleicht sogar nahe einer angeleuchteten blauen Fläche, die aufs Gesicht reflektiert. Natürlich kann man "cut" schreien und den Darsteller an seinen Spielraum erinnern ... Vielleicht ist seine Darstellung in diesem Moment und während dieser Aufnahme aber auch brilliant.
Wenn man mit Laiendarstellern arbeitet dann kann sowas natürlich passieren. Ein ausgebildeter Darsteller weiß ganz genau in welchem Bereich er sich bewegen kann und darf und liefert dabei die gewünschte „brilliante“ Darstellung.

Space


Antwort von roki100:

in so einem Fall sind auch 10Bit Brillant genug bzw. man wird deutlichen Unterschied beim graden nicht erkennen.

Space


Antwort von Jott:

Was für Licht? Seit wann will Iasi Licht setzen? Geht doch alles in der Post.

Ich hab's im Urin, wir kriegen gleich wieder die Kurve zum Camera Shootout 2012.

Space


Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:
Nun lass aber nur mal einen Darsteller den Kopf abwenden und das Gesicht aus dem Hauptlicht geraten - vielleicht sogar nahe einer angeleuchteten blauen Fläche, die aufs Gesicht reflektiert. Natürlich kann man "cut" schreien und den Darsteller an seinen Spielraum erinnern ... Vielleicht ist seine Darstellung in diesem Moment und während dieser Aufnahme aber auch brilliant.
Wenn man mit Laiendarstellern arbeitet dann kann sowas natürlich passieren. Ein ausgebildeter Darsteller weiß ganz genau in welchem Bereich er sich bewegen kann und darf und liefert dabei die gewünschte „brilliante“ Darstellung.
Bei "Einer flog über das Kuckucksnest" waren die Darsteller so schlecht "ausgebildet", dass der Kameramann nicht mehr weiter mit ihnen arbeiten konnte.
An diesem Film sieht man, was dabei herauskommt, "wenn man mit Laiendarstellern arbeitet".

Space


Antwort von iasi:

Jott hat geschrieben:
Was für Licht?
Das, welches nötig ist, um überhaupt ein Bild zu erzeugen. ;)

Space


Antwort von Funless:

iasi hat geschrieben:
Funless hat geschrieben:


Wenn man mit Laiendarstellern arbeitet dann kann sowas natürlich passieren. Ein ausgebildeter Darsteller weiß ganz genau in welchem Bereich er sich bewegen kann und darf und liefert dabei die gewünschte „brilliante“ Darstellung.
Bei "Einer flog über das Kuckucksnest" waren die Darsteller so schlecht "ausgebildet", dass der Kameramann nicht mehr weiter mit ihnen arbeiten konnte.
An diesem Film sieht man, was dabei herauskommt, "wenn man mit Laiendarstellern arbeitet".
Das ist kein Argument.

Space


Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:


Bei "Einer flog über das Kuckucksnest" waren die Darsteller so schlecht "ausgebildet", dass der Kameramann nicht mehr weiter mit ihnen arbeiten konnte.
An diesem Film sieht man, was dabei herauskommt, "wenn man mit Laiendarstellern arbeitet".
Das ist kein Argument.
Das ist ein Gegenbeispiel.

Space


Antwort von Funless:

iasi hat geschrieben:
Funless hat geschrieben:


Das ist kein Argument.
Das ist ein Gegenbeispiel.
Auch das ist es nicht. Weil …

1) … von dir ein Film genannt wird der 47 Jahre alt und unter völlig anderen Produktionsbedingungen entstanden ist als es heutzutage der Fall ist. Solange keine aktuelleren Beispiele genannt werden, macht dieser eine Film von 1975 (!!!) überhaupt keinen Sinn.

2) … gehst du nicht weiter auf dein sog. „Gegenbeispiel“ ein, die Nennung des Titels ohne weitere Ausführungen weshalb dieser Film als Gegenbeispiel überhaupt relevant sein sollte (inkl. belastbaren Quellen, denn sonst ist es einfach nur unglaubwürdiges Geschwafel) reicht für eine konstruktive Diskussion bei weitem nicht aus.

Und du willst doch eine konstruktive Diskussion führen, oder irre ich mich etwa?

Space


Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:


Das ist ein Gegenbeispiel.
Auch das ist es nicht. Weil …

1) … von dir ein Film genannt wird der 47 Jahre alt und unter völlig anderen Produktionsbedingungen entstanden ist als es heutzutage der Fall ist. Solange keine aktuelleren Beispiele genannt werden, macht dieser eine Film von 1975 (!!!) überhaupt keinen Sinn.

2) … gehst du nicht weiter auf dein sog. "Gegenbeispiel" ein, die Nennung des Titels ohne weitere Ausführungen weshalb dieser Film als Gegenbeispiel überhaupt relevant sein sollte (inkl. belastbaren Quellen, denn sonst ist es einfach nur unglaubwürdiges Geschwafel) reicht für eine konstruktive Diskussion bei weitem nicht aus.

Und du willst doch eine konstruktive Diskussion führen, oder irre ich mich etwa?
Oh ja - richtig - vor 47 Jahren hatte man natürlich anderes Licht und andere Darsteller. Heute leuchten wir völlig anderes aus. Und Schauspieler bewegen sich heute auch ganz anders.

Die Darsteller nahmen sich Spielraum, den ihnen der Kameramann Haskell Wexler nicht geben wollte - sie würden ihm ständig aus dem Licht gehen - so könne er nicht arbeiten.
Daraufhin hatte Bill Butler den Film fertiggestellt.

Belastbare Quellen kannst du dir übrigens gerne selbst suchen. ;)

Space


Antwort von iasi:

roki100 hat geschrieben:
in so einem Fall sind auch 10Bit Brillant genug bzw. man wird deutlichen Unterschied beim graden nicht erkennen.
Ne - stimmt nicht.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:
in so einem Fall sind auch 10Bit Brillant genug bzw. man wird deutlichen Unterschied beim graden nicht erkennen.
Ne - stimmt nicht.
Zeig mal.

Space


Antwort von Funless:

iasi hat geschrieben:
Funless hat geschrieben:


Auch das ist es nicht. Weil …

1) … von dir ein Film genannt wird der 47 Jahre alt und unter völlig anderen Produktionsbedingungen entstanden ist als es heutzutage der Fall ist. Solange keine aktuelleren Beispiele genannt werden, macht dieser eine Film von 1975 (!!!) überhaupt keinen Sinn.

2) … gehst du nicht weiter auf dein sog. „Gegenbeispiel“ ein, die Nennung des Titels ohne weitere Ausführungen weshalb dieser Film als Gegenbeispiel überhaupt relevant sein sollte (inkl. belastbaren Quellen, denn sonst ist es einfach nur unglaubwürdiges Geschwafel) reicht für eine konstruktive Diskussion bei weitem nicht aus.

Und du willst doch eine konstruktive Diskussion führen, oder irre ich mich etwa?
Oh ja - richtig - vor 47 Jahren hatte man natürlich anderes Licht und andere Darsteller. Heute leuchten wir völlig anderes aus. Und Schauspieler bewegen sich heute auch ganz anders.

Die Darsteller nahmen sich Spielraum, den ihnen der Kameramann Haskell Wexler nicht geben wollte - sie würden ihm ständig aus dem Licht gehen - so könne er nicht arbeiten.
Daraufhin hatte Bill Butler den Film fertiggestellt.

Belastbare Quellen kannst du dir übrigens gerne selbst suchen. ;)
Leider ist das immer noch weder ein Gegenbeispiel, noch ein Argument.

Warum?

Du nimmst eine angebliche Anekdote von einem einzigen Film der vor 47 Jahren gedreht wurde als Begründung für dein hypothetisches „Beispiel“. Scheint ja aber wohl solch ein „Vorfall“ seitdem nie wieder vorgekommen zu sein, obwohl alle Darsteller aus diesem Film danach in dutzenden weiteren Filmen mitgewirkt haben. Einige von ihnen sogar sehr erfolgreich bzgl. Einspielergebisse und Preisverleihungen. Deinen Äußerungen fehlt jegliche Substanz.

Dir geht es nicht um konstruktive Diskussion, dir geht es nicht einmal um die Äußerung von Meinungen, dir geht es nur darum das letzte Wort und Recht zu haben. Und du willst die Inkompetenz eines Darstellers, die Inkompetenz eines Regisseurs, die Inkompetenz eines DoP und selbst die Inkompetenz eines Drehbuchautors in der post kompensieren. Und das nennst du „Gestaltungsspielrraum“ und verlangst dafür die ultimative RAW Kamera mit der höchsten Auflösung, die heutige Technik realisieren kann.

Das ist das Mindset eines Hobbyfilmers der davon überzeugt ist, dass es nur die richtige Kamera und richtige Hardware benötigt um nachhaltig erfolgreiche Kinofilme kostengünstig produzieren zu können.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Ne - stimmt nicht.
Zeig mal.
Messerschmidt erklärts im oben verlinkten Video.

Space


Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:


Oh ja - richtig - vor 47 Jahren hatte man natürlich anderes Licht und andere Darsteller. Heute leuchten wir völlig anderes aus. Und Schauspieler bewegen sich heute auch ganz anders.

Die Darsteller nahmen sich Spielraum, den ihnen der Kameramann Haskell Wexler nicht geben wollte - sie würden ihm ständig aus dem Licht gehen - so könne er nicht arbeiten.
Daraufhin hatte Bill Butler den Film fertiggestellt.

Belastbare Quellen kannst du dir übrigens gerne selbst suchen. ;)
Leider ist das immer noch weder ein Gegenbeispiel, noch ein Argument.

Warum?

Du nimmst eine angebliche Anekdote von einem einzigen Film der vor 47 Jahren gedreht wurde als Begründung für dein hypothetisches „Beispiel“. Scheint ja aber wohl solch ein „Vorfall“ seitdem nie wieder vorgekommen zu sein, obwohl alle Darsteller aus diesem Film danach in dutzenden weiteren Filmen mitgewirkt haben. Einige von ihnen sogar sehr erfolgreich bzgl. Einspielergebisse und Preisverleihungen. Deinen Äußerungen fehlt jegliche Substanz.

Dir geht es nicht um konstruktive Diskussion, dir geht es nicht einmal um die Äußerung von Meinungen, dir geht es nur darum das letzte Wort und Recht zu haben. Und du willst die Inkompetenz eines Darstellers, die Inkompetenz eines Regisseurs, die Inkompetenz eines DoP und selbst die Inkompetenz eines Drehbuchautors in der post kompensieren. Und das nennst du „Gestaltungsspielrraum“ und verlangst dafür die ultimative RAW Kamera mit der höchsten Auflösung, die heutige Technik realisieren kann.

Das ist das Mindset eines Hobbyfilmers der davon überzeugt ist, dass es nur die richtige Kamera und richtige Hardware benötigt um nachhaltig erfolgreiche Kinofilme kostengünstig produzieren zu können.
Ich hatte auch das Messerschmidt-Video oben verlinkt. Warum wohl testet dieser DoP, der immerhin schon mal einen Oscar bekommen hatte, wohl Kameras in schwierigen Lichtverhältnissen.
Nur ein Hobbyfilmer denkt, dass in der Praxis das Licht immer zu 100% kontrolliert werden kann.

Space


Antwort von Darth Schneider:

@iasi
Nun gut wenn das Licht nicht kontrolliert werden kann, überlässt man ganz automatisch sehr wichtige Dinge (namentlich genannt, der eigentliche Look des Films) einfach so dem absoluten Zufall.

Ich denke das haben aber einige sehr eingefleischte Pixelpeeper hier immer noch nicht richtig verstanden, die denken man könne das alles in Post dann richten..
(Hallo roki ! ;)))

Das ist bei Profis, entweder ganz bewusst so gewollt, nicht anders möglich, oder einfach nur dumm….Je nach dem.
Such dir was aus.;)
Die Kamera (egal welche) ändert jedenfalls absolut nichts daran…
(Das fehlende, nicht gesetzte Licht aber leider schon)

Bei Amateuren/Hobbyfilmern sieht die Situation ganz anders aus.
Da spielt das nämlich überhaupt keine Rolle.
Weil da geht es nur um den Spass an der Sache…
Gruss Boris

Space


Antwort von andieymi:

iasi hat geschrieben:
Ich hatte auch das Messerschmidt-Video oben verlinkt. Warum wohl testet dieser DoP, der immerhin schon mal einen Oscar bekommen hatte, wohl Kameras in schwierigen Lichtverhältnissen.
Nur ein Hobbyfilmer denkt, dass in der Praxis das Licht immer zu 100% kontrolliert werden kann.
Vielleicht, weil DJI das als Argument im Marketingmaterial haben möchte?
Ist alles schön und gut, wenn DJI Oscarpreisträger vor die Marketing-Kameras zerrt und die gegen einen nicht unwesentlichen Obolus Kameratests mit mutmaßlich wohlwollendem Resultat auf Auftrag hin ausführen lässt.

Sollen sie doch, zahlt sich vermutlich für beide Seiten aus. Aber ich würde bis zu dem Punkt, wo Messerschmidt ohne jegliches Licht dreht, weil die Low-Light-Performance des DJI 4D diesen zum für diesen DP üblichen Standardkamerapackage wird, nicht sonderlich viel drauf geben. The Medium ist the Message: In diesem Fall ist das ein Marketing-Filmchen, das ist auch die Aussage.

Solange Leute nicht freiwillig etwas tun, weil es ihnen vielleicht bei der eigenen Arbeit hilft sondern ein Hersteller das ausschlachtet und entlohnt, glaubst Du wirklich irgendwas davon?

Ich würde mir eher Taten als Worte anschauen. Wie gesagt, wenn der den nächsten Film drauf dreht, ohne Licht aufskommt (und dann aber wirklich ohne 4 Sattelschlepper, Kräne, 200 x 200 Solids: Da findet man genügend Beispiele für "Available Light" wo dann solche Mittel halt zum Einsatz kommen), dann funktioniert das wahrscheinlich wirklich. Bis dahin, naja.

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Nun gut wenn das Licht nicht kontrolliert werden kann, überlässt man ganz automatisch sehr wichtige Dinge (namentlich genannt, der eigentliche Look des Films) einfach so dem absoluten Zufall.
Du kannst Wolken und Sonne nun mal nicht kontrollieren.

Und selbst im Studio hast du nicht jedes Eck bei jeder Bewegung von Darstellern und Kamera unter Kontrolle.
Es ist auch immer eine Frage des Aufwands an Material und vor allem Zeit - Drehzeit.


zum Bild



zum Bild


Space


Antwort von Darth Schneider:

@iasi
Schon klar, aber man kann mit zusätzlichem Licht Equipment sehr effizient der Mutter Natur nachhelfen und/oder auf den richtigen Himmel und das richtige Wetter und Stimmung warten.

Oder man könnte den echten Himmel heute ziemlich einfach gegen einen anderen oder künstlichen Cgi Himmel ersetzen.
Also an der ( sehr grossen ) Auswahl von zig Kameras liegt oder hapert es immer noch nicht…
Am Licht und an der grundsätzlichen Projekt Planung aber schon…;))
Gruss Boris

Space


Antwort von iasi:

andieymi hat geschrieben:

Vielleicht, weil DJI das als Argument im Marketingmaterial haben möchte?
Ist alles schön und gut, wenn DJI Oscarpreisträger vor die Marketing-Kameras zerrt und die gegen einen nicht unwesentlichen Obolus Kameratests mit mutmaßlich wohlwollendem Resultat auf Auftrag hin ausführen lässt.

Sollen sie doch, zahlt sich vermutlich für beide Seiten aus. Aber ich würde bis zu dem Punkt, wo Messerschmidt ohne jegliches Licht dreht, weil die Low-Light-Performance des DJI 4D diesen zum für diesen DP üblichen Standardkamerapackage wird, nicht sonderlich viel drauf geben. The Medium ist the Message: In diesem Fall ist das ein Marketing-Filmchen, das ist auch die Aussage.

Solange Leute nicht freiwillig etwas tun, weil es ihnen vielleicht bei der eigenen Arbeit hilft sondern ein Hersteller das ausschlachtet und entlohnt, glaubst Du wirklich irgendwas davon?

Ich würde mir eher Taten als Worte anschauen. Wie gesagt, wenn der den nächsten Film drauf dreht, ohne Licht aufskommt (und dann aber wirklich ohne 4 Sattelschlepper, Kräne, 200 x 200 Solids: Da findet man genügend Beispiele für "Available Light" wo dann solche Mittel halt zum Einsatz kommen), dann funktioniert das wahrscheinlich wirklich. Bis dahin, naja.
Aha - nun stellst du also die Aussage von Messerschmidt über ProRes Raw und seine Kameratests in Frage.
Du denkst also, jemand wie Messerschmidt macht zuvor keine Tests mit neuen Kameras, bevor er sie dann einsetzt?

Bei seinem aktuellen Film nutzt er reichlich Komodos so:





Wo fliegen hier denn die 4 Sattelschlepper mit? :)

Space


Antwort von Darth Schneider:

@iasi
Woher weisst du denn ob da nicht noch einige schnelle Hubschrauber oder andere Flugzeuge mit sehr staken Lampen zusammen mit der Messerschmitt mit unterwegs waren ?
Die das Flugzeug im Flug beleuchten….?
Möglich wäre das durchaus….

Wenn die Messerschmitt nicht zu hoch fliegt und die Kamera eher close Up filmt, ginge das auch von unten vom Boden aus mit Suchscheinwerfern…

Also das ist jedenfalls gar keine unkontrollierbare (Licht) Situation…
Gruss Boris

Space


Antwort von andieymi:

Du sprichst Drehzeit an. Wenn ich es mir leisten kann, auf Idealbedingungen zu warten, dann stört mich die schwere Kontrollierbarkeit von gewissen Bedingungen wohl wirklich nicht. Dann wird einfach gewartet bis die Bedinungen passen, oder man drehts halt am nächsten Tag. Wenn das Budget das hergibt...

Dann sollte man das aber auch so kommunizieren. Ich kann die ganzen marketingheischenden "kein zusätzliches Licht" nicht mehr hören. Stimmt sogar, weil DP, PD und Gaffer drei Monate lang dran gearbeitet haben das Licht so ins Set zu integrieren, dass drin tatsächlich kein Stativ mehr stehen muss und sich Talent frei bewegen kann. Eh super! Aber dann tun wir doch bitte nicht so, als hätten die nur die Kamera aufgestellt und verwendet was halt da war.

Und klar testet Messerschmidt. Aber soweit ich weiß dreht er trotzdem dann nicht auf den 4Ds (wären doch ideal für Flugzeuge?) sondern Komodos.

Aber glaubt (außer iasi) jemand das wirklich alles?
Er richtet es sich natürlich auch immer schön, weil natürlich alle anderen DPs Air to Air Shots von Flugzeugen mit großen HMIs leuchten, die dann von Transportflugzeugen aus die Szene in der Luft leuchten? Und Messerschmidt muss das nicht, weil er als einziger mit DJI testet und deshalb als einziger über Low Light Performance von gewissen Kameras Bescheid weiß. Bestimmt...

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Schon klar, aber man kann mit zusätzlichem Licht Equipment sehr effizient der Mutter Natur nachhelfen und/oder auf den richtigen Himmel und das richtige Wetter und Stimmung warten.

Oder man könnte den echten Himmel heute ziemlich einfach gegen einen anderen oder künstlichen Cgi Himmel ersetzen.
Also an der ( sehr grossen ) Auswahl von zig Kameras liegt oder hapert es immer noch nicht…
Am Licht und an der grundsätzlichen Projekt Planung aber schon…;))
Gruss Boris
Du denkst in diesen Extremen - ohne Licht/mit Licht.

Dabei kann es doch schon genügen, dass sich ein Darsteller in einem ausgeleuchteten Raum einer farbigen Fläche - z.B. einer farbigen Wand - nähert. Schon kannst du eine Farbverschiebung seines Hauttons bekommen, die du nicht willst.

Denkst du nicht, dass hier bei den Augen nachgeholfen wurde?
zum Bild
https://www.ndr.de/kultur/film/thebatma ... adratl.jpg

Space


Antwort von Darth Schneider:

@iasi
Wahrscheinlich schon, andersrum schau dir mal seine echten Augen etwas genauer an…
Die sehen jedenfalls auch so aus.

Er hat von Natur aus sehr grosse Augen und den stechenden Blick hat er bestens auch ohne Cgi drauf..
(Siehe Twilight, Biss zum Morgengrauen)
Eine der wichtigen Gründe warum er überhaupt die Rolle in The Batman gekriegt hat, denke ich.
Er hat von Natur aus schon den punchigen, darken Look….
Gruss Boris

Space


Antwort von iasi:

andieymi hat geschrieben:
Du sprichst Drehzeit an. Wenn ich es mir leisten kann, auf Idealbedingungen zu warten, dann stört mich die schwere Kontrollierbarkeit von gewissen Bedingungen wohl wirklich nicht. Dann wird einfach gewartet bis die Bedinungen passen, oder man drehts halt am nächsten Tag. Wenn das Budget das hergibt...

Dann sollte man das aber auch so kommunizieren. Ich kann die ganzen marketingheischenden "kein zusätzliches Licht" nicht mehr hören. Stimmt sogar, weil DP, PD und Gaffer drei Monate lang dran gearbeitet haben das Licht so ins Set zu integrieren, dass drin tatsächlich kein Stativ mehr stehen muss und sich Talent frei bewegen kann. Eh super! Aber dann tun wir doch bitte nicht so, als hätten die nur die Kamera aufgestellt und verwendet was halt da war.

Und klar testet Messerschmidt. Aber soweit ich weiß dreht er trotzdem dann nicht auf den 4Ds (wären doch ideal für Flugzeuge?) sondern Komodos.

Aber glaubt (außer iasi) jemand das wirklich alles?
Er richtet es sich natürlich auch immer schön, weil natürlich alle anderen DPs Air to Air Shots von Flugzeugen mit großen HMIs leuchten, die dann von Transportflugzeugen aus die Szene in der Luft leuchten? Und Messerschmidt muss das nicht, weil er als einziger mit DJI testet und deshalb als einziger über Low Light Performance von gewissen Kameras Bescheid weiß. Bestimmt...
Und du denkst also wirklich, dass man die absolute Kontrolle über das Licht in jeder Drehsituation erzielen kann.

Hier war das Licht-Transportflugzeug sicherlich auch immer nah dran:





Und die Lichtanbauten am Kampfjet kann man sich auch gut vorstellen. ;)

Jemand wie Messerschmidt nimmt die geeigneste Kamera für eine Aufnahme. Die Komodo wurde als Action-Kamera konzipiert - die 4D nicht. Das dürfte auch dir klar sein.

Space


Antwort von Darth Schneider:

@iasi
Hauptsache sie können kontrollieren das der Tom so aussieht wie er will, sonst gibt es einen Satz heisse Löffel…D

Der Rest vom Bild ist ja eh nicht viel mehr als langweiliges grau auf grau und hell genug…;)))
Da braucht es ganz bestimmt kein zusätzliches Licht…
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Wahrscheinlich schon, andersrum schau dir mal seine echten Augen etwas genauer an…
Die sehen jedenfalls auch so aus.

Er hat von Natur aus sehr grosse Augen und den stechenden Blick hat er bestens auch ohne Cgi drauf..
(Siehe Twilight, Biss zum Morgengrauen)
Eine der wichtigen Gründe warum er überhaupt die Rolle in The Batman gekriegt hat, denke ich.
Er hat von Natur aus schon den punchigen, darken Look….
Gruss Boris
Warum sollten die Macher die heutigen Möglichkeiten nicht nutzen?

So wie die Bilder aus der Kamera kommen, nutzt man sie heute nicht mehr.


zum Bild


Space


Antwort von Darth Schneider:

@iasi
Ich hatte ja klar geschrieben das sie wahrscheinlich bei den Batman Augen in Post nachgeholfen haben…

Ich denke nur, ohne die echten Augen die ohne Cgi schon entsprechend wirken müssen, lässt sich in Post auch nix mehr verbessern…
Ausser man ersetzt mit Cgi gleich den ganzen Kopf…;)
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Hauptsache sie können kontrollieren das der Tom so aussieht wie er will, sonst gibt es einen Satz heisse Löffel…D

Der Rest vom Bild ist ja eh nicht viel mehr als langweiliges grau auf grau und hell genug…;)))
Da braucht es ganz bestimmt kein zusätzliches Licht…
Gruss Boris
Nun - das soll wohl so sein.
Unser Tom schaut schließlich ziemlich grimmig, also so wohl die Einstellung auch ernst wirken.

Hier ist er etwas entspannter und schon ist auch das Bild ...
Das ist der heutige Gestaltungsspielraum, den man zur Verfügung hat.


zum Bild


Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Ich hatte ja klar geschrieben das sie wahrscheinlich bei den Batman Augen in Post nachgeholfen haben…

Ich denke nur, ohne die echten Augen die ohne Cgi schon entsprechend wirken müssen, lässt sich in Post auch nix mehr verbessern…
Ausser man ersetzt mit Cgi gleich den ganzen Kopf…;)
Gruss Boris
Klar - und ganz ohne Licht auf den Augen würde es auch nicht gehen.

Space


Antwort von Funless:

iasi hat geschrieben:
Dabei kann es doch schon genügen, dass sich ein Darsteller in einem ausgeleuchteten Raum einer farbigen Fläche - z.B. einer farbigen Wand - nähert. Schon kannst du eine Farbverschiebung seines Hauttons bekommen, die du nicht willst.
Schon wieder ein Beispiel mit dem Inkonpetenz am Set in der post kompensiert werden soll, solange man nur die richtige Kamera dafür hat.

Aber schon klar, wenn man an ausgebildeten Leuten für das Mood-Design, das Set-Design, die Ausleuchtung und Darsteller sparen und dennoch ein filmisches "Meisterwerk" abliefern will kommen solche kruden und realitätsfernen Beispiele als Argument.
andieymi hat geschrieben:
Aber glaubt (außer iasi) jemand das wirklich alles?
Natürlich nicht. Und als Beweis, dass offenbar nur er das glaubt, reicht es ja auch schon, dass er bspw. behauptet hat, dass bei Mad Max: Fury Road bei den Aufnahmen in der Wüste bei Tageslicht nicht geleuchtet geworden wäre. Wurde anhand von Set-Fotos widerlegt.

Er behauptete auch, dass bei Birdman nicht geleuchtet wurde. Auch diese Behauptung wurde anhand eines BTS-Clips widerlegt.

Und auf Platz 1 im ranking: iasis Behauptung, dass Deakins bei 1917 ausschließlich auf natürliches Licht vom Himmel angewiesen war weil ja nicht geleuchtet werden konnte. Wurde (überraschung) ebenfalls widerlegt vom Set-Foto aus den Dreharbeiten auf dem eine meterhoch geriggte Lichtwand zu sehen ist.

Und nun seine aktuellsten Beispiele:
Fotos von Maverick obgleich ihm offensichtlich nicht geläufig ist, dass der Vorteil bei einem fliegenden Flugzeug darin liegt, dass man die Flugbahn des Flugzeugs so steuern kann, dass das benötigte natürliche Licht im günstigen und gewünschten Winkel auf das Motiv fällt.

Space


Antwort von Darth Schneider:

Zumal man im Cockpit durchaus auch mit Lampen nachhelfen kann…
Wenn man will, sieht aber nicht danach aus auf dem Frame, das ist Licht von der Sonne…;)
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Ich denke das haben aber einige sehr eingefleischte Pixelpeeper hier immer noch nicht richtig verstanden, die denken man könne das alles in Post dann richten..
(Hallo roki ! ;)))
Dann denkst Du nicht richtig und täuschst dich mit dem User...
Ich denke nur, ohne die echten Augen die ohne Cgi schon entsprechend wirken müssen, lässt sich in Post auch nix mehr verbessern…
Ausser man ersetzt mit Cgi gleich den ganzen Kopf…;)
Ja, Rony Soussan wird dir bestimmt bestätigen ;)

https://youtu.be/mOpN6C3ZrjY?t=1206

https://www.youtube.com/watch?v=QxrNzHs5H28

Space


Antwort von Jott:

Ee wird immer lächerlicher ... Leute, bitte, hier lesen doch auch Erwachsene mit.

Space


Antwort von Darth Schneider:

Erst wegen dem vorletzten Post fängt es an irgendwie lächerlich zu werden, finde ich jetzt.
Wenn jemand so frech ist und behauptet, ich denke nicht richtig, der kein Psychiater ist wird es zu schräg für mich.
Ich Steig aus, viel Spass noch.
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Erst wegen dem vorletzten Post fängt es an irgendwie lächerlich zu werden, finde ich jetzt.;)
Gruss Boris
heute scheint wieder dein Tag zu sein...

Space


Antwort von Darth Schneider:

@roki
Die Diskussion war eigentlich schon gut bis du was geschrieben hast.;)
Der Tag ist aber immer noch gut.
Und Tschüss.
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Die Diskussion war gut bis du geschrieben hast.
Der Tag ist aber immer noch gut.
Und Tschüss.
Quatsch. Jott hat euch (vor allem dich) mit nem Einzeiler beruhigt... ;)

Space


Antwort von Darth Schneider:

@roki
Und du kannst mit einem Einzeiler nerven…;)))))

Zumal, ich war gar nicht aufgeregt…
Und ich denke ich lag auch gar nicht zwangsläufig mit allem nur annähernd falsch, mit was ich geschrieben habe.

Iasi auch nicht. Jott auch gar nicht…Du ja auch nicht.;)
Das sind einfach völlig verschiedene Sichtweisen von verschiedenen Menschen.
Das wäre ja eigentlich spannend, wenn die doofen Egos (wie deins) nicht wären…D

Lassen wir’s doch.
Ich denke du hast auch ganz bestimmt besseres zu tun..
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Ich war aber gar nicht aufgeregt…
Und ich denke ich lag auch gar nicht zwangsläufig mit allem falsch, mit was ich geschrieben habe.
Iasi auch nicht. Jott auch gar nicht…Du ja auch nicht.;)
Das sind einfach völlig verschiedene Sichtweisen von verschiedenen Menschen.

Lassen wir’s doch.
Ich denke du hast auch besseres zu tun..
Is gut, beruhige dich... Unmöglich wie Jott Einzeiler bei dir wirkt^^ Leg dich noch ein paar stunden hin, vll. musst du noch ausschlafen...du armer ;))

Space


Antwort von Darth Schneider:

@roki
Edit, ja das mache ich, weil ich finde dort immer noch Fehler, oder was, was ich anders formulieren kann…;)
Mein Recht.

Und du schnallst es scheinbar immer noch nicht ?

Aufregen tue ich mich erst seit DU hier mir schreibst.
Seltsam, oder ?

Lassen wir es jetzt ?
SlashCAM zuliebe ?
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Aufregen tue ich mich erst seit DU hier mir schreibst.
Seltsam, oder ?
Seit Du mein Username erwähnt hast und ins lächerliche ziehst...

Und das andere war nur Bestätigung von Rony Soussan^^

Und dann hat dich Jott mit nem Einzeiler völlig durcheinander gebracht... ^^
Keine Ahnung was Du wiedermal hast. Nicht andere sind schuld. Beruhige dich einfach und gut is. ;))

Space


Antwort von Darth Schneider:

@roki
Du magst bei mir auch Sticheln, das immer mal wieder,;))

und deine Aussagen, lassen mir halt zum Teil keine Wahl.
Als dich nicht besonders ernst oder für voll zu nehmen…
Nur bezogen auf diese eine Hinsicht, was im Forum gerade diskutiert wird, doch nicht grundsätzlich als Menschen.

Also, persönlich angreifen oder beleidigen will ich eigentlich gar niemanden damit.
Gruss Boris

Space


Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:
Dabei kann es doch schon genügen, dass sich ein Darsteller in einem ausgeleuchteten Raum einer farbigen Fläche - z.B. einer farbigen Wand - nähert. Schon kannst du eine Farbverschiebung seines Hauttons bekommen, die du nicht willst.
Schon wieder ein Beispiel mit dem Inkonpetenz am Set in der post kompensiert werden soll, solange man nur die richtige Kamera dafür hat.

Aber schon klar, wenn man an ausgebildeten Leuten für das Mood-Design, das Set-Design, die Ausleuchtung und Darsteller sparen und dennoch ein filmisches "Meisterwerk" abliefern will kommen solche kruden und realitätsfernen Beispiele als Argument.
andieymi hat geschrieben:
Aber glaubt (außer iasi) jemand das wirklich alles?
Natürlich nicht. Und als Beweis, dass offenbar nur er das glaubt, reicht es ja auch schon, dass er bspw. behauptet hat, dass bei Mad Max: Fury Road bei den Aufnahmen in der Wüste bei Tageslicht nicht geleuchtet geworden wäre. Wurde anhand von Set-Fotos widerlegt.

Er behauptete auch, dass bei Birdman nicht geleuchtet wurde. Auch diese Behauptung wurde anhand eines BTS-Clips widerlegt.

Und auf Platz 1 im ranking: iasis Behauptung, dass Deakins bei 1917 ausschließlich auf natürliches Licht vom Himmel angewiesen war weil ja nicht geleuchtet werden konnte. Wurde (überraschung) ebenfalls widerlegt vom Set-Foto aus den Dreharbeiten auf dem eine meterhoch geriggte Lichtwand zu sehen ist.

Und nun seine aktuellsten Beispiele:
Fotos von Maverick obgleich ihm offensichtlich nicht geläufig ist, dass der Vorteil bei einem fliegenden Flugzeug darin liegt, dass man die Flugbahn des Flugzeugs so steuern kann, dass das benötigte natürliche Licht im günstigen und gewünschten Winkel auf das Motiv fällt.
Nun meinst du also, du müsstest ganz verbissen mit wilden Behauptungen irgendwie Recht behalten zu können.

Da kann Deakins selbst davon berichten, dass bei einigen Szenen von 1917 keine Ausleuchtung möglich war und das ganze Team auf Wolken warten musste, aber unser Funless wischt dies mal eben damit beiseite, dass Deakins bei anderen Szenen Lampen genutzt hatte.

Da stellt unser Funless es mal kurz so dar, als wäre bei Birdman gar kein Licht nötig gewesen, um den Sensor zu belichten.

Und zuletzt verzichtet Funless dann doch auf den Transportflieger mit den vielen HMIs und erzählt etwas darüber, wie man vorhandenes Licht nutzen kann.

Ach ja - nicht zu vergessen Mad Max: Fury Road. Funless sieht einige Lampen und schon wurden sogar wildeste Action-Sequenzen so ausgeleuchtet, dass das fertige Bild regelrecht aus der Kamera kam.
zum Bild
https://www.fxguide.com/wp-content/uplo ... -00073.jpg


Für Paris Texas hatte Robby Müller einige Lichtsituationen eingefangen, die man nicht steuern kann:


zum Bild


Man kann sich nur darauf einstellen.
Und dann gibt es eben solche Anekdoten wie die von Frederick Young, der für eine Sonnenaufgang-Einstellung am Morgen zuvor im Sand liegend die Schatten von Fußabdrücken ausgemessen hatte.

Die maximale Kontrolle über das Licht erhältst du nur, wenn du zunächst alles abdunkelst und dann Licht setzt.
Aber auch hierbei ist die vollkommene Kontrolle nicht möglich, denn Bewegungen und Reflektionen kann man nicht vollkommen voraussehen.

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Du magst bei mir auch Sticheln, das immer mal wieder,;))
Ne. Ich bin hier um über Kameras, Bit's, K's, Colorgrading etc. zu diskutieren und das wollte ich hier mit iasi weiter tun.

Space


Antwort von Jott:

Paris Texas: check. Frederick Young vermisst Fußspuren: check. Birdman: check. Batman-Augen: check. Deakins sorgt sich wegen Imax: check. Haben wir die irgendwann irgendwo angelesenen Standardanekdoten wieder mal durch? Wo bleibt der Camera Shootout 2012?

Übrigens hattest du, Iasi, mal behauptet, Birdman sei ohne Licht gedreht wegen raw bla bla. Setfotos belegen das krasse Gegenteil: spezielle bewegliche Lichtrigs. Trotz raw bla bla. So viel zur Qualität deiner Anekdoten.

Ständige Wiederholungen, dennoch echt hoher Unterhaltungsfaktor. Aber wieso man zur simplen Augenaufhellung 12Bit raw brauchen soll, bleibt dein Geheimnis.

Space


Antwort von roki100:

Jott hat geschrieben:
Und wieso man zur simplen Augenaufhellung 12Bit raw brauchen soll, bleibt sowieso dein Geheimnis.
...und wieso man ganze Köpfe austauschen muss, wenn Augenaufhellung nicht geht, bleibt sowieso Boris Geheimnis. Er absolviert momentan sein CGI und Colorgrading Studium im Jahr 1981... Und mit dem besonderen Fachwissen, erklärt er sich natürlich für völlig berechtigt und in Ordnung, andere User für doof, lächerlich usw. zu verkaufen.

Space


Antwort von Jott:

Iasi hier vor acht Jahren:

„ Den Epic-Dragon-Mehrpreis kann ich mir sparen. Das mehr an Auflösung brauche ich nicht und höhere Frameraten für Slow-Motion nutze ich so gut wie nie.
Die Scarlet Dragon bietet schließlich 5k/HFR - das genügt selbst für 4k-Projektionen.“

Damals war der Specs-Wahn noch nicht so ausgeprägt, man konnte noch filmen mit vorhandenen Kameras! :-)

Space


Antwort von roki100:

Aj aj aja... iasi. Bleib stark, mit Jott ist auf jeden Fall nicht zu spaßen^^ Er hat mit einem Einzeiler eine innere Unruhe bei einem bestimmten Leser ausgelöst und mit deinem Zitat vor 8 Jahren nun bei dir eine völlige Verwirrung ausgelöst...

Morgen ist Sonntag! Ab in die Kirche und betet um Vergebung!

Space


Antwort von iasi:

Jott hat geschrieben:


Übrigens hattest du, Iasi, mal behauptet, Birdman sei ohne Licht gedreht wegen raw bla bla. Setfotos belegen das krasse Gegenteil: spezielle bewegliche Lichtrigs. Trotz raw bla bla. So viel zur Qualität deiner Anekdoten.

Das sind diese nervigen falschen Behauptungen.
Generell geht ohne Licht ja schon mal gar nichts.
Und denk doch einfach mal nach: Bei Innenaufnahmen hat man meist künstliches Licht.
Es gibt jedoch bei Birdman auch Szenen, bei denen kaum Einfluss auf Licht genommen werden konnte - z.B. diese Szene:



Und damit du mir nicht wieder etwas von versteckten HMIs erzählst:



https://www.businessinsider.com/how-bir ... ene-2015-1

Space


Antwort von iasi:

Jott hat geschrieben:
Iasi hier vor acht Jahren:

„ Den Epic-Dragon-Mehrpreis kann ich mir sparen. Das mehr an Auflösung brauche ich nicht und höhere Frameraten für Slow-Motion nutze ich so gut wie nie.
Die Scarlet Dragon bietet schließlich 5k/HFR - das genügt selbst für 4k-Projektionen.“

Damals war der Specs-Wahn noch nicht so ausgeprägt, man konnte noch filmen mit vorhandenen Kameras! :-)
Ja - und man nutze schon damals die Kameras, auf dem aktuellen technischen Stand.

Zu Red-Dragon erklärte unser Jott noch tapfer, dass 4k überflüssig und 2k völlig ausreichend seien.
Nun bieten 5000€-Kameras 12bit-Raw/8k/HFR und unser Jott ist überzeugt, dass 10bit/4k völlig ausreichend seien.

Nach Jotts Logik muss sich die Kameratechnik eigentlich gar nicht mehr weiterentwickeln, denn man kann ja schon lange mit Kameras filmen.
Das versteh wer will, warum Jott überhauüt noch seine Zeit mit Diskussionen über neue Kameras vergeudet. :)

Ich bleibe jedoch dabei, die am besten geeigneste Kamera für einen Dreh anzustreben.
Warum also 10bit, wenn auch 12bit möglich sind?
Um diese Frage drückt sich Jott schon eine Weile herum.

Space


Antwort von roki100:

iasi hat geschrieben:
Warum also 10bit, wenn auch 12bit möglich sind?
Es geht aber nicht warum und darum, sondern um die Behauptung, dass NUR 12Bit cine ist und das andere Video usw.

Ich bin auch der Meinung, dass 2K völlig ausreicht, solange die 2K clean sind / frei von komische Artefakten usw.

Space


Antwort von Darth Schneider:

Ich bin der Meinung 2K reicht grundsätzlich sicher für die meisten Aufnahmen.
Aber 4K sieht auf einer 2K Timeline trotzdem einfach irgendwie besser aus, als 2K in einer 2K Timeline.

Genau so wie einem 12 Bit Farbtiefe einfach mehr Möglichkeiten in Post bieten, als 8 und auch als 10 Bit, die ich persönlich schon sehr gerne nutze…;))
Aber jedem das was er will..
Gruss Boris

Space


Antwort von markusG:

iasi hat geschrieben:
Ja - und man nutze schon damals die Kameras, auf dem aktuellen technischen Stand.
Nö. Zu der Zeit hat keiner ernsthaft Red für Spielfilm genutzt, trotz theoretischer Überlegenheit (höhere Auflösung, Raw usw. ). Da war Alexa und ProRes das Maß aller Dinge, oder gar noch Film für diejenigen die das Budget dafür hätten.

Was nützt ein theoretischer Mehrwert durch ein "überlegenes" Aufnahmeformat, wenn die ganzen anderen Bereiche unterlegen sind?

Vor ein paar Jahren gab es einen Hype um die Sony F35. Die kam ohne Raw aus und lieferte nur 2k. Die Kameta hatte aber ganz andere Schwächen, der Hype entsprechend kurz. Und zu "Lebzeiten" war die Alexa eh ihr Sargnagel, nicht RED mit raw und 4k+

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Genau so wie einem 12 Bit Farbtiefe einfach mehr Möglichkeiten in Post bieten, als 8 und auch als 10 Bit, die ich persönlich schon sehr gerne nutze…;))
Da Du die "mehr 12Bt Möglichkeiten" in Post scheinbar schon nutzt und die Möglichkeiten kennst, dann kannst Du sicherlich zeigen, wo die mehr Möglichkeiten im Vergleich zu 12Bit sind...
Ich meine, Farben in Zahlen erklären, darum geht es nicht (also nicht Theorie), sondern um die Möglichkeiten in der Post (Praxis), es geht um Vorteile und Nachteile...aber auch darum, was überflüssig ist und was nicht usw. Um bei Mavo zu bleiben, zB. die 8K uncompressed RAW, das kann dir mehr Nachteile bringen, als im Vergleich zu andere Kamera mit weniger K und compressed RAW, oder -2 weniger (10)Bit.

Ein Beispiel: das Bild oben von iasi "Paris Texas", wenn Du das mit Edge 8K in uncompressed RAW aufnehmen würdest, dann würdest Du ganz viel rauschen im Bild sehen - diese lassen sich nur mit "NeatVideo" sauber entfernen.... In so einem Fall empfehlen die Mavo Lieblinge (also nicht irgendjemand, sondern Menschen die die beide Kameras gut kennen usw.) eher die Edge 6K, weil das bild "sauberer" ist / mehr Dynamicrange/ bessere ISO Leitung usw. Selbst mit 10Bit ist das Bild dann viel sauberer...und Du hast in der Post keine verrückte Wartezeiten, bist schneller mit guten Ergebnisse usw. usf.

Space


Antwort von Darth Schneider:

@roki
Willst du denn wirklich den Workflow von hochwertigen Hollywood Produktionen was die Farbtiefe betrifft mit den unseren bescheidenen ersten Gehversuchen vergleichen ???
Da fange ich gar nicht erst an darüber nachzudenken roki.D

Mein stures Fazit dazu ist.:
Mir persönlich bietet halt das 12 Bit BRaw viel mehr Spielraum als das 10 Bit ProRes HQ, oder ein 10Bit 4:2:2 File von der Fuji XT-4 das zusammen mit dem Ninja aufgenommen wurde.

Aber kann natürlich nur von dem schreiben womit ich auch arbeite und auch meine Erfahrungen gemacht habe…:)
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Willst du denn wirklich den Workflow von hochwertigen Hollywood Produktionen was die Farbtiefe betrifft mit den unseren bescheidenen ersten Gehversuchen vergleichen ???
Es ging darum:
Genau so wie einem 12 Bit Farbtiefe einfach mehr Möglichkeiten in Post bieten, als 8 und auch als 10 Bit, die ich persönlich schon sehr gerne nutze…;)) Zeig mal die Unterschiede... Aber lies vorher erstmal ab hier: viewtopic.php?f=2&t=156769&start=105#p1154247

Space


Antwort von Darth Schneider:

@roki
Jetzt wirst du aber echt deppert.
DU hast mit Hollywood Filmen, nämlich mit (Paris Texas) angefangen.
Fass Dich an die eigene Nase.

Und ich zeige gar nix, nimm BRaw und ProRes auf (oder lade die Daten vom Netz runter) und probiere es gefälligst doch mal in Ruhe selber.
Ich bin nicht der Analyse Typ.
Mir gehts auch nicht zuletzt um den Workflow…


Ende und aus,
solch sinnlose Diskussionen bringen absolut nix.
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Jetzt wirst du aber echt deppert.
DU hast mit Hollywood Filmen, nämlich mit (Paris Texas) angefangen.
Fass Dich an die eigene Nase.
??? Du plapperst wiedermal Blödsinn... und bist Unfähig normal zu diskutieren.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Warum also 10bit, wenn auch 12bit möglich sind?
Es geht aber nicht warum und darum, sondern um die Behauptung, dass NUR 12Bit cine ist und das andere Video usw.

Ich bin auch der Meinung, dass 2K völlig ausreicht, solange die 2K clean sind / frei von komische Artefakten usw.
Heute ist 12bit+ der Cine-Standard.

Dies ergibt sich auch aus den neuen Projektionsstandards im Kino.

Natürlich konnte man zu Filmzeiten auch auf 16mm oder gar auf S8 fürs Kino drehen, jedoch entsprach auch dies nicht dem Standard.
Und ein Kamera-Hersteller hätte wohl kaum ein S8-Modell in seine Cine-Reihe genommen.

Es muss zudem um die Frage des Warum gehen, denn die Formatfrage ist in mehrerlei Hinsicht von großer Bedeutung.
Früher ging man schließlich auch nicht nur her und sagte:
"Och - wir drehen auf 16mm. Bestell mal irgendein Filmmaterial."

Space


Antwort von Darth Schneider:

Schaut euch die Kino Kameras genauer an womit heute sehr viel gedreht wird ?
Alle können 12 Bit….
Warum sollte dann jemand der fürs Kino dreht überhaupt (freiwillig) mit weniger Bit aufnehmen wollen ?
Es kostet ja gleich viel..;)))
Gruss Boris

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:


Es geht aber nicht warum und darum, sondern um die Behauptung, dass NUR 12Bit cine ist und das andere Video usw.

Ich bin auch der Meinung, dass 2K völlig ausreicht, solange die 2K clean sind / frei von komische Artefakten usw.
Heute ist 12bit+ der Cine-Standard.

Dies ergibt sich auch aus den neuen Projektionsstandards im Kino.
Und wo steht dass 10Bit nicht akzeptiert wird?

Aber auch solche wie Netflix zB. akzeptieren Drehs mit mindestens 10Bit-Log und nicht "nur" 12Bit+.

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Warum sollte dann jemand der fürs Kino dreht überhaupt (freiwillig) mit weniger Bit aufnehmen wollen ?
Na vll. darum:
Ein Beispiel: das Bild oben von iasi "Paris Texas", wenn Du das mit Edge 8K in uncompressed RAW aufnehmen würdest, dann würdest Du ganz viel rauschen im Bild sehen - diese lassen sich nur mit "NeatVideo" sauber entfernen.... In so einem Fall empfehlen die Mavo Lieblinge (also nicht irgendjemand, sondern Menschen die die beide Kameras gut kennen usw.) eher die Edge 6K, weil das bild "sauberer" ist / mehr Dynamicrange/ bessere ISO Leitung usw. Selbst mit 10Bit ist das Bild dann viel sauberer...und Du hast in der Post keine verrückte Wartezeiten, bist schneller mit guten Ergebnisse usw. usf. ?

Space


Antwort von iasi:

markusG hat geschrieben:
iasi hat geschrieben:
Ja - und man nutze schon damals die Kameras, auf dem aktuellen technischen Stand.
Nö. Zu der Zeit hat keiner ernsthaft Red für Spielfilm genutzt, trotz theoretischer Überlegenheit (höhere Auflösung, Raw usw. ). Da war Alexa und ProRes das Maß aller Dinge, oder gar noch Film für diejenigen die das Budget dafür hätten.

Was nützt ein theoretischer Mehrwert durch ein "überlegenes" Aufnahmeformat, wenn die ganzen anderen Bereiche unterlegen sind?

Vor ein paar Jahren gab es einen Hype um die Sony F35. Die kam ohne Raw aus und lieferte nur 2k. Die Kameta hatte aber ganz andere Schwächen, der Hype entsprechend kurz. Und zu "Lebzeiten" war die Alexa eh ihr Sargnagel, nicht RED mit raw und 4k+
Nö.
Die Umstellung eines Produktionsprozesses geht nun einmal bei Kinoproduktionen nicht mal eben über Nacht, wie bei dir.
Zeig mir doch mal aktuelle Produktionen, die heute noch mit 10bit arbeiten.

Bezeichnend ist übrigens auch, dass du ProRes mal eben verallgemeinerst und noch nicht mal die verschiedenen ProRes-Formate unterscheidest.
Gerade hier ging es aber eben schon zu Beginn um die Frage: ProRes 4444XQ vs 10bit-Codec.

Übrigens ist es schlicht Quatsch über "Sargnagel" zu reden, denn es gibt noch immer Arri-, Red- und Sony-Cinema-Kameras.
Der Film des Jahres, in den die größten Erwartungen gesetzt werden, wurde übrigens mit Sony CineAlta VENICE 3D gedreht.

Space


Antwort von iasi:

roki100 hat geschrieben:

Ein Beispiel: das Bild oben von iasi "Paris Texas", wenn Du das mit Edge 8K in uncompressed RAW aufnehmen würdest, dann würdest Du ganz viel rauschen im Bild sehen - diese lassen sich nur mit "NeatVideo" sauber entfernen.... In so einem Fall empfehlen die Mavo Lieblinge (also nicht irgendjemand, sondern Menschen die die beide Kameras gut kennen usw.) eher die Edge 6K, weil das bild "sauberer" ist / mehr Dynamicrange/ bessere ISO Leitung usw. Selbst mit 10Bit ist das Bild dann viel sauberer...und Du hast in der Post keine verrückte Wartezeiten, bist schneller mit guten Ergebnisse usw. usf.
Das ist wirklich Quatsch.

Das klingt gerade so, als würde ein Knipser erklären:
Ich fotografiere das im jpg-Format, denn da ist das Rauschen schon rausgerechnet und ich brauch nicht soviel Zeit mit Grading verschwenden.
Und so ein Knipser findet dann eine jpg-Kamera, die das Bild schon intern zusammenkocht, natürlich auch besser als eine Raw-Kamera.

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:

Ein Beispiel: das Bild oben von iasi "Paris Texas", wenn Du das mit Edge 8K in uncompressed RAW aufnehmen würdest, dann würdest Du ganz viel rauschen im Bild sehen - diese lassen sich nur mit "NeatVideo" sauber entfernen.... In so einem Fall empfehlen die Mavo Lieblinge (also nicht irgendjemand, sondern Menschen die die beide Kameras gut kennen usw.) eher die Edge 6K, weil das bild "sauberer" ist / mehr Dynamicrange/ bessere ISO Leitung usw. Selbst mit 10Bit ist das Bild dann viel sauberer...und Du hast in der Post keine verrückte Wartezeiten, bist schneller mit guten Ergebnisse usw. usf.
Das ist wirklich Quatsch.
Das ist nicht Quatsch, sondern von Mavo Edge Leute so erzählt und ich kann das gut verstehen. Und dein Urteil zeigt mir, dass Du (in diesem Fall) Quatsch erzählst (sorry). Es geht ja nicht um jpg, sondern um das erwähnte Beispiel...

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Das ist wirklich Quatsch.
Das ist nicht Quatsch, sondern von Mavo Edge Leute so erzählt und ich kann das gut verstehen.
Welche Mavo Edge Leute sollen das denn sein?

Es gibt viele Leute - mich eingeschlossen - die wollen keine in-camera-NR.
NR erfolgt dann in der Post.

Wenn ich mal schnell im Internet sich, dann stoße ich z.B. auf das hier:

https://youtu.be/4DHWOAAPRVk?t=245

Space


Antwort von roki100:

iasi hat geschrieben:
Es gibt viele Leute - mich eingeschlossen - die wollen keine in-camera-NR.
NR erfolgt dann in der Post.
Das hat nichts mit in-camera-NR zu tun, sondern mit dem scheinbar schlechterem LowLight 8K Sensor, der auch noch mehr Hitze produziert usw. Alles in einem ergibt das ganze a) schlechteres Bild und b) mehr Aufwand in Post.... und Mavo 6K zB. ein sauberes Bild (bessere ISO Leistung ua. etwas mehr Dynamicrange...) und auch weniger Aufwand in Post...

Space


Antwort von Funless:

iasi hat geschrieben:
Heute ist 12bit+ der Cine-Standard.

Dies ergibt sich auch aus den neuen Projektionsstandards im Kino.
Ich frage mich ernsthaft wie jemand der überhaupt keine Kinofilme dreht seit Jahren so verbissen über „Cine-Kameras“ schwadronieren kann.

Dass du offensichtlich noch nie am Set einer größeren Produktion zugegen warst liest man ja unschwer an jedem deiner Postings heraus. Aus dem Grund gibst du ja auch keine Anekdoten aus eigener Erfahrung am Set zum Besten, sondern kramst irgendwelche Aussagen aus dem Internet zusammen.

Ich frage mich wirklich: wie kommt‘s? Ist dir so langweilig?

Ach und übrigens, wann erwähnst du endlich das berühmte Kamera Shootout von 2012? Ist schon längst überfällig von dir. Insbesondere, da es doch bereits 10 jähriges Jubiläum hat.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Es gibt viele Leute - mich eingeschlossen - die wollen keine in-camera-NR.
NR erfolgt dann in der Post.
Das hat nichts mit in-camera-NR zu tun, sondern mit dem scheinbar schlechterem LowLight 8K Sensor, der auch noch mehr Hitze produziert usw. Alles in einem ergibt das ganze a) schlechteres Bild und b) mehr Aufwand in Post.... und Mavo 6K zB. ein sauberes Bild (bessere ISO Leistung ua. etwas mehr Dynamicrange...) und auch weniger Aufwand in Post...
Woher hast du denn diese Behauptung?

Im nach kurzer Suche gefundenen Test ist jedenfalls davon die Rede, dass selbst ISO 16.000 nutzbare Ergebnisse liefern.

Space


Antwort von iasi:

Funless hat geschrieben:
iasi hat geschrieben:
Heute ist 12bit+ der Cine-Standard.

Dies ergibt sich auch aus den neuen Projektionsstandards im Kino.
Ich frage mich ernsthaft wie jemand der überhaupt keine Kinofilme dreht seit Jahren so verbissen über „Cine-Kameras“ schwadronieren kann.
Stehst du vor einem Spiegel?

Ich frage mich ernsthaft, wie jemand der überhaupt noch keine Kinokamera genutzt hat, so verbissen über „Cine-Kameras“ schwadronieren kann. ;)

Ein Vorschlag:
Lade doch mal Raw-Material herunter, hau ein LUT drüber und exportiere direkt in 10bit.
Dann fang mal an richtig heftig zu graden - das Raw- und das 10bit-Material.

https://webgate.io/en/directlink/2d375f9f1a442fac

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:


Das hat nichts mit in-camera-NR zu tun, sondern mit dem scheinbar schlechterem LowLight 8K Sensor, der auch noch mehr Hitze produziert usw. Alles in einem ergibt das ganze a) schlechteres Bild und b) mehr Aufwand in Post.... und Mavo 6K zB. ein sauberes Bild (bessere ISO Leistung ua. etwas mehr Dynamicrange...) und auch weniger Aufwand in Post...
Woher hast du denn diese Behauptung?
zB:
https://youtu.be/WGmY4aUU5no?t=30

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:


Woher hast du denn diese Behauptung?
zB:
https://youtu.be/WGmY4aUU5no?t=30
Und was soll das nun aussagen?

Er hier sagt da schon mehr und deutlicher etwas zur Kamera:

https://youtu.be/_lE-jRlshhQ?t=352

Space


Antwort von roki100:

iasi hat geschrieben:
roki100 hat geschrieben:


zB:
https://youtu.be/WGmY4aUU5no?t=30
Und was soll das nun aussagen?

Man kann doch das rauschen nicht wirklich übersehen.... Die Frage ist auch, wie sieht es aus mit uncompressed RAW 75fps ?

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Off-Topic-Forum

Antworten zu ähnlichen Fragen //


Kinefinity: Neue Firmware KineOS 7.1 bringt MAVO Edge Kameras neuen ProRes4444-Effizienzmodus und SDI-Funktionen
HD-SDI-Kamera für Fußballspiele
Günstige (gebrauchte) HD-SDI-Kameras für mobile Studioanwendung.
Mini HD-SDI Kamera für Festinstallationen auf Festival
günstige HD-SDI Kamera
Neue Kinefinity Cine Kameras günstiger - MAVO S35 mark2 und MAVO LF mark2
Preissenkung bei Kinefinity - TERRA 4K, MAVO 6K und MAVO LF
Kinefinity MAVO Edge - 8K-Vollformat Cine-Kamera mit eND und ProRes RAW
Kinefinity MAVO Edge 8K - Erster Demo Film
Kinefinity MAVO Edge 8K Review
Kinefinity stellt MAVO Edge 6K vor - Body für 9.999 US-Dollar
Kinefinity MAVO Edge 6K - ProRes statt compressed RAW
Neuer Kinefinity Eagle SDI EVF für Cine-Kameras vorgestellt
Ursa Mini Pro 4,6 G1 - Prores4444 oder BRAW
RØDE VideoMic NTG: Neue Firmware bringt volle iOS-Kompatibilität und neue Funktionen
Neue Firmware 3.00 für Sony FX6 bringt unter anderem neue Funktionen für Sonys C3 Cloud
Canon: Neue Firmware für EOS C500 Mark II und EOS C300 Mark III bringt neue Funktionen
Nun auch Sony-Kameras als Webcams nutzbar mit neuer Imaging Edge Webcam Software
Sonys kostenloses Imaging Edge Webcam Tool macht Kameras zu Webcams - jetzt auch für macOS
Firmware 1.0.5.1 für Canon EOS C70 verfügbar mit vielen neuen Funktionen
Neue Firmware für DJI RS 2 und RSC 2 Gimbals bringt Unterstützung für neue Kameras
AJA Ki Pro GO Firmware-Update 2.0 bringt neue Funktionen




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash