Mit dem Erscheinen der Nikon ZR gelang Nikon ein überraschender Erfolg. Unter anderem auch, weil wohl niemand damit gerechnet hatte, dass sich bereits 18 Monate nach dem ... Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten: RED erklärt die Umbenennung von NEV-Dateien in R3D
@slashcam, Ihr schreibt:
"Diese Dateien bleiben technisch gesehen N-RAW/N-Log und passen somit nicht in den RED-Workflow für R3D – schon alleine, weil sie nicht im Log3G10/RWG Farbraum vorliegen."
Das kann so nicht stimmen, da Raw-Daten selbst keinen Farbraum und kein Gamma haben.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip
Grundsätzlich gebe ich dir Recht, weil RAW eben RAW ist, aber die News beschreibt, was RED dazu erklärt:
Inside the Nikon ZR itself, sensor data is processed into a RED industry adopted Log3G10/RWG image
rudi hat geschrieben: ↑Mo 27 Okt, 2025 14:35
Grundsätzlich gebe ich dir Recht, weil RAW eben RAW ist, aber die News beschreibt, was RED dazu erklärt:
Inside the Nikon ZR itself, sensor data is processed into a RED industry adopted Log3G10/RWG image
Das bezieht sich aber nur aufs Monitoring: "Inside the Nikon ZR itself, sensor data is processed into a RED industry adopted Log3G10/RWG image, allowing for on-set monitoring with the same 3D LUT’s that would be used in any RED workflow. ".
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip
cantsin hat geschrieben: ↑Mo 27 Okt, 2025 14:30
@slashcam, Ihr schreibt:
"Diese Dateien bleiben technisch gesehen N-RAW/N-Log und passen somit nicht in den RED-Workflow für R3D – schon alleine, weil sie nicht im Log3G10/RWG Farbraum vorliegen."
Das kann so nicht stimmen, da Raw-Daten selbst keinen Farbraum und kein Gamma haben.
RED schreibt selbst: "These files technically remain N-RAW, and are still indicated as such in the software, as they do not include any of the in-camera characterization, metadata, and workflow that makes REDCODE RAW what it is. Importantly, these renamed files will not be the same as an R3D NE file shot with the same camera – the color, exposure, and latitude will all differ."
Der Unterschied liegt hinter dem Querstrich. Die Dateien bleiben N-RAW, haben daher nicht die Profilierung, Metadaten und damit auch nicht die Farben und die ISO-/White Point-Kalibierung von R3D...
...ABER: sie liegen im Log3G10-Gamma/RWG-Farbraum vor, sobald sie in der RED-Pipeline prozessiert werden. Und zwar nicht nur durch den Umbenennungstrick, sondern auch in REDCINE-X.
RED schreibt auch nirgendwo in seinem Dokument, dass in der RED-Pipeline prozessiertes NRAW nicht in Log3G10/RWG vorliegt.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip
Es geht um den Input Color Space auf den sich die RAW-Daten beziehen und der ist bei R3D NE RED Wide Gammut und bei NRAW REC2020. Hier ist eine Antwort, die die KI zu dem Thema auswirft:
Raw data needs an input color space so that software can correctly interpret the sensor's captured data and convert it into a standard, usable image format (like RGB) for viewing, editing, or delivery. Without this information, the software wouldn't know the relationship between the raw pixel values and the colors they are intended to represent, leading to incorrect or undefined colors.
Here's a breakdown of why it's necessary:
Raw Data Isn't a "Color Image" Yet: Raw files contain uninterpreted data directly from the camera's sensor, not an RGB image with defined colors. They are like a blueprint of colors, not the finished colored picture.
Defining the "Color Map": The input color space acts as a key to translate these raw sensor values into colors that are understandable by software and human eyes. It tells the software what range of colors the camera can capture.
Ensuring Accurate Conversion: Software like image editors or video grading tools use the input color space to perform a Color Space Transform (CST). This process converts the raw data into a linear, wide-gamut working color space (like ProPhoto RGB or DaVinci Wide Gamut) that preserves the maximum amount of detail captured by the sensor.
Consistency and Workflow: By defining the input color space, users can ensure consistent color interpretation across different cameras and software, setting a reliable starting point for color grading and image manipulation.
In essence: An input color space tells the software, "This raw data was captured by a camera that sees colors within this specific range (e.g., Arri LogC)," allowing the software to correctly map those colors into a wider, workable space.
pillepalle hat geschrieben: ↑Mo 27 Okt, 2025 15:09
Es geht um den Input Color Space auf den sich die RAW-Daten beziehen und der ist bei R3D NE RED Wide Gammut und bei NRAW REC2020. Hier ist eine Antwort, die die KI zu dem Thema auswirft:
Raw data needs an input color space so that software can correctly interpret the sensor's captured data and convert it into a standard, usable image format (like RGB) for viewing, editing, or delivery. Without this information, the software wouldn't know the relationship between the raw pixel values and the colors they are intended to represent, leading to incorrect or undefined colors.
Nee, missverständlich was die KI hier auswirft - der Input-Colorspace ist der Farbraum, in dem die Post-Software die Raw-Daten interpretiert.
Beispiel: Wenn Du DNG in Lightroom öffnest, ist ProPhoto der Input Color Space. Wenn Du dasselbe DNG in Resolve öffnest, ist je nach Einstellung im Raw-Tab Rec709 oder "Blackmagic Design/Blackmagic Design Film" der Input Color Space und das Gamma.
Bezogen auf NRAW: Wenn Du es in der Nikon NRAW-Pipeline öffnest, ist der Input Color Space (bzw. die Farbraum-Interpretation) Rec2100. Wenn es in der RED-Pipeline öffnest, ist RED Wide Gamut der Input Color Space.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip
rudi hat geschrieben: ↑Mo 27 Okt, 2025 14:35
Grundsätzlich gebe ich dir Recht, weil RAW eben RAW ist, aber die News beschreibt, was RED dazu erklärt:
Inside the Nikon ZR itself, sensor data is processed into a RED industry adopted Log3G10/RWG image
Das bezieht sich aber nur aufs Monitoring: "Inside the Nikon ZR itself, sensor data is processed into a RED industry adopted Log3G10/RWG image, allowing for on-set monitoring with the same 3D LUT’s that would be used in any RED workflow. ".
Hmm, könnte man das das als "nur" interpretieren? Oder auch als einen konkreten Grund, warum das schon in der Kamera passieren muss?
Wie gesagt, ich persönlich denke auch, dass die Bytes der Rohdaten die gleichen sind, egal ob man in NEV oder R3D aufzeichnet. Einfach schon, weil der Tico Codec das in kaum veränderbarer Hardware durchreicht. Aber vielleicht gibt es davor halt doch noch ein paar Stellschrauben, wie z-B. maximaler und minimaler Werte-Bereich, den der Codec als Input vom Sensor annimmt. Tatsächlich lässt sich ja auch N-RAW in der Kamera vor Aufnahme zwischen N-Log und SDR umstellen. Aber keine Ahnung, ob das Auswirkungen auf die Rohdaten hat - oder nur auf die internen Monitor LUTs.
Das bezieht sich aber nur aufs Monitoring: "Inside the Nikon ZR itself, sensor data is processed into a RED industry adopted Log3G10/RWG image, allowing for on-set monitoring with the same 3D LUT’s that would be used in any RED workflow. ".
Hmm, könnte man das das als "nur" interpretieren? Oder auch als einen konkreten Grund, warum das schon in der Kamera passieren muss?
Wenn die Kamera nicht intern das Raw-Signal in Log3G10/RWG übersetzen (bzw. als Log3G10-Material debayern/abspielen) könnte, würden die RED-Monitor-LUTs nicht funktionieren, die ja auf diesem Gamma und Farbraum aufsetzen.
- Was natürlich auch bedeutet, dass NRAW nicht mit den RED-Vorschau-LUTs für Log3G10 verwendet werden kann.
rudi hat geschrieben: ↑Mo 27 Okt, 2025 15:18
Tatsächlich lässt sich ja auch N-RAW in der Kamera vor Aufnahme zwischen N-Log und SDR umstellen. Aber keine Ahnung, ob das Auswirkungen auf die Rohdaten hat - oder nur auf die internen Monitor LUTs.
Nur auf letztere.
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip
Zuletzt geändert von cantsin am Mo 27 Okt, 2025 15:24, insgesamt 1-mal geändert.
Der Inpuit Color Space muss jeder RAW Datei mit dazu gegeben werden, damit die NLE weiß, worauf sich die RAW Daten beziehen. Der ist für R3D immer RWG und für NRAW immer REC2020. Die NLE wandelt das dann mit einer CST in den Arbeitfarbraum um (z.B. Davinci Wide Gammut). Aber wenn Resolve nicht weiß, welchen Input Color Space die RAW Datei verwendet, dann kann es die Farben nicht so übersetzen wie sie von der Kamera eigentlich gemapped wurden. Das ist wie eine Referenz auf die sich die RAW-Werte beziehen.
pillepalle hat geschrieben: ↑Mo 27 Okt, 2025 15:24
@ cantsin
Der Inpuit Color Space muss jeder RAW Datei mit dazu gegeben werden, damit die NLE weiß, worauf sich die RAW Daten beziehen. Der ist für R3D immer RWG und für NRAW immer REC2020. Die NLE wqandelt das dann mit einer CST in den Arbeitfarbraum um (z.B. Davinci Wide Gammut). Aber wenn Resolve nicht weiß, welchen Input Color Space die RAW Datei verwendet, dann kann es die Farben nicht so übersetzen wie sie von der Kamera eigentlich gemapped wurden. Das ist wie eine Referenz auf die sich die RAW-Werte beziehen.
Nein, das ist totaler Quatsch. Sorry. Einfach falsch. Sonst wäre ja Raw kein Raw, und könntest Du NRAW oder R3D nicht Farbräumen und Gammas wie ACES verwenden.
Du verwechselst Sensorprofilierung/Farbmatrix mit Color Space.
EDIT: Der Input Color Space ist der Farbraum, der am Anfang der Software-Bearbeitungskette liegt, also in Resolve der Farbraum, der dem Raw-Material (im Raw-Tab) zugewiesen wird. Welche Farbräume das sind, hängt vom jeweiligen Raw-SDK ab. Das ist aber eine reine Software-Funktion. Raw lässt sich prinzipiell in jedem beliebigen Farbraum und jedem beliebigen Gamma interpretieren. Es gibt bei Raw-Material keinen "nativen Farbraum".
"Wieso eigentlich überhaupt was drehen? Warum nicht jahrelang nur darüber philosophieren?" -stip
Du kannst ja trotzdem Aces verwenden. Es geht darum, daß du bei jeder Transformation einen Ausgangsfarbraum und einen Endfarbraum haben musst, damit die Farben richtig gemapped werden. Und damit man weiß worauf sich die RAW Daten beziehen muss man angeben worauf sich die RAW Werte beziehen. Wenn es keinen Bezugspunkt gibt, dann könnten die Daten auch falsch interpretiert werden. Der Input Colorspace ist nicht beliebig, sondern festgelegt. Sonst stimmen die Farben auch nicht.
Inside the Nikon ZR itself, sensor data is processed into a RED industry adopted Log3G10/RWG image, allowing for on-set monitoring with the same 3D LUT’s that would be used in any RED workflow. In addition, sensor gains and colorimetry have been tuned to not only provide exposure and color matching with RED’s ecosystem, but to leverage the same ISO behavior the rest of the R3D ecosystem uses, allowing users to balance their dynamic range shot-by-shot if needed.
Das ist natürlich NICHT nur fürs Monitoring - es ermöglicht aber halt, die gleichen monitoring RED LUTs zu nutzen die man in einer RED Kamera nutzen würde, und dass beide Systeme dann gleich auf dieselben ISO / Sensor gains reagieren. Und es ermöglicht genaueres Matchen mit RED Kameras.
Das Thema ist unglaublich ermüdend - auch weil es vollkommen belanglos ist ob nun N-RAW oder REDRAW zu Grunde liegt. Es hat einige schon so verunsichert, dass sie fragen, ob sie ihren eigenen Augen ("das Bild gefällt mir") trauen können oder nicht.
These applications, such as DaVinci Resolve, have now updated to RED’s latest software update, could however be forced into sending these .NEV’s through the RED software by renaming them to .R3D. These files technically remain N-RAW, and are still indicated as such in the software, as they do not include any of the in-camera characterization, metadata, and workflow that makes REDCODE RAW what it is. Importantly, these renamed files will not be the same as an R3D NE file shot with the same camera – the color, exposure, and latitude will all differ.
Jetzt imitieren sie das „auf Film“ digital, mit immens viel Aufwand und mit sehr viel Geld.
Und wir armen Schlucker versuchen das ohne Budget und ohne viel Aufwand mit den High End Dslms plus Log und Raw hinzukriegen.
Und es klappt leider immer noch nicht wie „auf Film“
Finde den Fehler und der hat gar nix mit der Kamera zu tun, heute eh gar nicht.
Früher konnte man wenigstens noch argumentieren:
„Das Licht und gute Kameras sind viel zu teuer“
Darth Schneider hat geschrieben: ↑Mo 27 Okt, 2025 23:29
@CineMika
Und heute imitieren sie das „auf Film“ digital, mit immens viel Aufwand und sehr viel Geld.
Und wir armen Schlucker versuchen das ohne Budget mit den High End Dslms plus Log und Raw.
Und es klappt leider immer noch nicht wie „auf Film“
Finde den Fehler und der hat gar nix mit der Kamera zu tun…
Lol.;)))
Genau;)) Die Ironie lässt sich nicht unterdrücken)) Diese Diskussion ist wieder ein Paradebeispiel, wohin die Entwicklung der letzten über 20 Jahren hingeführt hat. Klar ist hochwertiges digital Video praktisch, und es steht zur Verfügung.
Aus Entfernung betrachtet geht das alles inzwischen viel zu weit. Es ist zum wissenschaftlichen-compu-tech-programmier-Daten Experiment vor Ort verkommen, als die Sache selbst. Die komplett künstliche Farbinterpretation nicht zu Vergessen, die in der Post noch weiter manipuliert wird;)) Der Aufwand der betrieben wird, Hardware, Computer, ständige Kamera-Neuanschaffung, Software, Wissen ist immens und wird unbewusst akzeptiert, in der Illusion Herr über die magische Bildgewalt "digital" per Click zu bekommen. Es ist eine interessante Studie wie weit der Mensch der in vermeintlichen Bequemlichkeit geht und wieviel er dafür bezahlt, vermutlich mehr den je.
Ein Neu-Digitalo kann das heute eh nicht nachvollziehen oder greifen. Die Einstampfung der ganzen analogen Film Maschinerie über die Jahre macht es natürlich schwer heutzutage in die Richtung zu denken. Ein paar Einzelkämpfer gibt es zum Glück ja (wieder).
Mann stelle sich vor, 16mm bei HEUTIGEM modernen feinen Vision 3 Filmstock, aktueller vorgeschrittener Mechanik, mit heutigen state of the art Optiken, in der Masse wie DSLR Videographen, auf der Welt, erschwinglich und finanzierbar, vermutlich sogar unterm Strich günstiger als der Digitale Rundumschlag. An jeder Ecken wären Labore und Scanner etc. die Industrie regelt sich von selbst nach etc. Dafür ist der Look, dem alle seit Erfindung der "cineastischen" Videokamera nachlaufen, eingebrannt. Mit etwas mehr Budget dann 35mm, wäre heute noch mit 6-8K mehr als man je bräuchte, aber dann ästhetisch, lebendig, mit Textur und und. Alles andere ist eben nur Video
Doch zurück zum Thema, also wie war das jetzt mit dem RAW, echt oder nicht echt, oder nur halb, welcher Farbraum, welches Log, gemixt mit anderem Codec, echt RED oder doch nicht? aber das geht doch inzwischen mit dem Handy.. Spaß! no hate, tut so als ob ich nichts gesagt hätte;))
Um hier auch mal etwas frischen Wind und Analogfeeling aufzubringen, ein YouTuber, der sich seine Kamera einfach selbst gebaut hat.
Der junge Mann fertigt meiner Meinung nach außergewöhnlich gute Videos.
Inklusive kleinem Seitenhieb auf spezielle Foristen ;-)
medienonkel hat geschrieben: ↑Di 28 Okt, 2025 11:47
Um hier auch mal etwas frischen Wind und Analogfeeling aufzubringen, ein YouTuber, der sich seine Kamera einfach selbst gebaut hat.
Der junge Mann fertigt meiner Meinung nach außergewöhnlich gute Videos.
Inklusive kleinem Seitenhieb auf spezielle Foristen ;-)
Nette Bastlerarbeit, die einem deutlich macht, was man durch Digitalkameras gewonnen hat.
CineMika hat geschrieben: ↑Di 28 Okt, 2025 00:17
Darth Schneider hat geschrieben: ↑Mo 27 Okt, 2025 23:29
@CineMika
Und heute imitieren sie das „auf Film“ digital, mit immens viel Aufwand und sehr viel Geld.
Und wir armen Schlucker versuchen das ohne Budget mit den High End Dslms plus Log und Raw.
Und es klappt leider immer noch nicht wie „auf Film“
Finde den Fehler und der hat gar nix mit der Kamera zu tun…
Lol.;)))
Genau;)) Die Ironie lässt sich nicht unterdrücken)) Diese Diskussion ist wieder ein Paradebeispiel, wohin die Entwicklung der letzten über 20 Jahren hingeführt hat. Klar ist hochwertiges digital Video praktisch, und es steht zur Verfügung.
Aus Entfernung betrachtet geht das alles inzwischen viel zu weit. Es ist zum wissenschaftlichen-compu-tech-programmier-Daten Experiment vor Ort verkommen, als die Sache selbst. Die komplett künstliche Farbinterpretation nicht zu Vergessen, die in der Post noch weiter manipuliert wird;)) Der Aufwand der betrieben wird, Hardware, Computer, ständige Kamera-Neuanschaffung, Software, Wissen ist immens und wird unbewusst akzeptiert, in der Illusion Herr über die magische Bildgewalt "digital" per Click zu bekommen. Es ist eine interessante Studie wie weit der Mensch der in vermeintlichen Bequemlichkeit geht und wieviel er dafür bezahlt, vermutlich mehr den je.
Ein Neu-Digitalo kann das heute eh nicht nachvollziehen oder greifen. Die Einstampfung der ganzen analogen Film Maschinerie über die Jahre macht es natürlich schwer heutzutage in die Richtung zu denken. Ein paar Einzelkämpfer gibt es zum Glück ja (wieder).
Mann stelle sich vor, 16mm bei HEUTIGEM modernen feinen Vision 3 Filmstock, aktueller vorgeschrittener Mechanik, mit heutigen state of the art Optiken, in der Masse wie DSLR Videographen, auf der Welt, erschwinglich und finanzierbar, vermutlich sogar unterm Strich günstiger als der Digitale Rundumschlag. An jeder Ecken wären Labore und Scanner etc. die Industrie regelt sich von selbst nach etc. Dafür ist der Look, dem alle seit Erfindung der "cineastischen" Videokamera nachlaufen, eingebrannt. Mit etwas mehr Budget dann 35mm, wäre heute noch mit 6-8K mehr als man je bräuchte, aber dann ästhetisch, lebendig, mit Textur und und. Alles andere ist eben nur Video
Doch zurück zum Thema, also wie war das jetzt mit dem RAW, echt oder nicht echt, oder nur halb, welcher Farbraum, welches Log, gemixt mit anderem Codec, echt RED oder doch nicht? aber das geht doch inzwischen mit dem Handy.. Spaß! no hate, tut so als ob ich nichts gesagt hätte;))
Es ist doch nostalgische Schwärmerei, wenn Negative zum Bringer des "cineastischen Looks" hochstilisiert werden.
Dabei ist es doch so, dass mit "HEUTIGEM modernen feinen Vision 3 Filmstock" versucht wird, die Detailwiedergabe morderner Digi-Cams zu erreichen. :)
Aber ernsthaft: Man sollte Negative nicht verklärt sondern objektiv betrachten.
Negative zeichnen sich dadurch aus, dass sie umgekehrt reagieren wie Sensoren - oder auch Umkehrfilm.
Film hat eine Kornstruktur, die sich von Bild zu Bild unterscheidet und in der Abfolge der Projektion einen fließenden Eindruck erzeugt. Hier wäre dann auch die stärkste Veränderung, die eine höhere Framerate hervorrufen würde.
Wenn du "feinen Filmstock" verwendest, wird das Korn weniger präsent und der fließende Effekte ebenfalls reduziert.
Und dann sind wir bei den Kopien. Meist wird das Negativ digital abgetastet, um die Kopiendegeneration zu vermeiden.
@ iasi
Dennoch will der Nolan seine Filme lieber auf Filmrollen gedreht.
Warum ?
Weil er es sich leisten kann und will…
Und mal ehrlich, der Nolan ist zu jung und mit Film und Digital gross geworden um deswegen nostalgisch zu sein.
Und er ist bei weitem nicht der einzige.
Nur die allermeisten Filmer heute können sich analogen Film gar nicht leisten.
Also bleibt ihnen (uns) gar keine Wahl, nur digital..
Witzig finde ich, gar nicht wenige Leute die heute Digital und Analog Film versuchen zu vergleichen.
Die haben noch gar nie in ihrem Leben mit S8/16/35mm Filmkameras gedreht/gearbeitet und nicht mal echt analog, irgend einen Film gesehen.
Das kann man nun mal nicht auf YouTube vergleichen, auch nicht mit einem 10 000€ Referenz Monitor. Geht leider nur mit Filmrolle im hochwertigen Projektor und einer ebensolchen Leinwand.
Da kann ich nur den Kopf schütteln…;)))
Zuletzt geändert von Darth Schneider am Di 28 Okt, 2025 20:43, insgesamt 3-mal geändert.
Darth Schneider hat geschrieben: ↑Di 28 Okt, 2025 19:53
@ iasi
Und dennoch will der Nolan seine Filme lieber auf Filmrollen gedreht.
Und mal ehrlich, der Nolan ist zu jung und mit Film und Digital gross geworden um deswegen nostalgisch zu sein.
Und der Nolan ist bei weitem nicht der einzige.
Nur die allermeisten Filmer heute können sich analogen Film gar nicht leisten.
Also bleibt ihnen gar keine Wahl, nur digital..
Witzig finde ich, gar nicht wenige Leute die heute Digital und Analog Film versuchen zu vergleichen, haben noch gar nie in ihrem Leben mit S8/16/35mm Filmkameras gedreht/gearbeitet und nicht mal echt analog, irgend einen Film gestehen.
Das kann man nun mal nicht auf YouTube vergleichen, auch nicht mit einem 10 000€ Referenz Monitor.
Da kann ich nur den Kopf schütteln…;)))
Ein Wim Wenders ist jedenfalls sehr angetan von der digitalen Version seiner Filme, die bei Laser-Projektoren in vollem Glanze und den richtigen Farben erstrahlen. Denn was man im Kino früher zu sehen bekam, war die zigste Kopie des Negativs auf meist nicht mehr mit voller Leuchtkraft arbeitenden Projektionslampen.
Nolan wird immer angeführt. Aber warum nimmt er die lauten sperrigen Kameras in Kauf?
Es sind das große Negativformat und die IMAX-Vorstellungen.
Ich hatte mir Blood&Sinner im IMAX angesehen und war dann doch etwas enttäuscht, denn die vielbeschworene Pracht der 70mm-Negative konnte er nicht entfalten.
Da war ich vom Alexa65-Bild von Furiosa im IMAX mehr angetan.
Nolan hatte bei The Dark Knight IMAX und 35mm direkt verschnitten und der Unterschied war deutlich zu erkennen. Daher wirkten einige Aufnahmen auch prachtvoll.
Man darf aber nicht die Größe des Aufnahmebildes vergessen.
Objektive können höhere Auflösungen realisieren bzw. der Vergrößerungsfaktor ändert sich - was ja auch am akzeptablem Zerstreuungskreisdurchmesser deutlich wird.
Meine Mini 12k hat dieselbe Auflösung wie die Cine 12k, aber ich verspreche mit eine Steigerung der Detailwiedergabe durch den größeren Sensor.
Andererseits dürfte eine ZR-Variante der Z8 gegenüber die jetzigen ZR auch etwas bringen.
Red und der VV-8k-Sensor sind sowieso eine Hausnummer.
Spannend wird eine LF-Variante der Arri 35. Höhere Auflösung und die optischen Vorteile des größeren Sensors.
Wir sind mit den Digitalkameras sowieso schon über S35-Film hinaus.
Red kann nun eigentlich auch nur noch mit einer 3:2-Version ihres Globel-Shutter-Sensors kommen.
Nikon wiederum könnte Open Gate bei den Vollformat-Kameras bringen, was dann aber die Auslesezeit kritisch verlängern würde.
Bei Arri sehen alle nur den DR, aber der eigentlich Trumpf einer Mini LF ist Open Gate.
medienonkel hat geschrieben: ↑Di 28 Okt, 2025 11:47
Um hier auch mal etwas frischen Wind und Analogfeeling aufzubringen, ein YouTuber, der sich seine Kamera einfach selbst gebaut hat.
Der junge Mann fertigt meiner Meinung nach außergewöhnlich gute Videos.
Inklusive kleinem Seitenhieb auf spezielle Foristen ;-)
Nette Bastlerarbeit, die einem deutlich macht, was man durch Digitalkameras gewonnen hat.
Bastlerarbeit... Der typische Kommentar der Ahnungslosen. Aber gut. Wie läuft's denn mit deiner ZR? Hast schon Tests gemacht?
Darth Schneider hat geschrieben: ↑Di 28 Okt, 2025 19:53
@ iasi
Und dennoch will der Nolan seine Filme lieber auf Filmrollen gedreht.
Und mal ehrlich, der Nolan ist zu jung und mit Film und Digital gross geworden um deswegen nostalgisch zu sein.
Und der Nolan ist bei weitem nicht der einzige.
Nur die allermeisten Filmer heute können sich analogen Film gar nicht leisten.
Also bleibt ihnen gar keine Wahl, nur digital..
Witzig finde ich, gar nicht wenige Leute die heute Digital und Analog Film versuchen zu vergleichen, haben noch gar nie in ihrem Leben mit S8/16/35mm Filmkameras gedreht/gearbeitet und nicht mal echt analog, irgend einen Film gestehen.
Das kann man nun mal nicht auf YouTube vergleichen, auch nicht mit einem 10 000€ Referenz Monitor.
Da kann ich nur den Kopf schütteln…;)))
Ein Wim Wenders ist jedenfalls sehr angetan von der digitalen Version seiner Filme, die bei Laser-Projektoren in vollem Glanze und den richtigen Farben erstrahlen. Denn was man im Kino früher zu sehen bekam, war die zigste Kopie des Negativs auf meist nicht mehr mit voller Leuchtkraft arbeitenden Projektionslampen.
Nolan wird immer angeführt. Aber warum nimmt er die lauten sperrigen Kameras in Kauf?
Es sind das große Negativformat und die IMAX-Vorstellungen.
Ich hatte mir Blood&Sinner im IMAX angesehen und war dann doch etwas enttäuscht, denn die vielbeschworene Pracht der 70mm-Negative konnte er nicht entfalten.
Da war ich vom Alexa65-Bild von Furiosa im IMAX mehr angetan.
Nolan hatte bei The Dark Knight IMAX und 35mm direkt verschnitten und der Unterschied war deutlich zu erkennen. Daher wirkten einige Aufnahmen auch prachtvoll.
Man darf aber nicht die Größe des Aufnahmebildes vergessen.
Objektive können höhere Auflösungen realisieren bzw. der Vergrößerungsfaktor ändert sich - was ja auch am akzeptablem Zerstreuungskreisdurchmesser deutlich wird.
Meine Mini 12k hat dieselbe Auflösung wie die Cine 12k, aber ich verspreche mit eine Steigerung der Detailwiedergabe durch den größeren Sensor.
Andererseits dürfte eine ZR-Variante der Z8 gegenüber die jetzigen ZR auch etwas bringen.
Red und der VV-8k-Sensor sind sowieso eine Hausnummer.
Spannend wird eine LF-Variante der Arri 35. Höhere Auflösung und die optischen Vorteile des größeren Sensors.
Wir sind mit den Digitalkameras sowieso schon über S35-Film hinaus.
Red kann nun eigentlich auch nur noch mit einer 3:2-Version ihres Globel-Shutter-Sensors kommen.
Nikon wiederum könnte Open Gate bei den Vollformat-Kameras bringen, was dann aber die Auslesezeit kritisch verlängern würde.
Bei Arri sehen alle nur den DR, aber der eigentlich Trumpf einer Mini LF ist Open Gate.
@IASI hab's schon mehrmals gesagt, diese zig-Fach Print Kopien (Weil es damals so war und auch nicht anders ging) waren nie Bestandteil der Diskussion. Diese Zeiten sind Gott sei Dank vorbei und jeder "Film" sieht bei sorgfältigen Scan hervorragend aus(!). Diese Reihenfolge übersetzt sich auch hervorragend auf digitale Projektion, wie Nolan selbst sagt.
IMAX
Ein Thema voller Verwirrungen Unklarheiten, wobei die Company ist selbst schuld ist. Das was Nolan nutzt ist eine komplett eigene Kategorie der Filmtheater Experience, dem ursprünglichen IMAX 1570 Format. Gemeint ist Filmmaterial, dass vom Kamera Negativ direkt auf dem Print landet (Film finished), und somit die (utopische) Auflösung behält. Diese Auflösung landet, in digitaler Sprache, komplett uncompressed in unendlicher Auflösung auf der Leinwand, da bei aktuellen Film Stock die Kornstruktur so klein ist. Das ist eine ganz eigene Sache, das hat auch mit dem körnig lebendig wirkenden 35mm Film wenig gemeinsam. Das ist schiere Bildgewalt, wie man sie nur noch an wenigen Orten auf der Welt zu sehen ist. Diese Combo definiert die Immersion in einem klassischen IMAX Kino, zwecks der möglichen Nähe zu Leinwand.
SINNERS ist damit allerdings nicht gemeint. Der Film wurde schlussendlich zu Promozwecken auf IMAX gedreht (geplant war 16mm!), und dann in der Post auf 4K (DI) zusammen geschreddert, und dann teils auf Print zurück oder digital ausgegeben. War sehr enttäuschend, da die Wirkung fast völlig verloren gegangen ist. Ohnehin komplett nur mit groben 500T Kodak Film Stock gedreht, was man ebenfalls sieht. Da ist Deine Enttäuschung vollkommen gerechtfertigt. Den Film hat man also selbst im analogen IMAX nur in 4K gesehen, nicht in 12-18K.
Das Argument, in Hollywood, die hohen Kosten bei IMAX analog Produktionen kann man nicht mehr stehen lassen. Bei digitalen Produktionen entsteht der Eindruck, als ob sich die Millionen nur noch so in die Taschen gestopft werden, im Projekt landen sie nicht. Digitale Produktionen sind bei weitem teurer als die Analogen. Nolan mach das nicht weil er sich das leisten kann, sondern weil er das möchte und für sich gewählt hat. Das IMAX1570 Format ist deswegen genial, weil es ein End to End System ist, wo die Auflösung auch an der Leinwand landet. Sowas gibt es im gesamten digitalen Sektor bis heute nicht, nur lächerliche 4K. Kameraseitig ist von Blackmagic, RED, Nikon bereits längst mehr möglich.
Mein Einwand war ohnehin nur als Anekdote gemeint, wenn man sieht wie komplex die Umsetzung mit den unterschiedlichen RAW Codecs inzwischen sind, welcher Aufwand betrieben wird, um am Schluss dort zu landen was Film Out of the Box gibt. Die Entwicklung wird natürlich weitergehen, siehe heute das Grain Update bei Nikon.
und auch das ist es noch lange nicht, was Film alles automatisch generiert.
35mm Film ist auch heute noch jeder digitalen Highend Video Kamera überlegen, auch im 8K Bereich bei horizontaler Auslesung. Glaube das wird in Zukunft auch immer mehr ein Thema werden, auch wenn Digital Video die große Masse bedienen wird. Da Digital Video inzwischen aber sämtliche Preise für die Hersteller selbst zerstört hat, werden auch mögliche zukünftige analoge Film Kameras nur hochfinanzierten Projekten vorbehalten bleiben.
Allgemein mit auf Film drehen sind auch nicht Privatleute gemeint, sondern Hollywood. Im Mittelstand/Freelancer geht im nichts an den inzwischen sehr guten digitalen Kameras vorbei (wobei der 16 mm Sektor wieder interessant werden könnte), und so etwas wie die Nikon ZR ist ein weiterer Schritt in kreative Freiheit bei sehr niedrigen Budget. Die digitale Kanibalisierungs-Spirale wird weiter nach unten gehen, bis 2000 € wird so eine kleine Box wohl immer kosten, doch bald wird es für alle Features dann über 4000 € eng. Dann haben endlich ALLE ihr Digital Cinema Werkzeug, gibt dann vllt. kaum noch echtes Kino, da es eben keine Kunstform ist. Bleibt dann auf dem heimischen TV im Internet, dafür "cinematic" haha;)
Spannend, also gibt ganz verschiedene IMAX Formate und Auflösungen.
IMAX ist also nicht gleich IMAX.
Hab mich schon gewundert weil einerseits reicht für iMAX laut Marketingabteilungen schon eine schnöde Sony FX3 oder eine alte Arri die nicht mal 4K schafft.;)
Während andere 50 bis 80kg schwere Kameras mit weiss Gott wie viel K Auflösung benutzen. Die so exklusiv sind das es nur eine Hand voll von denen überhaupt auf der Welt gibt.;)
Kann ja logischerweise gar nicht das selbe sein.
Nur weit reisen und auf den richtigen Film warten, der die 12K bis 18K auch auf die Leinwand bringt, muss man.
Um im Kino das echte IMAX Erlebnis zu haben.;)))
Denke mal zum Nikon RAW Thema wird nicht mehr viel kommentiert, vermutlich weil es schon sehr abstrakt ausartet
@Darth
Tatsächlich ist das ein sehr reiz-freudiges Thema, da die IMAX Corp. allen voran aus wirtschaftlichen, bequemlichkeits -Gründen alles in einen Topf wirft. Zur Verwirrung und teils Enttäuschung der Kunden, und meines Erachtens auch zur Schädigung der ursprünglichen Idee. Ich versuche das mal in Kürze:
IMAX Format,
gibt es nur eins, das 15perf 70mm (Print) 65mm Negativ, Horizontal
IMAX Kamera,
gelten auch ganz klar: nur die großen schweren Kästen, mit selbigen IMAX Format, analog Film 1570mm, Technik und Eigentum direkt von IMAX
IMAX 1570 GT Kinosäle
Das sind die mit den riesigen 4:3 Leinwänden (1:1.43), im Schnitt ab 21m-30m breit, 17-24m hoch. Besondere und einzigartige Geometrie, sehr steile Sitzreihen Anordnung, man sitzt im Bild, erfordert ultrahohe Auflösung, erfordert angepasste Bildwinkel und Kameraszenen, ebenso Schnitte - so die Idee der Erfinder
IMAX Projektor
SR, small Rotor, kleinere Variante für Leinwand ca. unter 20 m Höhe
GT, 15000W Lampe, größte Projektoren in der Welt, besonders der GT-3D Zwillingsprojektor mit Doppelrotor 2x 1570 und zwei 15.000W Lampen, 1,8 Tonnen, im BFI London im Betrieb, 12K-18K Auflösung = nicht mehr sichtbar bei nativem Print
- - - - - - -
IMAX Digital Kinosäle ("LieMax")
1:1.9 Leinwände, +10 % mehr Bild oben und unten als Cinemascope Format, quasi DCI Format. Flacherer und länglicher Aufbau, ähnlich gewöhnlich moderner Kinos, nur im Schnitt mit etwas größeren Leinwänden als üblich
IMAX Digitale Projektoren, max 4K
von Barco DP4L-60L (4K Laser, auch Dual), mit aufgemotzter nachträglichere Laserlicht-Einheit von IMAX. Bei 1.43 (zb. Sinsheim) immer in Dual Anordnung und mit je anamorpher Linse zur vertikalen Streckung des Bildes
IMAX cert. Cameras
Gewöhnliche Oberklasse Digital Video Cine Kameras, die IMAX als "Gut genug" empfindet..
Genau genommen nutzt IMAX bei digital nur den gewöhnlichen vollen DLP Chip in DCI Auflösung, und mit etwas größeren Leinwänden, mit überreizung der Auflösung und erhöhtem Licht Aufwand.
Besonders hervorzuheben ist allerdings der extrem hohe Qualitätsstandard und tägliche (!) Kontrolle Bei Ton und digitalen Projektoren.
Es gibt also eine klare Definition vom eigentlichen IMAX, IMAX Kameras und org. 1.43 Sälen. Die ganze Digitalsparte wird oft auch als IMAX Experience genannt, das max. was im Digitalen möglich ist. Hat nur mit dem Original ziemlich wenig zu tun, sagt dir IMAX aber nicht.
@Jott
für IMAX Dome kannst du auch ins Technikmuseum Speyer fahren, dort läuft die Domprojektion heute noch. Dies hat allerdings nichts mit dem klassischen Kinofilm Erlebnis zu tun. 70mm Film wurde schon seit Beginn auch für EventPark Attraktionen verwendet, also immer wenn vor dem Zuschauer eine immersive Show ablief. Der Fokus liegt hier nicht auf dem perfekten Bild, sondern quasi an einem umgebenden Szenario. Ist zwar teilweise ähnliches und auch gleiches Material, doch quasi eine Zweckentfremdung, durch die Fisch Augen Optik und teilweise nur wenige Meter zur Leinwand verliert sich die Qualität extrem, hat nichts mit der klassischen 1.43 IMAX Bild zu tun. Beim brachialem Ton sind sie ziemlich gleich. Die DOME Idee ist heute nicht mehr zeitgemäß, sichtbare metallische Leinwand Masch Panelränder auf der ganzen Kuppel sichtbar, nicht mehr zeitgemäße Ausleuchtung. Wie gesagt da geht es nicht um Bildqualität, nur um Geometrie
Für das ultimative IMAX Kinoerlebnis kannst du im BFI London erleben (Es gibt jedes Jahr vereinzelt Sondervorstellungen), dort ist nicht nur die gesamte Technik noch am laufen, sondern darüber hinaus ist es eine der best geführtesten und populärsten IMAX Stätte der Welt. Besucher reisen aus über 20 verschiedenen Ländern an. Für uns aus D. übrigens recht günstig erreichbar. 15/70mm ist Etwas ganz besonderes, so in etwa wie die Concorde in der Fliegerei war. Unerreicht, das kannst du nicht oft genug haben und willst es auch nicht mehr missen wenn du es mal gesehen hast, Nolan setzt das jetzt auch kompromisslos durch
Rechtliche Notiz: Wir übernehmen keine Verantwortung für den Inhalt der Beiträge
und behalten uns das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.