Fragst du nach einem LUT Preview?

Ich nehme es übrigens zurück. Man kann auch RAW mit 120fps drehen. Allerdings „nur” im großen 17:9 Format. Open Gate „nur” bis 60.
Fragst du nach einem LUT Preview?
Super informative Grafik - da kann man die Datenraten ja ziemlich akkurat ablesen *hust
Nee, klar. Weil es bei den Datenmengen ja sicher ganz unfassbar viel ausmacht, gell? Und das weniger Datenmenge bei halber Framerate entsprechend auch höhere Kompressionen bedeutet ist dir schon klar, ja? Wer will das nicht? Wo wir schließlich von RAW reden und alle sowieso schon meinen, das PRRAW allein wegen der Kompression nicht „echtes RAW” ist. Und wen interessieren schon Dinge wie native Kompatibilität und weit weniger Rechenintensität bei der Verarbeitung? Nur zur Info: Kompression ≠ Effizienz ≠ Gleichwertigkeit. Ja: NRAW spart vielleicht 40–50 % Dateigröße. Aber: Das tut es durch stärkere visuelle Glättung und lokale Frequenzkompression – also nicht kostenlos. NRAW ist nicht „besser“ – nur „anders priorisiert“. Es spart Platz durch aggressivere Kompression, während ProRes RAW auf maximale Integrität und Apple-Optimierung setzt. NRAW gewinnt beim Speichern, ProRes RAW gewinnt in der Post.
Höhere Kompression bei gleicher Qualität bedeutet, dass die Komprimierung effizent ist.R S K hat geschrieben: ↑Sa 04 Okt, 2025 17:59
Nee, klar. Weil es bei den Datenmengen ja sicher ganz unfassbar viel ausmacht, gell? Und das weniger Datenmenge bei halber Framerate entsprechend auch höhere Kompressionen bedeutet ist dir schon klar, ja? Wer will das nicht? Wo wir schließlich von RAW reden und alle sowieso schon meinen, das PRRAW allein wegen der Kompression nicht „echtes RAW” ist. Und wen interessieren schon Dinge wie native Kompatibilität und weit weniger Rechenintensität bei der Verarbeitung?
Und NRAW macht neuerdings auch die Clips in einen 16bit Container wie PRRAW? 🤔
Und beim ZR in RAW drehen ist bestimmt ganz wichtig bei den Inhalten.
🤦🏼♂️
Behaupte ICH ja auch nicht, weil es völliger Unsinn ist.
Ach? Na dann erzählt mal. Was genau wird wie „verarbeitet”? Vor allem im Vergleich zu deinem so bevorzugten und wichtigen NRAW.
Keineswegs! Und selbst wenn, dann zumindest immer mit einer gewissen Prise Humor, auch wenn sich das im Netz leider etwas schwieriger übermitteln lässt.
Nun denk mal, ich weiß wie Komprimierungsalgorithmen funktionieren.R S K hat geschrieben: ↑Sa 04 Okt, 2025 18:53🤦🏼♂️
Hast nicht mitgelesen, oder?
Das wäre nur dann richtig, wenn beide Codecs auf demselben Daten- und Verarbeitungsniveau arbeiten würden – also dieselbe Art von Information komprimieren! Das tun NRAW und ProRes RAW aber nicht. Sie haben unterschiedliche Kompressionsziele, Algorithmen und Prioritäten. Wenn man nur auf die Dateigröße schaut, misst man höchstens datenmäßige Effizienz — aber nicht die Qualität über die gesamte Pipeline hinweg. 🙄
Weißt du was der Unterschied zwischen Wavelet-Kompression und intraframe DCT-Kompression ist? Mir scheint nicht. „gleichbleibende visuelle Qualität“ ≠ „gleiche Signalqualität“, sorry!
Behaupte ICH ja auch nicht, weil es völliger Unsinn ist.
Ach? Na dann erzählt mal. Was genau wird wie „verarbeitet”? Vor allem im Vergleich zu deinem so bevorzugten und wichtigen NRAW.
Shooting a Feature on an iPhone: 5 Tips and 3 Scene Breakdowns From a Cinematographer Who Did It.
Director of photography Tobias Deml shares his strategies for key scenes on Luc Besson's June and John, and his takeaways from shooting the low-budget romantic thriller on the iPhone 12 Pro Max.
So mancher hier wird sich fragen: Ist das hier "cinematisch"? :)Next to shooting on the iPhone, June & John was also conceived as a micro-crew approach to filmmaking. When the producers shared with me that I would have a total crew of one person (apart from myself), I thought the email I was reading had a typo. But that’s what our crew was ...
Das hätte Luc aber auch und besser z.B. mit einer Samsung NX500 haben können. Den eigentlichen Weitwinkel-Smartphone-Look hatte er ja dann doch sowieso durch andere Objektive umgangen.But Luc was undeterred — he had envisioned the film’s production environment from the get-go as incredibly nimble, akin to an ultra-lightweight French New Wave shoot.
Genau wie das "nur auf iPhone"-Märchen. :)Darth Schneider hat geschrieben: ↑So 05 Okt, 2025 09:06 Das sieht gut aus, und der Trailer macht Laune.
Wobei das mit der 1 Man Crew ist natürlich völliger Blödsinn und ein reiner Marketing Spruch.
Kommt ganz drauf an, was du und jeder sonst Angesprochene unter „cinematisch“ versteht. Ich wette, wenn du 1000 Leute von der Straße fragen würdest, käme dabei eine Definition heraus, die schöne, gefällige Aufnahmen mit gewissen ästhetischen Charakteristika umfasst (subjektiv gute Auflösung, subjektiv gute, aber selektive Schärfe, guter Farbkontrast, lebendige Hauttöne, meist ein bisschen gestauchte Tiefen und ein sanfter Highlight-Rolloff).
Negativ und geclippte Highlights?
Nur beweist du genau das Gegenteil gleich im nächsten Satz. Komisch. Was denn nun?
Um "Signalqualität" geht es übrigens dabei gar nicht mehr, sondern um Datensätze.
Uuuuuh… Das klingt erstmal eindrucksvoll, oder?: gleiche Auflösung, doppelte Framerate, kleinere Bitrate!Bei der ZR erhält man dieselbe Qualität bei unterschiedlichen Datengrößen:
R3D NE/N-RAW Hohe Qualität
6048 x 3402 : 59,94p (3780 Mbit/s)
Apple ProRes RAW HQ
6048 x 3402 : 29,97p (5000 Mbit/s)
Das klingt nach einem verlustfreien Verfahren – ist es aber nicht, wie du vorher sogar selbst sagst! Was also?Das bedeutet: Mit ProRes Raw gelingt die Wiederherstellung der Ursprungsdaten nur aus vergleichweise großen Datensätzen. N-Raw hingegen nutzt Algorithmen, die die Originaldaten in kleinere Datengrößen übersetzt und die Daten dann ebenso gut wiederherstellen kann, wie ProRes Raw.
Ok, endlich mal was was grundsätzlich stimmt — iPhone-RAWs (auch ProRAW oder NRRAW) sind „partially processed linear RAWs”, keine echten Sensormatrixdaten. Von mir aus.Beim iPhone 17 geht Apple wohl so vor, dass die Daten des 48MPixel-Sensors entweder zu 3/4 verworfen oder zusammengefasst werden. Scheinbar werden die Sensordaten dann auch nicht einfach gespeichert, sondern reichlich prozessiert - Objektivkorrektur, Schärfung, NR etc.
Viel Gerede mit dem falschen Ansatz.R S K hat geschrieben: ↑So 05 Okt, 2025 13:50Nur beweist du genau das Gegenteil gleich im nächsten Satz. Komisch. Was denn nun?
Um "Signalqualität" geht es übrigens dabei gar nicht mehr, sondern um Datensätze.
🙄
Ja. Für dich. Da sonst dein Argument (noch weiter) auseinander fällt. Denn das wäre nur dann eine sinnvolle Aussage, wenn die beiden Formate exakt dieselben Datenstrukturen und Redundanzen enthalten würden. Aber das tun sie nicht. Das ist der Teil den du nicht verstehst.
NRAW und ProRes RAW repräsentieren unterschiedliche Abstraktionsebenen der Sensordaten. „Datensatz“ ist nicht gleich „Information“, sorry!
Nun der Moment, wo jemand technisch klingend argumentiert, aber die Ebenen der Datenrepräsentation, Informationsentropie und Kompressionsart miteinander völlig vermischt.
Uuuuuh… Das klingt erstmal eindrucksvoll, oder?: gleiche Auflösung, doppelte Framerate, kleinere Bitrate!Bei der ZR erhält man dieselbe Qualität bei unterschiedlichen Datengrößen:
R3D NE/N-RAW Hohe Qualität
6048 x 3402 : 59,94p (3780 Mbit/s)
Apple ProRes RAW HQ
6048 x 3402 : 29,97p (5000 Mbit/s)
Aber der Vergleich ist dummerweise nicht gleichwertig, wie du ja so hoffst und glaubst, weil:
1. Framerate ≠ Informationsdichte pro Frame
– ProRes RAW HQ bei 29,97 fps hat pro Frame mehr Bits,
– NRAW bei 59,94 fps verteilt die gleiche Bitrate auf doppelt so viele Frames.
Das heißt: pro Einzelbild hat NRAW weniger Datenbudget als ProRes RAW HQ! Also nicht gleiche Qualität bei kleinerer Datenrate, sondern mehr Frames mit weniger pro Frame.
2. Kompressionsmethoden sind fundamental unterschiedlich:
• ProRes RAW nutzt DCT-basierte, intraframe lineare Quantisierung,
• NRAW nutzt Wavelet-basierte, mehrstufige Transformkompression.
NOCHMALS: Diese Verfahren sind nicht direkt vergleichbar, weil Wavelets transformieren (also rekodieren) die Daten, bevor sie komprimiert werden. Damit verändern sie die Informationsstruktur!
Ergebnis: kleinerer Datensatz ≠ gleiche „Information“, nur eine andere Darstellung.
Das klingt nach einem verlustfreien Verfahren – ist es aber nicht, wie du vorher sogar selbst sagst! Was also?Das bedeutet: Mit ProRes Raw gelingt die Wiederherstellung der Ursprungsdaten nur aus vergleichweise großen Datensätzen. N-Raw hingegen nutzt Algorithmen, die die Originaldaten in kleinere Datengrößen übersetzt und die Daten dann ebenso gut wiederherstellen kann, wie ProRes Raw.
Ja, richtig. NRAW ist nicht lossless, sondern visually lossy (wie ProRes RAW auch).
Der Unterschied ist nur, wo die Verluste auftreten:
ProRes RAW → Intraframe DCT = Verlustebene: Quantisierung nach linearem Signalmodell
NRAW ➝ Wavelet-Transformation = Verlustebene: Frequenzreduktion, Glättung, lokale Approximation
ERGO: Beide Systeme entfernen nicht sichtbare Information – aber eben andere Arten von Daten.
Wenn man also sagt „gleiche Qualität“, meint man subjektive visuelle Gleichheit, nicht datenmäßige oder informationsmäßige Gleichheit!
Und hier liegt sein Denkfehler offen: „NRAW kann die Originaldaten ebenso gut wiederherstellen.“
Das ist physikalisch falsch. Beide „erfinden“ beim Demosaicing und der Dequantisierung das Originalsignal aus einer mathematisch komprimierten Näherung. Der Unterschied liegt in der Methode der Näherung, nicht in der angeblichen Wiederherstellungsfähigkeit. Völlig unsinnig.
Ok, endlich mal was was grundsätzlich stimmt — iPhone-RAWs (auch ProRAW oder NRRAW) sind „partially processed linear RAWs”, keine echten Sensormatrixdaten. Von mir aus.Beim iPhone 17 geht Apple wohl so vor, dass die Daten des 48MPixel-Sensors entweder zu 3/4 verworfen oder zusammengefasst werden. Scheinbar werden die Sensordaten dann auch nicht einfach gespeichert, sondern reichlich prozessiert - Objektivkorrektur, Schärfung, NR etc.
ABER:
• Das betrifft nur die Sensor-Pipeline des iPhones,
• und hat nichts mit der ProRes RAW-Implementierung auf professionellen Kameras zu tun.
Du wirfst hier, wie schon so oft gesagt, einfach nur unterschiedliche Systeme und Signalpfade in einen Topf:
iPhone-Computational-Imaging (Deep Fusion, Smart HDR, ISP-Noise Reduction)
vs.
echte Sensorauslesung in Z-Kameras mit NRAW / ProRes RAW.
Das sind komplett andere Signalmodelle. Ein iPhone speichert nach der ISP-Verarbeitung, Nikon vor ihr. Verstehst du vielleicht jetzt endlich warum man das nicht in dieselbe Argumentationskette stellen kann? (wahrscheinlich nicht)
Kurz und prägnant: So leid es mir tut, kleinere Dateien bedeuten nicht mehr Effizienz – sie bedeuten, dass andere Datenanteile geopfert oder transformiert werden! Man komprimiert nicht dasselbe, also kann man auch keine ‚bessere Wiederherstellung‘ behaupten. Das ist wie zu sagen, ein Roman ist effizienter, weil er kürzer ist – ohne zu merken, dass ein paar Kapitel fehlen, nur weil man’s auf den ersten Blick nicht merkt. 🙄
"Visuell lossless" ist (ursprünglich mal von RED eingeführter) Marketing-Neusprech für verlustbehaftete Datenkompression. JPEG ist nach dieser Logik auch "visuell lossless", solange man keine Kompressionsartefakte sieht.