iasi hat geschrieben: ↑Sa 04 Okt, 2025 19:58Nun denk mal, ich weiß wie Komprimierungsalgorithmen funktionieren.
Nur beweist du genau das Gegenteil gleich im nächsten Satz. Komisch. Was denn nun?
Um "Signalqualität" geht es übrigens dabei gar nicht mehr, sondern um Datensätze.
🙄
Ja. Für dich. Da sonst dein Argument (noch weiter) auseinander fällt. Denn das wäre nur
dann eine sinnvolle Aussage, wenn die beiden Formate
exakt dieselben Datenstrukturen und Redundanzen enthalten würden.
Aber das tun sie nicht. Das ist der Teil den du nicht verstehst.
NRAW und ProRes RAW repräsentieren
unterschiedliche Abstraktionsebenen der Sensordaten. „
Datensatz“ ist nicht gleich „
Information“, sorry!
Nun der Moment, wo jemand technisch klingend argumentiert, aber die Ebenen der Datenrepräsentation, Informationsentropie und Kompressionsart miteinander völlig vermischt.
Bei der ZR erhält man dieselbe Qualität bei unterschiedlichen Datengrößen:
R3D NE/N-RAW Hohe Qualität
6048 x 3402 : 59,94p (3780 Mbit/s)
Apple ProRes RAW HQ
6048 x 3402 : 29,97p (5000 Mbit/s)
Uuuuuh… Das klingt erstmal eindrucksvoll, oder?:
gleiche Auflösung, doppelte Framerate, kleinere Bitrate!
Aber der Vergleich ist dummerweise
nicht gleichwertig, wie du ja so hoffst und glaubst, weil:
1.
Framerate ≠ Informationsdichte pro Frame
– ProRes RAW HQ bei 29,97 fps hat
pro Frame mehr Bits,
– NRAW bei 59,94 fps verteilt die gleiche Bitrate
auf doppelt so viele Frames.
Das heißt:
pro Einzelbild hat NRAW
weniger Datenbudget als ProRes RAW HQ! Also
nicht gleiche Qualität bei kleinerer Datenrate, sondern
mehr Frames mit weniger pro Frame.
2.
Kompressionsmethoden sind fundamental unterschiedlich:
• ProRes RAW nutzt
DCT-basierte, intraframe lineare Quantisierung,
• NRAW nutzt
Wavelet-basierte, mehrstufige Transformkompression.
NOCHMALS: Diese Verfahren sind nicht direkt vergleichbar, weil Wavelets
transformieren (also
rekodieren) die Daten, bevor sie komprimiert werden. Damit verändern sie die Informationsstruktur!
Ergebnis: kleinerer Datensatz ≠ gleiche „Information“, nur eine
andere Darstellung.
Das bedeutet: Mit ProRes Raw gelingt die Wiederherstellung der Ursprungsdaten nur aus vergleichweise großen Datensätzen. N-Raw hingegen nutzt Algorithmen, die die Originaldaten in kleinere Datengrößen übersetzt und die Daten dann ebenso gut wiederherstellen kann, wie ProRes Raw.
Das klingt nach einem verlustfreien Verfahren – ist es aber nicht, wie du vorher sogar selbst sagst! Was also?
Ja, richtig. NRAW ist nicht
lossless, sondern
visually lossy (wie ProRes RAW auch).
Der Unterschied ist nur,
wo die Verluste auftreten:
ProRes RAW → Intraframe DCT = Verlustebene: Quantisierung nach linearem Signalmodell
NRAW ➝ Wavelet-Transformation = Verlustebene: Frequenzreduktion, Glättung, lokale Approximation
ERGO: Beide Systeme entfernen
nicht sichtbare Information – aber eben
andere Arten von Daten.
Wenn man also sagt „gleiche Qualität“, meint man
subjektive visuelle Gleichheit,
nicht datenmäßige oder informationsmäßige Gleichheit!
Und hier liegt sein Denkfehler offen: „NRAW kann die Originaldaten ebenso gut wiederherstellen.“
Das ist
physikalisch falsch. Beide „erfinden“ beim Demosaicing und der Dequantisierung das Originalsignal aus einer mathematisch
komprimierten Näherung. Der Unterschied liegt in der
Methode der Näherung, nicht in der angeblichen
Wiederherstellungsfähigkeit. Völlig
unsinnig.
Beim iPhone 17 geht Apple wohl so vor, dass die Daten des 48MPixel-Sensors entweder zu 3/4 verworfen oder zusammengefasst werden. Scheinbar werden die Sensordaten dann auch nicht einfach gespeichert, sondern reichlich prozessiert - Objektivkorrektur, Schärfung, NR etc.
Ok, endlich mal was was
grundsätzlich stimmt — iPhone-RAWs (auch ProRAW oder NRRAW) sind „
partially processed linear RAWs”, keine echten Sensormatrixdaten. Von mir aus.
ABER:
• Das betrifft
nur die Sensor-Pipeline des iPhones,
• und hat
nichts mit der ProRes RAW-Implementierung auf professionellen Kameras zu tun.
Du wirfst hier, wie schon so oft gesagt, einfach nur unterschiedliche Systeme und Signalpfade in einen Topf:
iPhone-Computational-Imaging (Deep Fusion, Smart HDR, ISP-Noise Reduction)
vs.
echte Sensorauslesung in Z-Kameras mit NRAW / ProRes RAW.
Das sind komplett andere Signalmodelle. Ein iPhone speichert
nach der ISP-Verarbeitung, Nikon
vor ihr. Verstehst du vielleicht jetzt endlich warum man das
nicht in dieselbe Argumentationskette stellen kann? (wahrscheinlich nicht)
Kurz und prägnant: So leid es mir tut, kleinere Dateien bedeuten
nicht mehr Effizienz – sie bedeuten, dass andere Datenanteile geopfert oder transformiert werden! Man komprimiert nicht dasselbe, also kann man auch keine ‚
bessere Wiederherstellung‘ behaupten. Das ist wie zu sagen, ein Roman ist effizienter, weil er kürzer ist – ohne zu merken, dass ein paar Kapitel fehlen, nur weil man’s auf den ersten Blick nicht merkt. 🙄