Und wie kommst du da drauf?
Und wie kommst du da drauf?
Weil wir mit der Phantom immer in DNG gearbeitet haben und der DNG Container lediglich zulässt, (echte) RAW Files zu transportieren, in einem separaten BIN vorsieht. Dann hast Du das interpretierte DNG Format + zusätzlich das native RAW Format im DNG Container.
Bei allem Respekt Wolfgang, aber das ist so falsch auf so vielen Leveln, dazu fällt mir wirklich nix mehr ein.
Es geht schon mal damit los, daß CinemaDNG Einzelbilder sind, die kommen in keinem Container.
Da schreibst du es doch schon selbst. DNG kann die Rohdaten speichern (auch lossy komprimiert) oder (etwa für foveon-Sensoren) ein lineares RGB-Psedoraw. Das CFA steht für color filter array und beschreibt ein klassisches (nicht debayertes) RAW. Dass DNG zusätzlich „linear DNG“ spezifiziert, tut dem keinen Abbruch. Dass etwa die URSA mini echtes RAW aufzeichnet, kannst du gerne abstreiten, aber sie tut es trotzdem. Auf die Metadaten gehe ich nicht ein, die wirst du selbst finden, wenn du in dem Dokument weitersuchst...WoWu hat geschrieben: ↑Do 16 Nov, 2017 19:57 Dann weist Du ja offenbar, wie genau das RAW Format aussieht, wenn Du so genau weißt, wie es nicht aussieht.
Dann lass uns doch nicht dumm sterben, teil es uns doch mit.
Das Einzige, was Du bisher hier zum Besten gegeben hast ist, dass es RAW ist.
Da man aber jedes Format RAW nennen kann, sagt das also gar nicht.
Also, sag was es für ein Format es ist, in welchem Container es kommt und wie die (vermeintlich vorhandenen) Metadaten gehandhabt werden.
Wenn sich dann herausstellt, dass Du nur einen Wert pro Pixel hast, also ungebayered und dass es keine Codierung, sondern ein Datenformat hast, dann sehen wir weiter.
Solange gilt das, was Adobe in seinem CDNG definiert und was zumindest plausibler ist als Deine Beteuerung, nur weil irgendwo steht, dass es RAW ist.
Werd mal konkret.
Du sagst, Du kannst „alle Level“ widerlegen .... dann mal los.
Nur mal so als Hilfestellung ...
Cinema DNG Encoding format ...
„Per the DNG format specification, the full resolution image has NewSubfileType = 0. The raw image can be stored in strips or tiles. The image can be of any size, with a bit depth in the range 8 to 32 bits. The data can be uncompressed or compressed using lossless Huffman JPEG. The PhotometricInterpretation values can be 32803 = CFA (Color Filter Array) for one sample per pixel, or 34892 = LinearRaw for Red, Green and Blue samples per pixel.“
Du hast also Rot, Grün und Blau pro Pixel in einem JPEG.
War das vielleicht einer der „Level“ wo ich schon mal falsch gelegen habe ?
Das wird auch nicht wahrer, wenn du es noch 100 mal behauptest.
Frank,Frank Glencairn hat geschrieben: ↑Do 16 Nov, 2017 21:33Das wird auch nicht wahrer, wenn du es noch 100 mal behauptest.
Wie wärs, wenn du dir BM Material aus dem Netz ziehst, und mal rein schaust, bevor du dich dermaßen aus dem Fenster lehnst.
Kommt drauf an, wie der nachfolgende Schritt aussieht, den das Signal durchlaufen muss aber bei Fotos ist es schon eher richtiges RAW.
Jetzt wird es aber völlig abstrus. Wann hast du das letzte mal mit RAW gearbeitet? Schön, dass du meine Beiträge alle ignorierst, würdest du darauf eingehen, müsstest du dich mit deinen Behauptungen selbst beschäftigen.WoWu hat geschrieben: ↑Do 16 Nov, 2017 22:23 Frage ist immer, akzeptiert das NLE das Video, ohne dass Du vorher das De-Bayerverfahren wählst und alle Parameter, einschließlich von Anti-Alisaingverfahren setzt, dann hast Du mit ziemlicher Wahrscheinlichkeit ein Videosignal.
Dabei ist es unerheblich, ob das nun als Einzelbildsequenz vorliegt, oder irgendwie anders, denn „Video“ bezieht sich hier auf das einzelne Bild, dass dann aus RGB besteht und bezieht sich nicht auf die Abfolge der Bilder.
Hmm irgendwie wenn ich ehrlich bin ist das keine Antwort mit der man nicht wirklich was anfangen kann, schlussendlich muss es ja ne Kurve sein, die die andern Kurven sauber und vollkommen darstellen kann, also auch die Log Übertragungskurve, ansonsten könnt ich diese nicht einstellen in den "Raw" Settings. Das ein Bild auf egal welchem Monitor kein Raw mehr ist, ist mir klar und das Raw nur ein Luminanzwert pro Subpixel hat auch.WoWu hat geschrieben: ↑Do 16 Nov, 2017 22:23 Die Kurve, die da genutzt wird, kann proprietär sein, denn jedes Bayerfilter ist exakt auf den Sensortyp abgestimmt.
Aber wenn Du echtes RAW, also nur einen Wert pro Pixel hast, kriegst Du gar kein gescheites Videobild, weil Dir die restlichen Werte fehlen.
Hast Du aber ein Vodeobild, auch wenn es noch so flach ist, ist es kein klassisches RAW mehr sondern ein irgendwie bearbeitetes Videobild.
Was die größe des Datenvolumens angeht, kommt es natürlich erheblich darauf an, was alles mit dem Bild geschehen ist.
Dazu kann man so aus dem Stehgreif nicht spekulieren.
Frage ist immer, akzeptiert das NLE das Video, ohne dass Du vorher das De-Bayerverfahren wählst und alle Parameter, einschließlich von Anti-Alisaingverfahren setzt, dann hast Du mit ziemlicher Wahrscheinlichkeit ein Videosignal.
Dabei ist es unerheblich, ob das nun als Einzelbildsequenz vorliegt, oder irgendwie anders, denn „Video“ bezieht sich hier auf das einzelne Bild, dass dann aus RGB besteht und bezieht sich nicht auf die Abfolge der Bilder.
Wie unterscheide ich dann, ob es sich um ein bereits gewandeltes RGB-Signal oder um echtes RAW handelt? Wenn ich beispielsweise ein, wie du annimmst, echtes RAW aus einer Fotokamera und ein CinemaDNG aus einer BM-Kamera in einen RAW-Konverter wie den von Adobe werfe, gibt es dort keine Parameter fuers De-Bayering einzustellen; beide Dateien werden scheinbar gleichbehandelt, beide werden als RAW behandelt.
vor allem sieht man dabei auch recht recht deutlich, dass sich hier bei vergleich unterschiedlicher berechnungsmethoden einiges tut (bspw. bei bilddetails mit einzelnen haaren)! bedeutsame unterschiede, die unser WoWu in all seiner hinlänglich bekannten weisheit aber sicher wieder nur als "kantenschärfung" abtun wird. ;)
...man darf dabei aber auch nicht vergessen, das Datenbanken z.b. auch die kompletten Baupläne sämtlicher Fahrgastgeschäfte dieses Planeten enthalten.mash_gh4 hat geschrieben: ↑Sa 18 Nov, 2017 01:55 vor allem sieht man dabei auch recht recht deutlich, dass sich hier bei vergleich unterschiedlicher berechnungsmethoden einiges tut (bspw. bei bilddetails mit einzelnen haaren)! bedeutsame unterschiede, die unser WoWu in all seiner hinlänglich bekannten weisheit aber sicher wieder nur als "kantenschärfung" abtun wird. ;)
Sag mal, hast du schon mal ein DNG der Pocket in diesem Programm zu oeffnen versucht? Ich krieg da nur bunte Pixel mit einer Silhouette.cantsin hat geschrieben: ↑Sa 18 Nov, 2017 01:14 Mir fehlt die Expertise, eine DNG-Datei durch Analyse der Binärdaten darauf zu prüfen, ob sie nun 12-bit-JPEG oder undebayerte Sensordaten enthält...
...Doch: Wenn ich dienstags Beispiel-DNG in RawTherapee öffnen und die Debayering-Methode auf "None (Shows sensor pattern)" stelle, kriege ich das hier:...
...