Ich befürchte nicht denn selbst wenn ADOBE ihn durch CinemaDNG unterstützen sollte, wird das nur wieder eine Interpretation, wird also nicht die Sensorqualität widerspiegeln sondern lediglich so aussehen, wie auch die andern ADOBE DNG Schätzungen.iasi hat geschrieben:Interessant - aber an der Software-Unterstützung wird es sich letztlich zeigen, ob der Raw-Codec etwas taugt.
Mann Mann - lern mal etwas Benimm, denn sonst wirst du´s mal nicht weit bringen ...Valentino hat geschrieben:Du hast keine Ahnung ...
Ich würde weiter gehen und sagen, dass im Grunde ein leicht umzusetzendes RGB-Intermediate-Format mit ich nenne es mal "erweitertem Farbraum mit HDR" gebraucht wird. Dann muss ein Programm (Schnittsoftware, Farbkorrektur, Effektsoftware, usw.) nur mit diesem einem Format umgehen können, die Umwandlung von RAW nach Intermediate und von Intermediate in ein Distributionsformat kann mit spezialisierten Konvertern geschehen.WoWu hat geschrieben: Deswegen ist es so wichtig, dass Firmen solche Container wie CINEMA DNG aktiv unterstützen, denn dann geben Sie alle zur Bearbeitung dringend erforderlichen Daten an den Container weiter, aus dem sich das Entwicklungsprogramm dann die Parameter, z.B. für das De-bayering zieht und so auch ein adäquates Bild erstellen kann.
Wie man es dreht und wendet würde das aber immer nur den aktuellen Stand der Dinge abbilden können und Neuentwicklungen unter Umständen im Weg stehen. Auch läuft man Gefahr, dass der Aufbau des Formats schnell sehr kompliziert wird, wenn man versucht dem entgegenzuwirken.WoWu hat geschrieben: Wir brauchen nur eine Standardisierung des RAW Formates.
Die SMPTE ist da ja unter 2065-1 (ACES) dran.
Das Format muss natürlich frei verfügbar, robust und vergleichsweise leicht umzusetzen sein. Vom Grundgedanken ähnlich OpenEXR, nur eben nach Möglichkeit einfacher aufgebaut.WoWu hat geschrieben: Was wir definitiv nicht brauchen, ist einen neuen Intermediate, der dann nur so nach Gusto und Geschäftslage von Firmen gepflegt wird, also ADOBE, APPLE oder Grass Valley und dann womöglich pro Anwendung vom Verbraucher bezahlt wird, also SONY.
Ich muss jetzt etwas weiter ausholen, damit die Motivation für ein neues einfaches RGB-Intermediate-Format klar wird:WoWu hat geschrieben:ich weiss nicht, ob sowas wie openEXR nicht viel zu weit hinten ansetzt.
Das sehe ich eben auch so. Grade deswegen sehe ich inzwischen einen Nutzen in einem geeigneten Zwischenformat.WoWu hat geschrieben: Der eigentlichen Pixelbearbeitung kommt zukünftig wesentlich mehr Bedeutung zu als es jetzt mit dem De-bayering ist.
Das stimmt natürlich - nur wird doch meist nicht verlustfrei komprimiert, um höhere Komrimierungsraten erzielen zu können - visuell verlustfrei heißt es dann immer.Frank Glencairn hat geschrieben:@ IASI
Der Sensor liefert zunächst mal ein unkomprimiertes Graustufen Bild - das kann man natürlich mit einem entsprechenden Algorythnus komprimieren (wie RAR, ZIP usw.) und wieder verlustfrei auspacken.
Nun - wenn ich an Red denke, gibt es die Möglichkeit, in Redcine in ein anderes Format zu exportieren - dabei ist dann sogar ein Adv. DeBayering möglich ...TheBubble hat geschrieben: Ich würde im Prinzip die folgende Vorgehensweise favorisieren:
Spezialisierter Konverter:
{Spezialformat, RAW, YCbCr-4:2:2-irgendwas, usw.} -> Aufbereitungs-Engine -> Intermediate-RGB-4:4:4-Format.
Programme: Intermediate-RGB-4:4:4-Format -> Bearbeitungsschritte -> {Intermediate-RGB-4:4:4-Format oder Ausgabe-Formate wie H.264. MPEG-2, usw.}
Das würde die Last des Imports aus den Programmen in einen speziellen Konverter auslagern, der gerne die Optionen anbietet länger zu rechnen, aber dafür ein Optimum herauszuholen. Die anderen Programme können sich dann auf das konzentrieren, was sie eigentlich tun wollen. Es kann bei dieser Aufteilung auch Programme geben, die sich auf einen qualitativ möglichst guten Export in ein Distributionsformat spezialisieren.
Ist das dann nicht auch nur eine Form von Komprimierung?WoWu hat geschrieben: Meine Version wäre, weil das Ziel einer optisch scharfen Projektion ohnehin an die Grenzen stösst, entweder nur noch einen geringen, unregelmässigen teil des Sensors abzutasten und dann durch Faltung das Bild zu errechnen.
Der Konverter muss am meisten rechnen und nur der Konverter braucht das Wissen über die diversen Eingabeformate. Das macht aber Sinn: Alle nachfolgenden Programme und Arbeitsschritte sind davon befreit und nutzen ein schneller und einfacher zu verarbeitendes Format, das trotzdem mehr Flexibilität bietet, als viele gängige Eingabeformate.WoWu hat geschrieben:Tja, das wäre natürlich eine konventionelle Methode, die aber (so, wie ich das im Augenblick sehe) über den ganzen Weg ziemlich viel rechnet (mit den bekannten Nachteilen).
Das mit den Farbräumen könnte man im Zwischenformat ähnlich wie scRGB handhaben. Oder wie OpenEXR.WoWu hat geschrieben: Hat aber den Vorteil, dass weder Farbräume beschrieben werden müssen, in denen kodiert wurde, noch irgendwelche andern arbeitsspezifischen Parameter.
Wenn Du mit "real" herkömliches RGB meinst, dann ganz sicher noch lange nicht. :-)WoWu hat geschrieben: Ich glaube, die Zeit des "realen Bildes" im Arbeitsprozess ist ebenso beendet,
was sollte eigentich so ein Universal-Konverter bringen - im Vergleich zu den speziell von den Kameraherstellern abgestimmten Lösungen, wenn dann doch wie bisher in eine aufgeblähtes Zwischenformat gewandet wird?TheBubble hat geschrieben: Der Konverter muss am meisten rechnen und nur der Konverter braucht das Wissen über die diversen Eingabeformate. Das macht aber Sinn: Alle nachfolgenden Programme und Arbeitsschritte sind davon befreit und nutzen ein schneller und einfacher zu verarbeitendes Format, das trotzdem mehr Flexibilität bietet, als viele gängige Eingabeformate.
Mein Intermediate-Format könnte natürlich auch zusätzlich Proxie-Auflösungen bereithalten.WoWu hat geschrieben: Ich glaube nur nicht mehr daran, dass wir hohe Frequenzen noch lange durch die gesamte Systemkette schleifen und darauf bestehen, sie an jedem Punkt sichtbar machen zu können.
Ich glaube, dass wir die hochfrequenten Anteile der Bilder erst im Renderprozess erstellen.
Würde ich gerne auch so sehen, aber es gibt neben technischen Erwägungen (leider) eben auch eine große Menge nicht technischer Gründe, die für ein Intermedia-Format sprechen.WoWu hat geschrieben: Ich glaube an keinen Intermediate mehr auf lange Sicht.