
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Fast wie RAW: neues Sony 16-bit Format X-OCN
Macht das in 2D überhaupt einen großen Sinn?WoWu hat geschrieben:Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.
Wohl nicht beschreiben, sondern erzeugen. Wenn Pixel gespeichert werden und auch als solche wiedergegeben, ist das ja das Gewohnte. Allerdings gibt es ja auch schon Bitmaps, die vektorisiert werden und umgekehrt Vektorgrafiken, die gerastert werden, ohne große Probleme. Aber was passiert z.B. mit Lowlight? Das Signal ist so schwach, dass mit Pixeln nur Rauschen zu sehen ist. Was macht ein Vektor-Codec damit? Raten? Irgendwelche Strukturen interpolieren? Oder eine homogene Fläche aus der Durchschnittsfarbe? Erzeugt er bei der Umwandlung selbst ein Verlegenheitsrauschen?iasi hat geschrieben:Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Dann schau Dir mal genau an, was bei 4K passiert.iasi hat geschrieben:Macht das in 2D überhaupt einen großen Sinn?WoWu hat geschrieben:Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.
Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wenn man mit Figuren VR erzeugt, sind Vektoren natürlich sehr vorteilhaft - aber wenn man die Realität abbilden will, erscheint mir dies nicht so klar.
Du wirst einem Pixel in Bezig auf sein Rauschverhalten in der Vectorisierung eine Schwell mitgeben, unterschreitet er diese, wird das Pixel nicht als Stützpunkt wahrgenommen. das Netzwerk wird sich also an dem nächst erkennbaren Pixel orientieren und die fehlenden Zwischenwerte ebenso errechnen.Axel hat geschrieben:Wohl nicht beschreiben, sondern erzeugen. Wenn Pixel gespeichert werden und auch als solche wiedergegeben, ist das ja das Gewohnte. Allerdings gibt es ja auch schon Bitmaps, die vektorisiert werden und umgekehrt Vektorgrafiken, die gerastert werden, ohne große Probleme. Aber was passiert z.B. mit Lowlight? Das Signal ist so schwach, dass mit Pixeln nur Rauschen zu sehen ist. Was macht ein Vektor-Codec damit? Raten? Irgendwelche Strukturen interpolieren? Oder eine homogene Fläche aus der Durchschnittsfarbe? Erzeugt er bei der Umwandlung selbst ein Verlegenheitsrauschen?iasi hat geschrieben:Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
hmm ... Arri liefert 6k ... die neuen Reds liefern 8k ... viele Fotokaameras liefern mehr ... Ich sehe aber bisher keine neuen "Wege", die man gehen würde.WoWu hat geschrieben: @Iasi
Vectoren haben keinen Vorteil bei der Abbildung der Realität.
Nur ist die Abbildung der Realität an ihre physikalischen Grenzen gestoßen, aber das glaubst Du ja nicht.
Zumindest ist die Abbildung so schwierig geworden und damit so unwirtschaftlich, dass man offenbar jetzt andere Wege geht.
Schau Dir nur mal die Super-Resolution Verfahren an.
Da ist das nämlich schon alles Realität.
Man hatte doch noch nie eine 1:1 Abbildung der Realität - auch nicht zu Negativzeiten.WoWu hat geschrieben:Du musst unterscheiden zwischen Reproduktion, als der Wiedergabe einer natürlichen Szene und einer Rekonstruktion, also der vermutlichen Reproduktion.
Die bisherigen Codecs waren auf Reproduktion eingestellt.
Nur wenn die Optik schon nicht mehr auflöst, nutzt keine weitere Verfolgung dieser Methode, noch dazu dass sie zunehmend unwirtschaftlicher wird.
Auch das alte Wavelet nützt nix, wenn die Optik nicht höher auflöst.
Wie es scheint, stehen wir an dem Punkt, dass man zu Rekonstruktion übergeht und Bilder nur noch am Wiedergabepunkt höher auflöst, aber eben keine zusätzlichen Bildinhalte mehr überträgt sondern eben nur noch Auflösung in Form von Zwischenwerten, egal ob die in der Originalszene vorgekommen sind, oder nicht.
Und was den Workflow betrifft, geht es mit Sicherheit schneller, weil bereits VectorenVektoren übergeben werden, mit den jeder Computer sofort umgehen kann ... kein Decoding, kein transcoding ... nix mehr.
Vernünftige Grafikkarte und gute Architektur und gut is.
Nein - ich verwechsele nicht Pixel und Bildauflösung.WoWu hat geschrieben:Ich sehe, Du bist immernoch mit Deiner alten Hoffnung, irgendwann wird's funktionieren, verheiratet und merkst gar nicht, dass der Zug schon lange an Dir vorbeigefahren ist.
Du verwechselst auch immernoch Pixels mit Bildauflösung.
Aber warten wir einfach ab, bis er in Resolve auftaucht.
Schau dir den Test an, den ich verlinkt habe.WoWu hat geschrieben:Ich hab' Dir zu dem Objektiv schon mal gesagt, dass das nur rd. 76 LP/mm bei 50% MTF macht. Nun kannst Du Dir ausrechnen, wie groß Dein Sensor sein müsste, um 4K Bilddetails darstellen zu können.
Nun komm doch nicht schon wieder mit dem Schmarn.
Schön, dass du so konkret bist - aber es ist schon immer der Trick derer gewesen, nebulös zu bleiben, um sich über andere zu erheben.Jott hat geschrieben:Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.
Vektoren machen Sinn, wenn man eindeutige Daten verarbeitet.Valentino hat geschrieben:Das Sony schon so fortschrittlich ist und Vektoren benutzt halte ich für recht unwahrscheinlich. Es ist am Ende einfach höher komprimiertes RAW, wie Wolfgang auf die Sache mit den Vektoren kommt bleibt mir ein Rätsel, da Sony mit so einer "neuen Technologie" dann auch werben würde.
Interessant ist das Thema aber allemal und gerade wenn es um die Übertragung geht macht das durchaus Sinn, aber hier wird vor 2020 nicht viel passieren.
Ich hoffe schon seit Jahren auf ein Upgrade des DCI Standards zu einer höheren Datenrate und der Möglichkeit OpenEXR mit neuen DCI Geräten wieder zu geben.
Wenn ich dann mitbekomme das das Kino um die Ecke ein neues 4k-System, der Server aber nur 4x2TB unterstützt, da die Hardware aus dem Jahre 2010 stammt, ist mir so einiges klar.
Deine Leseschwäche, bzw. Dein Verständnisproblem hat wieder zugeschlagen.Jott hat geschrieben:Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.
Korrekt.WoWu hat geschrieben:Dummschwätzer kann jeder.
sgywalka is back hat geschrieben:Falls des unsere Kunden üh. sehen. Von wegen Augenlicht und älter.. aber das ist eine so gewagte These, die kleine seismische Empörungswellen erzeugt im Jungbrunen der fitten
70zig-Jährigen die gerade erst 35 wurden.... verdammich ein Undichter!
Er blutet aus allen Löchern das junge Blut!!! Hexxerei!!!!
Weiss man eig, was der externe Kasten dann in echt kosten wird, in welchem 2017 er auch alles freigeschalten hat...e.t.zerra :)
warum bist du dir da so sicher?Valentino hat geschrieben:Bei deinem verlinkten Artikel handelt es sich um das Foto-RAW der Sony Kameras von 2014, das hat mit dem neuen Format recht wenig zu tun.
das ist immer nur eine frage des standpunkts bzw. der verfügbaren produktionsmittel. es ist durchaus nicht ungewöhnlich, wenn bei entsprechend anspruchsvollen projekten, die ganze postproduktion in EXR-bildsequenzen gehandhabt wird. das sind genauso erschreckend hohe datenraten bzw. -mengen.Valentino hat geschrieben:Bei Standbildern kann das RAW auch gerne 20MB groß sein oder halt eine leichte Komprimierung drauf und man kommt auf 10MB. Für Video sind solche Datenraten von z. B. 250Megabyte pro Sekunde absolut indiskutabel.
darüber mag ich gar nicht ernsthaft mitspekulieren.Valentino hat geschrieben:Dazu hat das mit den angesprochenen Vektoren nichts zu tun.
Na - du wiederholst das ständig - jedoch hat es sich in der Praxis längst gezeigt, dass es geht.WoWu hat geschrieben: Erklär doch einfach mal, wie ein so kleines Pixel die erforderliche Ladungsmenge aufnimmt und wie in einem RAW Format so kleine Datenmengen bei zunehmender zeitlicher und spatialen Auflösung zustande kommen... zumal da ja kein Sensor ausgetauscht wird sondern alles per Codec passiert.
Schon 2012 gab es vectorbasierte Codecs für Video:Vektoren machen Sinn, wenn man eindeutige Daten verarbeitet.
Ein Videospiel und eine Grafikanimation arbeitet mit eindeutigen Figuren - hier bieten sich Vekotren natürlich an - aber bei Abbildungen aus der Realität sehe ich das nicht.