Logo Logo
/// 

Fast wie RAW: neues Sony 16-bit Format X-OCN



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Bei der RAW-Aufzeichnung für eine volle Flexibilität in der Post entstehen enorme Datenmengen, deren Speicherp...
https://images.slashcam.de/news/13036_FRONT.jpg
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Fast wie RAW: neues Sony 16-bit FormatFormat im Glossar erklärt X-OCN




Antwort von Valentino:

Im Prinzip nichts anderes als eine Erhöhung der KompressionsrateKompressionsrate im Glossar erklärt, die bei jetzigen RAW glaube bei 5:1 liegt und dann halt auf 8:1 angehoben wird.

Wenn das neue FormatFormat im Glossar erklärt "nur fast RAW" ist, dann ist beim RedCode alles über 5:1 auch keine echtes RAW mehr ;-)



Antwort von sgywalka is back:

Meister, da hast Du schon recht!
Meinst aber net, das des neue Kastel die goldene Brücke ist um für Sony so die
normalerern Codecs (sammt Karten) als interne Recordinglösungen zu verkaufen?
Und Raw über 1 zu 5. Ist wie beim Bier, des wäre dann a weisse nasse Moas, gel:)
Brotzeit..
Wenn so etwas als 1:8 aber eine Qualität erreicht, die wiederum handsome 10 bit
"Normalcodec/ Hauscodec-lösungen" übertrifft, kann des was werden.
Interessant ist auch wie man sog. Multi-S-logs in so etwas verpacken könnte um wiederum
synthetisch rot grün wie einen 3-Chip zu simulieren ( ob das ein Vorteil wäre?) und die Schwartzwerte ebenfalls, auch auf Sicht das wir S-35 Sensoren mit 8k( 16k) haben und irgendwie mit den hohen ISO-werten raufen oder späteres Bröseln und Rauschen haben.
Wenn es den Kasten dann mal gibt und Slashcam testet, wäre das genial.

Ich sehe das bei den nächsten F8-Bombern und wh in kleiner Form in einem FS-6 Derivat!





Antwort von sgywalka is back:

Falls des unsere Kunden üh. sehen. Von wegen Augenlicht und älter.. aber das ist eine so gewagte These, die kleine seismische Empörungswellen erzeugt im Jungbrunen der fitten
70zig-Jährigen die gerade erst 35 wurden.... verdammich ein Undichter!
Er blutet aus allen Löchern das junge Blut!!! Hexxerei!!!!

Weiss man eig, was der externe Kasten dann in echt kosten wird, in welchem 2017 er auch alles freigeschalten hat...e.t.zerra :)



Antwort von kling:

Zitat: "...und in X-OCN LT ganze 284 Minuten." Ein beliebter Deutsch-Fehler. Richtig müsste es heißen "...volle 284 Minuten". Nicht also die Bedeutung von "gerade mal", Beispiel: "Ganze 384 Euros kostete dieser LowBudget-Film..."

Grammatik-Lektion: http://www.spiegel.de/kultur/zwiebelfis ... 34153.html



Antwort von WoWu:

Aber wenn das stimmt, was sie sagen, dass das so schnell und unkompliziert zu verarbeiten ist, wie ein Intermediate, dann wäre das ja ein guter Ansatz. Wenn das alles dann noch ACES kompatibel ist, auch ein Schritt in die richtige Richtung.
Irgendwann fängt auch bestimmt auch mal einer an, die Bilder mit Vektoren statt Pixeln zu beschreiben. Sowas würde die geringe Datenmenge auch erklären und wenn man sich die Bildrekonstruktionen in 4K mal ansieht, dann liegt das genau auf der Linie.
Bisher unterstützt das aber wohl noch keiner, sodass noch nicht richtig klar ist, was sie eigentlich machen.
Aber auch die 16 BitBit im Glossar erklärt deuten eher auf Computergrafik hin, als auf Sensorauflösung.
Na, wahrscheinlich ist Resolve wieder der Erste. Aber Vektor würde natürlich funktionieren, ohne aufwändige RAW Entwicklung und das kann auch jeder Computer.
Und in der Lizenzfalle säßen sie auch nicht.
Schau'n'mer ma.



Antwort von iasi:

Was genau versprichst du dir denn von Vektoren?



Antwort von WoWu:

Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.



Antwort von iasi:

Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.

Macht das in 2D überhaupt einen großen Sinn?

Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wenn man mit Figuren VR erzeugt, sind Vektoren natürlich sehr vorteilhaft - aber wenn man die Realität abbilden will, erscheint mir dies nicht so klar.



Antwort von Axel:

Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?

Wohl nicht beschreiben, sondern erzeugen. Wenn PixelPixel im Glossar erklärt gespeichert werden und auch als solche wiedergegeben, ist das ja das Gewohnte. Allerdings gibt es ja auch schon Bitmaps, die vektorisiert werden und umgekehrt Vektorgrafiken, die gerastert werden, ohne große Probleme. Aber was passiert z.B. mit Lowlight? Das Signal ist so schwach, dass mit Pixeln nur Rauschen zu sehen ist. Was macht ein Vektor-Codec damit? Raten? Irgendwelche Strukturen interpolieren? Oder eine homogene Fläche aus der Durchschnittsfarbe? Erzeugt er bei der Umwandlung selbst ein Verlegenheitsrauschen?



Antwort von iasi:

Lowlight sehe ich da nicht als Problem - wenn das Rauschen das Signal überlagert, hat man bei Vektoren dieselben Schwierigkeiten, wie bei Pixeln.

Ich habe mich aber noch nicht sehr hineingedacht - daher die ernst gemeinte Frage:
Wo würden die Vorteile von Vektoren bei der Abbildung der Realität liegen?



Antwort von WoWu:

Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.

Macht das in 2D überhaupt einen großen Sinn?

Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wenn man mit Figuren VR erzeugt, sind Vektoren natürlich sehr vorteilhaft - aber wenn man die Realität abbilden will, erscheint mir dies nicht so klar.

Dann schau Dir mal genau an, was bei 4K passiert.
Darum geht ja die ganze Debatte. Die TV-Geräteindustrie sagt (mit Recht), so wie 4/8K heute zustande kommt, könne sie das auch in den TV Geräten denn die Methode der Pixelgenerierung entspricht dem, was in der Super Resolution ausgeführt wird ... und das sind alles Vektor basierte Verfahren.
Es geht also nu darum, ein Videobild aus der Rasterung in eine Vectorgrafik zu überführen, alle Interpolationsfe und Auflösungsprozesse sowie die Pixeleigenschaften zu definieren und hinterher wieder eine Punktmatrix daraus zu machen.
Solche Verfahren gibt es seit 20 Jahren, nur eben die Rechenpower noch nicht so lange.
Aber, wie Axel schon sagt, alle zusätzlich errechneten Punkte sind Interpolationen, also keine realen Bildpunkte.
Fernsehen wird sich zur Computergrafik um-erfinden.
Die Frage ist eben nur, wenn solche Algorithmen in TV-Geräten werkeln können und jetzt (vermutlich) in Kameras, wie lange es dauert, bis solche Codecs in NLEs auftauchen.
In dem Augenblick ist es nämlich ziemlich Banane, welche Qualität die Kamera raus tut.
Es ist schade, dass es noch nicht mehr Infos über den CodecCodec im Glossar erklärt gibt aber die Eckdaten sprechen schon eine ziemlich deutliche Sprache.
Wir werden uns also dann auf knackige aber texturschwache Bilder einstellen dürfen. Alles eine Frage der Gewohnheit.



Antwort von WoWu:

Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?

Wohl nicht beschreiben, sondern erzeugen. Wenn PixelPixel im Glossar erklärt gespeichert werden und auch als solche wiedergegeben, ist das ja das Gewohnte. Allerdings gibt es ja auch schon Bitmaps, die vektorisiert werden und umgekehrt Vektorgrafiken, die gerastert werden, ohne große Probleme. Aber was passiert z.B. mit Lowlight? Das Signal ist so schwach, dass mit Pixeln nur Rauschen zu sehen ist. Was macht ein Vektor-Codec damit? Raten? Irgendwelche Strukturen interpolieren? Oder eine homogene Fläche aus der Durchschnittsfarbe? Erzeugt er bei der Umwandlung selbst ein Verlegenheitsrauschen?
Du wirst einem PixelPixel im Glossar erklärt in Bezig auf sein Rauschverhalten in der Vectorisierung eine Schwell mitgeben, unterschreitet er diese, wird das PixelPixel im Glossar erklärt nicht als Stützpunkt wahrgenommen. das Netzwerk wird sich also an dem nächst erkennbaren PixelPixel im Glossar erklärt orientieren und die fehlenden Zwischenwerte ebenso errechnen.
Das Bild wird eben immer "flächiger", je weniger Licht und damit störfreie Pixels Du hast.

@Iasi
Vectoren haben keinen Vorteil bei der Abbildung der Realität.
Nur ist die Abbildung der Realität an ihre physikalischen Grenzen gestoßen, aber das glaubst Du ja nicht.
Zumindest ist die Abbildung so schwierig geworden und damit so unwirtschaftlich, dass man offenbar jetzt andere Wege geht.
Schau Dir nur mal die Super-Resolution Verfahren an.
Da ist das nämlich schon alles Realität.



Antwort von iasi:

Dann wird also hin- und her-codiert.

So etwas macht doch nur Sinn, wenn das Bild aus der Kamera direkt auf den Bildschirm kommt.

Die Datenmengen zu reduzieren ist nicht das primäre Ziel, wenn es um die Aufnahme in der Kamera geht.
Daher ist doch auch das "alte" Wavelet-Verfahren noch immer sehr vorteilhaft.

Ein CodecCodec im Glossar erklärt, der mehr Rechenaufwand erfordert, als er bei Datenmengen und -übertragung einspart, bringt nichts.
Wenn in Premiere mehr 5k-R3D Spuren abspielbar sind, als z.B. AVCHDAVCHD im Glossar erklärt ist doch abgesehen von stundenlangen Aufnahmen am Stück, die Datenmenge nicht von Belang.

X-OCN muss erst mal zeigen, dass es den Workflow beschleunigt und nicht sogar bremst.



Antwort von WoWu:

Du musst unterscheiden zwischen Reproduktion, als der Wiedergabe einer natürlichen Szene und einer Rekonstruktion, also der vermutlichen Reproduktion.
Die bisherigen Codecs waren auf Reproduktion eingestellt.
Nur wenn die Optik schon nicht mehr auflöst, nutzt keine weitere Verfolgung dieser Methode, noch dazu dass sie zunehmend unwirtschaftlicher wird.

Auch das alte Wavelet nützt nix, wenn die Optik nicht höher auflöst.

Wie es scheint, stehen wir an dem Punkt, dass man zu Rekonstruktion übergeht und Bilder nur noch am Wiedergabepunkt höher auflöst, aber eben keine zusätzlichen Bildinhalte mehr überträgt sondern eben nur noch Auflösung in Form von Zwischenwerten, egal ob die in der Originalszene vorgekommen sind, oder nicht.

Und was den Workflow betrifft, geht es mit Sicherheit schneller, weil bereits VectorenVektoren übergeben werden, mit den jeder Computer sofort umgehen kann ... kein Decoding, kein transcoding ... nix mehr.
Vernünftige Grafikkarte und gute Architektur und gut is.



Antwort von iasi:


@Iasi
Vectoren haben keinen Vorteil bei der Abbildung der Realität.
Nur ist die Abbildung der Realität an ihre physikalischen Grenzen gestoßen, aber das glaubst Du ja nicht.
Zumindest ist die Abbildung so schwierig geworden und damit so unwirtschaftlich, dass man offenbar jetzt andere Wege geht.
Schau Dir nur mal die Super-Resolution Verfahren an.
Da ist das nämlich schon alles Realität.

hmm ... Arri liefert 6k ... die neuen Reds liefern 8k ... viele Fotokaameras liefern mehr ... Ich sehe aber bisher keine neuen "Wege", die man gehen würde.

Was ich sehe, ist die technische Entwicklung, die es erlaubt immer höhere Auflösungen zu verarbeiten und zu speichern.
Letztlich lag die Digitale-Kinokamera auf der Hand und war doch unvermeidlich, nachdem die digitalen Fotokameras immer höhere Frameraten bei hohen Auflösungen schafften.
Die Rechenleistung und die Datenraten steigen weiter - und mit ihnen eben auch die Auflösungen.
Im Sensorbereich tut sich zudem auch etwas - BSI ist nur ein Beispiel.
Auch bei den Objektiven hast du keinen Stillstand.

Ich bin wirklich gespannt darauf, wie gut sich der S35/8k von Red nun wirklich schlägt - mir erscheinen dies auch ziemlich viele PixelPixel im Glossar erklärt auf der Fläche. Andererseits hat man dies im Fotobeereich schon längst.

Neue Wege kann ich jedenfalls nicht erkennen. (Allenfalls so etwas wie z.B. der Pixelshift von Pentax)



Antwort von WoWu:

Ich sehe, Du bist immernoch mit Deiner alten Hoffnung, irgendwann wird's funktionieren, verheiratet und merkst gar nicht, dass der Zug schon lange an Dir vorbeigefahren ist.
Du verwechselst auch immernoch Pixels mit Bildauflösung.
Aber warten wir einfach ab, bis er in Resolve auftaucht.



Antwort von iasi:

Du musst unterscheiden zwischen Reproduktion, als der Wiedergabe einer natürlichen Szene und einer Rekonstruktion, also der vermutlichen Reproduktion.
Die bisherigen Codecs waren auf Reproduktion eingestellt.
Nur wenn die Optik schon nicht mehr auflöst, nutzt keine weitere Verfolgung dieser Methode, noch dazu dass sie zunehmend unwirtschaftlicher wird.

Auch das alte Wavelet nützt nix, wenn die Optik nicht höher auflöst.

Wie es scheint, stehen wir an dem Punkt, dass man zu Rekonstruktion übergeht und Bilder nur noch am Wiedergabepunkt höher auflöst, aber eben keine zusätzlichen Bildinhalte mehr überträgt sondern eben nur noch Auflösung in Form von Zwischenwerten, egal ob die in der Originalszene vorgekommen sind, oder nicht.

Und was den Workflow betrifft, geht es mit Sicherheit schneller, weil bereits VectorenVektoren übergeben werden, mit den jeder Computer sofort umgehen kann ... kein Decoding, kein transcoding ... nix mehr.
Vernünftige Grafikkarte und gute Architektur und gut is.

Man hatte doch noch nie eine 1:1 Abbildung der Realität - auch nicht zu Negativzeiten.
Schon immer hatte man versucht die maximale Näherung zu erreichen - nicht mehr und nicht weniger.
Wenn nun ein hochlichtstarkes Objektiv bei Offenblende genutzt wird, bekommt man natürlich eine reduzierte Abbildungsleistung. Aber mit hochauflösendem Sensor erhält man eben davon dann das Maximale und erzeugt nicht noch weitere Verluste.
Wie Objektivtests zeigen, ist dabei eben bei 4k noch nicht Schluss.
Hier ein Beispiel:
http://www.photozone.de/canon_eos_ff/97 ... rt?start=1
Dabei ist das noch nicht mal ein sehr gutes Objektiv.

Es geht dann aber in der Post darum, möglichst wenig zusätzlich Verluste zu erzeugen und gleichzeitig die Arbeitsgeschwindigkeit hoch zu halten.
Bei der Ausgabe am Ende kann dann je nach Anforderung und Bedarf das FormatFormat im Glossar erklärt gewählt werden.



Antwort von WoWu:

Ich hab' Dir zu dem Objektiv schon mal gesagt, dass das nur rd. 76 LP/mm bei 50% MTF macht. Nun kannst Du Dir ausrechnen, wie groß Dein Sensor sein müsste, um 4K Bilddetails darstellen zu können.
Nun komm doch nicht schon wieder mit dem Schmarn.



Antwort von iasi:

Ich sehe, Du bist immernoch mit Deiner alten Hoffnung, irgendwann wird's funktionieren, verheiratet und merkst gar nicht, dass der Zug schon lange an Dir vorbeigefahren ist.
Du verwechselst auch immernoch Pixels mit Bildauflösung.
Aber warten wir einfach ab, bis er in Resolve auftaucht.

Nein - ich verwechsele nicht PixelPixel im Glossar erklärt und Bildauflösung.
Du denkst aber immer, dies gleichsetzen zu müssen - und dies ist eben eine Utopie.

Mir genügt es schon, ein Maximum anzustreben. Ob Vektorisierung schon in der Kamera bzw während der Aufnahme dabei hilfreich ist, kann ich nicht sehen.

Wenn ein Objektiv 8k nicht liefert, so bekomme ich aber eben vielleicht doch mehr als 4k an einem 8k-Sensor und habe eben immer noch eine höhere Auflösung als an einem 4k Sensor - das ist eben schon ein Vorteil.



Antwort von iasi:

Ich hab' Dir zu dem Objektiv schon mal gesagt, dass das nur rd. 76 LP/mm bei 50% MTF macht. Nun kannst Du Dir ausrechnen, wie groß Dein Sensor sein müsste, um 4K Bilddetails darstellen zu können.
Nun komm doch nicht schon wieder mit dem Schmarn.

Schau dir den Test an, den ich verlinkt habe.
Oder entsprechende mit APS-C-Kameras.

Im Fotobereich haben wir eben nun mal schon hohe Auflösungen und können auf Tests zurückgreifen.

http://www.photozone.de/canon_eos_ff/97 ... rt?start=1

Oder MFT ... hier hast du schon längst die Pixelgröße, wie sie nun der S35/8k mitbringt ... Mir erscheint dies übrigens auch keine wirklich erstrebenswerte Entwicklung, immer mehr PixelPixel im Glossar erklärt auf die Fläche zu quetschen.



Antwort von Jott:

Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.



Antwort von Valentino:

Das Sony schon so fortschrittlich ist und Vektoren benutzt halte ich für recht unwahrscheinlich. Es ist am Ende einfach höher komprimiertes RAW, wie Wolfgang auf die Sache mit den Vektoren kommt bleibt mir ein Rätsel, da Sony mit so einer "neuen Technologie" dann auch werben würde.

Interessant ist das Thema aber allemal und gerade wenn es um die Übertragung geht macht das durchaus Sinn, aber hier wird vor 2020 nicht viel passieren.

Ich hoffe schon seit Jahren auf ein Upgrade des DCI Standards zu einer höheren DatenrateDatenrate im Glossar erklärt und der Möglichkeit OpenEXR mit neuen DCI Geräten wieder zu geben.
Wenn ich dann mitbekomme das das Kino um die Ecke ein neues 4k-System, der Server aber nur 4x2TB unterstützt, da die Hardware aus dem Jahre 2010 stammt, ist mir so einiges klar.



Antwort von iasi:

Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.

Schön, dass du so konkret bist - aber es ist schon immer der Trick derer gewesen, nebulös zu bleiben, um sich über andere zu erheben.
Will ich so etwas, geh ich aber doch in die Kirche ... und langweile mich da ...



Antwort von iasi:

Das Sony schon so fortschrittlich ist und Vektoren benutzt halte ich für recht unwahrscheinlich. Es ist am Ende einfach höher komprimiertes RAW, wie Wolfgang auf die Sache mit den Vektoren kommt bleibt mir ein Rätsel, da Sony mit so einer "neuen Technologie" dann auch werben würde.

Interessant ist das Thema aber allemal und gerade wenn es um die Übertragung geht macht das durchaus Sinn, aber hier wird vor 2020 nicht viel passieren.

Ich hoffe schon seit Jahren auf ein Upgrade des DCI Standards zu einer höheren DatenrateDatenrate im Glossar erklärt und der Möglichkeit OpenEXR mit neuen DCI Geräten wieder zu geben.
Wenn ich dann mitbekomme das das Kino um die Ecke ein neues 4k-System, der Server aber nur 4x2TB unterstützt, da die Hardware aus dem Jahre 2010 stammt, ist mir so einiges klar.

Vektoren machen Sinn, wenn man eindeutige Daten verarbeitet.
Ein Videospiel und eine Grafikanimation arbeitet mit eindeutigen Figuren - hier bieten sich Vekotren natürlich an - aber bei Abbildungen aus der Realität sehe ich das nicht.



Antwort von WoWu:

@ Valentino
So fortschrittlich ist das gar nicht, wie Du sagst.
Ich denke, Sony hat lediglich SR Algorithmen verpackt, denn wie sonst wäre eine drastische Dynamikanhebung pro PixelPixel im Glossar erklärt (immerhin auf 16Bit) bei gleichzeitiger Anhebung der FramerateFramerate im Glossar erklärt und bei 4K mit der einhergehenden Reduzierung der Datenmenge um 30% zu erklären.
(überleg mal, welche Ladungsmenge für 16Bit in jedem PixelPixel im Glossar erklärt erforderlich wäre ... und das bei den winzigen Pixels die S35 hat).
AUsserdem haben sie ja auch nicht ohne Grund das Ganze "wie RAW" genannt.
Und derzeit passiert bei 4K in den meisten Kameras sowieso nichts Anderes, als die Verfierfachung des Pixelrasters, ohne dass die Menge der Bilddetails entsprechend mit zunimmt.
AUsserdem setzt die Datenreduktion von RAW ein fertiges Bild voraus, das es bei den bisher benutzten Formaten, wie XAVC so gar nicht gibt,
Frage ist also, welches RAW FormatFormat im Glossar erklärt sie weiter reduziert haben sollen ?
Ich denke, dass sie schon eine ganze Weile intern mit Vectoren gearbeitet haben, daher auch oft die "Schweinchenhaut" bei manchen Einstellungen. Das deutet ziemlich auf Vectorverarbeitung hin und dass sie erst jetzt den CodecCodec im Glossar erklärt fertig haben, um mit dem FormatFormat im Glossar erklärt direkt an die NLE Hersteller gehen können, das Dateiformat zu implementieren, weil sie die Rückformatierung bisher immer Kamerainternen machen mussten, egal in welchem Bildformat sie hinterher rausgegangen sind.
Aber wir werden sehn, wenn es jemand implementiert hat.
Für mich ist dass der logische Schritt in höhere Pixelformate und zeitliche Auflösungen bei gleichzeitiger Skalierbarkeit denn ob sich jemals jemand findet, der HEVC Scalierung einsetzt nachdem auch DASH funktioniert wie eine kranke Ente, das würde ich mal bezweifeln.
Nur dass Scalierung vor dem Hintergrund der Formatvielfalt eines der dringendsten Themen ist, daran zweifelt wahrscheinlich keiner mehr.
Und als Nebeneffekt kommen eben immernoch die Lizenskosten, die sich bei einer Vectorverarbeitung gegenüber eines Fremdcodecs wie HEVC, an dem SONY nicht so viele Patente hält, in engen Grenzen halten.
Das alles spricht sehr für einen Paradigmenwechsel, der irgendwann sowieso fällig gewesen wäre.
Fuji hat schon die Neuentwicklung von höher auflösenden Objektiven aufgegeben und lediglich CANON hat noch ein 4K Objektiv zu einem horrenden Preis auf den Markt gebracht. DA steht also auch die Entwicklung nicht gerade in den Startlöchern.

Aber, wie gesagt, wir werden es sehen.



Antwort von WoWu:

Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.
Deine Leseschwäche, bzw. Dein Verständnisproblem hat wieder zugeschlagen.
Ich habe immer gesagt, wir werden es sehen, wenn so ein CodecCodec im Glossar erklärt in NLEs implementiert ist, weil Sony sich ziemlich mit Infos zurück hält.

Von Fakten habe ich nie gesprochen, aber meine Mutmaßungen, glaube ich, hinreichend begründet und auch keinen Zweifel daran gelassen, dass es eine Mutmaßung ist.

Wie wär's denn mal mit Fakten Deinerseits oder zumindest mit Sachlichen Argumenten Deinerseits, statt mit Polemik ?

Dummschwätzen kann jeder.
Aber darin bist Du natürlich erste Wahl.

Erklär doch einfach mal, wie ein so kleines PixelPixel im Glossar erklärt die erforderliche Ladungsmenge aufnimmt und wie in einem RAW FormatFormat im Glossar erklärt so kleine Datenmengen bei zunehmender zeitlicher und spatialen Auflösung zustande kommen... zumal da ja kein Sensor ausgetauscht wird sondern alles per CodecCodec im Glossar erklärt passiert.
Du weißt es doch offenbar. Lass uns doch nicht so dumm sterben.



Antwort von Jott:

Dummschwätzer kann jeder.

Korrekt.



Antwort von WoWu:

Tja, wie vermutet, zu mehr reicht's dann auch nicht mehr bei Dir.



Antwort von mash_gh4:

ein bisserl was weiß man schon über die art und weise, wie sony im standbild-umfeld seine raw-daten komprimiert (vgl. z.b. http://www.rawdigger.com/howtouse/sony- ... -detection).

ich würde das gar nicht so sehr nur unter dem gesichtspunkt maximaler abbildungsgenauigkeit sehen, sondern vielmehr als pardigmatischen wechsel: weg von display referred bearbeitungsketten, hin zu scene referred modellen der datenaufbereitung. das ist ein trend, der die ganze bilbearbeitungsmathematik schon länger prägt. es ist also wirklich als einschneidender fortschritt anzusehen, wenn die entsprechenden bild-ausgangs-daten hier nicht mehr beim umpacken in video-typische traditionslösungen irreversibel verstümmelt werden, sondern tatsächlich in ihrer ursprünglichen form erhalten bzw. komprimiert werden. das eröffnet völlig neue möglichkeiten, auch wenn das informationsausmaß dazu am transportweg in spürbar verlustbehafteter weise eingedampft werden muss.



Antwort von kling:

Falls des unsere Kunden üh. sehen. Von wegen Augenlicht und älter.. aber das ist eine so gewagte These, die kleine seismische Empörungswellen erzeugt im Jungbrunen der fitten
70zig-Jährigen die gerade erst 35 wurden.... verdammich ein Undichter!
Er blutet aus allen Löchern das junge Blut!!! Hexxerei!!!!

Weiss man eig, was der externe Kasten dann in echt kosten wird, in welchem 2017 er auch alles freigeschalten hat...e.t.zerra :)

Warum hier dieser Dada-Text? Es gibt doch genug Foren für durchgeknallte Esotheriker, Verschwörungstheoretiker etc...



Antwort von Valentino:

Bei deinem verlinkten Artikel handelt es sich um das Foto-RAW der Sony Kameras von 2014, das hat mit dem neuen FormatFormat im Glossar erklärt recht wenig zu tun.

Bei Standbildern kann das RAW auch gerne 20MB groß sein oder halt eine leichte Komprimierung drauf und man kommt auf 10MB. Für Video sind solche Datenraten von z. B. 250Megabyte pro Sekunde absolut indiskutabel.

Dazu hat das mit den angesprochenen Vektoren nichts zu tun.

@kling
Don"t feed the troll!



Antwort von mash_gh4:

Bei deinem verlinkten Artikel handelt es sich um das Foto-RAW der Sony Kameras von 2014, das hat mit dem neuen FormatFormat im Glossar erklärt recht wenig zu tun.

warum bist du dir da so sicher?

ich glaube nicht, dass das rad mit jeder generation ganz von vorne neu erfunden wird, sondern nur einzelne aspekte laufend weiterentwickelt werden.

die meisten raw video-formate behandeln die einzelnen frames in sehr ähnlicher weise, wie das auch in der fotografie der fall ist. dass muss natürlich im gegenständlichen fall nicht unbedingt in gleicher weise der fall sein. man kann hier sicher einiges aus dem umfeld gebräuchlicher video-kompression übernehmen. trotzdem wäre das eher ungewöhnlich, statt zu erwarten

Bei Standbildern kann das RAW auch gerne 20MB groß sein oder halt eine leichte Komprimierung drauf und man kommt auf 10MB. Für Video sind solche Datenraten von z. B. 250Megabyte pro Sekunde absolut indiskutabel.

das ist immer nur eine frage des standpunkts bzw. der verfügbaren produktionsmittel. es ist durchaus nicht ungewöhnlich, wenn bei entsprechend anspruchsvollen projekten, die ganze postproduktion in EXR-bildsequenzen gehandhabt wird. das sind genauso erschreckend hohe datenraten bzw. -mengen.

für den amteurmarkt mit bescheideneneren möglichkeiten und ansprüchen ist das hier vorgestellte format ja vermutlich auch nicht unbedingt gedacht.

Dazu hat das mit den angesprochenen Vektoren nichts zu tun.

darüber mag ich gar nicht ernsthaft mitspekulieren.

wenn man heutige videokompressionstechniken auch nur im ansatz kennt, weiß man ohnehin, dass die schon lange nicht mehr mit losgelösten einzelnen pixeln zu tun haben, sondern bilder in einer viel abstrakteren und oft weitestgehend auflösungsunabhängigen form beschreiben. von "vektoren" kann man hier durchaus sprechen, wenn man die mathematisch-technische umsetzung diskutiert. das ganze aber vorschnell mit dem gegenständlichen vorbild klassischer vektor-grafik in verbindung zu bringen, scheint mir eher in die irre zu führen.



Antwort von iasi:


Erklär doch einfach mal, wie ein so kleines PixelPixel im Glossar erklärt die erforderliche Ladungsmenge aufnimmt und wie in einem RAW FormatFormat im Glossar erklärt so kleine Datenmengen bei zunehmender zeitlicher und spatialen Auflösung zustande kommen... zumal da ja kein Sensor ausgetauscht wird sondern alles per CodecCodec im Glossar erklärt passiert.

Na - du wiederholst das ständig - jedoch hat es sich in der Praxis längst gezeigt, dass es geht.

Sonys F65-Sensor z.B. ... zahlreiche Sensoren aus dem Fotobereich ...

Merkwürdig, dass du darauf nicht eingehst und immer nur den - aus meiner Sicht merkwürdigend und auch fragwürdigen - Dragon-Test der BBC anführst.

Andere schreiben z.B.:
a sensor with an exceptional Full Well Capacity. Performances like this seem, to us, above the current technical capabilities of CMOS sensors.

http://www.dxomark.com/Reviews/RED-Epic ... h-Analysis

Du ziehst deine Grenzen etwas zu willkürlich z.B. ohne Berücksichtigung von technischen Möglichkeiten, die Hersteller nutzen ohne sie gleich aller Welt Kund zu tun.

Generell sehe ich es auch eher skeptisch, wenn immer mehr PixelPixel im Glossar erklärt auf immer weniger Sensorfläche gezwängt wird, denn größere Sensoren gepaart mit den technischen Entwicklungen würden eben doch noch mehr erwarten lassen.



Antwort von WoWu:

definier mal "exzellent" und dann lös' das mal in 16 BitBit im Glossar erklärt auf.
Du kommst immer mit so einem Weichgeschwafel aus irgendwelchen Blogs daher.
Rechne dir doch mal die FullWell für 16 BitBit im Glossar erklärt aus und dann gleich das doch mal mit den Sensorwerten ab.
Nenn mir doch mal die Photonenzahl, die bei dem Sensor "exzellent" erfüllt und die Rauschmenge.
Komm doch endlich mal mit Fakten.

Und was den Test betrifft, ich trau der BBC mehr als Deinen Internettests, speziell, weil daraus Empfehlungen für die Broadcaster werden.
Was meinst Du. wie RED Alarm gegeben hätte, wenn das nicht Hand und Fuß gehabt hätte.
Haben sie das .... nein, also scheint doch was dran zu sein.
Es gibt eben nicht so viele andere, substantielle Tests zu dem Teil, außer solchen Blogorgien von irgendwelchen selbsternannten Testern.Vektoren machen Sinn, wenn man eindeutige Daten verarbeitet.
Ein Videospiel und eine Grafikanimation arbeitet mit eindeutigen Figuren - hier bieten sich Vekotren natürlich an - aber bei Abbildungen aus der Realität sehe ich das nicht.

Schon 2012 gab es vectorbasierte Codecs für Video:




Antwort von Valentino:

Der neue X-OCN wird offiziell vom neuen Davinci 12.5.1 unterstützt:
https://www.blackmagicdesign.com/suppor ... and-fusion



Antwort von WoWu:

Das war ja zu vermuten, dass BM da mal wieder die Nase vorn haben.
Fehlt jetzt nur noch ein Stück Content.



Antwort von Valentino:

...und an Hand von diesem Material erkennt man dann sofort das es auf Vektoren basiert weil?



Antwort von WoWu:

Na, ja, spätestens, wenn man die dafür typischen ArtefakteArtefakte im Glossar erklärt im Bild findet.
Das ist, wie bei jedem andern CodecCodec im Glossar erklärt auch, jeder hat seinen ganz typischen "Footprint".




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Hands On: Sony FX9 - 5.9K Vollformat-Camcorder mit Fast Hybrid-Autofokus und 16 Bit Raw Output // IBC 2019
Sony VENICE: Skintones, Bedienung, 6K Vollformat- und 16 Bit X-OCN Aufnahme // IBC 2018
Neues Apple ProRes RAW Format angekündigt // NAB 2018
Messevideo: Sony - Neues XOCN compressed RAW, Zweikanal-Wireless Empfä
Sony VENICE mit X-OCN Recoder - Bildqualität im slashCAM-Test(labor)
Messevideo: Sony Catalyst Edit: Neues Editing Tool für 4K XAVC RAW für Ma
Fast CinemaDNG - GPU RAW Processing ala Lightroom
Tausche fast neue Sony A6000 gegen Sony A7R
Warum kann man RAW-Video nicht wie RAW-Fotos bearbeiten
Ursa 4.6 Raw in 4k HEVC 10 Bit?
Neues zu ProREs RAW
URSA Mini 4,6K mit 16 Bit RAW
Neues UltraHD Blu-Ray Format umfasst 4K und HDR
Neues Ursa Mini 4.6K Material (Raw 3:1)
Red RAW Format Objektivprofil .lcp anwenden?
Sony AXS-R7 Raw Recorder: 120 fps 4K Raw für F55
Massive Darstellungsprobleme mit 16 bit RAW in Premiere Pro CC
Magic Lantern bald mit 10/12 Bit RAW-Aufzeichung?
Sphericam Beast: 360°-VR-Kamera mit 6K 10-Bit RAW
DSLR-Video-Revolution - MK II? Tschüss 8 Bit! - Hallo Compressed RAW!
Diskussion mit Philip Bloom: ISO, Raw, Pentax, Medium Format
Canon EOS C200 mit interner 12 Bit RAW Aufzeichnung und Touchscreen
Panasonic EVA1 Firmware Update 2.0 mit 5.7K Raw Output und internem 10 Bit ALL-I ist da
Sonys neuer XEVC Codec basiert auf HEVC und kann 12-Bit 8K RAW?
Dynamikumfang: Blackmagic Ursa Mini Pro G2 vs Panasonic S1 - 4K RAW S35 vs 10 Bit V-Log Vollformat
DJI Zenmuse X7 Kamera bekommt ProRes RAW und 14-bit CinemaDNG // NAB 2018

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
10-27. Oktober / Berlin
DOKUARTS 12: Nuances Now
19. Oktober / Nürnberg
Die Lange Nacht der Wissenschaften
29. Oktober - 3. November / Lübeck
Nordische Filmtage Lübeck
1-2. November / Mainz
screening_019
alle Termine und Einreichfristen