Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Fast wie RAW: neues Sony 16-bit Format X-OCN



Newsmeldung von slashCAM:


Bei der RAW-Aufzeichnung für eine volle Flexibilität in der Post entstehen enorme Datenmengen, deren Speicherp...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Fast wie RAW: neues Sony 16-bit Format X-OCN


Space


Antwort von Valentino:

Im Prinzip nichts anderes als eine Erhöhung der Kompressionsrate, die bei jetzigen RAW glaube bei 5:1 liegt und dann halt auf 8:1 angehoben wird.

Wenn das neue Format "nur fast RAW" ist, dann ist beim RedCode alles über 5:1 auch keine echtes RAW mehr ;-)

Space


Antwort von sgywalka is back:

Meister, da hast Du schon recht!
Meinst aber net, das des neue Kastel die goldene Brücke ist um für Sony so die
normalerern Codecs (sammt Karten) als interne Recordinglösungen zu verkaufen?
Und Raw über 1 zu 5. Ist wie beim Bier, des wäre dann a weisse nasse Moas, gel:)
Brotzeit..
Wenn so etwas als 1:8 aber eine Qualität erreicht, die wiederum handsome 10 bit
"Normalcodec/ Hauscodec-lösungen" übertrifft, kann des was werden.
Interessant ist auch wie man sog. Multi-S-logs in so etwas verpacken könnte um wiederum
synthetisch rot grün wie einen 3-Chip zu simulieren ( ob das ein Vorteil wäre?) und die Schwartzwerte ebenfalls, auch auf Sicht das wir S-35 Sensoren mit 8k( 16k) haben und irgendwie mit den hohen ISO-werten raufen oder späteres Bröseln und Rauschen haben.
Wenn es den Kasten dann mal gibt und Slashcam testet, wäre das genial.

Ich sehe das bei den nächsten F8-Bombern und wh in kleiner Form in einem FS-6 Derivat!

Space


Antwort von sgywalka is back:

Falls des unsere Kunden üh. sehen. Von wegen Augenlicht und älter.. aber das ist eine so gewagte These, die kleine seismische Empörungswellen erzeugt im Jungbrunen der fitten
70zig-Jährigen die gerade erst 35 wurden.... verdammich ein Undichter!
Er blutet aus allen Löchern das junge Blut!!! Hexxerei!!!!

Weiss man eig, was der externe Kasten dann in echt kosten wird, in welchem 2017 er auch alles freigeschalten hat...e.t.zerra :)

Space


Antwort von kling:

Zitat: "...und in X-OCN LT ganze 284 Minuten." Ein beliebter Deutsch-Fehler. Richtig müsste es heißen "...volle 284 Minuten". Nicht also die Bedeutung von "gerade mal", Beispiel: "Ganze 384 Euros kostete dieser LowBudget-Film..."

Grammatik-Lektion: http://www.spiegel.de/kultur/zwiebelfis ... 34153.html

Space


Antwort von WoWu:

Aber wenn das stimmt, was sie sagen, dass das so schnell und unkompliziert zu verarbeiten ist, wie ein Intermediate, dann wäre das ja ein guter Ansatz. Wenn das alles dann noch ACES kompatibel ist, auch ein Schritt in die richtige Richtung.
Irgendwann fängt auch bestimmt auch mal einer an, die Bilder mit Vektoren statt Pixeln zu beschreiben. Sowas würde die geringe Datenmenge auch erklären und wenn man sich die Bildrekonstruktionen in 4K mal ansieht, dann liegt das genau auf der Linie.
Bisher unterstützt das aber wohl noch keiner, sodass noch nicht richtig klar ist, was sie eigentlich machen.
Aber auch die 16 Bit deuten eher auf Computergrafik hin, als auf Sensorauflösung.
Na, wahrscheinlich ist Resolve wieder der Erste. Aber Vektor würde natürlich funktionieren, ohne aufwändige RAW Entwicklung und das kann auch jeder Computer.
Und in der Lizenzfalle säßen sie auch nicht.
Schau'n'mer ma.

Space


Antwort von iasi:

Was genau versprichst du dir denn von Vektoren?

Space


Antwort von WoWu:

Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.

Space


Antwort von iasi:

Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec. Macht das in 2D überhaupt einen großen Sinn?

Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wenn man mit Figuren VR erzeugt, sind Vektoren natürlich sehr vorteilhaft - aber wenn man die Realität abbilden will, erscheint mir dies nicht so klar.

Space



Space


Antwort von Axel:

Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen? Wohl nicht beschreiben, sondern erzeugen. Wenn Pixel gespeichert werden und auch als solche wiedergegeben, ist das ja das Gewohnte. Allerdings gibt es ja auch schon Bitmaps, die vektorisiert werden und umgekehrt Vektorgrafiken, die gerastert werden, ohne große Probleme. Aber was passiert z.B. mit Lowlight? Das Signal ist so schwach, dass mit Pixeln nur Rauschen zu sehen ist. Was macht ein Vektor-Codec damit? Raten? Irgendwelche Strukturen interpolieren? Oder eine homogene Fläche aus der Durchschnittsfarbe? Erzeugt er bei der Umwandlung selbst ein Verlegenheitsrauschen?

Space


Antwort von iasi:

Lowlight sehe ich da nicht als Problem - wenn das Rauschen das Signal überlagert, hat man bei Vektoren dieselben Schwierigkeiten, wie bei Pixeln.

Ich habe mich aber noch nicht sehr hineingedacht - daher die ernst gemeinte Frage:
Wo würden die Vorteile von Vektoren bei der Abbildung der Realität liegen?

Space


Antwort von WoWu:

Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec. Macht das in 2D überhaupt einen großen Sinn?

Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wenn man mit Figuren VR erzeugt, sind Vektoren natürlich sehr vorteilhaft - aber wenn man die Realität abbilden will, erscheint mir dies nicht so klar. Dann schau Dir mal genau an, was bei 4K passiert.
Darum geht ja die ganze Debatte. Die TV-Geräteindustrie sagt (mit Recht), so wie 4/8K heute zustande kommt, könne sie das auch in den TV Geräten denn die Methode der Pixelgenerierung entspricht dem, was in der Super Resolution ausgeführt wird ... und das sind alles Vektor basierte Verfahren.
Es geht also nu darum, ein Videobild aus der Rasterung in eine Vectorgrafik zu überführen, alle Interpolationsfe und Auflösungsprozesse sowie die Pixeleigenschaften zu definieren und hinterher wieder eine Punktmatrix daraus zu machen.
Solche Verfahren gibt es seit 20 Jahren, nur eben die Rechenpower noch nicht so lange.
Aber, wie Axel schon sagt, alle zusätzlich errechneten Punkte sind Interpolationen, also keine realen Bildpunkte.
Fernsehen wird sich zur Computergrafik um-erfinden.
Die Frage ist eben nur, wenn solche Algorithmen in TV-Geräten werkeln können und jetzt (vermutlich) in Kameras, wie lange es dauert, bis solche Codecs in NLEs auftauchen.
In dem Augenblick ist es nämlich ziemlich Banane, welche Qualität die Kamera raus tut.
Es ist schade, dass es noch nicht mehr Infos über den Codec gibt aber die Eckdaten sprechen schon eine ziemlich deutliche Sprache.
Wir werden uns also dann auf knackige aber texturschwache Bilder einstellen dürfen. Alles eine Frage der Gewohnheit.

Space


Antwort von WoWu:

Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen? Wohl nicht beschreiben, sondern erzeugen. Wenn Pixel gespeichert werden und auch als solche wiedergegeben, ist das ja das Gewohnte. Allerdings gibt es ja auch schon Bitmaps, die vektorisiert werden und umgekehrt Vektorgrafiken, die gerastert werden, ohne große Probleme. Aber was passiert z.B. mit Lowlight? Das Signal ist so schwach, dass mit Pixeln nur Rauschen zu sehen ist. Was macht ein Vektor-Codec damit? Raten? Irgendwelche Strukturen interpolieren? Oder eine homogene Fläche aus der Durchschnittsfarbe? Erzeugt er bei der Umwandlung selbst ein Verlegenheitsrauschen? Du wirst einem Pixel in Bezig auf sein Rauschverhalten in der Vectorisierung eine Schwell mitgeben, unterschreitet er diese, wird das Pixel nicht als Stützpunkt wahrgenommen. das Netzwerk wird sich also an dem nächst erkennbaren Pixel orientieren und die fehlenden Zwischenwerte ebenso errechnen.
Das Bild wird eben immer "flächiger", je weniger Licht und damit störfreie Pixels Du hast.

@Iasi
Vectoren haben keinen Vorteil bei der Abbildung der Realität.
Nur ist die Abbildung der Realität an ihre physikalischen Grenzen gestoßen, aber das glaubst Du ja nicht.
Zumindest ist die Abbildung so schwierig geworden und damit so unwirtschaftlich, dass man offenbar jetzt andere Wege geht.
Schau Dir nur mal die Super-Resolution Verfahren an.
Da ist das nämlich schon alles Realität.

Space


Antwort von iasi:

Dann wird also hin- und her-codiert.

So etwas macht doch nur Sinn, wenn das Bild aus der Kamera direkt auf den Bildschirm kommt.

Die Datenmengen zu reduzieren ist nicht das primäre Ziel, wenn es um die Aufnahme in der Kamera geht.
Daher ist doch auch das "alte" Wavelet-Verfahren noch immer sehr vorteilhaft.

Ein Codec, der mehr Rechenaufwand erfordert, als er bei Datenmengen und -übertragung einspart, bringt nichts.
Wenn in Premiere mehr 5k-R3D Spuren abspielbar sind, als z.B. AVCHD ist doch abgesehen von stundenlangen Aufnahmen am Stück, die Datenmenge nicht von Belang.

X-OCN muss erst mal zeigen, dass es den Workflow beschleunigt und nicht sogar bremst.

Space


Antwort von WoWu:

Du musst unterscheiden zwischen Reproduktion, als der Wiedergabe einer natürlichen Szene und einer Rekonstruktion, also der vermutlichen Reproduktion.
Die bisherigen Codecs waren auf Reproduktion eingestellt.
Nur wenn die Optik schon nicht mehr auflöst, nutzt keine weitere Verfolgung dieser Methode, noch dazu dass sie zunehmend unwirtschaftlicher wird.

Auch das alte Wavelet nützt nix, wenn die Optik nicht höher auflöst.

Wie es scheint, stehen wir an dem Punkt, dass man zu Rekonstruktion übergeht und Bilder nur noch am Wiedergabepunkt höher auflöst, aber eben keine zusätzlichen Bildinhalte mehr überträgt sondern eben nur noch Auflösung in Form von Zwischenwerten, egal ob die in der Originalszene vorgekommen sind, oder nicht.

Und was den Workflow betrifft, geht es mit Sicherheit schneller, weil bereits VectorenVektoren übergeben werden, mit den jeder Computer sofort umgehen kann ... kein Decoding, kein transcoding ... nix mehr.
Vernünftige Grafikkarte und gute Architektur und gut is.

Space


Antwort von iasi:

@Iasi
Vectoren haben keinen Vorteil bei der Abbildung der Realität.
Nur ist die Abbildung der Realität an ihre physikalischen Grenzen gestoßen, aber das glaubst Du ja nicht.
Zumindest ist die Abbildung so schwierig geworden und damit so unwirtschaftlich, dass man offenbar jetzt andere Wege geht.
Schau Dir nur mal die Super-Resolution Verfahren an.
Da ist das nämlich schon alles Realität. hmm ... Arri liefert 6k ... die neuen Reds liefern 8k ... viele Fotokaameras liefern mehr ... Ich sehe aber bisher keine neuen "Wege", die man gehen würde.

Was ich sehe, ist die technische Entwicklung, die es erlaubt immer höhere Auflösungen zu verarbeiten und zu speichern.
Letztlich lag die Digitale-Kinokamera auf der Hand und war doch unvermeidlich, nachdem die digitalen Fotokameras immer höhere Frameraten bei hohen Auflösungen schafften.
Die Rechenleistung und die Datenraten steigen weiter - und mit ihnen eben auch die Auflösungen.
Im Sensorbereich tut sich zudem auch etwas - BSI ist nur ein Beispiel.
Auch bei den Objektiven hast du keinen Stillstand.

Ich bin wirklich gespannt darauf, wie gut sich der S35/8k von Red nun wirklich schlägt - mir erscheinen dies auch ziemlich viele Pixel auf der Fläche. Andererseits hat man dies im Fotobeereich schon längst.

Neue Wege kann ich jedenfalls nicht erkennen. (Allenfalls so etwas wie z.B. der Pixelshift von Pentax)

Space


Antwort von WoWu:

Ich sehe, Du bist immernoch mit Deiner alten Hoffnung, irgendwann wird's funktionieren, verheiratet und merkst gar nicht, dass der Zug schon lange an Dir vorbeigefahren ist.
Du verwechselst auch immernoch Pixels mit Bildauflösung.
Aber warten wir einfach ab, bis er in Resolve auftaucht.

Space


Antwort von iasi:

Du musst unterscheiden zwischen Reproduktion, als der Wiedergabe einer natürlichen Szene und einer Rekonstruktion, also der vermutlichen Reproduktion.
Die bisherigen Codecs waren auf Reproduktion eingestellt.
Nur wenn die Optik schon nicht mehr auflöst, nutzt keine weitere Verfolgung dieser Methode, noch dazu dass sie zunehmend unwirtschaftlicher wird.

Auch das alte Wavelet nützt nix, wenn die Optik nicht höher auflöst.

Wie es scheint, stehen wir an dem Punkt, dass man zu Rekonstruktion übergeht und Bilder nur noch am Wiedergabepunkt höher auflöst, aber eben keine zusätzlichen Bildinhalte mehr überträgt sondern eben nur noch Auflösung in Form von Zwischenwerten, egal ob die in der Originalszene vorgekommen sind, oder nicht.

Und was den Workflow betrifft, geht es mit Sicherheit schneller, weil bereits VectorenVektoren übergeben werden, mit den jeder Computer sofort umgehen kann ... kein Decoding, kein transcoding ... nix mehr.
Vernünftige Grafikkarte und gute Architektur und gut is. Man hatte doch noch nie eine 1:1 Abbildung der Realität - auch nicht zu Negativzeiten.
Schon immer hatte man versucht die maximale Näherung zu erreichen - nicht mehr und nicht weniger.
Wenn nun ein hochlichtstarkes Objektiv bei Offenblende genutzt wird, bekommt man natürlich eine reduzierte Abbildungsleistung. Aber mit hochauflösendem Sensor erhält man eben davon dann das Maximale und erzeugt nicht noch weitere Verluste.
Wie Objektivtests zeigen, ist dabei eben bei 4k noch nicht Schluss.
Hier ein Beispiel:
http://www.photozone.de/canon_eos_ff/97 ... rt?start=1
Dabei ist das noch nicht mal ein sehr gutes Objektiv.

Es geht dann aber in der Post darum, möglichst wenig zusätzlich Verluste zu erzeugen und gleichzeitig die Arbeitsgeschwindigkeit hoch zu halten.
Bei der Ausgabe am Ende kann dann je nach Anforderung und Bedarf das Format gewählt werden.

Space



Space


Antwort von WoWu:

Ich hab' Dir zu dem Objektiv schon mal gesagt, dass das nur rd. 76 LP/mm bei 50% MTF macht. Nun kannst Du Dir ausrechnen, wie groß Dein Sensor sein müsste, um 4K Bilddetails darstellen zu können.
Nun komm doch nicht schon wieder mit dem Schmarn.

Space


Antwort von iasi:

Ich sehe, Du bist immernoch mit Deiner alten Hoffnung, irgendwann wird's funktionieren, verheiratet und merkst gar nicht, dass der Zug schon lange an Dir vorbeigefahren ist.
Du verwechselst auch immernoch Pixels mit Bildauflösung.
Aber warten wir einfach ab, bis er in Resolve auftaucht. Nein - ich verwechsele nicht Pixel und Bildauflösung.
Du denkst aber immer, dies gleichsetzen zu müssen - und dies ist eben eine Utopie.

Mir genügt es schon, ein Maximum anzustreben. Ob Vektorisierung schon in der Kamera bzw während der Aufnahme dabei hilfreich ist, kann ich nicht sehen.

Wenn ein Objektiv 8k nicht liefert, so bekomme ich aber eben vielleicht doch mehr als 4k an einem 8k-Sensor und habe eben immer noch eine höhere Auflösung als an einem 4k Sensor - das ist eben schon ein Vorteil.

Space


Antwort von iasi:

Ich hab' Dir zu dem Objektiv schon mal gesagt, dass das nur rd. 76 LP/mm bei 50% MTF macht. Nun kannst Du Dir ausrechnen, wie groß Dein Sensor sein müsste, um 4K Bilddetails darstellen zu können.
Nun komm doch nicht schon wieder mit dem Schmarn. Schau dir den Test an, den ich verlinkt habe.
Oder entsprechende mit APS-C-Kameras.

Im Fotobereich haben wir eben nun mal schon hohe Auflösungen und können auf Tests zurückgreifen.

http://www.photozone.de/canon_eos_ff/97 ... rt?start=1

Oder MFT ... hier hast du schon längst die Pixelgröße, wie sie nun der S35/8k mitbringt ... Mir erscheint dies übrigens auch keine wirklich erstrebenswerte Entwicklung, immer mehr Pixel auf die Fläche zu quetschen.

Space


Antwort von Jott:

Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.

Space


Antwort von Valentino:

Das Sony schon so fortschrittlich ist und Vektoren benutzt halte ich für recht unwahrscheinlich. Es ist am Ende einfach höher komprimiertes RAW, wie Wolfgang auf die Sache mit den Vektoren kommt bleibt mir ein Rätsel, da Sony mit so einer "neuen Technologie" dann auch werben würde.

Interessant ist das Thema aber allemal und gerade wenn es um die Übertragung geht macht das durchaus Sinn, aber hier wird vor 2020 nicht viel passieren.

Ich hoffe schon seit Jahren auf ein Upgrade des DCI Standards zu einer höheren Datenrate und der Möglichkeit OpenEXR mit neuen DCI Geräten wieder zu geben.
Wenn ich dann mitbekomme das das Kino um die Ecke ein neues 4k-System, der Server aber nur 4x2TB unterstützt, da die Hardware aus dem Jahre 2010 stammt, ist mir so einiges klar.

Space


Antwort von iasi:

Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's. Schön, dass du so konkret bist - aber es ist schon immer der Trick derer gewesen, nebulös zu bleiben, um sich über andere zu erheben.
Will ich so etwas, geh ich aber doch in die Kirche ... und langweile mich da ...

Space


Antwort von iasi:

Das Sony schon so fortschrittlich ist und Vektoren benutzt halte ich für recht unwahrscheinlich. Es ist am Ende einfach höher komprimiertes RAW, wie Wolfgang auf die Sache mit den Vektoren kommt bleibt mir ein Rätsel, da Sony mit so einer "neuen Technologie" dann auch werben würde.

Interessant ist das Thema aber allemal und gerade wenn es um die Übertragung geht macht das durchaus Sinn, aber hier wird vor 2020 nicht viel passieren.

Ich hoffe schon seit Jahren auf ein Upgrade des DCI Standards zu einer höheren Datenrate und der Möglichkeit OpenEXR mit neuen DCI Geräten wieder zu geben.
Wenn ich dann mitbekomme das das Kino um die Ecke ein neues 4k-System, der Server aber nur 4x2TB unterstützt, da die Hardware aus dem Jahre 2010 stammt, ist mir so einiges klar. Vektoren machen Sinn, wenn man eindeutige Daten verarbeitet.
Ein Videospiel und eine Grafikanimation arbeitet mit eindeutigen Figuren - hier bieten sich Vekotren natürlich an - aber bei Abbildungen aus der Realität sehe ich das nicht.

Space


Antwort von WoWu:

@ Valentino
So fortschrittlich ist das gar nicht, wie Du sagst.
Ich denke, Sony hat lediglich SR Algorithmen verpackt, denn wie sonst wäre eine drastische Dynamikanhebung pro Pixel (immerhin auf 16Bit) bei gleichzeitiger Anhebung der Framerate und bei 4K mit der einhergehenden Reduzierung der Datenmenge um 30% zu erklären.
(überleg mal, welche Ladungsmenge für 16Bit in jedem Pixel erforderlich wäre ... und das bei den winzigen Pixels die S35 hat).
AUsserdem haben sie ja auch nicht ohne Grund das Ganze "wie RAW" genannt.
Und derzeit passiert bei 4K in den meisten Kameras sowieso nichts Anderes, als die Verfierfachung des Pixelrasters, ohne dass die Menge der Bilddetails entsprechend mit zunimmt.
AUsserdem setzt die Datenreduktion von RAW ein fertiges Bild voraus, das es bei den bisher benutzten Formaten, wie XAVC so gar nicht gibt,
Frage ist also, welches RAW Format sie weiter reduziert haben sollen ?
Ich denke, dass sie schon eine ganze Weile intern mit Vectoren gearbeitet haben, daher auch oft die "Schweinchenhaut" bei manchen Einstellungen. Das deutet ziemlich auf Vectorverarbeitung hin und dass sie erst jetzt den Codec fertig haben, um mit dem Format direkt an die NLE Hersteller gehen können, das Dateiformat zu implementieren, weil sie die Rückformatierung bisher immer Kamerainternen machen mussten, egal in welchem Bildformat sie hinterher rausgegangen sind.
Aber wir werden sehn, wenn es jemand implementiert hat.
Für mich ist dass der logische Schritt in höhere Pixelformate und zeitliche Auflösungen bei gleichzeitiger Skalierbarkeit denn ob sich jemals jemand findet, der HEVC Scalierung einsetzt nachdem auch DASH funktioniert wie eine kranke Ente, das würde ich mal bezweifeln.
Nur dass Scalierung vor dem Hintergrund der Formatvielfalt eines der dringendsten Themen ist, daran zweifelt wahrscheinlich keiner mehr.
Und als Nebeneffekt kommen eben immernoch die Lizenskosten, die sich bei einer Vectorverarbeitung gegenüber eines Fremdcodecs wie HEVC, an dem SONY nicht so viele Patente hält, in engen Grenzen halten.
Das alles spricht sehr für einen Paradigmenwechsel, der irgendwann sowieso fällig gewesen wäre.
Fuji hat schon die Neuentwicklung von höher auflösenden Objektiven aufgegeben und lediglich CANON hat noch ein 4K Objektiv zu einem horrenden Preis auf den Markt gebracht. DA steht also auch die Entwicklung nicht gerade in den Startlöchern.

Aber, wie gesagt, wir werden es sehen.

Space


Antwort von WoWu:

Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's. Deine Leseschwäche, bzw. Dein Verständnisproblem hat wieder zugeschlagen.
Ich habe immer gesagt, wir werden es sehen, wenn so ein Codec in NLEs implementiert ist, weil Sony sich ziemlich mit Infos zurück hält.

Von Fakten habe ich nie gesprochen, aber meine Mutmaßungen, glaube ich, hinreichend begründet und auch keinen Zweifel daran gelassen, dass es eine Mutmaßung ist.

Wie wär's denn mal mit Fakten Deinerseits oder zumindest mit Sachlichen Argumenten Deinerseits, statt mit Polemik ?

Dummschwätzen kann jeder.
Aber darin bist Du natürlich erste Wahl.

Erklär doch einfach mal, wie ein so kleines Pixel die erforderliche Ladungsmenge aufnimmt und wie in einem RAW Format so kleine Datenmengen bei zunehmender zeitlicher und spatialen Auflösung zustande kommen... zumal da ja kein Sensor ausgetauscht wird sondern alles per Codec passiert.
Du weißt es doch offenbar. Lass uns doch nicht so dumm sterben.

Space



Space


Antwort von Jott:

Dummschwätzer kann jeder. Korrekt.

Space


Antwort von WoWu:

Tja, wie vermutet, zu mehr reicht's dann auch nicht mehr bei Dir.

Space


Antwort von mash_gh4:

ein bisserl was weiß man schon über die art und weise, wie sony im standbild-umfeld seine raw-daten komprimiert (vgl. z.b. http://www.rawdigger.com/howtouse/sony- ... -detection).

ich würde das gar nicht so sehr nur unter dem gesichtspunkt maximaler abbildungsgenauigkeit sehen, sondern vielmehr als pardigmatischen wechsel: weg von display referred bearbeitungsketten, hin zu scene referred modellen der datenaufbereitung. das ist ein trend, der die ganze bilbearbeitungsmathematik schon länger prägt. es ist also wirklich als einschneidender fortschritt anzusehen, wenn die entsprechenden bild-ausgangs-daten hier nicht mehr beim umpacken in video-typische traditionslösungen irreversibel verstümmelt werden, sondern tatsächlich in ihrer ursprünglichen form erhalten bzw. komprimiert werden. das eröffnet völlig neue möglichkeiten, auch wenn das informationsausmaß dazu am transportweg in spürbar verlustbehafteter weise eingedampft werden muss.

Space


Antwort von kling:

Falls des unsere Kunden üh. sehen. Von wegen Augenlicht und älter.. aber das ist eine so gewagte These, die kleine seismische Empörungswellen erzeugt im Jungbrunen der fitten
70zig-Jährigen die gerade erst 35 wurden.... verdammich ein Undichter!
Er blutet aus allen Löchern das junge Blut!!! Hexxerei!!!!

Weiss man eig, was der externe Kasten dann in echt kosten wird, in welchem 2017 er auch alles freigeschalten hat...e.t.zerra :)
Warum hier dieser Dada-Text? Es gibt doch genug Foren für durchgeknallte Esotheriker, Verschwörungstheoretiker etc...

Space


Antwort von Valentino:

Bei deinem verlinkten Artikel handelt es sich um das Foto-RAW der Sony Kameras von 2014, das hat mit dem neuen Format recht wenig zu tun.

Bei Standbildern kann das RAW auch gerne 20MB groß sein oder halt eine leichte Komprimierung drauf und man kommt auf 10MB. Für Video sind solche Datenraten von z. B. 250Megabyte pro Sekunde absolut indiskutabel.

Dazu hat das mit den angesprochenen Vektoren nichts zu tun.

@kling
Don"t feed the troll!

Space


Antwort von mash_gh4:

Bei deinem verlinkten Artikel handelt es sich um das Foto-RAW der Sony Kameras von 2014, das hat mit dem neuen Format recht wenig zu tun. warum bist du dir da so sicher?

ich glaube nicht, dass das rad mit jeder generation ganz von vorne neu erfunden wird, sondern nur einzelne aspekte laufend weiterentwickelt werden.

die meisten raw video-formate behandeln die einzelnen frames in sehr ähnlicher weise, wie das auch in der fotografie der fall ist. dass muss natürlich im gegenständlichen fall nicht unbedingt in gleicher weise der fall sein. man kann hier sicher einiges aus dem umfeld gebräuchlicher video-kompression übernehmen. trotzdem wäre das eher ungewöhnlich, statt zu erwarten
Bei Standbildern kann das RAW auch gerne 20MB groß sein oder halt eine leichte Komprimierung drauf und man kommt auf 10MB. Für Video sind solche Datenraten von z. B. 250Megabyte pro Sekunde absolut indiskutabel. das ist immer nur eine frage des standpunkts bzw. der verfügbaren produktionsmittel. es ist durchaus nicht ungewöhnlich, wenn bei entsprechend anspruchsvollen projekten, die ganze postproduktion in EXR-bildsequenzen gehandhabt wird. das sind genauso erschreckend hohe datenraten bzw. -mengen.

für den amteurmarkt mit bescheideneneren möglichkeiten und ansprüchen ist das hier vorgestellte format ja vermutlich auch nicht unbedingt gedacht.
Dazu hat das mit den angesprochenen Vektoren nichts zu tun. darüber mag ich gar nicht ernsthaft mitspekulieren.

wenn man heutige videokompressionstechniken auch nur im ansatz kennt, weiß man ohnehin, dass die schon lange nicht mehr mit losgelösten einzelnen pixeln zu tun haben, sondern bilder in einer viel abstrakteren und oft weitestgehend auflösungsunabhängigen form beschreiben. von "vektoren" kann man hier durchaus sprechen, wenn man die mathematisch-technische umsetzung diskutiert. das ganze aber vorschnell mit dem gegenständlichen vorbild klassischer vektor-grafik in verbindung zu bringen, scheint mir eher in die irre zu führen.

Space


Antwort von iasi:

Erklär doch einfach mal, wie ein so kleines Pixel die erforderliche Ladungsmenge aufnimmt und wie in einem RAW Format so kleine Datenmengen bei zunehmender zeitlicher und spatialen Auflösung zustande kommen... zumal da ja kein Sensor ausgetauscht wird sondern alles per Codec passiert. Na - du wiederholst das ständig - jedoch hat es sich in der Praxis längst gezeigt, dass es geht.

Sonys F65-Sensor z.B. ... zahlreiche Sensoren aus dem Fotobereich ...

Merkwürdig, dass du darauf nicht eingehst und immer nur den - aus meiner Sicht merkwürdigend und auch fragwürdigen - Dragon-Test der BBC anführst.

Andere schreiben z.B.:
a sensor with an exceptional Full Well Capacity. Performances like this seem, to us, above the current technical capabilities of CMOS sensors.

http://www.dxomark.com/Reviews/RED-Epic ... h-Analysis

Du ziehst deine Grenzen etwas zu willkürlich z.B. ohne Berücksichtigung von technischen Möglichkeiten, die Hersteller nutzen ohne sie gleich aller Welt Kund zu tun.

Generell sehe ich es auch eher skeptisch, wenn immer mehr Pixel auf immer weniger Sensorfläche gezwängt wird, denn größere Sensoren gepaart mit den technischen Entwicklungen würden eben doch noch mehr erwarten lassen.

Space


Antwort von WoWu:

definier mal "exzellent" und dann lös' das mal in 16 Bit auf.
Du kommst immer mit so einem Weichgeschwafel aus irgendwelchen Blogs daher.
Rechne dir doch mal die FullWell für 16 Bit aus und dann gleich das doch mal mit den Sensorwerten ab.
Nenn mir doch mal die Photonenzahl, die bei dem Sensor "exzellent" erfüllt und die Rauschmenge.
Komm doch endlich mal mit Fakten.

Und was den Test betrifft, ich trau der BBC mehr als Deinen Internettests, speziell, weil daraus Empfehlungen für die Broadcaster werden.
Was meinst Du. wie RED Alarm gegeben hätte, wenn das nicht Hand und Fuß gehabt hätte.
Haben sie das .... nein, also scheint doch was dran zu sein.
Es gibt eben nicht so viele andere, substantielle Tests zu dem Teil, außer solchen Blogorgien von irgendwelchen selbsternannten Testern.Vektoren machen Sinn, wenn man eindeutige Daten verarbeitet.
Ein Videospiel und eine Grafikanimation arbeitet mit eindeutigen Figuren - hier bieten sich Vekotren natürlich an - aber bei Abbildungen aus der Realität sehe ich das nicht.
Schon 2012 gab es vectorbasierte Codecs für Video:


Space


Antwort von Valentino:

Der neue X-OCN wird offiziell vom neuen Davinci 12.5.1 unterstützt:
https://www.blackmagicdesign.com/suppor ... and-fusion

Space



Space


Antwort von WoWu:

Das war ja zu vermuten, dass BM da mal wieder die Nase vorn haben.
Fehlt jetzt nur noch ein Stück Content.

Space


Antwort von Valentino:

...und an Hand von diesem Material erkennt man dann sofort das es auf Vektoren basiert weil?

Space


Antwort von WoWu:

Na, ja, spätestens, wenn man die dafür typischen Artefakte im Bild findet.
Das ist, wie bei jedem andern Codec auch, jeder hat seinen ganz typischen "Footprint".

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


8Bit AVCHD vs 12Bit Sony Raw CDNG
Sonys komprimiertes 16 Bit RAW Format erklärt: X-OCN Whitepaper Version 1.1
Manfrotto 645 Fast Twin Alu und Carbon Videostativ ? günstig, modular und mit schnellem Fast Lever Lock
Wie herausfinden, ob echtes 10-bit video vorliegt o. 8bit Quelle in 10-bit Container?
Sony Vx2100 wie ändere ich das Format?
Fast wie selber gedreht: Ijon Tichy
14 Bit 4K RAW auf dem Xiaomi 14 Ultra vs. 8K RAW mit der CANON R5
Briefing Raw Cam 4k60p mit AF S5+ Ninja oder R5 oder? Format für Resolve
Canon EOS R3 Sensor Test - 6K Large Format RAW für 6K!
Dynamik Smartphone mit 10 Bit Log vs. Vollformat Standardprofil 8 Bit
16 Bit Waveform schmaler als 24 Bit Waveform?
Sony FRD-AX700 4K 10 bit extern, geht das und wie?
Neu: Core SWX Nano-F 45Wh Akku im Sony L-Serien Format
FAST DVMaster Treiber
Bilder aus (fast) keinen Daten
Horror/Mystery Kurzfilm Blinder Himmel -- (fast) alles aus einer Hand
Preissenkungen bei fast allen Blackmagic Resolve Panels
Hall / Reverb in fast leeren Wohnzimmer temporär reduzieren
Canon präsentiert Mitte Dezember Sensor mit fast 16 Blendenstufen




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash