Newsmeldung von slashCAM:Bei der RAW-Aufzeichnung für eine volle Flexibilität in der Post entstehen enorme Datenmengen, deren Speicherp...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Fast wie RAW: neues Sony 16-bit Format X-OCN
Antwort von Valentino:
Im Prinzip nichts anderes als eine Erhöhung der Kompressionsrate, die bei jetzigen RAW glaube bei 5:1 liegt und dann halt auf 8:1 angehoben wird.
Wenn das neue Format "nur fast RAW" ist, dann ist beim RedCode alles über 5:1 auch keine echtes RAW mehr ;-)
Antwort von sgywalka is back:
Meister, da hast Du schon recht!
Meinst aber net, das des neue Kastel die goldene Brücke ist um für Sony so die
normalerern Codecs (sammt Karten) als interne Recordinglösungen zu verkaufen?
Und Raw über 1 zu 5. Ist wie beim Bier, des wäre dann a weisse nasse Moas, gel:)
Brotzeit..
Wenn so etwas als 1:8 aber eine Qualität erreicht, die wiederum handsome 10 bit
"Normalcodec/ Hauscodec-lösungen" übertrifft, kann des was werden.
Interessant ist auch wie man sog. Multi-S-logs in so etwas verpacken könnte um wiederum
synthetisch rot grün wie einen 3-Chip zu simulieren ( ob das ein Vorteil wäre?) und die Schwartzwerte ebenfalls, auch auf Sicht das wir S-35 Sensoren mit 8k( 16k) haben und irgendwie mit den hohen ISO-werten raufen oder späteres Bröseln und Rauschen haben.
Wenn es den Kasten dann mal gibt und Slashcam testet, wäre das genial.
Ich sehe das bei den nächsten F8-Bombern und wh in kleiner Form in einem FS-6 Derivat!
Antwort von sgywalka is back:
Falls des unsere Kunden üh. sehen. Von wegen Augenlicht und älter.. aber das ist eine so gewagte These, die kleine seismische Empörungswellen erzeugt im Jungbrunen der fitten
70zig-Jährigen die gerade erst 35 wurden.... verdammich ein Undichter!
Er blutet aus allen Löchern das junge Blut!!! Hexxerei!!!!
Weiss man eig, was der externe Kasten dann in echt kosten wird, in welchem 2017 er auch alles freigeschalten hat...e.t.zerra :)
Antwort von kling:
Zitat: "...und in X-OCN LT ganze 284 Minuten." Ein beliebter Deutsch-Fehler. Richtig müsste es heißen "...volle 284 Minuten". Nicht also die Bedeutung von "gerade mal", Beispiel: "Ganze 384 Euros kostete dieser LowBudget-Film..."
Grammatik-Lektion:
http://www.spiegel.de/kultur/zwiebelfis ... 34153.html
Antwort von WoWu:
Aber wenn das stimmt, was sie sagen, dass das so schnell und unkompliziert zu verarbeiten ist, wie ein Intermediate, dann wäre das ja ein guter Ansatz. Wenn das alles dann noch ACES kompatibel ist, auch ein Schritt in die richtige Richtung.
Irgendwann fängt auch bestimmt auch mal einer an, die Bilder mit Vektoren statt Pixeln zu beschreiben. Sowas würde die geringe Datenmenge auch erklären und wenn man sich die Bildrekonstruktionen in 4K mal ansieht, dann liegt das genau auf der Linie.
Bisher unterstützt das aber wohl noch keiner, sodass noch nicht richtig klar ist, was sie eigentlich machen.
Aber auch die 16 Bit deuten eher auf Computergrafik hin, als auf Sensorauflösung.
Na, wahrscheinlich ist Resolve wieder der Erste. Aber Vektor würde natürlich funktionieren, ohne aufwändige RAW Entwicklung und das kann auch jeder Computer.
Und in der Lizenzfalle säßen sie auch nicht.
Schau'n'mer ma.
Antwort von iasi:
Was genau versprichst du dir denn von Vektoren?
Antwort von WoWu:
Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.
Antwort von iasi:
Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.
Macht das in 2D überhaupt einen großen Sinn?
Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wenn man mit Figuren VR erzeugt, sind Vektoren natürlich sehr vorteilhaft - aber wenn man die Realität abbilden will, erscheint mir dies nicht so klar.
Antwort von Axel:
Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wohl nicht beschreiben, sondern
erzeugen. Wenn Pixel gespeichert werden und auch als solche wiedergegeben, ist das ja das Gewohnte. Allerdings gibt es ja auch schon Bitmaps, die vektorisiert werden und umgekehrt Vektorgrafiken, die gerastert werden, ohne große Probleme. Aber was passiert z.B. mit Lowlight? Das Signal ist so schwach, dass mit Pixeln nur Rauschen zu sehen ist. Was macht ein Vektor-Codec damit? Raten? Irgendwelche Strukturen interpolieren? Oder eine homogene Fläche aus der Durchschnittsfarbe? Erzeugt er bei der Umwandlung selbst ein Verlegenheitsrauschen?
Antwort von iasi:
Lowlight sehe ich da nicht als Problem - wenn das Rauschen das Signal überlagert, hat man bei Vektoren dieselben Schwierigkeiten, wie bei Pixeln.
Ich habe mich aber noch nicht sehr hineingedacht - daher die ernst gemeinte Frage:
Wo würden die Vorteile von Vektoren bei der Abbildung der Realität liegen?
Antwort von WoWu:
Dass ein Paradigmenwechsel stattfindet, weg von der Kamera in Richtung Display. Das, was in VR schon lange geschehen ist. Dass Bilder nicht mehr durch Pixels, sondern durch Vektoren beschrieben werden.
Ich würde fast wetten, das ist ein solcher Codec.
Macht das in 2D überhaupt einen großen Sinn?
Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wenn man mit Figuren VR erzeugt, sind Vektoren natürlich sehr vorteilhaft - aber wenn man die Realität abbilden will, erscheint mir dies nicht so klar.
Dann schau Dir mal genau an, was bei 4K passiert.
Darum geht ja die ganze Debatte. Die TV-Geräteindustrie sagt (mit Recht), so wie 4/8K heute zustande kommt, könne sie das auch in den TV Geräten denn die Methode der Pixelgenerierung entspricht dem, was in der Super Resolution ausgeführt wird ... und das sind alles Vektor basierte Verfahren.
Es geht also nu darum, ein Videobild aus der Rasterung in eine Vectorgrafik zu überführen, alle Interpolationsfe und Auflösungsprozesse sowie die Pixeleigenschaften zu definieren und hinterher wieder eine Punktmatrix daraus zu machen.
Solche Verfahren gibt es seit 20 Jahren, nur eben die Rechenpower noch nicht so lange.
Aber, wie Axel schon sagt, alle zusätzlich errechneten Punkte sind Interpolationen, also keine realen Bildpunkte.
Fernsehen wird sich zur Computergrafik um-erfinden.
Die Frage ist eben nur, wenn solche Algorithmen in TV-Geräten werkeln können und jetzt (vermutlich) in Kameras, wie lange es dauert, bis solche Codecs in NLEs auftauchen.
In dem Augenblick ist es nämlich ziemlich Banane, welche Qualität die Kamera raus tut.
Es ist schade, dass es noch nicht mehr Infos über den Codec gibt aber die Eckdaten sprechen schon eine ziemlich deutliche Sprache.
Wir werden uns also dann auf knackige aber texturschwache Bilder einstellen dürfen. Alles eine Frage der Gewohnheit.
Antwort von WoWu:
Du musst doch auch weiterhin jeden Bildpunkt "beschreiben" - oder willst du mehrere zusammenfassen?
Wohl nicht beschreiben, sondern
erzeugen. Wenn Pixel gespeichert werden und auch als solche wiedergegeben, ist das ja das Gewohnte. Allerdings gibt es ja auch schon Bitmaps, die vektorisiert werden und umgekehrt Vektorgrafiken, die gerastert werden, ohne große Probleme. Aber was passiert z.B. mit Lowlight? Das Signal ist so schwach, dass mit Pixeln nur Rauschen zu sehen ist. Was macht ein Vektor-Codec damit? Raten? Irgendwelche Strukturen interpolieren? Oder eine homogene Fläche aus der Durchschnittsfarbe? Erzeugt er bei der Umwandlung selbst ein Verlegenheitsrauschen?
Du wirst einem Pixel in Bezig auf sein Rauschverhalten in der Vectorisierung eine Schwell mitgeben, unterschreitet er diese, wird das Pixel nicht als Stützpunkt wahrgenommen. das Netzwerk wird sich also an dem nächst erkennbaren Pixel orientieren und die fehlenden Zwischenwerte ebenso errechnen.
Das Bild wird eben immer "flächiger", je weniger Licht und damit störfreie Pixels Du hast.
@Iasi
Vectoren haben keinen Vorteil bei der Abbildung der Realität.
Nur ist die Abbildung der Realität an ihre physikalischen Grenzen gestoßen, aber das glaubst Du ja nicht.
Zumindest ist die Abbildung so schwierig geworden und damit so unwirtschaftlich, dass man offenbar jetzt andere Wege geht.
Schau Dir nur mal die Super-Resolution Verfahren an.
Da ist das nämlich schon alles Realität.
Antwort von iasi:
Dann wird also hin- und her-codiert.
So etwas macht doch nur Sinn, wenn das Bild aus der Kamera direkt auf den Bildschirm kommt.
Die Datenmengen zu reduzieren ist nicht das primäre Ziel, wenn es um die Aufnahme in der Kamera geht.
Daher ist doch auch das "alte" Wavelet-Verfahren noch immer sehr vorteilhaft.
Ein Codec, der mehr Rechenaufwand erfordert, als er bei Datenmengen und -übertragung einspart, bringt nichts.
Wenn in Premiere mehr 5k-R3D Spuren abspielbar sind, als z.B. AVCHD ist doch abgesehen von stundenlangen Aufnahmen am Stück, die Datenmenge nicht von Belang.
X-OCN muss erst mal zeigen, dass es den Workflow beschleunigt und nicht sogar bremst.
Antwort von WoWu:
Du musst unterscheiden zwischen Reproduktion, als der Wiedergabe einer natürlichen Szene und einer Rekonstruktion, also der vermutlichen Reproduktion.
Die bisherigen Codecs waren auf Reproduktion eingestellt.
Nur wenn die Optik schon nicht mehr auflöst, nutzt keine weitere Verfolgung dieser Methode, noch dazu dass sie zunehmend unwirtschaftlicher wird.
Auch das alte Wavelet nützt nix, wenn die Optik nicht höher auflöst.
Wie es scheint, stehen wir an dem Punkt, dass man zu Rekonstruktion übergeht und Bilder nur noch am Wiedergabepunkt höher auflöst, aber eben keine zusätzlichen Bildinhalte mehr überträgt sondern eben nur noch Auflösung in Form von Zwischenwerten, egal ob die in der Originalszene vorgekommen sind, oder nicht.
Und was den Workflow betrifft, geht es mit Sicherheit schneller, weil bereits VectorenVektoren übergeben werden, mit den jeder Computer sofort umgehen kann ... kein Decoding, kein transcoding ... nix mehr.
Vernünftige Grafikkarte und gute Architektur und gut is.
Antwort von iasi:
@Iasi
Vectoren haben keinen Vorteil bei der Abbildung der Realität.
Nur ist die Abbildung der Realität an ihre physikalischen Grenzen gestoßen, aber das glaubst Du ja nicht.
Zumindest ist die Abbildung so schwierig geworden und damit so unwirtschaftlich, dass man offenbar jetzt andere Wege geht.
Schau Dir nur mal die Super-Resolution Verfahren an.
Da ist das nämlich schon alles Realität.
hmm ... Arri liefert 6k ... die neuen Reds liefern 8k ... viele Fotokaameras liefern mehr ... Ich sehe aber bisher keine neuen "Wege", die man gehen würde.
Was ich sehe, ist die technische Entwicklung, die es erlaubt immer höhere Auflösungen zu verarbeiten und zu speichern.
Letztlich lag die Digitale-Kinokamera auf der Hand und war doch unvermeidlich, nachdem die digitalen Fotokameras immer höhere Frameraten bei hohen Auflösungen schafften.
Die Rechenleistung und die Datenraten steigen weiter - und mit ihnen eben auch die Auflösungen.
Im Sensorbereich tut sich zudem auch etwas - BSI ist nur ein Beispiel.
Auch bei den Objektiven hast du keinen Stillstand.
Ich bin wirklich gespannt darauf, wie gut sich der S35/8k von Red nun wirklich schlägt - mir erscheinen dies auch ziemlich viele Pixel auf der Fläche. Andererseits hat man dies im Fotobeereich schon längst.
Neue Wege kann ich jedenfalls nicht erkennen. (Allenfalls so etwas wie z.B. der Pixelshift von Pentax)
Antwort von WoWu:
Ich sehe, Du bist immernoch mit Deiner alten Hoffnung, irgendwann wird's funktionieren, verheiratet und merkst gar nicht, dass der Zug schon lange an Dir vorbeigefahren ist.
Du verwechselst auch immernoch Pixels mit Bildauflösung.
Aber warten wir einfach ab, bis er in Resolve auftaucht.
Antwort von iasi:
Du musst unterscheiden zwischen Reproduktion, als der Wiedergabe einer natürlichen Szene und einer Rekonstruktion, also der vermutlichen Reproduktion.
Die bisherigen Codecs waren auf Reproduktion eingestellt.
Nur wenn die Optik schon nicht mehr auflöst, nutzt keine weitere Verfolgung dieser Methode, noch dazu dass sie zunehmend unwirtschaftlicher wird.
Auch das alte Wavelet nützt nix, wenn die Optik nicht höher auflöst.
Wie es scheint, stehen wir an dem Punkt, dass man zu Rekonstruktion übergeht und Bilder nur noch am Wiedergabepunkt höher auflöst, aber eben keine zusätzlichen Bildinhalte mehr überträgt sondern eben nur noch Auflösung in Form von Zwischenwerten, egal ob die in der Originalszene vorgekommen sind, oder nicht.
Und was den Workflow betrifft, geht es mit Sicherheit schneller, weil bereits VectorenVektoren übergeben werden, mit den jeder Computer sofort umgehen kann ... kein Decoding, kein transcoding ... nix mehr.
Vernünftige Grafikkarte und gute Architektur und gut is.
Man hatte doch noch nie eine 1:1 Abbildung der Realität - auch nicht zu Negativzeiten.
Schon immer hatte man versucht die maximale Näherung zu erreichen - nicht mehr und nicht weniger.
Wenn nun ein hochlichtstarkes Objektiv bei Offenblende genutzt wird, bekommt man natürlich eine reduzierte Abbildungsleistung. Aber mit hochauflösendem Sensor erhält man eben davon dann das Maximale und erzeugt nicht noch weitere Verluste.
Wie Objektivtests zeigen, ist dabei eben bei 4k noch nicht Schluss.
Hier ein Beispiel:
http://www.photozone.de/canon_eos_ff/97 ... rt?start=1
Dabei ist das noch nicht mal ein sehr gutes Objektiv.
Es geht dann aber in der Post darum, möglichst wenig zusätzlich Verluste zu erzeugen und gleichzeitig die Arbeitsgeschwindigkeit hoch zu halten.
Bei der Ausgabe am Ende kann dann je nach Anforderung und Bedarf das Format gewählt werden.
Antwort von WoWu:
Ich hab' Dir zu dem Objektiv schon mal gesagt, dass das nur rd. 76 LP/mm bei 50% MTF macht. Nun kannst Du Dir ausrechnen, wie groß Dein Sensor sein müsste, um 4K Bilddetails darstellen zu können.
Nun komm doch nicht schon wieder mit dem Schmarn.
Antwort von iasi:
Ich sehe, Du bist immernoch mit Deiner alten Hoffnung, irgendwann wird's funktionieren, verheiratet und merkst gar nicht, dass der Zug schon lange an Dir vorbeigefahren ist.
Du verwechselst auch immernoch Pixels mit Bildauflösung.
Aber warten wir einfach ab, bis er in Resolve auftaucht.
Nein - ich verwechsele nicht Pixel und Bildauflösung.
Du denkst aber immer, dies gleichsetzen zu müssen - und dies ist eben eine Utopie.
Mir genügt es schon, ein Maximum anzustreben. Ob Vektorisierung schon in der Kamera bzw während der Aufnahme dabei hilfreich ist, kann ich nicht sehen.
Wenn ein Objektiv 8k nicht liefert, so bekomme ich aber eben vielleicht doch mehr als 4k an einem 8k-Sensor und habe eben immer noch eine höhere Auflösung als an einem 4k Sensor - das ist eben schon ein Vorteil.
Antwort von iasi:
Ich hab' Dir zu dem Objektiv schon mal gesagt, dass das nur rd. 76 LP/mm bei 50% MTF macht. Nun kannst Du Dir ausrechnen, wie groß Dein Sensor sein müsste, um 4K Bilddetails darstellen zu können.
Nun komm doch nicht schon wieder mit dem Schmarn.
Schau dir den Test an, den ich verlinkt habe.
Oder entsprechende mit APS-C-Kameras.
Im Fotobereich haben wir eben nun mal schon hohe Auflösungen und können auf Tests zurückgreifen.
http://www.photozone.de/canon_eos_ff/97 ... rt?start=1
Oder MFT ... hier hast du schon längst die Pixelgröße, wie sie nun der S35/8k mitbringt ... Mir erscheint dies übrigens auch keine wirklich erstrebenswerte Entwicklung, immer mehr Pixel auf die Fläche zu quetschen.
Antwort von Jott:
Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.
Antwort von Valentino:
Das Sony schon so fortschrittlich ist und Vektoren benutzt halte ich für recht unwahrscheinlich. Es ist am Ende einfach höher komprimiertes RAW, wie Wolfgang auf die Sache mit den Vektoren kommt bleibt mir ein Rätsel, da Sony mit so einer "neuen Technologie" dann auch werben würde.
Interessant ist das Thema aber allemal und gerade wenn es um die Übertragung geht macht das durchaus Sinn, aber hier wird vor 2020 nicht viel passieren.
Ich hoffe schon seit Jahren auf ein Upgrade des DCI Standards zu einer höheren Datenrate und der Möglichkeit OpenEXR mit neuen DCI Geräten wieder zu geben.
Wenn ich dann mitbekomme das das Kino um die Ecke ein neues 4k-System, der Server aber nur 4x2TB unterstützt, da die Hardware aus dem Jahre 2010 stammt, ist mir so einiges klar.
Antwort von iasi:
Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.
Schön, dass du so konkret bist - aber es ist schon immer der Trick derer gewesen, nebulös zu bleiben, um sich über andere zu erheben.
Will ich so etwas, geh ich aber doch in die Kirche ... und langweile mich da ...
Antwort von iasi:
Das Sony schon so fortschrittlich ist und Vektoren benutzt halte ich für recht unwahrscheinlich. Es ist am Ende einfach höher komprimiertes RAW, wie Wolfgang auf die Sache mit den Vektoren kommt bleibt mir ein Rätsel, da Sony mit so einer "neuen Technologie" dann auch werben würde.
Interessant ist das Thema aber allemal und gerade wenn es um die Übertragung geht macht das durchaus Sinn, aber hier wird vor 2020 nicht viel passieren.
Ich hoffe schon seit Jahren auf ein Upgrade des DCI Standards zu einer höheren Datenrate und der Möglichkeit OpenEXR mit neuen DCI Geräten wieder zu geben.
Wenn ich dann mitbekomme das das Kino um die Ecke ein neues 4k-System, der Server aber nur 4x2TB unterstützt, da die Hardware aus dem Jahre 2010 stammt, ist mir so einiges klar.
Vektoren machen Sinn, wenn man eindeutige Daten verarbeitet.
Ein Videospiel und eine Grafikanimation arbeitet mit eindeutigen Figuren - hier bieten sich Vekotren natürlich an - aber bei Abbildungen aus der Realität sehe ich das nicht.
Antwort von WoWu:
@ Valentino
So fortschrittlich ist das gar nicht, wie Du sagst.
Ich denke, Sony hat lediglich SR Algorithmen verpackt, denn wie sonst wäre eine drastische Dynamikanhebung pro Pixel (immerhin auf 16Bit) bei gleichzeitiger Anhebung der Framerate und bei 4K mit der einhergehenden Reduzierung der Datenmenge um 30% zu erklären.
(überleg mal, welche Ladungsmenge für 16Bit in jedem Pixel erforderlich wäre ... und das bei den winzigen Pixels die S35 hat).
AUsserdem haben sie ja auch nicht ohne Grund das Ganze "wie RAW" genannt.
Und derzeit passiert bei 4K in den meisten Kameras sowieso nichts Anderes, als die Verfierfachung des Pixelrasters, ohne dass die Menge der Bilddetails entsprechend mit zunimmt.
AUsserdem setzt die Datenreduktion von RAW ein fertiges Bild voraus, das es bei den bisher benutzten Formaten, wie XAVC so gar nicht gibt,
Frage ist also, welches RAW Format sie weiter reduziert haben sollen ?
Ich denke, dass sie schon eine ganze Weile intern mit Vectoren gearbeitet haben, daher auch oft die "Schweinchenhaut" bei manchen Einstellungen. Das deutet ziemlich auf Vectorverarbeitung hin und dass sie erst jetzt den Codec fertig haben, um mit dem Format direkt an die NLE Hersteller gehen können, das Dateiformat zu implementieren, weil sie die Rückformatierung bisher immer Kamerainternen machen mussten, egal in welchem Bildformat sie hinterher rausgegangen sind.
Aber wir werden sehn, wenn es jemand implementiert hat.
Für mich ist dass der logische Schritt in höhere Pixelformate und zeitliche Auflösungen bei gleichzeitiger Skalierbarkeit denn ob sich jemals jemand findet, der HEVC Scalierung einsetzt nachdem auch DASH funktioniert wie eine kranke Ente, das würde ich mal bezweifeln.
Nur dass Scalierung vor dem Hintergrund der Formatvielfalt eines der dringendsten Themen ist, daran zweifelt wahrscheinlich keiner mehr.
Und als Nebeneffekt kommen eben immernoch die Lizenskosten, die sich bei einer Vectorverarbeitung gegenüber eines Fremdcodecs wie HEVC, an dem SONY nicht so viele Patente hält, in engen Grenzen halten.
Das alles spricht sehr für einen Paradigmenwechsel, der irgendwann sowieso fällig gewesen wäre.
Fuji hat schon die Neuentwicklung von höher auflösenden Objektiven aufgegeben und lediglich CANON hat noch ein 4K Objektiv zu einem horrenden Preis auf den Markt gebracht. DA steht also auch die Entwicklung nicht gerade in den Startlöchern.
Aber, wie gesagt, wir werden es sehen.
Antwort von WoWu:
Erstaunlich, wie persönliche Mutmassungen und Theorien hier als Fakten verkauft werden, und keiner merkt's.
Deine Leseschwäche, bzw. Dein Verständnisproblem hat wieder zugeschlagen.
Ich habe immer gesagt, wir werden es sehen, wenn so ein Codec in NLEs implementiert ist, weil Sony sich ziemlich mit Infos zurück hält.
Von Fakten habe ich nie gesprochen, aber meine Mutmaßungen, glaube ich, hinreichend begründet und auch keinen Zweifel daran gelassen, dass es eine Mutmaßung ist.
Wie wär's denn mal mit Fakten Deinerseits oder zumindest mit Sachlichen Argumenten Deinerseits, statt mit Polemik ?
Dummschwätzen kann jeder.
Aber darin bist Du natürlich erste Wahl.
Erklär doch einfach mal, wie ein so kleines Pixel die erforderliche Ladungsmenge aufnimmt und wie in einem RAW Format so kleine Datenmengen bei zunehmender zeitlicher und spatialen Auflösung zustande kommen... zumal da ja kein Sensor ausgetauscht wird sondern alles per Codec passiert.
Du weißt es doch offenbar. Lass uns doch nicht so dumm sterben.
Antwort von Jott:
Dummschwätzer kann jeder.
Korrekt.
Antwort von WoWu:
Tja, wie vermutet, zu mehr reicht's dann auch nicht mehr bei Dir.
Antwort von mash_gh4:
ein bisserl was weiß man schon über die art und weise, wie sony im standbild-umfeld seine raw-daten komprimiert (vgl. z.b.
http://www.rawdigger.com/howtouse/sony- ... -detection).
ich würde das gar nicht so sehr nur unter dem gesichtspunkt maximaler abbildungsgenauigkeit sehen, sondern vielmehr als pardigmatischen wechsel: weg von
display referred bearbeitungsketten, hin zu
scene referred modellen der datenaufbereitung. das ist ein trend, der die ganze bilbearbeitungsmathematik schon länger prägt. es ist also wirklich als einschneidender fortschritt anzusehen, wenn die entsprechenden bild-ausgangs-daten hier nicht mehr beim umpacken in video-typische traditionslösungen irreversibel verstümmelt werden, sondern tatsächlich in ihrer ursprünglichen form erhalten bzw. komprimiert werden. das eröffnet völlig neue möglichkeiten, auch wenn das informationsausmaß dazu am transportweg in spürbar verlustbehafteter weise eingedampft werden muss.
Antwort von kling:
Falls des unsere Kunden üh. sehen. Von wegen Augenlicht und älter.. aber das ist eine so gewagte These, die kleine seismische Empörungswellen erzeugt im Jungbrunen der fitten
70zig-Jährigen die gerade erst 35 wurden.... verdammich ein Undichter!
Er blutet aus allen Löchern das junge Blut!!! Hexxerei!!!!
Weiss man eig, was der externe Kasten dann in echt kosten wird, in welchem 2017 er auch alles freigeschalten hat...e.t.zerra :)
Warum hier dieser Dada-Text? Es gibt doch genug Foren für durchgeknallte Esotheriker, Verschwörungstheoretiker etc...
Antwort von Valentino:
Bei deinem verlinkten Artikel handelt es sich um das Foto-RAW der Sony Kameras von 2014, das hat mit dem neuen Format recht wenig zu tun.
Bei Standbildern kann das RAW auch gerne 20MB groß sein oder halt eine leichte Komprimierung drauf und man kommt auf 10MB. Für Video sind solche Datenraten von z. B. 250Megabyte pro Sekunde absolut indiskutabel.
Dazu hat das mit den angesprochenen Vektoren nichts zu tun.
@kling
Don"t feed the troll!
Antwort von mash_gh4:
Bei deinem verlinkten Artikel handelt es sich um das Foto-RAW der Sony Kameras von 2014, das hat mit dem neuen Format recht wenig zu tun.
warum bist du dir da so sicher?
ich glaube nicht, dass das rad mit jeder generation ganz von vorne neu erfunden wird, sondern nur einzelne aspekte laufend weiterentwickelt werden.
die meisten raw video-formate behandeln die einzelnen frames in sehr ähnlicher weise, wie das auch in der fotografie der fall ist. dass muss natürlich im gegenständlichen fall nicht unbedingt in gleicher weise der fall sein. man kann hier sicher einiges aus dem umfeld gebräuchlicher video-kompression übernehmen. trotzdem wäre das eher ungewöhnlich, statt zu erwarten
Bei Standbildern kann das RAW auch gerne 20MB groß sein oder halt eine leichte Komprimierung drauf und man kommt auf 10MB. Für Video sind solche Datenraten von z. B. 250Megabyte pro Sekunde absolut indiskutabel.
das ist immer nur eine frage des standpunkts bzw. der verfügbaren produktionsmittel. es ist durchaus nicht ungewöhnlich, wenn bei entsprechend anspruchsvollen projekten, die ganze postproduktion in EXR-bildsequenzen gehandhabt wird. das sind genauso erschreckend hohe datenraten bzw. -mengen.
für den amteurmarkt mit bescheideneneren möglichkeiten und ansprüchen ist das hier vorgestellte format ja vermutlich auch nicht unbedingt gedacht.
Dazu hat das mit den angesprochenen Vektoren nichts zu tun.
darüber mag ich gar nicht ernsthaft mitspekulieren.
wenn man heutige videokompressionstechniken auch nur im ansatz kennt, weiß man ohnehin, dass die schon lange nicht mehr mit losgelösten einzelnen pixeln zu tun haben, sondern bilder in einer viel abstrakteren und oft weitestgehend auflösungsunabhängigen form beschreiben. von "vektoren" kann man hier durchaus sprechen, wenn man die mathematisch-technische umsetzung diskutiert. das ganze aber vorschnell mit dem gegenständlichen vorbild klassischer vektor-grafik in verbindung zu bringen, scheint mir eher in die irre zu führen.
Antwort von iasi:
Erklär doch einfach mal, wie ein so kleines Pixel die erforderliche Ladungsmenge aufnimmt und wie in einem RAW Format so kleine Datenmengen bei zunehmender zeitlicher und spatialen Auflösung zustande kommen... zumal da ja kein Sensor ausgetauscht wird sondern alles per Codec passiert.
Na - du wiederholst das ständig - jedoch hat es sich in der Praxis längst gezeigt, dass es geht.
Sonys F65-Sensor z.B. ... zahlreiche Sensoren aus dem Fotobereich ...
Merkwürdig, dass du darauf nicht eingehst und immer nur den - aus meiner Sicht merkwürdigend und auch fragwürdigen - Dragon-Test der BBC anführst.
Andere schreiben z.B.:
a sensor with an exceptional Full Well Capacity. Performances like this seem, to us, above the current technical capabilities of CMOS sensors.
http://www.dxomark.com/Reviews/RED-Epic ... h-Analysis
Du ziehst deine Grenzen etwas zu willkürlich z.B. ohne Berücksichtigung von technischen Möglichkeiten, die Hersteller nutzen ohne sie gleich aller Welt Kund zu tun.
Generell sehe ich es auch eher skeptisch, wenn immer mehr Pixel auf immer weniger Sensorfläche gezwängt wird, denn größere Sensoren gepaart mit den technischen Entwicklungen würden eben doch noch mehr erwarten lassen.
Antwort von WoWu:
definier mal "exzellent" und dann lös' das mal in 16 Bit auf.
Du kommst immer mit so einem Weichgeschwafel aus irgendwelchen Blogs daher.
Rechne dir doch mal die FullWell für 16 Bit aus und dann gleich das doch mal mit den Sensorwerten ab.
Nenn mir doch mal die Photonenzahl, die bei dem Sensor "exzellent" erfüllt und die Rauschmenge.
Komm doch endlich mal mit Fakten.
Und was den Test betrifft, ich trau der BBC mehr als Deinen Internettests, speziell, weil daraus Empfehlungen für die Broadcaster werden.
Was meinst Du. wie RED Alarm gegeben hätte, wenn das nicht Hand und Fuß gehabt hätte.
Haben sie das .... nein, also scheint doch was dran zu sein.
Es gibt eben nicht so viele andere, substantielle Tests zu dem Teil, außer solchen Blogorgien von irgendwelchen selbsternannten Testern.
Vektoren machen Sinn, wenn man eindeutige Daten verarbeitet.
Ein Videospiel und eine Grafikanimation arbeitet mit eindeutigen Figuren - hier bieten sich Vekotren natürlich an - aber bei Abbildungen aus der Realität sehe ich das nicht.
Schon 2012 gab es vectorbasierte Codecs für Video:
Antwort von Valentino:
Der neue X-OCN wird offiziell vom neuen Davinci 12.5.1 unterstützt:
https://www.blackmagicdesign.com/suppor ... and-fusion
Antwort von WoWu:
Das war ja zu vermuten, dass BM da mal wieder die Nase vorn haben.
Fehlt jetzt nur noch ein Stück Content.
Antwort von Valentino:
...und an Hand von diesem Material erkennt man dann sofort das es auf Vektoren basiert weil?
Antwort von WoWu:
Na, ja, spätestens, wenn man die dafür typischen Artefakte im Bild findet.
Das ist, wie bei jedem andern Codec auch, jeder hat seinen ganz typischen "Footprint".