Newsmeldung von slashCAM:
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Neuer Videocodec beruht auf Vektoren statt Pixeln
Antwort von -paleface-:
Das wäre natürlich krass. Und wenn dann natürlich noch die Dateigröße so klein wäre wie man es von Vektoren gewöhnt ist.
Aber daran glaub ich nicht.
Müsste doch dann auch das direkte auswählen von Flächen und Farben viel einfacher gehen, oder nicht?
Antwort von tom:
Müsste doch dann auch das direkte auswählen von Flächen und Farben viel einfacher gehen, oder nicht?
Ja, genau - das wär das Revolutionäre für die Postproduktion
Thomas
Antwort von marwie:
Interessanter Ansatz, braucht aber wie erwähnt viel Leistung, da wird so ein Vektor basierender Codec wohl anfangs nur für Streaming o.ä. verwendet, denn bis die Kameras genügend Rechenleistung haben, wird es noch eine weile gehen. Anfangs werden die realtime Encoder wohl auch noch Probleme bekommen mit zu komplexen Strukturen und high Iso Rauschen ist wohl ein Problem für sich...
Die Frage ist aber, ob sich so ein Codec überhaupt durchsetzen kann, Bandbreite und Speicherplatz werden ja immer günstiger. Heute werden ja viele Sachen nicht mehr auf wenig Speicherplatz und Bandbreite hin optimiert, oder warum muss man z.B. für jeden noch so simplen Treiber ein Treiberpaket von teils schon über 100MB downloaden?
Antwort von Axel:
Dies wird in Kinokreisen schon länger diskutiert, um z.B. die gewaltigen Datenmengen händeln zu können, die für zukünftiges 3D nötig würden, siehe hier:
viewtopic.php?p=593756#593756
Antwort von aight8:
high Iso Rauschen ist wohl ein Problem für sich...
Wie ich gelesen habe wird das Rauschen bei modernen Videocodecs (bei mpeg-4 ist es schon dokumentiert) eh herausgerechnet und im Nachhinein wider hinzugerechnet. Dass würde die Vektorisierung natürlich unterstützen.
Durch diesen ganzen Signalprozess wird das originale Sensorbild zwar sehr nahe am gepeichertem Bild liegen, aber schlussentlich wird das Bild ja eher auf eine neue Art erraten. Hat aber nicht viel mit dem Originalsignal zu tun, was jetzt bei RAW sich total verbreitet.
Ein stark vektorisiertes Echtbild zu skalieren sieht aber sicher sehr geschmeidig aus.
Antwort von Axel:
Vielleicht beendet die neue Technik auch endlich die pathologische Megapixelhysterie und Moireparanoia, und, da wir schonmal die Pauschaldiagnose für den modernen Videoneurotiker stellen, die grassierende Bewegungsunschärfe-Phobie (HFR). Auch Farbtiefe und Farbabtastung wären kein Anlass mehr, sich eine krüppelige BMCC zu ersehnen, denn wieviel mehr an "RAW" ließe sich wohl in diesen Codec packen? ProDad, Neatvideo und Twixtor werden zittern. AAEs Mocha?
Das würde sehr vieles ändern.
Antwort von Debonnaire:
Was ich mir beim besten Willen nicht vorstellen kann ist, wie man feinste, farblich und helligkeitsmässig sich unterscheidende Strukturen mittels Vektor(flächen) abbilden können soll, ohne schliesslich bei "Vektor"elementgrössen in der Dimension eben eines einzelnen Pixels zu landen, was das Ganze schlussendlich sinnlos machen würde und auch keine Speicherplatzersparnis brächte (Gut, die verlustfreie Skalierbarkeit wäre noch gegeben, aber dann wird einfach die einzelne Vektor(fläche) linear vergrössert, was das Bild schliesslich genau so "verpixelt" aussehen lässt, wie wenn man Pixelbilder hochskaliert!).
Sobald die Vektor(flächen) aber eine gewisse, für eine sinnmachende Vektorisierung und damit eine Komprimierung hilfreiche Dimension erreichen, werden die abbildbaren Detailstrukturen naturgemäss genau so gross wie die jeweilige Vektor(fläche) und das Bild sieht posterized (oder eben "pixelig") aus.
Hat das jemand begriffen, wie die Aussage "The alternative, a vector-based format, presents the image using contoured colours. Until now there has not been a way to choose and fill between the contours at professional quality. The Bath team has finally solved these problems." zu verstehen ist, bzw. was hier ein Lösungsansatz sein könnte?
Antwort von aight8:
Evtl wird neben der Rauschextraktion noch eine Textur Datenbank im Codec integriert sein :D Welches dann von beiden stereoskopischen Hälften zugegriffen wird.
Man muss nur einige Extrembeispiele nehmen, dann merkt man, dass diese Vektorbasierter Codec auch nicht viele Vorteile gegenüber z.B. Twixxtor bringt. Die zusätlichen Keyframes werden ohnehin benötigt, und eine nachträgliche Vektorisierung und Slowmotioniunierung ist auch dann möglich.
Oder nehmen wir einfach zwei verschiedens generierten Rauschflächen. Was macht der Codec dann?
Oder ein extrem detailiertes Bild das wir aus einigem Meter filmen. Durch vektorisierung sind die Informationen ja nicht etwa mehr vorhanden. Nur entsteht statt unschärfe durch Bitmap Skalierung einfach eine grössere gleichbleibende Fläche.
Das sind Extrembeispiele, aber dadurch lassen sich die möglichen Grenzen solcher Codecs leicht aufzeigen.
Antwort von Axel:
Hat das jemand begriffen, wie die Aussage "The alternative, a vector-based format, presents the image using contoured colours. Until now there has not been a way to choose and fill between the contours at professional quality. The Bath team has finally solved these problems." zu verstehen ist, bzw. was hier ein Lösungsansatz sein könnte?
Begriffen ist zuviel gesagt. Ich stelle es mir vor wie Polygone in Maya mit Strukturoberflächen zu bekleiden. "Füllen" bedeutet ja nicht, mit Pixeln füllen, zumindest nicht, wenn der Codec auch auf der Wiedergabeseite verwendet wird. Bei genauer Betrachtung sind Pixel eine ziemlich dumme Art, um ein Bild daraus aufzubauen. Zeichnen statt Malen? Das trifft es wohl nicht so ganz. Ich bin sehr gespannt auf diese Entwicklung.
Antwort von Debonnaire:
Ja, gespannt bin ich darauf auch mega!
Kann es mir einfach momentan noch nicht so richtig vorstellen, dass damit wirklich ein Geschwindigkeitsgewinn erzielt werden kann, bzw. die Datenmengen wirklich kleiner werden als z.B. bei einem sehr guten, pixelbasierten Intraframe-Codec.
Aber ich lasse mich mehr als gerne eines Besseren belehren!
Antwort von Tiefflieger:
Die Vektorbasierenden Grafiken lassen sich stufenlos vergrössern und die Konturen bleiben ohne Aliasing erhalten.
-> Skalierbarkeit
Bei Vektoren geht es ja um mathematische Gitter Modelle, die aus "dicken" Linien bis zu Splines bestehen.
Wie die Vektoren (Richtungszeiger) verbunden werden sollen, kann mathematisch bestimmt werden.
Oberflächen lassen sich mit Fraktalen (jpeg2000) unendlich generieren, immer passend zur Vergrösserung.
Mit mathematischen Fraktalmodellen werden natürliche Strukturen nachgeahmt, da sich immer wiederkerende Muster bei Vergrösserung wiederholen.
Perfekt wäre es, wenn räumliche Information für Vektoren zur Verfügung stehen. Aber dann braucht es fast keine Oberflächengenerierung mehr.
Als Krönung.
Auch Bewegungen im Bild bestehen aus Vektoren, so gibt es auch keine zeitliche Beschränkung für die Bildauflösung. Aber dieser Punkt wird wohl "noch" nicht umgesetzt.
Ich denke ich habe mal aufgezählt was alles möglich wäre.
Die Speicheroptimierung wirkt sich erst bei grosser Skalierung in Raum- und Zeitauflösung aus.
Ob das jetzt künstlicher aussieht als 25 fps Videos ist eine andere Geschmacksfrage. ;-)
Gruss Tiefflieger
Antwort von Axel:
Auch Bewegungen im Bild bestehen aus Vektoren, so gibt es auch keine zeitliche Beschränkung für die Bildauflösung. Aber dieser Punkt wird wohl "noch" nicht umgesetzt.
Wieso nicht? Die zeitliche Skalierbarkeit (schon heute kein großes Problem mehr) ist dann noch einfacher (wobei der Lichtstrahl, der durch die Colaflasche schießt, nach wie vor Millionen Samples braucht, um in Zeitlupe genau wiedergegeben werden zu können).
Ich denke ich habe mal aufgezählt was alles möglich wäre.
Die Speicheroptimierung wirkt sich erst bei grosser Skalierung in Raum- und Zeitauflösung aus.
Und dann erfordert sie schnelleres Processing. Aber schade wär's, wenn der Codec mal wieder zuerst in kleinen Consumercams Debüt hätte, wo es dann darum ginge, 10 Stunden Video auf eine 8 GB SD-Karte zu quetschen, so, als nagten wir alle am Hungertuch. Anstatt mal Qualität zum Maßstab zu machen.
Antwort von Frank Glencairn:
Jede Wette, daß wir davon in 1-2 Jahren nichts mehr hören.
Antwort von Tiefflieger:
Jede Wette, daß wir davon in 1-2 Jahren nichts mehr hören.
Eigentlich ist es nichts anderes was bei Computergrafiken (Games) bereits schon gemacht wird.
In Filmen werden auch Bewegungen im Computer generiert, die an Schauspielern mit Markern abgenommen werden.
Es ist eine neue Chance.
Gruss Tiefflieger
Antwort von Tiefflieger:
Auch Bewegungen im Bild bestehen aus Vektoren, so gibt es auch keine zeitliche Beschränkung für die Bildauflösung. Aber dieser Punkt wird wohl "noch" nicht umgesetzt.
Wieso nicht? Die zeitliche Skalierbarkeit (schon heute kein großes Problem mehr) ist dann noch einfacher (wobei der Lichtstrahl, der durch die Colaflasche schießt, nach wie vor Millionen Samples braucht, um in Zeitlupe genau wiedergegeben werden zu können).
Ich denke ich habe mal aufgezählt was alles möglich wäre.
Die Speicheroptimierung wirkt sich erst bei grosser Skalierung in Raum- und Zeitauflösung aus.
Und dann erfordert sie schnelleres Processing. Aber schade wär's, wenn der Codec mal wieder zuerst in kleinen Consumercams Debüt hätte, wo es dann darum ginge, 10 Stunden Video auf eine 8 GB SD-Karte zu quetschen, so, als nagten wir alle am Hungertuch. Anstatt mal Qualität zum Maßstab zu machen.
Die Colaflasche wurde ja nicht in Echtzeit aufgenommen ;-)
Bewegung zeitlich aufzulösen ist bestimmt kein Problem (ggf. Ghosting an Konturen).
Aber jedes Frame hat die Möglichkeit neben den Bewegungsvektoren auch die Luma- und Chromawerte zu ändern (Bsp. 240 fps Bildflackern bei gepulsten Lichtquellen)
Ich finde es auch schade, dass wir RAW Kameras haben die bis zu 16 bit Farbtiefe in 4K aufzeichnen können. Um bestenfalls FullHD / 2K in 24p oder 25p zu sehen.
Wenn die Zeitliche Auflösung noch auf 50p oder 60p steigt, dann ist eine gute Darstellungsqualität erreicht. Zur Aufnahme und vielleicht später in echtem 8K werden auch zur Darstellung 120 fps realistisch.
Gruss Tiefflieger
Antwort von Axel:
Zwar benutzt unser eigenes Auge Bildpunkte, um die Farb- und Helligkeitreize aufzunehmen, dass Wahrnehmung, d.h. das Verarbeiten dieser Reize, das Erkennen der Situation usw., eher konturen- und formenorientiert funktioniert (und eigentlich sogar sehr stark interpretativ), steht außer Frage.
Ob der Vektorcodec in 5 Jahren Standard ist? Darauf würde ich nicht unbedingt wetten. Nur darauf, dass er kommt.
Ich finde es auch schade, dass wir RAW Kameras haben die bis zu 16 bit Farbtiefe in 4K aufzeichnen können. Um bestenfalls FullHD / 2K in 24p oder 25p zu sehen.
Wenn die Zeitliche Auflösung noch auf 50p oder 60p steigt, dann ist eine gute Darstellungsqualität erreicht. Zur Aufnahme und vielleicht später in echtem 8K werden auch zur Darstellung 120 fps realistisch.
"K" spricht über Pixel. FPS spricht über die Anzahl von Pixel-Koordinaten in einem Zeitrahmen. Beides dann obsolet.
Antwort von Frank Glencairn:
Jede Wette, daß wir davon in 1-2 Jahren nichts mehr hören.
Eigentlich ist es nichts anderes was bei Computergrafiken (Games) bereits schon gemacht wird.
In Filmen werden auch Bewegungen im Computer generiert, die an Schauspielern mit Markern abgenommen werden.
Es ist eine neue Chance.
Gruss Tiefflieger
Nein, das ist was völlig anderes.
Antwort von WoWu:
rechteckige Pixelblöcke sondern freiere (und dem jeweiligen Bildinhalt besser entsprechende),
H.264 geht bis auf 4Pixel runter und benutzt bereits vektororientierte Bewegungspädiktion mit der Genauigkeit 1/4 Pixels ...
Was darf's denn eigentlich noch sein ?
1 Pixel ?
Und wo sind die Objektive dafür ?
Und was soll das, wenn selbst Punktbilder guter Objektive deutlich grössere Flächen haben ?
Wie gross muss das Pixel dann sein, damit man überhaupt noch von einem individuellen Vektor reden kann ?
Antwort von Tiefflieger:
Jede Wette, daß wir davon in 1-2 Jahren nichts mehr hören.
Eigentlich ist es nichts anderes was bei Computergrafiken (Games) bereits schon gemacht wird.
In Filmen werden auch Bewegungen im Computer generiert, die an Schauspielern mit Markern abgenommen werden.
Es ist eine neue Chance.
Gruss Tiefflieger
Nein, das ist was völlig anderes.
Im Game haben wir definierte 3D Modelle (statisch).
Alles ist mit viel Arbeit verbunden bei Motion Tracking (übertragen von Bewegung).
Neu können die "statischen" Formen automatisch erfasst und als Vektoren gespeichert werden.
Motion ergibt sich noch aus der Bildfolge.
Das folgende gehört dazu, einfach ist es bestimmt nicht
Ich kann mir vorstellen, dass Bildzittern in folgebildern ähnlich zu Deinterlacing gelöst werden muss.
Gruss Tiefflieger
Antwort von Tiefflieger:
Ich finde es auch schade, dass wir RAW Kameras haben die bis zu 16 bit Farbtiefe in 4K aufzeichnen können. Um bestenfalls FullHD / 2K in 24p oder 25p zu sehen.
Wenn die Zeitliche Auflösung noch auf 50p oder 60p steigt, dann ist eine gute Darstellungsqualität erreicht. Zur Aufnahme und vielleicht später in echtem 8K werden auch zur Darstellung 120 fps realistisch.
"K" spricht über Pixel. FPS spricht über die Anzahl von Pixel-Koordinaten in einem Zeitrahmen. Beides dann obsolet.
Von zeitlichen Vektoren war im Bericht nichts zu lesen.
Antwort von Mantis:
Was mich eigtl. viel mehr interessieren würde, ist welhe Auswirkungen das ganze Brimborium um unendliche Skalierbarkeiten etc. auf die Aufnahme- und Weidergabetechniken von ECHTEM 3D hat. Sprich Holografie...
Antwort von Axel:
Was mich eigtl. viel mehr interessieren würde, ist welhe Auswirkungen das ganze Brimborium um unendliche Skalierbarkeiten etc. auf die Aufnahme- und Weidergabetechniken von ECHTEM 3D hat. Sprich Holografie...
Holografie als echtes 3D gab es ja schon.
http://www.eyeliner3d.com/gorillaz_mtv_awards.html
Allerdings bewegen wir uns damit in ein Gebiet, das zwar technisch sehr interessant ist, aber - nur als deutlichstes Beispiel - keine Schnitte erlaubt.
Wären die Gorillaz als Menschen aus Fleisch und Blut als 3D-Charaktere übertragen worden, hätte man sie auch in 360° scannen müssen. Keine "Kameras".
Wer "3D ohne Brille" fordert, aber vor einer Leinwand oder einem Bildschirm, kann immer noch Geschichten erzählen, denn
> es gibt einen Aufnahme-Standpunkt (und darum im eigentlichen Sinne ein "Bild")
> es gibt zwar eine Breite von Betrachtungs-Standpunkten, aber in einem sehr begrenzten Winkel
"Füllen" bedeutet ja nicht, mit Pixeln füllen, zumindest nicht, wenn der Codec auch auf der Wiedergabeseite verwendet wird. Bei genauer Betrachtung sind Pixel eine ziemlich dumme Art, um ein Bild daraus aufzubauen.
Das war voreilig von mir. Denn wie außer über Bildpunkte ließe sich das vektorisierte Bild für den Betrachter sichtbar reproduzieren?
Antwort von Jott:
"Holografie als echtes 3D gab es ja schon.
http://www.eyeliner3d.com/gorillaz_mtv_awards.html"
Also bitte, das ist weder 3D noch Holografie. Nur ein schlauer und vor allem uralter Projektionstrick. Macht riesigen Spaß, so was zu produzieren - die Leute fallen mit offen stehenden Mündern drauf rein.
Antwort von frm:
"Holografie als echtes 3D gab es ja schon.
http://www.eyeliner3d.com/gorillaz_mtv_awards.html"
Also bitte, das ist weder 3D noch Holografie. Nur ein schlauer und vor allem uralter Projektionstrick. Macht riesigen Spaß, so was zu produzieren - die Leute fallen mit offen stehenden Mündern drauf rein.
Mich würd interessieren auf was und wie sie das Projeziern? HAst du da Info drüber?
Hg
Florian
Antwort von rtzbild:
"Holografie als echtes 3D gab es ja schon.
http://www.eyeliner3d.com/gorillaz_mtv_awards.html"
Also bitte, das ist weder 3D noch Holografie. Nur ein schlauer und vor allem uralter Projektionstrick. Macht riesigen Spaß, so was zu produzieren - die Leute fallen mit offen stehenden Mündern drauf rein.
The page cannot be found
Antwort von Tiefflieger:
Geh auf den Link von Axel.
Antwort von rtzbild:
Danke!