
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Neuer Videocodec beruht auf Vektoren statt Pixeln
Ja, genau - das wär das Revolutionäre für die Postproduktion-paleface- hat geschrieben: Müsste doch dann auch das direkte auswählen von Flächen und Farben viel einfacher gehen, oder nicht?
Wie ich gelesen habe wird das Rauschen bei modernen Videocodecs (bei mpeg-4 ist es schon dokumentiert) eh herausgerechnet und im Nachhinein wider hinzugerechnet. Dass würde die Vektorisierung natürlich unterstützen.high Iso Rauschen ist wohl ein Problem für sich...
Begriffen ist zuviel gesagt. Ich stelle es mir vor wie Polygone in Maya mit Strukturoberflächen zu bekleiden. "Füllen" bedeutet ja nicht, mit Pixeln füllen, zumindest nicht, wenn der Codec auch auf der Wiedergabeseite verwendet wird. Bei genauer Betrachtung sind Pixel eine ziemlich dumme Art, um ein Bild daraus aufzubauen. Zeichnen statt Malen? Das trifft es wohl nicht so ganz. Ich bin sehr gespannt auf diese Entwicklung.Debonnaire hat geschrieben:Hat das jemand begriffen, wie die Aussage "The alternative, a vector-based format, presents the image using contoured colours. Until now there has not been a way to choose and fill between the contours at professional quality. The Bath team has finally solved these problems." zu verstehen ist, bzw. was hier ein Lösungsansatz sein könnte?
Wieso nicht? Die zeitliche Skalierbarkeit (schon heute kein großes Problem mehr) ist dann noch einfacher (wobei der Lichtstrahl, der durch die Colaflasche schießt, nach wie vor Millionen Samples braucht, um in Zeitlupe genau wiedergegeben werden zu können).Tiefflieger hat geschrieben:Auch Bewegungen im Bild bestehen aus Vektoren, so gibt es auch keine zeitliche Beschränkung für die Bildauflösung. Aber dieser Punkt wird wohl "noch" nicht umgesetzt.
Und dann erfordert sie schnelleres Processing. Aber schade wär's, wenn der Codec mal wieder zuerst in kleinen Consumercams Debüt hätte, wo es dann darum ginge, 10 Stunden Video auf eine 8 GB SD-Karte zu quetschen, so, als nagten wir alle am Hungertuch. Anstatt mal Qualität zum Maßstab zu machen.Tiefflieger hat geschrieben:Ich denke ich habe mal aufgezählt was alles möglich wäre.
Die Speicheroptimierung wirkt sich erst bei grosser Skalierung in Raum- und Zeitauflösung aus.
Eigentlich ist es nichts anderes was bei Computergrafiken (Games) bereits schon gemacht wird.Frank Glencairn hat geschrieben:Jede Wette, daß wir davon in 1-2 Jahren nichts mehr hören.
Die Colaflasche wurde ja nicht in Echtzeit aufgenommen ;-)Axel hat geschrieben:Wieso nicht? Die zeitliche Skalierbarkeit (schon heute kein großes Problem mehr) ist dann noch einfacher (wobei der Lichtstrahl, der durch die Colaflasche schießt, nach wie vor Millionen Samples braucht, um in Zeitlupe genau wiedergegeben werden zu können).Tiefflieger hat geschrieben:Auch Bewegungen im Bild bestehen aus Vektoren, so gibt es auch keine zeitliche Beschränkung für die Bildauflösung. Aber dieser Punkt wird wohl "noch" nicht umgesetzt.
Und dann erfordert sie schnelleres Processing. Aber schade wär's, wenn der Codec mal wieder zuerst in kleinen Consumercams Debüt hätte, wo es dann darum ginge, 10 Stunden Video auf eine 8 GB SD-Karte zu quetschen, so, als nagten wir alle am Hungertuch. Anstatt mal Qualität zum Maßstab zu machen.Tiefflieger hat geschrieben:Ich denke ich habe mal aufgezählt was alles möglich wäre.
Die Speicheroptimierung wirkt sich erst bei grosser Skalierung in Raum- und Zeitauflösung aus.
"K" spricht über Pixel. FPS spricht über die Anzahl von Pixel-Koordinaten in einem Zeitrahmen. Beides dann obsolet.Tiefflieger hat geschrieben:Ich finde es auch schade, dass wir RAW Kameras haben die bis zu 16 bit Farbtiefe in 4K aufzeichnen können. Um bestenfalls FullHD / 2K in 24p oder 25p zu sehen.
Wenn die Zeitliche Auflösung noch auf 50p oder 60p steigt, dann ist eine gute Darstellungsqualität erreicht. Zur Aufnahme und vielleicht später in echtem 8K werden auch zur Darstellung 120 fps realistisch.
Nein, das ist was völlig anderes.Tiefflieger hat geschrieben:Eigentlich ist es nichts anderes was bei Computergrafiken (Games) bereits schon gemacht wird.Frank Glencairn hat geschrieben:Jede Wette, daß wir davon in 1-2 Jahren nichts mehr hören.
In Filmen werden auch Bewegungen im Computer generiert, die an Schauspielern mit Markern abgenommen werden.
Es ist eine neue Chance.
Gruss Tiefflieger
H.264 geht bis auf 4Pixel runter und benutzt bereits vektororientierte Bewegungspädiktion mit der Genauigkeit 1/4 Pixels ...rechteckige Pixelblöcke sondern freiere (und dem jeweiligen Bildinhalt besser entsprechende),
Im Game haben wir definierte 3D Modelle (statisch).Frank Glencairn hat geschrieben:Nein, das ist was völlig anderes.Tiefflieger hat geschrieben:Eigentlich ist es nichts anderes was bei Computergrafiken (Games) bereits schon gemacht wird.Frank Glencairn hat geschrieben:Jede Wette, daß wir davon in 1-2 Jahren nichts mehr hören.
In Filmen werden auch Bewegungen im Computer generiert, die an Schauspielern mit Markern abgenommen werden.
Es ist eine neue Chance.
Gruss Tiefflieger
Von zeitlichen Vektoren war im Bericht nichts zu lesen.Axel hat geschrieben:"K" spricht über Pixel. FPS spricht über die Anzahl von Pixel-Koordinaten in einem Zeitrahmen. Beides dann obsolet.Tiefflieger hat geschrieben:Ich finde es auch schade, dass wir RAW Kameras haben die bis zu 16 bit Farbtiefe in 4K aufzeichnen können. Um bestenfalls FullHD / 2K in 24p oder 25p zu sehen.
Wenn die Zeitliche Auflösung noch auf 50p oder 60p steigt, dann ist eine gute Darstellungsqualität erreicht. Zur Aufnahme und vielleicht später in echtem 8K werden auch zur Darstellung 120 fps realistisch.
Holografie als echtes 3D gab es ja schon.Mantis hat geschrieben:Was mich eigtl. viel mehr interessieren würde, ist welhe Auswirkungen das ganze Brimborium um unendliche Skalierbarkeiten etc. auf die Aufnahme- und Weidergabetechniken von ECHTEM 3D hat. Sprich Holografie...
Das war voreilig von mir. Denn wie außer über Bildpunkte ließe sich das vektorisierte Bild für den Betrachter sichtbar reproduzieren?Axel hat geschrieben: "Füllen" bedeutet ja nicht, mit Pixeln füllen, zumindest nicht, wenn der Codec auch auf der Wiedergabeseite verwendet wird. Bei genauer Betrachtung sind Pixel eine ziemlich dumme Art, um ein Bild daraus aufzubauen.
Mich würd interessieren auf was und wie sie das Projeziern? HAst du da Info drüber?Jott hat geschrieben:"Holografie als echtes 3D gab es ja schon.
http://www.eyeliner3d.com/gorillaz_mtv_awards.html"
Also bitte, das ist weder 3D noch Holografie. Nur ein schlauer und vor allem uralter Projektionstrick. Macht riesigen Spaß, so was zu produzieren - die Leute fallen mit offen stehenden Mündern drauf rein.
The page cannot be foundJott hat geschrieben:"Holografie als echtes 3D gab es ja schon.
http://www.eyeliner3d.com/gorillaz_mtv_awards.html"
Also bitte, das ist weder 3D noch Holografie. Nur ein schlauer und vor allem uralter Projektionstrick. Macht riesigen Spaß, so was zu produzieren - die Leute fallen mit offen stehenden Mündern drauf rein.