Newsmeldung von slashCAM:Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
H.265 Codec-Spezifikations-Entwurf geht bis 8K
Antwort von Tiefflieger:
Das wären dann (28 Mbps VBR * 16) -35%
Über den Daumen ~300 Mbps, das dürfte dann den Profis und Equipment einen gewissen Vorsprung geben.
Zuhause habe ich nur 100 Mbps downloadrate *snief*
Gruss Tiefflieger
Antwort von aight8:
Zurück zu Digibeta Bitraten:) Nur leider nicht gleich leicht zu dekodieren. Für 4K (redcodec) braucht man ja für den Liveschnitt bereits teure Extrahardware nicht? Das wird bei 8K wohl auch nicht anders realisierbar sein, denn die CPU-Entwicklung hat sich bereits deutlich verlangsamt.
Antwort von WoWu:
In dem Standard findet sich dann auch 1080p/50 wieder .... also doch, wie schon vermutet.
Dann dürfte das in kommerziellen Kameras nach dem neuen Verfahren auch bald auftauchen. Bin mal gespannt, wie die NLEs mit hierarchischen B-Frames umgehen.
Antwort von gast5:
wenn man bedenkt wie lange h264AVC gebraucht, hat kann ich mir vorstellen das ich meinen Tee in der Schnabeltasse serviert bekomme und mein Steak vorpüriert wird *lgggg
Antwort von WoWu:
Wenn Du im nächsten Jahr schon aus der Schnabeltasse trinken willst, dann magst Du Recht haben. :-)
Aber die Filestrukturen sind fertig, die Industrie muss sie nur noch implementieren.
Denn 1080p/50 ist im kommerziellen Bereich schon lange überfällig und wird jetzt sehr schnell kommen.
Bin mal gespannt, wie die NLEs sich verhalten. Kann passieren, dass sich kommerzielle NLEs nun von Semi zukünftig unterscheiden werden.
Antwort von gast5:
sag ich ja wie bei bei h264AVC... schon Jahre fertig... umgesetzt erst HEUTE und sogar Heute eckt's noch hinten und vorne
Antwort von WoWu:
Ja, weil die Home-Computer es nicht konnten (können).
Wir machen es seit 2005, aber eben nicht auch Home-Ware.
Das wird sich mit der neuen Hierarchie noch verschärfen .... es ist also nicht auszuschliessen, dass es zukünftig AVCHD als Heimformat geben wird und SVC im professionellen Format.
Denn das neue Format ist ganz bestimmt nicht für den Amateurmarkt gemacht.
Antwort von gast5:
dass es zukünftig AVCHD als Heimformat
für nichts anderes wurde es konzipiert... lies schon Sony in den Anfängen von AVCHD verlauten... Distributionscodec für die Heimuser... Schnittbetrieb in der CAM basta.. das es bei h264AVC auch anders gehen würde weist du doch ganz genau..*ggg... aber wie du siehst haben selbst die von der MPEG2 Fraktion noch einen guten im Videosegment bei den Sendern eventuell sogar noch den größeren Anteil im Vergleich zu der h264AVC Bande..
Ich glaube wir sollten das gelassen sehen, selbigen Schmus haben sie uns damals auch schon erzählt....
Antwort von Normy:
Zurück zu Digibeta Bitraten:) Nur leider nicht gleich leicht zu dekodieren. Für 4K (redcodec) braucht man ja für den Liveschnitt bereits teure Extrahardware nicht? Das wird bei 8K wohl auch nicht anders realisierbar sein, denn die CPU-Entwicklung hat sich bereits deutlich verlangsamt.
Mittlerweise habe ich kapiert, was du sagen wolltest. Nach dem dritten Lesen. Aber: Liest du eigentlich mal selber dein "Geschreibsel" ?
Was hat die CPU-Entwicklung mit Codecs zu tun ? Codecs wie h.26x sind sicher nicht für komplexe CPUs von Intel oder AMD gedacht. Erst mit GPU-Einsatz (oder halt spezieller Hardware) macht es wirklich Sinn.
Wer versucht, mit einem Rechner von 2008 mit einer 50-Euro ATI Karte mal eben vier Full-HD Spuren in Echtzeit zu schneiden, wird damit nicht allzu weit kommen. Das ist bei immer komplexer werdenen Codecs auch nicht anders zu erwarten.
Da heisst es dann: mehr GPU-Power und Speicher. Oder Hardware von z.B. Blackmagic Design oder ähnlich spezialisierten Firmen.
Antwort von WoWu:
dass es zukünftig AVCHD als Heimformat
für nichts anderes wurde es konzipiert... lies schon Sony in den Anfängen von AVCHD verlauten... Distributionscodec für die Heimuser... Schnittbetrieb in der CAM basta.. das es bei h264AVC auch anders gehen würde weist du doch ganz genau..*ggg... aber wie du siehst haben selbst die von der MPEG2 Fraktion noch einen guten im Videosegment bei den Sendern eventuell sogar noch den größeren Anteil im Vergleich zu der h264AVC Bande..
Ich glaube wir sollten das gelassen sehen, selbigen Schmus haben sie uns damals auch schon erzählt....
Ja, aber nur mangels eines Nachfolgestandards, den wir jetzt haben.
Und den "Schmus" hat es nur im Amateurbereich gegeben.
Aber da bleibt ja jetzt auch alles stabil.
Nur der Profi-Sektor hat jetzt Planungssicherheit.
Insofern darf man die Felder da nicht miteinander vermengen.
Antwort von gast5:
vollkommen richtig jetzt erst hat er Planungssicherheit...
bei h265 erst 2013
The timescale for completing the HEVC standard is as follows:
February 2012: Committee Draft (complete draft of standard)
July 2012: Draft International Standard
January 2013: Final Draft International Standard (ready to be ratified as a Standard)
was so um 2000 begann wurde bei h264 erstmals 2003 genauer aufgelegt und wie du schon mal wo geschrieben hast mit FRExt 2004 erweitert.
die Erweiterungen SVC bis 2007 MVC bis 2009 usw
lies mal auf der Gefährliches Halbwissen Seite WIKI nach... das sind sage und schreibe 9 Jahre.... also Entspann dich Wolfgang *ggg Du brauchst noch nicht bei Quantel neu einkaufen gehen..
Antwort von Jan:
Wieso hat den GPU zwei Bedeutungen, hätte man das nicht klüger ausdrücken können ?
VG
Jan
Antwort von aight8:
H.264 gibts aber schon einiges länger als GPU für Video-Dekodierungszwecke verwendet wird. Neu kommen heute die CPU interne dekodierer von Intel, die gabs früher auch nicht.
Ich sagte nur das man alleine mit CPU Mühe haben wir einen 400 Mbit/s Strom in der Komplexität von AVCHD zu dekodieren, vorallem heute wo die CPU Entwicklung allmällig ins Stocken gerät - gegenüber früher. Weil bis jetzt hat man grösstenteils mit CPU dekodiert.
Ich dachte 8K eher im Konsumerbereich, und nicht im Profibereich wo spezialisierte Hardware verwendet werden. Und weil Ultra-HD (8K Fernsehen) kommen wird, wirds irgendwann auch im Konsumerbereich Einzug finden.
Es war eher eine Feststellung, und nicht um Normy zu verärgern.
Antwort von WoWu:
Du brauchst noch nicht bei Quantel neu einkaufen gehen..
Von Quantel habe ich schon den zweiten Draft gesehen.
Antwort von sachs:
Ich dachte 8K eher im Konsumerbereich
Ich schätze, bis das soweit ist, haben wir in der Tat alle 'ne Schnabeltasse.
Die Industrie will ja Geld verdienen. Also kommt erst einmal die 4k-ready-Glotze, dann Real 4k, ggf. noch 2-3 Zwischenformate (natürlich keins zum anderen kompatibel) und dann geht der Spaß mit 8k von vorn los.
Apple bringt wieder ein eigenes Consumer-Format: iFrame XL (das kann das schon 720p).
Von welchem Medium werden die Filme eigentlich übertragen? Geht's nach den Hollywoodstudios, wird uns die Disc erhalten bleiben: GreenRay wär doch 'ne Idee. Man muss pro Zuschauer Extra-Gebühren zahlen. Die Webcam an der Glotze scannt Wohnstube und Kinderzimmer.
Es stellt sich nicht nur die Frage, wann das technisch möglich ist, sondern auch, ob man sich mit den Rahmenbedingungen anfreunden will.
Antwort von WoWu:
Ich denke mal, dass die 8K hier weit im Hintergrund stehen.
Primär wird es darum gehen, einen Codec -wahrscheinlich zunächst mal für die Broadcaster- zu veröffentlichen, der hierarchische Bilder zulässt und so in einem Format alle unteren Formate enthalten sind.
Bei 1080/p50 können alle Formate darunter -bis in geringe Internet und streaming Auflösungen- bedient werden, ohne dass gewandelt werden muss.
Der kommerzielle Aspekt wird also im Vordergrund stehen, nämlich das Ablegen der "unendlich" vielen unterschiedlichen Formate.
Nichts also, das primär Cinema- oder Amateure interessieren dürfte.
Daher werden wohl auch die 8K nicht im Vordergrund stehen.
Nur will man vermutlich nicht wieder den Codec wechseln, wenn 4k oder 8K einmal kommen sollten.
Weil sich in diesem Standard aber (unter B2) auch 1080p50 findet und die Industrie sich mit der Implementierung dieses Formates im Broadcastbereich zurückgehalten hat, denke ich, dass man es dann wohl in zukünftigen Kameras finden wird, die dieses Fileformat unterstützen.
Die Zukunft wird es zeigen.
Antwort von aight8:
Andere Frage. Stammt diese H.265 Codec auch vom kommendem Mpeg-4 standard ap, oder wie was steckt diesesmal grnau dahinter?
Und was macht diesen Codec gleich über 35% effizienter? Das hört sich nach enorm viel an.
Antwort von WoWu:
H.265 ist eigentlich H.264 und setzt darauf auf.
Nur dass weitere Möglichkeiten, die aufgrund der Bisherigen Codiervorgabe keine besseren Ergebnisse zuliessen, jetzt optimiert werden.
So war es in einem einzigen Codierlayer so, dass die Codiereffizienz fortlaufender B-Frames von B-Frame zu B-Frame geringer wurde.
Nun geht man her und mach in jedem Layer nur 2-4 B-Frames und erhält so eine maximale Effizienz. (Im weiteren Layer dann ebenso usw.) Arbeitet man mit einem höheren Quantisierer, erreicht man eine deutlich höhere Effizienz, ohne dass das Bild schlechter wird.
Es sind Tools dazu gekommen, um Prädiktionen zwischen den Layern vornehmen zu können. Es können also z.B. Bewegungsvektoren aus bereits bestehenden Layern genutzt werden. Deren Übertragung als nicht mehr nötig ist. Auch können ganze Makroblöcke hochgetastet werden in andere Layer. Dadurch wird bei mehreren Layern nur ein Durchlauf durch die Bewegungskompensation nötig.
Die Quantisierungsstufen zwischen den Layern werden aufgeteilt , was einer feineren Abstufung entgegen kommt -oder sie kann abgebrochen werden, wenn beispielsweise Layerauflösungen vom Monitor gar nicht dargestellt werden können. usw. usw.
Es ist also in erster Linie die Übertragungsstruktur, die die höhere Effizienz bringt und nicht etwa höhere Kompressionsmodelle.
Die Tools bleiben aus H.264 unverändert erhalten und auch das Basislager soll von jedem H.264 Decoder ausgelesen werden können.
Noch als Anmerkung "Layer" ist in diesem Zusammenhang nicht ganz korrekt, verdeutlicht die Sache aber.
Mit andern Worten, der Kern der Codierungsalgorithmen bleibt.