Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // H.265 Codec-Spezifikations-Entwurf geht bis 8K



Newsmeldung von slashCAM:


Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
H.265 Codec-Spezifikations-Entwurf geht bis 8K


Space


Antwort von Tiefflieger:

Das wären dann (28 Mbps VBR * 16) -35%
Über den Daumen ~300 Mbps, das dürfte dann den Profis und Equipment einen gewissen Vorsprung geben.

Zuhause habe ich nur 100 Mbps downloadrate *snief*

Gruss Tiefflieger

Space


Antwort von aight8:

Zurück zu Digibeta Bitraten:) Nur leider nicht gleich leicht zu dekodieren. Für 4K (redcodec) braucht man ja für den Liveschnitt bereits teure Extrahardware nicht? Das wird bei 8K wohl auch nicht anders realisierbar sein, denn die CPU-Entwicklung hat sich bereits deutlich verlangsamt.

Space


Antwort von WoWu:

In dem Standard findet sich dann auch 1080p/50 wieder .... also doch, wie schon vermutet.
Dann dürfte das in kommerziellen Kameras nach dem neuen Verfahren auch bald auftauchen. Bin mal gespannt, wie die NLEs mit hierarchischen B-Frames umgehen.

Space


Antwort von gast5:

wenn man bedenkt wie lange h264AVC gebraucht, hat kann ich mir vorstellen das ich meinen Tee in der Schnabeltasse serviert bekomme und mein Steak vorpüriert wird *lgggg

Space


Antwort von WoWu:

Wenn Du im nächsten Jahr schon aus der Schnabeltasse trinken willst, dann magst Du Recht haben. :-)
Aber die Filestrukturen sind fertig, die Industrie muss sie nur noch implementieren.
Denn 1080p/50 ist im kommerziellen Bereich schon lange überfällig und wird jetzt sehr schnell kommen.
Bin mal gespannt, wie die NLEs sich verhalten. Kann passieren, dass sich kommerzielle NLEs nun von Semi zukünftig unterscheiden werden.

Space


Antwort von gast5:

sag ich ja wie bei bei h264AVC... schon Jahre fertig... umgesetzt erst HEUTE und sogar Heute eckt's noch hinten und vorne

Space


Antwort von WoWu:

Ja, weil die Home-Computer es nicht konnten (können).
Wir machen es seit 2005, aber eben nicht auch Home-Ware.

Das wird sich mit der neuen Hierarchie noch verschärfen .... es ist also nicht auszuschliessen, dass es zukünftig AVCHD als Heimformat geben wird und SVC im professionellen Format.
Denn das neue Format ist ganz bestimmt nicht für den Amateurmarkt gemacht.

Space


Antwort von gast5:

dass es zukünftig AVCHD als Heimformat für nichts anderes wurde es konzipiert... lies schon Sony in den Anfängen von AVCHD verlauten... Distributionscodec für die Heimuser... Schnittbetrieb in der CAM basta.. das es bei h264AVC auch anders gehen würde weist du doch ganz genau..*ggg... aber wie du siehst haben selbst die von der MPEG2 Fraktion noch einen guten im Videosegment bei den Sendern eventuell sogar noch den größeren Anteil im Vergleich zu der h264AVC Bande..

Ich glaube wir sollten das gelassen sehen, selbigen Schmus haben sie uns damals auch schon erzählt....

Space



Space


Antwort von Normy:

Zurück zu Digibeta Bitraten:) Nur leider nicht gleich leicht zu dekodieren. Für 4K (redcodec) braucht man ja für den Liveschnitt bereits teure Extrahardware nicht? Das wird bei 8K wohl auch nicht anders realisierbar sein, denn die CPU-Entwicklung hat sich bereits deutlich verlangsamt. Mittlerweise habe ich kapiert, was du sagen wolltest. Nach dem dritten Lesen. Aber: Liest du eigentlich mal selber dein "Geschreibsel" ?

Was hat die CPU-Entwicklung mit Codecs zu tun ? Codecs wie h.26x sind sicher nicht für komplexe CPUs von Intel oder AMD gedacht. Erst mit GPU-Einsatz (oder halt spezieller Hardware) macht es wirklich Sinn.

Wer versucht, mit einem Rechner von 2008 mit einer 50-Euro ATI Karte mal eben vier Full-HD Spuren in Echtzeit zu schneiden, wird damit nicht allzu weit kommen. Das ist bei immer komplexer werdenen Codecs auch nicht anders zu erwarten.

Da heisst es dann: mehr GPU-Power und Speicher. Oder Hardware von z.B. Blackmagic Design oder ähnlich spezialisierten Firmen.

Space


Antwort von WoWu:

dass es zukünftig AVCHD als Heimformat für nichts anderes wurde es konzipiert... lies schon Sony in den Anfängen von AVCHD verlauten... Distributionscodec für die Heimuser... Schnittbetrieb in der CAM basta.. das es bei h264AVC auch anders gehen würde weist du doch ganz genau..*ggg... aber wie du siehst haben selbst die von der MPEG2 Fraktion noch einen guten im Videosegment bei den Sendern eventuell sogar noch den größeren Anteil im Vergleich zu der h264AVC Bande..

Ich glaube wir sollten das gelassen sehen, selbigen Schmus haben sie uns damals auch schon erzählt.... Ja, aber nur mangels eines Nachfolgestandards, den wir jetzt haben.
Und den "Schmus" hat es nur im Amateurbereich gegeben.
Aber da bleibt ja jetzt auch alles stabil.
Nur der Profi-Sektor hat jetzt Planungssicherheit.
Insofern darf man die Felder da nicht miteinander vermengen.

Space


Antwort von gast5:

vollkommen richtig jetzt erst hat er Planungssicherheit...

bei h265 erst 2013

The timescale for completing the HEVC standard is as follows:
February 2012: Committee Draft (complete draft of standard)
July 2012: Draft International Standard
January 2013: Final Draft International Standard (ready to be ratified as a Standard)
was so um 2000 begann wurde bei h264 erstmals 2003 genauer aufgelegt und wie du schon mal wo geschrieben hast mit FRExt 2004 erweitert.

die Erweiterungen SVC bis 2007 MVC bis 2009 usw

lies mal auf der Gefährliches Halbwissen Seite WIKI nach... das sind sage und schreibe 9 Jahre.... also Entspann dich Wolfgang *ggg Du brauchst noch nicht bei Quantel neu einkaufen gehen..

Space


Antwort von Jan:

Wieso hat den GPU zwei Bedeutungen, hätte man das nicht klüger ausdrücken können ?


VG
Jan

Space


Antwort von aight8:

H.264 gibts aber schon einiges länger als GPU für Video-Dekodierungszwecke verwendet wird. Neu kommen heute die CPU interne dekodierer von Intel, die gabs früher auch nicht.

Ich sagte nur das man alleine mit CPU Mühe haben wir einen 400 Mbit/s Strom in der Komplexität von AVCHD zu dekodieren, vorallem heute wo die CPU Entwicklung allmällig ins Stocken gerät - gegenüber früher. Weil bis jetzt hat man grösstenteils mit CPU dekodiert.

Ich dachte 8K eher im Konsumerbereich, und nicht im Profibereich wo spezialisierte Hardware verwendet werden. Und weil Ultra-HD (8K Fernsehen) kommen wird, wirds irgendwann auch im Konsumerbereich Einzug finden.

Es war eher eine Feststellung, und nicht um Normy zu verärgern.

Space


Antwort von WoWu:

Du brauchst noch nicht bei Quantel neu einkaufen gehen.. Von Quantel habe ich schon den zweiten Draft gesehen.

Space


Antwort von sachs:

Ich dachte 8K eher im Konsumerbereich Ich schätze, bis das soweit ist, haben wir in der Tat alle 'ne Schnabeltasse.

Die Industrie will ja Geld verdienen. Also kommt erst einmal die 4k-ready-Glotze, dann Real 4k, ggf. noch 2-3 Zwischenformate (natürlich keins zum anderen kompatibel) und dann geht der Spaß mit 8k von vorn los.

Apple bringt wieder ein eigenes Consumer-Format: iFrame XL (das kann das schon 720p).

Von welchem Medium werden die Filme eigentlich übertragen? Geht's nach den Hollywoodstudios, wird uns die Disc erhalten bleiben: GreenRay wär doch 'ne Idee. Man muss pro Zuschauer Extra-Gebühren zahlen. Die Webcam an der Glotze scannt Wohnstube und Kinderzimmer.

Es stellt sich nicht nur die Frage, wann das technisch möglich ist, sondern auch, ob man sich mit den Rahmenbedingungen anfreunden will.

Space


Antwort von WoWu:

Ich denke mal, dass die 8K hier weit im Hintergrund stehen.
Primär wird es darum gehen, einen Codec -wahrscheinlich zunächst mal für die Broadcaster- zu veröffentlichen, der hierarchische Bilder zulässt und so in einem Format alle unteren Formate enthalten sind.
Bei 1080/p50 können alle Formate darunter -bis in geringe Internet und streaming Auflösungen- bedient werden, ohne dass gewandelt werden muss.
Der kommerzielle Aspekt wird also im Vordergrund stehen, nämlich das Ablegen der "unendlich" vielen unterschiedlichen Formate.
Nichts also, das primär Cinema- oder Amateure interessieren dürfte.
Daher werden wohl auch die 8K nicht im Vordergrund stehen.
Nur will man vermutlich nicht wieder den Codec wechseln, wenn 4k oder 8K einmal kommen sollten.
Weil sich in diesem Standard aber (unter B2) auch 1080p50 findet und die Industrie sich mit der Implementierung dieses Formates im Broadcastbereich zurückgehalten hat, denke ich, dass man es dann wohl in zukünftigen Kameras finden wird, die dieses Fileformat unterstützen.
Die Zukunft wird es zeigen.

Space


Antwort von aight8:

Andere Frage. Stammt diese H.265 Codec auch vom kommendem Mpeg-4 standard ap, oder wie was steckt diesesmal grnau dahinter?
Und was macht diesen Codec gleich über 35% effizienter? Das hört sich nach enorm viel an.

Space



Space


Antwort von WoWu:

H.265 ist eigentlich H.264 und setzt darauf auf.
Nur dass weitere Möglichkeiten, die aufgrund der Bisherigen Codiervorgabe keine besseren Ergebnisse zuliessen, jetzt optimiert werden.
So war es in einem einzigen Codierlayer so, dass die Codiereffizienz fortlaufender B-Frames von B-Frame zu B-Frame geringer wurde.
Nun geht man her und mach in jedem Layer nur 2-4 B-Frames und erhält so eine maximale Effizienz. (Im weiteren Layer dann ebenso usw.) Arbeitet man mit einem höheren Quantisierer, erreicht man eine deutlich höhere Effizienz, ohne dass das Bild schlechter wird.
Es sind Tools dazu gekommen, um Prädiktionen zwischen den Layern vornehmen zu können. Es können also z.B. Bewegungsvektoren aus bereits bestehenden Layern genutzt werden. Deren Übertragung als nicht mehr nötig ist. Auch können ganze Makroblöcke hochgetastet werden in andere Layer. Dadurch wird bei mehreren Layern nur ein Durchlauf durch die Bewegungskompensation nötig.
Die Quantisierungsstufen zwischen den Layern werden aufgeteilt , was einer feineren Abstufung entgegen kommt -oder sie kann abgebrochen werden, wenn beispielsweise Layerauflösungen vom Monitor gar nicht dargestellt werden können. usw. usw.
Es ist also in erster Linie die Übertragungsstruktur, die die höhere Effizienz bringt und nicht etwa höhere Kompressionsmodelle.
Die Tools bleiben aus H.264 unverändert erhalten und auch das Basislager soll von jedem H.264 Decoder ausgelesen werden können.
Noch als Anmerkung "Layer" ist in diesem Zusammenhang nicht ganz korrekt, verdeutlicht die Sache aber.
Mit andern Worten, der Kern der Codierungsalgorithmen bleibt.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


HEVC Codec für H.265 Videos
Neuer Videocodec VVC ist fertig: 50% effizienter als H.265
H.265 4 2 0 vs Prores etc
Apple: iPad Air mit A14 Bionic CPU: Noch mehr Leistung für Echtzeit 10 Bit H.265 4:2:2 Editing?
Premiere CC Vorschau ruckelt bei 4K/60 h.265
Media Composer 2020.12 ist verfügbar - jetzt mit HEVC/H.265
Resolve Studio 17.1 Public Beta 10 mit Intel H.265-10Bit 4:2:2 Hardwareunterstützung
Resolve Studio 17.1 ist final: Support für Apple M1 und H.265 Hardware En- und Dekodierung
Atomos bringt neue Ninja-Optionen mit 4K120p, 8Kp30 und HEVC /H.265
Leica SL2-S mit verbessertem Video-AF und interner 4K 10 Bit 60p Aufnahme (H.265)
Apple HEVC H.265 mit Resolve Studio auf Windows
Grass Valley Edius X in Version 10.30 erschienen, ua. mit neuem H.265 Software-Encoder
Teradek Prism Flex: H.264/H.265-Encoding/Decoding und Streaming in 4K HDR
AMD Alveo MA35D: FPGA-Beschleuniger für AV1-, H.265- und H.264-Codecs
Arri Alexa 265
Sonnet Echo Dual NVMe Thunderbolt Dock für bis zwei NVMe SSDs mit bis zu 16 TB
YouTube in 4K bald auch für Apple User: VP9 Codec Unterstützung in macOS und iOS kommt
Bester Codec für DCP




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash