Seite 1 von 1

Netflix spart 30% Daten durch Encoding-Optimierungen und VP9 Codec

Verfasst: So 18 Mär, 2018 08:36
von slashCAM

Um seine Videos für mobile User immerhin rund 30% aller Zuschauer zu optimieren hat Netflix erst kürzlich wieder seinen gesamtes Archiv neu komprimiert mit dem Ergebnis, ...
Bild
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Netflix spart 30% Daten durch Encoding-Optimierungen und VP9 Codec

Re: Netflix spart 30% Daten durch Encoding-Optimierungen und VP9 Codec

Verfasst: So 18 Mär, 2018 10:10
von mash_gh4
"User von Googles Chrome Browser werden wohl als erste diese AV1 Videos anschauen können."

das ist insofern falsch, als AV1-unterstützung firefox-benutzern bereits seit einigen monaten in den nightly versionen zur verfügung steht. :)

https://hacks.mozilla.org/2017/11/dash- ... av1-video/

ansonsten finde ich es allerdings sehr lobenswert, dass ihr das hiesige wieder einmal ein wenig wach zu rütteln versucht und auf die enormen vorteile, die VP9 gegenwärtig tatsächlich bietet -- weil ja das konkurrierende h.265 außer auf apple hardware bis heute praktisch überhaupt keine unterstützung in den browsern gefunden hat -- hinweist.

Re: Netflix spart 30% Daten durch Encoding-Optimierungen und VP9 Codec

Verfasst: So 18 Mär, 2018 14:09
von Sebastian Hoyer
Gibt es eigentlich vergleichbare Methoden für Nicht-Mega-Streamingkonzern-Filmer, die ein Video inhalts- bzw. einstellungsbasiert analysieren und den Codec und dessen Datenrate dahingehend optimieren können?

Ist doch in Zukunft auch sicher was für neuronales Netzwerk/ AI, die dann Dialog-, Action-, High Key-, Low-Key-Szenen von einander unterscheiden kann und diesen optimierte Datenraten zuweist. Oder ist das im Artikel erwähnte Netflix Video Encoding Optimization Framework ein neuronales Netzwerk?

Zugegeben: Ich weiß von technischen Neuerungen in der Delivery Codec-Welt so gut wie nichts; wenn ich H264 oder H265 abliefern muss, geht's ab nach Handbrake und mehr "Sorgen" mach ich mir zu dem Thema normalerweise nicht. Oft mit mehr oder weniger zufriedenstellenden Ergebnissen.

Re: Netflix spart 30% Daten durch Encoding-Optimierungen und VP9 Codec

Verfasst: So 18 Mär, 2018 21:25
von mash_gh4
Sebastian Hoyer hat geschrieben: So 18 Mär, 2018 14:09 Gibt es eigentlich vergleichbare Methoden für Nicht-Mega-Streamingkonzern-Filmer, die ein Video inhalts- bzw. einstellungsbasiert analysieren und den Codec und dessen Datenrate dahingehend optimieren können?
ich glaube, dass sich diese optimierungsnöte wirklich fast nur für derartige online-videoanbieter in solcher dringlichkeit stellen. solange man sich nicht selbst darum kümmern muss, dass die video-ströme tatsächlich in maximaler qualität auch noch über die schlechtesten leitungen vernünftig ausgeliefert werden können, kommt man auch mit einfacheren mitteln ganz gut ans ziel.

ich würde also glauben, dass für uns normalsterbliche die ffmpeg -crf und -tune optionen völlig ausreichen sollten, um im ansatz ähnliches zu erreichen bzw. eine einigermaßen realistische optimierung zu bewirken.

das problem ist eher, dass bspw. bei youtube ja auch bereits diese -crf mechnismen nicht genutzt werden, weil ihnen das beim reencoden der hochgeladenen clips zu viel rechenzeit verschlingen würde. so gesehen ist sind also die möglichkeiten, die den meisten zur tatsächlichen auslieferung zur verfügung stehen, leider oft noch begrenzter, als es am eigenen rechner mit hilfe freier werkzeuge eigentlich bereits möglich wäre.
Sebastian Hoyer hat geschrieben: So 18 Mär, 2018 14:09 Ist doch in Zukunft auch sicher was für neuronales Netzwerk/ AI, die dann Dialog-, Action-, High Key-, Low-Key-Szenen von einander unterscheiden kann und diesen optimierte Datenraten zuweist. Oder ist das im Artikel erwähnte Netflix Video Encoding Optimization Framework ein neuronales Netzwerk?
natürlich könnte man auch derartige mechanismen einsetzten, um eine kategorisierung od. optmierung der kompression vorzunehmen. ich glaube aber eigentlich gar nicht, dass das hier gemacht wird.

u.a. auch deshalb, weil es zwar mittlerweile sehr viele gut funktionierende modelle gibt, um heruasgelöste standbilder mit derartigen techniken zu analysieren, aber genau das, was beim medium film darüber hinaus geht -- die sequenzielle natur und das nebeneinander von bild und ton -- wird momentan nur von sehr wenigen akademischen ansätzen ernsthaft mitberücksichtigt. diese geschichten, bzw. die anwendung von RNNs und LSTMs etc., findet man momentan viel eher im soundumfeld od. bei der auswertung deutlich einfacherer sequentiell strukturierter daten.
Sebastian Hoyer hat geschrieben: So 18 Mär, 2018 14:09 Zugegeben: Ich weiß von technischen Neuerungen in der Delivery Codec-Welt so gut wie nichts; wenn ich H264 oder H265 abliefern muss, geht's ab nach Handbrake und mehr "Sorgen" mach ich mir zu dem Thema normalerweise nicht. Oft mit mehr oder weniger zufriedenstellenden Ergebnissen.
wie gesagt -- ich glaube, dass es schon einigen sinn macht, langsam auch VP9 ein bisserl ernster zu nehmen, da es gewissermaßen doch bereits als vorbote des sich ankündigenden AV1 standards zu verstehen ist.