Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // FFmpeg 1.0



Newsmeldung von slashCAM:






Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
FFmpeg 1.0


Space


Antwort von der_typ:

ich bin da etwas ahnungslos... bringt ProRes irgendwas sinnvolles?

Space


Antwort von CameraRick:

Nun, ProRes ist ein sehr mächtiger Intermediate Codec der in jeder Einstellung 422 10bit bringt, und sogar 444 12bit kann.
Auf Windows gabs im MOV Container noch DNxHD, das braucht aber sehr viel höhere Datenraten und ist für meine Begriffe nicht besser. CineForm ist toll, aber dann muss man immer sicher stellen, dass jeder in der Pipeline auch Cineform hat.

Gerade wenn man mit Mac-Leuten zusammen arbeitet ist es schön, wenn man ProRes nicht nur importieren, sondern auch exportieren kann; ich finde das ist eine wahnsinnige Entwicklung.


Liebe Grüße

Space


Antwort von Alan Smithee:

ich bin da etwas ahnungslos... bringt ProRes irgendwas sinnvolles? Das ist ungefähr so sinnvoll wie alle andern Codecs auch!
Ist doch schön, das dieser in der Apple-Welt recht verbreitete Codec unterstützt wird.
(Und wenn Du ihn nicht brauchst, dann kannst Du ihn auch einfach ignorieren.)

Space


Antwort von WoWu:

Und was ist daran jetzt so neu ?
FFmpeg unterstützt ProRes seit dem Release vom 29. Oct 2011

Space


Antwort von deti:

... man kann es scheinbar nicht oft genug erwähnen. Komisch nur, dass wir an keiner Stelle jemals ProRes verwendet haben ;-)

Deti

Space


Antwort von Alf_300:

Kein Windows User braucht Prores

Space


Antwort von gref:

… geht hier jetzt gleich wieder dieser kleinkarierte "windows vs mac"-blödsinn los?

Space


Antwort von WoWu:

nee, gar nicht.... MAC User brauchen ja auch eigentlich kein ProRes

Space



Space


Antwort von gref:

nee, gar nicht.... MAC User brauchen ja auch eigentlich kein ProRes Nicht zwingend… aber schlecht ist er nicht, dieser Codec. Gibt ja auch einige Hardware, die ihn unterstützt.
Auf alle Fälle hat er ein recht gutes Platz/Leistungsverhältnis.

Space


Antwort von WoWu:

Interessanter Weise ist der Ruf besser, als die Performanz, denn das, was drin steckt ist eine alte MPEG2 DCT.
Man könnte als sagen, ProRes ist ein Codec zwischen MJPEC und MPEG2, noch dazu proprietäre.
Und gebraucht wird er auch nur, weil Apple moderne Standards nicht unterstützt ... egal aus welchem Grund.
Gespannt bin ich mal auf den Intermediate Codec, der auf der Basis von MPEG4 angekündigt ist.
Das wäre endlich etwas Zeitgemässes.

Space


Antwort von Jott:

"The next big thing" aus Meister wowus erbaulichem Anti-Apple-Geschichtenbüchlein: ProRes ist nur irgend etwas Uraltes, was keiner braucht, und obendrein proprietär.

Aua. Immer wieder lustig! Haben Arri, Blackmagic, Aja, Atomos und all die anderen das auch schon mitbekommen?

Space


Antwort von WoWu:

Falsifizier doch.
Oder kannst Du das auch nicht.

Space


Antwort von Jott:

Nö, falsifizieren ist unnötig. Mit deinen Worten: du bist nicht satisfaktionsfähig! :-)

Keine Ahnung, in welcher Produktionswelt du dich bewegst - aber ProRes ist neben MPEG 2 der Quasi-Standard für Materialaustausch und -übergabe, auch systemübergreifend. Daher ist es auch ziemlich doof von Apple, ProRes-Encoding nicht offiziell für Windows freizugeben.

Space


Antwort von WoWu:

Na siehst Du, Sprüche kloppen und nix dahinter und immer treu glauben, was dir die Werbeleute so einflüstern.
Leg Dich wieder hin.

Space


Antwort von Jott:

Gerne. Ich will mir gar nicht anmaßen, dir beim Sprücheklopfen das Wasser reichen zu wollen und überlasse dir diese Bühne hier. Immerhin nimmt dich hier - laut dieser lustigen Umfrage nach deiner Sendepause - die Mehrheit für voll, was auch sehr lustig ist.

Space


Antwort von gref:

… schon toll, wie schnell man hier 'ne verbale Klopperei anzetteln kann.

Space


Antwort von WoWu:

@gref
nee gar nicht, aber Mietmäuler haben nun mal den Job, dazwischen zu grätschen, wenn jemand was gegen das vertretene Produkt sagt, um so die Aufmerksamkeit vom eigentlich sachlichen Inhalt abzulenken.
Dafür werden sie bezahlt.

Space



Space


Antwort von Jott:

Realitätsverlust.

Space


Antwort von WoWu:

Nein, mein Lieber, das ist die einzige, noch halbwegs ehrenhafte Erklärung. Sonst wäre es nur mit Dummheit zu erklären und die will ich Dir gar nicht unterstellen.

Space


Antwort von Axel:

Interessanter Weise ist der Ruf besser, als die Performanz, denn das, was drin steckt ist eine alte MPEG2 DCT.
Man könnte als sagen, ProRes ist ein Codec zwischen MJPEC und MPEG2, noch dazu proprietäre.
Und gebraucht wird er auch nur, weil Apple moderne Standards nicht unterstützt ... egal aus welchem Grund.
Gespannt bin ich mal auf den Intermediate Codec, der auf der Basis von MPEG4 angekündigt ist.
Das wäre endlich etwas Zeitgemässes. WoWu, immer auf etwas gespannt, was es in der Zukunft eventuell mal geben wird. Früher oft verwendeter Spruch: Es bleibt spannend. Der ewig Unzeitgemäße. Seiner Zeit voraus, nicht gerade durch kühnen Geist, wohl aber durch schlichte Geringschätzung der Gegenwart. Nena hat das mal besungen: Irgendwie, irgendwo, irgendwann.

Das ist bestimmt wirklich die ärgste Form von Realitätsverlust.

Space


Antwort von Jott:

Na gut, niemand verwendet ProRes da draussen. Arri nimmt das nur deshalb für die Alexa, um die Dummen zu bedienen. Endlich ist das mal geklärt! :-)

Space


Antwort von WoWu:

Ja, als Proxy

@Axel,
lies mal die Postings ein bisschen zurück (so ein paar Jahre) , wann ich H.264 als den kommenden und weiterführenden Codec bezeichnet habe und Leute, wie Du schallend gelacht haben.

Ich denke, nach Realitätsverlust wirst Du erst einmal bei Dir selbst suchen müssen.....

Space


Antwort von Thunderblade:

Na gut, niemand verwendet ProRes da draussen. Arri nimmt das nur deshalb für die Alexa, um die Dummen zu bedienen. Endlich ist das mal geklärt! :-) Ja, als Proxy Nein nicht NUR als Proxy.
http://www.arri.com/camera/digital_came ... odecs.html

ARRi selbst empfiehlt die beiden Großen ProRes Varianten (4444 + 422 HQ)
auch für Fernsehen und Kino mit viel Color Grading.

Und auch bei sämtlichen vergangenen ALEXA Werbe und Fernsehspielfilm Drehs in denen ich involviert war wurde auf ProRes gesetzt.

ARRIRAW wird wenn überhaupt für Kino (und auch das noch recht selten) oder extrem große TV-Projekte verwendet.

Mit RAW wollen sich nur sehr wenige Post Production-Häuser rumschlagen (das ist auch mit der Hauptgrund warum RED-Kameras sich bisher nicht durchsetzen können und die ALEXA zur Zeit 85 Prozent Marktanteil an weltweiten TV-Produktionen besitzt).
Bei vielen Projekten ist halt nicht das Geld da um eine aufwendige RAW Postproduction durchzuführen, da punktet ProRES durch den extrem simplen und schnellen Workflow).

Space


Antwort von Jott:

Blödsinn, Proxy. Wird mit Handkuss genommen, angefangen mit der gesamten Werbebranche. Deshalb betteln auch die RED-User ständig nach einem ProRes-Modul, weil der blitzschnelle Workflow nun mal gefordert wird. Du bist einfach kein Maßstab mit deiner festgefahrenen Meinung. Aber die darfst du natürlich haben.

Hups, Thunderblade war schneller.

Space


Antwort von WoWu:

Deswegen bleibt es trotzdem ein Proxi. Sowas hat ja gerade den Sinn, dass man das Signal Vorort benutzen kann, sicher aber nicht, weil es eine bessere Qualität als der eigentlich Codec hat.
Früher haben auch Aufnahmen aus FBAS Ausgängen gereicht obwohl SDI zur Verfügung stand.

Aber wie auch immer, es geht nichts daran vorbei, dass ProRes sich einer uralten DCT bedient, obwohl es mittlerweile weiterreichende Verfahren gibt.
Wer mit den Fehlern leben kann ... prima. Jedenfalls ist das Verfahren mittlerweile billig in den Lizenzen. Auch ein Vorteil, der eine Verbreitung fördert.
Es gibt schon einige Gründe, warum man solche alten Verfahren benutzt.
Natürlich auch den, dass die erforderliche Hardware "schlicht" gehalten werden kann. Wenig Performanzanforderung = preisgünstige Rechner.
Es gibt schon gute Gründe.

Und klar, da gehören Low-Budget Produktionen auch zu, aber ARRI bietet ja nicht nur Profess als Alternative an sondern auch DNxHD.

Und was RED betrifft ... die wissen schon warum sie es nicht tun.

Space


Antwort von Jott:

Sie tun's aber doch. Angekündigt für November. Epic und Scarlet werden mit einem Modul für ProRes und DnXHD (und einiges mehr rund um Apple) beglückt. Zu einem sehr selbstbewussten Preis.

Space



Space


Antwort von WoWu:

Ist das die Notlösung weil Apple die RED ohnehin nicht unterstützt ?

Und wenn ProRes so ein toller Codec ist, warum nehmen sie dann eigentlich DNxHD noch dazu .... ?
Dann hätte der "Leuchtturm" ja gereicht.

Space


Antwort von Thunderblade:

Und was RED betrifft ... die wissen schon warum sie es nicht tun. Zitat Jim Jannard August 2012:
,,We need to do a lot of things better. We need to have a more stable platform. We need DNX-HD and ProRes support''

Space


Antwort von WoWu:

Wie gesagt ... Reissleine, um überhaupt auf die Computer zu kommen denn bisher hat Apple da ja, was RED und andere hochwertige Codecs betrifft, versagt.

Und heisst das, dass sich RED vom RAW verabschiedet oder ist das auch nur wieder ein Proxy?

Space


Antwort von Alf_300:

Große Diskussion nur weil ffmpeg nun u.a. auch Prores kann, da würde mich doch glatt interessieren wer hier ffmpeg nutzt.
Braucht man das bei Avid, FCP(X) oder Premiere ?

Bei Blue Jeans nennt man das Stonewashed, wenn man aus einer alten Jeans eine alte gebrauchte macht weil die so Toll sind

Space


Antwort von gast5:

Meine Güte, der eine Fred ist tot und nun geht's hier weiter.. Plötzlich ist prores nur noch ein Proxy Codec und schlechter als dnxhd obwohl er aus der 5en Rippe von dnxhd stammt....

Der Abend ist gerettet ....

Space


Antwort von Axel:

Ja, als Proxy

@Axel,
lies mal die Postings ein bisschen zurück (so ein paar Jahre) , wann ich H.264 als den kommenden und weiterführenden Codec bezeichnet habe und Leute, wie Du schallend gelacht haben.

Ich denke, nach Realitätsverlust wirst Du erst einmal bei Dir selbst suchen müssen..... 2007 war H.264 bereits der populärste Codec für die Videoportale. Für die Bearbeitung mit zeitgenössischen Rechnern war es ungeeignet, man hatte die Wahl zwischen Intermediates und HDV. Heute sieht die Sache anders aus, aber ProRes ist halt immer noch der populärste Performanz-Codec. Dass du dich da verritten hast und nicht die Eier, das einzugestehen, ist für dich typisch. Mich als realitätsfern zu bezeichnen, empfinde ich übrigens nicht als Kränkung. Realität? Was soll das sein? Ich weiß, dass ich nichts weiß.

Space


Antwort von WoWu:

Heute sieht die Sache anders aus siehst Du, ich reagiere damit auch nur auf deinen Einwurf, dass Leute, die einwenig über den Tellerrand hinausschauen, Phantasten mit Realitätsverlust sind.
Man sollte andern erst Realitätsverlust vorwerfen, wenn man selbst in der Gegenwart angekommen ist.

Früher hat man auch geglaubt, die Erde sei eine Scheibe und denen, die das geleugnet haben, hat man auch Realitätsverlust vorgeworfen, nur weil Leute, wie Du noch nicht in der Gegenwart waren oder andere niedrige Motive hatten und ausserdem nie über den Tellerrand hinaus geschaut haben.

Das ist aber kein Defizit derer, die über den Tellerrand sehen, sondern derer, die es nicht tun.
Du weisst doch: Das Unglaubliche ist immer möglich.

Nur eins musst Du mir erklären... wenn Du selbst nicht weisst, was Realität ist, Realität? Was soll das sein? wie kannst Du andern dann deren Verlust vorwerfen? Das ist bestimmt wirklich die ärgste Form von Realitätsverlust. Weisst Du eigentlich immer, was Du schreibst ?

Space


Antwort von gast5:

Hier ist ein interessanter Beitrag auf Redshark von David Sharon erschienen der das ganze recht gut erklärt und auf den Punkt bringt..

http://www.redsharknews.com/post/item/8 ... and-prores

Sie sind durch Entwicklung von lightworks angehalten alles zu bedienen und müssen sich mit allen Codecs auseinandersetzten..

Rob Fearnside der über lange Jahre bei QUANTEL in der Entwicklung war sieht das in ähnlicher weise und ist in Moment mit der Linux Portierung eingespannt die am 30 Okt. in den öffentlichen Test geht..

Space


Antwort von WoWu:

Jau kenne ich schon. Das ist dem Grund ähnlich warum wir damals VHS und nicht Betamax bekommen haben.

Space



Space


Antwort von Skeptiker:

ProRes benutzt DCT (Dicrete Cosine Tranformation)
REDCODE RAW benutzt Wavelet Transformation

Was das im Detail bedeutet, müsste ich als Nicht-Mathematiker auch nachlesen und versuchen zu begreifen.
Und wenn das eine Verfahren bei bestimmter Datenrate von der Qualität her klar besser ist, aber in der Praxis daran scheitert, dass die Kompression / Dekompression zu aufwändig ist, dann kommen wir auch nicht weiter.

DCT war ja auch für DV das angewandte Verfahren und erlaubte als Einzelbild-Codec 1. einen absolut flüssigen Schnitt und hatte 2. eine gute Qualität (bis auf das Aliasing-Problem).

Was mich aus der Amateur- und Semi-Pro-Perspektive stört, ist, dass mit H.264 AM ANFANG der Aufnahmekette ein super-komprimierender Codec steht, der dann zum Schnitt in einen weiteren, zwar weniger komprimierten, aber dennoch komprimierten Intra-Codec umgerechnet wird (z.B. ProRes), um anschliessend z.B. zur platzsparenden Ablage auf DVD/Blu-Ray wiederum nach H.264 gewandelt zu werden.

Macht eigentlich keinen Sinn.

Und der Grund sind nach wie vor die Datenfluten von HD, die nur so auf den SD-Speicherkarten der Kameras Platz finden bzw. schnell genug darauf geschrieben werden können.

Ausweg: SSDs wie in Blackmagics Cinema Cam.
Die sind zwar schnell, aber im Vergleich auch schwer.

Und wie geht's weiter ?
Wann kommt endlich 2K weniger komprimiert (z.B. als ProRes oder meinetwegen 'Wavelet Pro HD') in die Kameras auch für Amateure und Semi-Pros ?

Gar nicht !

Weil:
4K und H.265 sind bereits am Horizont und dann wird wohl komprimiert auf 'Teufel komm raus' !

Space


Antwort von WoWu:

Was mich aus der Amateur- und Semi-Pro-Perspektive stört, ist, dass mit H.264 AM ANFANG der Aufnahmekette ein super-komprimierender Codec steht, der dann zum Schnitt in einen weiteren, zwar weniger komprimierten, aber dennoch komprimierten Intra-Codec umgerechnet wird (z.B. ProRes), um anschliessend z.B. zur platzsparenden Ablage auf DVD/Blu-Ray wiederum nach H.264 gewandelt zu werden. Und das ist eben der Trugschluss.
H.264 lässt ebenso, wie MPEG2 auch I-Frames zu, sogar aufgesetzt auf einer modernen DCT (IDCT), bei der ein Grossteil der Fehler der 30 Jahre alten DCT beseitigt worden sind.

Warum also einen Codec als das Maß aller Dinge hinstellen, wenn die Technik bereits 30 Jahre weiter ist.
Auch die Bewegungsprädiktion ist ja nicht stehen geblieben. In jeder lausigen AVC Kamera ist eine deutlich besser Bewegungsvorhersage, als in der transcodierten intermediate Version.
Das Bild wird also bei der Transcodierung nicht verlustfrei übernommen und man wird hinterher nicht wider die Ausgangsqualität erhalten.

Mit andern Worten: Die Wirtschaft ... und allen voran Apple, macht sich da einen schlanken Fuss und benutzt einen billigen, alten Codec, der eigenen, wirtschaftlichen Interessen wegen, wissend, dass es bereits bessere Lösungen am Markt gibt.
Die sind zwar etwas teurer, weil Apple an der Entwicklung von H.264 nicht wirklich beteiligt war und nur ein, von mehr als 1.300 Patenten hält, aber ist das Grund genug, dem Konsumenten altes Zeug zu verkaufen.
Nichts gegen einen intermediate Codec, solange die Computer noch so schwach sind, aber warum einen I-Codec, der nicht State of the Art ist?
Apple verdient nur eben an MPEG2 mehr als an MPEG4, weil die Leistung Andere erbracht haben.

Wie ich schon sagte .... das ist, wie VHS und Beta, damals.
Bilder haben auch beide System gemacht.

Space


Antwort von Skeptiker:

...
H.264 lässt ebenso, wie MPEG2 auch I-Frames zu, sogar aufgesetzt auf einer modernen DCT (IDCT), bei der ein Grossteil der Fehler der 30 Jahre alten DCT beseitigt worden sind. I-Frame MPEG-2 gibt's als 'Apple Intermediate Codec' auf dem Mac und All-I AVCHD hat in der Canon 5D Mk III und in der Panasonic GH3 Einzug gehalten (und gibt's als AVC-Intra 50 bzw. 100 schon länger in Pro Video Cams)

Braucht etwa das 3-fache an Speicherplatz, bietet gemäss slashcam Vergleichstest in der 5D Mk III keine sichtbar bessere Bildqualität, aber man freut sich spätestens beim Schnitt, dass alles flüssig läuft.

Wünschenswert wäre eigentlich ein Open Source Projekt, um unabhängig von Firmeninteressen zu sein.
Vielleicht könnte man - so ähnlich wie bei Xvid versus DivX - eine Open Source Variante von AVCHD kreieren - am liebsten mit All-I.

Space


Antwort von HT:

Was mich aus der Amateur- und Semi-Pro-Perspektive stört, ist, dass mit H.264 AM ANFANG der Aufnahmekette ein super-komprimierender Codec steht, der dann zum Schnitt in einen weiteren, zwar weniger komprimierten, aber dennoch komprimierten Intra-Codec umgerechnet wird (z.B. ProRes), um anschliessend z.B. zur platzsparenden Ablage auf DVD/Blu-Ray wiederum nach H.264 gewandelt zu werden. Und das ist eben der Trugschluss.
H.264 lässt ebenso, wie MPEG2 auch I-Frames zu, Ach ja H.264 eines der wohl von vielen Amateuren am meisten unterschätzten Formaten.
Ich habe mich sehr amüsiert alsn das gerücht aufkam die GH3 behersche neben H.264 nun auch MP4 und AVC-Intra. Nun darf jeder einmal raten was in diesem MP4 Container wohl drin ist und was das ganze mit AVC-I zu tun hat.

Space


Antwort von WoWu:

@Skeptiker
Das wird nicht so einfach sein, weil schon x.264 einen ganzen Haufen, patentgeschützter Tools aussparen muss.
An H.264 waren über 300 Firmen beteiligt, die Ihr Know-How über die, von ihnen bezahlten Entwicklungsabteilungen eingebracht haben.
Solche Investitionen kommen in der Regel über die Lizenskosten zurück.
Wer viele Patente hält, bekommt was raus, wer wenige oder keine Patente hält (so wie Apple), muss einzahlen, wenn er den Codec einsetzt.
Das ist schon ganz ok.
Aber dass Apple uns nun das VHS der Neuzeit unterjubelt kanns doch wirklich nicht sein.

@HT Ich habe mich sehr amüsiert alsn das gerücht aufkam die GH3 behersche neben H.264 nun auch MP4 und AVC-Intra. Nun darf jeder einmal raten was in diesem MP4 Container wohl drin ist und was das ganze mit AVC-I zu tun hat. Natürlich ist H.264 der Codec dahinter, aber die unterschiedlichen eingesetzten Tools schlagen sich in den Profiles und Level von AVC nieder. Diese Tools waren vermutlich damit gemeint. Insofern ist die Differenzierung vielleicht einwenig ungeschickt, aber schon korrekt gemeint.

Space


Antwort von Skeptiker:

Was ist denn eigentlich der Grund, dass so ein alter Codec wie MPEG-2 (der Name steht gleichzeitig wohl auch für einen 'Container') nach wie vor in Pro-Kameras von Canon und Sony eingesetzt wird - mit etwa der doppelten Datenrate von H.264 ?

Reine Nostalgie kann es ja nicht sein !

Hat das etwas mit dem Editing zu tun ?

Space


Antwort von WoWu:

Nein, mit wenig Implementierungsaufwand, geringer Prozessoranforderung und damit auch mit der zeitlichen Präsenz am Markt.
Sony hat übrigens einen deutlich höheren Lizensanteil an MPEG2 und daher am Überleben angesichts der angespannten Finazlage ein deutliches wirtschaftliches Interesse.
(No money out of pocket)

Space


Antwort von Abercrombie:

Es geht doch gar nicht darum, das h.264 der bessere Intermediat-Codec wäre, sondern dass Techniken, die unter anderem in h.264 zukunftsweisender sind, als die die noch in ProRes verwendet werden.
Natürlich wäre es sinnvoll, wenn Apple seinen Codec auf eine neue Version updaten würde und von diesen neuen Ideen Gebrauch machen würde.
Aber zur Zeit ist ProRes für jemanden, der mit verschiedenen anderen Post-Produktionshäusern zusammenarbeitet ein unkompliziertes (wenn auch leicht alterndes) Werkzeug.

Ich persönlich würde mich über eine Weiterentwicklung freuen, bin aber noch nicht an die Grenzen von ProRes gestoßen und freue mich, dass es auch noch ältere Rechner problemlos abspielen können.

Space


Antwort von Skeptiker:

Ich habe mich sehr amüsiert alsn das gerücht aufkam die GH3 behersche neben H.264 nun auch MP4 und AVC-Intra. Nun darf jeder einmal raten was in diesem MP4 Container wohl drin ist und was das ganze mit AVC-I zu tun hat. Natürlich ist H.264 der Codec dahinter, aber die unterschiedlichen eingesetzten Tools schlagen sich in den Profiles und Level von AVC nieder. Diese Tools waren vermutlich damit gemeint. Insofern ist die Differenzierung vielleicht einwenig ungeschickt, aber schon korrekt gemeint. Verständnisfrage:

AVCHD und H.264 sind verknüpft - das eine nicht ohne das andere.

AVC-Intra gibt's in den zwei genormten Sorten 50 und 100, die sich - neben der Datenrate - in Frame-Grösse und Farb-Sampling unterscheiden.

ALL-I ist ein Begriff, der bei der GH3 im Zusammenhang mit AVCHD aufgetaucht ist.

In beiden Fällen geht es um Einzelbild-Kompression statt 'inter-frame'.

Was ist der Unterschied zwischen All-I und AVC-Intra (ausser die Datenrate) ?

Ich hab's - einer bestimmt, statt 10 bit nur 8 bit Farbtiefe (zumindest in der 5D III und GH3).

Space



Space


Antwort von WoWu:

Das verstehe ich gut, aber das war eben bei VHS ähnlich.
Bilder haben auch beide Systeme gemacht und viele haben auch keinen Unterschied gesehen.
Und je mehr mitmachen umso zementierter wird die Lösung von gestern.
Das wird wohl auch dieses Mal so sein.

Und was das "nicht Sehen" betrifft ist natürlich immer eine Frage, wie genau man hin schaut.
Es hätte kein Grund bestanden, einen Codec mit viel Aufwand über 20 Jahre weiter zu entwickeln, wenn die Schwächen des alten Codecs nicht sichtbar gewesen wären.
Insofern kauft man sich eben (unnötiger Weise) etwas Bequemlichkeit mit schlechteren (als notwendig) Bildern ein.
Auch bei VHS hat jeder gesagt ... tolles Bild ... es hätte nur eben auch zu demselben Zeitpunkt besser sein können.
So ist das heute auch, nur auf höherem Niveau.

@Skeptiker
Erst einmal ist AVC-Intra ein eingetragenes Warenzeichen, wie auch AVCHD. Nicht jeder darf es benutzen aber jeder kann die Tools, die in AVC angeboten werden, für seine Implementierung benutzen, solange er die Lizenzen dafür zahlt.
All-I kann (muss nicht) also dasselbe beinhalten, wie AVC-I. Es kann (muss nicht) auch besser als AVC-I sein.
Deswegen ist das "aufbohren" eines GoP Formates in ein I-Frame in Bezug auf Bildqualitäten auch ziemlicher Quatsch, weil kein einziges zusätzliches, normalerweise in I-Frame Formaten benutztes, zusätzliches Tool dazu kommt. Die Decodierung ist nur einfacher, weil die "Verpackung" verändert wurde. Aber drin ist immer, was an Codieraufwand (in Form der Tools) benutzt wurde. Und nur für die unterschiedlichen Tools brauchst Du dann auch mehr Datenrate. Nur Datenrate, ohne Tools gibt nur "Nullen" im Datenstrom

Space


Antwort von srone:

soweit ich das verstanden habe, ist das mit h-264 plus diverser tools, schon clever gelöst, es findet sich immer noch eine produktnische, die nur die hälfte der eigentlichen spezifikation kann und das ganze wird einem dann als neu verkauft.

anders gefragt: wozu habe ich denn jetzt eine rakete von computer plus cuda, um mir die recordingzeit der karten zu dritteln (all-i), um dann einen "schnittfreundlichen" codec zu haben ?

lg

srone

Space


Antwort von Skeptiker:

... Die Decodierung ist nur einfacher, weil die "Verpackung" verändert wurde. Aber drin ist immer, was an Codieraufwand (in Form der Tools) benutzt wurde. Und nur für die unterschiedlichen Tools brauchst Du dann auch mehr Datenrate. Nur Datenrate, ohne Tools gibt nur "Nullen" im Datenstrom Danke für die Antwort. Ich ahne, was Du mir sagen willst.
Aber ich werde etwas über AVCHD lesen und versuchen, sie 'mathematisch' noch besser zu verstehen.

Freundlicher Gruss
Skeptiker

Space


Antwort von HT:

@HT Ich habe mich sehr amüsiert alsn das gerücht aufkam die GH3 behersche neben H.264 nun auch MP4 und AVC-Intra. Nun darf jeder einmal raten was in diesem MP4 Container wohl drin ist und was das ganze mit AVC-I zu tun hat. Natürlich ist H.264 der Codec dahinter, aber die unterschiedlichen eingesetzten Tools schlagen sich in den Profiles und Level von AVC nieder. Diese Tools waren vermutlich damit gemeint. Insofern ist die Differenzierung vielleicht einwenig ungeschickt, aber schon korrekt gemeint.
Klar, man weiß schon was gemeint ist, aber heutzutage wird einfach alles immer ducheinander geschmissen: ALL-I mit AVC-I, Container mit Codec, Implementierung mit Codec, usw.

anders gefragt: wozu habe ich denn jetzt eine rakete von computer plus cuda, um mir die recordingzeit der karten zu dritteln (all-i), um dann einen "schnittfreundlichen" codec zu haben ? Ich persönlcih denke dass die zunkunft zumindest im ENG, EB Bereich den GoPs gilt. Nichtdestotrotz hat All-I ein paar Vorteile: Einfacher Umgang mit Dateien: Auschnitt aus Dateien kann ohne großen Rechenaufwand erfolgen.
Die rechenzeit wird übrigens auch in der Kamera gespart. Gerade bei starken veränderungen im Bild bekommen stark komprimierte Codecs doch teilweise Probleme da die Chips überfordert sind.
Jede Rechenzeit die gespart wird, und sei der Computer noch so gut, kann in anderen Bereichen (Farbkorrektur ect.) verbraten werden.
GoPs haben teilweise doch einen Qualitätsverlust, wenn die Bewegungsvektoren nicht genau berechnet werden ect. . Der Fall dass aus einem All-I Material ein identisches GoP erzeugt wird ist nun mal ein Idealfall und nicht selbsverständlich.

Space


Antwort von Skeptiker:

Ich persönlich denke dass die zunkunft zumindest im ENG, EB Bereich den GoPs gilt. ... ... aber dann zählst Du alle Vorteile von i-Frame-Encoding auf !

Das ich mir eben im Bezug auf den Schnitt bereits in der Kamera wünschen würde.
... aber heutzutage wird einfach alles immer ducheinander geschmissen: ALL-I mit AVC-I, Container mit Codec, Implementierung mit Codec, usw. Es ist aber auch als Durchschnitts-Intelligenzler mittlerweile kaum mehr möglich, das alles sauber auseinanderzuhalten, geschweige denn, im Detail zu begreifen.

Nochmals gefragt: Ist ALL-I überhaupt an einen bestimmten Codec gebunden oder heisst das nichts weiter als intra-frame statt inter-frame Kompression ?

Ich versuche mal, die Antwort selbst zu geben:
'All-I' ist in der Panasonic GH3 als Variante von AVC-Intra installiert worden und auch bereits wieder so etwas wie ein Trade Mark, obwohl es vom Begriff her nicht mehr aussagt als: Alles komprimierte Einzelbilder.

Space


Antwort von WoWu:

Titel: Re: FFmpeg 1.0
Autor: srone vom: Sa 06 Okt, 2012 00:42
soweit ich das verstanden habe, ist das mit h-264 plus diverser tools, schon clever gelöst, es findet sich immer noch eine produktnische, die nur die hälfte der eigentlichen spezifikation kann und das ganze wird einem dann als neu verkauft.
Dabei wäre das so einfach. Man muss nur mal in den Datenstrom schauen und dann in die Spezifikation und schon wären Qualitäten (mal abgesehen, von schlechten Implementierungen) vergleichbar.
Macht nur keiner. Alle starren auf die Bitrate und leiten daraus die Qualität ab.
Bei All-I wird das ähnlich laufen ... statt mal abzulesen, was benutzt worden ist. Denn für jedes Tool und jede Kombination hat MPEG die obere, mögliche Bitrate angegeben "worst case" da nutzt dann auch kein einziges, zusätzliches Bit.
Aber wir werden sehen, dass sie sich alle wieder in der Bitrate überflügeln.

Es ist ja auch gar nichts gegen All-I einzuwenden, wenn der Rechner es nicht kann, nur wenn ich sehe, dass manche Leute ein XDCAM in ProRes überspielen, dann sagt das schon alles.

Space


Antwort von handiro:

Ich lese und freue mich: WoWu in seinem Element und ein paar Durchblicker mehr, die sich mal eingelesen haben.

Solange mein altes FCS mit XDCAM und AVCIntra so gut klarkommt wie bisher, sehe ich keinen Bedarf an Neuerungen. Die würden ja wohl mehr Bandbreite, mehr cpu, mehr Durchsatz heissen, und mich zwingen in neue schnellere hardware zu investieren.

Space


Antwort von WoWu:

Es besteht in den meisten Fällen auch kein Grund nur wenn ProRes eine Farbe hätte, hätte Apple es bestimmt weiss angemalt und es wäre sofort Kult.
Gut, Farbe hat es nicht aber auf dem Weg zum Kult ist es.
Was Marketing so alles in den Köpfen der Menschen bewirkt, heutzutage.

Space


Antwort von Skeptiker:

... Solange mein altes FCS mit XDCAM und AVCIntra so gut klarkommt wie bisher, sehe ich keinen Bedarf an Neuerungen. ... Das würde mir wohl genauso gehen mit meinem alten FCS, aber da ich kein Profi bin (und im Prinzip nicht mal eine einsatzfähige HD-Cam besitze - soll sich bald ändern ...), werde ich mich an meinem iMac wohl mit H.264 ohne 'All Intra' herumärgern müssen.
Bzw. in ProRes wandeln.

Mein Vorschlag an diejenigen im fernen Japan, die ausschliesslich Inter-AVCHD in den Nicht-Pro-Kameras implementieren:
Nehmt Euch ein Beispiel an Canon mit der 5D Mk III und Panasonic mit der GH3 !

Gebt den Filmern endlich die Wahl:

Diejenigen mit schnellem Computer filmen in Inter-AVCHD und haben dadurch 3x soviel Platz auf der SD-Speicherkarte.

Diejenigen mit schwachem Computer filmen in 'Intra-AVCHD' (genauer: dessen Variante 'All-I') und benötigen dafür ca. 3x mehr Speicherplatz. Dafür kommen sie fürs Editing (hoffentlich) ohne Umrechnen in ein Intermediate-Format aus.

Space



Space


Antwort von headroom:

Proxyproxyproxy!
Genau das Gegenteil ist der Fall, hoffe es kommt Ruhe in den Tread.

Super Artikel:
http://www.redsharknews.com/post/item/8 ... and-prores

Codec science is unbelievably complicated. You’re in very good company if you don’t understand, intuitively, why one type of codec is better than another - and, specifically, why an I Frame-only codec like ProRes or DNxHD is better than a long-GOP one like H.264: What that means with long-GOP that less than two percent of the original data is left in some cases....

Get it?

Space


Antwort von Axel:

Codec science is unbelievably complicated. Okay, gekauft.

Tatsache ist halt, dass H.264 seit Jahren fester Bestandteil unseres Lebens ist, dass aber in der Gegenwart All-I noch ein Sonderfall ist und die prognostizierte Implementierung als allround-Aufzeichnungs-Bearbeitungs- und Mastercodec mit Sicherheit weitere Jahre braucht. Die Software und die Hardware können heute Consumer-Mpeg4 in vollem Umfang verarbeiten, auch das ist klar. Jedem das Seine. Bessere Kompression, von der Ingenieure schwärmen, ist für Leute mit dem finanziellen Hintergrund und in der Nachbearbeitung auch für die ohne finanziellen Hintergrund eben heute noch weniger Kompression (man wird im übrigen sehen, wieviele BMCC-User sich Raw-Datenmengen tatsächlich antun und wieviele mit dem ach so veralteten ProRes-Kompromiss Vorlieb nehmen). Alles andere war schon immer dummes Geschwätz.

Space


Antwort von WoWu:

@headroomwhy an I Frame-only codec like ProRes or DNxHD is better than a long-GOP one like H.264: Es ist nirgend von long-GOP die Rede, aber I-Frame Codecs kann man auch auf einer zeitgemässen technischen Entwicklung implementieren. Dazu muss man nicht auf eine 30 Jahre alte Technologie zurückgreifen.
Es ist alles vorhanden und muss auch nicht erst entwickelt werden, wie Axel uns glauben machen möchte.

Es ist alles da. Andere Firmen haben es schon vor Jahren implementiert, Hacker können es und mittlerweile findet es nun auch in Foto-Video statt. Also, was soll der Blödsinn von wegen "Zukunftsmusik".

Es ist eben , wie mit VHS und Beta, damals. Es geht nur ums Geschäft.

Space


Antwort von Axel:

... aber I-Frame Codecs kann man auch auf einer zeitgemässen technischen Entwicklung implementieren. Dazu muss man nicht auf eine 30 Jahre alte Technologie zurückgreifen.
Es ist alles vorhanden und muss auch nicht erst entwickelt werden, wie Axel uns glauben machen möchte. Ich will gewiss niemanden glauben machen. Ich will konkret von dir wissen, worüber du sprichst. Über AVCIntra100? Wäre ja schonmal was.
Andere Firmen haben es schon vor Jahren implementiert, Hacker können es und mittlerweile findet es nun auch in Foto-Video statt. Also, was soll der Blödsinn von wegen "Zukunftsmusik". Das ist alles WoWu-typisch vage. Ich frage nach den konkreten Vorteilen real existierender Codecs, für die ich nicht hacken muss und die mein NLE akzeptiert, qualitativer Art, meinetwegen auch durch verminderte Datenrate (wen das brennend interessiert), gegenüber ProRes. Links, Downloads, Workflows. Kein Abdriften in Visuaheli. Mal gucken, was da kommt. Sollen andere entscheiden, ob es fundiert klingt.

Space


Antwort von Jott:

wowu weiß sicher auch, warum sogar das ZDF als letzte Panasonic-Hochburg das so "zeitgemäße" AVC Intra verschmäht und auf P2 das wirklich extrem angestaubte DVCPRO HD vorzieht, konkret zum Beispiel bei der Olympia-Berichterstattung aus London? Ist doch sein Steckenpferd, also müsste er was dazu wissen. Dass alle auf "VHS" stehen und "Betamax" links liegen lassen, muss ihn doch wahnsinnig machen?

http://www.film-tv-video.de/225.html?&t ... no_cache=1

Der Artikel gibt einen schönen Einblick in die Realität von heute am Beispiel der Olympiade: XDCAM HD bei der ARD, DVCPRO HD beim ZDF (anamorph!), verwurstet zu DNxHD (das ältere AVID-Gegenstück zu ProRes, ebenfalls ein "30 Jahre alter Intermediate Codec"). Das Ganze auch noch Interlaced wie in der Steinzeit. wowu musst doch richtig leiden, wenn er so was liest? Wäre es nicht an der Zeit, auch mal ein paar Cheftechnikern bei den Öffis zu zeigen, wo der Hammer hängt? Wie man zeitgemäß produziert? Die brauchen einen Messias wie wowu.

Space


Antwort von Thunderblade:

Diejenigen mit schnellem Computer filmen in Inter-AVCHD und haben dadurch 3x soviel Platz auf der SD-Speicherkarte.

Diejenigen mit schwachem Computer filmen in 'Intra-AVCHD' (genauer: dessen Variante 'All-I') und benötigen dafür ca. 3x mehr Speicherplatz. Dafür kommen sie fürs Editing (hoffentlich) ohne Umrechnen in ein Intermediate-Format aus.
Also ich habe mit dem Interframe Material aus den Canon DSLRs in Premiere Pro CS 5.5 auf einem iMac absolut keine Performance Probleme.
Wenn Premiere Pro das nativ schluckt, uns die Bearbeitung flüssig läuft gibt es doch eigentlich keinen Grund das Material in einen Intermediate-Codec wie ProRes zu konvertieren, oder? (Unterstützt Premiere Pro überhaupt ProRes???)

Space


Antwort von Axel:

Also ich habe mit dem Interframe Material aus den Canon DSLRs in Premiere Pro CS 5.5 auf einem iMac absolut keine Performance Probleme.
Wenn Premiere Pro das nativ schluckt, uns die Bearbeitung flüssig läuft gibt es doch eigentlich keinen Grund das Material in einen Intermediate-Codec wie ProRes zu konvertieren, oder? (Unterstützt Premiere Pro überhaupt ProRes???) Wenn in Quicktime der Decoder ist (bei FCP auf dem Rechner ist freilich der Encoder auch mit dabei).

Ansonsten hast du Recht. Erstaunlich, dass WoWu im kolumbianischen Dschungel seit einem Jahr mit seinen "Editoren" mit MacBooks händeringend mit FCP X und seiner GH2 rumirrt. Premiere ist die native Lösung, lüppt auch auf Mac. Ich kenne allerdings Leute, die auf dieser Plattform in After Effects trotzdem ProRes benutzen. Mietmäuler die.

Space


Antwort von gast5:

Mich wundert immer wieder das User auf diesen unnötigen und zu Tode diskutierten Blödsinn aufspringen..in periodischen Schüben kommt immer wieder der gleiche Schmonzess... Früher war es das Thema mpeg2 ist vor dem sterben, davor Mjpeg und nun ist prores dran... Nächste Woche ist dann dnxhd dran..

Es ist so scheints noch nicht durch das h264 egal in welcher Form der einzige Heilsbringer ist bei ihm obwohl sich durch die letzten Jahre gezeigt hat das dies nicht geschehen ist..

Da war davon die rede das die Fernsehsender allesamt auf AVC-Intra von Panasonic umschwenken.. Nada Nüsse pana Sony und alle anderen teilen sich das Feld immer noch egal ob bei ZDF , ARD orf usw usw.. Nichts wurde aus der Monokultur, im Gegenteil.. Sein Wissen in Ehren aber sein Blick in die Glaskugel ging eindeutig am Ziel vorbei. Im Gegenteil andere Technologien stehen schon wieder in den Startlöchern...

das Netz ist voll von Test, Hintergrundinformationen und Publikationen zum Thema Codecs die all diese Themen fundamentiert aufgreifen ohne die Propaganda Maschine anwerfen zu müssen..

Space


Antwort von WoWu:

@Axel

Vielleicht nicht gerade über AVC-I, weil das eine Panasonic eigene Implementierung ist, aber eine, von mir aus auch Apple eigene Implementierung, auf der Basis einer zeitgemässen Transformation.
Und nicht auf dem Technikstand von DV. Aber dass erklärt natürlich auch, warum ProRes seine höchste Effizienz bei SD hat.
Ich frage nach den konkreten Vorteilen real existierender Codecs, für die ich nicht hacken muss und die mein NLE akzeptiert,
Du vermengst wieder das Problem GoP mit dem hier besprochenen Problem einer andern Codec Aufbereitung.
Den Unterschied zwischen MPEG2 und MPEG4 hab ich nun schon etliche Male erklärt. Warum hat Apple also kein All-I Format auf moderner Technologie aufgebaut?
Wenn ein Videostrom ohnehin decodiert werden muss und aufgrund der Rechnerschwäche (was ich so nicht mal glaube) in I-Frames umgewandelt wird, dann erklär mir mal, warum ich dazu eine 30 Jahre alte DCT benutzen muss.
Die Unterschiede, um nur einige zu nennen, liegen darin, dass eine deutlich bessere Vorhersage von Bildteilen erfolgen kann, weil sich keine Rundungsfehler mehr aufschaukeln. Ein anderer Bereich liegt im Bitzuweisungsprozess, der im System festlegt, wieviel Bits, wofür benutzt werden. In der Codierung ist ein weiterer Vorteil die Intra Prädiktion, die gibt es bei MPEG2 überhaupt nicht. Bei einer 4x4 oder 8x8 Prädiktion geschieht das aus 9 Richtungen. MPEG2 , mit seiner 16x16 Prädiktion kennt das nur in 4 Richtungen. Das schlägt sich im Farbverlauf nieder. Filter, die in H.264 definiert sind, gibt es z.Tl. in MPEG2 überhaupt nicht.
Es gibt noch ein paar Unterschiede ... aber dann beschwerst Du Dich wieder, dass es unverständlich ist, aber die habe ich sicher in der Vergangenheit schon ein paarmal aufgeführt.
Es geht hier also gar nicht um GOP oder All-I Frame sondern darum, warum Apple die Entwicklung von 25 Jahren seinen Kunden vorenthält.
Meine Antwort darauf hab ich schon geschrieben .... Gewinnmaximierung.
MPEG2 ist mittlerweile fast kostenlos zu haben, nachdem MPEG-LA angesichts von MPEG4 die Beträge fast auf Null reduziert hat.
Apple (und auch Sony) haben bei MPEG4 kaum nennenswerte Entwicklungsarbeit geleistet und gehören zu den Zahlern.
Da wird eben auf dem Rücken der Konsumenten einfach gespart.

Ansonsten Gegenfrage: warum sollte man keinen modernen Codec benutzen?
Was spricht dagegen ... und nun bitte nicht wieder GOP und All-I verwechseln.
Erstaunlich, dass WoWu im kolumbianischen Dschungel seit einem Jahr mit seinen "Editoren" mit MacBooks händeringend mit FCP X und seiner GH2 rumirrt. Axel, angesichts fehlender Argumente greifst Du mal wieder zur Polemik.
ich irre weder im Dschungel umher, das zeigt, dass Du solche Länder nicht wirklich kennst, sondern arbeite in einer Stadt mit 11 Millionen Einwohner, noch irre ich mit MacBook iund G2 umher, denn das Einzige, was da läuft sind Versuche, eine dezentrale Infrastruktur mit fast 80 angeschlossenen Freelanzern auf der Basis eines dezentralen Workflows auf die Beine zu stellen und sich die meisten Freelanzer nicht viel mehr als ein MacBook leisten können. (Aber Apple sagt ja, es soll funktionieren).
Und was die GH2 betrifft, so ist sie "Opferkamera" und tut ausschliesslich da ihre Dienste.
Du solltest Dich vorher und besser informieren, bevor Du so einen Schmarn schreibst.

Space



Space


Antwort von Jott:

Da es eigentlich um ProRes geht und viele nicht wissen, was das ist und wozu der "30 Jahre alte Codec" gut ist, hier mal zwischendrin etwas Lesestoff von der Quelle.

http://images.apple.com/support/finalcu ... y-2009.pdf

Space


Antwort von Axel:

@WoWu
Ich versuchte lediglich, auf deine Kosten witzig zu sein.

Den Qualitätsverlust durch die sich aufschaukelnden Rundungsfehler könnte Intra-Prädiktion also vermeiden? Prima, wenn es so kommt, freu ich mich drauf. Im Augenblick benutzt man ProRes und Konsorten um Rundungsfehler im änderungsintensiven Umgang mit stark verlustbehafteten Codecs wie Consumer-H.264 zu minimieren.

Space


Antwort von WoWu:

Ich versuchte lediglich, auf deine Kosten witzig zu sein. Es ist schade, dass Du Dich mit solchen Sachen disqualifiziert. Bisher hab ich immer gedacht, und den Eindruck gehabt, das Du einer sachbezogenen Diskussion nicht auswichst und mich daher auch bemüht, Deine Fragen bestmöglich zu beantworten.
Aber das scheint sich erledigt zu haben.

Space


Antwort von Skeptiker:

Da es eigentlich um ProRes geht und viele nicht wissen, was das ist und wozu der "30 Jahre alte Codec" gut ist, hier mal zwischendrin etwas Lesestoff von der Quelle.

http://images.apple.com/support/finalcu ... y-2009.pdf Das ist doch mal ein konstruktiver Beitrag.

Ich habe dieses White Paper schon mal gelesen, aber wusste nicht mehr, was genau drinsteht.

Bei der Lektüre zu DV und ProRes auf Wikipedia hatte ich den Eindruck, dass ProRes so etwas wie der verbesserte DV-Codec in HD ist - beide DCT, beide etwa 1:5 komprimiert (nur der Codec - davor bereits Datenreduktion durch Farbsampling - bei DV waren es 50% mit 4:2:0 PAL), beide All-I.

@WoWu und die Anti-WoWus

Ich hoffe wirklich, dass diese interessante Diskussion nicht ins Polemische abdriftet, sondern zivilisiert bleibt !
Warum nicht WoWus Grundsatzargumente einfach mal zur Kenntnis nehmen, ohne sich gleich im ProRes-Selbstverständnis bedroht zu fühlen. Da fällt doch keinem Apple User ein Zacken aus der Krone (mir jedenfalls nicht). Es geht um eine Analyse, nicht um Glaubensfragen.
Aber natürlich haben die Praktiker auch Recht, wenn sie sagen, "ProRes ist verbreitet, funktioniert und hilft uns beim täglichen Editing und Datenaustausch - so what ? Klar gibt's vielleicht besseres, aber ProRes ist nun mal da, gut etabliert und tut seinen Dienst."

Es muss doch möglich sein, in diesem Spannungsfeld zu dikutieren, ohne dass die eine Seite der anderen gleich Idiotie und Realitätsverlust um die Ohren haut.
Ansonsten warten wir eigentlich nur noch auf vfxhansi, der alles kurz und klein schlägt, und dieser - ich sage es nochmals - interessante Thread landet wieder im Off-Topic !

Space


Antwort von Skeptiker:

Und gleich noch eine Frage an die H.264-Experten:

Ich habe nach wie vor den Eindruck, dass H.264, so wie es als Inter-AVCHD in den Consumer-Cams installiert ist, das Bild übermässig glättet. Es sieht mir einfach nicht natürlich genug aus. Oder ist es einfach zu stark komprimiert ?

Dieser Eindruck wird dadurch bestärkt, dass ich bei meinem Hauppauge HD PVR mit H.264 / 50i(bzw., was das Original-Material vorgibt)-Hardware Encoding von S-Video-In oder Component-In (Digital Video-In gibt's nicht) immer wieder erstaunt bin, wie geglättet verrauschtes SD-Material nach dem Encoding aussieht, selbst wenn ich in den Settings die Bildglättung auf 0 stelle und die maximale (konstante) Datenrate von 13.5 Mbit/Sec auswähle.

Space


Antwort von WoWu:

@Skeptiker

Solche Papiere beschreiben leider keines der eigentlichen Probleme.
Losgelöst von den oben schon aufgeführten Grundsätzlichen Unterschieden im Fortschritt der Codecentwicklung, birgt ProRes auch noch ein paar andere, hausgemachte Probleme, die sich auf das Bild auswirken und besonders dort auftreten, wo man es mit einer 8 Bit Ausgangsbasis zu tun hat und gerade in den höherwertigen ProRes Varianten auftritt.
Das hat damit zu tun, das Apple vorhandene 8 Bit in seinem 10Bit Datensatz so verteilt, dass eine CPU freundliche Wiedergabe möglich ist, hat aber den nachteil, dass Aspekt Ratio verändert wurde und nicht der vollständige Bild-datensatz übertragen wurde. Das hat zu Errormeldungen, z.B. in einer Bearbeitung mit Shake oder AE geführt.
Solche nicht kompletten Bilder haben dann auch immer am Kona dazu geführt, dass, wenn der Frame Buffer ausgelesen wurde, die rote Lampe anging.
Und noch so ein paar Extras leistet sich ProRes.. aber das sind eben Dinge, die in solchen Beschreibungen gern verschwiegen werden.

Bottem Line:
ProRes ist ganz sicher dort eine Hilfe, wo Kunden sich keine "ausgewachsenen" Rechner leisten können und "smooth" arbeiten möchten oder ein Austauschformat gesucht wird.
Aber jeder moderne Codec macht bereits ein besseres Bild, (siehe oben) das sich durch das Transcodieren nach PR entsprechend degeneriert. Hinzu kommen in bestimmten Konstellationen PR-eigene Buht, die das Bild weiter beeinträchtigen.
Es bleibt also die Kernfrage, warum Apple nicht auf der Gundlage neuer Entwicklungen seine Kunden versorgt.

Deine Frage zur Glättung:
Das ist jetzt losgelöst von der PR Diskussion und spielt sich im comprimierten Raum ab.
Das Problem gab es auch schon in MPEG2, dort wurden nur keine Filter eingesetzt, sondern Blocking in Kauf genommen.
Das Schlimmste, was Du einem bewegungskompensierten Codec antun kannst, sind unscharfe Bewegungen. Eine Zuordnung zu den Macroblöcken ist dann sehr zeitaufwändig und wird u.U. abgebrochen, weil das nächste Bild ansteht.
Blockbildung ist das Resultat. AVC hat zusätzlich De-Block Filter. Dieses Filter sucht die Kanten der Blöcke und kombiniert sie mit denen der benachbarten Blöcke. Im Zusammenwirken mit der verkleinerten Transformationsgröße von 4x4 ergeben sich so eine große wahrgenommen Bildqualität.
Das ist eine typische Consumeranwendung, die im professionellen Sektor so gut wie keinen Einsatz findet.
Du solltest also mal sehen, ob Du solche "adaptiven Loop-Filter" abschalten kannst.

Space


Antwort von Axel:

Erstmal einen Killepitsch zum versöhnlichen Verschnaufen in der verbalen Tortenschlacht. Prosit! Soviel Humor muss erlaubt sein, auch unter dogmatischen Videoten.
Ich habe nach wie vor den Eindruck, dass H.264, so wie es als Inter-AVCHD in den Consumer-Cams installiert ist, das Bild übermässig glättet. Es sieht mir einfach nicht natürlich genug aus. Oder ist es einfach zu stark komprimiert? Das ist die Frage. Die Antwort scheint zu sein, dass es nicht der Codec selbst schuld ist, wenn Kamerahersteller die Datenrate sehr weit runterschrauben. Man mag von den GH2-Hacks beispielsweise nicht viel halten, da sich, wie ich auch sehe, zusätzliches echtes Detail nicht nachweisen lässt. Dennoch sieht man mit bloßem Auge, dass irgendwelcher chaotischer Kokolores, der bei Hacks Bild für Bild als ein anderes Rauschen gespeichert wird, organischer aussieht und eben weniger geglättet. Was die Hacks auch zeigen: Die Interessierten interessiert Platzersparnis (einer der Faktoren, der Ingenieure auf die Performanz ihres Codecs stolz sein lässt) nicht sonderlich. Hoffen wir, dass die Hersteller dies verstehen (es scheint in Ansätzen so) und in Zukunft nicht mehr so übertrieben komprimieren.
Diese Eindruck wird dadurch bestärkt, dass ich bei meinem Hauppauge HD PVR mit H.264 / 50i(bzw., was das Original-Material vorgibt)-Hardware Encoding von S-Video-In oder Component-In (Digital Video-In gibt's nicht) immmer wieder erstaunt bin, wie geglättet verrauschtes SD-Material nach dem Encoding aussieht, selbst wenn ich in den Settings die Bildglättung auf 0 stelle und die maximale (konstante) Datenrate von 13.5 Mbit/Sec auswähle. Das ist nicht viel. Da machen die Kameras mehr in variabler Bitrate. Auf keinen Fall solltest du aus der Timeline in dieser Datenrate rendern/exportieren, denn selbstverständlich muss dann bei stärkerer Komprimierung auch mehr gerundet und geglättet werden. Für HD schlage ich 30 mbps vor, dann kann's vermutlich auch CBR sein. Allerdings: Ich habe mit AME auch schon direkt in kleine Datenraten exportiert, testweise, und es gibt nicht wirklich einen sichtbaren Unterschied zu in einem zweiten Schritt aus einem Master exportierten Filmen. Das spricht sehr für Adobe. Allerdings dauert die Berechnung erheblich länger als von und in ProRes. Und: Du hast als fertiges Produkt einer langen Bearbeitungszeit nur ein fadenscheiniges Webfilmchen, und das kann's doch nicht sein, oder?

Space


Antwort von gast5:

Ja Skeptiker es leider so das es am Verständnis und der Einsicht liegt das der Codec Typ nur über die Art der Codierung etwas aussagt niemals aber über die Qualität der Implementation..

Dieser Umstand wurde schon in der DV Ära klar als es die verschiedensten Anbieter von Radius, canopus, mainconcept Microsoft usw gab..

Selbiges gibt es auch bei den anderen Codecs wie bei canopus HQX und HQX, dnxhd, prores oder den intermediats die von gopro aufgekauft wurden.

Wichtig ist wie diese Codecs vom den NLEs verarbeitet und exportiert werden und ob diese Ergebnisse für die Weiterverarbeitung taugen.

Es ist etwas wahres daran, dass die Codecs die via QT, Container bearbeitet werden immer wieder NLE abhängig Probleme bereiteten besonders mit der Fehlinterpretation des Gammawertes was sich aber wie wowu schon erklärte zumindest bei OSX Lion aufwärts erledigt hat..

Aber nochmals, h264 egal welcher Art hat nichts mit einem Qualitätsanspruch zu tun. Selbst bei der Wiedergabe eines bestimmten Files kommt es in Abhängigkeit des verwendeten Wiedergabegerätes zu den unterschiedlichsten Darstellungen. Hinzu kommen noch die verwendeten Sichtgeräte.
Bei der Entwicklung von prores ging es darum den QT intermediat Codec durch eine passende Plattform zu ersetzen. Sprich die Effizienz aus Speicherverbrauch(Bandbreite)und Prozesslast mit dem Anspruch auf Visuell Verlustlos bereit zu stellen,wie es auch avids dnxhd oder canopus HQX garantiert.

Mehr gibt's dazu eigentlich nicht zu sagen und die Industrie hat es goutiert. Das sich mit den neuen Versionen der NLEs die avc Varianten wie es auch die Microsoft vc1 Variante darstellt verarbeiten lassen ist ein Feature in der der Featureliste der Hersteller.

VlG

Space


Antwort von Skeptiker:

Danke an alle für die ausführlichen Antworten - sehr nett.

Die muss ich erst mal verdauen !

Im Augenblick gibt es noch ein paar Einkäufe zu erledigen, ich klinke mich also später wieder ein.

Bis dahin: Viel Spass beim Diskutieren OHNE sich die Köpfe einzuschlagen !

Skeptiker

Space



Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


FFmpeg direkt im Browser nutzen - FFMPEG.WASM
Mars-Rover Perseverance streamt vom Mars mit ... FFmpeg!
Chrome, Firefox und VLC profitieren: FFmpeg 6.0 bringt u.a. AV1-Decoding per GPU
FFmpeg Buch Vorstellung
FFmpeg bis zu 94x schneller durch handoptimierten AVX-512 Assembler-Code




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash