Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Adobe Premiere Pro / Elements / SpeedGrade / Creative Cloud CC-Forum

Infoseite // smart rendern von MPEG 2 Files mit APE 3.0 und Mainconcept MPEG plugin



Frage von OZM:


Tag allerseits,

Ich
Anfänger

Cam
Pana SDR 150

Software
Win XP pro
APElemtents 3.0 (Demoversion)
Mainconcept MPEG Plug für APE 3.0 (Demoversion)

Hardware
AMD Dual Core
reichlich Arbeits- und HD Speicher
(dürfte aber mit der Frage nichts zu tun haben, da das Prog ja eher zuviel als zu wenig macht)


Ausgangssituation
Die Cam zeichnet MPEG 2 auf eine SD-Karte auf
Wenn ich Files in APE öffne (Medien abrufen von\Dateien und Ordner), bearbeite (zum Test z.B. einen Clip auseinanderschneiden oder zwei zusammenfügen - ohne Übergang/-blendung/Effekt o.ä.) und dann ausgebe (Exportieren\Mainconcept MPEG Elemnents) ist für mich nicht ersichtlich, ob der File smart oder komplett neu gerendert wird (bei Womble bekommt man z.B. eine Grafik, welche darstellt, was neu und was smart gerendert wird).

Die Verarbeitungszeiten deuten darauf hin, dass alles neu gerendert wird

Frage
was muß ich tun, damit die Ausgabe der bearbeiteten Datei smart gerendert wird?

Vielen Dank


OZM

P.S.
hat jetzt schon jemand was zum steadymove in APE 3.0 rausbekommen?

Premiere Elements 3.0
und
Premiere Elements 3.0
hab ich gelesen aber da steht nix genaues zur Verabeitung von MPEG 2 Files drin




-------------------------------- für registriertes posting --------------------------------

Space


Antwort von Anonymous:

des Rätsels Lösung:

die Demoversionen blenden li bzw. re ihr Logo (ständig) ein. Dazu muß zwingend neu gerendert werden. Also nix mit smart render.

Wenn man einen File im DVD Format hat (720 x 576; 25 fps; 4:3) oder in dieses Format gerendert wurde, wird in den folgen Schritten "smart" gerendert. Allerdings stellt das Prog nicht graphisch da, was smart und was neu gerendert wird.

In anderen Formaten (704 x 576) ist es mir leider nicht gelungen smart zu rendern - also KEIN smart render von "704 x 576" nach "704 x 576"!

Das gleiche beim 16:9 Modus. Erscheint mir alles etwas unlogisch - vielleicht ist es ein Bedienungsfehler durch mich. Wem dazu was einfällt wäre ich für Info dankbar.

Insgesamt habe ich mit der Kombi Adobe Premiere Elements 3.0 + mainconcept MPEG plug in meine Software gefunden - ist aber wohl Geschmackssache.

OZM

Space


Antwort von OZM:

aaaaaaaaarg,

warum kann man hier überhaupt was schreiben wenn man nicht eingeloggt ist?

Obiger Beitrag ist von mir.

OZM

Space


Antwort von zauber:

Du musst bei einem neuen Projekt die Einstellungen auf das Plug-In ändern.
Gebrannt werden muss nach dem Export mit was anderem z B Nero. PE kann das nicht, bzw dann wird neu gerendert.
FG,
zauber

Space


Antwort von jklaus:

Hallo,

ich bin beim Überlegen ob ich mir das MPEG-Plugin kaufen soll und jetzt hat mich die Antwort von zauber etwas verunsichert. Ich möchte gerne
folgendes machen. Zuerst mehrere Filme mit PE3 schneiden und als mpeg
exportieren. Nach Fertigstellung alle mpegs in ein neues PE3-Projekt
importieren, das DVD-Menü erstellen und mit PE3 brennen. Wird da jetzt
noch einmal jedes mpeg neu gerendert oder nicht?

mfG Klaus

Space


Antwort von Sektionschef:

Hi
Also ich besitze die SDR-S100, kenne aber PE3 bzw. das MC-plugin nicht deshalb kann ich dir hier keinen Rat geben.
Ich verwende Magix Videodeluxe 2007+ mit meiner SDR-S100 und meine, es ist DAS beste Schnittprogramm für mpeg2 Dateinen(unterstützt natürlich auch smart-rendering).
Wenn Du also Zeit und Lust hast, dann sieh dir mal die Magix demo an.
mfg
Sektionschef

Space


Antwort von zauber:

Hallo,
Nach Fertigstellung alle mpegs in ein neues PE3-Projekt
importieren, das DVD-Menü erstellen und mit PE3 brennen.
mfG Klaus Es ist leider so. Genau das o. g. muss mit einem anderen Programm gemacht werden. Wird Zeit, dass Adobe hier mal tätig wird.
Ich habs probiert, es gibt keine andere Möglichkeit des Exports leider

zauber

Space


Antwort von jklaus:

Hallo,

nach der Durchsicht des Handbuches vom MPEG-Plugin schaut es wirklich so aus, als ob die smart-rendering-Funktionen nur beim File-Export und nicht bei der DVD-Erstellung wirsam sind. D.h. man muß dann, wie zauber schon festgestellt hat, doch noch die DVD mit einem anderen, intelligenteren Brennprogramm erstellen.
Das wäre dann doch eine unerfreuliche gravierende Einschränkung bei der Verarbeitung von mpeg-Dateien in PE3. Hoffentlich gibt es da bald eine bessere Lösung.

Space


Antwort von OZM:

Du musst bei einem neuen Projekt die Einstellungen auf das Plug-In ändern. Die Einstellungen habe ich entsprechend geändert (zumindest glaube ich das).

Gebrannt werden muss nach dem Export mit was anderem z B Nero. PE kann das nicht, bzw dann wird neu gerendert.
FG,
zauber ums brennen gehts mir im Moment noch gar nicht, sondern nur um den Export auf die Festplatte. Und da hätte ich halt gerne, das ein File eben smart gerendert wird, wenn ich nur vorne und hinten was wegschneide.

... bin beim Überlegen ob ich mir das MPEG-Plugin kaufen soll ... Ich habe den Eindruck, dass das Plug in (noch?) nicht so hundert prozentig auf Elemts 3.0 abgestimmt ist. In der Anleitung ist z.B. nur von APE 2.0 die Rede und sie gehen dort auch nur auf die APE 2.0 Menüführung ein. Genauer kann ich das aber nicht belegen, da ich nicht so der Überchecker in dieser Materie bin. Der Hauptbenefit vom MPEG Plug in ist die wirklich umfangereiche Möglichkeit, auf den Encodierungsprozeß Einfluß nehmen zu können (Testversion ist kostenlos, blendet allerdings das mainconcept logo ein - ist aber wirklich aufschlußreich)

... ich ... meine, es ist DAS beste Schnittprogramm für mpeg2 Dateinen(unterstützt natürlich auch smart-rendering)... sieh dir mal die Magix demo an habs schon gesaugt - bin aber noch nicht zu testen gekommen - danke für den Hinweis.

Nutze übrigens fleissig Dein Programm "SDCopy" - ist ein Super Ding; Danke

Schick mir mal Deine e-mail (meine Adresse steht unten)

... schaut es wirklich so aus, als ob die smart-rendering-Funktionen nur beim File-Export ... ich bekomm ja nicht einmal das hin. Meine Cam produziert 704x576 Files und die kann ich zwar in die gleiche Größe exportieren, nur werden sie dabei neu gerendert (zumindest steht im Statusdialog "normal rendern" und es dauert "normal"). Es besteht z.B. ja auch die Möglichkeit, einen File zu analysieren und diese Eigenschaften dann als Exportprofil zu nehmen - smart rendering? Pustekuchen!

Smart wird nur gerendert, wenn ich einen File in das Standart-DVD Format rendere und dann (nach z.B. weiteren Schnitten etc.) noch mal exportiere - dann und nur dann rendert APE 3.0 mit dem Plug in smart.
smart rendering bei: DVD Standart --> DVD Standart (zumindest beim Fileexport)
kein smart rendering bei: Custom Profil --> (das gleiche) Custom Profil

Wenn jemand der Meinung ist, dass es an der Einstellung liegt, würde ich mich wirklich sehr freuen, wenn er mir mal seine e-mail zukommen läßt. Ich schick ihm dann einen link, vor dem er sich einen nativen File von meiner Cam saugen kann und seine Kunst vollführt. Wer es dann hinbekommt diesen File mit APE 3.0 und dem MPEG plug in smart zu rendern, der beschreibe mir bitte bitte bitte mit Zuckerguß obendrauf "Schritt für Schritt" wie das geht - ich kriegs nicht hin.

OZM


wenn man vor "napf1@gmx.net" noch "karl-" schreibt, hat man meine e-mail Adresse (ich muß es leider so kompliziert machen, da es viele kleine Robots im Web gibt, welche die"xxx@gmx.bla" suchen und ich dann ganz viel Werbung bekomme)

Space



Space


Antwort von Geri:

Hallo zusammen,

habe mir vor 2 Tagen das Plugin von Mainconcept gekauft.
Es sah in der Demo so aus, als ob ich die Filme aus meiner Canon HV20 im Format 1080i damit würde schneiden und bearbeiten können.
Sehr wichtig war mit das smart rendern, da ich das Ausgangsmaterial an den nicht veränderten Stellen nicht noch einmal encodiert haben will.

Leider funktioniert das Plugin nicht wie gedacht:
Nach dem Schneiden sind an den Schnittstellen Klötzchenbildung und wiederholte Frames zu sehen.

Eine Anfrage an den Support ist gestellt..

Space


Antwort von OZM:

Oh ja, erzähl mal was aus der Geschichte wird* und viele Grüsse an Herrn Marc Hartmann, den alten Laberkopf.

"entschuldigen Sie bitte, daß wir bisher noch keine Lösung für das Smart Render Problem haben.
Wir gehen der Sache weiterhin nach und die entwickler sind über dieses Problem informiert"

das war im Januar 2007


Schade ums Geld.



OZM




* ich hab den thread abonniert, kann ruhig auch später sein

Space


Antwort von hgr:

Auch für mich waren die rd. 60€ rausgeworfenes Geld, da das PlugIn bei HDV-Bearbeitung APE 3.02 zum Absturz bringt. Die Antwort vom Support vom Juli d.J. ist genauso unverbindlich wie die zuvor geschilderte (Fehler bekannt, es wird daran gearbeitet, Update-Termin unbekannt). Konnte noch nicht einmal mit dm PlugIn arbeiten. Schade um das Geld.

Gruß
HGR

Space


Antwort von ZSSR:

Hat MC nicht den Timo von Canopus extra eingekauft um denen Ihre Plug-in auf Vordermann zu bringen?

Space


Antwort von Anonymous:

Hat wohl nicht geholfen...

Space


Antwort von WoWu:

Hallo ..
.. vielleicht eine kurze Erklärung zum "smart rendern". Bei MPEG Files ist es grundsätzlich nicht so möglich wie bei DV Files. (aus der Zeit stammt auch der Begriff). Es ist nicht möglich, innerhalb von GOP"s zu schneiden, also auch nicht möglich innerhalb von GOP"s zu rendern. Zwar ist es möglich, einen Zwischenschnitt in "Sicht-Auflösung" in den Speicher zu legen, beim Ausspielen aber muss der gesamte Beitrag gerendert werden. Es gibt Verfahren, die das an den Stellen, an denen nicht bearbeitet wurde, verlustfrei machen, idem sie die Tabelleneinträge und "history Data" benutzen, um das Bild wieder herzustellen. Diese Verfahren sind aber patentiert und finden sich nur im EMOL-System. Mit Sicherheit aber nicht in den gebräuchlichen NLE"s. Also Smart-Rendering, wie wir es aus der DV Zeit kennen ist in MPEG orientierten Systemen nicht möglich, auch nicht wenn man es so nennt, vielleicht eine "Krücke", die einem an den Stellen ein Bild zeigt, aber gerendertes Material muss in gesamte GOP"s eingebunden werden und GOP"s lassen sich, wenn überhaupt, nur am Anfang, bzw. am Ende trennen. Und das gerade da ein Schnitt liegen sollte wäre schon Zufall.

Space


Antwort von wolfgang:

Also dass smartrendern bei mpeg2 nicht möglich sein soll, steht im krassen Gegensatz zur beobachteten Praxis, dass dies Produkte wie

- Edius 4.51c
- Vegas 8
- Vdl
- Pinnacle Studio 11
- Ulead Videostudio
- Ulead Mediastudio
- Womble/Easymovie

durchaus können. Es stimmt einfach nicht, dass das gesamte Material neu Encodiert werden muss. Man bemerkt das allerdings bei den besseren Produkten weniger an der Videoqualität - die Encoder sind heute bereits viel zu gut dafür; nein, man bemerkt das in der Praxis an den signifikant geringeren Ausgabezeiten.

Und selbstverständlich ist in all den genannten Produkten ein framegenauer Schnitt möglich. NLEs schneiden ja nicht destruktiv, sondern belassen das Material unbeschädigt auf der Festplatte lieben.

Und für die Thematik, wie man mit den GOPs vor und nach der Ausgabe umgeht, haben wohl all die genannten Hersteller mal eine Lösung gefunden. Keinesfalls ist es so, dass man nur am Anfang oder am Ende einer GOP heute sein Videomaterial schneiden kann.

Die hier angesprochenen Probleme müssen wohl eher in Problemen zwischen dem Mainconcept Plugin und der NLE liegen. Man kann da vermutlich wenig dazu sagen, offenbar wird dieses Problem halt nicht gelöst. Alternativen gibts genug am Markt.

Space


Antwort von WoWu:

... die Systeme machen das nicht per direkten Schnitt oder Edit sondern über einen Batch ... es gibt nach wie vor keine Lösung für das Schliessen einer unvollständigen GOP. Es gibt auch kein MPEG Tool dafür, weil das Format niemals für einen Schnitt vorgesehen war, also auch keine Konzeption besteht. Die einzige Möglichkeit besteht in einer Batchliste, die beim Exportieren des File abgearbeitet wird. Insofern kann man das natürlich nennen, wie man will aber es gibt da keine geheimen Erfndungen, die mit offenen GOP"s umgehen können. Daher ist die Vermutung grundfalsch, man könne framegenau in eine GOP hinein schneiden. Man gibt lediglich anhand aufgelöster Passagen den Schnittpunkt an, der im Renderprozess beim Export oder einer Sichtdecodierung ausgeführt wird. Ob man das nun Smartrendern nennt oder wie auch immer, jedenfalls unterscheidet sich der Prozess signifikant von Intraframe-Formaten, wo das natürlich ohne weiteres möglich ist (DV,DVCPro,AVC-I).

Space


Antwort von WoWu:

... ach, vergessen : natürlich muss am Ende das ganze Material nicht neu gerendert werden, wenn beispielsweise das MOLE-verfahren benutzt wird ... nur ist das patentrechtlich geschützt, ebenso wie die meisten der wirklich wirkungsvollen und guten Transcoding Verfahren, in denen die "history data" und di Tabelleninhalte benutzt werden, um das Bild zu einem verlustfreien Stream wieder auszuspielen. Vielleicht werden die in guten, teuren Programmen ja sogar eingesetzt ... aber das kostet eben Lizenzgebühren. Bei den billigen Teilen schliesse ich das aber aus. Die Rekonstruktionsmöglichkeit bezieht sich auch nicht auf veränderte Dateninhalte (Bearbeitung, Blende, usw.)

Space



Space


Antwort von WoWu:

... ach, wenn ich noch eine Lernfrage anschliessen darf ..

... wie stellt es sich da, das ein Stream nicht komplett beim Export gerendert wurde ?
Woran macht Du das fest ?
Und woran beobachtest Du dass Smart-Rendern möglich ist und in die kodierte GOP hineingeschnitten werden kann ?

Space


Antwort von wolfgang:

Ganz einfach: in der täglichen Praxis sieht man das, wenn man nur hinschauen will. Man weiß etwa, wie lange ein mpeg2 stream braucht, um neu encoded zu werden. Und man sieht die drastisch reduzierte Zeit, wenn man smartrendered. Oder eben doch einen Filter drauflegt und so eine Neuberechnung erzwingt. DAS sind einfach Praxiserfahrungen, und das kleine ABC beim Testen von diversen System oder Codecs, etwa auf ihre Praxistauglichkeit.

Es ist für den Anwender einfach völlig irreführend, zu behaupten, man könne in eine GOP nicht hineinschneiden. Am Ende glaubt das noch irgendein Unerfahrener hier... den der Anwender kann das in der täglichen Praxis! Den die O-footage bleibt unverändert auf der Platte liegen... und er schneidet trotzdem framegenau, und unabhängig davon, ob er gerade ein I frame oder ein anderes vor sich hat.

Es wäre sogar eine blanke Katastrophe, wenn ich bei HDV2 einen Schnitt nur alle 12 frames machen könnte - für die Praxis wäre das ein völlig untaugliches System. Und der Anwender muss sich auch nicht um Tabelleninhalte oder ähnliches kümmern - oder wissen, was ein MOLE Verfahren ist. Sämtliche angeführten NLE-Hersteller haben das längst in ihre NLEs integriert und die Sache für die Praxis framegenau gelöst, über den nicht linearen und nicht destruktiven Videoschnitt. Wir haben hier ja keine Bänder und Spulren mehr vor uns, die wir nur an bestimmten Stellen schneiden können...

Es macht für den Anwender daher keinen Unterschied, ob er physikalisch eine GOP-Struktur nur am Anfang oder am Ende einer GOP schneiden kann - denn jede, aber wirklich jeder modernen NLE erlaubt das längst an jedem Frame und bildgenau. Der Anwender muss sich da in keiner Weise darum kümmern.

Setzen Sie sich mal an einen Schnittplatz mit einer modernen halbprofessionellen Software, die nur ein paar hundert Euro kostet - und lassen Sie sich von einem Cutter einen HDV-Schnitt zeigen.

Space


Antwort von WoWu:

Das die Funktionalität implementiert ist ist gar keine Frage ... der Ausgangspunkt war nur eben ... wie ... Denn eine Bearbeitung bezw. ein Schnitt geht eben nur über Neuberechnung und Neuschätzung der Bildparameter und bei diesem Neurendern leidet eben die Bildqualität um bis zu 6 db. .. Dazu kommen eben noch all die Artefakte, die ein intermediate Codec ins Bild bringt .... Und, was beim Export des Materials muss der gesamte Stream aus den (smart)Render Files sowie dem Ausgangsmaterial zu einem gesamten (export)-File (TS) oder (PS), je nachdem ob ich 1 oder 2 benutze, zusammengefügt werden. Und eben hier stellt sich die Frage, ob es verlustbehaftet geschieht oder verlustfrei ...
Denn Smart-Rendern, wie es aus der DV-Welt kam, funktioniert eben nicht mehr in den GOP Strukturen, weil ich nicht so ohne weiteres ein paar Frames mehr in den Originalstrom einfügen kann, wie es ursprünglich möglich war. Das da eine Funktionalität eingesetzt ist, die so etwas "vorgaukelt" ist schon klar ... Problem ist nur der Qualitätsverlust unter dem das Material dabei leidet, denn so einfach, wie der "Normalverbraucher" sich das vorstellt ... "ich mache meine Blende und die wird in das "native" Material eingesetzt ...." so einfach ist das leider nicht. Und wenn die NLE"s das behaupten, dann ist diese Behauptung schlicht und einfach Unfug, weil falsch.
Ohnehin ist diese Bezeichnung "smart-Rendern" einmal mehr ein ziemlich nichts sagender Marketingbegriff ... aber eben sehr gefährlich, weil er in den DV Systemen etwas definierte und auch einen technischen Prozess markierte, der so nicht mehr durchführbar ist.... Schnitte funktionieren in GOP orientierten Systemen eben anders, als früher.

Space


Antwort von wolfgang:

Also ich gebs langsam auf - der Schnitt über die typischen Intermediate Codecs als Cineform/Canopus HQ ist wieder eine ganz andere Route, als der "native" Schnitt von m2t, wo ich HDV2 Material in die Timeline lege und zu m2t raus render.

Und wenn die NLE hier einige GOPs entsprechend behandeln muss - GOP schließen an einem Schnittpunkt etwa - dann mag es so sein. Wie immer das die NLE nun genau macht - da schweigen sich die Softarehersteller ja aus. Aber deshalb bricht nicht die gesamte Bildqualität zusammen - weder an den bewußten Stellen, und schon gar nicht an den nur umkopierten Bildteilen...

Aber die Diskussion läßt sich nicht weiter führen, ohne exakt zu wissen, wie ein Smartrender-Algorithmus in einer spezifischen NLE funktioniert.

Space


Antwort von WoWu:

... Da haben wir völlige Übereinstimmung ...
Ich muss aber zugeben, bisher ist mir nicht gelungen, irgend etwas über dieses "mysteriöse" Smartrendern zu erfahren .. deswegen befürchte ich (nicht wissen), dass uns die Firmen da einmal mehr verschaukeln und in Wirklichkeit irgend einen "hausbackenen" Codec einsetzen, der sich in der Kette der Trancodings negativ auswirkt.
Es gab da das von Cyberlink ein US.Patent aus 2003 mit der Nummer (6.559.780), in dem sie Smart Rendering patentiert haben. Ich hätte wirklich gern erfahren, wie sie das eigentlich definieren ... Leider sagt das US Patentamt, dass es dieses Patent nicht mehr gibt ... Gerüchte sagen, es sei aufgrund von Widersprüchen zurückgezogen worden ..
Wenn also jemand im Forum gute Hinweise geben kann, wie diese Verfahren genau definiert sind .. oder wo man solche Definitionen nachlesen kann.... das wäre wirklich super (aber bitte keine Prospektbeschreibungen)... die sind in diesem Zusammenhang nicht hilfreich.

Space


Antwort von wolfgang:

Gut, aber für den Praktiker ist eher wichtig, dass die Sache mal funktioniert. Und dass sie funktioniert, ist einwandfrei nachweisbar - zu groß ist der Zeitgewinn, wenn man die smartrender-Optionen aktiviert und nutzt; verglichen zur Renderzeit, wenn das deaktiviert ist.

Space


Antwort von wolfgang:

Ich muss aber zugeben, bisher ist mir nicht gelungen, irgend etwas über dieses "mysteriöse" Smartrendern zu erfahren .. deswegen befürchte ich (nicht wissen), dass uns die Firmen da einmal mehr verschaukeln und in Wirklichkeit irgend einen "hausbackenen" Codec einsetzen, der sich in der Kette der Trancodings negativ auswirkt. Nur, weil das Wissen darüber ausschließlich in der Industrie liegt, muss es noch lange keine Mogelpackung sein. Und das, was man darüber erfährt, unterliegt aufgrund der klaren Interessenslage einfach der strikten Geheimhaltung (wenn man überhaupt was erfährt).

Space


Antwort von WoWu:

.. na ja, ganz so einfach ist das nun wieder nicht, schliesslich geht es ja darum ob ein Transcoding in einen andern Algrorithuns durchgeführt wird und damit das Bild beeinträchtigt oder nicht.
Und das alles einwenig schneller geht sagt im Grunde genommen überhaupt nichts ... das kann auch mit anderen Task-Verteilungen zu tun haben, also: Rendern im Hintergrund ... oder zu einem andern Zeitpunkt, andere Partitions usw.
Denn nach wie vor ist die Aussage falsch, man könne in beliebige Stellen der GoP"s schneiden, was Smart-Rendern als Voraussetzung hat.
Und deswegen halte ich es allerdings für eine "Mogelpackung", die zwar zu DV-Zeiten, zu denen sie erfunden Wurde funktionierte und verlustfrei Bilder rechnen konnte, mit den veränderten Algorithmen aber Artefakte produziert. Zumal in diesem Zusammenhang fast alle Patente zur verlustfreien Überführung von MPEG Algorithmen bei den namhaften Firmen (Tomson, Snell&Wilcox,Frauenhofer) liegen und offensichtlich keines bei den Softwarehäusern. Selbst Apple "muss" ja über einen Intermediate Codec gehen. Ich denke, wenn es so etwas wie verlustfreies Smartrendern bei MPEG Bildern gäbe, was ja behauptet wird, hätten sie es implementiert ..
Aber ich sehe, die Diskussion führt hier nicht weiter, solange die Firmen einfach nicht sagen, was sie tatsächlich mit den Bildern machen ... auch gibt es offensichtlich keine substantiellen Tests über derartige Hintergründe. (man könnte ja mal einen Artefakt erzeugen, der bei einer Trancodierung gezwungen wird, sein Verhalten zu ändern, um dann Rückschlüsse auf das verfahren zu ziehen) ...

Aber es ist natürlich richtig, und von Pragmatismus geprägt, wenn man sagt, Hauptsache es funktioniert ... nur darf man sich natürlich hinterher nicht mehr darüber aufregen, wenn das Bild bei einer weiterreichenden Verarbeitung plötzlich Artefakte zeigt, die eben ganz häufig auf solche Verarbeitung zurück zu führen sind.

Vielleicht gibt es ja doch noch jemand, der hier genaueres über die Verarbeitungsprozesse beim s.g. Smartrendern mit "native" MPEG Material sagen kann oder der Testergebnisse hat, die über die Qualität: "geht schneller" weiterreichende Aussagen darstellen.

Space


Antwort von wolfgang:

Denn nach wie vor ist die Aussage falsch, man könne in beliebige Stellen der GoP"s schneiden, was Smart-Rendern als Voraussetzung hat. Wir haben jetzt aber schon oft genug gesagt, dass dies beim nondestruktiven Videoschnitt einfach nicht in dieser Form erfolgt. Das ist einfach eine irreführende Aussage, weil in eine auf der Festplatte liegende Datei nicht hinein geschnitten wird. Die Praxiserfahrung steht damit unverändert in jeglichem Widerspruch - ich kann framegenau schneiden, sei es bei m2t oder m2ts.

Und ohne zu wissen, wie das smartrendern erfolgt, würde ich diesen ohnedies problematischen Punkt mit smartrendern nicht verknüfen. Sonst fragt noch einer, woher man das weiß.
Und deswegen halte ich es allerdings für eine "Mogelpackung", die zwar zu DV-Zeiten, zu denen sie erfunden Wurde funktionierte und verlustfrei Bilder rechnen konnte, mit den veränderten Algorithmen aber Artefakte produziert. Zumal in diesem Zusammenhang fast alle Patente zur verlustfreien Überführung von MPEG Algorithmen bei den namhaften Firmen (Tomson, Snell&Wilcox,Frauenhofer) liegen und offensichtlich keines bei den Softwarehäusern. Das ist ja noch kritischer - ich würde mal davon warnen, Firmen wie Avid, Sony, Corel, Canopus usw. mal pauschal von einer "Mogelpackung" zu reden, und unterschwellig eine "Patentveletzung" zu unterstellen. Noch dazu, wenn man aus einem Mangel an Wissen, wie die diesen Punkt in ihren Produkten gelöst haben, dann nicht mal den entsprechenden Beweis antreten kann, dass es sich hier um eine Mogelpackung handelt. Oder kannst du das belegen?

Space



Space


Antwort von Marco:

Den Anwender juckt der akademische Standpunkt in der Regel recht wenig. Smart-Rendern bedeutet für ihn, dass der Vorgang wesentlich schneller abläuft als ein normales Rendern und dass an den entsprechenden Stellen für ihn während des gesamten Arbeitsprozesses keinerlei signifikanter Qualitätsverlust entsteht. Beides ist überall dort, wo das Signal unverändert bleibt und wo sich nicht gerade ein paar Frames einer aufgebrochenen GOP befinden, gegeben. Besonders gut ist das z.B. beim Aussortieren von Material anzuwenden. Wie die Hersteller das anstellen, ist völlig egal, solange es nur so gut funktioniert wie es eben funktioniert. Ein Qualitätsdrop ist praktisch nicht vorhanden (wenn nicht gerade einer der beiden o.g. Fälle zutrifft).

Marco

Space


Antwort von WoWu:

@ Wolfgang, das ist doch an den Haaren herbeigezogen, was Du da schreibst und konstruierst.
Allerdings halte ich Vieles für eine Mogelpackung ... Apple bietet das verlustfreie Encoding nicht an sondern Transcodiert. Und warum wurden Patente zum Smart-Rendering, die zu DV Zeiten noch gehalten wurden, zurückgezogen und heute wird ein Geheimnis daraus gemacht.
Nein, nein, da verschaukeln die Hersteller die Anwender .... und keiner von den so genannten "Testern" fragt kritisch nach.

@ Marco ... ich gebe Dir ja recht, wenn eine Funktion den gewünschten Geschwindigkeitsgewinn bringt und der User damit auskommt und keine kommerzielle Vermarktung des Produktes anstrebt ist das ja auch völlig in Ordnung.
--- Nur eine Mogelpackung bleibt es dennoch ...weil Verlustfreiheit vorgegaukelt wird und in Wirklichkeit bis zu 6db Störabstand verschwindet.
... und so akademisch ist das gar nicht .... die ganzen Systeme kommen aus dem (akademischen wie Du es nennst) ich nenne es professionellen Bereich und orientieren sich zum Grossteil an professionellen Rahmen.
Das ganze System ist ja ursprünglich nicht für den Heimgebrauch erfunden sondern für die professionelle Anwendung... warum sollten also die Nutzer nicht auch von kommerziellen Entwicklungen weiter profitieren ? Warum also zwischen einem Amateursystem und einem professionellen System unterscheiden ?

Also, wenn es hier jemand gibt, der Hinweise geben kann, wie es geht ?? Nur zu, ich bin dankbar für jeden wirklich sachdienlichen Hinweis.
Die Betonung liegt hier auch "sachdienlich".

Space


Antwort von WoWu:

@ Wolfgang
... einen Punkt hatte ich übersehen ..

Du schreibtst:
" Wir haben jetzt aber schon oft genug gesagt, dass dies beim nondestruktiven Videoschnitt einfach nicht in dieser Form erfolgt. Das ist einfach eine irreführende Aussage, weil in eine auf der Festplatte liegende Datei nicht hinein geschnitten wird."

Durch ständiges wiederholen falscher Aussagen werden sie leider nicht richtig.

Auch wenn Du über eine Batch-Liste schneidest, wird bei GoP orientierten Verfahren spätstens beim Export ein neuer und geschlossener TS oder PES erzeugt, weil MPEG oder AVC über keine losgelösten Timing-Mechanismen verfügt. Dazu ist es erforderlich, das "native"-Material zu de- und anschliessend wieder zu encodieren. Dieses Prozesse sind verlustbehaftet, erst recht, wenn sie über einen intermediate Codec erfolgen, aber selbst wenn man innerhalb des Formates arbeitet, weil neue Bildschätzungen zusätzlich zu den bereits Erfolgten stattfinden !!
Aslo die Annahme, der Schnitt über das Batching (vielleicht ist das ja Smart-Rendering) sei verlustfrei ist schlicht und ergreifend falsch !

Space


Antwort von Anonymous:

@ Wolfgang, das ist doch an den Haaren herbeigezogen, was Du da schreibst und konstruierst. das ist sein ein und alles einen größeren an den Haaren herbeizieher wirst du nicht finden

Durch ständiges wiederholen falscher Aussagen werden sie leider nicht richtig. natürlich nicht, aber so fristet der Wiener seit Jahren sein dasein in den Videoforen

Space


Antwort von wolfgang:

@ Wolfgang, das ist doch an den Haaren herbeigezogen, was Du da schreibst und konstruierst. Also ich konstruiere da gar nichts, ich sage nur, was ich mir dazu denke. Wenn Sie es für richtig halten, die Sache so darzustellen, ist Ihnen das ja unbenommen. Wenn Sie all diese Firmen mit derartigen Aussagen in einen Topf werfen wollen - bitte sehr.

@ Wolfgang
... einen Punkt hatte ich übersehen ..

Du schreibtst:
" Wir haben jetzt aber schon oft genug gesagt, dass dies beim nondestruktiven Videoschnitt einfach nicht in dieser Form erfolgt. Das ist einfach eine irreführende Aussage, weil in eine auf der Festplatte liegende Datei nicht hinein geschnitten wird."

Durch ständiges wiederholen falscher Aussagen werden sie leider nicht richtig.

Auch wenn Du über eine Batch-Liste schneidest, wird bei GoP orientierten Verfahren spätstens beim Export ein neuer und geschlossener TS oder PES erzeugt, weil MPEG oder AVC über keine losgelösten Timing-Mechanismen verfügt. Dazu ist es erforderlich, das "native"-Material zu de- und anschliessend wieder zu encodieren. Dieses Prozesse sind verlustbehaftet, erst recht, wenn sie über einen intermediate Codec erfolgen, aber selbst wenn man innerhalb des Formates arbeitet, weil neue Bildschätzungen zusätzlich zu den bereits Erfolgten stattfinden !!
Aslo die Annahme, der Schnitt über das Batching (vielleicht ist das ja Smart-Rendering) sei verlustfrei ist schlicht und ergreifend falsch !
Na und durch ständiges Ignorieren des Punktes, um den es eigentlich geht, wird die Sache auch nicht richtiger.

Es geht hier eben nicht um den Punkt, ob man verlustbehaftet oder nicht verlust behaftet den Schnitt machen kann. Sondern es geht es an dieser Stelle primär um die Aussage, dass man in eine GOP nicht hineinschneiden könne. Und jeder Anwender - sogar unser vorlauter Gast, der längst in Polen sein sollte - kann mit praktisch jedem Schnittprogramm framegenau schneiden, sonst könnte er bei HDV etwa nur alle 12 frames einen Schnitt setzen! Und das ist in der Praxis absolut nicht zu beobachten.

Bitte mal diese beiden Punkte mal auseinander zu halten, und nicht permanent darauf zu verkürzen, dass "man keine GOPs schneiden kann".

Space


Antwort von Marco:

Wie sollte sich der Verlust des "Störabstandes" denn in der Praxis auswirken?

Es kommt selbst nach 20 Rendergenerationen zu keinem sichtbaren und zu keinem durch einfache Messmethoden (z.B. Differenzbilder) nachweisbaren Verlust. Das betrachte ich nicht als "Vorgaukeln" von Verlustfreiheit und das ist nicht nur unter nicht-kommerziellen Gesichtpunkten akzeptabel, sondern meiner Meinung nach auf der ganzen Linie, sofern es nicht (wieder) nur um Theorie geht.

"Warum also zwischen einem Amateursystem und einem professionellen System unterscheiden ?

Das haben sich manche Entwickler auch gedacht und so gibt es das Smart-Rendering selbst für XDCAM HD.

Der einzige Knackpunkt, der mir beim Smartrendern jemals in der Praxis unter den Hut gekommen ist, und der betrifft DV beinahe ebenso, ist die Tatsache, dass außer bei einfachen Materialaussonderungen (oder auch noch Kürzungen bei DV) doch immer wieder an manchen Stellen Rendervorgänge entstehen, die unter Umständen bei Kaskadierungen dann zu sichtbaren Qualitätssprüngen innerhalb von der selben Einstellung führen können. Das betrifft aber so gesehen die Bereiche, die nicht dem Smartrendering zugeordnet werden können (und damit bei HDV, AVCHD, XDCAM HD auch die aufgebrochenen GOPs). Und das ist auch ein Grund, warum ich gar nicht unbedingt Smartrendern als ein Geschenk des Himmels betrachte, sondern eventuell lieber eine komplette Rendergeneration mit einem leichten, eventuell ebenfalls nicht signifikanten Verlust in Kauf nehme, der durch die gleichsame Einwirkung auf das gesamte Material unter Umständen das kleinere Übel bedeutet. Das hat aber nichts damit zu tun, dass in anderen Bereichen Smartrendern nicht funktionieren würde.

Marco

Space


Antwort von wolfgang:

Nein, nein, da verschaukeln die Hersteller die Anwender .... und keiner von den so genannten "Testern" fragt kritisch nach.
...

Also, wenn es hier jemand gibt, der Hinweise geben kann, wie es geht ?? Nur zu, ich bin dankbar für jeden wirklich sachdienlichen Hinweis.
Die Betonung liegt hier auch "sachdienlich". Jetzt habe ich hier noch was übersehen: Ich kann das Verschaukeln hier weder erkennen noch nachvollziehen. Wenn über zig Rendergenerationen kein Qualitätsdrop erkennbar ist - dann spricht die Behauptung der "Mogelpackung" halt mal wieder gegen jegliche Testfakten.

Haben Sie das überhaupt getestet, oder kommen diese Schlußfolgerungen der Mogelpackung aus einer rein theoretischen Überlegung? Wenn letzteres der Fall ist, würde ich an Ihrer Stelle mal eher die Sache schleunigst testen - und mir die Ergebnisse nüchtern ansehen und dann bewerten.

Und den Kommentar über die "Sachdienlichkeit" halte ich mal wieder für einen unangebrachten Seitenhieb - ähnlich wie andere Aktionen, auf die ich nicht weiter eingehen will. Wenn also Praktiker was sagen, ist das als wenig sachdienlich? Danke für den Beitrag.

Und nein, ich gedenke meinen NDA nicht zu verletzen, und hier weitere Informationen über das smartrendering preis zu geben.

Space


Antwort von Markus:

Anmerkung vom Mod: So, ich habe hier mal ein anonymes (!) Posting mit einer persönlichen Beleidigung gelöscht...

Space


Antwort von wolfgang:

Danke mal dafür, Markus.

Space



Space


Antwort von WoWu:

@ Wolfgang

... leider gerät die Diskussion hier aus den Fugen und annimiert Gäste zur Unsachlichkeit, von der ich mich distanzieren möchte.
Sicher wird das Thema über früh oder Lang auch anders noch eine Klärung finden, mit oder ohne NDA.

(Seit wann unterschreiben Tester eigentlich NDA"s ? -- sind es dann noch Tester ? --- Oder widerspricht sich das nicht irgendwie ?)

-Aber ich will hier kein neues Fass aufmachen ...
Danke für die geleisteten Beiträge ...

Space


Antwort von wolfgang:

Ich kann nur sagen: selbst empirisch testen ist noch immer zur Theorieüberprüfung sinnvoll und notwendig. Moderne NLEs sind hier erstaunlich weit entwickelt, was einige der hier diskutieren Aspekte angeht. Und erfolgt das nicht, dann kommts halt zur merkwürdigen Verspannungen zwischen Theorie und Praxis - besonders dann, wenn sich die Theorie nicht mehr an die Praxis hält.

Ich rede hier von nichtöffentlichen Betatests - und die haben frühzeitigen Zugang zu Weiterentwicklungen, und bekommen fallweise auch vermehrte Infos. Und von der Seite besteht ein - in meinen Augen berechtigtes - Schutzinteresse der Firmen an diesen Informationen, vor allem zu einem Zeitpunkt lange vor einem Produktlaunch. Warum sollen die Frimen das also nicht über einen NDA absichern? Machen übrigens fast alle Firmen mit geschlossenen Betatesterein so, es sei den, es sind öffentliche Betatests - was es ja auch gibt.

Ich rede hier nicht von den Tests durch diverser Zeitschriften, die durch Presseabteilungen gesteuert werden - die brauchen wohl keinen NDA und bekommen die Produkte in der Regel erst knapp vor oder zum Launch.

Space


Antwort von WoWu:

Danke für die Erklärung, aber so g e h e i m kann Smart rendern ja wohl nicht sei, schliesslich gibt es das Feature schon seit 2001.

Space


Antwort von wolfgang:

Klar - man kann ja eine Literatursuche machen, und schauen, was man so findet. Über google findet man praktisch keine brauchbaren Unterlagen - aber das sind auch kaum echte Fachpublikationen erfaßt.

Space


Antwort von Anonymous:

Hallo zusammen,
also mal ehrlich, was für ein Zenober um dieses Smart Rendern?

Ist doch ganz einfach:
Bei einem Schnitt in einer GOP wird eben nur diese GOP neu codiert.
Beim zusammenfügen des Stream, wird in jeden Header ein neuer Zeitstempel geschrieben. Und das war’s dann auch schon.

Außer bei den neu codierten GOP’s wird das restliche Material 1:1 kopiert. Es wird kein einziges Byte an den für das Bild zuständigen Informationen verändert.

Ich programmiere selbst, und habe z.B. ein Programm das jeden einzelnen Frame über einen CRC32 Vergleich in einem MPEG2-Stream wieder finden kann.
Ich markiere z.B. 20 Frames an beliebiger Stelle in einer MPEG2 und mache ein Bitmap von jedem Frame. Sollte sich auch nur ein Byte verändern könnte ich das Frame nicht wieder finden. Dies ist dann auch so bei neu gerenderten oder transkodierten Videos.
Bei Smart gerenderten Videos (z.B. mit VideoRedoPlus) kann ich jedes Frame wieder finden, da sich eben an den Bildinformationen des Frame, kein einziges Byte verändert hat.

So einfach ist das, Herr WoWu

Noch am Rande:
Vegas 8 beherrscht kein Smart Rendern für MPEG2 Dateien.
Nur für DV, HDV und MXT.

Grüße ein Gast

Space


Antwort von WoWu:

So ein Quatsch ...
Und wenn Vegas 8 kein Smart Rendern für MPEG2 beherrsch, aber für HDV ?? was soll HDV dann sein ?
Ausserdem kannst Du einen CRC32 Vergleich gar nicht auf unabhängig voneinander entstandene Bitstreams anwenden, sonder ausschliesslich auf File-Lagen.
Guter Gast, das reicht nicht ... da halte ich mich lieber an das, was MainConcept und CyperLink dazu gesagt haben und nicht, was anonyme Hobbyprogrammierer so von sich geben.

Und ausserdem ist das alles Schnee vom September ....

Space


Antwort von wolfgang:

Gemeint ist wohl, dass Vegas 8 das Smartrendern nicht für SD-mpeg2 beherrscht, sondern lediglich für HDV. Warum das so ist, müßte man das Entwicklungsteam fragen. Es ist aber so.

Space


Antwort von WoWu:

Ja aber der Rest ist leider auch ziemlicher Unfug, den der Hobbyprogrammierer da von sich gibt.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Adobe Premiere Pro / Elements / SpeedGrade / Creative Cloud CC-Forum

Antworten zu ähnlichen Fragen //


Filmbrennerei 6 Plus - wie Mpeg-2-Dateien zu "ohne Neurendern" ko
MSP7 MPEG 2 Rendern MB anzeige bleibt stehen
smart rendern von MPEG 2 Files mit APE 3.0 und Mainconcept MPEG plugin
Kein MPEG-Rendern bei Premiere möglich?!
MPEG-4 AVC/H.264 um 90 Grad drehen beim Anschauen - nicht rendern
Ruckeln nach Rendern trotz MPEG-Optimierung in VS 11,5
Mainconcept Codec Plugin für DaVinci Resolve bringt Support für HEVC, Sony XAVC/XDCAM und P2 AVC Ultra
MainConcept plug in beta für Resolve 17
Multicam: Effekte von Source File auf andere Source Files kopieren
Blackmagic DaVinci Resolve 19 mit mehr Funktionen für immersives 3D-Audio per MPEG-H
Neue Smart, Odysseyund ViewFinity Monitore von Samsung mit OLED und KI
Speicherort für cache-files läßt sich nicht ändern
Avid 7.2 und MXF Files
Mercalli v6 ausgegebene Files riesig!
Zukunft ist immersiv? Atmos MPEG-H & Co.; Recording und Post
Blackmagic und Fraunhofer stellen neues MPEG-H in Resolve vor.
Automatically resync media files
audio sync in post für die geschnittenen files der timeline
Video- / Bildübertragung von einer Videokamera auf ein Smart TV
DJI Mini 3 Pro mit DJI Smart Control Kalibrierung RTH Genauigkeit
Premiere Pro - Reihenfolge beim Bearbeiten / Rendern von 4k auf 1080p
Neue Plugin-Pakete für Final Cut Pro von Boris FX kosten 59 Dollar
Metabones Smart-Adapter T




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash