Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Adobe Premiere Pro / Elements / SpeedGrade / Creative Cloud CC-Forum

Infoseite // Smart rendern von AVCHD Material



Frage von trautwin:


Gruss an alle hier! Ich würde mich freuen, Antworten auf diese Fragen zu bekommen. Ich las, dass

AVCHD, H264, x.264... so komplex ist, dass man es überhaupt nicht smart rendern kann, weil es

keine GOPs hat, sondern nur Slicefields (Ich versteh nix davon, las ich nur so !) Ist es denn so möglcih,

bei der Konvertierung von AVCHD ( H.264 AVC... ) zuerst einmal in ein UNKOMPRIMIERTES

FORMAT zu konvertieren und dann ohne Verluste der Qualität beliebige Filter aufzusetzen wie etwa

Sharpen, Blur... e.t.c.. und auch beliebige Stellen , also FRAMEgenau zu schneiden ? Oder muss

der Coder AUCH HIER alles neu berechnen ( neukodieren)? - Und noch ne sehr wichtige Frage, wo ich

nirgends Antwort fand. Kann ja nur ein Experte antworten. hat AVCHD H264, x.264 material NUR AM BEGINN und AM ENDE einen IDR-Frame ? Oder noch an anderen Stellen? Ist hier überhaupt möglich, den Anfang wegzuschneiden, ohne DEN GANZEN FILM NEUKODIEREN zu müssen??? Kann VIRTUALDUB smart rendern bei x264???? Also ich möchte den Anfang von H264 Vdeos wegschneiden! Aber OHNE neuzukodieren! Welche Editorprogramme empfehlen Sie hierfür? Ist FFMPEG oder AVISYNTH besser??? Mit welchem der beiden gibt VIRTUALDUB bessere Resultate? Noch einmal zum Schluss, die zentrale Frage lautet: Wenn ich AVCHD (H264, x.264 Videos) Material in ein UNKOMPRIMIERTES Format zwecks Editieren vorübergehend umwandle (konvertiere), KANN ICH DANN NACH BELIEBEN FILTER ANWENDEN , BELIEBIG SCHNEIDEN und das OHNE ALLE NEUKOMPRIMIERUNGSVERULSTE?? dann , nach aller bearbeitung konvertiere ichs in ein platzsparendes Format, nach H264 oder MS-MPEG4.., um die Festplatte zu schonen... ich danke herzlich für wenn möglich gute Information! Lienben Dank! Anne

Space


Antwort von domain:

Es macht m.E. nicht viel Sinn, sich mit Gratissoftware herumzuschlagen und mit theoretischen Überlegungen den Kopf zu zerbrechen.
Gut funktionierende AVCHD-NLE gibt es ab ca. € 70.-, entsprechenden PC vorausgesetzt. Neu gerendert muss meist ohnehin fast alles werden, weil es Schnitte, permanente Farbkorrekturen, Blenden usw. zu Hauf geben wird.
Der Qualitätsabfall beim final Gerenderten ist dabei so gering, dass er dir gar nicht auffallen wird.

Space


Antwort von WoWu:

hat AVCHD H264, x.264 material NUR AM BEGINN und AM ENDE einen IDR-Frame IDRs werden am Anfang jeder Szene gesetzt. Kamerahersteller können aber auch, je nachdem, wieviel Speicher die Hardware zur Verfügung stellt, mehr IDRs einfügen. Damit verliert der Codec allerdings an Effizienz.
Kann VIRTUALDUB smart rendern Smart Rendern ist problematisch, weil keine feste GoP Struktur besteht und somit auch unterschiedliche Slices, deren Lage im Speicher intern kommuniziert wird.
Dabei ist es möglich, dass ein Frame beispielsweise in zwei P-Slices und ein I-Slice zerlegt und enkodiert wurde.
Um das komplette Frame vollständig dekodieren zu können, müssen sowohl das I-Slice als auch die beiden P-Slices dekodiert werden.
Danach wird das "Original-Bild" rekonstruiert, indem die dekodierten Slice-Bereiche zusammengesetzt werden.
Die beiden P-Slices brauchen dazu Referenzslices, z.B. vorherige I- oder P-Slices. Das I-Slice ist intrakodiert. Fehlt ein Slice, z.B. durch einen Übertragungsfehler, dann kann der Bildteil, der durch dieses Slice abgedeckt war, nur interpoliert werden, was sichtbar ist.
Material in ein UNKOMPRIMIERTES Format zwecks Editieren vorübergehend umwandle (konvertiere), KANN ICH DANN NACH BELIEBEN FILTER ANWENDEN , BELIEBIG SCHNEIDEN und das OHNE ALLE NEUKOMPRIMIERUNGSVERULSTE?? Wenn Du unterscheidest zwischen einem unkomprimierten und einem LossLess Format, dann ja. LossLess benutzen ein anderes Kompressionsverfahren, das meist von einem noch nicht verlustbehafteten Vorverfahren ausgeht. Sind aber bereits Bildelemente verschwunden, werden häufig solche, sonst kaum sichtbare Codierverfahren doch sichtbar und führen zur weiteren Degradierung des Bildes. Die nachfolgende Re-encodierung tut dann ihr Weiteres.
Bei einer transparenten Bearbeitung ist die Gefahr nicht ganz so gross, allerdings muss man darauf achten, wie die Chromaverarbeitung sich zur nachgelagerten Re-Encodierung verhält, denn auch hier können Artefakte auftreten.
Frage ist natürlich immer, wie domain schon sagte, ob man es störend auffällt. Das kommt ganz auf die Qualität und die benutzten Verfahren der Codierer an.
Nur danach ob "ohne alle Neukomprimierungsverluste" kann eigentlich nur mit "nein" beantwortet werden.
Frage ist eben nur, ob die Grössenordnung störend auffällt, speziell wenn Du ohnehin Filter zwischendurch einsetzt.

Space


Antwort von trautwin:

Danke erst einmal, du schriebst so klar, wie ich lange nich fand,. Aber es gibt immer noch fragen, ..bei x264 gibt es IDR Frames, kann man DIESE denn nicht schneiden, ohne die struktur zu verletzen???Dazu gibt es ja freesoftware, oder haben die Entrwickler dieser Softwaren gar kein Interesse an einer richtigen Darstellung? vIELE SCHREIBEN; SMART RENDERNÖGLICH, ... . Wenn aber doch IDR-Frames existieren, WELCHER GRUND besteht, dass man diese trotzdem nicht smartrendern kann?? - HABE vVIRRTUALDUB, wie KANN ICH AVISYNTH in Virtuasldub LADEN? ich probeir schon tagelang, klappt nicht. Und wenns drin liegt, kommt die nächste Frage, Muss man ZUERST lossless umwandeln ( Originalmaterial ist MJPEG AVI) und DANACH in Vitrualdub mit Avisynthfiltern verlustfrei beasrbeiten?? Denn MJPEG sind ja alles I-FramesIntracodieret also man kan sie sehr gut schneiden.. ..Ihr Kommentar>>Sind aber bereits Bildelemente verschwunden, werden häufig solche, sonst kaum sichtbare Codierverfahren doch sichtbar und führen zur weiteren Degradierung des Bildes. bedeutet das denn, wenn ich AVCHD MATERIAL IN LOSSLESS WANDLE, das alle P,B,I die stark komprimierten Bilder somit, alle so bleiben und dann natürlich beim Filtern (Blur,Sharpen etc..) alles zwar VERLUSTLOS gespeichert wird oder GESCHIEHT BEI J E D E R Filteranwenduung ( Sharpen,Blur...) auch bei lossless - Material also eine Neuberechnung?? Das ist eigentlich hier die zentrale Frage!

Space


Antwort von WoWu:

Hallo,
die IDR Frames sind eigentlich das, was sonst die I-Frames waren. Wobei man bei I-Frames auch auf Bildinhalte zugreifen kann, die vor dem I Frame liegen, nicht aber bei IDRs.
Sie führen dazu, dass der Speicher geflashed wird und somit keine verwertbaren Inhalte mehr im Speicher liegen.
Solche IDRs sitzen immer am Szenenanfang und würden sich natürlich dazu eigenen, ein Smart Rendering durchzuführen, wenn die Szenen immer eine gleiche Länge und inhaltlich die gleich Slice Struktur hätten.
Aber das ist ja eben nicht der Fall. Es liegen die unterschiedlichsten Teile (slices) im Speicher und auch die Zugehörigkeit zur Decodierung wird aus der Software heraus mitgeteilt.
Wenn Du natürlich von IDR zu IDR schneidest und das "smart" nennst, dann geht das natürlich. Sinn von "smart" ist aber. lediglich um eine Blende herum, und dass mitten im Take nicht neu zu rendern. Das ist eben das Problem und geht nur über ein re-rendering.
Was die Lossless Sachen betrifft:
Erstens muss man sehen, ob der Codec mindestens dieselben Basiparameter hat oder einer andern Generation entspricht. AVC benutzt beispielsweise eine
variable Quantisierungsmethode die bis auf eine Genauigkeit von 4x4 Pixel herunter geht. (Nur im MP 8x8)
Wo und wann das so ist, teilt die Software in einem externen Parameter mit.
Ältere Verfahren, die auf einer reinen floatingpoint DCT beruhen, machen (starr) 8x8 Pixel Makroblöcke.
Um es nun ganz einfach zu halten: Spielst Du nun deine 4x4 Auflösung in ein Losless, das nur 8x8 auflöst, ist Deine ganze feine Auflösung unwiderruflich für die Katz. Was immer Du jetzt auch machst, es wird keine besser Auflösung mehr geben.
Deswegen sagte ich, dass man bei Transcodierungen besser weiss, was der Codec mit dem Bild anstellt.
Was die Filter betreffen, so führt jedes Filter immer zu einer Neucodierung.

So, ich hoffe, ich hab jetzt nicht übersehen .... das mit dem AVISYNTH in Virtuasldub laden ... hab ich nicht verstanden. Sorry, bin aber auch in den Programmen kein Experte... da gibt es viele, die sich hier besser damit auskennen.

Space


Antwort von dienstag_01:

Natürlich hat AVCHD GOP's.
Smartrendering heisst nichts anderes, als dass nur die durch eine Bearbeitung betroffenen GOP's neu berechnet werden. Bringt also nur Vorteile bei partiellen Änderungen am Material wie Schnitten und Filtern und Korrekturen an Teilen des Videos.
Du kannst dein Material natürlich in ein unkomprimiertes Format umwandeln. Das Ergebnis wird aber riesengroß und dürfte auf einem normalen Rechner nicht abspielbar sein. Und bei der Anwendung von Filtern etc. muss es neu berechnet werden (wie alles Material).

Space


Antwort von WoWu:

Natürlich hat AVCHD GOP's. Das lies man nochmal nach ... und schau Dir mal genau an, wie AVC funktionier ....
... auch welche Voraussetzungen SR hat.

Space


Antwort von dienstag_01:

@WoWu
Wenn du es anders weisst, sags doch.

Nachtrag:
Zitat MainConcept-Website:
"Codec Suite 5 bietet volle Unterstützung des Sony XDCAM, Panasonic P2 AVC-Intra bzw. DVCPRO Camcorder und Deck Produktportfolios sowie der Ikegami GFCAM und Canon XF Serien. Das Plug-In überzeugt durch MPEG-1/2, DVCPRO sowie H.264/AVC Enkodierung, einschl. Smart Rendering für MPEG-1/2, DVCPRO und AVC-Intra.*

*Generelles H.264/AVC Smart Rendering folgt in einem späteren Update."

Darum ging es ja eigentlich, Smart Rendering.

Ob die zusammenhängende und einander referenzierende Group of Picture nun wirklich GOP heisst, ist ja eigentlich egal. Funktioniert aber anders als bei Mpeg2, das hab ich jetzt kapiert. Aber das Auslesen der Informationen, ohne sich statisch an festgelegte Framereihenfolge zu halten, scheint ja doch möglich zu sein/zu werden.

Space


Antwort von WoWu:

Wenn du es anders weisst, sags doch. Darum geht es die ganze Zeit. Du musst Dir die Mühe machen, den Thread ganz zu lesen. Dort steht sogar auch warum es nicht geht.

In Deinem Zitat steht zunächst einmal , dass Smart Rendering für H.264 nicht geht, sondern folgt.
Das haben andere vor 2 Jahren auch schon geschrieben.
Und selbst wenn, dann haben sie noch nicht gesagt, ob es sich nicht um SR von IDR zu IDR handelt.
Aber das steht oben auch schon.
Und es ist sehr wohl ein Unterschied ob ein Codec in GoPs aufgeteilt ist oder nicht.
Und bei H.264 handelt es sich um die Version: "oder nicht".

Warten wir also dein Plug-In ab und sehen dann weiter.

Space



Space


Antwort von Alf_300:

Bei Mainconcept steht :

*Generelles H.264/AVC Smart Rendering folgt in einem späteren Update.
**Generisches MXF AVC-Intra wird nur beim Import von OP-1a unterstützt.

Space


Antwort von WoWu:

Man wird sich bei den Plug-Ins auch anschauen müssen, was sie genau machen. Beispielsweise stand im Gespräch, I-Frames in IDRs zu wandeln, was durchaus geht, und dann zwischen diesen IDRs zu schneiden.
Alles prima, nur dass dann alle slice Elemente durch das neue IDR verworfen werden, die vor dem neuen IDR lagen, was zu partiellen Artefakten im Bild führt. Je nachdem, wie die Bildinhalte sind, fällt das mal mehr und mal weniger auf. Nur ist es nicht dasselbe, was unter smart rendering in GOP Codecs zu verstehen war.
Also, nach wie vor. Ein Blick auf die Funktionsweise von AVC gibt Aufschluss.

Space


Antwort von dienstag_01:

Beispielsweise stand im Gespräch, I-Frames in IDRs zu wandeln, was durchaus geht, und dann zwischen diesen IDRs zu schneiden.
Alles prima, nur dass dann alle slice Elemente durch das neue IDR verworfen werden, die vor dem neuen IDR lagen, was zu partiellen Artefakten im Bild führt. Hälst du sowas für möglich? Ein Plug-in von Mainconcept für Adobe-Produkte und dann mit solchen Schwächen? Würde mein Vertrauen zerstören.

Space


Antwort von WoWu:

Ich halte Smart Rendering für ein Marketingkonzept, das keinen wirklichen praktischen Nährwert hat und in Anbetracht steigender Prozessorleistungen auch keine nützliche Anwendung mehr.
Weil die Funktionsweise des Codecs aber bekannt und festgeschrieben ist, ein smart rendering aber aufgrund seiner Funktionsweise nicht ohne weiteres zulässt, wird es, sofern es die Firmen wirklich weiter verfolgen, nur mit den bekannten Einschränkungen möglich sein.
Es ist also immer die Frage, wie wichtig den Firmen solche Marketingbezeichnungen noch wert sind, nachdem der Konsument erst einmal festgestellt hat, dass sein Rechner die Renderarbeit in 'null komma nix' auch durchführen kann ... und wie man bei FCPx sieht, sogar noch unmerklich im Hintergrund.
Mein Tipp... SR wird irgendwann im Orkus verschwinden und keiner wird's vermissen.

Space


Antwort von trautwin:

Danke! dann , hab ich recht? ist es ja unsinnig, überhaupt einen digikamera mit h264-avc zu kaufen, denn das material ist somit absolut nur ENDPRODUKT. man kan es nicht mehr bearbeiten wegen der idr framestruktur! hab ich recht??- ist 4x4 besser asl 8x8 quant-methode? je kleiner dei makroblöcke, asl desto besser die auflösung! ? wenn ich also den film in LOSSLESS konv. möchte, WELCHEN codec muss ich aslo nehmen, um KEINE KOMPROMISSE IN DER QUALITÄT einzugehen?? am besten möchte ich nur 4x4 quantizierblöcke benutzen, welcher codec macht das?? huffyuy? Ist rgb24 unkompressed KEIN lossless codec, gibt es hier qualiverluste?? >
Was die Filter betreffen, so führt jedes Filter immer zu einer Neucodierung. Auch wenn ich das material in einen absolut losless codex lege? trotzdem? AUCH BEI BEARBEITUNG IM LOSSLLESS UNCOMPRESDSED codec??? lb gruss

Space


Antwort von WoWu:

Ganz im Gegenteil.. H.264 ist (von den verlustbehafteten Codecs) der derzeit best entwickelte Codec und die Rechenleistung moderner Computer reicht, damit zu arbeiten.
Transcodierung in andere, verlustbehaftete Codecs oder Codecs, die andere Auflösungsparameter bieten, sind mit stärkeren Verlusten behaftet als das Rendern innerhalb von H.264. Bis auf den zeitlichen Aufwand, und der wird in modernen NLEs auch durch das Hintergrundrendern kompensiert, gibt es mittlerweile auch keine Notwendigkeit für das s.g. "smart rendering" mehr.
Versuche habe ergeben, dass selbst in mehrfachen Rendervorgängen (30x) keine nennenswertes Pixelshift mehr stattgefunden hat.
Solange es also beine Anforderungen gibt, die die derzeit verfügbaren Versionen von AVC übersteigen und ggf. zu transparenten Aufzeichnungen zwingen, oder Schwächen im Rechnersystem und damit verbundene Performanzgründe, gibt es keine vernünftigen Gründe zu transcodieren.Was die Filter betreffen, so führt jedes Filter immer zu einer Neucodierung. Auch wenn ich das material in einen absolut losless codex lege? trotzdem? AUCH BEI BEARBEITUNG IM LOSSLLESS UNCOMPRESDSED codec??? Ja. ist es ja unsinnig, überhaupt einen digikamera mit h264-avc zu kaufen, denn das material ist somit absolut nur ENDPRODUKT. man kan es nicht mehr bearbeiten wegen der idr framestruktur! hab ich recht?? Neinist 4x4 besser asl 8x8 quant-methode? je kleiner dei makroblöcke, asl desto besser die auflösung! ? Ja am besten möchte ich nur 4x4 quantizierblöcke benutzen, welcher codec macht das?? H.264st rgb24 unkompressed KEIN lossless codec R'G'B'24 ist zunächst einmal nur ein Farbraum.

Space


Antwort von trautwin:

Danke ! >..gibt es mittlerweile auch keine Notwendigkeit für das s.g. "smart rendering" mehr. hab ich richtig verstandenm, dass man h.264 oder x.264 noch einmal mit verscheidenen programmen wie z.b. ffdshow oder megui nachbearbeiten(scharpen...) kann? also rictig so, i lieber nciht in eienn lossless verwandeln, und DANN erst bearbeiten?... ffdshow hat ja auch diverse codec wie divx, h263.... aber MEGUI hat für x.264 mwehr einstellmöglichkeiten als ffdshow... woran liegt das?? Also beser so, DIREKT nur MEGUI nutzen, um x.264 marterial nachzubearbeiten und NICHT erst in einen lossless-codc zu wandeln? lb g russ anne aus herford

Space


Antwort von dienstag_01:

@trautwin
Was willst du denn eigentlich machen?
Ein komplettes Video nachschärfen? Oder fragst du allgemein nach einem Workflow für die Bearbeitung von AVCHD-Material (mit Schnitt und Effekten)?
So wie es jetzt steht, kommt es mir wie ein einziges Durcheinander vor.

Space


Antwort von trautwin:

Guten Tag lieber Admin! ich versuche hier mal etwas Ordnung tin die Fragen zu bringen... Wenn die Kamera schon h264 (bzw. x.264) aufnimmt, dann verarbeitet, also kodiert sie ja im Fotoapparat bereits den Film. Klar bis hier nur! Vorgang: Ich will schneiden. Frage 1.- Klar, nur an IDR-Frames. heisst , dass ich manche unerwünschte Stelle einfach mit hinübernehmen muss. Also Mist, schneiden kann man nicht framegenau ohne das ganze Gewebe zu vernichten. man kann also nict einmal INNERHALB eines GOPs selber schneiden, weil die Referenzframes irgendwo herumliegen, stimmt es? 2.- Wenn ich nachbearbeiten will, also sharpen,blur... kann ich OHNE VERLUSTE alles Beliebige am frame machen, solange ich den Film in einem LOSSLESS ( und/oder UMKOMPRIMIERTEN z.B. RGB24 Codec) Code bearbeite? Also es gibt selbst bei Filteranwendung KEINE Verluste? ich spreche jetzt davon, wenn ich innerhalb eines lossless-Codec das MJPEG oder auch AVCHD- Material bearbeite. Aber der Codex muss doch sicher neu berechnen, denn sharpen... ist ja eine Veränderung am Bild! Ich versteh hier nicht alles. 3.- Ist lossless und uncompressed dasselbe? 4.- Ich möchte in Virtualdub(=VD) meine Filme schneiden. MJPEG klar, ohne böse Folgen möglich. 5.- Wen ich das AviMJPEG- Material in VD lade, geschieht hier etwa eine verlusthafte FARBRAUMKONVERTIERUNG ? Wen ja, wie kann man sie vermeiden ? Ich hörte, dass YV12 besser sei. Das Ausgangsmaterial ist RGB, ist es da nach YV12 zu wandeln BESSER oder schlechter ? 6.- Wenn ich anch der bearbeitung den Film wieder anch x.264 umwandle, also wenn ich ihn endgültig speichern will, dann geschieht aj nun das 2. Mal eine reenkodierung auf de#m x.264 Material! behält der Kodec alle I,D,R,IDR - Frames bei oder erkennt er die ursprünglichen frames nicht mehr und macht etwa ein "unwichtiges" P frame zu einem IDR-Frame??? das hiesse ja total verhunzen das Gewebe! D A N N bliebe ich lieber doch beim pflegeleichten MJPEG-AVI-Material. 7.- Gibt Avisynth den Film direkt in VD oder muss ich den Film in VD laden, und AVISYNTHSCRIPTE direkt in VD speichern (laden)? Ich habe wenig Ahnung von Scripten, gibt es leichte Benutzeroberfläche um avs-Scripte zu erstellen? lieben dank , ich habe noch mehr Fragen, wie ich AspectRatio nehme, aber das ist ein Thema mit 10 Fragen dazu alleine! Ich schreibe sie ins Forum, nur wo? Lieben Dank für die schönen Antworten vorher. Wünsche euch schöne heisse Tage noch .

Space



Space


Antwort von Tiefflieger:

Wenn Du die best mögliche Qualität willst,

- stell die Kamera so ein, dass Du nicht mehr nachbearbeiten musst (vermeide Qualität verbessern in der Nachbearbeitung).
- Keine Transformationen im Rohschnitt und bearbeite es native (ohne Verluste). Von "GOP" zu "GOP" und ggf. mit Überlänge von ein paar Sekunden. (Tools unten)
- Jetzt hast Du ein "Orignal" mit allen Szenen und richtiger Reihenfolge.

Feinarbeit mit Schneideprogramm,
- Jetzt kannst Du dir überlegen welche Tonspuren, Gimmiks, angepasste Fremdszenen und Farbmanipulationen rein sollen.
- Dann renderst Du in einem Durchgang ins Zielformat (1. Qualitätskontrolle) und mach gleich mehrere Versionen (Bluray, PC only oder inhaltlich etc.).

Zu guter letzt musst du die fertige Qualität (Ergebnisse) kontrollieren.

Gruss Tiefflieger

Wenn Du im nativen Workflow unterhalb 1920 x 1080p50 Auflösung bleibst genügen zwei gratis Tools (d.h. AVCHD Originale in 1080i25, 1080p25 oder 720p50):
1. Af7merge (wie der Name sagt alle Szenen zu einer Datei zusammenführen)
2. tsmuxer (Tonspuren und Film, muxer und demuxer)

Wenn es um natives Szenen kürzen (Frame oder "GOP" genau) geht, dann verwende ich ein Komerzielles Tool.

Space


Antwort von dienstag_01:

Also, halten wir uns erstmal daran, was wir hier im Thread schon gelernt haben: AVCHD hat keine GOPs. Smartrendering nicht möglich.
Ich will schneiden. Frage 1.- Klar, nur an IDR-Frames. heisst , dass ich manche unerwünschte Stelle einfach mit hinübernehmen muss. Also Mist, schneiden kann man nicht framegenau ohne das ganze Gewebe zu vernichten. man kann also nict einmal INNERHALB eines GOPs selber schneiden, weil die Referenzframes irgendwo herumliegen, stimmt es? Nein, man kann überall schneiden.
2.- Wenn ich nachbearbeiten will, also sharpen,blur... kann ich OHNE VERLUSTE alles Beliebige am frame machen, solange ich den Film in einem LOSSLESS ( und/oder UMKOMPRIMIERTEN z.B. RGB24 Codec) Code bearbeite? Also es gibt selbst bei Filteranwendung KEINE Verluste? ich spreche jetzt davon, wenn ich innerhalb eines lossless-Codec das MJPEG oder auch AVCHD- Material bearbeite. Aber der Codex muss doch sicher neu berechnen, denn sharpen... ist ja eine Veränderung am Bild! Ich versteh hier nicht alles. Filteranwendung heisst immer Neuberechnung. Dabei entsehen genaugenommen IMMER Verluste, mal mehr, mal weniger. Meistens wird man die aber nicht wahrnehmen.
3.- Ist lossless und uncompressed dasselbe? Nein. Losless bedeutet "verlustfrei komprimiert".

Zu Avisynth und VD kann ich nichts sagen. Nur soviel allgemein: Ob man zwischendrin erst in einen sogenannten Arbeitscodec konvertiert, hat meines Erachtens eher was mit dem Workflow zu tun, nicht mit der Endqualität. AVCHD-Material braucht viel Rechenpower und lässt sich auf vielen Systemen nicht wirklich elegant (ruckelfrei) bearbeiten. Deshalb wandelt man.

Space


Antwort von trautwin:

> Losless bedeutet "verlustfrei komprimiert". das wusste ich nicht. da heist e s doch, Matroska MGU ..lossless. ich nahm an, lossless ist acuh ohne Kompression. dann ist der RGB24 EIN VOLLKOMMEN LOSSLESS Kodex??? danke dir Anna Bogomolowa

Space


Antwort von WoWu:

Es stimmt auch nicht.
LosLESS heist nicht verlustfrei sondern nur mit wenig Verlusten.

Space


Antwort von trautwin:

Es stimmt auch nicht.
LosLESS heist nicht verlustfrei sondern nur mit wenig Verlusten.Also heisst UNCOMPRESSED absolut verlustfrei?!? welchen Codec kensnt du full uncompressed? Lb Dank anni

Space


Antwort von trautwin:


Wenn Du im nativen Workflow unterhalb 1920 x 1080p50 Auflösung bleibst genügen zwei gratis Tools (d.h. AVCHD Originale in 1080i25, 1080p25 oder 720p50):
1. Af7merge (wie der Name sagt alle Szenen zu einer Datei zusammenführen)
2. tsmuxer (Tonspuren und Film, muxer und demuxer)

Wenn es um natives Szenen kürzen (Frame oder "GOP" genau) geht, dann verwende ich ein Komerzielles Tool. Also ish UNCOMPRESSED RGB 24 der allerbeste Codec der Welt??? andere s chreiben, das Huffyui das "heiligtum" für videos sei...was sol ich nun glauben ????

Space


Antwort von dienstag_01:

Es stimmt auch nicht.
LosLESS heist nicht verlustfrei sondern nur mit wenig Verlusten. MANNO.
Was denn nun schon wieder für Verluste bei "verlustlos"?

@trautwin
Ich denke, uncompressed scheidet sowieso aus, oder auf welcher Rechenmaschine willst du das abspielen?

Space


Antwort von dienstag_01:

@WoWu
Na, wenn du so kommst (dachte, du hast wieder technisches Hintergrundwissen):
http://www.dict.cc/?s=verlustlos

Edit: Schade, jetzt bin ich um meinen Sieg betrogen ;)

Space


Antwort von wolfgang:

Leute Leute, heute können etliche 70 Euro Schnittprogramme an JEDEM Frame schneiden, der Anwender ist in keiner Weise eingeschränkt. Das passiert alles im Hintergrund.

Wenn du also AVCHD schneiden willst, nimm dir Programme wie z.B. Vegas Moviestudio 11 Platinum, Powerdirector, Neo 3 - oder wenns gehobener sein soll eben Vegas Pro 10, CS5 oder Edius 6. Mit all diesen Produkten schneidet man heute AVC nativ problemlos, egal wo man will, die PCs sollten halt modern sein aber das wars auch schon (ab 700 Euro aufwärts gibts ja heute schon moderne i7 2600K mit durchaus guten Z68 Board).

Kaum einer quält sich heute für einen normalen AVCHD Schnitt mehr mit der Konversion in Intermediates oder Proxys, dafür brauchts keinen lossless oder gar unkomprimierten Codec - die noch viel mehr Anforderungen an die PCs stellen was die Datendurchsätze angehen würde, weil die Datein enorm groß werden. Also bitte einfach einen modernen PC nehmen, und mit den genannten Werkzeugen nativ schneiden und gut ist es.

Nur verabschieden sollte man sich von Gratis-Tools - zumindest in dem Bereich.

Space



Space


Antwort von WoWu:

@Dienstag
Du must dir die Codecs anschau'n, denn bei vielen, die zwischen 150 und 250 mBit/s liegen steht Lossless drauf sind aber Verluste drin.
Lossless beschreibt zunächst einmal gar nichts sondern deutet nur an, dass der überwiegende Bestandteil der benutzten Verfahren aus der EDV kommen (ähnlich den ZIP-Geschichten).
Aber die meisten dieser Codecs beinhalten noch andere Algorithmen deren Wirkung sich zwar in grenzen hält, aber nicht zu vergleichen mit einer transparenten Übertragung sind.
Sonst hätten wir schon gar keine transparenten Signalformen mehr und die Video-Welt sähe deutlich einfacher aus.

Und was noch dazu kommt ist natürlich, dass die Ausgangsformate, also YUV schon streng genommen durch die Unterabtastung eine Kompression gegenüber RGB erfahren haben.
das würde also bedeuten, dass bereits im Ansatz (YUV)- Lossless schon mit Verlusten behaftet sind.
Wo also fangen die Verluste an und wo hören sie auf.

Aber Wolfgang hat da ziemlich Recht ... ich weiss auch wirklich nicht, was der Thredsteller nun eigentlich will.

In dem Sinne ...

Space


Antwort von Tiefflieger:


Wenn Du im nativen Workflow unterhalb 1920 x 1080p50 Auflösung bleibst genügen zwei gratis Tools (d.h. AVCHD Originale in 1080i25, 1080p25 oder 720p50):
1. Af7merge (wie der Name sagt alle Szenen zu einer Datei zusammenführen)
2. tsmuxer (Tonspuren und Film, muxer und demuxer)

Wenn es um natives Szenen kürzen (Frame oder "GOP" genau) geht, dann verwende ich ein Komerzielles Tool. Also ish UNCOMPRESSED RGB 24 der allerbeste Codec der Welt??? andere s chreiben, das Huffyui das "heiligtum" für videos sei...was sol ich nun glauben ???? Hallo Trautwin,

Vorab ich bin Amateur und habe nichts mit professioneller Bildverarbeitung zu tun.

Wenn Du Eingangs von AVCHD sprichst, dann ist für mich der erste Schritt, dass 8 Bit Original im Rohschnitt zu erhalten.
AVCHD ist komprimiert und bleibt unverändert komprimiert und Szenen werden beim nativen Schnitt aneinandergehängt.
So hast Du weder bei der Farbverarbeitung oder sonstwie das Original verändert = es ist somit Verlustlos.

(Smartrendering habe ich selbst ausprobiert. Einen Film 6x hintereinander gesplittet und wieder zusammengesetzt.
Das heisst zerwürfelt.
Optisch wie auch in der Dateigrössse hat sich in der 6. Generation nichts verändert.)


24 Bit Farben in einen 30 Bit Farbraum überführen funktioniert (Es geht nach einfachen mathematischen Formeln).
Umgekehrt existiert eine Farbe im 24 Bit Farbraum nicht, wird ein Dittering gemacht und das heist Auflösungsverlust.
Somit macht es keinen Sinn eine 30 Bit Vorlage in einem 24 Bit Farbraum zu bearbeiten, auch wenn der 24 Bit Farbraum verlustlos wäre.

Somit ist es meiner Meinung nach wichtig bei professionellen Formaten dieses beizubehalten, sofern ein verlustloser Schnitt möglich ist.
Ansonsten eine Stufe in der Qualität nach oben.

Heikel wird es wenn Du auf Consumer Geräten Farbechtheit erreichen willst.
PC Monitore und ein gros an Fernsehmonitoren erreichen nur sRGB (24 Bit) Auflösung und auch das nicht zu 100%.
So kommt es schlimmsten Falls in Farbflächen zum Banding (Optisch sichtbaren Farbbändern).

Daher ist es aus meiner Sicht ein Risko ohne genaue Kentnisse und unsinnig 24 Bit RGB in 30 Bit RGB und wieder zu 24 Bit RGB zu wandeln, wenn nur 24 Bit gebraucht werden.
Anders sieht es bei Archivierung, Zukunftsicherheit und professionellem Workflows aus.
Da immer alles gleich gehandhabt, im gleichen Format und normiert vorliegen muss.

Gruss Tiefflieger

edit: PS ich habe jetzt mehr oder weniger nur von Farben und generell von Auflösung gesprochen.
Was wo und wie normiert ist must du Profis fragen, bzw. ist vielleicht vom Auftraggeber spezifiziert.
z.B. 1080i25, 720p50 / 10 Bit / 4:2:2 / Gamma / Kontrastverlauf etc.

Space


Antwort von wolfgang:

Also 8 bit sollen erhalten werden, aber 24 zu 30 bit wäre ein Thema? Die Consumer-Geräte arbeiten bisher alle als 8 bit, die zu erhalten ist durchaus problemlos möglich - man nehme die bereits genannten Schnittprogramme die das können, und die auch Superweiß korrekt behandeln - das ist im Gegensatz zu 30 bit durchaus relevant in der Videographie. Die professionelleren Formate benötigen 10bit, das können einige wenige Programme (aber auch die gibt es, dann sind wir halt in der 500-600 Euro Preisklasse der Software).

Nein, unkomprimiert zu bearbeiten hat enorme Kosequenzen, was die Datenmengen angeht - und ist daher nur im Ausnahmefall sinnvoll. Für den üblichen Videoschnitt ist das im Regelfall unnötig.

Space


Antwort von Tiefflieger:

Mit 8 Bit meine ich pro Kanal RGB, den 24 Bit Farbraum.
Wenn man im 24 Bit Farbraum bleibt, macht es aus meiner Sicht keinen Sinn diesen zu verlassen solange man nur 1x zur Ausgabe rendert.
Wenn es um Bild und Farbmanipulation geht, bleibt alles im gleichen Raum.
Und ist vermutlich Anfänger proof.

Aber wenn professionelle Software die Transformation von 30 Bit zu 24 Bit unterstützt und es nicht zu Ungenauigkeiten kommt habe ich nichts dagegen. :-) (Kummulierte Rundungsfehler)

Die Einschränkung zu Professionalität (meiner Meinung nach) habe ich unten beschrieben. Da alles spezifiziert vorliegen muss.

Space


Antwort von wolfgang:

Ja das ist schon klar, aber ich sag dir ja: die Probleme liegen eher dort, wo eine Software mit dem Superweißbereich nicht sauber umgehen kann, hier etwa den Umfang von 0..255 auf 16..235 reduziert. Die Consumer-Kameras filmen aber im Bereich über 235 sehr wohl, nur für Sendeanstalten gibts hier die Begrenzung auf den sendesicheren Bereich (was aber für den Privatfilmer uninteressant ist, für jemanden im Broadcast-Bereich natürlich nicht).

Aus der Praxis ist es halt so, dass die richtigen Werkzeuge den 8bit Bereich sauber erhalten. Egal, ob ich nun DV, HDV oder AVCHD schneide. Das sind halt alles Consumerformate, für deren Bearbeitung es eigentlich kaum einen Sinn macht, auf 10 bit zu gehen.

Was wir fallweise schon diskutieren und auch mit eher einfachen Mitteln prüfen, ist eben die Frage ob Superweiss von einer Darstellungskette korrekt dargestellt wird - oder ob etwa ein HDTV hier grausam abschneidet. Sowas läßt sich schon mit einfachen Testbildern sehr wohl prüfen.

Space


Antwort von Tiefflieger:

Ich habe noch eine Frage zu super weiss?

Ist da jetzt der Weisspunkt 6500 K bei Gamma 2.2 (TV) ,
und/oder bei RGB Wertigkeit 235/235/235 gemeint?

edit: Der YUV-Analog-TV-Farbraum (inkl. schwarz/weiss Information) hat ja noch eine Helligkeitsinformation.
(Kino hat ein anderes Gamma?)

Entschuldige das sind jetzt vielleicht ein bisschen viel Begriffe von mir durcheinandergewürfelt.

Space


Antwort von dienstag_01:

Gemeint ist damit Weiss oberhalb von 235/235/235, welches ausserhalb der Videonorm liegt.

Space


Antwort von Tiefflieger:

Danke dienstag_01 :-)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Adobe Premiere Pro / Elements / SpeedGrade / Creative Cloud CC-Forum

Antworten zu ähnlichen Fragen //


Kann Davinci Resolve auch H.264-Material rendern?
Video- / Bildübertragung von einer Videokamera auf ein Smart TV
Neue Smart, Odysseyund ViewFinity Monitore von Samsung mit OLED und KI
Medienorganistion AVCHD und FCPX
Probleme mit AVCHD-Interlaced und FCPX
Premiere Pro Hardwareanforderung für Multicamschnitt HD AVCHD
lange AVCHD Videos in Premiere Pro organisieren
AVCHD-Videos schneiden. Welches Muxer-Ausgabeformat?
Tonlücke bei AVCHD Szenen
AVCHD-Video mit mehr als 18 Mbps mit DMR BS 785 brennen
AVCHD konvertieren oder nicht für Premiere Pro?
Premiere Pro - Reihenfolge beim Bearbeiten / Rendern von 4k auf 1080p
Wer von euch arbeitet mit alten Fernsehsender Material?
Ruckeln von Material aus GH5 mit 59,94 FPS (statt 50 FPS vorher)
Abspielen von .braw Material auf einem Laptop
Crop von 4k Material
Metabones Smart-Adapter T
Neue Firmware für DJI Mini 2 bringt Unterstützung für den DJI Smart Controller




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash