Hatte ich auch nicht geschrieben, lies noch mal richtig.dienstag_01 hat geschrieben: ↑Sa 25 Mär, 2023 14:28 Ein Dateiformat verlangt eine Datei. Auf dem Band werden keine Dateien gespeichert.
Hatte ich auch nicht geschrieben, lies noch mal richtig.dienstag_01 hat geschrieben: ↑Sa 25 Mär, 2023 14:28 Ein Dateiformat verlangt eine Datei. Auf dem Band werden keine Dateien gespeichert.
Im Gegensatz wozu? Die sonstigen Bendformate der Zeit? Also waren auf einer Beta SP keine MOV Dateien??! 😳
Alles gut, dann hatte ich dich falsch verstanden.cantsin hat geschrieben: ↑Sa 25 Mär, 2023 14:39Hatte ich auch nicht geschrieben, lies noch mal richtig.dienstag_01 hat geschrieben: ↑Sa 25 Mär, 2023 14:28 Ein Dateiformat verlangt eine Datei. Auf dem Band werden keine Dateien gespeichert.
Himmel, ist es jetzt mal genug? Das war doch längst klargestellt.Jott hat geschrieben: ↑Sa 25 Mär, 2023 06:08 Asjaman:
„ Wenn ich zB ein Video mit Stereo-Audio (als 2 embedded Audio Channels in einer Stereo-Spur) mit zwei Interview-Stimmen hart links und hart rechts habe“
Das ist kein Stereo. und auch keine Stereospur. Ich geb‘s auf, das ist wie gegen eine Wand reden! :-)
Da liegt eben der Denkfehler.Skeptiker hat geschrieben: ↑Sa 25 Mär, 2023 16:05 Der Einwand mit der zusätzlichen, überflüssigen Leer-Information ist sicher richtig, man kann sich höchstens fragen, ob das Endergebnis in ProRes durch den professionellen Codec besser aussieht als in DV (wenn beide zum fairen Vergleich interlaced wären - mit FCP 7/10 ginge das Interlaced-Capturen von DV-Quelle nach ProRes wohl, habe es aber nicht ausprobiert und weiss es deshalb nicht).
Die 10bit sind zwei Nullen Luft, weil DV-Video codec-/aufzeichnungstechnisch-bedingt nur 8bittig ist. Ebenso gibt es auch nur 4:2:0-Chromasampling im aufgezeichneten Material und erzielst Du daher auch mit ProRes keine 4:2:2.Vergleich der beiden Formate
DV PAL (Quellformat):
Chroma (und Luma) Sampling: 4:2:0 -> 6 (4+2+0)
Bit-Tiefe: 8 bit
ProRes (Zielformat):
Chroma Sampling: 4:2:2 -> 8 (4+2+2)
Bit-Tiefe: 10 bit
Hallo cantsin,cantsin hat geschrieben: ↑Sa 25 Mär, 2023 16:18Da liegt eben der Denkfehler.Skeptiker hat geschrieben: ↑Sa 25 Mär, 2023 16:05 Der Einwand mit der zusätzlichen, überflüssigen Leer-Information ist sicher richtig, man kann sich höchstens fragen, ob das Endergebnis in ProRes durch den professionellen Codec besser aussieht als in DV (wenn beide zum fairen Vergleich interlaced wären - mit FCP 7/10 ginge das Interlaced-Capturen von DV-Quelle nach ProRes wohl, habe es aber nicht ausprobiert und weiss es deshalb nicht).
Das Video liegt auf dem Band bereits im DV-Codec vor.
Für diese Artefakte gibt es Effekte, ich kenne DV Fixer von Boris FX.Skeptiker hat geschrieben: ↑Sa 25 Mär, 2023 16:44Hallo cantsin,
Ich war schon halb im Aufbruch, da fiel mir ein, dass genau dieser Teil missverständlich bzw. falsch ist. Wollte es gerade noch korrigieren, aber war mir sicher, dass darauf schnell die Erwiderung kommen würde, die nun von Dir kommt. Gut aufgepasst!
Ja stimmt - das Video ist bereits in den "DV-Brunnen" gefallen - es ist bereits mit einem nach heutigen Ansprüchen eher mittelmässigen Codec kodiert!
Es würde auch keinen Unterschied machen, zunächst in DV zu capturen und anschliessend nach ProRes umzurechnen.
Das Einzige, was ich mir von einem ProRes-Kodieren erhoffen würde, ist eine nachträgliche Korrektur der starken Aliasing-Effekte von DV-Material (es gibt bei geometrischen Objekten mit im Bild bewegten Kanten aller Art ein Konturenflimmern, das mir gesten am Monitor wieder deutlich auffiel).
Und zweitens zusätzlich mehr Bildqualität, falls ich über mehrere Durchgänge in unterschiedlichen Programmen gehen müsste und dabei immer wieder Zwischenspeichern würde (dann eben in ProRes/ ProRes HQ).
Die Lösung könnte sein, analog aus dem Camcorder zu gehen und so den DV Codec zu umgehen. Aber das ginge auch nur sinnvoll live mit einem externen Aufnahmegerät, ansonsten müsste die Aufnahme ja zunächst im der Kamera gespeichert werden und ist dann eben schon DV-kodiert.
Mein Panasonic DV-Camcorder AG-DVC30 zeigt live im Record-Modus per S-Video direkt am TV (quasi als Vorschaumonitor) ein klar besseres Bild, als wenn das gleiche Bild zunächst auf DV-Band gespeichert und anschliessend ebenfalls per S-Video am TV betrachtet wird.
Ich habe mir damals bereits nach dem kurz Kauf den Kopf zerbrochen, ob ich das DV-Tape irgendwie extern umgehen könnten aber keine Lösung gefunden (externes MPEG-2 ging nur für HDV).
So - jetzt aber schnell auf und davon .. .. ;-)
Die KI-Videoverbesserungs-Tools von Topaz bügeln solche Artefakte auch aus.dienstag_01 hat geschrieben: ↑Sa 25 Mär, 2023 17:08 Für diese Artefakte gibt es Effekte, ich kenne DV Fixer von Boris FX.
Die typischen DV-Artefakte sind vor allem bei PAL DV Treppenstufen an harten Farbübergängen durch die 4:2:0 Farbunterabtastung und dem gegenüber MPEG-2 mit ebenfalls 4:2:0 Farbunterabtastung ungünstiger gelegenen Samplepunkt für die Chrominanz... kriegt man mit VirtalDub oder Avisynth programmintern weg, oder mit Drittherstellerdecodern (von Mainconcept gab es mal einen) welche die Farbinformationen ebenfalls hochinterpolieren konnten.cantsin hat geschrieben: ↑Sa 25 Mär, 2023 19:26 Die KI-Videoverbesserungs-Tools von Topaz bügeln solche Artefakte auch aus.
Es handelt sich um ganz simple Block-Artefakte, wie man sie auch bei niedriger JPEG-Qualität bekommt. Mehr zu dem Thema hier:
https://en.wikipedia.org/wiki/Compressi ... act#Images
Noch einer …dienstag_01 hat geschrieben: ↑Sa 25 Mär, 2023 14:59 Ich wollte nur nochmal darauf hinweisen, dass es kein natives Dateiformat sondern nur Daten gibt, die beim Capturen in eine Datei geschrieben werden.
Da man in einigen NLEs beim Capturen den Codec frei wählen kann, liegt dort eine Fehlerquelle. Nativ ist da nichts. Im Gegensatz zu z.B. HDVsplit, dass kann wirklich nur den Datenstrom in einen MPEG2-Transportstream schreiben.
Geht auch über Firewire.Jott hat geschrieben: ↑Sa 25 Mär, 2023 21:32Noch einer …dienstag_01 hat geschrieben: ↑Sa 25 Mär, 2023 14:59 Ich wollte nur nochmal darauf hinweisen, dass es kein natives Dateiformat sondern nur Daten gibt, die beim Capturen in eine Datei geschrieben werden.
Da man in einigen NLEs beim Capturen den Codec frei wählen kann, liegt dort eine Fehlerquelle. Nativ ist da nichts. Im Gegensatz zu z.B. HDVsplit, dass kann wirklich nur den Datenstrom in einen MPEG2-Transportstream schreiben.
Jedes Schnittprogramm nimmt den MPEG 2-Transport-Stream, legt lediglich einen ihm genehmen Wrapper drumrum und popelt die beiden Audiospuren aus dem Stream. Das war‘s. Nennt man schon immer nativ. Bit für Bit. Und so wird dann auch geschnitten.
Codec frei wählen? Wenn man von hinten durch die Brust über analoge Wege einspielt, dann ja. Aber ich dachte, wir sind bei FireWire?
Fein, Jott, und jetzt schaust du mal, ob dein NLE dich "zwingt", in HDV zu capturen? Je länger ich darüber nachdenke, um so weniger wahrscheinlich halte ich das. Gerade für HDV bietet sich doch ein Standardformat mit 1920 Pixeln in der Breite an.Jott hat geschrieben: ↑So 26 Mär, 2023 07:27 Zum Hintergrund des „Aufregens“:
Wir hatten in den Jahren 2005 bis 2008 sehr sehr viel mit HDV-Kameras von Sony produziert. Teures Auftragszeug für die Industrie. HD-Aufnahmen waren bis darin ein sechsstelliger Spaß, plötzlich kamen diese Camcorder für 5.000 Euro. Die Klassiker: Z1, dann Z7.
Technisch war das so einfach wie alles andere, nein, sogar viel einfacher: Aufnehmen, Einspielen via FireWire (Mac), Schneiden. War ja auch nichts exotisches, der Codec ist heute noch Weltstand im Broadcast-Bereich. In allen Kameras, die XDCAM nutzen, findet sich auch heute noch „HDV“ (MPEG 2 mit 25 Mbit). Wegen eines gut gefüllten Archivs tuckert auch heute noch bei uns eine HDV-MAZ (unzerstörbar wie alle früheren Sony-MAZen), um an alte Sachen ran zu kommen.
Also: wieso dieses zum Teil unglaubliche Geschwurbel in diesem Thread zu einem stinknormalen Videoformat? Oder auch zu DV?Das lässt einen einfach ratlos zurück.
Die Tonverwirrungen sind einfach solche per se, hat nichts mit DV oder HDV oder sonstigen Formaten zu tun. Mindestens zwei getrennte Tonspuren haben alle, damals wie heute.
Ich glaube mich zu erinnern, dass ich im Avid den Codec auswählen konnte. Es kann aber sein, dass ich das mit dem Import von Transport-Streams verwechsel. Öfter als über Avid habe ich über externe Tools gecaptured, das lief besser, gerade auf dem Laptop.Jott hat geschrieben: ↑So 26 Mär, 2023 11:06 Es gibt über FireWire keine „Auswahl“ zum Capturen. Ist immer HDV, je nachdem. Nativ halt.
Ich kann mir nicht vorstellen, dass du das nicht weißt. Du tust nur so. Warum?
Irgendeine Umwandlung wäre obendrein sinnlos, gerade weil alle NLEs seit spätestens 15 Jahren perfekt mit MPEG 2 Long GoP umgehen können. Nein, müssen, wegen diesem heißgeliebten Broadcast-Format, das nie ausstirbt. Nur Consumer-Software, die nichts mit Broadcastformaten zu tun haben will, wandelt zuweilen zu irgendwas um. Das ist dann aber dem eigentlichen Einspiel-Vorgang nachgelagert, denn über FireWire ... blabla, zum zehnten Mal ...geht's nur nativ.
Dass ein schlauer NLE erkennt, wenn anamorphes Material in die Timeline purzelt und automatisch zur korrekten Wiedergabe entsprechend die Darstellung stretcht, sollte auch nichts Neues sein.
Es gibt und gab einige Programme wo man beim Aufzeichnen den 1:1 Datenstrom direkt transkodieren konnte, was dann wohl so wirkte als ob das eine Art "Formatauswahl" ist. Ähnlich heute wenn man bei Blackmagic, AJA, etc. Uncompressed einspielt und das Captureprogramm das je nach Einstellung direkt in Echzeit in was Verlustbehaftetes umrechnet. "Schau mal die 30 Jahre alte Digibeta konnte schon ProRes und H.264" *lol*
Nach dem langen Exkurs in die spannende Geschichte von HDV:
Hallo Jott,
Bei MXF und ProRes kann man allerdings die Kanäle "gruppieren" und auch Angaben hinterlegen ob das Mono, Stereo, oder whatever sein soll... ich musste mal einem Kunden hunderte Masterdateien für ne Austrahlung umstricken weil die Monokanäle 1-2, 3-4 jeweils als Stereopärchen getaggt waren (was sie in dem Falll ja auch tatsächlich waren, einmal deutsch, einmal englisch)... obwohl jede Software das problemlos als Kanal 1 - 4 importiert hat bestanden die darauf das Layout auf 1 - 4 als Monospuren getaggt abzuändern.Jott hat geschrieben: ↑Mo 27 Mär, 2023 18:18 "während es in der *.m2t Datei vom Sony HDV-Recorder (der auf CF aufnimmt) eine Audiospur mit 2 Kanälen ist."
Okay. Es gibt immer noch keine zweikanaligen Audiospuren! :-)
Du stolperst wahrscheinlich über eine Darstellung in deinem Schnittprogramm (welches eigentlich?) - das dir zwei Spuren als eine Stereospur "verkauft", wozu auch immer. Denn wissen, ob es tatsächlich eine Stereoaufnahme ist, kann es nicht. Aus der Kamera kommt so was jedenfalls nicht, da gibt es nur zwei getrennte Spuren.
Sony: Unterschiede zwischen Transportstream von Band und CF? Hatte ich nie mitbekommen, den Anklickrecorder hatten wir auch. War immer völlig egal, was man einliest. Ergebnis natürlich immer zwei getrennte Spuren.
Canon: bei denen halte ich mich raus. Die Firma - so gut sie heute auch ist - hatte damals in vielen Punkten auf die festgelegte HDV-Norm gesch ..., worunter heute noch viele leiden, die an altes Cassettenmaterial ran wollen. Traurig.
Wie gesagt, ich glaube, es ist dein Schnittprogramm, das dich durch eine komische Darstellung ins Grübeln bringt, sonst nichts.
Richtig, leider wird man diese Altlasten auch nicht los weil man sich die Investition in einen dateibasierten Transfer spart bis es gar nicht mehr anders geht... wobei bei Ersatzteilen für Digibetas langsam auch die Luft dünn wird und die Leute die sich noch damit auskennen auch immer rarer gesäht sind.
danke dir.Jott hat geschrieben: ↑Mo 27 Mär, 2023 18:18 "während es in der *.m2t Datei vom Sony HDV-Recorder (der auf CF aufnimmt) eine Audiospur mit 2 Kanälen ist."
Okay. Es gibt immer noch keine zweikanaligen Audiospuren! :-)
Du stolperst wahrscheinlich über eine Darstellung in deinem Schnittprogramm (welches eigentlich?) - das dir zwei Spuren als eine Stereospur "verkauft", wozu auch immer. Denn wissen, ob es tatsächlich eine Stereoaufnahme ist, kann es nicht. Aus der Kamera kommt so was jedenfalls nicht, da gibt es nur zwei getrennte Spuren.
Sony: Unterschiede zwischen Transportstream von Band und CF? Hatte ich nie mitbekommen, den Anklickrecorder hatten wir auch. War immer völlig egal, was man einliest. Ergebnis natürlich immer zwei getrennte Spuren.
Canon: bei denen halte ich mich raus. Die Firma - so gut sie heute auch ist - hatte damals in vielen Punkten auf die festgelegte HDV-Norm gesch ..., worunter heute noch viele leiden, die an altes Cassettenmaterial ran wollen. Traurig.
Wie gesagt, ich glaube, es ist dein Schnittprogramm, das dich durch eine komische Darstellung ins Grübeln bringt, sonst nichts.
Naja, das ist eben der Container, den FCP7 beim Abspeichern der Firewire-Signale nutzt.
Ich rede von den Eigenschaften der resultierenden Dateien, da ist das Capturing doch längst passé. Zuletzt kamen noch Files aus dem HDV Recorder hinzu (von CF Karte, *.m2t)
Sind hybride Kameras für die szenische Arbeit etwa "fertig" entwickelt? Und falls ja, was bedeutet dies für die Zukunft dieser Geräteklasse? weiterlesen>>