Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Infoseite // Rendereinstellungen für Zeitraffersequenz



Frage von pete1234:


Ich bin gerade dabei Sequenzen für Zeitrafferclips zu erstellen.
Problem ist, das ich die Sequenzen aus RAW-Fotos bestehen.
Also für 10s 250 Fotos a ca. 27 MB, was ungefähr 8 GB an Speicher bedeutet.

Würde ich für den geplanten Clip von 3 min die gesamten RAW-Fotos auf meinem Laptop speichern, kann sich jeder ausrechnen wie groß die
Festplatte sein müsste.

Ergo, geht also nicht.
Somit bleibt nur die Option die 10s Clips vorzurendern.
In AAE benutze ich den Codec MainConcept H.264Video mit http://lrtimelapse.com/ VBR, 1-Pass
mit 6 Zielbitrate und 10 Maximale Bitrate.

Wenn ich diese Einstellungen im Endclip zusammensetzen möchte, wäre es dann eine Option die jeweiligen Bitraten zu verdoppeln, damit das Filmchen OHNE Qualitätsverlust zusammengesetzt werden kann?

Gesehen werden sollen die Clips für meine Familie (großer Flat) und für Freunde (Web) in 1080p.

Space


Antwort von B.DeKid:

Warum fotografierst du in RAW und nicht in Jepg , desweiteren , warum fotografierst in voller Auflösung (Pixel).

.............

Die RAW Bilder musst du ja eh entwickeln und somit werden die dann auch nicht mehr gebraucht. Dadurch verbrauchst dann auch nicht mehr soviel Platz.

.........

Vorrendern und nachher zusammen legen der einzelnen Clips ist zwar möglich aber könnte Qualitative Unterschiede mit sich bringen.

MfG
B.DeKid

Space


Antwort von pete1234:

Ich fotografiere in RAW, weil ich über Encore und LRTimelapse (http://lrtimelapse.com/) Kontrolle über WB bei Sonnenuntergängen haben möchte, außerdem kann ich die die Schärfe und die Farben besser nach meinen Wünschen verändern.

Space


Antwort von B.DeKid:

Ja schon klar aber am Schluss wirst du die Bilder doch eh entwickeln und dadurch haben die auch keine 27MB mehr ( es sei denn du machst grosse Tiff Datein daraus was ja nicht relevant ist)

Somit versteh ich nicht dein Prob. Wieviel Tage / Stunden willst Du denn aufnehmen? Dazwischen musst doch eh mal die Datein sichern.

MfG
B.DeKid

Space


Antwort von pete1234:

Ja, aber wenn ich die Bilder entwickle, dann hat jedes Bild in jpeg immer
noch eine große Größe und es sind immer noch 250 Bilder anstatt ein 10s
Clip mit ca 20MB und das ist bedeutend weniger als die Bilderanzahl.
Außerdem muss ich die Bilder noch rendern in APP, den 10s Clip nicht
mehr, was eine Zeitersparnis ist, oder liege ich da qualitativ falsch ?

Space


Antwort von B.DeKid:

Du sprichst doch von ner Fotokamera oder ?

Du machst 3 Std alle 5 Sek ein Bild zB

Dann hast du die ganzen Bilder vorliegen , nun schnappst dir dein RAW Entwicklungs Progi und lässt die Bilder entwickeln

Nun legst die Bilder mit irgendeinem Progi zusammen so das ein Filmchen erstellt wird.

Das wars dann schon ... die RAW Bilder kannst dann löschen schon nach dem rendern ( von RAW zu zB jpeg)


...........

Wenn du hingegen filmst dann macht die Kamera deiner wahl eventuell alle 5 Sek 10 FpS (Video Aufnahme) danach muss man dann die VideoDatei meist einfach mit der Geschwindigkeit etwas schneller regeln .

MfG
B.DeKid

Space


Antwort von pete1234:

Genau, ich fotografiere die Bilder in mehreren Stunden.
Tagsüber ca. 2 Stunden, je nach Geschwindigkeit der Wolken.
Nachts über ca. 4 Stunden.

Filmen in der Nacht geht nicht, wegen 12 minuten und so.

Meine Frage ist lediglich, reduziert sich die Videoqualität dermaßen
von 12/20 MBIT auf 6/10 MBIT, dass es auf einem Flat im nachrendern zu
sehen ist?

Space


Antwort von B.DeKid:

Also als erstes würde ich hier mit CBR rendern damit die Farben Schwarz erhalten bleiben.

Der Unterschied der Durchgangsraten sollte nicht wirklich relevant sein.

MfG
B.DeKid

Space


Antwort von pete1234:

Ok, werde einen Vergleich mit CBR mit verschiedenen Datenraten starten.
Kannst du mir einen Link schicken, der mich mit dem Thema rendern
vertrauter machen kann?

Danke übrigens für Deine Hilfe...

Space



Space


Antwort von Blackeagle123:

Hey,

aus den 8Gb werden im jpeg-Format (in geringer Auflösung) vll noch 2Gb.

1Gb für 10 Sekunden, bedeutet:

3600Gb für eine Stunde.

Und wo ist das Problem?? Filme doch erstmal in HD-Auflösung und übertrage es auf Deinen Rechner. 2Tb-Festplatten kosten doch heute nix mehr!

Jetzt will ich mal ein 1-Stunden-Timelapse-Video sehen! ;-) (Da drehst Du ja ein Jahr dran!)

Und da Du zwischen den Timelapse immer Zeit hast, kannst Du dir zwischendurch Videoclips ausgeben und speichern und danach die Fotos löschen! Sparst Du auch nochmal Speicherplatz. Würde dann entweder eine hochqualitative Quicktime (HD) oder eine Microsoft-DV-avi (SD) draus machen.


Viele Grüße!

Space


Antwort von B.DeKid:

Rendern bzgl was

- welches Progi
- Unterschiede CBR und VBR
- Render Grüsse sowie Codecs


Nein dazu hab ich leider keinen allgemein Link an der Hand.

Wenn du spezifische Probs hast meld dich einfach hier erneut.

Bzgl testen der Render Settings ... schnapp dir nen Kurzen Clip und lass diesen in verschiedenen Settings rendern und betrachte ihn auf deinem Ausgabe Bildschirm.



MfG
B.DeKid

Space


Antwort von pete1234:

Unterschiede zwischen CBR und VBR im Bezug auf Flatscreen (PAL) und Progi
AAE und APP.
Habe leider keinen Flat vor Ort wie mein Vater.
Würde gerne wissen welche Datenrate ich benutzen muss und welchen Codec
für die Beste Darstellung ist.

Will ein paar theoretische Grundlagen.

@Blackeagle123

Will ja gerade diese TB-Datenmengen vermeiden, deshalb mein Anliegen

Space


Antwort von B.DeKid:

Die CBR ( Konstanter Wert der Datendurchsatzrate) unterscheidet sich gegenüber der VBR ( Variable Durchsatzrate)

Dadurch das egal was für Bilder kommen und wieviel FarbInfos oder Bewegung sie haben , die Datenrate gleich bleibt.

Sprich bei der VBR wird meist 2 Pass Verfahren genutzt , beim ersten durchgang wird das Video / die Bilder analysiert.

Bei wenig Bewegung und wenig Farben wird die Datenrate herunter gesetzt und man spart quasi Platz bzw Dateingrüsse ein.

Das kann gut sein wenn man Platz sparen möchte kann aber gerade bei NachtFotos / Aufnahmen auch dazu führen das eben alles eine einheitliches Schwarz Ton bekommt.

Zeichnungen im Schwarz werden so also mehr geschluckt und quasi weggelassen.

Dies wirkt sich zB auf Wolken aus .

.................

Mit nem Flat Screen hat das eigentlich nichts zu tun. Willst du also das maximale an Zeichnung und Quali erhalten dann solltest du besser mit der CBR rendern ( mein Tip)

.....................

Das Du in RAW fotografieren willst ist nur von Vorteil wenn du wirklich noch gewisse Bildanteile später extrem anpassen musst / möchtest.

In der Regel macht das aber kaum Sinn, weil :

Erstens ist je nach Weissabgleich Setting , die Kamera schon so eingestellt das sie selber sich darum kümmert .

Zweitens ist ein fester Weissabgleich sinnvoller wenn du Sonnen Auf und Untergänge fotografieren willst da so auch die sich ändernden Helligkeitsstufen erhalten bleiben.

Du kannst also getrost auch direkt mit JPEG arbeiten und selbst diese JPEGs durch Gradiationskurven / Helligkeit/Kontrast später noch anpassen.

Selbst psydo HDR Aufnahmen sind so möglich in dem Du quasi die Orginal JPEGs einmal zu hell und einmal zu dunkel ausgeben lässt und mit den Orginal Bildern verrechnen lässt.

So hebst du den Dysnamik Umfang etwas an. Mit Raw kann man das zwar noch nen Tick extremer machen nur macht das eigentlich kaum Sinn , weil dein Video eh meist mit 4:2:0 8 Bit abgespeichert / ausgegeben wird.

Sofern ist deine Befürchtung von wegen zuviel Daten kaum Nachzuvoll ziehen.

Viel wichtiger ist es das du den richtigen BildAusschnitt suchst und beachtest weil du ja am Schluss ein zB 16:9 Filmchen ausgibst .... jenachdem wieviel du künstlich durch das Bild schwenken oder sogar Zoomen willst musst du halt die Auflösung ( Pixel) wählen.

Für dein Video reicht PP vollkommen AE brauchst du quasi nicht.

MfG
B.DeKid

Space


Antwort von pete1234:

Danke für die ausführliche Antwort.
Ich werde das mal testen.

Space


Antwort von Blackeagle123:

Meine Frage: Kann das von Dir verlinkte Programm denn auch aus RAW-Fotos ein HDR-Video machen? Oder muss man dafür immernoch mehrere Fotos nacheinander schießen, einzelne HDR-Fotos daraus machen und dann erst in ein Video zusammenfügen? Ist nämlich sehr aufwendig und es wäre cool, wenn das leichter ginge.

Viele Grüße!

Space


Antwort von pete1234:

Nein, kann es nicht.
Es dient hauptsächlich dazu das sogenannte "flickern" in den Griff zu
bekommen.
Das entsteht dann, wenn man im Av Modus fotografiert bei ständig wechselndem Lichteinfall.

Du brauchst Photomatix Pro. Damit kannst du aus einzelnen Raw-Fotos
HDR-Clips erstellen.

Space


Antwort von Blackeagle123:

Photomatix Pro Seit wann unterstützt das denn Video-CLIPS, kenne das nur um HDR-Images zu machen! Danke!

Oder meinst Du, dass ich damit einzelne HDR-Images mache und die jpegs dann als Videoclip importiere? (Dann wieder das Flicker-Problem)

Viele Grüße!

Space


Antwort von pete1234:

natürlich macht photomatix nur einzelne fotos, zusammensetzen musst
du die schon in PP oder ähnlichem, zuvor kannst du sie aber mit lr-timelapse vom flickern befreien.

Space



Space


Antwort von Blackeagle123:

Es gibt aber gerade bei der Erstellung von HDR-Fotos große Unterschiede und das Flackern kann da stark erhöht werden. Deswegen frage ich mich, ob es nicht ein Programm gibt, mit dem man eine ganze Videosequenz erzeugen kann und den Weißabgleich/ Schwarzwert für das ganze Video einstellen kann... Dann kann man z.B. den Weißabgleich oder die Blende während des Videoclips verändern!

Wäre so langsam mal notwendig!
Oder macht das auch LRTimelapse?

Space


Antwort von pete1234:

bevor du photomatix anwendest kommt lrtimelapse zum einsatz.
dann entweder in lightroom oder encore die bilder verändern und vor allem
dann synchronisieren.
und bumm hast du kein flicker mehr.
dann zu photomatix.

hier zwei videos, dann weisst du über alles bescheid.

http://www.vimeo.com/22357665
http://www.vimeo.com/20300232

Space


Antwort von B.DeKid:

Orginal Fotos in eine Spur drüber 2 Spuren einmal zu dunkel einmal zu hell ,,,, dann das ganze via Deckkraft mischen eventuell noch Masken verwenden fertig ist nen DRI aka psydo HDR

MfG
B.DeKid

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Postproduktion allgemein-Forum

Antworten zu ähnlichen Fragen //


Großes Update für DJI Mini 2 bringt Zoom für Photos, mehr Frameraten für 2.7K Videos und mehr
Allrounder bietet Mitarbeit für lau für Produktionen in Hessen
Fujifilm Webcam Tool für neue Kameras und bald auch für Macs
Suche Vorlage für Einverständniserklärung / Rechteabtretung für Film
Für Panasonic-S1H (RAW) Filmer: AtomOS Firmware 10.52 für Atomos Ninja V ist offiziell
Neue Funktionen für Sonys Virtual Production Services für Live-Produktionen per Netz
Blackmagic DaVinci Speed Editor: Kompakte Tastatur für Resolve inklusive Studio Lizenz für 299 Euro!
Mainconcept Codec Plugin für DaVinci Resolve bringt Support für HEVC, Sony XAVC/XDCAM und P2 AVC Ultra
Premiere Pro: Bester Workflow für 4K + HD-Material für Square-Video?
Panasonic: Neue Firmware für Lumix S1H/S1R/S1 und S5 bringt besseren AF und RAW-Output für S5
Neue Firmware für DJI RS 2 und RSC 2 Gimbals bringt Unterstützung für neue Kameras
Atomos: Firmwareupdate für Ninja V bringt ProRes RAW für Olympus OM-D E-M1X und E-M1 Mark III
Tentacle Timecode Tool v.1.20 für Windows und Studio 1.30 Beta für MAC
160 Mio.$ für "Red Notice", 200 Mio.$ für "The Gray Man" - dennoch schafft es Netflix nicht
Firmware-Feuerwerk bei Panasonic - u.a. BRAW für S1H und internes 6K MOV für S1
Canon LOG 3, RAW Light und IPB Light für EOS R5, 1-D X III sind da - für EOS R6 auch bald LOG 3
Neue Firmware für DJI Mini 2 bringt Unterstützung für den DJI Smart Controller
Rode welche Kabel für Wireless Go und VideoMIC NGT für Atemin Mini




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash