Ich habe die Kamera auch ausprobiert und fand den Clipping-Punkt sehr eindeutig. Wie oben schon gesagt wurde, konnte man sich an der Linie zuvor auch orientieren. Und in deinem Beispiel sehe ich doch auch klar, wo es clippt. Klar hilft die neue Linie, aber es ging auch vorher ok.cantsin hat geschrieben: ↑Di 27 Jan, 2026 19:41Hier mal ein Gegenbeispiel, gerade eben aufgenommen. Die Lampe ist geclippt (wie durch die Clipping-LUT auch korrekt angezeigt), aber ohne die rote Linie wäre das nur schwer oder gar nicht im Waveform Monitor zu sehen:pillepalle hat geschrieben: ↑Di 27 Jan, 2026 19:27 PS: 1 mm neben der roten Linie ist doch eine 2/3 Line oder sowas... daran kann man sich doch orientieren. Ich verstehe nicht was daran so schwer sein soll, den Clippingpunkt zu finden.
DSC_1868-dt.jpg
Ich finde nicht, dass YT aktuell die Schärfe sichtbar ändert. Wenn ich in Davinci die Schärfe so eingestellt habe, wie ich es möchte, dann in H264 mit 50 MBit/s exportiere, sieht es in YT identisch aus.Darth Schneider hat geschrieben: ↑Di 27 Jan, 2026 19:48 @Jott
Willst du zu mir Nachhause kommen und den Film auf UsB Stick (dem Zielmedium für die Kunden) auf dem TV anschauen ?
Wo das Bild erheblich scharfer ist als auf YouTube ?
4K auf YouTube ist weniger scharf und weniger sauber als nur HD via Stick auf dem TV..;))))
H265 wird etwas schlechter von YT interpretiert. Schau mal hier rein:Darth Schneider hat geschrieben: ↑Di 27 Jan, 2026 20:47 Danke,
Also H264 mit 50 MBit/s…
Wenn es um YouTube Export geht hab ich keine Ahnung…;)
Und h265 ?
Nur für mich zum probieren, kann mein TV
Ich filme mittlerweile immer weniger in ProRes. Die Datenmengen kann ich einfach nicht mehr händeln. Da sich eh alles immer mehr Richtung SM zieht, reicht einfacher 264 FullHD Standard aus. Die Agentur, für die ich unterwegs bin hat sich erst iPhone Pro geholt. Ich überdenke gerade auch meinen Workflow. Sollte wirklich ein iPhone Fold kommen, und darauf DaVinci Resolve laufen, dann hätte ich zwei Geräte in einem. iPad und iPhone. Und genau in diesen Workflow soll es gehen, schnelles aufnehmen und mobiles Schneiden. Dreamsetup wäre aktuell ein FX2 Gehäuse mit einem Open Gate Sensor und einem iPhone Fold, mit dem man auch schneiden kann. Ob das so alles kommt, keine Ahnung. Hauptsache geringe Datenmenge für beste Qualität in Hoch und Querformat in einem mit direkter Appanbindung an einem Fold oder Pad zum schnellen Hochkant schneiden.Darth Schneider hat geschrieben: ↑Di 27 Jan, 2026 18:42 @Chris
Oder sonst kauf dir bis der Speicher wieder günstiger wird einen gebrauchten Video Assist oder Ninja. Und knall ProRes HQ auf die günstige Ssd…
Ist sicher so schärfer als mit h265…
Und verkaufe den Monitor in einem Jahr wieder…
Nur so als ( womöglich dumme) Idee…;)
Keine Ahnung ob du möglichst kompakt unterwegs sein willst/musst…
Andere radikale Lösung, verkaufe die hübsche ZR und hol dir dafür die Z6III…
Fold wäre am Optimalsten. Ein Gerät weniger, Größe Perfekt. Und man spart sich das Überspielen. I mean. 13er Zoll iPad, auch absolut geil zum Arbeiten. Aber halt wieder son riesen Ding. Ich hab erst Material von ner FX3 auf meinen iPhone 13 Mini geschnitten. Das geht schon, aber dann ist doch son Klapphandy was angenehmeres. Samsung war schon in meinen Blick. Problem ist, manche Creator Apps funktionieren halt auf IOS am Besten. Deswegen kommt man da meist nicht um Apple rum.Darth Schneider hat geschrieben: ↑Di 27 Jan, 2026 23:14 @Chris
Ein iPad mit Apple Stift oder noch besser ein 13 Zoll Mac Book Air wäre dir zu gross ?
Die sind ja auch sehr kompakt und es geht komfortabel zum schneiden.
Wer weiss wenn das neue Falt iPhone dann kommt.
Und wie teuer das sein wird.
Ich exportiere immer in h264 und bei DaVinci in "Quality" stelle ich 160000 kb/s ein.
Kommt voll drauf. Ich weiß, das Filmora zum Beispiel mittlerweile richtig kranke KI Schnittvorlagen hat. Ich sehe das viel im Bauwesen, Explosionen um Bagger herum, fliegende Bauelement usw. Aber nicht alle KI Vorlagen passen auch zu den Themen. Zumal ich z. B. Statements definitiv besser schneiden kann als jede KI. Die KI weiß einfach nicht, was Inhaltsmäßig richtig und wichtig ist. Untertitel lass ich von der KI erstellen, muss aber immer nach korrigieren, weil die KI sehr sehr oft nicht die Wörter richtig versteht. Wenn es dann um die Szenischen Dinge geht, lass ich KI komplett raus. Das ist meist nur Murks, A B Standard. Das schneide ich selber, direkt auf die Musik. Kamerafahrten sind nach Schnitt gedacht und gedreht. Also alles, was die KI noch nicht kann.
Es gibt in den Foren deshalb immer mehr Leute, die N-Raw statt RED RAW NE aufnehmen, es dann aber in der RED RAW-Pipeline prozessieren. (Bei Adobe Premiere ist das in der aktuellen Version sowieso die einzige Möglichkeit, N-Raw zu importieren und prozessieren).In CineD lab testing, R3D NE showed artifacts at +2 stops above its waveform base, while ProRes RAW and N-RAW were clean to +4 stops above theirs. CineD cautions: these bases represent different physical exposure levels because of the gain remapping — the actual sensor-level headroom difference is ~1 stop, not 2.
Practical takeaway: expose R3D NE ~1 stop lower than you would for N-RAW or ProRes RAW when protecting skin highlights. Watch for yellowish tones as the first sign you're in the recovery zone. If a scene demands more highlight headroom, switch codecs.
ETTR bedeutet, dass man keinen Belichtungsspielraum in den Spitzlichtern benötigt.cantsin hat geschrieben: ↑Mo 16 Feb, 2026 08:05 Der Macher des obigen Tools, ein erfahrener RED-User, hat jetzt noch einen interaktiven Belichtungs-Guide nachgelegt, den jeder ZR-Besitzer studieren sollte:
https://reece.is/zr-exposure-guide
Er bestätigt übrigens die (von ZR-Foren-Fanboys angefeindeten) Messergebnisse von CineD, nach denen RED RAW NE relativ wenig Belichtungsspielraum in den Spitzlichtern hat:
Es gibt in den Foren deshalb immer mehr Leute, die N-Raw statt RED RAW NE aufnehmen, es dann aber in der RED RAW-Pipeline prozessieren. (Bei Adobe Premiere ist das in der aktuellen Version sowieso die einzige Möglichkeit, N-Raw zu importieren und prozessieren).In CineD lab testing, R3D NE showed artifacts at +2 stops above its waveform base, while ProRes RAW and N-RAW were clean to +4 stops above theirs. CineD cautions: these bases represent different physical exposure levels because of the gain remapping — the actual sensor-level headroom difference is ~1 stop, not 2.
Practical takeaway: expose R3D NE ~1 stop lower than you would for N-RAW or ProRes RAW when protecting skin highlights. Watch for yellowish tones as the first sign you're in the recovery zone. If a scene demands more highlight headroom, switch codecs.
Neben einer Blende mehr Spielraum in den Spitzlichtern hat das auch den Vorteil optional halbierter Bitraten und besserer kamerainterner Belichtungsanzeigen.
Hast Du den obigen Text richtig gelesen? Es geht hier um unterschiedliches Clipping-Verhalten in den unterschiedlichen Raw-Codecs.
Ich war bei meinem Vergleichstest auch überrascht, dass das RED RAW der ZR recht hart in den Highlights clippt:iasi hat geschrieben: ↑Mo 16 Feb, 2026 08:20ETTR bedeutet, dass man keinen Belichtungsspielraum in den Spitzlichtern benötigt.cantsin hat geschrieben: ↑Mo 16 Feb, 2026 08:05 Der Macher des obigen Tools, ein erfahrener RED-User, hat jetzt noch einen interaktiven Belichtungs-Guide nachgelegt, den jeder ZR-Besitzer studieren sollte:
https://reece.is/zr-exposure-guide
Er bestätigt übrigens die (von ZR-Foren-Fanboys angefeindeten) Messergebnisse von CineD, nach denen RED RAW NE relativ wenig Belichtungsspielraum in den Spitzlichtern hat:
Es gibt in den Foren deshalb immer mehr Leute, die N-Raw statt RED RAW NE aufnehmen, es dann aber in der RED RAW-Pipeline prozessieren. (Bei Adobe Premiere ist das in der aktuellen Version sowieso die einzige Möglichkeit, N-Raw zu importieren und prozessieren).
Neben einer Blende mehr Spielraum in den Spitzlichtern hat das auch den Vorteil optional halbierter Bitraten und besserer kamerainterner Belichtungsanzeigen.
Ich verstehe nicht ganz, warum sich so viele Forenleute mit der Belichtung so schwer tun.
Klar wäre z.B. eine Ampel hilfreich, aber es geht auch ohne.
In dem Moment, wo das Material Sättigung verliert, bist Du schon über den Clipping-Punkt mindestens eines Farbkanals hinaus und in der Highlight Recovery.
Nö, ich finde schon, man kann recht unkompliziert loslegen. Aber wie überall muss man hier und da ein paar Abstriche machen. Man bekommt tolle Farben und ein insgesamt sehr schönes Bild. Aber eben nicht das beste Highlight-Verhalten und auch nicht die rauschärmsten Schatten. Trotzdem ist das RAW-Bild (und auch nur das) für den Preis Bombe.
toniwan hat geschrieben: ↑Mo 16 Feb, 2026 15:56Nö, ich finde schon, man kann recht unkompliziert loslegen. Aber wie überall muss man hier und da ein paar Abstriche machen. Man bekommt tolle Farben und ein insgesamt sehr schönes Bild. Aber eben nicht das beste Highlight-Verhalten und auch nicht die rauschärmsten Schatten. Trotzdem ist das RAW-Bild (und auch nur das) für den Preis Bombe.
Bei ETTR sollte nichts clippen.cantsin hat geschrieben: ↑Mo 16 Feb, 2026 08:37Hast Du den obigen Text richtig gelesen? Es geht hier um unterschiedliches Clipping-Verhalten in den unterschiedlichen Raw-Codecs.
Außerdem gibt es bei RED RAW NE keinen klaren Indikator (zumindest nicht mit den Bordmitteln der Kamera), wann man sich im Highlight Recovery-Bereich bewegt.
Worum es hier geht, ist, dass bei RED RAW NE-Aufnahme der Sensor physisch eine Blende früher als bei den anderen Raw-Codecs clippt, bei identischer Belichtung (bzw. identischer Lichtmenge, die auf den Sensor fällt).
Ja sie hat andere Vorzüge die ZR, die ich als sehr sinnvoll finde. Obwohl ich das raw eigentlich nicht bräuchte, aber man kann da ja nur raw filmen, weil die komprimierten Codecs (angeblich) nicht so ganz gut sein sollen.Darth Schneider hat geschrieben: ↑Mo 16 Feb, 2026 17:22 Sie wirkt kompliziert, weil einige hier es wegen hohen Ansprüchen sich selber kompliziert machen.
Abstriche gibt es bei jeder Kamera in der Preisklasse.
Die ZR für mich auch in der sehr nahen Auswahl, zumindest solange bis Blackmagic ihren Autofokus in mehr Kameras einbaut..
Stabi würde BMD noch flexibler machen, weil man mal auch was handheld machen kann.Darth Schneider hat geschrieben: ↑Di 17 Feb, 2026 08:46 Stabi wäre praktisch, aber für mich gar nicht zwingend.
Die BM hab ich eh lieber auf einem Stativ.
Pille hatte doch mal was geschrieben das nicht alle non Raw Rec Möglichkeiten der ZR schlecht/zu soft sein sollen..?
Darth Schneider hat geschrieben: ↑Di 17 Feb, 2026 09:18 Also zum Beispiel mit dem Olympus 12-100 mit IS drin, geht aus der Hand auch ohne Sensor Stabi.
Zumal kann man bei allen aktuellen BMs in Resolve stabilisieren.
Ich nutze das fast nie, aber es funktioniert.
Von den her glaube ich nicht das BM Sensor Ibis bringen wird.
Backup ?
Ich bin ehrlich gesagt nicht mal sicher ob das mit meiner BM ginge…;)
Brauch ich nicht.
Ja. Sollte man aber lieber nicht machen (da skaliertes Raw kein echtes Raw mehr ist, massiv Detailauflösung verliert und diverse Aliasing-Artefakte hat).j.t.jefferson hat geschrieben: ↑Sa 21 Feb, 2026 21:41 hab mal ne Frage....war es schon vor dem Update möglich in NRAW in 4K bei voller Sensorauslesung zu filmen?
Sind die Bilder ran gezoomt?cantsin hat geschrieben: ↑Sa 21 Feb, 2026 22:04Ja. Sollte man aber lieber nicht machen (da skaliertes Raw kein echtes Raw mehr ist, massiv Detailauflösung verliert und diverse Aliasing-Artefakte hat).j.t.jefferson hat geschrieben: ↑Sa 21 Feb, 2026 21:41 hab mal ne Frage....war es schon vor dem Update möglich in NRAW in 4K bei voller Sensorauslesung zu filmen?
FB_IMG_1771707947531.jpg
(Links sensornatives 6K FF Raw der ZR, rechts 4K [= kameraintern skaliertes] FF Raw.)
1:1-Pixel-Crops.j.t.jefferson hat geschrieben: ↑Sa 21 Feb, 2026 22:21Sind die Bilder ran gezoomt?cantsin hat geschrieben: ↑Sa 21 Feb, 2026 22:04
Ja. Sollte man aber lieber nicht machen (da skaliertes Raw kein echtes Raw mehr ist, massiv Detailauflösung verliert und diverse Aliasing-Artefakte hat).
FB_IMG_1771707947531.jpg
(Links sensornatives 6K FF Raw der ZR, rechts 4K [= kameraintern skaliertes] FF Raw.)
Dann wäre die 6K RAW Abbildung aber kaum genauso groß wie das 4K RAW :)
Ja, sorry, aus einer UHD-Timeline. (Hatte das Vergleichsbild schon vor ein paar Wochen für eine ZR-Facebook-Gruppe gemacht.)pillepalle hat geschrieben: ↑So 22 Feb, 2026 04:47Dann wäre die 6K RAW Abbildung aber kaum genauso groß wie das 4K RAW :)
Definitionssache. Wikipedia definitiert Raw wie folgt: "A camera raw image file is a file that contains unprocessed data straight from a digital camera". Das stimmt natürlich nur zum Teil, weil z.B. die meisten Kamerahersteller ihr Raw vorab rauschfiltern und Fokuspixel interpolieren.Sei's drum, ob etwas RAW ist oder nicht liegt per Definition natürlich nur am Zeitpunkt des Debayerings, nicht daran ob es skaliert ist.


