Newsmeldung von slashCAM:
Mit der soeben vorgestellten FX30 bietet Sony ein erstes APS-C bzw. Super35-Modell in seiner Cinema Line. Die Kamera unterscheidet sich äußerlich nicht von der FX3, ist j...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Sony stellt FX30 vor - Cinema Line goes Super35
Antwort von iasi:
Extern über HDMI 4,2K 16 Bit RAW?
Bei einem 20 MP-Sensor?
Antwort von pillepalle:
iasi hat geschrieben:
Extern über HDMI 4,2K 16 Bit RAW?
Bei einem 20 MP-Sensor?
Hast Du vor lauter Aufregung die Specs wieder nicht richtig gelesen? :) 26MP-Sensor
VG
Antwort von roki100:
iasi hat geschrieben:
Extern über HDMI 4,2K 16 Bit RAW?
Nö ;) 12 Bit LOG und das darüber ist NULL NULL NULL NULL... Bit.
Antwort von Axel:
@iasi
Ich frage mich, warum du die Canon R5 C noch nicht gekauft hast. Da hat doch die liebe Seele Ruh', oder? Vor 14 Tagen eingestellt:
Wie sagt der Typ da? Wie die Komodo, nur praktischer. Und dass es (wegen fehlender IBIS und sehr kurzer Batterielaufzeit)
gar keine run&gun-Kinokamera sein könnte, sehe ich nicht so. Was diese Kleinigkeiten betrifft, so sind wir doch von allen Hunden gehetzt ...
Der im Infotext verlinkte Kurzfilm gefällt mir nicht, die downloadbaren vier Footage-Clips find ich auch ziemlich bescheiden. Allen Behauptungen zum Trotz laufen sie auf M1 in FCP (nach Installation des C-Raw-Light-Codecs) nicht flüssig, aber wenigstens sind sie sichtbar. Resolve Studio 18 zeigt kurz die Thumbnails, sagt dann aber Media offline. Das alles heißt ja aber nichts. Ein starker Rechner, Stativ, Schulterrig oder Gimbal, V-Mount-Akku, und ab geht die Luzie. Ich finde, mit dieser Kamera muss man die FX30 vergleichen. Preis, Leistung, Usability.
Ein großer Irrtum ist mMn der Sinn des optisch sehr ansprechenden Mikrofongriffs (der FX30 meine ich). Praktisch, um die Kamera hin- und herzutragen. Aber nur bei wenigen, genau passenden Objektiven auch gut, um die Kamera
ruhig zu halten bei der Aufnahme. Da ist der Katzenbaby-Griff besser, mit der Linken eine Wiege für die Objektiv-Unterseite bilden, der ausgeklappte Monitor liegt locker auf dem Handgelenk.
Antwort von iasi:
Axel hat geschrieben:
@iasi
Ich frage mich, warum du die Canon R5 C noch nicht gekauft hast. Da hat doch die liebe Seele Ruh', oder? Vor 14 Tagen eingestellt:
Welche Seele soll denn Ruh"haben?
Es gibt nicht die perfekte eierlegende Wollmilchsau für jede Anforderung. Daher muss man eben ständig nach Kameras Ausschau halten, die besondere Stärken besitzen.
Die R5C hat, wie auch die Komodo eindeutig Stärken.
Antwort von iasi:
pillepalle hat geschrieben:
iasi hat geschrieben:
Extern über HDMI 4,2K 16 Bit RAW?
Bei einem 20 MP-Sensor?
Hast Du vor lauter Aufregung die Specs wieder nicht richtig gelesen? :) 26MP-Sensor
VG
Und welchen Unterschied macht dies dann bzgl. des Problems, das du wohl nicht herausgelesen hast?
Antwort von pillepalle:
iasi hat geschrieben:
Und welchen Unterschied macht dies dann bzgl. des Problems, das du wohl nicht herausgelesen hast?
Ich weiß nicht welches Problem Du da siehst? HDMI unterstützt auch 16bit.
VG
Antwort von iasi:
pillepalle hat geschrieben:
iasi hat geschrieben:
Und welchen Unterschied macht dies dann bzgl. des Problems, das du wohl nicht herausgelesen hast?
Ich weiß nicht welches Problem Du da siehst? HDMI unterstützt auch 16bit.
VG
Wie holst du aus einem 20,1MP-Sensor ein 4,3k-Raw-Bild heraus?
Und nebenbei solltest du mal richtig lesen und nicht nicht gleich hyperventilieren:
"
Der beweglich gelagerte APS-C Exmor R CMOS-Sensor der FX 30 wird rückwärtig belichtet und löst mit 20,1MP auf."
Antwort von pillepalle:
Der Sensor hat 26MP. Im Videomodus hat er 20MP und sampelt von 6K auf 4k runter. Aber wo ist da das Problem?
VG
Antwort von iasi:
pillepalle hat geschrieben:
Der Sensor hat 26MP. Im Videomodus hat er 20MP und sampelt von 6K auf 4k runter. Aber wo ist da das Problem?
VG
Das Problem ist, dass bei Raw nicht heruntergesampelt werden kann.
Der Sensor hat 6k, aber die Kamera gibt nur 4,2k-Raw aus.
Das ist dann das gleiche Elend wie bei der Sigma fp.
Antwort von pillepalle:
iasi hat geschrieben:
Das Problem ist, dass bei Raw nicht heruntergesampelt werden kann.
Der Sensor hat 6k, aber die Kamera gibt nur 4,2k-Raw aus.
Das ist dann das gleiche Elend wie bei der Sigma fp.
Das kann man schon. Machen ja mittlerweile auch viele Kameras. Und irgendeine Laborratte findet dann bei Testcharts und 200% Vergrößerung ein paar Artefakte, die einem in der Praxis nie auffallen. So What?
VG
Antwort von roki100:
Welche viele Kameras?
Antwort von pillepalle:
@ roki
Die Nikon Kameras machen das z.B. auch. Da kann man RAW sowohl im FF als auch im Crop Modus aufnehmen. Puristen rümpfen da die Nase, aber ich kann Dir aus über drei Jahren Erfahrung damit sagen, dass es mir bei meinen Filmen noch nie aufgefallen ist. Es gab auch nie jemanden der sich über Artefakte beschwert hätte. Das ist wie ein Sechser im Lotto, das man das bei realen Motiven wirklich mal wahrnimmt. Manche 'Probleme' werden in Foren auch künstlich etwas hochgekocht.
VG
Antwort von Axel:
Der Sensor hat in der Foto-AR 26 MP, genutzt werden halt bei Video nur 20 MP. Der CVP-Reviewer wunderte sich auch über die 4,2k Raw und versprach, weitere Auskünfte nachzureichen. Der Rolling Shutter wird mal als "nicht so schlimm" bezeichnet, aber wenn man die Kamera
wegen ihres Crops und
wegen des noch erweiterbaren Crops in's Auge fasst, vielleicht doch schlimm:
https://www.youtube.com/watch?v=lfEOEssshIU&t=295s
Weitere Reviews gucken. Zeit ist ja, die wird kaum vor dem Advent im Laden stehen.
Antwort von roki100:
@pillepalle
ich weiß, es sind aber nicht viele Kameras...ich verstehe iasi (und auch cantsin). Ich bin auch gegen Moiré/Aliasing sehr allergisch.... ;)
Antwort von pillepalle:
@ roki
Ich bin gegen reale Probleme die mich betreffen allergisch :) Käme es oft vor, würde es mich auch nerven. Und Artefakte wie Moire kann man sich auch ohne Downsampling einfangen. Die Frage ist doch nur wie relevant das tatsächlich ist.
VG
Antwort von Axel:
Aus dem CVP-Beitrag etwas Seltsames: in den Log-Profilen kann man die
Schärfe nicht verändern? HÄH??? Das kann doch nur ein Irrtum sein, denn bei der A7SIII geht das. Also ich werde gewiss nicht ständig einen Mistfilter vorschrauben. Das war übrigens auch so lächerlich bei dem 8k-Raw-Footage.
zum Bild
Ist das ein Filterreflex?
Antwort von roki100:
pillepalle hat geschrieben:
@ roki
Ich bin gegen reale Probleme die mich betreffen allergisch :) Käme es oft vor, würde es mich auch nerven.
ich weiß, nur, hat man die Artefakte einmal entdeckt sieht man die irgendwie immer wieder, in den Haaren, Äste, Dächer...Rolltreppen...Hemden und Jens... ;)
Antwort von iasi:
pillepalle hat geschrieben:
@ roki
Ich bin gegen reale Probleme die mich betreffen allergisch :) Käme es oft vor, würde es mich auch nerven. Und Artefakte wie Moire kann man sich auch ohne Downsampling einfangen. Die Frage ist doch nur wie relevant das tatsächlich ist.
VG
Nenn doch zuerst mal einige der Kameras, von denen du meinst, eine höhere Sensorauflösung würde ohne reale Probleme in eine niedrigere Raw-Auflösung gepackt.
Es geht hier auch nicht darum, dass bei einem 3:2-Sensor ein 16:9-Crop genutzt wird, sondern dass aus 6k plötzlich 4,2k werden.
Entweder man hat garstiges Line-Skipping, wie bei der Sigma fp oder vielen Kameras bei hohen Frameraten, oder eben einen Crop, der dann aus einem APS-C-Sensor etwas von der Größe eines MFT macht.
4,2k-Raw von einem 6k-Sensor ist schlicht für die Tonne.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Ich frage mich, warum du die Canon R5 C noch nicht gekauft hast.
Die hätte ich schon alleine wegen des peinlich roten Plastikauslösers nicht gekauft. :-)
Antwort von roki100:
iasi hat geschrieben:
Entweder man hat garstiges Line-Skipping, wie bei der Sigma fp oder vielen Kameras bei hohen Frameraten, oder eben einen Crop, der dann aus einem APS-C-Sensor etwas von der Größe eines MFT macht.
... oder mehrere pixel werden zu ein pixel bzw. Pixel Binning? Ist bei A7SIII/FX3/FX6 doch auch so.
Auf SlashCam tests abwarten... :)
Antwort von pillepalle:
ich weiß, nur, hat man die Artefakte einmal entdeckt sieht man die irgendwie immer wieder...
Haha... ich sehe sie nur, wenn sie auch tatsächlich sichtbar sind.
@ iasi
Ja, rein theoretisch alles richtig. Aber Du hast noch kein einziges RAW-Bild von der Kamera gesehen und es ist für Dich bereits für die Tonne. Nicht das mich das wundern würde, aber andere arbeiten vielleicht damit ohne jemals ein Problem zu haben.
Und wie gesagt, meine Nikon Z6/Z6II sampelt die auch runter und trotzdem sieht man keine störenden Artefakte. Und wenn man es drauf anlegt, kann man mit jeder Kamera Artefakte bekommen, genauso wie man sie vermeiden kann. Die Option im 1:1 Crop aufzuzeichnen hat man ja trotzdem, wenn man ängstlich ist.
VG
Antwort von Funless:
Hmmm ... also bei der FX30 ist es das erste Mal seit langem wo ich in Versuchung gerate tatsächlich über eine Rückkehr zu Sony
nachzudenken.
Leider weiß ich nicht wie gut oder schlecht die Farben von s-cinetone tatsächlich sind, bzw. ob sie mir persönlich gefallen würden. Denn das wäre das einzige Bildprofil mit dem ich mit der FX30 filmen würde, Log und RAW interessieren mich nicht.
Antwort von Axel:
Aus dem Datenblatt: Raw-Ausgabe HDMI: 4.672 x 2.628 (59,94p/50p/29,97p/25p/23,98p), 16 Bit
Das entspricht 4,6k und 12 MP, aus einem 20 MP Sensor ein 1,6-facher Crop. 4,2k waren wohl A7SIII und FX3.
6k @ 16:9 entspricht 5760 x 3240 und belegt 18,7 MP.
Kommt alles nicht so richtig hin. Aber so genau scheißt ja such kein Hund.
Funless hat geschrieben:
Hmmm ... also bei der FX30 ist es das erste Mal seit langem wo ich in Versuchung gerate tatsächlich über eine Rückkehr zu Sony nachzudenken.
Leider weiß ich nicht wie gut oder schlecht die Farben von s-cinetone tatsächlich sind, bzw. ob sie mir persönlich gefallen würden. Denn das wäre das einzige Bildprofil mitu dem ich mit der FX30 filmen würde, Log und RAW interessieren mich nicht.
S-Cinetone: doof. SLog 3 ist mit Kamera-LUT in FCP auch ohne Grading um Längen besser. Das ist alles super easy. Einmal geübt, und Cine EI sorgt immer für perfekt belichtete Bilder.
Antwort von klusterdegenerierung:
Funless hat geschrieben:
Hmmm ... also bei der FX30 ist es das erste Mal seit langem wo ich in Versuchung gerate tatsächlich über eine Rückkehr zu Sony nachzudenken.
Leider weiß ich nicht wie gut oder schlecht die Farben von s-cinetone tatsächlich sind, bzw. ob sie mir persönlich gefallen würden. Denn das wäre das einzige Bildprofil mit dem ich mit der FX30 filmen würde, Log und RAW interessieren mich nicht.
Vergiss S-Cinetone wenn Du SGamut3 bekommst. :-)
"S-Gamut3: Sowohl S-Gamut als auch S-Gamut3 haben einen größeren Farbraum als S-Gamut3.Cine und bieten weitreichende Anpassungsmöglichkeiten. Die Farbräume sind nahezu identisch, allerdings bietet S-Gamut3 eine verbesserte Farbwiedergabe."
In Resolve das RCM angeschaltet brauchst Du nix mehr zu machen, Clips auf die Timeline und nie wieder luts oder transform. :-)
Antwort von Funless:
Echt? Ich hab das Cine EI Prinzip, obwohl ich den diesbezüglichen slashCAM Artikel (sogar mehrmals) gelesen habe, nicht verstanden. Bekomme ich irgendwie nicht kapiert. Gilt übrigens auch für die ganzen Gamut Gedöhnse.
Und ich dachte immer gerade mit S-Log3 muss man mehrere Schritte durchlaufen bis man ein fertiges (und vor allem gefälliges) Bild hat (Color Space Transform, Color Correction, Color Grading). Da würde ich irre werden, hab weder die Muse, noch den Nerv für sowas und ohne den Einsatz von Resolve käme sowieso nix gescheites raus.
Und nun soll es auch nur mit (vereinfacht ausgedrückt) einem Klick in FCP möglich sein?
Antwort von roki100:
ich verstehe nicht, warum Du dir gedanklich das so schwieriger machst als wie es in Wirklichkeit ist und dabei irre wirst. Du kannst dir quasi ein paar mal die Arbeit machen, unter Resolve ClipGrab bzw. PowerGrades erstellen und immer wieder auf andere Clips anwenden (WB machst Du sowieso vorher/in Kamera)... Mit FCPX geht das auch:
https://support.apple.com/de-de/guide/f ... d35f70/mac
not-cinematic ist doch einfach ;)
Antwort von Funless:
Ich bin einfach nicht der Typ für sowas.
Ich will
„schöne Farben gleich fertig“ und nicht
„für schöne Farben filme erst in dings und pass bloß auf, dass du dabei irgendwelche xy Komma z Blenden überbelichtest, dann mach in Resolve dies, dann das, dann jenes, dann schraube hier, dann schraube da und ohne mindestens 10Bit kannst du sowieso alles vergessen“.
Ich filme nicht für Hollywood oder Netflix und Hochzeiten auch nicht oder für sonstige Klienten. Außerdem bin ich kein Fan von ETTR oder ETTC, sondern Filme immer mit ETYS. Bei mir darf Schwarz ruhig Schwarz sein und in der Sonne muss bei mir keine Zeichnung zu sehen sein. Ist ja schließlich die Sonne, die darf IMHO
immer clippen, gilt für mich genauso für eine Glühbirne oder Autoscheinwerfer. Einzig ein angenehmer Roll-off wäre schön.
Ich filme aus Spaß an der Freude und gefühlt stundenlang an Farbreglern und -Kurven zu drehen macht mir keinen Spaß, sondern verdirbt ihn eher.
Antwort von roki100:
Funless hat geschrieben:
Ich bin einfach nicht der Typ für sowas.
Ich will „schöne Farben gleich fertig“ und nicht „für schöne Farben filme erst in dings und pass bloß auf, dass du dabei irgendwelche xy Komma z Blenden überbelichtest, dann mach in Resolve dies, dann das, dann jenes, dann schraube hier, dann schraube da und ohne mindestens 10Bit kannst du sowieso alles vergessen“.
Ich filme nicht für Hollywood oder Netflix und Hochzeiten auch nicht oder für sonstige Klienten. Außerdem bin ich kein Fan von ETTR oder ETTC, sondern Filme immer mit ETYS. Bei mir darf Schwarz ruhig Schwarz sein und in der Sonne muss bei mir keine Zeichnung zu sehen sein. Ist ja schließlich die Sonne, die darf IMHO immer clippen, gilt für mich genauso für eine Glühbirne oder Autoscheinwerfer. Einzig ein angenehmer Roll-off wäre schön.
Ich filme aus Spaß an der Freude und gefühlt stundenlang an Farbreglern und -Kurven zu drehen macht mir keinen Spaß, sondern verdirbt ihn eher.
So macht man sich gedanklich das ganze mM. kompliziert, obwohl das nicht der Fall ist. Das ist einfach DAS, 10Bit, 12Bit, RAW, LOG usw., damit man nachträglich schöner machen kann, als wie es in Wirklichkeit ist oder nah an realen Farben korrigiert, SO wie Du es halt haben willst....Und danach hat man einfach die Möglichkeit, PowerGrades davon zu erstellen und diese auf jeden Clip anzuwenden. DAS (!) ist viel mehr als ein paar Farbprofile in der Kamera.... Sieh es doch mal so: Die Kamera ist die eine Hälfte und die andere Hälfte ist Resolve oder FCPX. Beides gehört zusammen. Das Filmmaterial ist für Resolve oder FCPX gemacht und Resolve oder FCPX ist für das Filmmaterial gemacht. Und es macht viel mehr Spaß, darin sein eigener Meister zu sein, mit viel mehr Möglichkeiten an Looks, anstatt vordefinierte Farbprofile zu verwenden, die irgendwann sicherlich langweilig werden und man das Gefühl hat, eine neue Kamera kaufen zu müssen, weil die neue andere interne Farbprofile mitbringt...Nicht Kamera ständig wie Schuh wechseln, sondern ein paar Farbregler in FCPX oder Resolve verdrehen und als PowerGrade speichern/benutzen...und natürlich kannst Du auch LUT davon erstellen und in die Kamera oder ext.Bildschirm laden, dann sieht man, wie es später ungefähr in Resolve oder FCPX aussehen wird.
|
Antwort von iasi:
pillepalle hat geschrieben:
ich weiß, nur, hat man die Artefakte einmal entdeckt sieht man die irgendwie immer wieder...
Haha... ich sehe sie nur, wenn sie auch tatsächlich sichtbar sind.
@ iasi
Ja, rein theoretisch alles richtig. Aber Du hast noch kein einziges RAW-Bild von der Kamera gesehen und es ist für Dich bereits für die Tonne. Nicht das mich das wundern würde, aber andere arbeiten vielleicht damit ohne jemals ein Problem zu haben.
Und wie gesagt, meine Nikon Z6/Z6II sampelt die auch runter und trotzdem sieht man keine störenden Artefakte. Und wenn man es drauf anlegt, kann man mit jeder Kamera Artefakte bekommen, genauso wie man sie vermeiden kann. Die Option im 1:1 Crop aufzuzeichnen hat man ja trotzdem, wenn man ängstlich ist.
VG
Raw bedeutet, ich erhalte die Sensordaten - und zwar alle.
Ein Debayering von 6k auf 4k ist von Vorteil.
Ein Verringern von 6k-Raw zu 4k-Raw ist immer ein Nachteil - ganz egal, wie der Hersteller das machst.
Antwort von Darth Schneider:
Ich sehe die FX30 erstmal endgültig als der MFT Killer…;)
Und ein Jahr warten und die tolle Cam gibt es dann so ab 1900…
Gruss Boris
Antwort von pillepalle:
iasi hat geschrieben:
Ein Verringern von 6k-Raw zu 4k-Raw ist immer ein Nachteil - ganz egal, wie der Hersteller das machst.
In dem Punkt wiederspreche ich Dir ja auch nicht. Ich sage nur das man damit trotzdem filmen kann. Man sollte die Dinge einfach mal im richtigen Verhältnis sehen. Bei Dir muss jede 2000,-€ Kamera selbst den höchsten Ansprüchen genügen, als ob man damit riesen Produktionen machen würde. Vielen meiner Kunden reicht sogar noch FHD als Delivery-Auflösung. Die sitzen nicht angestrengt vor dem Monitor und suchen nach Artefakten. Die Filmchen kommen auch nicht auf die große Leinwand und werden oft auf dem Smartphone konsumiert. Da sind solche Dinge einfach ziemlich egal.
Du bist doch derjenige der immer vom richtigen Werkzeug für den richtigen Job redet. Aber in Sachen Kamera schießt Du dann mit Kanonen auf Spatzen...
VG
Antwort von vertrider:
Was jetzt: APS-C oder S-35 Sensor?
Antwort von Jott:
Ist praktisch identisch - no worries.
Antwort von maiurb:
Für mich ist die neue APS-C Kamera eher eine Enttäuschung, da die Fotofunktionen völlig vernachlässigt wurden.
Ich hätte mir einen echten Nachfolger der A6600 gewünscht. Wahrscheinlich wird es im APS-C Segment dann keine neue Kamera mehr geben, die beides gut beherrscht.
Antwort von Darth Schneider:
Die hat ja nicht mal ein Sucher, und da steht „Cinema Line“;)))
Ich könnte mir aber schon sehr gut vorstellen das Sony noch vor Weinachten einen Nachfolger der A6600 bringen wird.
Aber du hast schon auch recht, weil der Nachfolger wird was die Video Fähigkeiten betrifft, ganz bestimmt nicht so gut sein wie die FX30….
Gruss Boris
Antwort von Jott:
"Für mich ist die neue APS-C Kamera eher eine Enttäuschung, da die Fotofunktionen völlig vernachlässigt wurden."
Vielleicht läuft die deswegen unter "Cine"? :-)
Wer eine A6500 hat, kann sie doch behalten. Die ist über die Jahre nicht schlechter geworden.
Antwort von maiurb:
Jott hat geschrieben:
"Für mich ist die neue APS-C Kamera eher eine Enttäuschung, da die Fotofunktionen völlig vernachlässigt wurden."
Vielleicht läuft die deswegen unter "Cine"? :-)
Wer eine A6500 hat, kann sie doch behalten. Die ist über die Jahre nicht schlechter geworden.
Schon richtig, aber seit längerer Zeit haben viele A6500/6600 Besitzer auf einen Nachfolger im APS-C Segment (A7000) gewartet.
Und jetzt kommt ein APS-C Nachfolger, aber eine völlig andere Kamera für den Cinemabereich.
Diese Videokamera ist ja nicht mal ein Konkurrenzprodukt im APS-C Segment zu Canon und FUJI.
Antwort von Funless:
roki100 hat geschrieben:
Funless hat geschrieben:
Ich bin einfach nicht der Typ für sowas.
Ich will „schöne Farben gleich fertig“ und nicht „für schöne Farben filme erst in dings und pass bloß auf, dass du dabei irgendwelche xy Komma z Blenden überbelichtest, dann mach in Resolve dies, dann das, dann jenes, dann schraube hier, dann schraube da und ohne mindestens 10Bit kannst du sowieso alles vergessen“.
Ich filme nicht für Hollywood oder Netflix und Hochzeiten auch nicht oder für sonstige Klienten. Außerdem bin ich kein Fan von ETTR oder ETTC, sondern Filme immer mit ETYS. Bei mir darf Schwarz ruhig Schwarz sein und in der Sonne muss bei mir keine Zeichnung zu sehen sein. Ist ja schließlich die Sonne, die darf IMHO immer clippen, gilt für mich genauso für eine Glühbirne oder Autoscheinwerfer. Einzig ein angenehmer Roll-off wäre schön.
Ich filme aus Spaß an der Freude und gefühlt stundenlang an Farbreglern und -Kurven zu drehen macht mir keinen Spaß, sondern verdirbt ihn eher.
So macht man sich gedanklich das ganze mM. kompliziert, obwohl das nicht der Fall ist. Das ist einfach DAS, 10Bit, 12Bit, RAW, LOG usw., damit man nachträglich schöner machen kann, als wie es in Wirklichkeit ist oder nah an realen Farben korrigiert, SO wie Du es halt haben willst....Und danach hat man einfach die Möglichkeit, PowerGrades davon zu erstellen und diese auf jeden Clip anzuwenden. DAS (!) ist viel mehr als ein paar Farbprofile in der Kamera.... Sieh es doch mal so: Die Kamera ist die eine Hälfte und die andere Hälfte ist Resolve oder FCPX. Beides gehört zusammen. Das Filmmaterial ist für Resolve oder FCPX gemacht und Resolve oder FCPX ist für das Filmmaterial gemacht. Und es macht viel mehr Spaß, darin sein eigener Meister zu sein, mit viel mehr Möglichkeiten an Looks, anstatt vordefinierte Farbprofile zu verwenden, die irgendwann sicherlich langweilig werden und man das Gefühl hat, eine neue Kamera kaufen zu müssen, weil die neue andere interne Farbprofile mitbringt...Nicht Kamera ständig wie Schuh wechseln, sondern ein paar Farbregler in FCPX oder Resolve verdrehen und als PowerGrade speichern/benutzen...und natürlich kannst Du auch LUT davon erstellen und in die Kamera oder ext.Bildschirm laden, dann sieht man, wie es später ungefähr in Resolve oder FCPX aussehen wird.
Das ist deine Meinung dazu und ich respektiere das. Und ist ja auch schön, dass du an dieser Vorgehensweise Freude hast.
Ich habe allerdings eine andere Meinung dazu und eben keine Freude an dieser Vorgehensweise. Ist ja nicht so, dass ich mich nicht vorher mit dem Thema beschäftigt habe. Habe ich sogar sehr intensiv und dabei festgestellt, dass das nix für mich ist. Quite simple.
Antwort von Jott:
maiurb hat geschrieben:
Jott hat geschrieben:
"Für mich ist die neue APS-C Kamera eher eine Enttäuschung, da die Fotofunktionen völlig vernachlässigt wurden."
Vielleicht läuft die deswegen unter "Cine"? :-)
Wer eine A6500 hat, kann sie doch behalten. Die ist über die Jahre nicht schlechter geworden.
Schon richtig, aber seit längerer Zeit haben viele A6500/6600 Besitzer auf einen Nachfolger im APS-C Segment (A7000) gewartet.
Und jetzt kommt ein in APS-C Nachfolger, aber eine völlig andere Kamera für den Cinemabereich.
Diese Videokamera ist ja nicht mal ein Konkurrenzprodukt im APS-C Segment zu Canon und FUJI.
Könnte doch sein, dass Sony in der APS-C-Fotografie keine Zukunft mehr sieht - bzw. erkennt, dass Hobbyfotografie nahezu komplett in Richtung Smartphones kippt und teurere Hybriden sinnlos sind. Und bei einer solche Kamera wie der FX30 auf Fotografie pfeift und dafür für Videozwecke alles richtig macht.
Ansonsten ist das gar kein Nachfolger für die A6xxx-Reihe. Ganz andere Produktkategorie, ganz andere Innereien. Wer weiß, vielleicht kommt ja tatsächlich doch noch ein Nachfolger mit gewohnter Philosophie. Das wird Sonys Marktforschung entscheiden.
Antwort von iasi:
pillepalle hat geschrieben:
iasi hat geschrieben:
Ein Verringern von 6k-Raw zu 4k-Raw ist immer ein Nachteil - ganz egal, wie der Hersteller das machst.
In dem Punkt wiederspreche ich Dir ja auch nicht. Ich sage nur das man damit trotzdem filmen kann. Man sollte die Dinge einfach mal im richtigen Verhältnis sehen. Bei Dir muss jede 2000,-€ Kamera selbst den höchsten Ansprüchen genügen, als ob man damit riesen Produktionen machen würde. Vielen meiner Kunden reicht sogar noch FHD als Delivery-Auflösung. Die sitzen nicht angestrengt vor dem Monitor und suchen nach Artefakten. Die Filmchen kommen auch nicht auf die große Leinwand und werden oft auf dem Smartphone konsumiert. Da sind solche Dinge einfach ziemlich egal.
Du bist doch derjenige der immer vom richtigen Werkzeug für den richtigen Job redet. Aber in Sachen Kamera schießt Du dann mit Kanonen auf Spatzen...
VG
Ich ordne nur die Kameras ein.
Die FX30 ist schlicht keine Kamera für Raw.
Ich sage auch nur, dass die Raw-out-Option für die Tonne ist - eben ein Schwachpunkt der Kamera.
Damit ist ja nicht gesagt, dass man mit der FX30 nicht filmen kann.
10bit 422 sind dann aber eben das Limit.
Die FX3 bietet volle Sensorauslesung mit 16bit Raw via HDMI - das ist dann eben ein Vorteil/eine Stärke der FX3.
Antwort von rush:
maiurb hat geschrieben:
Für mich ist die neue APS-C Kamera eher eine Enttäuschung, da die Fotofunktionen völlig vernachlässigt wurden.
Ich hätte mir einen echten Nachfolger der A6600 gewünscht. Wahrscheinlich wird es im APS-C Segment dann keine neue Kamera mehr geben, die beides gut beherrscht.
Sony scheint momentan wohl eher in Video-Laune zu sein was es die Releases angeht... FX3, FX30... für mich sind beide irrelevant, aber ich kann Nutzer verstehen die Bedarf an einem der beiden Bodys sehen - sei es als Second Unit oder Gimbal Cam um "on location" einen Umbau etwa von der FX9/FX6 or whatever zu vermeiden bei dennoch ähnlichem Look und vergleichbarer Usability. Oder auch um eine Zweit-Kamera per Remote fest zu verbauen als Totale etc...
Das Ein Foto-hybrider Nachfolger der 6000er Reihe längst überfällig ist dürfte kein Geheimnis sein... das ist etwa so wie damals, als der Nachfolger der A7sII eigentlich viel zu lang auf sich warten ließ.
Keine Ahnung ob Sony noch "Bock" auf APS-C hat - ich denke aber schon. Warum sollten sie das Feld Fuji und Co überlassen wenn man auch im S35/APS-C Bereich mitmischen könnte? Wo es eher hakelt sind aktualisierte Versionen der bestehenden Optiken und das ein oder andere spannende ASP-C Glas welches man bei Sigma/Tamron ja durchaus erstehen kann.
Momentan wird man erstmal noch die A7IV versuchen unter's Volk zu drücken... aber ich schätze schon das ein 6000er Nachfolger kommen wird - allein für die Sport/Tierfotografen wäre ein gecroppter Zweitbody immer von Vorteil. Zudem ist der Bereich zwischen 1500-2000€ bei Sony momentan noch nicht bespielt bzw. da gäbe es durchaus Platz für einen Einsteiger als auch "Pro" APS-C Body... videomäßig wird man da aber ganz sicher nicht alles bekommen, die A7sIII hat ja auch nicht das neueste FX3 Update mit CineEI und dem Gelumpe erhalten.
Ob und wie lange man da noch warten muss: keine Ahnung. Die Rumors dahingehend sind noch nicht allzu dicht aber der Release der FX30 gibt mir eigentlich nur positive Zeichen in der Hinsicht als das auch noch ein APS-C Fotoapparat kommen könnte. Fände ich persönlich auch spannender als die sucherlose FX30.
Antwort von Mantas:
Funless hat geschrieben:
Leider weiß ich nicht wie gut oder schlecht die Farben von s-cinetone tatsächlich sind, bzw. ob sie mir persönlich gefallen würden. Denn das wäre das einzige Bildprofil mit dem ich mit der FX30 filmen würde, Log und RAW interessieren mich nicht.
Slashcamer versuchen wohl dir ein 700ps Auto für die Spielstraße aufzudrehen. gamut dies das.
cinetone ist wahnsinnig gut, das beste rec709 Profil was ich kenne. Was die Farben betrifft und die gammakurve.
Funless hat geschrieben:
Echt? Ich hab das Cine EI Prinzip, obwohl ich den diesbezüglichen slashCAM Artikel (sogar mehrmals) gelesen habe, nicht verstanden. Bekomme ich irgendwie nicht kapiert. Gilt übrigens auch für die ganzen Gamut Gedöhnse.
so geht's hier vielen, die nutzen es trotzdem :)
Antwort von rush:
S Cinetone ist schon fein für out of the box und wirklich gut nutzbar.
Für privates Gedöns spiele ich aber auch gern mit Slog3 herum... da hat man in der Tat nochmal etwas mehr Spielraum und via CMR ist das auch für Grading-Muffel wie mich kein wirkliches Hexenwerk... Gebe aber zu das ich mich in schwierigen Lichtsituationen auch nicht immer ganz wohl fühle und manchmal zur Zweitbelichtung tendiere wenn ich in SLOG unterwegs bin und die Zeit dafür vorhanden ist.
Wenn ich jedoch was rausgebe, dann ist es in der Regel S-Cinetone oder bereits transformiertes Material.
Slog ist für einige (auch im "Professional-Bereich/Broadcasting") noch immer ein Buch mit sieben Siegeln... das sollte man nur Leuten an die Hand geben, die wissen wie der Hase läuft. Sonst sind Fehler vorprogrammiert.
Antwort von Darth Schneider:
Gruss Boris
Antwort von iasi:
Das ist schon irgendwie witzig:
Da wird über tolle Cine-Kameras gesprochen und im Hintergrund spielt sich an der Wand so etwas ab:
https://youtu.be/aD0hmUJAnZ0?t=658
Antwort von vertrider:
Da das im Text nicht so gut rüberkommt:
die FX30 hat 26 MP im
Fotomodus (
APS-C 3:2, 6192×4128) und 20,1 MP im
Video Modus (
Super 35mm 16:9, 3840×2160).
Lg
DerChris
Antwort von iasi:
vertrider hat geschrieben:
Da das im Text nicht so gut rüberkommt:
die FX30 hat 26 MP im Fotomodus (APS-C 3:2, 6192×4128) und 20,1 MP im Video Modus (Super 35mm 16:9, 3840×2160).
Lg
DerChris
Aus den 20,1 MP (16:9) werden die 3840×2160 herunterskaliert.
UHD hat nur 8,3 MP.
Antwort von dienstag_01:
vertrider hat geschrieben:
Da das im Text nicht so gut rüberkommt:
die FX30 hat 26 MP im Fotomodus (APS-C 3:2, 6192×4128) und 20,1 MP im Video Modus (Super 35mm 16:9, 3840×2160).
Lg
DerChris
Allerdings steht auf der Website: Downsampling von 6k.
Eins von beiden stimmt da wohl nicht ;)
Antwort von klusterdegenerierung:
Funless hat geschrieben:
Echt? Ich hab das Cine EI Prinzip, obwohl ich den diesbezüglichen slashCAM Artikel (sogar mehrmals) gelesen habe, nicht verstanden. Bekomme ich irgendwie nicht kapiert. Gilt übrigens auch für die ganzen Gamut Gedöhnse.
Und ich dachte immer gerade mit S-Log3 muss man mehrere Schritte durchlaufen bis man ein fertiges (und vor allem gefälliges) Bild hat (Color Space Transform, Color Correction, Color Grading). Da würde ich irre werden, hab weder die Muse, noch den Nerv für sowas und ohne den Einsatz von Resolve käme sowieso nix gescheites raus.
Und nun soll es auch nur mit (vereinfacht ausgedrückt) einem Klick in FCP möglich sein?
Ne, Cine EI nutze ich auch nicht, nur strikt 800 und 12.800 Iso und gut ist, Rest mit ND.
Wenn Du RCM nutzt, brauchst Du nur die Clips auf die Timeline werfen und sie sind wie Rec dargestellt und passen wie die Faust aufs Auge, da kannste noch ein bisschen tweaken, aber vom Prinzip passt es.
Antwort von Axel:
Mantas hat geschrieben:
Funless hat geschrieben:
Echt? Ich hab das Cine EI Prinzip, obwohl ich den diesbezüglichen slashCAM Artikel (sogar mehrmals) gelesen habe, nicht verstanden. Bekomme ich irgendwie nicht kapiert. Gilt übrigens auch für die ganzen Gamut Gedöhnse.
so geht's hier vielen, die nutzen es trotzdem :)
Eine Erklärung aus zehn Metern Entfernung, mit zusammengekniffenen Augen und dabei eine Ahoi-Brause auf der Zunge zerzischen lassend:
Der Sensor hat eigentlich nur
eine* Empfindlichkeit. Diese wird kultur-unbehaglich mit ISO (ziemlich hemdsärmelig, wie weiland WoWu immer anmerkte) angegeben.
*Sogar zwei. Wie das geht: K.A.
Die native ISO ist 800. Nur damit kann die FX30 bestenfalls 14 Blenden speichern.
*
*Exkurs zu der Dynamik. Gerald Undone konnte in der Tat sogar 14,6 Blenden unterscheiden:
zum Bild
Da die unteren Blenden (= die Schatten) aber ziemlich verrauscht sind, waren es realistischerweise aber nur 11,2 Blenden.
Da das von 6k runtergesampelte Bild aber erstens ein feineres Rauschmuster hat* und zweitens weniger aggressiv in-camera glättet*, lässt sich durch Anwendung von Neat oder NR in Resolve ein DR von ~13 Blenden nutzen. *Als die A7SIII und FX3, nicht aber die FX6 und FX9 ... Außerdem dürfte das Rauschen in All-I "besser" rauschen als in Long-GOP.
Diese maximal mögliche Dynamik können in den o.e. Sony-Kameras nur SLog3, HLG und Raw speichern. S-Cinetone, da zu rec_709 zusammengebacken, verteilt diese Helligkeitswerte gefällig auf 6 Blenden. Kann gut aussehen. Kann auch Geld sparen, denn für rec_709 braucht man kein 10-bit (All-I 10-bit auf 128 GB Karte: 1h8m, Long-GOP 8-bit: 4h9m, schon ein Unterschied!). Man braucht auch so gesehen gar keine so teure Kamera.
Warum überhaupt 11,12,13 Blenden und der ganze Zinnober, wenn ich letzten Endes trotzdem nur auf 6 Blenden reduziere?
Weil dann die - auch automatisch farbraum- und tonwertkonvertierten - Bilder nach Ansicht einiger der hier vertretenen Sony-Nutzer besser aussehen als Standard oder selbst S-Cinetone. Diese sind i.d.R. auch nicht ganz ohne FK genießbar, warum nicht den extra Millimeter gehen?
Außerdem erlaubt 10-bit und der weitere Farbraum, Farbkontraste allein schon durch Farbtemperatur zu verändern. Fast, als hätte man Raw. Gleiches gilt für die Gradation.
Und Cine EI? Ist ein Modus, der halt SLog3 benutzt und darin nur 800 und 2500. Wenn ich, wie Gerald Undone und cvp suggerieren, mit der FX30 besser permanent eine Blende überbelichte, stelle ich ISO 400 ein, wodurch das Bild auf dem Monitor (und im Histogramm und per Zebra) zu dunkel wird. Ich muss das mit Blende, Verschlusszeit oder extern mit Licht kompensieren. Aber, jetzt kommt's, ich sehe ein normales Bild, nicht ein zu dunkles oder zu helles. Ich kann kinderleicht per Augenmaß belichten,
... sondern Filme immer mit ETYS.
Sollte es nicht ETWIS heißen?
Antwort von Funless:
Zuerst vielen Dank für die ausführliche Darstellung und Erklärung und ich will die möglichen Vorteile die sich beim filmen in S-Log (oder RAW) ergeben ja auch gar nicht schlecht reden oder abstreiten.
Doch auch in deinem Text lese ich "in Resolve" ... na toll, ich habe eine "Resolve-Sperre" (um G.M. Kretschmers Sprache zu bemühen), da bin ich gleich raus. Ich bin FCP Fanboy geworden und dazu stehe ich auch. Gäbe es in FCP einen inhouse "one-click-workflow" um aus dem grau-Brei von S-Log schöne Farben zu zaubern, ich wäre der erste der das nur noch nutzen würde. Und nein ich benötige kein FilmConvert, das meine ich auch nicht, da es mir nicht um die Simulation irgendwelcher cinematic Looks geht, sondern ich will (mir persönlich gefällig) schöne und im Gesamtspektrum harmonische Farben. Ist ja auch meine persönliche Befindlichkeit und mir auch bewusst, dass ich da eigentlich gegen Windmühlen renne.
Axel hat geschrieben:
... sondern Filme immer mit ETYS.
Sollte es nicht ETWIS heißen?
Exposure
To
Your
Subject (wofür ETWIS steht weiß ich leider nicht, vielleicht ist es sinngemäß das selbe?).
Ich will jetzt auch keine Grundsatzdiskussion starten und den Thread damit auseinander pflücken. Vielleicht leihe ich mir nächstes Jahr die FX30 einfach mal für 1-2 Tage und beschäftige mich dann in Ruhe damit. Mal schauen.
Es ist ja nicht so, dass ich mit meiner Fuji unzufrieden wäre, ich bin in erster Linie eigentlich nur neidisch auf den AF den Sony seit der A7sIII (und nachfolgende) an den Start gebracht hat und die Tatsache, dass die FX30 eine (Zitat Mr. Kartoffelstrahl) "Video First DSLM" ist, sehr sexy. Ich benötige eigentlich keinen Hybriden, denn ich fotografiere so gut wie nie mit meiner Kamera.
Antwort von dienstag_01:
Und Cine EI? Ist ein Modus, der halt SLog3 benutzt und darin nur 800 und 2500. Wenn ich, wie Gerald Undone und cvp suggerieren, mit der FX30 besser permanent eine Blende überbelichte, stelle ich ISO 400 ein, wodurch das Bild auf dem Monitor (und im Histogramm und per Zebra) zu dunkel wird. Ich muss das mit Blende, Verschlusszeit oder extern mit Licht kompensieren. Aber, jetzt kommt's, ich sehe ein normales Bild, nicht ein zu dunkles oder zu helles. Ich kann kinderleicht per Augenmaß belichten,
Welchen Vorteil bring dann Cine EI? Ganz einfach, wenn man mit der auf 400 Iso belichteten Szene zufrieden ist, dann wird das Material im NLE mit der (Cine EI-) Gammakurve von 400 ISO angezeigt und man ist fertig. Hat aber kein 709 (oder 2020?) Material in der Timeline, sondern LOG oder RAW (?). Mit all dem Spielraum, den LOG oder RAW im Falle eines Falles zu bieten haben.
Dual ISO Sensoren sind übrigens Sensoren mit zwei (statt einer) Verstärkerstufen auf dem Sensor.
Antwort von Axel:
Funless hat geschrieben:
Gäbe es in FCP einen inhouse "one-click-workflow" um aus dem grau-Brei von S-Log schöne Farben zu zaubern, ich wäre der erste der das nur noch nutzen würde.
Das ist es ja. Es gibt einen Minimal-Workflow, der so einfach ist, dass er den Namen gar nicht verdient und der trotzdem immer wieder überzeugt. Guck nur etwa eine Minute weiter:
https://youtu.be/QbINvWI3ZeU?t=1745
Es ist nicht
ein Klick, aber wirklich nur vier oder fünf für ein ganzes FCP-Ereignis. Alle Clips auswählen im Browser mit cmd + a. Dann im Inspector diese Kamera-LUT für alle wählen.
Es ist so wie Mark sagt. Wenn du halbwegs richtig belichtet hast und der Weißabgleich stimmt, dann brauchst du nichts mehr zu machen oder jedenfalls nicht mehr als mit einem 709-Profil. Es ist viel leichter (nach meiner Erfahrung), SLog3 richtig zu belichten als S-Cinetone.
Antwort von Funless:
Danke dir, werde ich mir anschauen.
Antwort von roki100:
Funless hat geschrieben:
Das ist deine Meinung dazu und ich respektiere das. Und ist ja auch schön, dass du an dieser Vorgehensweise Freude hast.
Ich habe allerdings eine andere Meinung dazu und eben keine Freude an dieser Vorgehensweise. Ist ja nicht so, dass ich mich nicht vorher mit dem Thema beschäftigt habe. Habe ich sogar sehr intensiv und dabei festgestellt, dass das nix für mich ist. Quite simple.
Ich versuch dich zu verstehen und das Einzige was ich jetzt verstanden habe ist, dass Du dich scheinbar zu kompliziert damit beschäftigt hast... Verstehe mich nicht falsch, ich respektiere auch deine Meinung, doch es ging nicht wirklich um Meinungen, sondern um die Vorteile (bezogen nicht nur auf Looks, sondern auch auf Korrekturen...). Aber gut, muss jeder für sich selbst wissen. 👍
Antwort von Jörg:
funless schreibt
Es ist ja nicht so, dass ich mit meiner Fuji unzufrieden wäre, ich bin in erster Linie eigentlich nur neidisch auf den AF den Sony seit der A7sIII
spiel mal das FW update auf....vielleicht ist er auch so schnell geworden wie bei meiner X-T4
Antwort von klusterdegenerierung:
Scheinbar schein ich Spanisch zu reden oder man interessiert sich nicht wirklich für "wirklich einfach & schnell"!
Anders kann ich mir das nicht erklären, das diese offensichtlich einfachste und schnellste Methode hier soo wenig Gehör findet und man immer wieder mit viel komplizierteren Wegen auffährt.
Aber vielleicht ist es ja auch gar so, das man garnicht an wirklich einfach interessiert ist und man gerne rumschraubt.
Hier nochmal zur Verdeutlichung, ich lege dieses Sgamut3 Material einfach "NUR" auf die RCM Timeline und dann sieht es aus wie links im Bild und ich habe nichts dafür gemacht und kann direkt loslegen.
Aber gut, wer unbedingt diesen konvertierungswahnsinn bzw die Arbeit braucht, bitte.
Antwort von Funless:
Jörg hat geschrieben:
funless schreibt
Es ist ja nicht so, dass ich mit meiner Fuji unzufrieden wäre, ich bin in erster Linie eigentlich nur neidisch auf den AF den Sony seit der A7sIII
spiel mal das FW update auf....vielleicht ist er auch so schnell geworden wie bei meiner X-T4
Aufgespielt habe ich bereits aber noch keine Aufnahmen gemacht, komme erst am Wochenende dazu. Wäre natürlich schön wenn bei meiner X-S10 da auch eine Verbesserung ist wie bei deiner X-T4.
klusterdegenerierung hat geschrieben:
ich lege dieses Sgamut3 Material einfach "NUR" auf die RCM Timeline ...
Ich weiß leider nicht was mit RCM gemeint ist.
Antwort von rush:
klusterdegenerierung hat geschrieben:
Scheinbar schein ich Spanisch zu reden oder man interessiert sich nicht wirklich für "wirklich einfach & schnell"!
Anders kann ich mir das nicht erklären
Er nutzt FCP - kein Resolve, ergo auch kein RCM... Vielleicht sollte man auch das einfach mal im Thread lesen bevor der Puls sonst unnötig ansteigt ;-)
Antwort von cantsin:
Funless hat geschrieben:
Ich weiß leider nicht was mit RCM gemeint ist.
Resolve Color Managed.
Aus meiner Sicht saugen alle Workflows mit LUTs - weil die (a) nur gut funktionieren, wenn perfekt belichtet bzw. händisch belichtungskorrigiert wurde, in den meisten Fällen Highlights clippen, weil sie prinzipbedingt (im Gegensatz zu Resolves Mechanismen bei RCM, Aces und Color Space Transform) kein Tonemapping machen, (b) die Farbauflösung reduzieren bzw. Informationsverlust im Material verursachen und (c) i.d.R. nur für Rec709 funktionieren und in jedem Fall gigantische Probleme verursachen, wenn man ein Projekt später mal in einen anderen Farbraum rendern will.
Antwort von klusterdegenerierung:
Funless hat geschrieben:
Ich weiß leider nicht was mit RCM gemeint ist.
:-)
Antwort von klusterdegenerierung:
rush hat geschrieben:
klusterdegenerierung hat geschrieben:
Scheinbar schein ich Spanisch zu reden oder man interessiert sich nicht wirklich für "wirklich einfach & schnell"!
Anders kann ich mir das nicht erklären
Er nutzt FCP - kein Resolve, ergo auch kein RCM... Vielleicht sollte man auch das einfach mal im Thread lesen bevor der Puls sonst unnötig ansteigt ;-)
Rege Dich besser nicht auf, das ist nicht gut, öffne lieber Deinen Geist und versuche zu partizipieren um dann vielliecht darauf zu kommen, das wenn man RCM nutzen möchte quasi auf Resolve umsteigen muß. :-)
Wenn man dies nicht möchte, kann man diesen post einfach links liegen lassen und ihn für sich als uninteressant abtun, aber doch um himmelswillen nicht aufregen, da gibt es doch ganz andere Sachen. :-)
https://www.youtube.com/watch?v=izVX6Rj1JU0
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
Funless hat geschrieben:
Ich weiß leider nicht was mit RCM gemeint ist.
Resolve Color Managed.
Aus meiner Sicht saugen alle Workflows mit LUTs - weil die (a) nur gut funktionieren, wenn perfekt belichtet bzw. händisch belichtungskorrigiert wurde, in den meisten Fällen Highlights clippen, weil sie prinzipbedingt (im Gegensatz zu Resolves Mechanismen bei RCM, Aces und Color Space Transform) kein Tonemapping machen, (b) die Farbauflösung reduzieren bzw. Informationsverlust im Material verursachen und (c) i.d.R. nur für Rec709 funktionieren und in jedem Fall gigantische Probleme verursachen, wenn man ein Projekt später mal in einen anderen Farbraum rendern will.
Leider erschließt sich mir Dein post nicht wirklich, denn die Überschrift ist RCM, aber der Inhalt bezieht sich auf den Lut und transform workflow.
Was möchtest Du denn mit der Überschrift ausdrücken, denn weder hat man die besagten Probleme mit RCM, noch hat der Inhalt nix mit RCM zu tun?
Antwort von rush:
Er schreibt was Du eigentlich meinst, aber offenbar auf der falschen Frequenz empfängst.
Ich übersetze:
RCM = easy & gut nutzbar ohne Rumgeklicke
LUT = nicht ganz so easy und eher Mal problematisch
Da Funless aber wie erwähnt nicht in Resolve unterwegs ist, tangiert ihn der einfache RCM Workflow aktuell jedoch nicht.
Antwort von klusterdegenerierung:
rush hat geschrieben:
Er schreibt was Du eigentlich meinst, aber offenbar auf der falschen Frequenz empfängst.
Ich übersetze:
RCM = easy & gut nutzbar ohne Rumgeklicke
LUT = nicht ganz so easy und eher Mal problematisch
Da Funless aber wie erwähnt nicht in Resolve unterwegs ist, tangiert ihn der einfache RCM Workflow aktuell jedoch nicht.
Geht es denn nur um Funless? Was ist mit den anderen hier die auch Resolve erwähnten?
Chill mal.
Antwort von rush:
Ich bin ziemlich entspannt - aber das RCM gut und einfach funktioniert muss man ja nicht in jedem zweiten Thread durch den Saal rufen, schon gar nicht wenn jemand deutlich kommuniziert mit FCP unterwegs sein zu wollen.
Wir wissen doch alle: ohne Dich wüsste niemand was RCM ist, denn Du verwendest es schon seit Dekaden, mindestens aber zu Zeiten in denen wir anderen noch im Sandkasten unsere Luts verbuddelten. Thumbs Up - aber dann ist's auch wieder gut.
Du merkst: ich bin gechillt wie eh und je und einfach nur gut drauf, mein Humor kam bei Dir ja eh selten an... Anderen Frequenz und so- daher auch die Spitze da oben in der ich eigentlich nur aufklären wollte - und es bei dir wieder negativ ankommt. "Some things will never change...".
Aber: RCM funzt halt nur in Resolve - und das ist sowohl hier im Thread als auch an vielen anderen Stellen des Boards sicher angekommen.
Wenn Funless Lust auf Resolve hätte, dann könnte er das ja auch unabhängig vom Kameraunterbau testen - funzt bekanntlich auch mit Fuji und anderen.
Aber so wie ich nicht richtig warm mit FCP geworden bin, kann ich es anders herum auch verstehen das man ungern weg von FCP möchte wenn es für einen bestens funktioniert.
Aber jetzt Mal wieder zurück zum Thema... Wäre denn für Dich als FX6ler eine FX30 eigentlich eine denkbare Ergänzung als Zweitkamera, sei es als Backup oder Totale/Gimbalkamera - oder doch eher eine FX3? Als gesetzt du würdest Stand jetzt eine zweite günstigere Cam aus dem Sony Baukasten suchen.
Antwort von cantsin:
rush hat geschrieben:
Er schreibt was Du eigentlich meinst, aber offenbar auf der falschen Frequenz empfängst.
Jepp, bzw. eigentlich etwas verklausuliert: dass Programme wie FCPX und Premiere aus meiner Sicht heutzutage stark eingeschränkt sind, wenn sie kein Color Management (bzw. keine algorithmischen Gamma- und Farbraum-Transformationen mit Tone Mapping) für Log- und Raw-Videomaterial anbieten, sondern nur LUT-basierte Workflows.
Ich hab das nur etwas verklausuliert geschrieben, weil ich mir den Aufschrei der FCPX-VFX-Hansis ersparen wollte.
Antwort von klusterdegenerierung:
rush hat geschrieben:
Ich bin ziemlich entspannt - aber das RCM gut und einfach funktioniert muss man ja nicht in jedem zweiten Thread durch den Saal rufen, schon gar nicht wenn jemand deutlich kommuniziert mit FCP unterwegs sein zu wollen.
Wie kommst Du eigentlich die ganze Zeit darauf das ich funless anspreche, lass doch mal gut sein.
Antwort von dienstag_01:
Für Leute, die Cine EI interessiert, wäre es ja interessant zu wissen, wie sich das Material bei weiteren Korrekturen (wenn man z.B. doch nochmal an die Highlights ran will) verhält, eher mit den Nachteilen von LUTs oder den Vorteilen von CST.
(Ich habs nicht, kann es also nicht selber ausprobieren)
Antwort von klusterdegenerierung:
Wenn man doch korrekt belichtet, hat man doch nix zu befürchten.
Wann soll man denn von diesem Feature profitieren?
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
Wenn man doch korrekt belichtet, hat man doch nix zu befürchten.
Wann soll man denn von diesem Feature profitieren?
Drehst du eigentlich in RAW?
Antwort von iasi:
dienstag_01 hat geschrieben:
vertrider hat geschrieben:
Da das im Text nicht so gut rüberkommt:
die FX30 hat 26 MP im Fotomodus (APS-C 3:2, 6192×4128) und 20,1 MP im Video Modus (Super 35mm 16:9, 3840×2160).
Lg
DerChris
Allerdings steht auf der Website: Downsampling von 6k.
Eins von beiden stimmt da wohl nicht ;)
Ja - das passt doch auch:
von 6k 16:9 mit 20,1 MP wird auf UHD runtergesampelt.
Aber die Diskussion hier ist ja mittlerweile schon viel weiter und in eine andere Richtung gegangen.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
klusterdegenerierung hat geschrieben:
Wenn man doch korrekt belichtet, hat man doch nix zu befürchten.
Wann soll man denn von diesem Feature profitieren?
Drehst du eigentlich in RAW?
Ne, das hab ich aufgegeben, wegen der Nichtunterstützung von Resolve und dem Konvertierhickhack via MediaEncoder, ist mir zu aufwendig. :-)
Antwort von Darth Schneider:
@Kluster
Kaufst du dir eine FX30 ?
Aus reiner Neugier.;)
Und nicht zu letzt weil mir die Cam gefällt…
Gruss Boris
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Drehst du eigentlich in RAW?
Ne, das hab ich aufgegeben, wegen der Nichtunterstützung von Resolve und dem Konvertierhickhack via MediaEncoder ist mir zu aufwendig. :-)
Siehste, ein Feature, von Sony angeboten, welches du nicht nutzt.
Und sie bieten eben auch Cine EI an. Musst du auch nicht nutzen.
Mir ging es nur ums Verständnis.
Antwort von klusterdegenerierung:
Moinsen Boris,
ich habe mich lange mit der Kaufentscheidung für die A7IV rumgeschlagen, denn auf der einen Seite kann ich sie sehr gut wegen den Fotoupdates zu meiner boring A7III gebrauchen, aber auf der anderen ist sie in Video zwar schon ordentich, aber auch weit weg von richtig gut,
Da kommt die FX30 genau richtig und als Liebhaber von S35 sowieso!
Ich bin nachwievor immer noch ultraverliebt in mein S35 Material der FS700, hätte sie nie abgeben sollen, idiotischer Einfall!
Die FX30 scheint mir genauso wie die FX6 ein dealbreaker in Punkto you geht all what u want for less money! :-)
Ich bin davon überzeugt das wird ein riesen Wurf für Sony, denn (alle) a6xxxler werde umsteigen, das ist so sicher wie das Amen in der Kirche.
Endlich mal wieder speedboostern mit Canon Linsen etc. und S35 ist einfach der perfekte Bildkreis für Film.
UNd wenn ich mir ein teures Monatsabo daraus machen muß, die wird gekauft! :-))
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
klusterdegenerierung hat geschrieben:
Ne, das hab ich aufgegeben, wegen der Nichtunterstützung von Resolve und dem Konvertierhickhack via MediaEncoder ist mir zu aufwendig. :-)
Siehste, ein Feature, von Sony angeboten, welches du nicht nutzt.
Und sie bieten eben auch Cine EI an. Musst du auch nicht nutzen.
Mir ging es nur ums Verständnis.
Ja das hatte ich serwohl verstanden. :-)
Mir ging es nur daraum, das ich darin keinen echten Mehrwert sehe, denn an vielen Ecke im Netz wurd auch gemeckert, weil man sich Rauschen einfängt, welches man sich mit nur DualIso nicht zwangsläufig einfängt.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Siehste, ein Feature, von Sony angeboten, welches du nicht nutzt.
Und sie bieten eben auch Cine EI an. Musst du auch nicht nutzen.
Mir ging es nur ums Verständnis.
Ja das hatte ich serwohl verstanden. :-)
Mir ging es nur daraum, das ich darin keinen echten Mehrwert sehe, denn an vielen Ecke im Netz wurd auch gemeckert, weil man sich Rauschen einfängt, welches man sich mit nur DualIso nicht zwangsläufig einfängt.
Die Kamera steht dabei auf einem der beiden DualISO-Werte.
Antwort von Jott:
Mit der A7IV hättest du beides: Vollformat und S35. Aber die ist natürlich teurer als der neue Winzling.
Antwort von Darth Schneider:
@Kluster
Ich kauf die neue Sony auch, bestimmt, aber ich warte noch ein Jährchen.
Kann nur günstiger werden. S35 finde ich auch zum filmen sehr toll, Fullframe ist doch am Schluss viel zu teuer, und auch irgendwie schwieriger zu handhaben….
Der kleine, toll durchdachte, Body und auch die (schön aufgeräumt) sinnvollen Funktionen (und auch mit dem Handgriff) der FX30 finde ich sind einfach nur perfekt, mehr braucht es nicht da drin…
P.S.:
Ich hatte noch die ganze Zeit bis jetzt übersehen, das die FX3 zu allem noch noch nebenbei externes RAW in 16 Bit anbietet, in einem anständigen grossen hdmi Anschluss.;)
Hmmm….
Gekauft.
Aber zuerst muss mal ein neuer (Apple) Rechner her.
Gruss Boris
Antwort von klusterdegenerierung:
Raw kann die FX30 doch auch.
Antwort von iasi:
klusterdegenerierung hat geschrieben:
Raw kann die FX30 doch auch.
Nicht wirklich.
6k-Sensor --> 4,2k-Raw-out
Antwort von klusterdegenerierung:
Vorbestellt. :-)
Antwort von Axel:
iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Raw kann die FX30 doch auch.
Nicht wirklich.
6k-Sensor --> 4,2k-Raw-out
4,6k
Antwort von dienstag_01:
Axel hat geschrieben:
iasi hat geschrieben:
Nicht wirklich.
6k-Sensor --> 4,2k-Raw-out
4,6k
Mist, zuviel ;)
Antwort von Darth Schneider:
Ein kleines S35 Biest, nicht mehr und auch nicht weniger.
Und sie kann auch schön fotografieren…
Gruss Boris
Antwort von Axel:
dienstag_01 hat geschrieben:
Für Leute, die Cine EI interessiert, wäre es ja interessant zu wissen, wie sich das Material bei weiteren Korrekturen (wenn man z.B. doch nochmal an die Highlights ran will) verhält, eher mit den Nachteilen von LUTs oder den Vorteilen von CST.
(Ich habs nicht, kann es also nicht selber ausprobieren)
Das habe ich seinerzeit nach dem FW-Update der FX3 gegoogelt bis zum Abwinken. Catalyst Browse oder Prepare, keine Resolve-verträglichen Metadaten. Für Resolve gibt es keine Sidecar-LUTs und auch keine Metadaten-Info über +/- der ISO-Abweichung. Also hieße es dort globale Wheels/HDR-Wheels - Korrektur, manuell (wollte gerade nachsehen, wie es genau heißt, da verkündet mir BM Resolve 18.0.4.). Es wäre demnach eine reine Belichtungs-Assistenz bei der Aufnahme. Je nachdem ob RCM, CST oder ACES wird durch das Tonemapping anscheinend eine "Exp.Comp." (das A7SIII-Pendant zu CINE EI, solange man selbst darauf achtet, nur die Base-ISOs zu verwenden) automatisch zurückgenommen.
Antwort von iasi:
Axel hat geschrieben:
iasi hat geschrieben:
Nicht wirklich.
6k-Sensor --> 4,2k-Raw-out
4,6k
Aha - und das ändert nochmal was an der generellen Problematik? :)
Antwort von Darth Schneider:
Wer genau, braucht unbedingt RAW (und andere Pixelfucking Funktionen) und wozu überhaupt, bei einer solchen Kamera ???
Genau mal nicht mehr wie 1 Prozent der User ?
Denke ich zumindest.
Die Kiste hat doch ganz andere (auch sehr wichtige) Talente…
Die zum absolut selben Ziel führen können..;)))
Abgesehen davon, extern geht RAW ja laut Sony.
Sogar noch mit 16 Bit….
Und sonst gibt es noch die Pockets….;)
Gruss Boris
Antwort von Axel:
"Darth Schneider" hat geschrieben:
Wer genau, braucht unbedingt RAW und wozu, bei einer solchen Kamera ?
Exakt niemand.
Antwort von Darth Schneider:
@Axel
Lies es bitte nochmal, hab meinen letzten Text, ganz oben noch etwas verfeinert…;)
Gruss Boris
Antwort von roki100:
Alle Kamera sollten mM. RAW haben und am besten verschiedene RAWs, wie aktuell zB. die Z-Cam E2 Serie, Panasonic usw. mit ext.Recorder oder intern...Ob jemand das nutzt oder nicht, kann jeder für sich selbst entscheiden und auch die Wahl haben, ob P(ico)RAW, ZRAW, BRAW, PRRAW...oder CDNG. Nur RedRAW nicht - das kann in die Tonne.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
dienstag_01 hat geschrieben:
Für Leute, die Cine EI interessiert, wäre es ja interessant zu wissen, wie sich das Material bei weiteren Korrekturen (wenn man z.B. doch nochmal an die Highlights ran will) verhält, eher mit den Nachteilen von LUTs oder den Vorteilen von CST.
(Ich habs nicht, kann es also nicht selber ausprobieren)
Das habe ich seinerzeit nach dem FW-Update der FX3 gegoogelt bis zum Abwinken. Catalyst Browse oder Prepare, keine Resolve-verträglichen Metadaten. Für Resolve gibt es keine Sidecar-LUTs und auch keine Metadaten-Info über +/- der ISO-Abweichung. Also hieße es dort globale Wheels/HDR-Wheels - Korrektur, manuell (wollte gerade nachsehen, wie es genau heißt, da verkündet mir BM Resolve 18.0.4.). Es wäre demnach eine reine Belichtungs-Assistenz bei der Aufnahme. Je nachdem ob RCM, CST oder ACES wird durch das Tonemapping anscheinend eine "Exp.Comp." (das A7SIII-Pendant zu CINE EI, solange man selbst darauf achtet, nur die Base-ISOs zu verwenden) automatisch zurückgenommen.
Axel hast Du eigentlich die files in Catalyst mal doppelt geklickt? :-)
|
Antwort von Axel:
"Darth Schneider" hat geschrieben:
Und sonst gibt es noch die Pockets….;)
... und es gibt auch, für Leute, die eh nur 8-bit brauchen, die A6100, A6600 oder meinetwegen A6400. Deren Farbschema ist ja auch schon nicht mehr der pure Sony-Horror (wie es meine A6500 und die kleinere A6300 waren, zumindest ootb). An diesen Gurken zeigt sich aber, in wie vielen Bereichen die FX30 wesentlich besser ist. Noch besserer AF, artikulierbareres Display, das auch deutlich heller wird, kein Menu des Grauens, 50/60p in 4k statt in schlechtem HD. Und obwohl der Body Video bevorzugt, wette ich, dass Fotos damit mindestens gleichauf, wenn nicht besser sind.
Da wir schon dabei sind, ich las irgendwo, ich weiß nicht mehr wo: Freunde, die Zeit der Booster ist wieder gekommen. Raus mit euren alten Sigma 18-35! Das finde ich Quatsch. Es gibt mittlerweile so viele gute APSC-E-Mounts. Und ich würde mir die drei neuen mal genauer anschauen.
klusterdegenerierung hat geschrieben:
Axel hast Du eigentlich die files in Catalyst mal doppelt geklickt? :-)
Ich schrieb ja, dass das wohl geht, aber nötig ist es ja nicht. Wer nicht weiß, dass er überbelichtet hat oder wer das nicht am Bild selbst sieht, dem helfen auch Metadaten nicht. Catalyst Browse hat bei mir mit seinen auf 8-bit beschränkten Exporten vorerst verschissen, und wie viel, bzw. wie wenig mir zusätzliche Gyrodatenstabilisierung wert ist, zeigt, dass ich für 13 € / Monat für Prepare (10-bit und Batchexport) zu geizig bin. Infos über vergessene CINE EI-Einstellungen rangieren da noch tiefer.
Antwort von klusterdegenerierung:
Ich empfinde es auch als eine absolute Frechheit, das wenn ich eine Cam für 6,5K€ kaufe, keine Vollversion dazu bekomme, das ist ein Witz!!
Das mit den 8Bit habe ich nicht verstanden.
Ich habe hier für den Export zig Codecs und Qualitys zum einstellen, da kann man quch exportieren wie man importiert hat.
Antwort von rush:
Axel hat geschrieben:
Und obwohl der Body Video bevorzugt, wette ich, dass Fotos damit mindestens gleichauf, wenn nicht besser sind.
Aber auch nur, wenn der elektronische Verschluss wie jener einer A1 oder Z9 arbeitet.
Denn die "Probleme" eines rein elektronischen Verschlusses (Rolling Shutter aka Verzerrungen, Kunstlicht/Streifenbildung...) sieht man an Modellen bis hinauf zur A7SIII.
Ich würde da ungern auf einen mechanischen Verschluss verzichten wollen wenn Fotos wirklich relevant sind. Aber wer eine FX30 kauft, wird das Teil Mangels Sucher womöglich sowieso nicht primär als Fotokiste nutzen? Für mich wäre das jedenfalls keine Option (mangels EVF) - aber selbst als Kompakte müsste dann zumindest der elektronische Verschluss höchsten Ansprüchen genügen.
Wenn da jemand was zu weiß/gesehen hat - gern teilen
Antwort von klusterdegenerierung:
Ich nutze ja auch meine A7III überwiegend als Knipse, aber auch dort kann ich mich nicht erinnern wann ich das letzte mal durch den Sucher gesehen habe!
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Das mit den 8Bit habe ich nicht verstanden.
Ich habe hier für den Export zig Codecs und Qualitys zum einstellen, da kann man quch exportieren wie man importiert hat.
Ja, das steht sogar da. Dann lass dir bei dem exportierten Clip mal "Videoinformationen" oder so anzeigen, gerne auch in CB selbst: 8-bit.
rush hat geschrieben:
Axel hat geschrieben:
Und obwohl der Body Video bevorzugt, wette ich, dass Fotos damit mindestens gleichauf, wenn nicht besser sind.
Aber auch nur, wenn der elektronische Verschluss wie jener einer A1 oder Z9 arbeitet.
Guter Punkt.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Ja, das steht sogar da. Dann lass dir bei dem exportierten Clip mal "Videoinformationen" oder so anzeigen, gerne auch in CB selbst: 8-bit.
?
Antwort von Axel:
Ja, stimmt. So war's. 10-bit steht da, aber es sind nur 8 (Timestamp):
https://www.youtube.com/watch?v=39XSVW_X_PY&t=378s
Antwort von klusterdegenerierung:
Axel ich bin erschüttert! Schaust Du Dir auch Chemtrail Videos an?
Sorry aber dem würd ich nicht nur nix glauben, sondern nicht mal meine Zeit schenken!
Was ist das für ein Dummgeschwätze und vorallem warum sollte Sony sowas tun, ich kippe als Metzger nach dem Schlachten des Schweins auch keine Gülle in die Marinade! Sorry, aber das ist echt meega albern.
Antwort von roki100:
Axel hat geschrieben:
Ja, stimmt. So war's. 10-bit steht da, aber es sind nur 8 (Timestamp):
https://www.youtube.com/watch?v=39XSVW_X_PY&t=378s
Mich würde sowas verrückt machen. Ich meine, Sony verwirrt jetzt schon mit 12/14Bit Sensoren, aber 16Bit RAW / HDMI Output usw. und jetzt auch noch 10Bit Clips aus CB export ist in Wirklichkeit 8Bit... :(
Antwort von rush:
klusterdegenerierung hat geschrieben:
Axel ich bin erschüttert! Schaust Du Dir auch Chemtrail Videos an?
Sorry aber dem würd ich nicht nur nix glauben, sondern nicht mal meine Zeit schenken!
Was ist das für ein Dummgeschwätze und vorallem warum sollte Sony sowas tun, ich kippe als Metzger nach dem Schlachten des Schweins auch keine Gülle in die Marinade! Sorry, aber das ist echt meega albern.
Ein Blick auf die offizielle Sony Seite sollte doch Aufschluss geben was Prepare im Gegensatz zu Browse "kann". Und dazu gehört etwa auch der 10bit fähige UHD Export den Prepare unterstützt, das kleinere Catalyst Browse dagegen nicht an Board zu haben scheint, bzw. laut dieser Liste ausschließlich als MXF.
Screenshot_2022-09-30-23-08-40-33_e4424258c8b8649f6e67d283a50a2cbc.jpg
Antwort von roki100:
rush hat geschrieben:
Ein Blick auf die offizielle Sony Seite sollte doch Aufschluss geben was Prepare im Gegensatz zu Browse "kann". Und dazu gehört etwa auch der 10bit fähige UHD Export den Prepare unterstützt, das kleinere Catalyst Browse dagegen nicht an Board zu haben scheint, bzw. laut dieser Liste ausschließlich als MXF.
Screenshot_2022-09-30-23-08-40-33_e4424258c8b8649f6e67d283a50a2cbc.jpg
Abo: https://www.sonycreativesoftware.com/de ... ystprepare
Ist zwar nicht viel, dennoch schade...
Antwort von rush:
Ich für meinen Teil sehe eigentlich keinen Bedarf an Catalyst...
Ist eher eine unnötige Zwischenstufe in meinen Augen - aber das kann ja jeder halten wie er mag.
Wenn Resolve eines Tages nativ die Gyro Daten der Sony verarbeiten kann, würde Catalyst auch direkt von der Platte fliegen.
Antwort von roki100:
rush hat geschrieben:
Wenn Resolve eines Tages nativ die Gyro Daten der Sony verarbeiten kann, würde Catalyst auch direkt von der Platte fliegen.
Es gibt GyroFlow kostenlos und auch Sony-Gyrodata wird unterstützt (a1, a7c, a7r IV, a7 IV, a7s III, a9 II, FX3, FX6, FX9, RX0 II, RX100 VII, ZV1, ZV-E10) und dafür gibt es auch GyroFlow-OFX-Plugin . Hätte ich eine Sony Kamera, würde ich das auf jeden Fall mit Resolve versuchen...
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Axel ich bin erschüttert! Schaust Du Dir auch Chemtrail Videos an?.
Ich schätze und hoffe für mich und uns alle, dass wir genügend Selbstironie aufbringen, um keine Video-Querdenker zu werden.
Bin ich denn eher ein 10-bit-Heini oder ein Stabi-Heini? Ich hänge wohl irgendwo zwischen Raw-iasi und No-Post-Funless. Wenn ich in Resolve will - und das will ich - will ich 8-bit (wenn möglich) vermeiden. Ich teile rushs Nonchalance, wenn er HD benutzt. Daniel Schiffer, Brandon Li, James Matthews, Philip Bloom, alle kompromissfähig, und das finde ich super.
Aber CB ist zu viel Tamtam um zu wenig Vorteil. Hab ich nicht mehr installiert.
Antwort von klusterdegenerierung:
Das bezieht sich aber auf "mp4" als 10Bit, kann mir nicht vorstellen das Axel ein Intra als mp4 statt mxf rausgibt.
Antwort von Funless:
Man sollte allerdings beachten, dass No-Post-Funless nicht aus Überzeugung No-Post-Funless ist (ganz im Gegensatz zu Raw-iasi oder Fairchild-cinematic-roki, deren Inbrunst bis in die Stratosphäre reicht), sondern weil er als Post-Heini zu doof ist.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
klusterdegenerierung hat geschrieben:
Axel ich bin erschüttert! Schaust Du Dir auch Chemtrail Videos an?.
Ich schätze und hoffe für mich und uns alle, dass wir genügend Selbstironie aufbringen, um keine Video-Querdenker zu werden.
Bin ich denn eher ein 10-bit-Heini oder ein Stabi-Heini? Ich hänge wohl irgendwo zwischen Raw-iasi und No-Post-Funless. Wenn ich in Resolve will - und das will ich - will ich 8-bit (wenn möglich) vermeiden. Ich teile rushs Nonchalance, wenn er HD benutzt. Daniel Schiffer, Brandon Li, James Matthews, Philip Bloom, alle kompromissfähig, und das finde ich super.
Aber CB ist zu viel Tamtam um zu wenig Vorteil. Hab ich nicht mehr installiert.
Was Du eh nicht machen darfst, ist die aktuellste Version zu installieren, die ist Käse, die davor ist gut.
Ich nutze CB eh nur zum stabilisieren und ärgere mich jeden Tag warum Resolve sowas nicht an Bord hat.
Das man Prepare nur als Abo bekommt ist eine weitere Frechheit.
Was sagte Sony CEO noch letztens gefühlt 500x im Interview zu "name vergessen", we hear to our customers, we want make what they need.
Jaja!
Antwort von rush:
Was sagte Sony CEO noch letztens gefühlt 500x im Interview zu "name vergessen", we hear to our customers, we want make what they need.
Jaja!
Na klar machen sie das... Nur das genau diese Funktionen/Features, die sich Kunden als kleine Updates wünschen, dann erst (teilweise) ins nächste oder besser übernächste Vollbezahl-Modell - aber keineswegs in bestehende Geräte gelangen.
Oder es kommen eben Software Abos...
In der Hinsicht war/ist Sony schon immer etwas Panne, genau wie mit proprietären Speicherlösungen die sie alle paar Jahre als holy grail neu anpreisen - und wenige Jahre später ziemlich in Vergessenheit geraten sind.
That's the Sony way - auf mich wirkt das leider immer sehr distanziert dem Kunden gegenüber.
Aber ist eben nichts Neues im Consumer Bereich bei Sony.
Vielleicht ändert sich das aber ja doch noch - die FX3 hat ja tatsächlich auch ein echtes kleines Feature Update erhalten - immerhin ein Anfang.
@roki: Gyroflow... Stimmt, das hatte ich seinerzeit hier sogar noch im Forum als Neuheit gepostet... Habe gar nicht mitbekommen das es davon bereits eine OFX Variante für Resolve gibt - das tönt gut. Werde ich in der kälteren Jahreshälfte sicherlich mal ausprobieren - guter Hinweis.
Antwort von roki100:
Funless hat geschrieben:
Man sollte allerdings beachten, dass No-Post-Funless nicht aus Überzeugung No-Post-Funless ist (ganz im Gegensatz zu Raw-iasi oder Fairchild-cinematic-roki, deren Inbrunst bis in die Stratosphäre reicht), sondern weil er als Post-Heini zu doof ist.
äh, mit doof-heidi hat das nichts zu tun. ;) Du scheinst einfach keine gute Einstellung gegenüber cinematic/post/nachträgliche Bearbeitung zu haben - cinematic in Foren und bei YouTube geht dir wahrscheinlich so auf die Nerven, dass Du dich dementsprechend lieber als das Gegenteil siehst? ;) Das wäre auch in Ordnung Not-Cinematic-Funluss. Obwohl das, was ich in den Beiträge zuvor meinte, nicht wirklich nur auf cinematic usw. bezogen war, sondern, um verschiedene Looks-Möglichkeiten, die einem mit 10Bit/12Bit Kameras serviert wird u.a. Korrekturen usw. was keine Kamera intern ersetzen kann... Die Kameras sind für Post spezialisiert, von Looks, Korrekturen... bis VFX.
Wie gesagt, jedem das seine, verstehen kann ich dich und andere (Leute die sich eine 10>Bit Kamera holen, aber die Gestaltungsmöglichkeiten nachträglich gar nicht (aus)nutzen) aber nicht... muss ich auch nicht.
An deiner stelle würde ich nicht wechseln. Die Fuji Kamera ist dank interne Farbprofile ETERNA usw. die bessere Kamera für dich. Die einzige mit etwas spezielle Kamerainterne Farbprofile (zB. T&O), wäre mM. noch die Sigma FP(L). Dennoch verzichtet man damit auch auf etwas mehr Dynamicrange....
Antwort von Axel:
Ich hab eben zig FX30-Reviews geguckt, "so you don't have to", von den üblichen Youtube douchebags (von Nguyen, übrigens veraltet für V@gin@ldusche, neudeutsch ein merkbefreiter Kotzbrocken). Ich fange darum an mit Vu Nguyen, der vor allem über den Cropfaktor spricht, und dass es zwar für APSC kein Pendant zum 14 mm @ f1.8 gibt, aber ansonsten fast alles "übersetzbar" ist. Leider spricht er nur über den Weitwinkelbereich, den man, wie erwähnt, "kompensieren" kann, nicht aber über die Vorteile bei Tele. Sein Fazit: lieber zwei FX30 für's selbe Geld wie eine FX3.
Jason Morris vergleicht Farben, Schärfe, Lowlight und Rolling Shutter mit A7IV und FX6. Mal ganz abgesehen von ISO 12800 absolut kein klarer Gewinner dabei. Klarer Verlierer bei RS ist A7IV, aber bei Morris sieht's (im Gegensatz zur cvp-Review) aus, als könnten die meisten hier mit dem der FX30 leben.
Die süße Sara Dietschy geht raus und filmt ihren Mann beim Skaten. Direkter Vergleich mit der preislich ähnlichen Pocket 6k. Sara kommt auf dasselbe Problem wie ich: der Mikro-Henkel ist echt selten ein Bringer, zumindest nicht unter dem Gesichtspunkt der Balance und Ergonomie. Wenn ein on-camera-mic (sage ich jetzt), dann doch eher das ECM-B1M.
Und ich? Hätte ich vor zwei Jahren die A7SIII gekauft, wenn es daneben die FX30 gegeben hätte? Nein, ich hätte die FX30 genommen, die erzielt zu viele Treffer. Ärgere ich mich? Nein, ich kaufe die FX30 einfach dazu. Aber nur, wenn ich sie im Laden kriege. Ich hätte mich geärgert, wenn ich vor einem Jahr die FX3 gekauft hätte, für 4700 €.
Antwort von klusterdegenerierung:
Für S-Cinetone Fans. :-)
Antwort von roki100:
Der macht coole Videos mit der A7SIII.
Das gefällt mir auch:
https://youtu.be/cT1_qR_ZwLc?list=RDCMU ... j0wHw&t=27
https://www.youtube.com/watch?v=ew2qRS1 ... Hw&index=4
Antwort von Axel:
@kluster
@roki
Also erstmal vielen Dank, sehr interessanter Aspekt.
Dazu:
1. It‘s the lighting, stupid! Die Beleuchtung, die Szenerie, die menschlichen Motive. Vor einem Menschenalter prägte slashCAMs Schleichmichel das Dogma, dass man sich auch darum kümmern muss, was vor der Kamera passiert.
2. S-Cinetone ist noch nicht sehr verbreitet. Dennoch erahnt man etwas Spezifisches an dem Look. Alles sieht ein bisschen golden gebounced aus oder so. Nett, aber möchte ich sowas immer haben? Seit der Dehancer-Diskussion bin ich verliebt in 60% Kodak2383@D60. Möchte ich das dann für alle Gelegenheiten eingebacken haben? Auf alle Zeiten Eterna („das lang brennende Grablicht“ - kennt das noch jemand?)?
3. Merkwürdigerweise dachte ich „Video“. Hab gar nicht geguckt, ob das vielleicht 30p war, vielleicht lag‘s auch an den Weitwinkeln oder am Brechen der vierten Wand. Obwohl letzteres wiederum sehr attraktiv ist: Ruf! Mich! An!
4. Es ist wie er sagt: in den Highlights ist in S-Cinetone die Welt zuende. Ist jedenfalls kritischer zu belichten.
Antwort von klusterdegenerierung:
Alister Chapmann sagt ja in seinen Master Class Videos, das S-Cinetone extrem Belichtungsempfindlich ist, da es hierüber den Kontrast regelt und das ist genau das Phänomen, welches man A hier gut in dem Video sieht und B warum ich es nicht nutzen möchte, denn Konsistenz ist dann was anderes.
Er zeigt ja hier einige Szenen mit eher available Light, wo er wahrscheinlich tendenziel etwas passendener oder ga etwas wenig (belichtet) hat und da sehen die shots auch eher weich und pfad aus, da wo er Dampf gemacht hat und mit viel Licht gespielt, wird es ziemlich knackig!
Als ich Alister das hab sagen hören und er zeigte auch Beispiele dafür, war mir klar das S-Cinetone ideal für Privat oder Youtube geeignet ist, aber nicht für Kundenprojekte wie ich sie habe.
Ich bin ja eh der Verfechter der "hole alles aus der Cam was geht, dann kannst Du auch den Rest immer in der post easy genauso machen und besser steuern" Technik! :-)
Deswegen nehme ich zusätzlich auch in S-Gamut3 und nicht in S-Gamut3Cine auf.
Antwort von rush:
Aber das ist ja eben nichts wirklich Neues.
Bleibt das Material vom Dreh bis zur Delivery in "einer" Hand bzw. Händen die sich entsprechend auskennen, ist der Slog-Weg durchaus zu bevorzugen. Betrifft also Dich und sicherlich viele andere Content Creater, Youtuber und Co.
Ganz anders sieht es aber in vielen anderen Bereichen aus, in denen Du nach dem Dreh das Material in (teils) unbekannte Hände gibst. Und genau an diesem Punkt entscheidet sich dann häufig ob ein gebackenes S Cinetone möglicherweise bereits sinnvoller als Log Material sein kann.
S Cinetone wird halt eher klassisch belichtet, so wie viele es gewohnt sind ohne ~ +1.7EV - sondern eher Mal mit leichter Minuskorrektur die dann im Schnitt minimal geliftet wird. Bei moderaten Empfindlichkeiten um die Base Iso(s) herum ist auch das kein wirkliches Problem im geringen Maße.
Ich finde die Belichtung damit jedenfalls nicht komplizierter als via SLog mit der "erhöhten" + Korrektur. Via Zebra und Co lässt sich das jeweils beides gut in den Griff bekommen.
Man darf eben nicht vergessen das Log noch immer nicht überall angekommen ist und Resolve ebenso wenig. Am klassischen Avid, Premiere oder auch FCP sind eben doch 2-3 Schritte nötig um das Material Eingangs korrekt zu verarbeiten. Handelt es sich dann zusätzlich noch um eher zeitkritisches Gedöns, ist ein gebackenes Material häufig sogar gewünscht.
Es kommt also ganz klar immer auf die gesamte Verarbeitungskette an - daher ist es extrem schwer das zu verallgemeinern.
Wenn ich selbst mal Material abliefere, wird da gar fertig gebackenes HD erwartet. Das ist die Realität.
Privat bin ich dagegen viel eher in UHD Slog3 unterwegs und kann von Resolve's RCM partizipieren.
PS. Wem SLog teils zuviel Kontrast hat: man kann das PP ja auch auf einen anderen Slot kopieren und dort nochmals nach persönlichen Vorlieben "tweaken" und etwas Black reduzieren etc pp..
Antwort von Jott:
„ Am klassischen Avid, Premiere oder auch FCP sind eben doch 2-3 Schritte nötig“
fcp erkennt S-Log und legt automatisch den korrekten Kamera-LUT dazu an. Also gar keine Schritte. Wird es - abhängig von Kamera-Metadaten - mal nicht erkannt, dann halt in ein paar Sekunden manuell für das ganze gedrehte Material angeben. Dass die paar Sekunden Mühe im Fall der Fälle ein großer Aufreger sein können, verstehe ich natürlich.
Antwort von rush:
Dann ist das für FCP eben fein - wird aber dort wo ich Material abliefere nicht genutzt. Avid und Premiere sind dort noch Standard.
Sollte keine FCP Schelte sein, nur sprach Funless im Parallelthread das er bei FCP nicht ganz so schnell/gut zum Ergebnis mit Log käme. War aber jetzt auch nicht mein primärer Standpunkt. Wenn's gut und uneingeschränkt ohne Verluste und korrekte Transformation funzt - prima! Dann streiche oben im Thread gedanklich FCP wenn Du dich gestört fühlst.
Antwort von Mantas:
Da ich noch nie so richtig Resolve benutzt habe, hätte ich ne Frage.
Kann mir jemand ein slog3 Bild, was vielleicht bissel Kontrastreicher ist in einer RCM Timeline zeigen und als Vergleich klassisch mit dem rec709 sony lut? würd mich interessieren was Resolve daraus macht.
Antwort von klusterdegenerierung:
rush hat geschrieben:
Aber das ist ja eben nichts wirklich Neues.
Bleibt das Material vom Dreh bis zur Delivery in "einer" Hand bzw. Händen die sich entsprechend auskennen, ist der Slog-Weg durchaus zu bevorzugen. Betrifft also Dich und sicherlich viele andere Content Creater, Youtuber und Co.
Öh? Bin kein Youtuber.
rush hat geschrieben:
Ganz anders sieht es aber in vielen anderen Bereichen aus, in denen Du nach dem Dreh das Material in (teils) unbekannte Hände gibst. Und genau an diesem Punkt entscheidet sich dann häufig ob ein gebackenes S Cinetone möglicherweise bereits sinnvoller als Log Material sein kann.
Das macht null Sinn, denn genau das Gegeteil ist der Fall und macht Sinn, denn S-Cinetone ist gebacken, das nützt niemandem der es in die Hände bekommt, ein second cutter oder second colorgrader bevorzugt Log, das ist die Wahl, damit ist jeder flexibel.
rush hat geschrieben:
S Cinetone wird halt eher klassisch belichtet, so wie viele es gewohnt sind ohne ~ +1.7EV - sondern eher Mal mit leichter Minuskorrektur die dann im Schnitt minimal geliftet wird. Bei moderaten Empfindlichkeiten um die Base Iso(s) herum ist auch das kein wirkliches Problem im geringen Maße.
Ich finde die Belichtung damit jedenfalls nicht komplizierter als via SLog mit der "erhöhten" + Korrektur. Via Zebra und Co lässt sich das jeweils beides gut in den Griff bekommen.Ich sehe, Du hast das Prinzip von S-Cinetone und auch meine Hinweise nicht verstanden, denn da ist nicht viell mit Spielraum, da wird mittig Belichtet, denn alles was drunter oder drüber ist, beeinflusst massiv das Kontrastverhalten in dem "eingebackenem" footage.
rush hat geschrieben:
Man darf eben nicht vergessen das Log noch immer nicht überall angekommen ist und Resolve ebenso wenig. Am klassischen Avid, Premiere oder auch FCP sind eben doch 2-3 Schritte nötig um das Material Eingangs korrekt zu verarbeiten. Handelt es sich dann zusätzlich noch um eher zeitkritisches Gedöns, ist ein gebackenes Material häufig sogar gewünscht.
PS. Wem SLog teils zuviel Kontrast hat: man kann das PP ja auch auf einen anderen Slot kopieren und dort nochmals nach persönlichen Vorlieben "tweaken" und etwas Black reduzieren etc pp..
Öh Slog zu viel Kontrast? Jetzt haut es mich total raus!
Kann es sein das Du garnicht weißt wovon Du sprichst? Seit wann ist Slog kontrastreich, das flacher und kontrastloser als alles andere.
Wenn es kontrastreich ist, dann ist es ein Beleg dafür, das jemand keine Ahnung von der Nutzung von transform luts hat, bzw den transform Prozess oder Colormanagement nicht im Griff hat.
Total crazy Dein Post, erliest sich so als würdest Du S-Cinetone wie Log belichten und Slog wie S-Cinetone verstehen, sehr schräg!
Antwort von klusterdegenerierung:
Mantas hat geschrieben:
Da ich noch nie so richtig Resolve benutzt habe, hätte ich ne Frage.
Kann mir jemand ein slog3 Bild, was vielleicht bissel Kontrastreicher ist in einer RCM Timeline zeigen und als Vergleich klassisch mit dem rec709 sony lut? würd mich interessieren was Resolve daraus macht.
Gerne, her damit, geht ganz schnell. :-)
Im übrigen darf man nicht vergessen, RCM korrigiert nur das Log Prinzip, aber nicht die eigene Belichtung!
Wenn diese also off ist, muß man da natürlich noch mal dran.
Wichtig ist auch, das man genau weiß, welches Gamma verwendet wurde, wenn Resolve es nicht per default erkennt.
Antwort von cantsin:
Gibt's irgendwo im Netz gutes SLog3-Demomaterial zum Herunterladen, in 10bit 4:2:2 und direkt aus der Kamera, also nicht transkodiert? (Könnte ja auch von einer anderen Sony-Kamera wie der A7sIII, A7iv oder FX3/60 stammen.)
Würde das Experiment - Sony- LUT gegen RCM/CST - auch mal gerne machen.
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
Gibt's irgendwo im Netz gutes SLog3-Demomaterial zum Herunterladen, in 10bit 4:2:2 und direkt aus der Kamera, also nicht transkodiert? (Könnte ja auch von einer anderen Sony-Kamera wie der A7sIII, A7iv oder FX3/60 stammen.)
Würde das Experiment - Sony- LUT gegen RCM/CST - auch mal gerne machen.
Poste gleich einen Link meines Materials. :-)
Antwort von Mantas:
klusterdegenerierung hat geschrieben:
Mantas hat geschrieben:
Da ich noch nie so richtig Resolve benutzt habe, hätte ich ne Frage.
Kann mir jemand ein slog3 Bild, was vielleicht bissel Kontrastreicher ist in einer RCM Timeline zeigen und als Vergleich klassisch mit dem rec709 sony lut? würd mich interessieren was Resolve daraus macht.
Gerne, her damit, geht ganz schnell. :-)
Im übrigen darf man nicht vergessen, RCM korrigiert nur das Log Prinzip, aber nicht die eigene Belichtung!
Wenn diese also off ist, muß man da natürlich noch mal dran.
Wichtig ist auch, das man genau weiß, welches Gamma verwendet wurde, wenn Resolve es nicht per default erkennt.
reicht dir ein jpg wenn ich sage, es ist slog3, sgmaut3.cine?
hier 3 beispiele, ohne lut, was premiere draus macht und mit lut.
Antwort von klusterdegenerierung:
Ich kann jetzt nur für RCM sprechen, weil ich mich um transform oder luts nicht mehr kümmere.
Da dieses jpg keine Metadaten enthällt und Resolve es nicht automatisch als SGamutCine interpretieren kann, muß man es in den Attribute unter Lutinput zuweisen. Sieht zumindet für mich aus als würde es wie Arsch auf Eimer bessen und besser als Premiere meint.
Antwort von Mantas:
klusterdegenerierung hat geschrieben:
Ich kann jetzt nur für RCM sprechen, weil ich mich um transform oder luts nicht mehr kümmere.
Da dieses jpg keine Metadaten enthällt und Resolve es nicht automatisch als SGamutCine interpretieren kann, muß man es in den Attribute unter Lutinput zuweisen. Sieht zumindet für mich aus als würde es wie Arsch auf Eimer bessen und besser als Premiere meint.
top, sieht gut aus, danke.
ich frag mich was Premiere da draus macht, uff
Antwort von klusterdegenerierung:
@cantsin
Wichtig bei dem Material sind diese RCM Grundeinstellungen und das Du den Clip nicht vom xlm File trennst, dann müßte auch Dein Resolve automatisch erkennen das es sich um SGamut3 handelt und beim ziehen auf die timeline sich entsprechend darstellt.
Wer bei überbelichteten Szenen Angst hat, weil die Scopes über die Stränge schlagen, kein Ding, kann man per Lift komplett zurück holen, es sei denn man hat die Belichtung verkackt. :-)
https://we.tl/t-ebqVcWYtRg
Antwort von roki100:
klusterdegenerierung hat geschrieben:
Als ich Alister das hab sagen hören und er zeigte auch Beispiele dafür, war mir klar das S-Cinetone ideal für Privat oder Youtube geeignet ist, aber nicht für Kundenprojekte wie ich sie habe.
Das da oben ist alles andere als nur ideal für Privat oder Youtube (?), es ist eher ein anderes Level - professionell, produktiv, alles in einem: TOP. Was nicht bedeutet, dass das nur mit S-Cinetone möglich ist.
Das zweite Video ist phänomenal, Grading usw. in Kombination mit Sirui 100mm Anamorphic Linse...manche Szenen wie aus dem Hollywood, gemischt mit der Zungengiftigen Hexe (Jibaro) aus Love, Death + Robots. ;)
Antwort von klusterdegenerierung:
roki100 hat geschrieben:
klusterdegenerierung hat geschrieben:
Als ich Alister das hab sagen hören und er zeigte auch Beispiele dafür, war mir klar das S-Cinetone ideal für Privat oder Youtube geeignet ist, aber nicht für Kundenprojekte wie ich sie habe.
Das da oben ist alles andere als nur ideal für Privat oder Youtube (?), es ist eher ein anderes Level - professionell, produktiv, alles in einem: TOP. Was nicht bedeutet, dass das nur mit S-Cinetone möglich ist.
Das zweite Video ist phänomenal, Grading usw. in Kombination mit Sirui 100mm Anamorphic Linse...manche Szenen wie aus dem Hollywood, gemischt mit der Zungengiftigen Hexe (Jibaro) aus Love, Death + Robots. ;)
Das was er dort liefert hat aber alles nix mit dem grundsätzlichem zwischen S-Cine und Slog zu tun!
Gute Hautfarben, knackige und richtig belichtete Bilder kann man grundsätzlich auch mit Rec709 erreichen.
Hier ging es einzig um den Weg und die richte Wahl für die eigenen Bedürfnisse und die muß eh jeder für sich entscheiden.
Wichtig ist eben nur zu wissen, das der Kontrast durch die Belichtung verändert wird und dies im S-Cinetone eingebacken ist!
Antwort von iasi:
Mantas hat geschrieben:
klusterdegenerierung hat geschrieben:
Gerne, her damit, geht ganz schnell. :-)
Im übrigen darf man nicht vergessen, RCM korrigiert nur das Log Prinzip, aber nicht die eigene Belichtung!
Wenn diese also off ist, muß man da natürlich noch mal dran.
Wichtig ist auch, das man genau weiß, welches Gamma verwendet wurde, wenn Resolve es nicht per default erkennt.
reicht dir ein jpg wenn ich sage, es ist slog3, sgmaut3.cine?
hier 3 beispiele, ohne lut, was premiere draus macht und mit lut.
Und was kommt dann am Ende des Grading heraus?
Da steckt doch noch mehr Gestaltungspotential im Ausgangsmaterial - oder nicht?
Antwort von klusterdegenerierung:
Sicher, aber jedem Grading geht eine professionelle visuallisierung des eigenen Materials vorraus.
Ohne dem ist grading doch eine Fahrt durch den Tunnel und wenn dazu noch eine falsche Darstellung des eigenen Materials durch falschen Umgang kommt, ist grading für die Tonne.
Antwort von Axel:
iasi hat geschrieben:
Da steckt doch noch mehr Gestaltungspotential im Ausgangsmaterial - oder nicht?
klusterdegenerierung hat geschrieben:
Sicher, aber jedem Grading geht eine professionelle visuallisierung des eigenen Materials vorraus.
Ohne dem ist grading doch eine Fahrt durch den Tunnel und wenn dazu noch eine falsche Darstellung des eigenen Materials durch falschen Umgang kommt, ist grading für die Tonne.
Der philosophisch abschweifende Resolve-Handbuch-Autor der frühen Jahre, Alexis van Hurkman, schrieb, dass es keine nicht-destruktive Bearbeitung gäbe, und schon gar kein nicht-destruktives Color-Grading. Der Effekt, das ganze Ziel der Arbeit, ist die Zerstörung des Originals. Gibt es eine unbezweifelbar bessere oder beste Methode der Normalisierung, bevor man es zerstört? Und wenn, wieso?
Antwort von iasi:
klusterdegenerierung hat geschrieben:
Sicher, aber jedem Grading geht eine professionelle visuallisierung des eigenen Materials vorraus.
Ohne dem ist grading doch eine Fahrt durch den Tunnel und wenn dazu noch eine falsche Darstellung des eigenen Materials durch falschen Umgang kommt, ist grading für die Tonne.
Grading ist Teil der Bildgestaltung - genauso, wie die Entwicklung des Negatives und die Erstellung des Positivs.
Das fertige Bild kommt nicht aus der Kamera. Tat es nie.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Sicher, aber jedem Grading geht eine professionelle visuallisierung des eigenen Materials vorraus.
Ohne dem ist grading doch eine Fahrt durch den Tunnel und wenn dazu noch eine falsche Darstellung des eigenen Materials durch falschen Umgang kommt, ist grading für die Tonne.
Grading ist Teil der Bildgestaltung - genauso, wie die Entwicklung des Negatives und die Erstellung des Positivs.
Das fertige Bild kommt nicht aus der Kamera. Tat es nie.
Ja, vollkommen richtig!
Habe aber nichts geschrieben was dem widersprechen würde.
Es ist am Ende Deine Entscheidung ob Du als Tischler ein Brett im rechten Winkel bekommst in dem Du eine saubere Gerade an einer Anlage sägst an der Du den Winkel misst, oder mit der Handsäge solange rum sägst bist Du sowas wie einen rechten Winkel bekommst.
Aber wenn dieser nur so aussieht, reicht es ja für viele schon. :-)
Antwort von klusterdegenerierung:
Axel hat geschrieben:
iasi hat geschrieben:
Da steckt doch noch mehr Gestaltungspotential im Ausgangsmaterial - oder nicht?
klusterdegenerierung hat geschrieben:
Sicher, aber jedem Grading geht eine professionelle visuallisierung des eigenen Materials vorraus.
Ohne dem ist grading doch eine Fahrt durch den Tunnel und wenn dazu noch eine falsche Darstellung des eigenen Materials durch falschen Umgang kommt, ist grading für die Tonne.
Der philosophisch abschweifende Resolve-Handbuch-Autor der frühen Jahre, Alexis van Hurkman, schrieb, dass es keine nicht-destruktive Bearbeitung gäbe, und schon gar kein nicht-destruktives Color-Grading. Der Effekt, das ganze Ziel der Arbeit, ist die Zerstörung des Originals. Gibt es eine unbezweifelbar bessere oder beste Methode der Normalisierung, bevor man es zerstört? Und wenn, wieso?
Schade ich hätte jetzt was zum anstoßen gebraucht. :-)) Prost
Antwort von iasi:
klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
Grading ist Teil der Bildgestaltung - genauso, wie die Entwicklung des Negatives und die Erstellung des Positivs.
Das fertige Bild kommt nicht aus der Kamera. Tat es nie.
Ja, vollkommen richtig!
Habe aber nichts geschrieben was dem widersprechen würde.
Es ist am Ende Deine Entscheidung ob Du als Tischler ein Brett im rechten Winkel bekommst in dem Du eine saubere Gerade an einer Anlage sägst an der Du den Winkel misst, oder mit der Handsäge solange rum sägst bist Du sowas wie einen rechten Winkel bekommst.
Aber wenn dieser nur so aussieht, reicht es ja für viele schon. :-)
Grading ist nicht "fix it in post".
Klar kann man versuchen in der Kamera das Bild zu gestalten. Nur sind dabei die Möglichkeiten sehr viel begrenzter als am Rechner.
Und der Aufwand während des Drehs ist höher.
Ein "ETTR-Brett" ermöglicht dem Tischler sogar einen noch perfektern rechten Winkel in der Werkstatt mit den dort besseren Werkzeugen zu sägen, als es ihm irgendwo im Freien möglich wäre.
Antwort von Axel:
Von gestern von Jesse Driftwood:
Dabei fiel mir ein, müsste es nicht spielend möglich sein, in Resolve eine SLog3 > S-Cinetone-LUT zu bauen? Mit den Farben von S-Cinetone, aber der Dynamik von SLog? Oder einfach den Color Mode im PP8 zu S-Cinetone zu ändern? Werd ich mal mit rumspielen.
Dabei fällt mir gerade wieder ein, dass ein Reviewer behauptet hatte, man könne bei der FX30 in CINE EI kein Detail runtersetzen, weswegen er einen ProMist-Filter empfahl oder Gauss'schen Weichzeichner in Post. Kann mir nicht vorstellen, dass man das zugrunde liegende Profil nicht editieren kann. Weiß da jemand mehr?
Antwort von rush:
iasi hat geschrieben:
Klar kann man versuchen in der Kamera das Bild zu gestalten. Nur sind dabei die Möglichkeiten sehr viel begrenzter als am Rechner.
Und der Aufwand während des Drehs ist höher.
Ein "ETTR-Brett" ermöglicht dem Tischler sogar einen noch perfektern rechten Winkel in der Werkstatt mit den dort besseren Werkzeugen zu sägen, als es ihm irgendwo im Freien möglich wäre.
Du hast nach all den Jahren offenbar noch immer nicht verstanden das Ausstattung, Licht, Props und Schauspieler überhaupt erst einen Film ausmachen und viel weniger die technische Aufzeichnung auf ein Speichermedium oder entsprechendes Filmmaterial.
Wenn du all die oben genannten Dinge nicht oder nur begrenzt zur Verfügung hast - sieht auch ein ordentlich belichtetes ETTR Bild erstmal nur ziemlich langweilig aus, da kannst Du Dir noch so sehr einen Wolf graden.
Ein gutes Team welches Dir ein perfektes Set baut und leuchtet ist mehr als die halbe Miete, da kannst du jederzeit ohne RAW draufhalten und hast im Idealfall wenig Zeit in der Post zu löten.
Aber das entspricht natürlich nicht Deinem theoretischen Verständnis.
Antwort von Axel:
Yes! Crafford!
Tele!
Und er sagt, der zusätzliche Crop bei 120p ist es wert.
Antwort von klusterdegenerierung:
iasi hat geschrieben:
klusterdegenerierung hat geschrieben:
Ja, vollkommen richtig!
Habe aber nichts geschrieben was dem widersprechen würde.
Es ist am Ende Deine Entscheidung ob Du als Tischler ein Brett im rechten Winkel bekommst in dem Du eine saubere Gerade an einer Anlage sägst an der Du den Winkel misst, oder mit der Handsäge solange rum sägst bist Du sowas wie einen rechten Winkel bekommst.
Aber wenn dieser nur so aussieht, reicht es ja für viele schon. :-)
Grading ist nicht "fix it in post".
Klar kann man versuchen in der Kamera das Bild zu gestalten. Nur sind dabei die Möglichkeiten sehr viel begrenzter als am Rechner.
Und der Aufwand während des Drehs ist höher.
Ein "ETTR-Brett" ermöglicht dem Tischler sogar einen noch perfektern rechten Winkel in der Werkstatt mit den dort besseren Werkzeugen zu sägen, als es ihm irgendwo im Freien möglich wäre.
Ist das eine Masche das Du einem das Wort verdrehst oder Hobby plötzlich von was anderem zu schreiben was den vorposter unverschuldet wie einen Deppen da stehen lässt?
Nichts von dem was Du schreibst bezieht sich auf meinen Post und steht in keinem Widerspruch.
So kriegst Du mich nicht iasi. Deine Tatsachenverdrehung ist langweilig und zeitraubend und mir echt zu blöd.
Willkommen auf der blacklist .
Antwort von roki100:
Ich finde das was iasi schreibt ist doch nicht falsch oder.... Set, Lichter, Schauspieler etc. ist doch teil des ganzes... er bezieht sich aber auf Gestaltungsmöglichkeit in der Post usw.
Er schreibt:
Klar kann man versuchen in der Kamera das Bild zu gestalten. Nur sind dabei die Möglichkeiten sehr viel begrenzter als am Rechner.
Und der Aufwand während des Drehs ist höher.
Das finde ich schon richtig so.
Antwort von iasi:
rush hat geschrieben:
iasi hat geschrieben:
Klar kann man versuchen in der Kamera das Bild zu gestalten. Nur sind dabei die Möglichkeiten sehr viel begrenzter als am Rechner.
Und der Aufwand während des Drehs ist höher.
Ein "ETTR-Brett" ermöglicht dem Tischler sogar einen noch perfektern rechten Winkel in der Werkstatt mit den dort besseren Werkzeugen zu sägen, als es ihm irgendwo im Freien möglich wäre.
Du hast nach all den Jahren offenbar noch immer nicht verstanden das Ausstattung, Licht, Props und Schauspieler überhaupt erst einen Film ausmachen und viel weniger die technische Aufzeichnung auf ein Speichermedium oder entsprechendes Filmmaterial.
Und du hast wohl immer noch nicht verstanden, dass das, was sich vor der Kamera abspielt, nicht eingepackt und auf einer Leinwand wieder ausgepackt werden kann.
Wer denkt, dass die technische Aufzeichnung keine Rolle spielt, denkt nur an eine Theateraufführung, aber nicht an die Ausdrucksmittel von Film.
Film ist nun einmal mehr als der Blick aus dem Zuschaueraum auf eine Theaterbühne.
Antwort von iasi:
klusterdegenerierung hat geschrieben:
iasi hat geschrieben:
Grading ist nicht "fix it in post".
Klar kann man versuchen in der Kamera das Bild zu gestalten. Nur sind dabei die Möglichkeiten sehr viel begrenzter als am Rechner.
Und der Aufwand während des Drehs ist höher.
Ein "ETTR-Brett" ermöglicht dem Tischler sogar einen noch perfektern rechten Winkel in der Werkstatt mit den dort besseren Werkzeugen zu sägen, als es ihm irgendwo im Freien möglich wäre.
Ist das eine Masche das Du einem das Wort verdrehst oder Hobby plötzlich von was anderem zu schreiben was den vorposter unverschuldet wie einen Deppen da stehen lässt?
Nichts von dem was Du schreibst bezieht sich auf meinen Post und steht in keinem Widerspruch.
So kriegst Du mich nicht iasi. Deine Tatsachenverdrehung ist langweilig und zeitraubend und mir echt zu blöd.
Willkommen auf der blacklist .
Ach - du kommst mit deinen Tischler-Vergleichen und magst nicht, wenn man dir in der gleichen Weise antwortet.
Und nun gehst du also schmollen. Süß.
Antwort von rush:
@roki: Das was du am Set nicht hast - kannst du auch nur extrem aufwendig in der Post später erschaffen. Der vermeintliche Zeitvorteil ist dann in der Regel überhaupt keiner mehr.
Irgendwie klaffen hier Theorie und Praxis immer mehr auseinander - ziemlich strange.
Log ist kein Allheilmittel, es erweitert Dir minimal den Gestaltungsspielraum in bestimmten Bereichen - nicht mehr, nicht weniger. RAW bietet dann ggfs. nochmal eine Spur mehr, je nach Art der Implementierung.
Der Tenor, alles an den digitalen Reglern im Nachgang generieren zu können ist für meine Begriffe noch etwas zu realitätsfremd und ein Wunschdenken bei der Anschaffung einer neuen Kamera getreu dem Motto: "Damit gelingt aber jetzt gewiss der erste Blockbuster..." .
Aber gut: wegen mir soll sich iasi gern die nächste Kamera anschaffen die dann rumliegt und nicht bespielt wird.
Was das jetzt alles konkret mit der FX30 zu tun haben soll erklärt sich mir zudem auch nicht wirklich, denn die Diskussion SLog vs S Cinetone ist wirklich nicht neu.
Mir wird's an der Stelle daher auch etwas zu bunt und abstrakt - wir reden hier immerhin von Sonys kleinster "Cine" Kiste und keiner Venice 2.
Antwort von roki100:
rush hat geschrieben:
@roki: Das was du am Set nicht hast - kannst du auch nur extrem aufwendig in der Post später erschaffen.
Ich weiß, dass ich zB. Menschen auf der Straße nicht in zB. Teal&Orange in der Kamera erschaffen kann, es sei denn, es gibt passendes Farbprofil, doch richtig gut, geht das erst in der post. Schließlich ist 10Bit oder 12Bit RAW für die nachträgliche Gestaltungsmöglichkeiten erschaffen...
Mir wird's an der Stelle daher auch etwas zu bunt und abstrakt - wir reden hier immerhin von Sonys kleinster "Cine" Kiste und keiner Venice 2.
Sigma FP ist noch kleiner... und dennoch:
https://youtu.be/D-nXKap0A78?t=897
Antwort von pillepalle:
Mit Bogart SE kann man so ziemlich alles was man beim Dreh vermasselt hat in der Post wieder rausreißen... 🙃
https://youtu.be/9WfA35ZDBRk&t=0m36s
VG
Antwort von iasi:
rush hat geschrieben:
@roki: Das was du am Set nicht hast - kannst du auch nur extrem aufwendig in der Post später erschaffen. Der vermeintliche Zeitvorteil ist dann in der Regel überhaupt keiner mehr.
Irgendwie klaffen hier Theorie und Praxis immer mehr auseinander - ziemlich strange.
Stimmt so nicht.
In der Praxis zeigte sich genau dies beim Camerashootout 2012.
Ein robuster Codec erlaubt nun einmal ein Gesicht um 2 Blendenstufen reichlicher zu belichten und dieses in der Post dann zurückzunehmen.
Wozu braucht es denn 11 und mehr Blendenstufen DR, wenn ich dann trotzdem bei der Aufnahme auf die Mitten belichten muss?
Damit verliere ich dann z.B. Zeichnung in den Schatten.
Und hier mal ein Beispiel:
https://youtu.be/Yio3dQ13NBw?t=1729
Antwort von cantsin:
klusterdegenerierung hat geschrieben:
Wer bei überbelichteten Szenen Angst hat, weil die Scopes über die Stränge schlagen, kein Ding, kann man per Lift komplett zurück holen, es sei denn man hat die Belichtung verkackt. :-)
https://we.tl/t-ebqVcWYtRg
In der Tat reichlich belichtet... Hier mal die Transformationen ohne weitere Korrekturen:
SONY LUT OOC_1.2.4.jpg
Sony LUT
RCM OOC_1.2.1.jpg
Resolve Color Managed
CST OOC_1.2.3.jpg
Resolve Color Space Transform (mit Tone Mapping + Forward OOTF)
Antwort von Mantas:
iasi hat geschrieben:
Da steckt doch noch mehr Gestaltungspotential im Ausgangsmaterial - oder nicht?
ähm, ja?
Antwort von Axel:
rush hat geschrieben:
Was das jetzt alles konkret mit der FX30 zu tun haben soll erklärt sich mir zudem auch nicht wirklich, denn die Diskussion SLog vs S Cinetone ist wirklich nicht neu.
Da gebe ich dir Recht. Es ist zwar nicht völlig absurd, bei einer Kamera der Cinemaline an Resolve zu denken, aber Haarspaltereien zwischen LUT, CST und RCM (ich werfe noch ACES in den Ring) sind OT.
rush hat geschrieben:
Mir wird's an der Stelle daher auch etwas zu bunt und abstrakt - wir reden hier immerhin von Sonys kleinster "Cine" Kiste und keiner Venice 2.
Schon. Aber verkaufspsychologisch ist es ja eine Venice für Arme. Einstiegsmodell, sagt Sony selbst im Produktankündigungs-Video. Was dem einen seine C(rash)—Cam ist dem anderen seine A-Cam.
Antwort von pillepalle:
dienstag_01 hat geschrieben:
Für Leute, die Cine EI interessiert, wäre es ja interessant zu wissen, wie sich das Material bei weiteren Korrekturen (wenn man z.B. doch nochmal an die Highlights ran will) verhält, eher mit den Nachteilen von LUTs oder den Vorteilen von CST.
(Ich habs nicht, kann es also nicht selber ausprobieren)
VG
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
In der Tat reichlich belichtet... Hier mal die Transformationen ohne weitere Korrekturen:
Schlau werde ich aus diesen Post nicht, denn meine Belichtung ist ja bei der Wahl der Transformationsart unerheblich bzw unbedeutend.
Auch verstehe ich die Kommentarlosigkeit nicht, denn ging es Dir nicht auch um die verifizierung der bestmöglich interpretation bei geringstem Aufwand?
Selbst wenn ich nicht viel zu tun hätte, wäre doch das einfache ablegn auf der Timeline das simpelste, da brauche ich mich doch nicht auch noch mit einem transformtool beschäftigen, welches mir vor lauter unbekannter Settings wohlmöglich noch das Material unnötig negativ beeinflusst.
Das man aber die Belichtung die man selbst gewählt hat bei dem Korrekturprozess nachregulieren muß ist völlig normal, hat man ja früher im E6 oder Negativfilm Prozess genauso gemacht, das hat ja nix mit der Transformation zu zutun und kann so eine ja auch nicht leisten, woher soll eine Lut wissen das man evtl über oder unterbelichtet hat.
Antwort von iasi:
Mantas hat geschrieben:
iasi hat geschrieben:
Da steckt doch noch mehr Gestaltungspotential im Ausgangsmaterial - oder nicht?
ähm, ja?
Ja.
Antwort von klusterdegenerierung:
@pillepalle
Danke für das Video, denn dadurch habe ich nun endlich mal verstanden, wieso die meinen das Cine EI "einen professionellern Outut" produziert.
Die liegt einzig alleine an der simplen Tatsache, das einen Cine EI dazu zwingt die Base Iso über eine frei gewählte Iso zu nutzen!
Deswegen habe ich bei nichtnutzung von Cine EI in und shooten in Base Iso auch die Iso EInstellmöglichkeiten in CB.
Und ich dachte schon da würde something magic happens! :-) hahaha
Was für eine banale Krücke für Leute die nicht wissen das es sinnvoller ist in Base zu belichten und wenn man zuviel drüber ist mit der Belichtung, den ND zur Hilfe nehmen kann!
Aber jetzt mal Hand aufs Herz, wer bitte der mit Slog3 filmt shootet nicht in den 2 Base Isos?
Übrigens ist mir aufgefallen, das sich der Sprecher in dem Video sehr nach Peter Urban anhört. :-)
Antwort von pillepalle:
@ klusterdegenerierung
Ja, im Grunde macht man mit Cine EI nichts anders, als man es 'normalerweise' auch machen würde. Der Vorteil von Cine EI ist der, direkt ein korrektes Monitorbild zu sehen (also korrekt im Sinne von so wie man es beabsichtigt), und dass diese Änderung der Belichtung dann auch in die Metadaten geschreiben wird. D.h. die Leute in der Post sehen auch, wie das Bild eigentlich aussehen sollte. Ändert man also den EI entsprechend beim Dreh, sieht man besser was man macht und gibt quasi gleichzeitig über die Metadaten eine Info an die Post.
VG
Antwort von klusterdegenerierung:
Deswegen komme ich auch nicht damit klar, bzw ist mir das zu gefährlich, denn wenn ich meine Überbelichtung üblicherweise sehe und weiß alles korrekt, würde ich vielleicht bei dieser visualisierung noch mal 2 Blenden drauflegn um es überbelichtet zu sehen. :-) haha :-)
In Summary kann man auch sagen, Cine EI ist eine Umgehung für das notwendige Wissen, wie man Slog3 in Zusammenhang mit Base Iso belichtet, also ein Log/base Preset für User die nicht die Basics lernen wollen. :-)
Antwort von pillepalle:
Ich finde das Feature gar nicht so schlecht. Man muss es ja nicht nutzen, aber wie oft musste ich meinem Kunden der neben mir auf den Monitor lugt erklären, dass das Bild nacher anders aussehen wird :)
VG
Antwort von klusterdegenerierung:
pillepalle hat geschrieben:
Mit Bogart SE kann man so ziemlich alles was man beim Dreh vermasselt hat in der Post wieder rausreißen... 🙃
Einfach Mega! :-)) "Zehnen" Bwuahaha, der ist wirklich spitze.
Bogard ist wie die Erfindung eines Autos im 20. Jahrhundert welches man aber selbst schieben muß das es fährt. :-)
Holy, schwerer kann man sich das Leben doch nicht machen, oder?
Antwort von klusterdegenerierung:
pillepalle hat geschrieben:
Ich finde das Feature gar nicht so schlecht. Man muss es ja nicht nutzen, aber wie oft musste ich meinem Kunden der neben mir auf den Monitor lugt erklären, dass das Bild nacher anders aussehen wird :)
VG
Ja das stimmt natürlich, aber bei mir kommt es kaum vor das jeman auf meinen Drehmoni lugt. :-)
Antwort von Darth Schneider:
@Kluster
Und jeder der versucht drauf zu lugen, kriegt eins auf die Finger…;)
Gruss Boris
Antwort von cantsin:
klusterdegenerierung hat geschrieben:
cantsin hat geschrieben:
In der Tat reichlich belichtet... Hier mal die Transformationen ohne weitere Korrekturen:
Schlau werde ich aus diesen Post nicht, denn meine Belichtung ist ja bei der Wahl der Transformationsart unerheblich bzw unbedeutend.
Da würde ich Dir leicht widersprechen. Bei Color Space Transform mit Forward OOTF sieht man, dass die Transformation auch in die Bildästhetik eingreift (OOTF ist ein "psycho-visuelles" Modell), die Schatten weiter runterzieht und somit ein Bild produziert, dass näher am wahrscheinlichen visuellen Endresultat ist.
Auch verstehe ich die Kommentarlosigkeit nicht, denn ging es Dir nicht auch um die verifizierung der bestmöglich interpretation bei geringstem Aufwand?
Der Unterschied ist erst einmal, aus meiner Sicht, dass die Sony-LUT das Material grünstichiger interpretiert und Resolve RCM ohne den Grünstich bzw. leicht wärmer, sich aber ansonsten die Wiedergabe ähnelt (wobei ich allerdings die Interpretation von Resolve vorziehen würde).
In der Praxis ist der Unterschied ja vor allem, dass bei einem LUT-basierten Workflow das ganze Projekt (bzw. alles hinter der LUT) fest eingebacken in Rec709 sitzt, während man bei RCM die Freiheit hat, dasselbe Projekt mit denselben Farbkorrekturen in verschiedenen Farbräumen (inkl. P3, Rec2020 etc.) rauszurendern.
Das man aber die Belichtung die man selbst gewählt hat bei dem Korrekturprozess nachregulieren muß ist völlig normal, hat man ja früher im E6 oder Negativfilm Prozess genauso gemacht, das hat ja nix mit der Transformation zu zutun und kann so eine ja auch nicht leisten, woher soll eine Lut wissen das man evtl über oder unterbelichtet hat.
Ja, sicher. Nur hatte Dein Material halt relativ geringe Motivkontraste, so dass der Unterschied zwischen (a) der Rec709-Interpretation durch die Sony-LUT und (b) Color Management mit Tone Mapping bei den Gamma-plus-Farbraum-Transformationen nicht so deutlich sichtbar ausfiel. Wenn das Motiv z.B. ein Stadttor im gleißenden Hochsommer-Mittagslicht gewesen wäre, wären mit einer einfachen Rec709-LUT die Schatten in der Toreinfahrt abgesoffen und der Himmel möglicherweise ausgebrannt, während der RCM-Workflow diese Dynamik per Tone Mapping konserviert hätte, ohne dass man nachträglich an den Kurven drehen müsste.
Nur wollte ich Dich von Extrawünschen bezüglich des Materials verschonen...
Antwort von cantsin:
pillepalle hat geschrieben:
Hab mir das Video angesehen, und vielleicht lässt mit dem Alter mein Hirn nach (oder es ist einfach anstrengend, bei diesem Video auseinanderzuklamüsieren, was davon eine Anfänger-Erklärung von Log ist und was eine wirkliche Erklärung von CineEI) - aber stimmt die Schlussfolgerung, dass CineEI letztlich nichts anderes ist als eine feste Verriegelung des Bildprofils (bzw. von Gamma und Farbraum) auf SLog3 + SGamut3 sowie eine Reduktion der auswählbaren ISOs auf die beiden sensornativen ISOs? Also im Prinzip nur eine Sperre suboptimaler Kameraeinstellungen bei Log-Aufnahme?
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
Nur wollte ich Dich mit Extrawünschen bezüglich des Materials verschonen...
Nur zu nur zu, ich muß dann halt nur gucken ob ich was finde was nicht Datenschutz, Persönlichkeits oder Copyright relevant ist. :-)
Was brauchst Du denn?
Zum Thema RCM, glaube ich das wir Grundsätzlich anders ran gehen.
Für mich ist es absolut wichtig, mein Material genauso zu sehen, wie es gedreht wurde, damit ich genau weiß was ich im Anschluß korrigieren muß, denn bei mir geht es oft um die Relevanz der aufgenommenen Farben und deren guten Reproduzierbarkeit.
Wenn ich mir dann durch Luts oder Transformwerkzeuge das Material verändere, dann kann ich das eher weniger gebrauchen. ;-)
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
Hab mir das Video angesehen, und vielleicht lässt mit dem Alter mein Hirn nach (oder es ist einfach anstrengend, bei diesem Video auseinanderzuklamüsieren, was davon eine Anfänger-Erklärung von Log ist und was eine wirkliche Erklärung von CineEI) - aber stimmt die Schlussfolgerung, dass CineEI letztlich nichts anderes ist als eine feste Verriegelung des Bildprofils (bzw. von Gamma und Farbraum) auf SLog3 + SGamut3 sowie eine Reduktion der auswählbaren ISOs auf die beiden sensornativen ISOs? Also im Prinzip nur eine Sperre suboptimaler Kameraeinstellungen bei Log-Aufnahme?
Ja, sag ich doch, für User die die Verhältnisse zwischen Base ISo und Gainverstärkung in Zusammenhang mit Über- oder Unterbelichtung nicht wissen, ist dies das Verfahren der Wahl. ;-)
Antwort von roki100:
cantsin hat geschrieben:
Der Unterschied ist erst einmal, aus meiner Sicht, dass die Sony-LUT das Material grünstichiger interpretiert und Resolve RCM ohne den Grünstich bzw. leicht wärmer, sich aber ansonsten die Wiedergabe ähnelt (wobei ich allerdings die Interpretation von Resolve vorziehen würde).
das ist nicht nur mit Sony so, sondern auch mit Panasonic VLOG, nur eben kein Grünstich, sondern zB. die Skintones sind mehr rötlich. Und LUTs die das besser können (zB. GHAlex) kosten Geld.
Wobei solche Farbstiche eigentlich sich leicht korrigieren lassen.
Resolve CST ist schon sehr gut wenn es um Farbgenaugkeit geht. Soweit ich mich erinnere, war irgendwo zu lesen, dass sich der BMD Mitarbeiter CapitanHook um solche Sachen kümmert? Also jemand, der auch in Foren unterwegs ist und User Kriterien, Erfahrungen usw. sammelt...dementsprechend auch CST usw. anpasst/verbessert...?
Antwort von Darth Schneider:
@roki
Nur der Captain Hook weiss also wirklich wie es geht ?
Echt jetzt ?
Kann ich leider, genau darum, nicht wirklich ernst nehmen…
@Kluster
Bleib besser bei deinem Bauchgefühl als gelernter Fotograf wenn es um ISO geht…
Dual nativ ISO Technik hin oder her…
Das ist doch immer relativ, und ganz verschieden, je nach Licht Situation, egal mit welcher Dual ISO/Gain Kamera….Was das Rauschen betrifft.
Und arbeite einfach mit einem für dich besserem (genauer/ einfacher kontrollierbarem) Codec…
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
@roki
Captain Hook weiss also wie es geht ?
Echt jetzt ?
Ja. Und so wie es aussieht auch einer von BRAW Developer...zumindest aktiv wenn es um BRAW SDK geht.
Kann ich leider nicht wirklich ernst nehmen…
?
Antwort von Darth Schneider:
@Roki
Cool, schön für ihn, und jetzt ?
Und Kluster filmt nur mit Blackmagic Kameras und arbeitet den ganzen Tag lang mit BRaw Footage am Rechner…???
Und du kennst dich seit neustem auch noch aus mit Sony Kameras ?
Ich habe wenigstens noch eine…;)
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
@Roki
Cool, schön für ihn, und jetzt ?
Und Kluster filmt nur mit Blackmagic Kameras und arbeitet den ganzen Tag lang mit BRaw Footage am Rechner…???
Gruss Boris
Heute scheint wieder dein Tag zu sein, wie fast immer...;)
Es geht um Resolve CST, RCM usw. (siehe Beiträge davor), dass das in Resolve bessere Wahl ist als Hersteller eigene LUT's und das gilt nicht nur für Sony.
Das andere ist nur nebenbei erwähnt, hervorgerufen mit deinem "nicht ernst nehmen" blabla... ;) Du schreibst immer wieder Unsinn, "hast keine Sony" "kennst die Menü von BMD nicht" usw. usf. Du liebe Güte... ;)
Antwort von Darth Schneider:
@roki
Was machst denn du überhaupt in einem Sony Kamera Threat ?
Und mich nervt es einfach das du immer wieder mir auf Fragen oder auch Antworten (von mir, an jemand anders) antworten musst die hinten und vorne gar nicht, an dich gerichtet waren…
Kann das endlich mal aufhören ?
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
@roki
Was machst denn du überhaupt in einem Sony Threat ?
Anders als Du, diskutiere ich hier völlig normal ohne irgendeine Absicht User für doof zu verkaufen wie Du es tust... Ich kann wohl schreiben, dass Resolve CST das besser kann als Hersteller eigene LUT's bzw. cantsin ist mit der Feststellung nicht allein.
Und mich nervt es einfach das du immer wieder mir auf Fragen oder auch Antworten (von mir, an jemand anders) antworten musst die hinten und vorne gar nicht, an dich gerichtet waren…
Kann das endlich mal aufhören ?
Es liegt an dir selbst, User in ruhe zu lassen, ihnen vorschreiben was die machen sollen und was nicht bzw. mit dem Unsinn einfach aufzuhören...
Antwort von klusterdegenerierung:
Dann kommt jetzt doch schon das Trennungsjahr?
Muß das dann hier sein, oder könnt ihr beide das evtl. auch im DSLR Forum durchziehen?
Antwort von roki100:
klusterdegenerierung hat geschrieben:
Muß das dann hier sein, oder önnt ihr das evtl. auch im DSLR Forum durchziehen?
Wieso ich?
Antwort von Darth Schneider:
@roki
Nun ja, wenn halt immer dasselbe Gegenüber immer beim anderen selben Gegenüber wieder dagegen rein plappert (bei jedem zweiten Kommentar) und es nicht mal bemerkt ?
IQ 45 ?
Oder was ?
Ich habe dich um etwas ganz simples gebeten und du schreibst weiter dagegen ?
Echt jetzt ?
Bitte, mach weiter so, dann geht es dann das nächste Mal direkt über SlashCAM.;)
Und jetzt, endgültiges Ende der Kommunikation.
(Kein Gruss)
Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
Bitte, mach weiter so, dann geht es dann das nächste Mal direkt über SlashCAM.;)
Mach mal bitte, dann können die Mods von SlashCAM das genauer untersuchen und sich selbst überzeugen wie Du tickst... Normal ist das nicht bzw. normale Diskussion ist wegen dir fast unmöglich, das zeigt sich schon allein in diesem Thread und wie immer verabschiedest du dich und kommst dann wieder. Sei doch einfach normal, freundlich usw. und gut is.
Antwort von Darth Schneider:
@roki
Mit SlashCAM mache ich gar nix, die können schliesslich absolut nix dafür…
Wenn du damit nicht bald mal aufhörst, ziehe ich mich ganz zurück und schreibe hier gar nix mehr, lese nur noch.
Das liegt nicht nur an mir, das kannst du in deinen Kopf drehen und wenden wie du willst, lieber roki…
Genug ist einfach genug.
Gruss Boris
Antwort von roki100:
"Darth Schneider" hat geschrieben:
@roki
Wenn du damit nicht bald mal aufhörst, ziehe ich mich zurück und schreibe hier gar nix mehr, lese nur noch.
Das liegt nicht nur an mir, das kannst du in deinen Kopf drehen wie du willst…
Genug ist genug.
Du bist nichtmal fähig zu verstehen, dass ich nicht daran beteiligt bin, dir die Tippfinger zu stoppen, sondern dass ich dich darum bitte, normal zu diskutieren, ohne blöde anmacherei... Ich schreibe etwas über Resolve CST und das vermutlich jemand von BMD daran beteiligt ist, der das gut kann...und du kommst so blöd an wie "@Roki Cool, schön für ihn, und jetzt ?" "Und Kluster filmt nur mit Blackmagic Kameras und arbeitet den ganzen Tag lang mit BRaw Footage am Rechner…???" usw. also völliger Unsinn...keine normale Diskussion ist somit vorprogrammiert. Es war ein Fehler dich aus ignore liste zu entfernen. Ich tue es wieder und gut is.
Ich bitte SlashCAM das ganze in Off-Topic zu verschieben.
Antwort von Mantas:
iasi hat geschrieben:
Mantas hat geschrieben:
ähm, ja?
Ja.
verrückt
klusterdegenerierung hat geschrieben:
Aber jetzt mal Hand aufs Herz, wer bitte der mit Slog3 filmt shootet nicht in den 2 Base Isos?
öfters ja, für alles gibt es einen Zweck.(naturlich bleibt man trotzdem in base, ist ja technisch bedingt)
bei FS7 hat man standardmäßig 800 geshootet obwohl die ISO 2000 war.
klusterdegenerierung hat geschrieben:
In Summary kann man auch sagen, Cine EI ist eine Umgehung für das notwendige Wissen, wie man Slog3 in Zusammenhang mit Base Iso belichtet, also ein Log/base Preset für User die nicht die Basics lernen wollen. :-)
würd ich genau anders rum sehen, alle die es nicht verstehen, nutzen es nicht.
Antwort von Darth Schneider:
Technisch gesehen sind die beiden Kameras gar nicht so verschieden..
Im Gegenteil.
Die wichtigsten Unterschiede stecken nur noch verborgen in den Details.
Und welche Kamera jetzt wirklich effektiv besser ist ?
Das hängt (auch) meiner Meinung nach, eigentlich nur davon ab was man damit alles machen will.
(Obwohl die Sony natürlich einfach um Welten schöner designt ist);)))
Gruss Boris
Antwort von cantsin:
"Darth Schneider" hat geschrieben:
Und welche Kamera jetzt wirklich effektiv besser ist ?
Das hängt (auch) meiner Meinung nach, eigentlich nur davon ab was man damit alles machen will.
(Obwohl die Sony natürlich einfach um Welten schöner designt ist);)))
Gruss Boris
Lies mal den letzten Test der Slashcam-Redaktion der R7 - deren Log-Profil ist so verkrüppelt, dass die Kamera damit als Konkurrenz zur FX30 praktisch ausfällt:
"Für die erste Überraschung in unserem Test ist denn auch gleich die Canon EOS R7 gut. So liefert die Kamera ein Dynamik-Verhalten, das wir in dieser Form noch bei keiner anderen Kamera sehen konnten: Sie verliert beim Abblenden und anschließendem Nachbelichten ihre Farben.
Die Dynamik selbst ist dabei ungefähr auf "Augenhöhe" mit der teureren Panasonic GH6. Aber offensichtlich ist die Kamera bei Log-Aufzeichnung so abgestimmt, dass dunkle Bereiche grundsätzlich mit weniger Farbinformationen beliefert werden. In einem normalen Bildprofil mag so ein Verhalten vielleicht sogar zur Bildästhetik beitragen, in einem hochdynamischen Log-Profil mit hochgezogenen Schwarzwerten, das erst nach der Aufzeichnung "entwickelt" wird, ist dies jedoch definitiv kein Vorteil.
Ganz anders überrascht dagegen Canon mit seinem Preiskracher EOS R7, der nicht nur beim Rolling Shutter und höheren 4K-Frameraten Zugeständnisse fordert - sondern auch bei der Dynamik eine bislang gänzlich unbekannte Limitierung einführt. Inwieweit man als Filmer mit diesem "Farbverlust" leben kann, muss jeder interessierte Käufer letztlich für sich selbst entscheiden."
https://www.slashcam.de/artikel/Test/Ak ... Fazit.html
Antwort von Darth Schneider:
@Cantsin
Schau das Video da oben, oder zig andere.;)
Die R7 ist ein Hybrid, und gar nicht perfekt für Video.
Ich weiss das doch, er sagt das im Video doch ganz klar auch..
Aber nur weil die R7 keine Cine Kamera, mit perfekten Codecs ist, muss sie nicht gleich grundsätzlich auch schlecht sein zum filmen…
Oder ?
Tatsächlich ist das im Moment halt (zumindest für Mich) die beste bezahlbare Apsc echte Hybrid Cam.
Die Gh6 filmt einfach nur super und fotografiert verhältnismässig (für was heute möglich ist) einfach nur scheisse….
Umgekehrt oder ausgeglichen ist es bei der FX30 scheinbar leider auch nicht.;)
Es scheint zumindest so zu sein…
Verständlich, die kommt ja auch aus der „Sony Cine Line“…
Die R7, liegt irgendwo echt dazwischen und ist modern und günstig…:)
Eine schnelle, günstige und dennoch sehr potente Apsc (Hybrid) Fotoknipse..
Und sie hat diesen unglaublich guten Autofokus zum filmen auf dem Gimbal, und 10 Bit 4:2 2 intern mit Canon Farben ( und auch mit flat LOG, wenn es sein muss) Out of Cam, alles intern….
Was will man von einer 1500€ Hybrid denn eigentlich noch mehr ?
P.S.:
Dem Kunden ist der verwendete Codec (mitsamt den Artefakten die man mit 100% Zoom dann sehen kann) sowas von egal.
Hauptsache der Film (also vor allem das was vor der Kamera passiert zusammen mit dem Licht, auch mit Nachbearbeitung/Schnitt und Ton) sind dann auch wirklich gut…;)
Gruss Boris
Antwort von klusterdegenerierung:
"Darth Schneider" hat geschrieben:
Dem Kunden ist der verwendete Codec (mitsamt den Artefakten die man mit 100% Zoom dann sehen kann) sowas von egal.
Na dann Prostmahlzeit wenn man die Artefakte schon so sehen kann, da wird das Bearbeiten in Powerwindows und Colorgrading ja ein wahres Feuerwerk und wird dem Kunden bestimmt auch egal sein. :-)))
Antwort von dienstag_01:
cantsin hat geschrieben:
pillepalle hat geschrieben:
Hab mir das Video angesehen, und vielleicht lässt mit dem Alter mein Hirn nach (oder es ist einfach anstrengend, bei diesem Video auseinanderzuklamüsieren, was davon eine Anfänger-Erklärung von Log ist und was eine wirkliche Erklärung von CineEI) - aber stimmt die Schlussfolgerung, dass CineEI letztlich nichts anderes ist als eine feste Verriegelung des Bildprofils (bzw. von Gamma und Farbraum) auf SLog3 + SGamut3 sowie eine Reduktion der auswählbaren ISOs auf die beiden sensornativen ISOs? Also im Prinzip nur eine Sperre suboptimaler Kameraeinstellungen bei Log-Aufnahme?
Ja, so wie im Video gesagt, werden nur die beiden nativen ISOs genutzt, also die optimalen Settings.
Cine EI sind darauf aufsetzende Metadaten, allerdings scheinbar nur in Catalyst zu lesen.
Dein *nur* verstehe ich da nicht, was sollte es sonst sein?
Antwort von cantsin:
dienstag_01 hat geschrieben:
Ja, so wie im Video gesagt, werden nur die beiden nativen ISOs genutzt, also die optimalen Settings.
Cine EI sind darauf aufsetzende Metadaten, allerdings scheinbar nur in Catalyst zu lesen.
Dein *nur* verstehe ich da nicht, was sollte es sonst sein?
Durch Dein Posting und eins von Kluster im Parallelthread fällt mir der Groschen: "Cine EI sind darauf aufsetzende Metadaten " - es geht also (a) um gelockte/reduzierte Parameter der Kamera und (b) offenbar darauf aufbauend, die Möglichkeit, in Catalyst nachträglich die ISO des Materials zu verändern, so, wie das sonst nur bei Raw gemacht werden kann.
Antwort von dienstag_01:
cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Ja, so wie im Video gesagt, werden nur die beiden nativen ISOs genutzt, also die optimalen Settings.
Cine EI sind darauf aufsetzende Metadaten, allerdings scheinbar nur in Catalyst zu lesen.
Dein *nur* verstehe ich da nicht, was sollte es sonst sein?
Durch Dein Posting und eins von Kluster im Parallelthread fällt mir der Groschen: "Cine EI sind darauf aufsetzende Metadaten " - es geht also (a) um gelockte/reduzierte Parameter der Kamera und (b) offenbar darauf aufbauend, die Möglichkeit, in Catalyst nachträglich die ISO des Materials zu verändern, so, wie das sonst nur bei Raw gemacht werden kann.
Ob man die ISO-Werte wie in RAW verändern kann, weiß ich nicht. Klar ist aber, dass man ein Bild visuell richtig aufzeichen kann (durch die Monitor LUT von Cine EI) und trotzdem das Material Slog und nicht 709 (oder welche LUT man da nehmen kann) ist, weil die visuell richtigen ISO nur Metadaten sind. Und damit hat man im Falle eines Falles den vollen Spielraum von Slog.
(Vollziehe das nur in der Theorie nach, habe keine Sony)
Antwort von cantsin:
dienstag_01 hat geschrieben:
Ob man die ISO-Werte wie in RAW verändern kann, weiß ich nicht. Klar ist aber, dass man ein Bild visuell richtig aufzeichen kann (durch die Monitor LUT von Cine EI) und trotzdem das Material Slog und nicht 709 (oder welche LUT man da nehmen kann) ist, weil die visuell richtigen ISO nur Metadaten sind. Und damit hat man im Falle eines Falles den vollen Spielraum von Slog.
Das Verwirrende ist aber, dass Sony-Kameras mit SLog3 sowieso schon die Monitoring-Rec709-Anzeige haben, auch ohne CineEI.
Also bleibt das Desiderat: Irgendjemand bei Sony, oder irgendein Reviewer, muss das ganze mal so erklären, dass klipp und klar ist, was CineEI in seiner Gesamtheit genau ist und tut, und zwar für Leute, die bereits wissen, was Log-Workflows und native ISOs sind. Bisher haben wir doch nur komische Halberklärungen - bzw. eine Mischung von Anfängererklärungen, was Log ist und tut, mit fehlenden Details darüber, was CineEI über Log und native ISOs hinaus ist und tut.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Klar ist aber, dass man ein Bild visuell richtig aufzeichen kann (durch die Monitor LUT von Cine EI) und trotzdem das Material Slog und nicht 709 (oder welche LUT man da nehmen kann) ist, weil die visuell richtigen ISO nur Metadaten sind. Und damit hat man im Falle eines Falles den vollen Spielraum von Slog.
Jahaaa, aber das eine hat nix mit dem anderen zu tun, bzw ist dies kein spezielles Cine EI feature, denn die MLut zur visualisierung von Rec709 bei Slog3 auf dem Display, lässt sich sowieso anzeigen, deswegen sehe ich auf meiner FX6 auch immer alles richtig, bzw so wie es sonnst auf der Timeline ausschaut, dafür muß ich aber nicht im Cine EI Mode drehen.
Ich sag ja, das ist nur für User die mit der Überbelichtung bei Slog3 Probleme haben und nicht belichten können, wenn sie kein fertiges Endbild sehen.
Ähnlich wie man früher auch Polaroids beurteilen können mußte wenn man diese als Vorschau für das shooten mit E6 Filmen nutze.
Ist einfach eine Krücke, ändert aber nix ander Leistung der Cam, die wird dadurch nicht besser, im Gegenteil, denn für Cine EI wird das leicht abgespecktere S-Gamut3 Cine genommen, nicht das S-Gamut3.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Klar ist aber, dass man ein Bild visuell richtig aufzeichen kann (durch die Monitor LUT von Cine EI) und trotzdem das Material Slog und nicht 709 (oder welche LUT man da nehmen kann) ist, weil die visuell richtigen ISO nur Metadaten sind. Und damit hat man im Falle eines Falles den vollen Spielraum von Slog.
Jahaaa, aber das eine hat nix mit dem anderen zu tun, bzw ist dies kein spezielles Cine EI feature, denn die MLut zur visualisierung von Rec709 bei Slog3 auf dem Display, lässt sich sowieso anzeigen, deswegen sehe ich auf meiner FX6 auch immer alles richtig, bzw so wie es sonnst auf der Timeline ausschaut, dafür muß ich aber nicht im Cine EI Mode drehen.
Ich sag ja, das ist nur für User die mit der Überbelichtung bei Slog3 Probleme haben und nicht belichten können, wenn sie kein fertiges Endbild sehen.
Ähnlich wie man früher auch Polaroids beurteilen können mußte wenn man diese als Vorschau für das shooten mit E6 Filmen nutze.
Ist einfach eine Krücke, ändert aber nix ander Leistung der Cam, die wird dadurch nicht besser, im Gegenteil, denn für Cine EI wird das leicht abgespecktere S-Gamut3 Cine genommen, nicht das S-Gamut3.
Sony schreibt, dass die MLUT genau die LUT im Cine EI Mode ist.
|
Antwort von klusterdegenerierung:
Eine gescheite Erklärung wäre, aber ich bin mir ziemlich sicher das es nicht nur nicht so ist, sondern technisch auch nicht so geht, wäre:
Im Cine EI Mode wird bei einer notwendigen Gain absenkung oder Erhöhung nur der Base Iso genutzt in dem man gerade ist!
Also die Cam bleibt gelockt auf 800 Iso, setzt aber intern den Gainregler hoch, statt wie sonst in den nächst höheren Isowert zu gehen, wenn man mehr Licht benötigt. Dies hätte den Vorteil, das man bei 800 Iso plus Anhebung weniger Rauschen erhält, als zb bei 2400 Iso ohne Anhebung.
Aber ich denke das wird Technisch nicht möglich sein, denn wenn doch bräuchte man den ganzen Quatsch nicht und eine Cam würde von Hause aus so arbeiten, weil es faktisch immer das bessere Resultat liefert.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Sony schreibt, dass die MLUT genau die LUT im Cine EI Mode ist.
Nö, Du kannst ganz einfach in den Settings die Mlut separat für 3 Instanzen aktivieren, für das Display, für HDMI und für SDI und dies jeweils mit der Option es nur anzuzeigen, oder aufzunehmen.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
Eine gescheite Erklärung wäre, aber ich bin mir ziemlich sicher das es nicht nur nicht so ist, sondern technisch auch nicht so geht, wäre:
Im Cine EI Mode wird bei einer notwendigen Gain absenkung oder Erhöhung nur der Base Iso genutzt in dem man gerade ist!
Also die Cam bleibt gelockt auf 800 Iso, setzt aber intern den Gainregler hoch, statt wie sonst in den nächst höheren Isowert zu gehen, wenn man mehr Licht benötigt. Dies hätte den Vorteil, das man bei 800 Iso plus Anhebung weniger Rauschen erhält, als zb bei 2400 Iso ohne Anhebung.
Aber ich denke das wird Technisch nicht möglich sein, denn wenn doch bräuchte man den ganzen Quatsch nicht und eine Cam würde von Hause aus so arbeiten, weil es faktisch immer das bessere Resultat liefert.
Vom Prinzip her ist es aber genau so. Nur dass es nicht der Gainregler, sondern die Helligkeit des Monitors ist. Der *Gainregler* als Übertragung auf die ISO wird als Metadaten für die Post mitgegeben.
Antwort von klusterdegenerierung:
Geht auch ohne Cine EI.
Ist ja nur eine "Monitor" Lut.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
Geht auch ohne Cine EI.
Ist ja nur eine "Monitor" Lut.
Der Unterschied dürfte sein, dass hier *nur* ein 709 etc. Bild angezeigt wird. Bei Cine EI wird diese 709-LUT in der Helligkeit durch die CIne EI ISO gesteuert.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Vom Prinzip her ist es aber genau so. Nur dass es nicht der Gainregler, sondern die Helligkeit des Monitors ist. Der *Gainregler* als Übertragung auf die ISO wird als Metadaten für die Post mitgegeben.
Ja nur das es bei der tatsächlichen Belichtung um die faktische Helligkeit geht und nicht um die Display Helligkeit, die ist ja nur eine Remoteschleife.
Antwort von dienstag_01:
klusterdegenerierung hat geschrieben:
dienstag_01 hat geschrieben:
Vom Prinzip her ist es aber genau so. Nur dass es nicht der Gainregler, sondern die Helligkeit des Monitors ist. Der *Gainregler* als Übertragung auf die ISO wird als Metadaten für die Post mitgegeben.
Ja nur das es bei der tatsächlichen Belichtung um die faktische Helligkeit geht und nicht um die Display Helligkeit, die ist ja nur eine Remoteschleife.
Die richtige Belichtung findet auf der Base ISO statt, die ideale ISO der Kamera.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
klusterdegenerierung hat geschrieben:
Geht auch ohne Cine EI.
Ist ja nur eine "Monitor" Lut.
Der Unterschied dürfte sein, dass hier *nur* ein 709 etc. Bild angezeigt wird. Bei Cine EI wird diese 709-LUT in der Helligkeit durch die CIne EI ISO gesteuert.
Nein, das ist ja das absurde.
Die Mlut zeigt die +Blenden nicht an, während Du aber +2Blenden belichtest.
In CB wird das dann genauso durchgeschliffen und die Crux an der Geschichte ist, das in Resolve ein Überbelichtetes Bild angezeigt wird.
Wenn man das eben nicht auf dem Schirm hat, kann es sein das man als erfahrenerer Slog3 Filmer 2x 2 Blenden drauflegt, weil die Mlut ja diese weg visualisiert.
Mir selbst passiert, mein komplettes footage war total überbelichtet, weil ich mich mal auf dieses Cine EI gedöns eingelassen habe. :-)
Antwort von cantsin:
OK, dann läuft CineEI also darauf hinaus, dass man SLog3 ETTR belichten kann, die Monitoring-LUT aber diese Überbelichtung kompensiert. (Und man dann natürlich - wie Du schreibst - auf die Nase fällt, wenn man nach alter Gewohnheit auf Display-Augenkontrollen-Basis überbelichtet.)
Antwort von klusterdegenerierung:
Yepp, genauso!
Es ist eben eine Handhabe, ein Preset für Leute die sich um all diese Faktoren die ein Slog3 ETTR gehabe so mit sich bringen nicht kümmern wollen, aber trotzdem die Benefits von Slog und Co geniesen möchten.
Antwort von klusterdegenerierung:
Es gab doch vor Jahren auch hier im Forum immer diese endlosen Diskussionen wie man korrekt Slog belichtet und ob man dazu ETTR heranzieht oder WYSIWYG belichtet, vielleicht wollte auch Sony das dies einfür allemal aufhört, bzw leichter wird, denn es gab ja genügend Leute die Ängste oder Vorbehalte vor so einem Workflow hatten, der in der Kinowelt täglicher Standard ist?
Antwort von dienstag_01:
Ich glaube, das Gegenteil ist richtig, ich kann optimal belichten (ETTR) und kann visuell mein Bild kontrollieren.
Antwort von Mantas:
irgend jemand meinte mal, wenn sony das sony raw genannt hätte, würden es alle verstehen.
klusterdegenerierung hat geschrieben:
Ist einfach eine Krücke, ändert aber nix ander Leistung der Cam, die wird dadurch nicht besser, im Gegenteil, denn für Cine EI wird das leicht abgespecktere S-Gamut3 Cine genommen, nicht das S-Gamut3.
hast du das mal getestet, wieviel mehr Farbe du bekommst? Ich glaube einfach eine FX6 schafft es nicht.
Antwort von roki100:
Mantas hat geschrieben:
irgend jemand meinte mal, wenn sony das sony raw genannt hätte, würden es alle verstehen.
Blackmagic hat es BRAW genannt *haha* ;)
Antwort von Funless:
cantsin hat geschrieben:
OK, dann läuft CineEI also darauf hinaus, dass man SLog3 ETTR belichten kann, die Monitoring-LUT aber diese Überbelichtung kompensiert. (Und man dann natürlich - wie Du schreibst - auf die Nase fällt, wenn man nach alter Gewohnheit auf Display-Augenkontrollen-Basis überbelichtet.)
klusterdegenerierung hat geschrieben:
Yepp, genauso!
Es ist eben eine Handhabe, ein Preset für Leute die sich um all diese Faktoren die ein Slog3 ETTR gehabe so mit sich bringen nicht kümmern wollen, aber trotzdem die Benefits von Slog und Co geniesen möchten.
Ich kapiere das immer noch nicht.
Woher erkenne ich denn dann, dass man auf dem korrekten ETTR Level ist wenn mir das Bild normal belichtet angezeigt wird? Am Histogramm?
Ich bin echt zu blöd dafür, sorry.
Antwort von dienstag_01:
Funless hat geschrieben:
cantsin hat geschrieben:
OK, dann läuft CineEI also darauf hinaus, dass man SLog3 ETTR belichten kann, die Monitoring-LUT aber diese Überbelichtung kompensiert. (Und man dann natürlich - wie Du schreibst - auf die Nase fällt, wenn man nach alter Gewohnheit auf Display-Augenkontrollen-Basis überbelichtet.)
klusterdegenerierung hat geschrieben:
Yepp, genauso!
Es ist eben eine Handhabe, ein Preset für Leute die sich um all diese Faktoren die ein Slog3 ETTR gehabe so mit sich bringen nicht kümmern wollen, aber trotzdem die Benefits von Slog und Co geniesen möchten.
Ich kapiere das immer noch nicht.
Woher erkenne ich denn dann, dass man auf dem korrekten ETTR Level ist wenn mir das Bild normal belichtet angezeigt wird? Am Histogramm?
Ich bin echt zu blöd dafür, sorry.
Was ist denn das korrekte ETTR Level? Doch dann, wenn man rechts *fast anstößt*. In Cine EI sollte man das sehen, wenn man im Monitor dieselben 800 (oder eben X) ISO einstellt, auf der die Kamera in der Base ISO steht.
Antwort von cantsin:
dienstag_01 hat geschrieben:
Was ist denn das korrekte ETTR Level? Doch dann, wenn man rechts *fast anstößt*. In Cine EI sollte man das sehen, wenn man im Monitor dieselben 800 (oder eben X) ISO einstellt, auf der die Kamera in der Base ISO steht.
Was meinst Du konkret mit "im Monitor die ISO einstell"? Es gibt doch nur eine ISO-Einstellung im Kamera-Menü (die im "strengen" CineEI-Modus nur zwei mögliche Werte hat, nämlich 800 und 2500 im Fall der FX30).
Antwort von dienstag_01:
cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Was ist denn das korrekte ETTR Level? Doch dann, wenn man rechts *fast anstößt*. In Cine EI sollte man das sehen, wenn man im Monitor dieselben 800 (oder eben X) ISO einstellt, auf der die Kamera in der Base ISO steht.
Was meinst Du konkret mit "im Monitor die ISO einstell"? Es gibt doch nur eine ISO-Einstellung im Kamera-Menü (die im "strengen" CineEI-Modus nur zwei mögliche Werte hat, nämlich 800 und 2500 im Fall der FX30).
Damit meine ich die Belichtung der Monitor LUT (also die Metadaten).
Edit: Im Video sieht man, dass die EI angepasst wir, und das genau in den Schritten von ISO.
Antwort von cantsin:
dienstag_01 hat geschrieben:
Edit: Im Video sieht man, dass die EI angepasst wir, und das genau in den Schritten von ISO.
Ah, in der Tat:
https://youtu.be/R_b2uCCjhfQ?t=571
Okay, jetzt kapier ich's endlich. CineEI ist ein Log-Workflow, bei dem ISOs genauso als Kombination von sensornativen ISOs + reinen Metadaten-ISOs implementiert sind wie bei den meisten Raw-Video-Kameras (bzw. bei ISO-invarianten Kameras).
Das finde ich nicht übel als Idee; ein klarer Vorteil ggü. allen anderen Kameraherstellern, die die nicht-sensornative ISO- bzw. Gainverstärkung fest ins Log-Material einbacken (wie z.B. Canon, Panasonic, Fuji, und auch Blackmagic bei ProRes-Log-Aufnahme).
Fast schon ein 'unique selling point' der FX30 in ihrer Preisklasse (dem ggü. das laut Slashcam-Redaktionstest verkrüppelte Log der Canon R7 um so peinlicher ist).
Antwort von pillepalle:
cantsin hat geschrieben:
Okay, jetzt kapier ich's endlich. CineEI ist ein Log-Workflow, bei dem ISOs genauso als Kombination von sensornativen ISOs + reinen Metadaten-ISOs implementiert sind wie bei den meisten Raw-Video-Kameras (bzw. bei ISO-invarianten Kameras).
Das finde ich nicht übel als Idee; ein klarer Vorteil ggü. allen anderen Kameraherstellern, die die nicht-sensornative ISO- bzw. Gainverstärkung fest ins Log-Material einbacken (wie z.B. Canon, Panasonic, Fuji, und auch Blackmagic bei ProRes-Log-Aufnahme).
Deshalb heißt er auch Cine EI. Man muss immer für genügend Licht für eine korrekte/gute Belichtung sorgen, um mit den nativen ISO arbeiten zu können. Das was man bei Kinoproduktionen normalerweise auch macht. Der Modus ist für Run&Gun nur nicht immer geeignet, einfach weil oft nicht genug Licht vorhanden ist.
VG
Antwort von Funless:
pillepalle hat geschrieben:
cantsin hat geschrieben:
Okay, jetzt kapier ich's endlich. CineEI ist ein Log-Workflow, bei dem ISOs genauso als Kombination von sensornativen ISOs + reinen Metadaten-ISOs implementiert sind wie bei den meisten Raw-Video-Kameras (bzw. bei ISO-invarianten Kameras).
Das finde ich nicht übel als Idee; ein klarer Vorteil ggü. allen anderen Kameraherstellern, die die nicht-sensornative ISO- bzw. Gainverstärkung fest ins Log-Material einbacken (wie z.B. Canon, Panasonic, Fuji, und auch Blackmagic bei ProRes-Log-Aufnahme).
Deshalb heißt er auch Cine EI. Man muss immer für genügend Licht für eine korrekte/gute Belichtung sorgen, um mit den nativen ISO arbeiten zu können. Das was man bei Kinoproduktionen normalerweise auch macht. Der Modus ist für Run&Gun nur nicht immer geeignet, einfach weil oft nicht genug Licht vorhanden ist.
VG
Deshalb wird im Video oben auch angeraten bei Run&Gun Flexible ISO anstelle Cine EI einzusetzen.
Ich glaube so langsam kapiere ich das jetzt auch.
Antwort von dienstag_01:
pillepalle hat geschrieben:
cantsin hat geschrieben:
Okay, jetzt kapier ich's endlich. CineEI ist ein Log-Workflow, bei dem ISOs genauso als Kombination von sensornativen ISOs + reinen Metadaten-ISOs implementiert sind wie bei den meisten Raw-Video-Kameras (bzw. bei ISO-invarianten Kameras).
Das finde ich nicht übel als Idee; ein klarer Vorteil ggü. allen anderen Kameraherstellern, die die nicht-sensornative ISO- bzw. Gainverstärkung fest ins Log-Material einbacken (wie z.B. Canon, Panasonic, Fuji, und auch Blackmagic bei ProRes-Log-Aufnahme).
Deshalb heißt er auch Cine EI. Man muss immer für genügend Licht für eine korrekte/gute Belichtung sorgen, um mit den nativen ISO arbeiten zu können. Das was man bei Kinoproduktionen normalerweise auch macht. Der Modus ist für Run&Gun nur nicht immer geeignet, einfach weil oft nicht genug Licht vorhanden ist.
VG
Wenn man nicht native ISOs nimmt, rauscht es halt hinterher mehr.
Bei iso-invarianten Kameras sollte es egal sein, ob man die ISO in der Kamera oder in der Post anpasst.
Antwort von dienstag_01:
Funless hat geschrieben:
pillepalle hat geschrieben:
Deshalb heißt er auch Cine EI. Man muss immer für genügend Licht für eine korrekte/gute Belichtung sorgen, um mit den nativen ISO arbeiten zu können. Das was man bei Kinoproduktionen normalerweise auch macht. Der Modus ist für Run&Gun nur nicht immer geeignet, einfach weil oft nicht genug Licht vorhanden ist.
VG
Deshalb wird im Video oben auch angeraten bei Run&Gun Flexible ISO anstelle Cine EI einzusetzen.
Ich glaube so langsam kapiere ich das jetzt auch.
Wenn du dir die Szene anschaust, die sie für flexible ISO gewählt haben, dann mangelt es dort nicht an Licht. Ich denke eher, es geht um unterschiedliche Lichtsituationen und um ISO als einen von sehr wenigen Parametern, die man überhaupt zur Belichtungssteuerung bei Video einsetzen kann.
Antwort von klusterdegenerierung:
dienstag_01 hat geschrieben:
Wenn man nicht native ISOs nimmt, rauscht es halt hinterher mehr.
Bei iso-invarianten Kameras sollte es egal sein, ob man die ISO in der Kamera oder in der Post anpasst.
Deswegen ja der 2. Wert, wobei ich sagen muß, das 2500 nun auch nicht der Brüller ist, denn Slog braucht so viel Licht, da ist man von Rec aus gesehen schon wieder bei schlappen 800.
Einfach testen kann man das gut in einer A7 bei der man erst alles bei Rec mit 200Iso passend einstellt und dann in Slog wechselt, wo man zwangläufig auf 800Iso gehen muß und da ist da nn inkl. ETTR die Belichtung immer noch passend!!
Deswegen predige ich ja schon seit Jahren, lasst soviel Licht wie irgendmöglich auf den Sensor, auch wenn es einem fasst um die Ohren fliegt, aber es lohnt, denn Slog3 verpackt so viel, das man am Ende mit sehr wenig Rauschen trotz hoher Gainwerte belohnt wird.
Über die Jahre habe ich auch die ganzen HDR Regler in Resolve lieben gerlernt, da gibt es so viel Möglichkeiten viel aus Slog rauszuholen, das ich das Raw via Shogun nicht mehr vermisse.
Antwort von pillepalle:
dienstag_01 hat geschrieben:
Wenn man nicht native ISOs nimmt, rauscht es halt hinterher mehr.
Bei iso-invarianten Kameras sollte es egal sein, ob man die ISO in der Kamera oder in der Post anpasst.
Richtig. So zumindest die Theorie der ISO-Invarianz. Ob das bei der Kamera dann auch wirklich so ist, müssen die Sony User herausfinden. Vielleicht ist es ja auch tatsächlich besser die ISO in der Kamera zu ändern, so wie Sony es empfiehlt. Kann man ohne Kamera nicht wirklich wissen.
Bei Cine EI geht es darum die bestmögliche Qualität zu bekommen (weil man eben nur in den nativen ISO arbeitet) und die Metadaten dienen nur dazu die Arbeit zu erleichtern, indem man damit z.B. das Monitoring verändert und die Szene besser beurteilen kann.
VG
Antwort von dienstag_01:
pillepalle hat geschrieben:
dienstag_01 hat geschrieben:
Wenn man nicht native ISOs nimmt, rauscht es halt hinterher mehr.
Bei iso-invarianten Kameras sollte es egal sein, ob man die ISO in der Kamera oder in der Post anpasst.
Richtig. So zumindest die Theorie der ISO-Invarianz. Ob das bei der Kamera dann auch wirklich so ist, müssen die Sony User herausfinden. Vielleicht ist es ja auch tatsächlich besser die ISO in der Kamera zu ändern, so wie Sony es empfiehlt. Kann man ohne Kamera nicht wirklich wissen.
Bei Cine EI geht es darum die bestmögliche Qualität zu bekommen (weil man eben nur in den nativen ISO arbeitet) und die Metadaten dienen nur dazu die Arbeit zu erleichtern, indem man damit z.B. das Monitoring verändert und die Szene besser beurteilen kann.
VG
Nicht nur, man kann sie auch gleich so verwenden.
Antwort von Axel:
dienstag_01 hat geschrieben:
pillepalle hat geschrieben:
Bei Cine EI geht es darum die bestmögliche Qualität zu bekommen (weil man eben nur in den nativen ISO arbeitet) und die Metadaten dienen nur dazu die Arbeit zu erleichtern, indem man damit z.B. das Monitoring verändert und die Szene besser beurteilen kann.
VG
Nicht nur, man kann sie auch gleich so verwenden.
Um Missverständnisse zu vermeiden: Man kann die Monitor-Lut in camera einbacken, also ein rec709-Video draus machen, was die Optionen so stark beschneidet, dass die Farben als fertig gelten können (der Gedanke war für mich bisher absurd, aber siehe mein EDIT). Speziell Resolve liest aber die Metadaten (falls ich nicht einbacke) nicht aus, das muss man über Global/Offset (mE besser als über klusters Lift) händisch machen, ein Klacks allerdings. Für Resolve besteht also kein Unterschied, wenn ich mich mit einer nicht-Cine EI-fähigen SLog3-Kamera bewusst nur auf die Base-Isos beschränkt habe.
EDIT:
Wie das zwei Seiten vorher von mir verlinkte Crafford-Video schön zeigt, wäre das Ausmaß der Kontrolle vor Ort mit Cine EI und der Monitor-Lut so umfassend, dass sogar ich versucht bin, mal über das Einbacken nachzudenken.
Antwort von Mantas:
klusterdegenerierung hat geschrieben:
Deswegen predige ich ja schon seit Jahren, lasst soviel Licht wie irgendmöglich auf den Sensor, auch wenn es einem fasst um die Ohren fliegt, aber es lohnt, denn Slog3 verpackt so viel, das man am Ende mit sehr wenig Rauschen trotz hoher Gainwerte belohnt wird.
Wieso hohe Gainwerte?
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Um Missverständnisse zu vermeiden: Man kann die Monitor-Lut in camera einbacken, also ein rec709-Video draus machen, was die Optionen so stark beschneidet, dass die Farben als fertig gelten können (der Gedanke war für mich bisher absurd, aber siehe mein EDIT). Speziell Resolve liest aber die Metadaten (falls ich nicht einbacke) nicht aus, das muss man über Global/Offset (mE besser als über klusters Lift) händisch machen, ein Klacks allerdings. Für Resolve besteht also kein Unterschied, wenn ich mich mit einer nicht-Cine EI-fähigen SLog3-Kamera bewusst nur auf die Base-Isos beschränkt habe.
Bin mir nicht sicher, aber es liest sich wieder wie, "man kann nur Base Iso in Vermindung mit Cine EI nutzen" an!
So ist es aber nicht und selbst wenn Du im Cine EI Mode arbeiten würdest, kannst Du immer noch auf dem Gainschalter den Wert 800/EI-0 und den Wert 12.800/EI-0 legen.
Die Cam zwingt einen nicht Cine EI zu nutzen.
Meine FX6 ist so konfiguriert, das sie garnichts anderes kann als 800 & 12.800 und die Mlut liegt auf dem Display und auf dem HDMI Ausgang ohne das sie mit aufgezeichnet wird und die +1,7 Blenden lese ich an den Scopes ab, da gehen die highlights dann immer bis an die erste Warnlinie, so einfach ist das. :-)
Antwort von klusterdegenerierung:
Mantas hat geschrieben:
klusterdegenerierung hat geschrieben:
Deswegen predige ich ja schon seit Jahren, lasst soviel Licht wie irgendmöglich auf den Sensor, auch wenn es einem fasst um die Ohren fliegt, aber es lohnt, denn Slog3 verpackt so viel, das man am Ende mit sehr wenig Rauschen trotz hoher Gainwerte belohnt wird.
Wieso hohe Gainwerte?
Weil Iso auch nur eine Verstärkung ist, wenn man über Base Iso geht und das ist Gain.
Antwort von Mantas:
Das ist war Mr Alister Chapman seit zig Jahren predigt, dass man die Kameras auf db statt ISO stellen soll. Dann ist einem bewusst ob man grad verstärkt oder runterregelt, ohne sich Kamerabase Iso Werte zu merken.
Natürlich muss man dann wissen wieviel +6db so wäre.
Antwort von Jott:
Dass weiß man, wenn man mal Berührung mit "richtigen" Kameras hatte. Der Tipp ist nicht der Schlechteste.
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Die Cam zwingt einen nicht Cine EI zu nutzen.
Meine FX6 ist so konfiguriert, das sie garnichts anderes kann als 800 & 12.800 und die Mlut liegt auf dem Display und auf dem HDMI Ausgang ohne das sie mit aufgezeichnet wird und die +1,7 Blenden lese ich an den Scopes ab, da gehen die highlights dann immer bis an die erste Warnlinie, so einfach ist das. :-)
Ich hätte mir oft gewünscht, einfach die nicht-nativen ISO-Einstellungen abstellen zu können bei meiner A7S3. Ich kann zwar den ISO-Bereich beschränken, aber könnte trotzdem nicht direkt zwischen beiden umschalten. Am liebsten würde ich alle oberhalb 640 löschen, aber alles über 12800 lassen, weil das nämlich bis Pi mal Daumen 50.000 ganz okay ist. Da ist die FX6 offensichtlich besser konfigurierbar.
klusterdegenerierung hat geschrieben:
Mantas hat geschrieben:
Wieso hohe Gainwerte?
Weil Iso auch nur eine Verstärkung ist, wenn man über Base Iso geht und das ist Gain.
Ähhhm, auch missverständlich. dB suggeriert immer analog zu analoger Tonaufzeichnung Signalverstärkung oder -dämpfung. Höhere ISOs wenden nur auf das Raw-Signal eine in den Tiefen bauchigere S-Kurve an.
Der ganze Witz von Cine EI scheint mir doch zu sein, dass ISO nur eine Verzerrung des Originals ist. Wenn die FX3 - wovon ich ausgehe - in dieser Hinsicht genauso konstruiert ist wie die A7S3, dann gibt es nirgends dB statt ISO, und so wird es auch bei der FX30 sein.
Antwort von dienstag_01:
Axel hat geschrieben:
klusterdegenerierung hat geschrieben:
Die Cam zwingt einen nicht Cine EI zu nutzen.
Meine FX6 ist so konfiguriert, das sie garnichts anderes kann als 800 & 12.800 und die Mlut liegt auf dem Display und auf dem HDMI Ausgang ohne das sie mit aufgezeichnet wird und die +1,7 Blenden lese ich an den Scopes ab, da gehen die highlights dann immer bis an die erste Warnlinie, so einfach ist das. :-)
Ich hätte mir oft gewünscht, einfach die nicht-nativen ISO-Einstellungen abstellen zu können bei meiner A7S3. Ich kann zwar den ISO-Bereich beschränken, aber könnte trotzdem nicht direkt zwischen beiden umschalten. Am liebsten würde ich alle oberhalb 640 löschen, aber alles über 12800 lassen, weil das nämlich bis Pi mal Daumen 50.000 ganz okay ist. Da ist die FX6 offensichtlich besser konfigurierbar.
klusterdegenerierung hat geschrieben:
Weil Iso auch nur eine Verstärkung ist, wenn man über Base Iso geht und das ist Gain.
Ähhhm, auch missverständlich. dB suggeriert immer analog zu analoger Tonaufzeichnung Signalverstärkung oder -dämpfung. Höhere ISOs wenden nur auf das Raw-Signal eine in den Tiefen bauchigere S-Kurve an.
Der ganze Witz von Cine EI scheint mir doch zu sein, dass ISO nur eine Verzerrung des Originals ist. Wenn die FX3 - wovon ich ausgehe - in dieser Hinsicht genauso konstruiert ist wie die A7S3, dann gibt es nirgends dB statt ISO, und so wird es auch bei der FX30 sein.
ISO ist genau so eine Verstärkung wie Gain. Sonst würde es die Empfehlung, im Zweifel Gain zu nutzen, nicht geben ;)
|
Antwort von cantsin:
dienstag_01 hat geschrieben:
ISO ist genau so eine Verstärkung wie Gain. Sonst würde es die Empfehlung, im Zweifel Gain zu nutzen, nicht geben ;)
...und vor allem eine Kompatibilitätskrücke bzw. Interface-Metapher für Fotografen, die von der analogen Fotografie kommen. Genauso wie der Papierkorb auf dem Computer eine Interface-Metapher für Büroarbeiter ist, die aus dem papiernen Büro kommen. (Beide, ISO und Papierkorb, könnte man mal langsam in Rente schicken.)
Bin ja kein Fan von diesem Menschen, aber wo er recht hat, hat er recht:
https://www.youtube.com/watch?v=QVuI89YWAsw&t=589s
Antwort von Axel:
dienstag_01 hat geschrieben:
ISO ist genau so eine Verstärkung wie Gain. Sonst würde es die Empfehlung, im Zweifel Gain zu nutzen, nicht geben ;)
Gibt ja meist keinen Gain mehr.
Antwort von Darth Schneider:
Bei einigen Profi Camcorder kann man das noch umstellen, beziehungsweise Broadcast Kameras arbeiten eigentlich immer noch meist nur mit Gain.
Aber eine digitale Verstärkung ist beides.
Bei Gain, alles über Null.
Bei ISO alles über dem nativen ISO Wert.
Gruss Boris
Antwort von cantsin:
"Darth Schneider" hat geschrieben:
Bei ISO alles über dem nativen ISO Wert.
Wobei das eben durch die heutigen Dual-native-ISO / Dual Gain-Sensoren wieder komplexer geworden ist...
Erschwerend kommt noch hinzu, dass Dual Gain bei manchen Herstellern (Sony, Blackmagic, Fuji...) für zwei harte, getrennt voneinander wählbare Gainstufen steht - wie auch bei der FX30 -, bei anderen Herstellern (Canon, Arri) aber für ein aus beiden nativen Gain-Stufen gemischtes Videosignal...
Antwort von Darth Schneider:
Verschiedene Technologien, von verschiedenen Herstellern (und auch in ganz verschiedenen Preisklassen) die blöderweise den absolut selben Namen tragen.
Ein wenig wie bei RAW Video, jeder Hersteller kocht sein ganz eigenes ISO/Gain Süppchen…
Gruss Boris
Antwort von dienstag_01:
cantsin hat geschrieben:
"Darth Schneider" hat geschrieben:
Bei ISO alles über dem nativen ISO Wert.
Wobei das eben durch die heutigen Dual-native-ISO / Dual Gain-Sensoren wieder komplexer geworden ist...
Erschwerend kommt noch hinzu, dass Dual Gain bei manchen Herstellern (Sony, Blackmagic, Fuji...) für zwei harte, getrennt voneinander wählbare Gainstufen steht - wie auch bei der FX30 -, bei anderen Herstellern (Canon, Arri) aber für ein aus beiden nativen Gain-Stufen gemischtes Videosignal...
Dual ISO, also zwei native ISO-Stufen, ist gleichbedeutend mit zwei Hardware-Verstärkerstufen auf dem Sensor. Beide Signale sind also verstärkt (oder einfacher: alle Signale müssen verstärkt werden.).
Im Gegensatz dazu gibt es Dual Gain, da werden unterschiedlich belichtete Aufnahmen miteinander verrechnet.
Die Verwirrung der Bezeichnungen kommt, glaube ich, nicht von den Herstellern ;)
Antwort von iasi:
dienstag_01 hat geschrieben:
cantsin hat geschrieben:
Wobei das eben durch die heutigen Dual-native-ISO / Dual Gain-Sensoren wieder komplexer geworden ist...
Erschwerend kommt noch hinzu, dass Dual Gain bei manchen Herstellern (Sony, Blackmagic, Fuji...) für zwei harte, getrennt voneinander wählbare Gainstufen steht - wie auch bei der FX30 -, bei anderen Herstellern (Canon, Arri) aber für ein aus beiden nativen Gain-Stufen gemischtes Videosignal...
Dual ISO, also zwei native ISO-Stufen, ist gleichbedeutend mit zwei Hardware-Verstärkerstufen auf dem Sensor. Beide Signale sind also verstärkt (oder einfacher: alle Signale müssen verstärkt werden.).
Im Gegensatz dazu gibt es Dual Gain, da werden unterschiedlich belichtete Aufnahmen miteinander verrechnet.
Die Verwirrung der Bezeichnungen kommt, glaube ich, nicht von den Herstellern ;)
Wie soll denn diese unterschiedliche Belichtung erfolgen?
Antwort von cantsin:
dienstag_01 hat geschrieben:
Dual ISO, also zwei native ISO-Stufen, ist gleichbedeutend mit zwei Hardware-Verstärkerstufen auf dem Sensor. Beide Signale sind also verstärkt (oder einfacher: alle Signale müssen verstärkt werden.).
Im Gegensatz dazu gibt es Dual Gain, da werden unterschiedlich belichtete Aufnahmen miteinander verrechnet.
Die Verwirrung der Bezeichnungen kommt, glaube ich, nicht von den Herstellern ;)
Da wäre ich mir nicht so sicher:
"Up until now, most cameras with 'dual gain' sensors in the photo sphere have been ones using a technology developed by chipmaker Aptina and later licensed by Sony Semiconductor. This uses a pixel design with two readout modes: one that includes a capacitor in the path, to provide extra electron storage capacity for bright, high DR conditions and another that disengages this capacitor. Taking the capacitor out of the readout path delivers less dynamic range but increases the conversion gain: boosting the signal for low light conditions.
This higher level of gain occurring right inside each pixel's circuit means the gain is applied very early in the process, before much read noise has crept in, which helps deliver a high ISO improvement over conventional designs.
Notably, though, you need to make the decision whether to run the pixel in its high or low gain state: you can't have both."
https://www.dpreview.com/articles/15700 ... es-it-work
Hier ist das originale Aptina-White Paper:
"This approach, called dynamic response pixel technology by Aptina, or AptinaTM DR-PixTM technology, entails controlled switching on and off of a capacitor connected to the pixel’s FD node (Figure 5). To perform this switching, one transistor, called the dual conversion gain (DCG) switch, is added to the pixel."
https://web.archive.org/web/20120505164 ... ePaper.pdf
EDIT:
Und hier noch ein Sensorhersteller, der "Dual Gain" im Sinne von zwei wählbaren (aber nicht simultanen) Gain-Stufen verwendet:
https://nighttime-imaging.eu/docs/maste ... _dualgain/
Antwort von dienstag_01:
cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Dual ISO, also zwei native ISO-Stufen, ist gleichbedeutend mit zwei Hardware-Verstärkerstufen auf dem Sensor. Beide Signale sind also verstärkt (oder einfacher: alle Signale müssen verstärkt werden.).
Im Gegensatz dazu gibt es Dual Gain, da werden unterschiedlich belichtete Aufnahmen miteinander verrechnet.
Die Verwirrung der Bezeichnungen kommt, glaube ich, nicht von den Herstellern ;)
Da wäre ich mir nicht so sicher:
"Up until now, most cameras with 'dual gain' sensors in the photo sphere have been ones using a technology developed by chipmaker Aptina and later licensed by Sony Semiconductor. This uses a pixel design with two readout modes: one that includes a capacitor in the path, to provide extra electron storage capacity for bright, high DR conditions and another that disengages this capacitor. Taking the capacitor out of the readout path delivers less dynamic range but increases the conversion gain: boosting the signal for low light conditions.
This higher level of gain occurring right inside each pixel's circuit means the gain is applied very early in the process, before much read noise has crept in, which helps deliver a high ISO improvement over conventional designs.
Notably, though, you need to make the decision whether to run the pixel in its high or low gain state: you can't have both."
https://www.dpreview.com/articles/15700 ... es-it-work
Hier ist das originale Aptina-White Paper:
"This approach, called dynamic response pixel technology by Aptina, or AptinaTM DR-PixTM technology, entails controlled switching on and off of a capacitor connected to the pixel’s FD node (Figure 5). To perform this switching, one transistor, called the dual conversion gain (DCG) switch, is added to the pixel."
https://web.archive.org/web/20120505164 ... ePaper.pdf
EDIT:
Und hier noch ein Sensorhersteller, der "Dual Gain" im Sinne von zwei wählbaren (aber nicht simultanen) Gain-Stufen verwendet:
https://nighttime-imaging.eu/docs/maste ... _dualgain/
Natürlich zwei wählbare, aber beide mit Verstärkung. Deine Beschreibung oben meint, es gäbe ein Signal, was sozusagen unverstärkt von den Fotozellen eine Art natürlicher Output des Sensors wäre - nativ. Und die zweite Stufe ist dann nicht mehr so *nativ*. Es sind aber zwei in Hardware gegossenen Verstärkungen.
|
Antwort von cantsin:
dienstag_01 hat geschrieben:
Natürlich zwei wählbare, aber beide mit Verstärkung. Deine Beschreibung oben meint, es gäbe ein Signal, was sozusagen unverstärkt von den Fotozellen eine Art natürlicher Output des Sensors wäre - nativ.
Das lese ich jetzt zwar nicht aus meiner Formulierung 'raus, aber wahrscheinlich war die missverständlich.
Und die zweite Stufe ist dann nicht mehr so *nativ*. Es sind aber zwei in Hardware gegossenen Verstärkungen.
Ja. Aber nochmals: Die Bezeichnung "dual gain" wird von den Sensor- und Kameraherstellern selbst uneinheitlich gebraucht:
(a) für zwei ausschließlich getrennt bzw. alternativ wählbare Gain-Stufen ("Altair Dual Gain", Aptinas von Sony übernommene "dynamic response pixel technology" mit ihrem "dual conversion gain (DCG) switch" - und dementsprechend bei allen Kameras mit Sony-Sensoren von Panasonic, Nikon, Fuji, Pentax...);
(b) für zwei Gain-Stufen, die zu einem Signal vermischt werden (Canons "Dual Gain Output ", der wahrscheinlich auch hinter dem "Dynamic Range Boost" der Panasonic GH6 steckt, Arris "Dual Gain Architecture" im ALEV-Sensor der Alexa).
Man weiss also beim Wort "dual gain" nie, was exakt gemeint ist. Die FX30, um damit wieder on-topic zu werden, fällt unter (a), die - allerdings dreimal so teure - Canon C70 unter (b).
Antwort von dienstag_01:
cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Natürlich zwei wählbare, aber beide mit Verstärkung. Deine Beschreibung oben meint, es gäbe ein Signal, was sozusagen unverstärkt von den Fotozellen eine Art natürlicher Output des Sensors wäre - nativ.
Das lese ich jetzt zwar nicht aus meiner Formulierung 'raus, aber wahrscheinlich war die missverständlich.
Und die zweite Stufe ist dann nicht mehr so *nativ*. Es sind aber zwei in Hardware gegossenen Verstärkungen.
Ja. Aber nochmals: Die Bezeichnung "dual gain" wird von den Sensor- und Kameraherstellern selbst uneinheitlich gebraucht:
(a) für zwei ausschließlich getrennt bzw. alternativ wählbare Gain-Stufen ("Altair Dual Gain", Aptinas von Sony übernommene "dynamic response pixel technology" mit ihrem "dual conversion gain (DCG) switch" - und dementsprechend bei allen Kameras mit Sony-Sensoren von Panasonic, Nikon, Fuji, Pentax...);
(b) für zwei Gain-Stufen, die zu einem Signal vermischt werden (Canons "Dual Gain Output ", der wahrscheinlich auch hinter dem "Dynamic Range Boost" der Panasonic GH6 steckt, Arris "Dual Gain Architecture" im ALEV-Sensor der Alexa).
Man weiss also beim Wort "dual gain" nie, was exakt gemeint ist. Die FX30, um damit wieder on-topic zu werden, fällt unter (a), die - allerdings dreimal so teure - Canon C70 unter (b).
Vielleicht hatte ich dich wegen Verstärkung falsch verstanden.
(a) heißt bei Sony übrigens *Dual Base ISO*, hast du vergessen ;)
|
Antwort von klusterdegenerierung:
Nachdem Sony und gerade Slog hier lange Zeit belächelt oder verpönt war, scheinen immer mehr User an die neuen Cams gefallen zu finden, was aber auch nicht verwunderlich ist, denn schon mit der A6xxx Serie hat Sony einen guten Wurf gelandet und so scheinen auch die kleineren FXes eine sehr beliebte Serie zu werden bei der erstmals auch ein Slog3 für die breite Masse sinnvoll nutzbar gemacht wird.
Ich bin mir sicher, das sich Sony damit wieder einen guten Vorsprung erkaufen kann und so treffe auch ich immer mehr eingefleischte Canon Fotografen die mit leicht verschmitzem Gesicht zugestehen das sie sich der Technik und dem Objektivpark nicht mehr verwehren konnten. :-)
Antwort von cantsin:
klusterdegenerierung hat geschrieben:
Ich bin mir sicher, das sich Sony damit wieder einen guten Vorsprung erkaufen kann und so treffe auch ich immer mehr eingefleischte Canon Fotografen die mit leicht verschmitzem Gesicht zugestehen das sie sich der Technik und dem Objektivpark nicht mehr verwehren konnten. :-)
Ich würde jetzt gerne mal echte Praxiserfahrungsberichte lesen. Pferdefüße wie bei der Canon R7 sind bei der Kamera, wegen ihrer Positionierung im unteren Video-Profisegment und der weitgehenden Baugleichheit mit der FX3, kaum zu erwarten; aber trotzdem...
Ansonsten sehe ich im Preissegment zwischen 1500 und 2000 EUR z.Zt. auch keine ernsthafte Konkurrenz, es sei denn, man greift zu einer BM Pocket, weil man andere Prioritäten bzw. Einsatzgebiete (= Low Budget-Cinecamera statt Run-and-Gun) hat.
Antwort von pillepalle:
Ich find ja gut das die Kamera so kompakt ist. Das hat echte Vorteile am Set und die Kamerarigs sind wirklich winzig :)
VG
Antwort von Axel:
pillepalle hat geschrieben:
Ich find ja gut das die Kamera so kompakt ist. Das hat echte Vorteile am Set und die Kamerarigs sind wirklich winzig :)
Nein, die sind nicht winzig!
In meiner Vorschlagsleiste gestern: Chris Brockhurst, der die FX6 (mit den zwei wesentlichen Alleinstellungsmerkmalen Größe und eingebautem E-ND) mit der FX3 (mit den zwei wesentlichen Alleinstellungsmerkmalen Größe und IBIS) vergleicht:
Für reine "Handkamera", das heißt ohne den "run"-Aspekt von run&gun, benötigt man überhaupt kein Rig. Man benötigt auch keine Gyros Pita "mit alles", Active Steady Shot reicht.
Was die Nutzbarkeit des winzigen Displays (laut der englischsprachigen Sony-Specs-Seite "Approx. 2.36M dots", während meine A7S3 auf der deutschen Seite "1.440.000 Bildpunkte" hat. Sollten die die Auflösung fast verdoppelt haben? Ohne Trommelwirbel? Unwahrscheinlich.) betrifft, so habe ich meine Zweifel. Ja, der Monitor lässt sich ziemlich hell stellen, und ja, es gibt dieses:
zum Bild
... aber ich hatte Sunny Weather und den Dunkelschacht im kürzlich zuende gegangenen Jahrhundertsommer benutzt, war aber froh, den EVF mit größerer Augenmuschel zu haben.
Nun zum "run"-Teil. Ist ja wohl kloßbrühenklar, dass es kaum eine idealere (unzulässiger Komparativ, sagt der Sprachwart) Gimbalkamera gibt, oder? Was allerdings ein Irrtum wäre: wenn man denkt, dass der Body wesentlich leichter ist (646g bei der FX30 gegenüber 699g bei der A7S3). Aber die Objektive sind's. 11 mm, 15 mm, 10-20 mm (wenn man nur bei den neuen Sony APSCs bleiben will). Aber warum nicht 30,35,56 (oder das super kompakte FE-Objektiv 85mm f1.8)? Wie allein in diesem Thread schon öfter von mir erwähnt, sind Weitwinkel nicht das Problem von Vollformat, dafür sind Portraitbrennweiten der Vorteil für S35. Mit den erwähnten Linsen bliebe man unter der 1200g-Grenze für den kleinsten derzeit passenden Gimbal:
... und damit insgesamt unter 2 kg Handgewicht. Ist das der beste Gimbal? Nein, aber wohl der sinnvollste Griff, den man auch tatsächlich mitschleppt.
Antwort von Axel:
cantsin hat geschrieben:
Ah, in der Tat:
https://youtu.be/R_b2uCCjhfQ?t=571
Okay, jetzt kapier ich's endlich.
Schreckliche Grading-Beispiele! Das sieht alles voll gequält aus und richtig fies nach Video-Voodoo à la Sony classic.
Der Crafford-Kurzfilm ist mMn kinomatischer und/obwohl/weil er auch Rolling Shutter zeigt:
zum Bild
Quelle: FAZ
Außerdem in der Cine EI - Erklärung von Sony: "That's all there is to it ..."
Hm, die Metadaten zum Exposure Index und zur verwendeten Monitor-Lut werden "in kompatiblen Anwendungen" verstanden. Irgendwie schade, dass Resolve nicht dazu gehört.
Antwort von Mantas:
Axel hat geschrieben:
Außerdem in der Cine EI - Erklärung von Sony: "That's all there is to it ..."
Hm, die Metadaten zum Exposure Index und zur verwendeten Monitor-Lut werden "in kompatiblen Anwendungen" verstanden. Irgendwie schade, dass Resolve nicht dazu gehört.
auja, Adobe auch nicht. Es ist sooo lange auf dem Markt, FS7 meinst benutzte Kamera und die können es immer noch nicht...
Adobe kann nichtmal die Proxies der FX9 annehmen.
Antwort von roki100:
https://www.youtube.com/watch?time_cont ... =emb_title
https://ymcinema.com/2022/09/29/sony-fx ... artifacts/
Antwort von Darth Schneider:
Ich finde dieses Rolling Shutter Thema eigentlich so was von überbewertet..
Es ist halt unter Umständen ganz einfach keine geeignete Kamera um professionell, fürs Fernsehen Fussballspiele oder Autorennen aufzuzeichnen…
Und jetzt ?
Gruss Boris
Antwort von Axel:
Dieser Vergleich lässt mich meine A7S3 wieder höher schätzen und den Sinn einer FX30 als Zweitkamera anzweifeln:
Das Display der FX30 ist viel besser aufgelöst, und der IBIS (als Active Steady Shot) soll wegen des kleineren Sensors nochmal deutlich besser sein. Und was hat es mit Netflix-Akzeptanz auf sich?
Gar nichts, meiner Meinung nach. Erstens "produziere" ich nicht für Netflix, und zweitens ...
... ist das XAVC 10-bit SLog3, nur mit den nativen ISOs belichtet, von der einen so gut wie von der anderen Kamera, egal, ob das sicher praktische Cine EI verwendet wird.
Antwort von roki100:
Ich weiß, warum ich mich nicht für Sony entschieden habe (es war nicht nur eine Frage des Geldes bzw. überteuert nur wegen AF). Wie man sieht, sieht man, Sony "cine" wird nur deshalb als "cine" bezeichnet, weil sie keinen Sucher, ein paar Schraubgewinde und irw. mit Ei dazu hat. Und jetzt auch noch FX APS-C "cine" wo man denkt, der sensor ist kleiner, also sollte der Rolling Shutter zumindest um einiges besser sein als bei FF - im Gegenteil, man fragt sich, ob sie da nicht nur eine ältere A6*irgendwas" in FX3 Gehäuse verbaut haben... ähnlich wie Conan mit der R7 die wahrscheinlich nur eine M6 Mark II ist, mit nem anderen Mount, weil der alte quasi Tod ist, in Firmware ein paar freigeschaltete Funktionen usw. usf. Also quasi; schnell schnell schnell das alte schnell los werden, neue Gehäuse, andere Beschriftung... und in Firmware freigeschaltete Funktionen, bevor Herstellereigene-Prophezeiungen (Smartphones Kameras übernehmen) sich bald erfüllen.
Wenn ich dennoch ne A7SIII hätte, würde ich sie niemals gegen eine FX3, geschweige denn, gegen FX30 eintauschen, um nur das Gefühl zu haben, eine "Cine"-Cam in den Händen zu halten oder weil von Netflix zertifiziert.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Gar nichts, meiner Meinung nach. Erstens "produziere" ich nicht für Netflix, und zweitens ...
Den Dude kann man eh getrost ignorieren, der macht seit Jahren mit immer dem gleichen Standbildblödsinn und seinen alten 2 Großkunden einen auf dicke Hose.
Antwort von rush:
Wenn ich dennoch ne A7SIII hätte, würde ich sie niemals gegen eine FX3, geschweige denn, gegen FX30 eintauschen, um nur das Gefühl zu haben, eine "Cine"-Cam in den Händen zu halten oder weil von Netflix zertifiziert.
So ging es mir mit der Ankündigung der FX3 als auch FX30. Da besteht als Single Cam Nutzer für mich überhaupt kein Bedarf/Mehrwert bei einem der s.g. "Cine Modelle". Im Gegenteil, die Vorteile des Hybridshooters gehen eher flöten mangels Sucher und bei der FX30 zusätzlich aufgrund des fehlenden mechanischen Verschlusses.
Für mich käme entsprechend keine der beiden als alleinige Kamera in Betracht.
Als Ergänzung zu einer bestehenden A7S für schnelle Gimbal Umbauten oder als fest verbaute Lösung wäre es dagegen denkbar. Aber in diesen Szenarien bin ich persönlich eigentlich nicht unterwegs - daher darf die A7SIII selbstverständlich ohne neidisch zu werden gerne bleiben.
Eher würde ich aber wohl in Richtung A7IV schielen oder gucken was ein möglicher A6xxx Nachfolger so auf dem Kasten hat. Aber auch das nur ergänzend wenn da Bedarf bestünde - weniger als Ersatz zur 7SIII.
Antwort von cantsin:
rush hat geschrieben:
So ging es mir mit der Ankündigung der FX3 als auch FX30. Da besteht als Single Cam Nutzer für mich überhaupt kein Bedarf/Mehrwert bei einem der s.g. "Cine Modelle". Im Gegenteil, die Vorteile des Hybridshooters gehen eher flöten mangels Sucher und bei der FX30 zusätzlich aufgrund des fehlenden mechanischen Verschlusses.
Letzterer spricht auch eher dagegen, dass es eine Foto-/Hybridkameraversion der FX30 geben wird. Denn ohne mechanischen Shutter (und mit den offenbar relativ hohem rolling shutter des FX30-Sensors) könnte man die Kamera an Fotografen nicht verkaufen. Der Einbau eines mechanischen Verschlusses hingegen wäre AFAIK nicht trivial bzw. nicht einfach mal so als Bauvariante machbar.
Antwort von rush:
cantsin hat geschrieben:
Denn ohne mechanischen Shutter (und mit den offenbar relativ hohem rolling shutter des FX30-Sensors) könnte man die Kamera an Fotografen nicht verkaufen. Der Einbau eines mechanischen Verschlusses hingegen wäre AFAIK nicht trivial bzw. nicht einfach mal so als Bauvariante machbar.
Über letzteres habe ich mir noch gar keine Gedanken gemacht - interessanter Punkt.
Antwort von cantsin:
rush hat geschrieben:
cantsin hat geschrieben:
Denn ohne mechanischen Shutter (und mit den offenbar relativ hohem rolling shutter des FX30-Sensors) könnte man die Kamera an Fotografen nicht verkaufen. Der Einbau eines mechanischen Verschlusses hingegen wäre AFAIK nicht trivial bzw. nicht einfach mal so als Bauvariante machbar.
Über letzteres habe ich mir noch gar keine Gedanken gemacht - interessanter Punkt.
Wobei man annehmen kann, dass das Fehlen interner ND-Filter bei der FX30 eine Sparmaßnahme Sonys war (und vielleicht auch eine Schutzmaßnahme vor einer möglichen Kannibalisierung der FX3). Der Platz, der durch Weglassen des mechanischen Shutter eingespart wurde, hätte man sehr wahrscheinlich für einen internen ND-Filter verwenden können, zumal Sony mit dem elektronischen Vari-ND auch die passende Technologie dafür im Haus hat.
Am Preisunterschied zwischen der Blackmagic Pocket 6K G2 und Pocket 6K Pro sieht man ja, dass interne NDs nicht billig zu produzieren sind.
Antwort von Alex:
cantsin hat geschrieben:
Wobei man annehmen kann, dass das Fehlen interner ND-Filter bei der FX30 eine Sparmaßnahme Sonys war (und vielleicht auch eine Schutzmaßnahme vor einer möglichen Kannibalisierung der FX3). Der Platz, der durch Weglassen des mechanischen Shutter eingespart wurde, hätte man sehr wahrscheinlich für einen internen ND-Filter verwenden können, zumal Sony mit dem elektronischen Vari-ND auch die passende Technologie dafür im Haus hat.
Am Preisunterschied zwischen der Blackmagic Pocket 6K G2 und Pocket 6K Pro sieht man ja, dass interne NDs nicht billig zu produzieren sind.
IBIS+Internal (vari)ND, so weit sind wir (leider noch) nicht.
We have been told by Sony that it’s impossible to have IBIS in a camera with a built-in mechanical ND
https://www.cined.com/sony-fx6-review-f ... ct-camera/
Aber das geht bestimmt bald. In der nächsten Generation der FXen rechne ich damit. Vielleicht schon bei den MKIIs.
Antwort von rush:
Ich würde den eND vor Stabi bevorzugen - Gyro hätte man ja vermutlich trotzdem und wenn's richtig steady sein soll, kommt man eh kaum um einen Gimbal herum.
Antwort von roki100:
Ich denke, es kommt auf den Body IS an. Auf das, was ich bisher von Sony gesehen habe, würde ich mir stattdessen doch nen eND wünschen und auf Body-IS verzichten. Aber auf den Body IS von Panasonic zB. das nicht, da schraube ich lieber den guten Rodenstock VariND und gut is.
Antwort von cantsin:
https://www.youtube.com/watch?v=ONpiY-lnUTw
Rundum positives Fazit.
Antwort von Axel:
roki100 hat geschrieben:
Ich denke, es kommt auf den Body IS an. Auf das, was ich bisher von Sony gesehen habe, würde ich mir stattdessen doch nen eND wünschen und auf Body-IS verzichten. Aber auf den Body IS von Panasonic zB. das nicht, da schraube ich lieber den guten Rodenstock VariND und gut is.
So dachte ich auch. Mittlerweile möchte ich IBIS nicht mehr missen. Solange ich nicht flott gehe oder laufe, brauche ich bis 85 mm keinen Gimbal. Gut abgestützt geht das auch mit 200 mm. Der cage-lose Body (ich habe zwei Cages für die A7S3 und auch bereits diverse Rig-Lösungen, also nicht aus Mangel) liegt prima in meiner Hand. Ich wünschte ihn mir weder kleiner noch größer (weswegen ich u.a. auch den FX30-Body gut finde, der ähnlich ist). Wenn ich doch mal in einer Aufnahme gehen müsste, wäre das Handkamera-Ästhetik, kein schlimmes Zittern. Ansonsten: Stativ vorhanden, für run&gun kein Bedarf. Gyrostabilisierung gerne, falls dereinst gut unterstützt in Software, sonst aber nichts, weswegen man nochmal vor die Tür muss.
klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Gar nichts, meiner Meinung nach. Erstens "produziere" ich nicht für Netflix, und zweitens ...
Den Dude kann man eh getrost ignorieren, der macht seit Jahren mit immer dem gleichen Standbildblödsinn und seinen alten 2 Großkunden einen auf dicke Hose.
Ich finde seine Grades nicht schön. Was das Video schon zeigt, mMn, ist der "Gestaltungsspielraum" von XAVC 10-bit. Und dass die Farben in der Tat mittlerweile top sind.
Antwort von roki100:
Axel hat geschrieben:
klusterdegenerierung hat geschrieben:
Den Dude kann man eh getrost ignorieren, der macht seit Jahren mit immer dem gleichen Standbildblödsinn und seinen alten 2 Großkunden einen auf dicke Hose.
Ich finde seine Grades nicht schön. Was das Video schon zeigt, mMn, ist der "Gestaltungsspielraum" von XAVC 10-bit. Und dass die Farben in der Tat mittlerweile top sind.
Ich finde der Dude Qazi Waqasaki ist mM. einer der besten bei YouTube wenn es um colorgrading geht.
Antwort von klusterdegenerierung:
Was ihr in den ganzen A7SIV Vergleichen nicht vergessen dürft und meiner Meinung nach auch eines der wichtigsten und professionellsten Faktoren ist, ist der XAVC-I Codec.
Wenn ich richtig informiert bin, hat die A7S nur den XAVC-S Codec.
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
https://www.youtube.com/watch?v=ONpiY-lnUTw
Rundum positives Fazit.
Man muß aber echt mal sagen, zum piepen dieser Wunsch nach einer Fotofunktion (mechanic shutter) & EVF, denn bei der 6000er Serie hies es immer, es muß doch mal eine reine Film knipse ohne den ganzen Fotokram geben.
Nun gibt es genauso eine Cam und die Leute jammern wieder rum was sie alles vermissen und ich finde das voll albern, denn zum fotografieren kauft man sich halt einen Fotoapparat und nicht eine Cinema Cam, das tut auch schon ein bisschen weh in der Birne.
Antwort von cantsin:
klusterdegenerierung hat geschrieben:
Nun gibt es genauso eine Cam und die Leute jammern wieder rum was sie alles vermissen und ich finde das voll albern, denn zum fotografieren kauft man sich halt einen Fotoapparat und nicht eine Cinema Cam, das tut auch schon ein bisschen weh in der Birne.
Zumal eine Kombi von FX30 und Sony A7iv nur 100 EUR teurer ist als eine A7sIII, und man damit z.B. für Interviews, Reportage und auch Fotojobs ziemlich flexibel ausgerüstet ist und immer eine B-Cam dabeihat.
Antwort von rush:
klusterdegenerierung hat geschrieben:
Was ihr in den ganzen A7SIV Vergleichen nicht vergessen dürft und meiner Meinung nach auch eines der wichtigsten und professionellsten Faktoren ist, ist der XAVC-I Codec.
Wenn ich richtig informiert bin, hat die A7S nur den XAVC-S Codec.
Einerseits gibt es noch keine A7SIV - sondern wir stehen da noch bei der A7SIII. Du meintest wahrscheinlich die A7IV nehme ich an.
Beide (also A7SIII als auch A7IV) nutzen zwar den XAVC-S Codec - aber hinauf bis zu einer intra-frame Variante mit bis zu 600Mbps - viel mehr schreibt eine FX6 meines Wissens nach auch nicht Weg.
Tatsächlich ist es mir auch nicht ganz klar wo der Unterschied zwischen XAVC-I und XAVC-S-I im Detail liegt - letzterer ist bspw. für die A7SIII als auch A7IV spezifiziert - aber ebenso für die FX3 und die neue FX30.
Die meisten modernen NLE's können entsprechend auch die neueren XAVC-S-I Derivate problemlos verarbeiten - ob und wie groß die Unterschiede zum "älteren, bestehenden" XAVC-I sind ist schwer herauszulesen. Wenn da jemand belegbare Links hat - gern her damit.
@Kluster: keine Ahnung wer Deiner Meinung nach immer nach einer "video only 6xxxer" gerufen hat - der Wunsch vieler ist in meinen Augen eher das man endlich die 6xxxer Reihe auf 10Bit Niveau sehen wollte, also auf dem Level der Konkurrenz bzw. A7IV.
Was aber keineswegs bedeutet auf einen EVF oder mechanischen Verschluss verzichten zu wollen.
Eine reine Filmknipse wäre eine 10bit fähige FS5 III mit entsprechend videoorientierter Bedienung nebst eND gewesen - allerdings kam die bekanntlich nie weswegen der ein oder andere auf die FX6 geschwenkt ist - mit allen Vor, - als auch Nachteilen. Die FX30 empfinde ich nun nicht unbedingt als reinrassige Videokamera, auch wenn man sie so versucht im Markt zu positionieren.
Aber es spricht natürlich überhaupt nichts dagegen zwei dedizierte Kameras anzuschaffen wenn man das denn möchte. Ich persönlich mag für private Zwecke eine Kamera die beides kann um eben nicht zwei Bodys mitschleppen zu müssen. Im (Semi)profesionellen Umfeld mag das gewiss anders aussehen - darf man denke ich nicht ausblenden.
Antwort von MrMeeseeks:
@ cantsin
Die Sony a7s III gibt es aktuell mit einem Sigma 28-70mm + 300€ Speicherkarte + 100 Cashback für 4200€. Keine Ahnung wie da eine FX30 und eine A7 IV reinpassen sollen. Nicht für 100€ mehr und auch nicht für 1000€.
Antwort von cantsin:
MrMeeseeks hat geschrieben:
Die Sony a7s III gibt es aktuell mit einem Sigma 28-70mm + 300€ Speicherkarte + 100 Cashback für 4200€.
Wo denn? Selbst auf Preisvergleichs-Sites sehe ich da nur Angebote für 4200 für den nackten Body.
Antwort von MrMeeseeks:
cantsin hat geschrieben:
MrMeeseeks hat geschrieben:
Die Sony a7s III gibt es aktuell mit einem Sigma 28-70mm + 300€ Speicherkarte + 100 Cashback für 4200€.
Wo denn? Selbst auf Preisvergleichs-Sites sehe ich da nur Angebote für 4200 für den nackten Body.
https://www.foto-erhardt.de/kameras/vol ... ony-e.html
?•??•???
Antwort von rush:
Ergänzung: Habe ein Sony PDF zum XAVC Format-Jungle entdeckt...
Auf den ersten Blick sind die Unterschiede wohl primär darin zu sehen das XAVC-I neben MP4 auch MXF fähig ist und auch mit VBR (variabler Bitrate) sowie CBR (constant bitrate) arbeiten kann, während der "neuere" XAVC-S-I nur als MP4 mit VBR werkelt - also keine CBR ermöglicht.
Hier gibt es alle Details - zugegebenermaßen nicht unbedingt sehr übersichtlich und leider auch nicht kameraspezifisch.
https://assets.pro.sony.eu/Web/supportc ... ts_210.pdf
Antwort von klusterdegenerierung:
MrMeeseeks hat geschrieben:
@ cantsin
Die Sony a7s III gibt es aktuell mit einem Sigma 28-70mm + 300€ Speicherkarte + 100 Cashback für 4200€. Keine Ahnung wie da eine FX30 und eine A7 IV reinpassen sollen. Nicht für 100€ mehr und auch nicht für 1000€.
Naja, die beiden besagten Cams kosten zusammen ca. 4900 Tacken, das ist zwar etwas mehr, aber dafür hast Du eben auch 2 Cams, kann ja so schwer nicht sein. ;-)
Antwort von klusterdegenerierung:
rush hat geschrieben:
Wenn ich richtig informiert bin, hat die A7S nur den XAVC-S Codec.
Puuuuh ja war klar. Nein ich meinte natürlich die SIII, gähn.
Antwort von roki100:
klusterdegenerierung hat geschrieben:
Man muß aber echt mal sagen, zum piepen dieser Wunsch nach einer Fotofunktion (mechanic shutter) & EVF, denn bei der 6000er Serie hies es immer, es muß doch mal eine reine Film knipse ohne den ganzen Fotokram geben.
Und das verstehe ich nicht. Gerade EVF ist doch auch toll fürs Filmen. Woher kommt der Wunsch "cine" ohne EFV auszustatten? Konnte nirgends etwas finden, außer das Gegenteile.
Antwort von rush:
klusterdegenerierung hat geschrieben:
Puuuuh ja war klar. Nein ich meinte natürlich die SIII, gähn.
Ich wollte nur darauf hinweisen das sowohl die A7IV als auch A7SIII beide XAVC-S-I unterstützen.
Und du hast Dein Zitat fälschlicherweise mir zugeordnet ;-)
Antwort von cantsin:
klusterdegenerierung hat geschrieben:
MrMeeseeks hat geschrieben:
@ cantsin
Die Sony a7s III gibt es aktuell mit einem Sigma 28-70mm + 300€ Speicherkarte + 100 Cashback für 4200€. Keine Ahnung wie da eine FX30 und eine A7 IV reinpassen sollen. Nicht für 100€ mehr und auch nicht für 1000€.
Naja, die beiden besagten Cams kosten zusammen ca. 4900 Tacken, das ist zwar etwas mehr, aber dafür hast Du eben auch 2 Cams, kann ja so schwer nicht sein. ;-)
Hatte irgendwie - wohl irrig - im Kopf, dass die FX30 1800 kosten sollte...
Antwort von roki100:
cantsin hat geschrieben:
Hatte irgendwie - wohl irrig - im Kopf, dass die FX30 1800 kosten sollte...
ja, $1800 habe ich auch irgendwo gelesen.
Antwort von rush:
Hatte irgendwie - wohl irrig - im Kopf, dass die FX30 1800 kosten sollte...
Netto kommt das ja auch knapp hin, da wären es dann 1.931,93€
Aber der Vergleichbarkeit wegen finde ich Bruttopreise eigentlich auch irgendwie sinnvoller.
Antwort von Darth Schneider:
Also bei uns ist die FX30 leider noch 400 weg von 1800.
Ich denke das bleibt vorerst sicher auch so.
Und natürlich sind Bruttopreise sinnvoller…
Ach ja, und mit dem Handgriff kostet sie dann im Moment sogar 2800.. https://www.galaxus.ch/de/s1/product/so ... a-22502960
Gruss Boris
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Was ihr in den ganzen A7SIV Vergleichen nicht vergessen dürft und meiner Meinung nach auch eines der wichtigsten und professionellsten Faktoren ist, ist der XAVC-I Codec.
Wenn ich richtig informiert bin, hat die A7S nur den XAVC-S Codec.
Nein, die hat den I auch. Dafür braucht sie bei 100/120p und 200/240p dann die CFast-Karte, alles andere geht mit V30-V90 (letzteres 50/60p XAVC-I-4k).
Ich wollte dich als Besitzer der FX6 sowieso was fragen: hat die eigentlich dieses Entweder-Oder von Pal und NTSC? Finde ich nämlich so lächerlich bei der A7S3. Wenn du nicht die komplette Zeitzone verstellst, wirst du beim Einschalten immer mit "Running on NTSC" begrüsst. Und man kann halt nicht von 25 auf 30 umschalten, so mal eben.
Solange man übrigens kein Rauschen mit aufnimmt, ist der Unterschied zwischen S (Long Gop), I (Intraframe) und HS (H.265) nur für die verstocktesten Pixelpeeper sichtbar. Das ist, solange man 10-bit schießt (HEVC sowieso nur 10-bit, dafür in "PAL" erst ab 50p, dooferweise). Peter Lindgren wurde bei einem Studiobesuch bei Gerald Undone von diesem dabei "ertappt", den 8-bit S eingestellt zu haben. Der antwortete, ach für normales Vlogging sieht kein Schwein einen Unterschied.
Antwort von klusterdegenerierung:
Moin Axel, mir gings auch vorrangig mehr um den workflo, denn das Intra läuft wie Butter, während das long gop ähnlich mau wie das h265 der Mavic läuft, das ist wirklich ein enormer Unterschied.
Diese unsägliche NTSC Nummer hat sie gottseidank nicht, man schaltet halt einfach durch und wenn man in eine andere Grundfrequenz kommt meldet sich die Cam einfach kurz ab und wieder an, mehr nicht.
Was mich aber immer noch wirklich umtreibt und ich hoffe das es dazu mal ein update geben kann ist, das man S35 nur in einer relativ mageren FHD bekommt, das muß doch durch sampling und Co sicherlich irgendwie so gehen, das es am Ende nutzbar ist, aber S35 Mode mit schluffigen FHD braucht man doch eigentlich nicht implementieren, das nutzt doch niemand. :-(
Antwort von cantsin:
klusterdegenerierung hat geschrieben:
Was mich aber immer noch wirklich umtreibt und ich hoffe das es dazu mal ein update geben kann ist, das man S35 nur in einer relativ mageren FHD bekommt, das muß doch durch sampling und Co sicherlich irgendwie so gehen, das es am Ende nutzbar ist, aber S35 Mode mit schluffigen FHD braucht man doch eigentlich nicht implementieren, das nutzt doch niemand. :-(
Da die FX6 einen nativen 4,2K-Sensor hat, würdest maximal 2,8K in S35 kriegen...
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Was mich aber immer noch wirklich umtreibt und ich hoffe das es dazu mal ein update geben kann ist, das man S35 nur in einer relativ mageren FHD bekommt, das muß doch durch sampling und Co sicherlich irgendwie so gehen, das es am Ende nutzbar ist, aber S35 Mode mit schluffigen FHD braucht man doch eigentlich nicht implementieren, das nutzt doch niemand. :-(
Wenn es nur darum geht, APSC-Linsen a.k.a. Sony E überhaupt zu verwenden - und da kämen bei mir wegen der handlichen Größe immerhin 3 in Betracht - , dann ist die Lösung banal (Timestamp):
https://youtu.be/9lC13oqBw08?t=319
Clear Image Zoom ist narrensicher. Das Sigma ART 19mm (winziges Objektiv) benötigt nur einen 1,1 x Zoom (bei deaktiviertem OIS), ich habe also mit 21 mm ein mega kompaktes UWW. Zum Beispiel. Bekannt ist ja auch, dass das 10-18mm 1,3-fach eingezoomt werden muss und damit zum winzigsten 13 mm wird. Keine Auflösungsverluste durch CIZ (im 4k-Modus ist CIZ aber auf 1,5 x beschränkt, in HD werden's wieder 2 x).
Wenn es dagegen darum geht, genau das als Vorteil zu sehen, den Crop im S35-Modus, um etwa den von mir erwähnten 315 mm - Winkel mit (1,5 x 2) dem kompakten 105er zu kriegen, dann heißt das, wie du sagst, HD (mit der FX30 wäre das in 4k möglich).
Allerdings ist die Lösung für Resolve-Nutzer ebenfalls banal. Bevor ich in "Delivery" gehe, wähle ich alle 1080-Clips gemeinsam aus und wähle per Rechtsclick >Clip Attributes >Super Scale. Ich mache das erst am Schluss, weil sonst das Playback zäh wird.
Zur Erklärung: ja, 1080 ist natürlich schlechter aufgelöst als 2160. Wirklich doof wird das allerdings nur mit Rauschen. Das aber haben wir ja mit den bekannten Methoden glücklich eliminiert. Zweitens ist die ganze Ästhetik von Tele nicht auf allzu feines Motivdetail ausgerichtet. Der Zoom ist ja schon die Konzentration auf das Detail, die Vergrößerung. Ich behaupte, dass keiner den Unterschied sehen könnte, selbst wenn man ihn zum kritischen Blick auffordern würde.
Antwort von klusterdegenerierung:
cantsin hat geschrieben:
klusterdegenerierung hat geschrieben:
Was mich aber immer noch wirklich umtreibt und ich hoffe das es dazu mal ein update geben kann ist, das man S35 nur in einer relativ mageren FHD bekommt, das muß doch durch sampling und Co sicherlich irgendwie so gehen, das es am Ende nutzbar ist, aber S35 Mode mit schluffigen FHD braucht man doch eigentlich nicht implementieren, das nutzt doch niemand. :-(
Da die FX6 einen nativen 4,2K-Sensor hat, würdest maximal 2,8K in S35 kriegen...
Immerhin, wäre ja schon eoin schnuff besser.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
klusterdegenerierung hat geschrieben:
Was mich aber immer noch wirklich umtreibt und ich hoffe das es dazu mal ein update geben kann ist, das man S35 nur in einer relativ mageren FHD bekommt, das muß doch durch sampling und Co sicherlich irgendwie so gehen, das es am Ende nutzbar ist, aber S35 Mode mit schluffigen FHD braucht man doch eigentlich nicht implementieren, das nutzt doch niemand. :-(
Wenn es nur darum geht, APSC-Linsen a.k.a. Sony E überhaupt zu verwenden - und da kämen bei mir wegen der handlichen Größe immerhin 3 in Betracht - , dann ist die Lösung banal (Timestamp):
Clear Image Zoom ist narrensicher. Das Sigma ART 19mm (winziges Objektiv) benötigt nur einen 1,1 x Zoom (bei deaktiviertem OIS), ich habe also mit 21 mm ein mega kompaktes UWW. Zum Beispiel. Bekannt ist ja auch, dass das 10-18mm 1,3-fach eingezoomt werden muss und damit zum winzigsten 13 mm wird. Keine Auflösungsverluste durch CIZ (im 4k-Modus ist CIZ aber auf 1,5 x beschränkt, in HD werden's wieder 2 x).
Wenn es dagegen darum geht, genau das als Vorteil zu sehen, den Crop im S35-Modus, um etwa den von mir erwähnten 315 mm - Winkel mit (1,5 x 2) dem kompakten 105er zu kriegen, dann heißt das, wie du sagst, HD (mit der FX30 wäre das in 4k möglich).
Allerdings ist die Lösung für Resolve-Nutzer ebenfalls banal. Bevor ich in "Delivery" gehe, wähle ich alle 1080-Clips gemeinsam aus und wähle per Rechtsclick >Clip Attributes >Super Scale. Ich mache das erst am Schluss, weil sonst das Playback zäh wird.
Zur Erklärung: ja, 1080 ist natürlich schlechter aufgelöst als 2160. Wirklich doof wird das allerdings nur mit Rauschen. Das aber haben wir ja mit den bekannten Methoden glücklich eliminiert. Zweitens ist die ganze Ästhetik von Tele nicht auf allzu feines Motivdetail ausgerichtet. Der Zoom ist ja schon die Konzentration auf das Detail, die Vergrößerung. Ich behaupte, dass keiner den Unterschied sehen könnte, selbst wenn man ihn zum kritischen Blick auffordern würde.
Ja, guter workaround, allerdings gillt es hier zu überprüfen ob sich das genauso wie das zoomen mit der Wippe auf die Gyrofunktion auswirkt, denn nutzt man die Zoomfunktion, hat man kein Gyro mehr und das wäre für mich der killer, denn Gyro (und ND) sind für mich DIE unique benefits dieser Cam, die ich nicht missen möchte, was die Nutzung meiner Cine Primes in dieser Hinsicht unmöglich macht, da Gyros und Zaziki ja nur von Elektronischen Linsen unterstützt wird.
Das upskalen von lausigen FHD erspare ich mir, zumal mein Rechner dann immer in die knie geht und ein graden damit kein Spaß ist.
|
Antwort von roki100:
klusterdegenerierung hat geschrieben:
Das upskalen von lausigen FHD erspare ich mir, zumal mein Rechner dann immer in die knie geht und ein graden damit kein Spaß ist.
Wieso das? Wie machst Du Upscale?
Ich mache zuerst alles in FHD Timeline...und wenn alles fertig ist, ändere ich Timeline auf UHD, aktiviere für die FHD-Clips SuperScale x2 und dann export.
Antwort von klusterdegenerierung:
Klar, aber lausiges FHD Material wird durch supercale auch nicht qualitativer, nur das Du den Matsch noch größer siehst!
Ich brauche ja 4k nicht zum ausgeben, sondern zum reframen!
Zoome mal 150% in mieses FHD und scale auf 200%, lecker.
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Ja, guter workaround, allerdings gillt es hier zu überprüfen ob sich das genauso wie das zoomen mit der Wippe auf die Gyrofunktion auswirkt, denn nutzt man die Zoomfunktion, hat man kein Gyro mehr und das wäre für mich der killer, denn Gyro (und ND) sind für mich DIE unique benefits dieser Cam, die ich nicht missen möchte, was die Nutzung meiner Cine Primes in dieser Hinsicht unmöglich macht, da Gyros und Zaziki ja nur von Elektronischen Linsen unterstützt wird.
Wie roki schreibt: das Upscalen ist so mega einfach, dass es Leisurearound heißen könnte. Aber es kommt ja eh nur für angelegentlichen Crop in Betracht.
Was jetzt das Sich-gegenseitige-Ausschließen von Gyro und CIZ betrifft, das könnte sich auch von allein erledigen. Denn auch bei Gyro zoomst du ja ein, und du keyframst ja nicht die Zoomstufe, sondern behältst, wie viel?, mindestens 90% durchgehend bei. Bei diesem moderaten Wert gibt es ja mE keinen Unterschied zwischen Active Steady Shot (1,1 x) und Gyro. Um insgesamt eine Bewegungsglättung zu erhalten, die den Namen verdient, werden sich wohl Crop durch Einzoomen in post und Crop durch Vignette irgendwo treffen.
A propos Vignette. Brandon Li hat hier auch gelegentlich den CIZ vergessen. Stört's?
klusterdegenerierung hat geschrieben:
Klar, aber lausiges FHD Material wird durch supercale auch nicht qualitativer, nur das Du den Matsch noch größer siehst!
Ich brauche ja 4k nicht zum ausgeben, sondern zum reframen!
Zoome mal 150% in mieses FHD und scale auf 200%, lecker.
Hat die FX6 mieses 1080? Wusste ich nicht. Gyros und Zaziki und Bifteki? Wusste nicht, dass das bekömmlich ist. Aber wenn das dein MO ist, dann klar: FX30.
Antwort von rush:
klusterdegenerierung hat geschrieben:
mir gings auch vorrangig mehr um den workflo, denn das Intra läuft wie Butter, während das long gop ähnlich mau wie das h265 der Mavic läuft, das ist wirklich ein enormer Unterschied.
Wie gesagt: auch die Modelle A7IV, A7SIII sowie FX3 und FX30 bringen einen Intra Frame Codec mit und flutschen entsprechend "wie Butter". Nur kommen sie eben nicht als MXF's aus der Kamera, sondern ausschließlich im MP4 Container verpackt.
Und auch das HEVC aka h.265 10bit 422 Gop Material ist z.B. am M1 Air überhaupt kein Hindernis. Im Gegenteil, über's WiFi angebundene NAS hat man sogar noch geringere Dateigrößen zu transportieren während der M1 die Clips bereits auf Hardwarebene dekodiert und ebenso flüssig abspielt.
Erst bei HFR (100fps @4k) oder mehreren Layern wird es dann ggfs. etwas zäher im Playback.... Das wie gesagt am Einstiegs M1er. Am Pro, Max und Ultra sowie M2 dürfte das nochmals entspannter sein.
Irgendwie sind das Argumente wie seinerzeit mit AVCHD... Was wurde da gemeckert. Unterstützte dagegen Soft als auch Hardware (etwa via QuickSync) den Codec - lief auch das like Charme während der "Rest der Welt" noch Intermediates erzeugte.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Wie roki schreibt: das Upscalen ist so mega einfach, dass es Leisurearound heißen könnte. Aber es kommt ja eh nur für angelegentlichen Crop in Betracht.
Was jetzt das Sich-gegenseitige-Ausschließen von Gyro und CIZ betrifft, das könnte sich auch von allein erledigen. Denn auch bei Gyro zoomst du ja ein, und du keyframst ja nicht die Zoomstufe, sondern behältst, wie viel?, mindestens 90% durchgehend bei. Bei diesem moderaten Wert gibt es ja mE keinen Unterschied zwischen Active Steady Shot (1,1 x) und Gyro. Um insgesamt eine Bewegungsglättung zu erhalten, die den Namen verdient, werden sich wohl Crop durch Einzoomen in post und Crop durch Vignette irgendwo treffen.
A propos Vignette. Brandon Li hat hier auch gelegentlich den CIZ vergessen. Stört's?
klusterdegenerierung hat geschrieben:
Klar, aber lausiges FHD Material wird durch supercale auch nicht qualitativer, nur das Du den Matsch noch größer siehst!
Ich brauche ja 4k nicht zum ausgeben, sondern zum reframen!
Zoome mal 150% in mieses FHD und scale auf 200%, lecker.
Hat die FX6 mieses 1080? Wusste ich nicht. Gyros und Zaziki und Bifteki? Wusste nicht, dass das bekömmlich ist. Aber wenn das dein MO ist, dann klar: FX30.
Das mit dem zoomfaktor und Gyro verstehe ich nicht, denn das eine hat ja nur bedingt was mit dem anderen zu tun und wenn man kein Gyro mehr nutzten kann, nützt einen der zoomfaktor auch nix mehr, denn nix ist so mies und unbedeutend wie der Resolve Stabi,da kann ich auch ein nasses Handtuch in die Ecke werfen, nutzt genauso viel.
Für mich ist die Gyro Funktion der heilige Gral, denn mitlerweile nutze ich bei meinen Hoverboard Fahrten nicht mal mehr den Ronin, weil der Gyro Ausgleich sooo gut ist, das ich aus der Hand filmen kann und hinterher alles aalglatt wird. Das schafft kein Stabi, auch PP nicht.
Wenn ich das nicht mehr nutzen kann, zieht das in meinem Workflow einen riesen Rattenschwanz nach sich.
|
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Das mit dem zoomfaktor und Gyro verstehe ich nicht, denn das eine hat ja nur bedingt was mit dem anderen zu tun und wenn man kein Gyro mehr nutzten kann, nützt einen der zoomfaktor auch nix mehr, denn nix ist so mies und unbedeutend wie der Resolve Stabi,da kann ich auch ein nasses Handtuch in die Ecke werfen, nutzt genauso viel.
Klärungsbedarf. Ich verstehe nichts von dem, was du hier schreibst. Ich erkläre meine Seite. Die Gyrodaten, die unsere Kameras als Metadaten speichern, beschreiben ja die x,y,z - Bewegung der Kamera im Raum über die Zeit. Was Catalyst/Prepare tun ist, diesen Bewegungspfad zu glätten.
Der Unterschied zu Resolve oder meinetwegen dem Verkrümmungsstabilisator von Adobe ist, dass die Bewegung nicht mehr trigonometrisch getrackt werden muss mit falschen Daten aufgrund für solids verkannter fluids, sondern dass es zuverlässige und exakte Daten sind. Aber beide müssen umso stärker croppen (um den Flatterrand zu eliminieren), je stärker die Glättung ist.
Da die FX6 keinen Active Steady Shot hat ...
... musst du also als Ersatz Gyro nehmen. Der ist allerdings erst ab einem höheren Cropwert effektiver als IBIS, und zwar einem so hohen, dass damit die E-Mount-Vignette i.d.R. ganz nebenbei mit weggezoomt wurde.
Mit der FX30 könntest du sowohl IBIS mit APSC-Objektiven und 4k und Gyro benutzen. Gyro und Active Steady Shot schließen sich nämlich nicht aus (wie ein anfängliches Gerücht besagte). Und IBIS der FX30 ist besser wegen des kleineren Sensors, der sich mehr bewegen kann im Gehäuse.
Antwort von klusterdegenerierung:
Hallo Axel, ich versteh null von dem was Du da schreibst, scheinbar reden wir massiv aneinander vorbei! :-)
Klar braucht man zum stabilisieren generel einen crop bzw ein zoomin, aber all das hat erstmal nix mit der Bereitstellung bzw der Verfügung von Gyrodaten zutun.
Die FX6 stellt "nur" Gyrodaten bei der Verwendung von elektronischen Objektiven bereit und ebenso bei der "nicht" verwendung von "zoomaktivitäten" wie zb. zoomen selbst bzw clear Image zoom etc. Das heißt habe in Catalyst Browse keine Stabilisierung mehr, wenn ich zoome oder mit manuellen Optiken arbeite!
Das CB bei der Verwendung von Gyro übergebührend cropt, ist quark, das stimmt nicht und kommt sowieso auf die Wackelstärke an, aber für gewöhlich sind es nur ein paar % die man weniger hat, das ist nicht mehr als bei Resolve, nur dass das Ergebnis 1000x besser ist.
Was Du jetzt widerum in meinen Posts nicht verstanden hast, würde mich schon interessieren! :-)
Edit, der Typ in Deinem Video hat echt null Ahnung, denn das Ibis oder OIS ist Welten von der Gyro Stabilisierung entfernt und warum der Typ es nicht schafft seine wedding in CB ruhig zu bekommen ist vermutlich auf unkenntnis zurückzuführen, schade nur das so Leute dies auch noch in Welt posaunen und jeder denkt die FX6 sei so crappi, was sie nicht ist, der Kai hat einfach nur keine Ahnung wie man mit der Cam arbeitet!
Antwort von Axel:
Okay, wie auch immer. Jedenfalls kommen wir zu demselben Schluss. Nämlich, dass für S35 die FX30 besser ist. Was ja logisch ist.
Antwort von klusterdegenerierung:
Axel hat geschrieben:
Okay, wie auch immer. Jedenfalls kommen wir zu demselben Schluss. Nämlich, dass für S35 die FX30 besser ist. Was ja logisch ist.
Nö garnicht, versteh den Zusammenhang jetzt auch garnicht, weil das eine mit dem anderen nix zutun hat und schade das Du Dir nicht die Zeit nimmst zu erklären was Du eigentlich meinst bzw bei mir nicht verstehst.
Ich habe mir gerade die Mühe gemacht und habe per screenrecording ein extremes Beispiel durchgespielt, bei dem der crop bei gerademal 15% liegt.
Natürlich ist dies ein extremes Beispiel wo das Material total verwackelt ist, aber man sieht die Stärke von Gyro, denn das hätte man mit Resolve garnicht in den Griff bekommen und mit 15% schon mal garnicht.
Auch gut abzulesen an diesem Beispiel, das man bei normalen wacklern mit Gyro auf absolut ruhigen Material kommt und das nenne ich kein Manko der FX6, sondern eine Stärke, auch der neuen Cinema Line, denn meine anderen Sonys können das leider nicht und nochmal, warum der Dude Probleme bei der wedding hat, keine Ahnung!
Antwort von klusterdegenerierung:
Hier noch mal ein extremes Beispiel mit 20%, was man so gut mit keinem Stabi hinbekommen würde.
Die Prozentzahl kann man natürlich auch von Hand reduzieren oder erhöhen wenn einem die Auflösung wichtiger als Stabi ist.
Antwort von klusterdegenerierung:
Was vielleicht einige auch bei der Verwendung von der Gyro Stabilisierung ind CB übersehen und auf falsche bzw unbefriedigende Schlüße kommen ist, das wenn ein Clip auch nur einen heftigen Wackler enthält, CB die Cropgröße bzw Stärke anhand dieses Wacklers ausrichtet und der User dann vielleicht denkt, ups, das ist mir aber viel zu viel Crop und kann man ja total vergesenn, aber es ist ja so, das man diesen Wackler durch in and outpoint übergehen kann und der Rest des clips mit wenig Crop stabilisiert werden kann.
Bei Resolve kann man dies nur in dem man diesen Wackler aus dem Clip schneidet und den Teil neu stabilisiert, übersehen vielleicht einige und machen das Gyro zu unrecht Schlecht. ;-)
Antwort von rush:
Das was Axel wahrscheinlich meint: die FX30 oder auch FX3/A7SIII bietet neben Gyro zusätzlich noch IBIS (Active) - man kann also bei Bedarf beides kombinieren. Das geht so an der FX6 nicht aufgrund des verbauten eND's.
Da außer dem tanzenden Boris und Dir vermutlich nicht unbedingt jeder sicher und elegant auf dem Segway/Hoverboard steht - kann IBIS schon auch ergänzend hilfreich sein...
Antwort von Axel:
klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Okay, wie auch immer. Jedenfalls kommen wir zu demselben Schluss. Nämlich, dass für S35 die FX30 besser ist. Was ja logisch ist.
Nö garnicht, versteh den Zusammenhang jetzt auch garnicht, weil das eine mit dem anderen nix zutun hat und schade das Du Dir nicht die Zeit nimmst zu erklären was Du eigentlich meinst bzw bei mir nicht verstehst.
Ich habe mir gerade die Mühe gemacht und habe per screenrecording ein extremes Beispiel durchgespielt, bei dem der crop bei gerademal 15% liegt.
Natürlich ist dies ein extremes Beispiel wo das Material total verwackelt ist, aber man sieht die Stärke von Gyro, denn das hätte man mit Resolve garnicht in den Griff bekommen und mit 15% schon mal garnicht.
Danke für deine Beispielclips. Das kannst du mir jetzt glauben oder nicht, aber links sieht aus wie ohne Stabilisierung, rechts wie Active Steady Shot. Dafür würd ich nie auf die Idee kommen, Clips in Catalyst zu laden.
Ein Mißverständnis von damals rührte wohl daher, dass Catalyst-Exporte im MFX-Format (was die kleineren Kameras nicht können) in 10-bit blieben (ist das so?), in MP4 aber zu 8-bit wurden (was du nicht glaubtest, was ich aber seinerzeit leicht testen konnte, da es genügend Himmel in meinen Aufnahmen gab). Also schrieb ich, das lässt das Fass überlaufen, adieu Gyro. Ich schrieb nie, dass Gyro schlecht sei. Von Anfang an testete ich das auch. Ca. 1 Monat, nachdem ich die A7S3 hatte, kam dieses Tut raus:
EDIT: mit einer späteren Firmware oder Catalyst-Version, weiß nicht mehr was, war IBIS und Gyro gleichzeitig möglich.
... was mich noch mehr flashte als die früheren von Brandon Li, der allerdings Gyro eher als Sahnehäubchen auf einem Gimbalshot sah. Ich habe bewusst den kleinsten praktikablen Gimbal gewählt und benutze den oft.
Ein zweites Mißverständnis provozierte ich vielleicht dadurch, dass ich zweimal oben Sirui-Anamorphoten verlinkt habe. Das tat ich nicht, um nicht-elektronische Objektive zu pushen, die, das weiß ich, keine Gyrodaten erlauben. Ich tat es, um den absolut auflösungsneutralen Clear Image Zoom aufzuzeigen.
klusterdegenerierung hat geschrieben:
... dass wenn ein Clip auch nur einen heftigen Wackler enthält, CB die Cropgröße bzw Stärke anhand dieses Wacklers ausrichtet und der User dann vielleicht denkt, ups, das ist mir aber viel zu viel Crop und kann man ja total vergesenn, aber es ist ja so, das man diesen Wackler durch in and outpoint übergehen kann und der Rest des clips mit wenig Crop stabilisiert werden kann.
Das wusste ich nicht, guter Tip. Vielleicht werde ich auch mal in den sauren Apfel beißen und Prepare abonnieren, dafür wird das ja wohl auch gelten.
Zwei Sachen könntest du noch aufklären:
1. Wozu bräuchtest du einen S35-Modus?
2. Warum zwingt man dich, nochmals 1,5 x reinzucroppen?
Antwort von klusterdegenerierung:
S35 hätte ich gerne nativ, weil es einen anderen look hat als rein croppen, das kann ich auch in der post.
Das mit den 1,5x meinte ich in Bezug auf wenn ich 4K Ausgangsmaterial habe und 2K Ausgabe, ich prima ohne Verlußte min 1,5x reincroppen kann ohne Verlußte zu erleiden.
Mache ich dies bei magerem FHD, also da 1,5x reincroppen und dann noch 2x superscalen, naj, macht das Endergebnis nicht besonders nice, besonders wenn man noch denoised etc.
Antwort von Mantas:
Wenn es da nur die richtige Kamera gäbe :)
Antwort von Jott:
Die A7 IV ist umschaltbar. Passiert sogar automatisch, wenn die Kamera eine APS-C-Optik erkennt.
War ein Kaufgrund.
Antwort von klusterdegenerierung:
Ich fand das bei meiner A7III immer als Kündigungsgrund, da ich sie nur zum knipsen nutze und es Anfangs dann vorkam das ich nur 12MP Raws auf der Karte hatte. Ganz schnell abgestellt das auto feature und für Fotos eh nicht so toll.