Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Infoseite // AG-DOK 11-Kamera Vergleich: Amira, VariCam LT, BMD Ursa 4.6K, FS7, C300 MKI



Newsmeldung von slashCAM:





Die renommierte https://www.agdok.de (AG-DOK) (Arbeitsgemeinschaft Dokumentarfilm) hat einen aufwendigen Vergleichstest elf aktueller Kameras veröffentlicht. In möglichst praxisnahen Szenarios wurden Blackmagic Design Ursa Mini 4.6k, Panasonic VariCam LT, Arri Amira, Sony FS7, Canon C300 II, RED Raven, u.a. miteinander verglichen.



Hier geht es zum slashCAM Artikel:
News: AG-DOK 11-Kamera Vergleich: Amira, VariCam LT, BMD Ursa 4.6K, FS7, C300 MKII, RED Raven u.v.a.


Space


Antwort von iasi:

schwierig - also ich erkenne vor allem die unterschiedliche Sensorgröße und sich daraus ergebende unterschiedliche Schärfentiefe.
Und bei der Gegenüberstellung sehe ich z.B. bei 0:28, dass der Fokus unterschiedlich liegt. Aber ansonsten sieht"s alles ziemlich gleich aus und ließe sich wohl dann auch in der Post völlig angleichen.

Vielleicht sind ja im Text die interessanten Unterschiede er Kameras zu finden - eben was den Einsatz betrifft. Handling, Stromhunger, Lautstärke und und und

Space


Antwort von Borke:

Überhaupt nicht schwierig. Bei starker Überbelichtung mini URSA fixed pattern noise, Raven rauscht ohne Ende, FS7 schwach. Überraschend gut dagegen die a6300(!)

Space


Antwort von iasi:

Überhaupt nicht schwierig. Bei starker Überbelichtung mini URSA fixed pattern noise, Raven rauscht ohne Ende, FS7 schwach. Überraschend gut dagegen die a6300(!) bei Überbelichtung?
so so

Bei der a6300 brennen die Lichter aber zünftig aus - wird ja der reinste Fleckenteppich im Hintergrund.

Nebenbei: Beim Raven hast du keine NR - bei vielen anderen Cams aber eben schon.

Wenn"s dunkel ist, spielt die VariCam ihren Dual-ISO-Joker - das wundert mich nun nicht sonderlich.

Space


Antwort von klusterdegenerierung:

Sicher brennen die bei Überbelichtung aus, wäre ja komisch wenn nicht, aber dafür hab ich nicht sone fiese klusterdegenerierung wie bei der Raven und Amira! :-))
Also ich war auch überrascht wie gut die C300II und a6300 bei +4Stops abgeschnitten haben!
Aber ich fand sowieso das die a6300 der Amira & der Varicam am ähnlichsten war! ;-)))

Was mir allerdings ein Rätsel ist, ist das die bei einigen Cam native iso plus Zeit verwendet haben und bei anderen höhere Iso verwendet haben!
Ist ja dann eigentlich kein guter Vergleich oder?

Space


Antwort von raketenforscher:

Mir ist kein Unterschied zwischen ETTR- und korrekter Belichtung aufgefallen. Oder wurde das Bild der ETTR-Belichtung in der post korrigiert?

Schade, dass die GH4 bzw. die GH5 nicht einbezogen wurde.

Die URSA Mini 4.6K hat einen wahnsinnigen Grünstich. Zumindest auf meinem Monitor.

Die Sony a6X00-Serie schneiden ganz gut ab.

Space


Antwort von klusterdegenerierung:

IM Fazit auf der Dok Seite haben sie sich aber bzgl. der a6300 mächtig einen Zacken aus der Krone gebrochen und nur ihre Nachteile wiedergekaut was man im Netz so liest! Dabei waren sie doch selbst beim Test dabei und konnten sich von vielen positiven Fakten bereichern lassen.

Genauso albern ist der Aliasing Test wo alle bis auf die Sony sauber vom Stativ geführt werden und mit der a6300 aus der Hand tüchtig rumgezappelt wird.
Mir ist es völlig egal, aber ich werde das Gefühl nicht los das man diese Cam irgendwie klein machen bzw. halten möchte!

Klar hat die einen scheiß Codec und rolling shutter, aber wenn sie das für 1K€ nicht hätte, bräuchte Sony die FS7 doch garnicht erst mehr anbieten.
Wenn ich eine Amira oder Varicam im Einsatz hätte, wäre mir die a6300 als kleine C-Cam auf jeden Fall lieber als die ganzen BMD Dinger.

Space


Antwort von Jott:

Für einen Tausender gegen viel teurere Kameras kann man bei der A6300 nicht sonderlich viel meckern, es sei denn aus Prinzip, da so billig. Für ein paar Hunderter mehr lockt noch die hier beiseite gelassene A6500.

Wie auch immer, das sieht alles recht ähnlich aus. Technikdemokratie - den Unterschied macht fast nur noch das Leben hinter der Kamera. Großartige Entwicklung.

Space


Antwort von Axel:

Mir ist kein Unterschied zwischen ETTR- und korrekter Belichtung aufgefallen. Oder wurde das Bild der ETTR-Belichtung in der post korrigiert? Na klar, alles wurde in der Post korrigiert, das ist doch der ganze Witz von Post.

Ich hab jetzt angelegentlich bloß den ETTR vs. Normalbelichtungs-Vergleich der A6300 genauer betrachtet. Achte mal auf die dunkleren Hauttöne, da flackert's und pixel-blockt's bei Normalbelichtung wie Hulle (Hals sehr deutlich).

Darum gilt: Anders als Film, welcher völlig zufälliges Rauschen produziert, können verlustbehaftete digitale Formate auffällige unerwünschte Kompressionsartefakte erzeugen. Mit der Belichtungsmethode Expose To The Right verschiebt man das Signal bei logarithmischer- und RAW-Aufzeichnung, und wenn Raum zum jeweiligen Clippingpunkt besteht, so weit wie möglich entfernt vom Grundrauschen in den Schatten im Histogramm nach rechts, um die Aufnahme möglichst rauscharm aufzuzeichnen. ETTR bedeutet aber nicht Clipping um jeden Preis zu vermeiden, so daß relevante Bildinformation unterbelichtet werden. Ungünstig ist ETTR bei steileren Gamma-Kurven, die die Lichter komprimieren.

Rauschen ist das am schwierigsten zu komprimierende Detail. Besonders H.264-basierte Codecs, bei niedrigen Bitraten, wie z.B. bei den Sony Alphas verwendet, profitieren von ETTR. Relevante Bildteile, besonders Gesichter, sollten hier nicht unter 50% fallen. In nur leicht unterbelichteten Aufnahmen der Alphas können blockige Kompressionsartefakte und Farbflecken ein Bild äußerst negativ beeinflussen. Hingegen geben ineffiziente Codecs wie Prores oder natürlich RAW Rauschen deutlich natürlicher wieder und verzeihen eher Unterbelichtung.


Space



Space


Antwort von Helge Renner:

IM Fazit auf der Dok Seite haben sie sich aber bzgl. der a6300 mächtig einen Zacken aus der Krone gebrochen und nur ihre Nachteile wiedergekaut was man im Netz so liest! Dabei waren sie doch selbst beim Test dabei und konnten sich von vielen positiven Fakten bereichern lassen.

Genauso albern ist der Aliasing Test wo alle bis auf die Sony sauber vom Stativ geführt werden und mit der a6300 aus der Hand tüchtig rumgezappelt wird.
Mir ist es völlig egal, aber ich werde das Gefühl nicht los das man diese Cam irgendwie klein machen bzw. halten möchte!

Klar hat die einen scheiß Codec und rolling shutter, aber wenn sie das für 1K€ nicht hätte, bräuchte Sony die FS7 doch garnicht erst mehr anbieten.
Wenn ich eine Amira oder Varicam im Einsatz hätte, wäre mir die a6300 als kleine C-Cam auf jeden Fall lieber als die ganzen BMD Dinger. Unsere Kamerabewertungen fußen ausschließlich auf unseren eigenen Testerfahrungen mit diesen Kameras, im Hinblick auf die Dokumentarfilmpraxis.

Ich habe übrigens selber eine Alpha 6500. Der Test ist auch für Leute, die weniger technikafin sind, und die 6500 ist so ziemlich die komplexeste Kamera im gesamten Testfeld. Die BMD Kameras kann man innerhalb weniger Minuten einstellen, bei der 6500 braucht man gut 30 Minuten, wenn man sich damit auskennt. Sonst dauert es länger. Und all die schönen persönlichen Einstellungen sind futsch, wenn mal ein Firmware Update geladen werden muss.

Für den Moirétest ist es komplett egal, ob er mit Handkamera oder vom Stativ gefilmt wird. Vom Stativ sieht es schöner aus, aber das Ergebnis ist gleich. Und dass man die 6500 bzw. 6300 nicht im HD Modus nutzen sollte, ist eine wichtige Erkenntnis.

Space


Antwort von klusterdegenerierung:

Stimmt ja so nicht, nach meinem letzten update war alles wie vorher und ich nutze sie viel im HD Slomomodus und da finde ich sie in Slog2 genau richtig, nämlich nicht so eckelig scharf.

Da meckern immer alle die sei so scharf und Video und dann ist es wieder zu matschig, lustig! ;-)

Space


Antwort von Helge Renner:

Stimmt ja so nicht, nach meinem letzten update war alles wie vorher und ich nutze sie viel im HD Slomomodus und da finde ich sie in Slog2 genau richtig, nämlich nicht so eckelig scharf.

Da meckern immer alle die sei so scharf und Video und dann ist es wieder zu matschig, lustig! ;-) Bei meinen zwei Updates der A7R2 war alles futsch. Wäre schön, wenn das bei der 6500 nicht mehr so ist. Ich habe aufs aktuelle Update verzichtet, weil ich das nicht ausprobieren wollte.

Slomo ist ein Sonderfall, normal dreht man ja eher mit 25fps.

Space


Antwort von Darth Schneider:

Apropos günstige Kamera gegen teure. Ich finde er hat eigentlich sooo recht.

https://youtu.be/HE-VWdZUM1w

Space


Antwort von Helge Renner:

Apropos günstige Kamera gegen teure. Ich finde er hat eigentlich sooo recht.

https://youtu.be/HE-VWdZUM1w Den Link gibt man dann dem Sender, wenn es bei der technischen Abnahme Ärger gibt.

Space


Antwort von Borke:

bei Überbelichtung?
so so Scheinar hat"s jeder kapiert, nur einer wieder mal nicht :-) Wird schon...

Space


Antwort von iasi:

Sicher brennen die bei Überbelichtung aus, wäre ja komisch wenn nicht, aber dafür hab ich nicht sone fiese klusterdegenerierung wie bei der Raven und Amira! :-))
Also ich war auch überrascht wie gut die C300II und a6300 bei +4Stops abgeschnitten haben!
Aber ich fand sowieso das die a6300 der Amira & der Varicam am ähnlichsten war! ;-)))

Was mir allerdings ein Rätsel ist, ist das die bei einigen Cam native iso plus Zeit verwendet haben und bei anderen höhere Iso verwendet haben!
Ist ja dann eigentlich kein guter Vergleich oder? Raw und ISO
Es wurde dann eben beim "Entwickeln" hochgezogen - nicht kameraintern.

Was mich eigentlich wundert, ist das wirklich problematische Abschneiden der BMD 4.6k.
Also irgendwie scheinen die Tester die Kameras auch nicht optimal bedient zu haben.
Hatten sie z.B. bei der Red ein Blackshading gemacht?

Viel Aufwand und wieder nur solch ein grobes und oberflächliches Ergebnis.

Space


Antwort von iasi:

bei Überbelichtung?
so so Scheinar hat"s jeder kapiert, nur einer wieder mal nicht :-) Wird schon... ja klar - bei Überbelichtung rauscht"s grausam in den Schatten - denk mal nach

Space


Antwort von klusterdegenerierung:

Stimmt ja so nicht, nach meinem letzten update war alles wie vorher und ich nutze sie viel im HD Slomomodus und da finde ich sie in Slog2 genau richtig, nämlich nicht so eckelig scharf.

Da meckern immer alle die sei so scharf und Video und dann ist es wieder zu matschig, lustig! ;-) Bei meinen zwei Updates der A7R2 war alles futsch. Wäre schön, wenn das bei der 6500 nicht mehr so ist. Ich habe aufs aktuelle Update verzichtet, weil ich das nicht ausprobieren wollte.

Slomo ist ein Sonderfall, normal dreht man ja eher mit 25fps. Ich drehe entweder in 120fps auf 24 oder eben in 4K mit runter auf FHD.
Aber ich finde das 120er Material richtig toll und wenn man mag, kann man ja übers profil wieder etwas Schärfe reindrehen.

Sie ist dann der FS700 und ihrem Slog2 sehr nahe, die kriege ich dann super zusammen geschnitten.
Das scharfe 4K nutze ich nur für Außschnitte oder wenn es halt super scharf sein muß. ;-)

Space



Space


Antwort von klusterdegenerierung:

Ich hatte den Eindruck das die nicht mit dem Raw der BMDs gut können, denn diese fiese Magentashifts bekommt man eigentlich nur wenn man in Resolve die falsche importsettings setzt oder das Material überreitzt.

Aber am erschütternsten fand ich die Ergebnisse der FS7 mit dem fiesen WB, dem Videolook und dem seltsamen Rauschen in den Tiefen,
das sah nicht nachdem aus, was die Cam eigentlich kann, vermute ich jetzt mal.

Space


Antwort von DeeZiD:

Für mich Arri Amira, RED oder Varicam, alles andere, naja:
- A7s II oder A6300 mit Banding, Rumgematsche in dunkleren Bildpartien, aber dafür ist es ja schließlich "rauschfrei"... :D
- FS7 mit Banding in dunklen Bildbereichen trotz 10 Bit (hatte damit auch zu kämpfen), sehr soft/kaum Details
- C300 mit fiesen Hauttönen
- BMCC immer noch passabel, Ursa 4.6k mit Farbstich

Space


Antwort von iasi:

Also ich kann dem Test nichts abgewinnen.

Gerade bei Doku sind doch die Voraussetzungen oft sehr unterschiedlich.

Mal muss das ganze Kamerasystem möglichst kompakt und leicht sein.
Mal muss bei wenig Licht gedreht werden.
Mal muss man sehr lange Einstellungen drehen.
Mal muss man Landschaften möglichst detailreich einfangen.
Mal muss man schwierige Lichtverhältnissen bewältigen.
Mal ...

Und das dann oft in Kombination.

Ganz unabhängig von den Bildtests würde mir hier zu jedem Fall unter diesen 11 Kameras die Geeignetste wählen.

Die Red wäre z.B. bei sehr langen Einstellungen nicht die beste Wahl.
Andererseits ...

Soll mir doch keiner erzählen, dass man mit der BMD 4.6k nur solche schlechten Aufnahmen zustande bekommt. Bei richtiger Bedienung bekommt man aus jeder Kamera gute Bilder.

Space


Antwort von Gysenberg:

Apropos günstige Kamera gegen teure. Ich finde er hat eigentlich sooo recht.

https://youtu.be/HE-VWdZUM1w
4:13: "what about not cameras in the one top percent, what about storys in the one top percent?"

Unzählige Foren über Technik, keines über Storys.

Ergebnis: 5 Stunden Licht aufbauen. 5 Minuten proben.

Und genau so sehen Internet-Filme heute aus. Ganz tolle Bilder.

Space


Antwort von Darth Schneider:

Klar das ist so, möglichst noch mit Laiendarstellern, einem Drehbuch das in ein paar Stunden von jemandem geschrieben wurde der noch nie ein Buch gelesen hat, aber natürlich mit teuerstem Licht Equipment und im Minimum eine Red, natürlich ist 4K oder besser 6K dann ein Muss damit man die schlechten Schauspieler und die störenden Lampenreflexionen, weil man vom Licht setzen keine Ahnung und keine Zeit hat, in der Postproduktion wieder heraus cropen kann.

Space


Antwort von Frank Glencairn:

...Ursa 4.6k mit Farbstich Raw kann keinen "Farbstich" haben - das ist ein Bedienungsfehler in der Post.

Space


Antwort von Borke:

denk mal nach Schau mal hin.

Space


Antwort von domain:

Ist schon ein Kreuz, wenn man keine echten Aufträge mehr hat.
Leute, wir machen wieder mal ein Testvideo!
Klar, dass die Ergenisse sich kaum voneinander unterscheiden werden, aber Geld verdienen kann man damit nach wie vor.
(Aber wer zahlt eigentlich dafür?)

Space


Antwort von Helge Renner:

Ist schon ein Kreuz, wenn man keine echten Aufträge mehr hat.
Leute, wir machen wieder mal ein Testvideo!
Klar, dass die Ergenisse sich kaum voneinander unterscheiden werden, aber Geld verdienen kann man damit nach wie vor.
(Aber wer zahlt eigentlich dafür?) Ich weiss ja nicht, was du beruflich machst, aber die Kameraleute, die ich kenne, testen Kameras vor einer Verwendung bei Filmprojekten. Die Unterschiede zwischen den Kameras sind trotz Angleichung in der Farbkorrektur sichtbar und damit relevant.

Space



Space


Antwort von Darth Schneider:

An Frank. War denn der ein Farbstich bei der Ursa oder Ursa Mini nicht ein Thema hier im Forum ? Ich dachte eine Kamera interne Verarbeitung des Videobildes findet doch immer statt, egal welches Recording Format genutzt wird, auch bei RAW ? Darum könnte doch auch eine RAW Kamera einen Farbstich haben, denke ich. RAW ist doch kein analoges belichtetes Film Negativ, sondern es sind doch nichts als Digitale Daten oder Informationen. Oder vielleicht habe ich da etwas missverstanden ?

Space


Antwort von DV_Chris:

Die C300Mk2 in Clog-2 zu betreiben zeigt, dass da echte Auskenner am Werk waren...

Space


Antwort von klusterdegenerierung:

Warum?

Space


Antwort von DV_Chris:

C-Log2 zeigt in bestimmten Situationen Schwächen. Deshalb hat Canon ja in der Firmware vom Sommer C-Log3 implementiert.

Space


Antwort von rob:

C-Log2 zeigt in bestimmten Situationen Schwächen. Deshalb hat Canon ja in der Firmware vom Sommer C-Log3 implementiert. Hallo DV_Chris

Was für Schwächen meinst du denn konkret?

Viele Grüße
Rob

Space


Antwort von rideck:

@ DV_Chris,

also C-Log 2 bringt doch bei der C300 MKII die meiste Dynamik? Und ja, da waren Auskenner am Werk.

Space


Antwort von Frank Glencairn:

..Darum könnte doch auch eine RAW Kamera einen Farbstich haben, denke ich. RAW ist doch kein analoges belichtetes Film Negativ, sondern es sind doch nichts als Digitale Daten oder Informationen. Oder vielleicht habe ich da etwas missverstanden ? Raw ist schwarz/weiß, die Farbe wird erst am Rechner erzeugt, deshalb kann ein wie auch immer gearteter "Farbstich", auch nur an den falschen Debayering Einstellungen liegen.

Space


Antwort von mash_gh4:

Raw ist schwarz/weiß, die Farbe wird erst am Rechner erzeugt, deshalb kann ein wie auch immer gearteter "Farbstich", auch nur an den falschen Debayering Einstellungen liegen. naja -- es gibt schon ziemlich ungute probleme, die einfach den physikalischen eigenheiten des jeweiligen sensors geschuldet sind. ein typisches beispiel dafür ist die spektrale trennung und der sensibilitätsverlauf der drei grundfarben. die entsprechenden farbfilter auf den betreffenden senseln können von stark unterschiedlicher güte sein. so etwas ist auch in der RAW-verarbeitung relativ schwer zu kompensieren, da einfach ein teil der notwendigen information schon in dieser verarbeitungsstufe nicht mehr zur verfügung steht. derartiges kann leider sehr wohl dazu führen, dass die farben nicht erst ganz unabhängig in der RAW-aufbereitung völlig frei gestaltet bzw. modifiziert werden können.

Space


Antwort von wp:

ich finde, ihr habt das gut gemacht.

Eine Sache sehe ich: Das Entscheidende sollte sich vor der Kamera abspielen. Manchmal sollen ja auch Inhalte interessant sein.

Space



Space


Antwort von Funless:

Manchmal sollen ja auch Inhalte interessant sein. Ja aber wirklich nur manchmal, kommt eher äußerst selten vor. ;)

Space


Antwort von DeeZiD:

..Darum könnte doch auch eine RAW Kamera einen Farbstich haben, denke ich. RAW ist doch kein analoges belichtetes Film Negativ, sondern es sind doch nichts als Digitale Daten oder Informationen. Oder vielleicht habe ich da etwas missverstanden ? Raw ist schwarz/weiß, die Farbe wird erst am Rechner erzeugt, deshalb kann ein wie auch immer gearteter "Farbstich", auch nur an den falschen Debayering Einstellungen liegen.
Dann wird der Sensor der 4.6k aber recht häufig "falsch debayert".
Was ich im Test sehe ist, dass versucht wurde, den Magentastich mit grün zu kaschieren, was halt irgendwie in die Hose ging.

Dabei ist es zugegebenermaßen garnicht so schwer, tolle Farben aus dem Raw-Material zu holen.

Space


Antwort von Frank Glencairn:

Ich hatte in den letzten Jahren jedenfalls noch nie ein Problem, aus dem BM raw Material jede Farbe zu holen, die ich möchte, und jeder andere, der weiß was er tut auch nicht. Shane Hurlbut hat gerade eine risen Testserie mit der Ursa Mini gemacht, da gibt es null Farbstich.

Die meisten Probleme mit BM Kameras beruhen IMHO auf mangelnder Erfahrung, Sturheit und Beratungsresistenz.

Space


Antwort von klusterdegenerierung:

Aber wohl am meißten an falschen Importsettings, dann ists schon vorbei.
Ich kann mich noch gut daran erinnern, wie Du mir vor Jahren dabei geholfen hast, als ich noch die Pocket hatte, das hatte auch ich genau diese (Anfänger)fehler.

Ist bei so einem aufwändigem Test natürlich echt schade!
Aber bei der FS7 konnten sie ja auch nicht mal einen anständigen WB erstellen und warum die Red so arg rauschen soll ist mir auch ein Rätsel.

Space


Antwort von pH0u57:

Ich bin auch echt von der Qualität der FS7 irritiert.. die rauscht doch nicht SO viel krasser, als die anderen Kameras?! In den meisten anderen Tests ist die doch immer ähnlich der C300mk2.. (in Sachen Lowlight und Rauschen)

Space


Antwort von Helge Renner:

Ich bin auch echt von der Qualität der FS7 irritiert.. die rauscht doch nicht SO viel krasser, als die anderen Kameras?! In den meisten anderen Tests ist die doch immer ähnlich der C300mk2.. (in Sachen Lowlight und Rauschen) Die FS7 ist nicht so lichtempfindlich, wie Sony angibt. Die Alpha 6500 ist bei gleicher Sensorgröße Dank Runterskalierung und evtl. neuerer Sensorgeneration lichtempfindlicher. Im Vergleich zur FS7 hat die C300II eine stärkere interne Rauschunterdrückung und eine höhere Bitrate. Rauschen mit zuwenig Bitrate sieht einfach nicht gut aus. Man bekommt Blockartefakte, wie bei der FS7 zu sehen. Bei der Alpha 6500 ist es selbst bei den Tagesaufnahmen sehr deutlich, dass dem eigentlich sehr guten Sensorsignal die nötige Bitrate fehlt.

Space


Antwort von Helge Renner:

Aber wohl am meißten an falschen Importsettings, dann ists schon vorbei.
Ich kann mich noch gut daran erinnern, wie Du mir vor Jahren dabei geholfen hast, als ich noch die Pocket hatte, das hatte auch ich genau diese (Anfänger)fehler.

Ist bei so einem aufwändigem Test natürlich echt schade!
Aber bei der FS7 konnten sie ja auch nicht mal einen anständigen WB erstellen und warum die Red so arg rauschen soll ist mir auch ein Rätsel. Die Ursa Mini 4.6K wurde mit ProRes 4444 12 Bit getestet, genauso, wie die Amira. Es kann also kein Debayeringfehler vorgelegen haben.

Für den Weißabgleich wurden bei allen Kameras je Motiv die gleichen Kelvin Werte eingestellt. Einige der Kameras wie z.B. die BMs erlauben ja keinen Weißabgleich mit Kelvinmessung, daher diese Entscheidung.

Space


Antwort von Borke:

Gibt es von Hackergruppen schon einen Patch für eine höhere Datenrate bei der A6X00?

Space


Antwort von klusterdegenerierung:

Aber wohl am meißten an falschen Importsettings, dann ists schon vorbei.
Ich kann mich noch gut daran erinnern, wie Du mir vor Jahren dabei geholfen hast, als ich noch die Pocket hatte, das hatte auch ich genau diese (Anfänger)fehler.

Ist bei so einem aufwändigem Test natürlich echt schade!
Aber bei der FS7 konnten sie ja auch nicht mal einen anständigen WB erstellen und warum die Red so arg rauschen soll ist mir auch ein Rätsel. Die Ursa Mini 4.6K wurde mit ProRes 4444 12 Bit getestet, genauso, wie die Amira. Es kann also kein Debayeringfehler vorgelegen haben.

Für den Weißabgleich wurden bei allen Kameras je Motiv die gleichen Kelvin Werte eingestellt. Einige der Kameras wie z.B. die BMs erlauben ja keinen Weißabgleich mit Kelvinmessung, daher diese Entscheidung. Da war aber in der Liste Raw angegeben!

Space



Space


Antwort von klusterdegenerierung:

Gibt es von Hackergruppen schon einen Patch für eine höhere Datenrate bei der A6X00? Jo, dafür gäbe es auch Geld von mir!

Space


Antwort von Helge Renner:

Gibt es von Hackergruppen schon einen Patch für eine höhere Datenrate bei der A6X00? Angesichts des kurzen Produktzyklus der Sony Alphas glaube ich nicht, dass irgendwer große Motivation verspürt, seine Zeit mit dem reverse-engineering der Firmware zu verbrauchen. Ehe man fertig ist, kommt die Alpha 6700, 7000 etc. mit hoffentlich etwas besseren Specs. Und einen Kopfhörerausgang lässt sich leider auch nur schlecht in die 6500 hacken ;)

Space


Antwort von Helge Renner:

Aber wohl am meißten an falschen Importsettings, dann ists schon vorbei.
Ich kann mich noch gut daran erinnern, wie Du mir vor Jahren dabei geholfen hast, als ich noch die Pocket hatte, das hatte auch ich genau diese (Anfänger)fehler.

Ist bei so einem aufwändigem Test natürlich echt schade!
Aber bei der FS7 konnten sie ja auch nicht mal einen anständigen WB erstellen und warum die Red so arg rauschen soll ist mir auch ein Rätsel. Die Ursa Mini 4.6K wurde mit ProRes 4444 12 Bit getestet, genauso, wie die Amira. Es kann also kein Debayeringfehler vorgelegen haben.

Für den Weißabgleich wurden bei allen Kameras je Motiv die gleichen Kelvin Werte eingestellt. Einige der Kameras wie z.B. die BMs erlauben ja keinen Weißabgleich mit Kelvinmessung, daher diese Entscheidung. Da war aber in der Liste Raw angegeben! Nein, nur bei den kleineren BMs.

Space


Antwort von rush:

Gibt es von Hackergruppen schon einen Patch für eine höhere Datenrate bei der A6X00? Angesichts des kurzen Produktzyklus der Sony Alphas glaube ich nicht, dass irgendwer große Motivation verspürt, seine Zeit mit dem reverse-engineering der Firmware zu verbrauchen. Ehe man fertig ist, kommt die Alpha 6700, 7000 etc. mit hoffentlich etwas besseren Specs. Und einen Kopfhörerausgang lässt sich leider auch nur schlecht in die 6500 hacken ;) Und ehrlich gesagt sind die 100Mbps auch gar nicht so übel wenn man halbwegs korrekt belichtet und in der Post nicht alles kreuz und quer verbiegen muss...

Wer 'nen Kopfhörerausgang benötigt und gern fotografiert greift doch sowieso zur A7rII - sie bildet in meinen Augen das nahezu perfekte Gesamtpaket aus beiden Welten.

Für mich zählt heute wie auch schon vor vielen Jahren eher die Arbeit der Beleuchter.... wenn du da Jungs hast die wissen worauf es ankommt und kreativ sind ist der halbe Film bereits im Kasten - egal ob du mit 'ner Ursa, Amira oder Fs7 anrückst... Und mit RAW macht man den Rest in der Post bei Bedarf. Die Möglichkeiten sind grenzenlos - aber die Preise purzeln und die Unterschiede zwischen Kameras im "niedrigen" Preisbereich bis hin zu hohen 5 stelligen Beträgen werden rein bildqualitativ eher geringer.

Space


Antwort von Roland Schulz:

Irgendwann gewöhnt man sich vielleicht an die scheiss BMD Farben, mag dem ein oder anderen bzw. in dem ein oder anderen Fall auch gut aussehen, mit der Wirklichkeit haben die aber seltener was zu tun. Bzgl. Colorscience sind die noch ein Stück weit weg vom Schuss.

Dass die FS7 mehr rauscht als ne a6x00 hat neben nem vielleicht schlechteren Sensor auch damit zu tun, dass bei den "Pro" Cams die Rausche einfach weiter offen bleibt als bei den Consumern. Vergleicht man ne X70 mit ner AX100 stellt man auch schnell fest, dass die AX100 mit gleichem Sensor "sauberer" rauskommt, selbst ne AX53 rauscht weniger als ne X70 oder a6x00, dafür werden aber Details weggebügelt.
Leider lässt sich die Rausche bei den Sonys im Gegensatz zu einigen Panasonic nicht einstellen.

Was ich in eigenen Tests bzgl. FS7 und a6300 mal erkannt hatte wurde hier eigentlich bestätigt, konnte das selbst kaum glauben, hatte die FS7 aber auch nur kurz da. Die Stärken liegen da auch woanders (usability & features), nicht unbedingt in der IQ.

Space


Antwort von cantsin:

Irgendwann gewöhnt man sich vielleicht an die scheiss BMD Farben, mag dem ein oder anderen bzw. in dem ein oder anderen Fall auch gut aussehen, mit der Wirklichkeit haben die aber seltener was zu tun. Bzgl. Colorscience sind die noch ein Stück weit weg vom Schuss. Du scheinst die Funktionsweise einer Raw-Kamera irgendwie nicht ganz verstanden zu haben....

Space


Antwort von iasi:

Irgendwann gewöhnt man sich vielleicht an die scheiss BMD Farben, mag dem ein oder anderen bzw. in dem ein oder anderen Fall auch gut aussehen, mit der Wirklichkeit haben die aber seltener was zu tun. Bzgl. Colorscience sind die noch ein Stück weit weg vom Schuss.

. Stichwort: Color Grading

Das sind keine Kameras, bei denen die Farben fertig aus der Kamera kommen - darauf sind sie gar nicht ausgelegt.

Mit der "Wirklichkeit" haben die Farben eines Films doch eh nie etwas zu tun - die "Wirklichkeit" erschafft sich das Gehirn - aus Weiß bei 2000 Kelvin wird auch Weiß bei 20.000 Kelvin.

Schau dir mal ein weißes Blatt bei Kerzenlicht an und dann die Farben auf deinem Vorschaumonitor - und dann stell mal die Farben ein.

Space


Antwort von Frank Glencairn:

mit der Wirklichkeit haben die aber seltener was zu tun. "Wirklichkeit" ist auch so ziemlich das letzte was ich will.

"Wirklichkeit" ist was für Leute, die ne RTL Scripted Reality Show mit ner EB Mühle auf der Schulter machen, aber nicht für Story Teller.

Space


Antwort von nic:

mit der Wirklichkeit haben die aber seltener was zu tun. "Wirklichkeit" ist auch so ziemlich das letzte was ich will.

"Wirklichkeit" ist was für Leute, die ne RTL Scripted Reality Show mit ner EB Mühle auf der Schulter machen, aber nicht für Story Teller. Es geht ja eher um Nachvollziehbarkeit und Reproduzierbarkeit. Wenn du dein Set Design anlegst, willst du ja, dass die Farbnuancen wie gedacht im Endprodukt ankommen... und da ist eine gute "Color Science" wirklich hilfreich.

Space



Space


Antwort von Frank Glencairn:

Es geht ja eher um Nachvollziehbarkeit und Reproduzierbarkeit. Wenn du dein Set Design anlegst, willst du ja, dass die Farbnuancen wie gedacht im Endprodukt ankommen... und da ist eine gute "Color Science" wirklich hilfreich. Immer noch nix verstanden - kopfschüttel

Space


Antwort von nic:

Es geht ja eher um Nachvollziehbarkeit und Reproduzierbarkeit. Wenn du dein Set Design anlegst, willst du ja, dass die Farbnuancen wie gedacht im Endprodukt ankommen... und da ist eine gute "Color Science" wirklich hilfreich. Immer noch nix verstanden - kopfschüttel Ihr habt beide recht und unrecht. Natürlich ist es bei einer szenischen Produktion oft nicht das erklärte Ziel die Wirklichkeit als Wirklichkeit eins zu eins abzubilden. Trotzdem ist es aber auch dort von Vorteil, wenn die Kamera eine gute "Color Science" bietet. Da diese definiert welche Farbnuancen überhaupt im späteren RGB-Bild ankommen können und somit darstellbar sind. Und diese "Color Science" muss auf den Sensor abgestimmt sein, muss also vom Hersteller geliefert werden. Welche Wellenlängen lassen die roten, welche die grünen Filter auf die Sensel treffen, wie wird das bei der Verrechnung in RGB gewichtet, usw. Erst danach greift deine Farbkorrektur, dann kannst du grob deine Farben verziehen. Aber um gutes Ausgangsmaterial, mit verlässlichen Farben und vielen Farbabstufungen zu bekommen, muss dir der Hersteller die Daten erst sinnvoll aufbereiten.

Space


Antwort von cantsin:

"Color science" bezieht sich doch auf die Übersetzung der Raw-Bayer-Sensordaten in ein RGB-Bild btw. auf die JPEG/MPEG-Engine einer Kamera. Mit BM-Kameras findet das in Software statt, nicht in der Kamera. Wenn man akkurate/realistische Farben will, filmt einen Color Chart und verwendet den automatischen Color Chart-Farbabgleich in Resolve.

Space


Antwort von Roland Schulz:

Du scheinst die Funktionsweise einer Raw-Kamera irgendwie nicht ganz verstanden zu haben.... ...Halbwissen macht anscheinend nicht nur halbstark sondern auch sehr selbstbewußt ;-)...
"Color science" bezieht sich doch auf die Übersetzung der Raw-Bayer-Sensordaten in ein RGB-Bild btw. auf die JPEG/MPEG-Engine einer Kamera. Mit BM-Kameras findet das in Software statt, nicht in der Kamera. Wenn man akkurate/realistische Farben will, filmt einen Color Chart und verwendet den automatischen Color Chart-Farbabgleich in Resolve. Ist immer wieder amüsant hier reinzugucken und von Dingen zu lesen die Leute erklären die sie selbst nicht hinreichend verstanden haben.
Bei einigen ist hier wieder Tag der offenen Tür in deren Luftschlössern.

Zusammengefasst wird hier behauptet, dass sich eine RAW Kamera auf jede Farbwiedergabe verbiegen lässt die möglich ist - ok, maybe to much - sich zumindest dahin skalieren lässt was "andere" Kameras abbilden können. Das ist schon mal der Oscar in der Sparte "Science Fiction"!!

"Color Science" soll zudem (nur?!) das sein, was bei der Verarbeitung von RAW-Bayer-Sensordaten passiert - gut, das ist schon mal mehr als das was einem nen Fotohandyverkäufer im "Bin doch nicht blöd Markt" erzählen kann.

Sorry, aber wer austeilt muss auch die eigene Backe hinhalten, aber da hier einige die Funktionsweise einer "RAW-Kamera" anscheinend nicht ganz verstanden zu haben scheinen mal ein paar weitere Einblicke.

Wie erkennt eine Kamera überhaupt Farben?! Ganz einfach, durch Farbfiltern vor den einzelnen Senseln, weiß doch jeder. Schon mal nen Start, aber was hängt noch alles damit zusammen? Mein Siliziumsensel auf dem Sensor, verhält der sich linear bzgl. der einfallenden Wellenlänge des Lichtes?! Leider nein, das Verhalten ist selbst bereits abhängig von der einfallenden Wellenlänge, zudem auch abhängig von der Eindringtiefe ins Silizium (ggf. mal nachlesen wie ein Foveon Sensor "funktioniert")!
Ok, um das nichtlineare Verhalten des Siliziums schummeln wir uns mal rum, wird keiner merken, jetzt mache ich meine Filter rot, grün und blau (oder cyan, magenta und gelb wie es Nikon tatsächlich mal gemacht hat). Aber wie rot, grün und blau denn nun, und mit welcher Dichte?! Müssen sich die Filter ggf. spektral überlagern und wenn ja wie weit und mit welcher Filtersteilheit passiert das am besten und wie kriege ich meinen Farbfilter überhaupt dazu eine Filtersteilheit aufzuweisen? Kann ich mit R,G und B Filtern denn dann eigentlich jede Farbe, na sagen wir mal "sichtbare" Farbe differenzieren??? Leider nein, an dieses Vorhaben käme zumindest ein spektral abtastend arbeitendes System (Beugungsgitter, Diodenzeile...) nah dran, sowas ist kombiniert in einer Zeilen- und Spaltenmatrix als Bildsensor aber bis heute nicht bekannt, hätte zudem auch andere Nachteile.

Jetzt haben wir unsere Farbfilter irgendwie zusammengewürfelt und auch ne Menge getestet und optimiert (bei Wikipedia gab"s leider kein "Patentrezept", die ganzen Professoren erzählen auch alle was etwas anderes), müssen jetzt irgendwie aber noch 15 Blenden zu nem 12 bit A/D Wandler überführen (zufällig so zu finden bei Bastel Murks Design). Wie geht dat dann?! Dazu hatte wir hier vor kurzem ebenfalls eine Diskussion, kurzum -> nichtlineare Verstärkung. Spätestens hier sollte klar werden dass "RAW" nicht wirklich "RAW" ist.
Jetzt haben wir"s aber geschafft, unsere eingefallenen Wellenlängen sind digitalisiert - Mist, jetzt müsssen wir noch ein Demosaicing/Debayering vornehmen. Da gibt"s jetzt einige verschiedene Wege bzw. Algorithmen die zum einen die Lumaauflösung, zum anderen die Chromaauflösung und zum Dritten die Farbgenauigkeit, zumindest die theoretisch noch übrig ist, begünstigen (wobei man dabei noch mehr verbasteln kann).
Welche Algorithmen dazu kann ich denn nun in "Resolve" auswählen, welche kommt mir zugute, was "will" ich überhaupt?!?! Wie gut macht BMD das eigentlich, gibt"s alternative RAW-Konverter???

Anders und sicher für mehr Leute nachvollziehbar, warum erzeugen die verschiedenen RAW Converter für meine Stillkamera alle sichtbar unterschiedliche Ergebnisse, besonders bei den Farben und deren Übergängen!?!
Warum gibt es seit jeher die Streiterei, u.A. im Canon oder Nikonlager, dass die Farben der eigenen Kamera, trotz gleichem Converter und "Erzeugung eines Profils mit einem Testchart", "besser" sind?!
Ist doch RAW, ALLES muss gehen ;-)!! Warum kriegt man aus einem DJI Phantom 3 Pro RAW Bild nicht genau so eine Qualität wie aus einem Nikon D4/5 RAW Bild?! Warum sehen Nikon D750 und Sony a7 Bilder trotz "gleicher" Sensorgröße und Auflösung doch anders aus, trotz RAW?!?! Warum kriege ich die nicht "gematched"?!

Für alle die bisher zumindest noch die Rücklichter sehen noch mal den 7. Gang durchgeladen: Was passiert alles wenn ihr doch mal als perfekte Ausgangssituation "korrekte" Farben haben wollt und die Kamera mit einem Testchart "kalibriert"?! Kurzum, das kann bei einem "Colorimeter" nur noch schlimmer in die Hose gehen als es das bei einer Drucker/Papierkalibrierung mit einem Spektralphotometer schon passiert. Metamerie (nachlesen!!) kriegt ihr damit NIE auch nur annähernd in den Griff, selbst wenn ihr unter gleichem Aufnahmelicht Kamera A mit gleicher Software wie Kamera B "kalibrieren" würdet sähe das am Ende anders aus, Farbstoffe reagieren bzw. reflektieren verschiedene, einfallende Spektren (Licht) u.U. unterschiedlich, diese werden dann allein schon von ebenfalls unterschiedlichen Farbfiltern verschieden transmittiert.
Was ist mit UV Licht welches ggf. auf das Testchart fällt (Sonne) und meinem Auge sagt, "Beige ist Weiß" - meine Kamera das aber durch UV Filter vor dem Sensor bereits anders sieht?!

Ihr könnt alle drehen und graden so viel ihr wollt und sicherlich kommt auch was ansprechendes raus was einer Anzahl Betrachter gefällt, trotz 3D-LUTs könnt ihr aber auch mit beliebigem Aufwand nicht alles erzeugen oder idealisieren.
RAW gibt ganz sicher mehr Spielraum als konventionelle Lösungen (Gammas oder ganze Profile), trotzdem haben die Hersteller bereits einige Weichen gestellt die nicht umfahren werden können, es gibt in jedem "3 Kanal Sensor" (oder Colorimeter) spektrale "Definitionslücken" bzw. Bereiche, die nicht eindeutig wiederhergestellt werden können.

Das alles stellt nur einen Ausschnitt aus der "Color Science" dar, in Wirklichkeit ist das ne halbe Raketenwissenschaft die man mit den technisch verfügbaren Mitteln nur eingeschränkt abbilden und nur definiert, nicht universell abbilden kann, RAW hin oder her!!!

Am Ende zählt neben "Resolve" ne Menge Erfahrung und Optimierung der Hersteller, die bereits bei der "RAW" Herstellung der Kamera ihr Know How einbringen!

Space


Antwort von handiro:

Apropos günstige Kamera gegen teure. Ich finde er hat eigentlich sooo recht.

https://youtu.be/HE-VWdZUM1w
4:13: "what about not cameras in the one top percent, what about storys in the one top percent?"

Unzählige Foren über Technik, keines über Storys.

Ergebnis: 5 Stunden Licht aufbauen. 5 Minuten proben.

Und genau so sehen Internet-Filme heute aus. Ganz tolle Bilder. +1!

Space


Antwort von cantsin:

@Roland Wir reden davon, dass man aus 12bit-Sensordaten 8bit-4:2:0-Rec709, also einen kleinen Bruchteil (ca. 1/20tel) der Farbinformationen extrahiert. So besch*ssene Sensoren, Farbfilter und Raw-Encoder gibt es doch gar nicht, dass das nicht auf einem gemeinsamen Nenner möglich wäre. Dass eine 12bit-Raw-Kamera in 8bit-4:2:0 einen Farbstich haben soll, wie von der AG Dok getestet, ist einfach ein schlechter Witz.

Und, ja, wenn man gute Raw-Konverter verwendet, spielt die "Color Science" der Kamera praktisch keine Rolle. Ich habe hier eine Sony A7s, eine Panasonic gm1 und eine Canon 50D herumliegen. Bis auf Unterschiede, die durch Objektive, Sensorgröße und Dynamikumfang bedingt sind, sehen deren Bilder farblich gleich aus, wenn ich sie mit DxO Optics Pro entwickele.

Außerdem ist "Color science" genauso eine pseudowissenschaftliche Bloggervokabel wie "motion cadence".

Space


Antwort von Roland Schulz:

@Roland Wir reden davon, dass man aus 12bit-Sensordaten 8bit-4:2:0-Rec709, also einen kleinen Bruchteil (ca. 1/20tel) der Farbinformationen extrahiert. So besch*ssene Sensoren, Farbfilter und Raw-Encoder gibt es doch gar nicht, dass das nicht auf einem gemeinsamen Nenner möglich wäre. Dass eine 12bit-Raw-Kamera in 8bit-4:2:0 einen Farbstich haben soll, wie von der AG Dok getestet, ist einfach ein schlechter Witz.

Und, ja, wenn man gute Raw-Konverter verwendet, spielt die "Color Science" der Kamera praktisch keine Rolle. Ich habe hier eine Sony A7s, eine Panasonic gm1 und eine Canon 50D herumliegen. Bis auf Unterschiede, die durch Objektive, Sensorgröße und Dynamikumfang bedingt sind, sehen deren Bilder farblich gleich aus, wenn ich sie mit DxO Optics Pro entwickele.

Außerdem ist "Color science" genauso eine pseudowissenschaftliche Bloggervokabel wie "motion cadence".
Moin! Da gehe ich in eigentlich keinem Punkt mit.
Zum einen wird es nicht gelingen, dass Deine drei Kameras aus DxO "gleich" rauskommen. Das schaffst du vielleicht "nach Kalibrierung" für einen Anwendungs(-licht)fall, ändert sich das Licht, ändert sich die Wiedergabe, versprochen!!

Was ist "Farbe"?! Das ist nicht nur der Farbwinkel sondern auch die Intensität und eigentlich auch die Helligkeit (wobei wir das jetzt bis zur Rente diskutieren könnten). Die Intensitäten einzelner Farben werden von verschiedenen Kameras verschieden wiedergegeben, RAW hin oder her, der Farbraum, d.h. den Umfang oder die Bandbreite den die Kamera aufnehmen bzw. wiedergeben kann ist schon mal sehr einzig und allein von der Hardware, u.A. den Farbfiltern abhängig! Nehme ich intensivere Filter erhalte ich einen größeren Farbraum, verliere aber Empfindlichkeit, also ein Kompromiss den man nicht "richtig" wählen kann. Auf der anderen Seite ist es auch nicht zwingend erforderlich einen Fabrraum sehr stark auszuweiten, da es in der Natur keine Objekte mit überextremen Farben gibt.

Weiter: mal ne "ältere" Kamera, z.B. Fuji S2pro in die Hand genommen und dunklen Nylon in der Sonne geknipst, alternativ ne Sony EX1 (nicht R)?! Kriegst Du den tollen Rot-/Braunton des Nylons weg ohne andere Farbbereiche bzw. gleiche Farben ggf. in anderem Licht zu verändern?!
Das hat auch nichts mit JPEG/MPEG vs. RAW zu tun, das liegt daran dass diese Cams keine "idealen" IR Filter hatten, zu denen es aber auch kein Patentrezept gibt. Hier wird jede Dimensionierung zum Kompromiss in der Rottonwiedergabe.
Was ist mit UV Filtern?! Ähnliches Spiel auf der anderen Seite des Spielfeldes! Auch das kriegst Du mit keinem RAW Processing der Welt im Post in den Griff da keine Indikation vorliegt, wieviel UV Licht denn nun bei der Aufnahme im Bild war.

Weiter, "in den roten Bereich gedreht": Sehen Deine GM1 und die a7s bei ISO 12800 im Dunkeln immer noch "gleich" aus?! Kriegst Du das dort aus ner RAW Datei gematched?! Das ist auch nicht nur das Rauschverhalten welches sich hier verschiebt, die Panny fängt schon hier u.A. lustig an "blau zu rauschen", wieder nicht linear. Die Farbsättigung die differenzierbar bleibt ändert sich, ebenso wie die Helligkeitabstufungen/der Dynamikumfang.

Und nochmal, eine 15 Stop BMD mit 12bit RAW ist auch keine "echte RAW" Kamera mehr, das kann man max. noch bei ner 16 Stop RED mit 16bit A/D, wenn"s denn wirklich einer ist, gelten lassen! Bei allen anderen hat bereits eine nichtlineare Analoganpassung stattgefunden.

Was ist eigentlich mit den ganzen Magentacast Problemen die es bei BMD zumindest "gab", wenn das kein Problem wäre hätte BMD das doch einfach per Profil fürs Resolve anbieten können - sieht irgendwie so aus als wenn das nie richtig funktioniert hat, erst nach Anpassung der Hardware ist man "besser" geworden.
Warum kriegten Sony NEX7 Kameras mit Weitwinkelobjektiven Probleme in den Ecken (ebenfalls Magentastich), wann und warum fiel das wie stark auf, warum manchmal nicht?! Woran kann man sich im Post orientieren?! Am subjektiven Auge des Betrachters ;-)?!?!

Nein, da steckt ne Menge Erfahrung, Optimierung und es stecken auch "Kompromisse" drin, auch bereits in der Hardware.
Auch mit RAW kriegt man das nie 100%ig geradegebogen, sonst müssten alle RAW Kameras über alle Empfindlichkeiten das gleiche leisten können und immer identisch aussehen (können).
Optische Nichtlinearitäten treten auf, zeigen in der Aufzeichnung aber nicht die Ursache auf um sie zu korrigieren. Das kann kein Postprocessing liefern!

Space


Antwort von iasi:


Und nochmal, eine 15 Stop BMD mit 12bit RAW ist auch keine "echte RAW" Kamera mehr, das kann man max. noch bei ner 16 Stop RED mit 16bit A/D, wenn"s denn wirklich einer ist, gelten lassen! Bei allen anderen hat bereits eine nichtlineare Analoganpassung stattgefunden.
das eine hat mit dem anderen nichts zu tun.

Space


Antwort von Helge Renner:

@Roland Wir reden davon, dass man aus 12bit-Sensordaten 8bit-4:2:0-Rec709, also einen kleinen Bruchteil (ca. 1/20tel) der Farbinformationen extrahiert. So besch*ssene Sensoren, Farbfilter und Raw-Encoder gibt es doch gar nicht, dass das nicht auf einem gemeinsamen Nenner möglich wäre. Dass eine 12bit-Raw-Kamera in 8bit-4:2:0 einen Farbstich haben soll, wie von der AG Dok getestet, ist einfach ein schlechter Witz.
cadence". Die Beurteilung der Kameraaufnahmen geschah in einem kalibrierten Assimilate Scratch Grading Studio. Du kannst dir die DPX Dateien runterladen und selber damit rumspielen. Das wäre seriöser, als wie von dir anzunehmen, wir hätten das Material erst auf Vimeo hochgeladen, um es danach zu beurteilen. Die Links findest du im AGDOK Artikel.

Space



Space


Antwort von iasi:

@Roland Wir reden davon, dass man aus 12bit-Sensordaten 8bit-4:2:0-Rec709, also einen kleinen Bruchteil (ca. 1/20tel) der Farbinformationen extrahiert. So besch*ssene Sensoren, Farbfilter und Raw-Encoder gibt es doch gar nicht, dass das nicht auf einem gemeinsamen Nenner möglich wäre. Dass eine 12bit-Raw-Kamera in 8bit-4:2:0 einen Farbstich haben soll, wie von der AG Dok getestet, ist einfach ein schlechter Witz.
cadence". Die Beurteilung der Kameraaufnahmen geschah in einem kalibrierten Assimilate Scratch Grading Studio. Du kannst dir die DPX Dateien runterladen und selber damit rumspielen. Das wäre seriöser, als wie von dir anzunehmen, wir hätten das Material erst auf Vimeo hochgeladen, um es danach zu beurteilen. Die Links findest du im AGDOK Artikel. wirklich beurteilen kann man nur das Ausgangsmaterial

... bei der BMD 4.6k ist jedenfalls irgendwas schief gelaufen ...

Wie lange war denn die Enarbeitungszeit in die Kameras?
Es wäre wohl besser gewesen, man hätte jeweils eingearbeitete Besitzer der jeweiligen Kameras gebeten, die Aufnahmen zu machen - und dann die Ergebnisse verglichen.
Sich mal eben ins Menü einarbeiten und dann Aufnahmen für einen Kameravergleich zu machen, ist zu wenig.

Space


Antwort von Frank Glencairn:


Und nochmal, eine 15 Stop BMD mit 12bit RAW ist auch keine "echte RAW" Kamera mehr, das kann man max. noch bei ner 16 Stop RED mit 16bit A/D, wenn"s denn wirklich einer ist, gelten lassen! Bei allen anderen hat bereits eine nichtlineare Analoganpassung stattgefunden. BM raw ist 16 bit

Space


Antwort von Roland Schulz:


Und nochmal, eine 15 Stop BMD mit 12bit RAW ist auch keine "echte RAW" Kamera mehr, das kann man max. noch bei ner 16 Stop RED mit 16bit A/D, wenn"s denn wirklich einer ist, gelten lassen! Bei allen anderen hat bereits eine nichtlineare Analoganpassung stattgefunden. BM raw ist 16 bit Nein! Da kannst du mal sehen wie schnell man aus der Kurve fliegen kann ;-)!!

Space


Antwort von Roland Schulz:


Und nochmal, eine 15 Stop BMD mit 12bit RAW ist auch keine "echte RAW" Kamera mehr, das kann man max. noch bei ner 16 Stop RED mit 16bit A/D, wenn"s denn wirklich einer ist, gelten lassen! Bei allen anderen hat bereits eine nichtlineare Analoganpassung stattgefunden.
das eine hat mit dem anderen nichts zu tun. Das hat in sofern was damit zu tun "wer hier was von einer RAW Kamera verstanden hat" und bei wem es ggf. zwar eine Meinung aber (zu) wenig Hintergrundwissen gibt.
Mit einem Farbstich hat "das" aber erstmal recht wenig zu tun, da gebe ich Dir Recht.


Mir gefällt nur die einschlägige Propaganda hier nicht, dass man aus einer RAW Kamera "alles" rausholen und in die "Perfektion" verbiegen kann, das ist u.A. durch meine Beispiele erläutert mit Nichten so!

Der Spielraum einer RAW Kamera ist klar größer, dennoch können bereits bei der Aufnahme "Farbverschiebungen" oder Probleme auftreten, die nur mit sehr großem Aufwand im Post "subjektiv" korrigiert werden können, und das liegt nicht erst am Aufzeichnungsformat sondern schon ganz weit davor (Reminder: IR Filter!).
Glaube es war auch nicht Ziel des Vergleichs, irgendwelche Kameras manuell in verschiedenen Parametern so zu trimmen das irgendwas passendes bei rauskommt, sondern primär das zu nutzen, was die Kiste mit Bordmitteln anbietet (grundlegende Dinge wie man. WB etc. mal ausgeschlossen).

Machen wir uns mal nichts vor, BMD ist was "magenta casts" etc. angeht kein unbeschriebenes Blatt. Auch andere renommierte Größen wie Sony hatten mal mit ähnlichen Problemen zu kämpfen, sind aber daran gewachsen und besser geworden. BMD ist hier vielleicht einfach noch zu "frisch", hat dagegen aber ohne Frage sehr interessante Specs, Features und auch einen attraktiven Preis. Ob das P/L stimmt muss man separat bewerten und hängt sicherlich auch vom Anspruch ab. Ich find"s gut dass die das machen, BMD wird mit der Zeit ja auch besser und das schneller als es die "Pioniere" mal wurden. Es ist richtig den "Eingefahrenen" mal zu zeigen was geht, man irgendwann da auch folgen (muss)!

Grundsätzlich ist es aber falsch eine RAW Kamera grundsätzlich besser als eine nicht RAW Kamera zu bewerten und zu erwarten dass "alles" geht - das tut es noch lange nicht. Erst wenn der "Core" und von mir aus auch die ersten Schritte im "Color Science" richtig gesetzt wurden kommt man in Schlagdistanz, zum Überholen müssen diese ersten Schritte dann auch mit einem Vorsprung beaufschlagt sein weil sich sonst niemand den erheblichen Mehraufwand antun würde - es sein denn es ist "Leidenschaft" ;-)!

Space


Antwort von nic:

"Color science" bezieht sich doch auf die Übersetzung der Raw-Bayer-Sensordaten in ein RGB-Bild btw. auf die JPEG/MPEG-Engine einer Kamera. Mit BM-Kameras findet das in Software statt, nicht in der Kamera. Wenn man akkurate/realistische Farben will, filmt einen Color Chart und verwendet den automatischen Color Chart-Farbabgleich in Resolve. Um es mit Graeme Nattress' Worten zu sagen:

"Colour Science is the colorimetry calibration that takes raw sensor data and puts it into accurate colours. That is always in place for each and every camera and OLPF combination.

An image processing pipeline is the algorithms (and implementation) that uses the data from the colour science to produce an image."

Erst danach kommst du als Endanwender und kannst deine Farbkorrektur anlegen. Vor allem Farbverschiebungen, die nicht durch Verstärkung oder Abschwächung einzelner Farbkanäle behoben werden können (WB/tint), sondern abhängig von bestimmten Luma- und Chromawerten auftreten, sind kaum in der Post zu entfernen. Und wenn dann nur für jeweils ein Bild. Da hilft dir auch dein Color-Chart wenig, dadurch hast du dann ein paar definierte Stützstellen, aber mehr auch nicht. Da bist du letztlich doch darauf angewiesen, dass die Color Science des Herstellers einigermaßen korrekt und vor somit nachvollziehbar und reproduzierbar arbeitet. Bezogen auf Hauttöne etwa... da willst du unzählige feinste Nuancen im Verlauf der Lichter und Schatten des Gesichts. Und nicht irgendwo ein wenig Magenta auf den Highlights, Grün oder Lila im Schatten der Nase haben...

Space


Antwort von mash_gh4:

"Colour Science is the colorimetry calibration that takes raw sensor data and puts it into accurate colours. That is always in place for each and every camera and OLPF combination.
An image processing pipeline is the algorithms (and implementation) that uses the data from the colour science to produce an image." das ist eine sehr einseitige begriffsdefinition, die ich definitv nicht teilen würde!

schau dir z.b. an, wie weit gefasst und großteils unabhängig von irgendwelcher kamera-typischen raw-aufbereitung die das dort verstehen:

http://colour-science.org/

Space


Antwort von Helge Renner:

@Roland Wir reden davon, dass man aus 12bit-Sensordaten 8bit-4:2:0-Rec709, also einen kleinen Bruchteil (ca. 1/20tel) der Farbinformationen extrahiert. So besch*ssene Sensoren, Farbfilter und Raw-Encoder gibt es doch gar nicht, dass das nicht auf einem gemeinsamen Nenner möglich wäre. Dass eine 12bit-Raw-Kamera in 8bit-4:2:0 einen Farbstich haben soll, wie von der AG Dok getestet, ist einfach ein schlechter Witz.
cadence". Die Beurteilung der Kameraaufnahmen geschah in einem kalibrierten Assimilate Scratch Grading Studio. Du kannst dir die DPX Dateien runterladen und selber damit rumspielen. Das wäre seriöser, als wie von dir anzunehmen, wir hätten das Material erst auf Vimeo hochgeladen, um es danach zu beurteilen. Die Links findest du im AGDOK Artikel. wirklich beurteilen kann man nur das Ausgangsmaterial

... bei der BMD 4.6k ist jedenfalls irgendwas schief gelaufen ...

Wie lange war denn die Enarbeitungszeit in die Kameras?
Es wäre wohl besser gewesen, man hätte jeweils eingearbeitete Besitzer der jeweiligen Kameras gebeten, die Aufnahmen zu machen - und dann die Ergebnisse verglichen.
Sich mal eben ins Menü einarbeiten und dann Aufnahmen für einen Kameravergleich zu machen, ist zu wenig. Bei der UM46 kann man ja nicht viel einstellen. Die Entscheidung viel aufgrund des Dokfilmworkflows auf ProRes 444. Die von Davinci Resolve vorgesehene LUT als auch ein Grade von Hand ohne LUT ergab nicht optimale Ergebnisse.

Wer die Raven bedient hat, weiß ich nicht, da ich selber nur bei Planung und Auswertung dabei war. Es wäre aber vermutlich schwierig gewesen, einen Owner-Operator zu finden, denn schließlich warten die allermeisten Raven Besteller ja noch auf die Auslieferung ihrer Kamera ;) Das Rauschen des Raven Sensors hätte aber auch ein Owner-Operator nicht verhindern können.

Die anderen Kameras wurden von Owner-Operatorn oder von Leuten, die damit Dreherfahrung haben, bedient.

Space


Antwort von nic:

@Roland Wir reden davon, dass man aus 12bit-Sensordaten 8bit-4:2:0-Rec709, also einen kleinen Bruchteil (ca. 1/20tel) der Farbinformationen extrahiert. So besch*ssene Sensoren, Farbfilter und Raw-Encoder gibt es doch gar nicht, dass das nicht auf einem gemeinsamen Nenner möglich wäre. Dass eine 12bit-Raw-Kamera in 8bit-4:2:0 einen Farbstich haben soll, wie von der AG Dok getestet, ist einfach ein schlechter Witz.
cadence". Die Beurteilung der Kameraaufnahmen geschah in einem kalibrierten Assimilate Scratch Grading Studio. Du kannst dir die DPX Dateien runterladen und selber damit rumspielen. Das wäre seriöser, als wie von dir anzunehmen, wir hätten das Material erst auf Vimeo hochgeladen, um es danach zu beurteilen. Die Links findest du im AGDOK Artikel. wirklich beurteilen kann man nur das Ausgangsmaterial

... bei der BMD 4.6k ist jedenfalls irgendwas schief gelaufen ...

Wie lange war denn die Enarbeitungszeit in die Kameras?
Es wäre wohl besser gewesen, man hätte jeweils eingearbeitete Besitzer der jeweiligen Kameras gebeten, die Aufnahmen zu machen - und dann die Ergebnisse verglichen.
Sich mal eben ins Menü einarbeiten und dann Aufnahmen für einen Kameravergleich zu machen, ist zu wenig. Bei der UM46 kann man ja nicht viel einstellen. Die Entscheidung viel aufgrund des Dokfilmworkflows auf ProRes 444. Die von Davinci Resolve vorgesehene LUT als auch ein Grade von Hand ohne LUT ergab nicht optimale Ergebnisse.

Wer die Raven bedient hat, weiß ich nicht, da ich selber nur bei Planung und Auswertung dabei war. Es wäre aber vermutlich schwierig gewesen, einen Owner-Operator zu finden, denn schließlich warten die allermeisten Raven Besteller ja noch auf die Auslieferung ihrer Kamera ;) Das Rauschen des Raven Sensors hätte aber auch ein Owner-Operator nicht verhindern können.

Die anderen Kameras wurden von Owner-Operatorn oder von Leuten, die damit Dreherfahrung haben, bedient. Eine Raven die rauscht, hatte kein sinnvolles Blackshading.

Space


Antwort von Borke:


Und nochmal, eine 15 Stop BMD mit 12bit RAW ist auch keine "echte RAW" Kamera mehr, das kann man max. noch bei ner 16 Stop RED mit 16bit A/D, wenn"s denn wirklich einer ist, gelten lassen! Bei allen anderen hat bereits eine nichtlineare Analoganpassung stattgefunden. BM raw ist 16 bit Nein! Da kannst du mal sehen wie schnell man aus der Kurve fliegen kann ;-)!! In RAW sicherlich 12bit als LOG-File, so daß annährend 16bit Informationen enthalten sind.

Space



Space


Antwort von Roland Schulz:

Wie gesagt, 12-bit nichtlinear verstärkt, so kann man 15 Blenden abbilden. Ob"s wirklich irgendein echtes LOG ist wissen wir nicht, ggf. wird nur ein Bereich skaliert. Zumindest ist"s kein "echtes" RAW mehr.

16-bit Informationen/Quantisierung lassen sich zudem nicht in 12-bit abbilden.

Space


Antwort von Helge Renner:

@Roland Wir reden davon, dass man aus 12bit-Sensordaten 8bit-4:2:0-Rec709, also einen kleinen Bruchteil (ca. 1/20tel) der Farbinformationen extrahiert. So besch*ssene Sensoren, Farbfilter und Raw-Encoder gibt es doch gar nicht, dass das nicht auf einem gemeinsamen Nenner möglich wäre. Dass eine 12bit-Raw-Kamera in 8bit-4:2:0 einen Farbstich haben soll, wie von der AG Dok getestet, ist einfach ein schlechter Witz.
cadence". Die Beurteilung der Kameraaufnahmen geschah in einem kalibrierten Assimilate Scratch Grading Studio. Du kannst dir die DPX Dateien runterladen und selber damit rumspielen. Das wäre seriöser, als wie von dir anzunehmen, wir hätten das Material erst auf Vimeo hochgeladen, um es danach zu beurteilen. Die Links findest du im AGDOK Artikel. wirklich beurteilen kann man nur das Ausgangsmaterial

... bei der BMD 4.6k ist jedenfalls irgendwas schief gelaufen ...

Wie lange war denn die Enarbeitungszeit in die Kameras?
Es wäre wohl besser gewesen, man hätte jeweils eingearbeitete Besitzer der jeweiligen Kameras gebeten, die Aufnahmen zu machen - und dann die Ergebnisse verglichen.
Sich mal eben ins Menü einarbeiten und dann Aufnahmen für einen Kameravergleich zu machen, ist zu wenig. Bei der UM46 kann man ja nicht viel einstellen. Die Entscheidung viel aufgrund des Dokfilmworkflows auf ProRes 444. Die von Davinci Resolve vorgesehene LUT als auch ein Grade von Hand ohne LUT ergab nicht optimale Ergebnisse.

Wer die Raven bedient hat, weiß ich nicht, da ich selber nur bei Planung und Auswertung dabei war. Es wäre aber vermutlich schwierig gewesen, einen Owner-Operator zu finden, denn schließlich warten die allermeisten Raven Besteller ja noch auf die Auslieferung ihrer Kamera ;) Das Rauschen des Raven Sensors hätte aber auch ein Owner-Operator nicht verhindern können.

Die anderen Kameras wurden von Owner-Operatorn oder von Leuten, die damit Dreherfahrung haben, bedient. Eine Raven die rauscht, hatte kein sinnvolles Blackshading. Ich habe mir sagen lassen, dass das Blackshading nur gegen FPN hilft. Wobei die Raven wirklich wurscht ist, denn man kann sie ja faktisch nicht mehr kaufen.

Space


Antwort von Frank Glencairn:

Wie gesagt, 12-bit nichtlinear verstärkt, so kann man 15 Blenden abbilden. Ob"s wirklich irgendein echtes LOG ist wissen wir nicht, ggf. wird nur ein Bereich skaliert. Zumindest ist"s kein "echtes" RAW mehr.

16-bit Informationen/Quantisierung lassen sich zudem nicht in 12-bit abbilden. Seufz...

Wirf einfach mal ne BM raw file in Resolve und ruf die Eigenschaften auf = 16bit

Space


Antwort von Borke:

Livekonferenz um 45 Minuten. 12bit RAW.

Space


Antwort von Roland Schulz:

Wie gesagt, 12-bit nichtlinear verstärkt, so kann man 15 Blenden abbilden. Ob"s wirklich irgendein echtes LOG ist wissen wir nicht, ggf. wird nur ein Bereich skaliert. Zumindest ist"s kein "echtes" RAW mehr.

16-bit Informationen/Quantisierung lassen sich zudem nicht in 12-bit abbilden. Seufz...

Wirf einfach mal ne BM raw file in Resolve und ruf die Eigenschaften auf = 16bit Spielt überhaupt keine Rolex was das Format oder der Container kann, BMD schreibt selbst dass die 4.6K Ursel nur 12-bit RAW macht, Screenshoot oben nicht gesehen bzw. noch nicht auf deren Seite gewesen und in die Specs geguckt?!
Ich kann in Photoshop jedes 8-bit Handy-JPEG als 16-bit File abspeichern, deshalb kommt keine Farbinformation dazu!

Space


Antwort von Roland Schulz:

Na schaut mal, in der aktuellen Pressemitteilung von BMD steht's nochmal:

- 15 stop / 12-bit RAW wie bei der URSA 4.6K
- IR kompensierte ND Filter - man kann trotz RAW eben nicht alles im Post korrigieren!

Space


Antwort von iasi:

- IR kompensierte ND Filter - man kann trotz RAW eben nicht alles im Post korrigieren! Man nutzt ja RAW auch nicht, um etwas in der Post zu korrigieren.

Genau das meine ich ja mit fehlender Einarbeitung:
Man kann auch eine Raw-Kamera nicht mal eben über den Daumen belichten und dann denken: Mach ich in der Post.

Fix it in Post = schlecht gearbeitet

Space


Antwort von rudi:

Blackmagic machts bei RAW wie das große Vorbild ARRI. Die 16 Bit Sensordaten werden logarithmisch in 12 Bit geschrieben. Und zwar so, dass jede Blendenstufe gleich viele Werte enthält. Das hat vor allem den Effekt, dass in den hellsten Stellen weniger Werte zur Verfügung stehen als im 16 Bit Original, man es dort aber auch am wenigsten merkt, da der sichtbare Unterschied zwischen zwei Sensor-Messwerten mit der Bildhelligkeit immer geringer wird.

Für die Bearbeitung werden die 12 Bit dann auf 16 Bit entpackt.

Also ja, es gibt einen Verlust, aber der ist selbst dann nicht sichtbar, wenn man die Lichter um 5 Blendenstufen absenkt. Alleine schon deswegen, weil in den fünf Blendenstufen drunter sowieso viel weniger "Werte-Slots" zur Verfügung stehen.

Space


Antwort von Jott:

Man nutzt ja RAW auch nicht, um etwas in der Post zu korrigieren. Huch!

Space



Space


Antwort von iasi:

Man nutzt ja RAW auch nicht, um etwas in der Post zu korrigieren. Huch! siehste - hattest du nicht gewußt ;)

Space


Antwort von Roland Schulz:

Blackmagic machts bei RAW wie das große Vorbild ARRI. Die 16 Bit Sensordaten werden logarithmisch in 12 Bit geschrieben. Und zwar so, dass jede Blendenstufe gleich viele Werte enthält. Das hat vor allem den Effekt, dass in den hellsten Stellen weniger Werte zur Verfügung stehen als im 16 Bit Original, man es dort aber auch am wenigsten merkt, da der sichtbare Unterschied zwischen zwei Sensor-Messwerten mit der Bildhelligkeit immer geringer wird.

Für die Bearbeitung werden die 12 Bit dann auf 16 Bit entpackt.

Also ja, es gibt einen Verlust, aber der ist selbst dann nicht sichtbar, wenn man die Lichter um 5 Blendenstufen absenkt. Alleine schon deswegen, weil in den fünf Blendenstufen drunter sowieso viel weniger "Werte-Slots" zur Verfügung stehen. Wo haben sich die 16-bit linear Sensor Readout Gerüchte denn eigentlich mal wirklich bestätigt?
Möglich dass da was an mir vorbeigegangen ist, aber außer 12-bit RAW finde ich dazu nichts. Würde auch keinen Grund sehen 16-bit auf 12-bit zu reduzieren um am Ende wieder 16-bit draus zu machen.
Bei BMD selbst finde ich nur 12-bit RAW.

Space


Antwort von Borke:

Speicherplatz? Es sei denn Du spielst DJ mit 2TB Karten...

Space


Antwort von Roland Schulz:

Speicherplatz? Es sei denn Du spielst DJ mit 2TB Karten... 25% brutto!!?! Na ja, globsch net dass das der Grund sein sollte...

Space


Antwort von Darth Schneider:

An Iasi. He Komm jetzt, das ganze Star Wars Universum ist auf, Lets Fix it in Post, aufgebaut. So schlecht arbeiten die jetzt auch nicht. Für ein paar Oscars hats gereicht.

Space


Antwort von iasi:

An Iasi. He Komm jetzt, das ganze Star Wars Universum ist auf, Lets Fix it in Post, ausgerichtet. echt jetzt?
ich dachte, das kommt eh alles aus dem Computer

Arri Alexa 65 benutzt, um dann nur die Gesichter übrig zu lassen :)

Space


Antwort von wolfgang:

Ich bin auch echt von der Qualität der FS7 irritiert.. die rauscht doch nicht SO viel krasser, als die anderen Kameras?! In den meisten anderen Tests ist die doch immer ähnlich der C300mk2.. (in Sachen Lowlight und Rauschen) Die FS7 ist nicht so lichtempfindlich, wie Sony angibt. Die Alpha 6500 ist bei gleicher Sensorgröße Dank Runterskalierung und evtl. neuerer Sensorgeneration lichtempfindlicher. Im Vergleich zur FS7 hat die C300II eine stärkere interne Rauschunterdrückung und eine höhere Bitrate. Rauschen mit zuwenig Bitrate sieht einfach nicht gut aus. Man bekommt Blockartefakte, wie bei der FS7 zu sehen. Bei der Alpha 6500 ist es selbst bei den Tagesaufnahmen sehr deutlich, dass dem eigentlich sehr guten Sensorsignal die nötige Bitrate fehlt. Bei den FS7 Einstellungen ist auffällig, dass ihr mit der von Sony als native ISO angegebenen Wert von 2000 getestet habt. In Wirklichkeit ist seit geraumer Zeit bekannt, dass die tatsächliche native ISO der FS7 eher im Bereich der ca. 1000 bis 1250 liegt.
http://www.dvxuser.com/V6/showthread.ph ... y-2000-ISO

Wenn man also trotzdem 2000 nimmt, dann kann man noch immer argumentieren dass man damit den Herstellerangaben folgt, natürlich. Allerdings steht dann schon die Frage im Raum warum man derart bekannt Punkte trotzdem ignoriert?

Und wenn hier die interne Rauschunterdrückung gesprochen wird, dann stellt sich gerade bei der FS7 sofort die Frage, welche Firmware verwendet worden ist. Denn mit slog3 im Cinema mode ist die erst bei späteren Firmware-Updates verfügbar, und vom Text des Tests her hatte ich eher den Eindruck dass der abgeschalten war - aber hier wird wieder mit dieser Rauschunterdrückung argumentiert?

Ich will hier nichts beschönigen, natürlich ist es absolut kein Problem auch eine FS7 mit dem Rauschverhalten über den Jordan zu treiben - und wie immer im Leben gibt es bessere Instrumente. Der hier bereits von Anderen geäußerte Verdacht, dass aber bei den Einstellungen der FS7 was passiert sein dürfte. Einwenig kenne ich ja inzwischen die FS7, und meine dass die zumindest nicht optimal justiert war.

Space


Antwort von Helge Renner:

Ich bin auch echt von der Qualität der FS7 irritiert.. die rauscht doch nicht SO viel krasser, als die anderen Kameras?! In den meisten anderen Tests ist die doch immer ähnlich der C300mk2.. (in Sachen Lowlight und Rauschen) Die FS7 ist nicht so lichtempfindlich, wie Sony angibt. Die Alpha 6500 ist bei gleicher Sensorgröße Dank Runterskalierung und evtl. neuerer Sensorgeneration lichtempfindlicher. Im Vergleich zur FS7 hat die C300II eine stärkere interne Rauschunterdrückung und eine höhere Bitrate. Rauschen mit zuwenig Bitrate sieht einfach nicht gut aus. Man bekommt Blockartefakte, wie bei der FS7 zu sehen. Bei der Alpha 6500 ist es selbst bei den Tagesaufnahmen sehr deutlich, dass dem eigentlich sehr guten Sensorsignal die nötige Bitrate fehlt. Bei den FS7 Einstellungen ist auffällig, dass ihr mit der von Sony als native ISO angegebenen Wert von 2000 getestet habt. In Wirklichkeit ist seit geraumer Zeit bekannt, dass die tatsächliche native ISO der FS7 eher im Bereich der ca. 1000 bis 1250 liegt.
http://www.dvxuser.com/V6/showthread.ph ... y-2000-ISO

Wenn man also trotzdem 2000 nimmt, dann kann man noch immer argumentieren dass man damit den Herstellerangaben folgt, natürlich. Allerdings steht dann schon die Frage im Raum warum man derart bekannt Punkte trotzdem ignoriert?

Und wenn hier die interne Rauschunterdrückung gesprochen wird, dann stellt sich gerade bei der FS7 sofort die Frage, welche Firmware verwendet worden ist. Denn mit slog3 im Cinema mode ist die erst bei späteren Firmware-Updates verfügbar, und vom Text des Tests her hatte ich eher den Eindruck dass der abgeschalten war - aber hier wird wieder mit dieser Rauschunterdrückung argumentiert?

Ich will hier nichts beschönigen, natürlich ist es absolut kein Problem auch eine FS7 mit dem Rauschverhalten über den Jordan zu treiben - und wie immer im Leben gibt es bessere Instrumente. Der hier bereits von Anderen geäußerte Verdacht, dass aber bei den Einstellungen der FS7 was passiert sein dürfte. Einwenig kenne ich ja inzwischen die FS7, und meine dass die zumindest nicht optimal justiert war. Wie die FS7 eingestellt war hat doch nichts mit der Tatsache zu tun, dass es einen Zusammenhang zwischen Rauschen und Bitrate gibt. Schaltet man eine kamerainterne Rauschunterdruckung ab, rauscht es mehr. Das fordert den Codec mehr, als bei einem durch Rauschunterdrückung plattgebügelten Bild. Dafür muss der Codec dann die nötige Bittiefe haben, um Kompressionsartefakte wie Macro Blocking zu vermeiden. Der Codec der FS7 hat diesbezüglich leider keine ausreichende Bitrate. Wer einen besseren Codec will, muss sich das Ansteckmodul samt eines externen Recorder oder gleich eine teurere F5 oder aber eine Kamera eines anderen Herstellers kaufen, die einen besseren Codec bietet.

Und ist es nicht egal, ob man die FS7 durch Reduzierung des ISO Werts um 2/3 bis 1 Blenden oder aber durch ETTR bis kurz vor Clipping überbelichtet, so wie bei der Tageslichtaufnahme unseres Tests? Im Vergleich zur normal belichteten Aufnahme sieht man ja auch deutlich, dass ISO 2000 und Belichtungsempfehlung von Sony für Slog 3 zu einem schlechteren Bild als bei ETTR führen.

Ich weiß nicht, wie bekannt der dvxuser Thread zum Thema Empfindlichkeit der FS7 ist. Die meisten Menschen, die mit professioneller Kameraarbeit ihr Geld verdienen, haben glaube ich wenig Zeit und Lust, sich in den diversen Filmforen herumzutreiben. Sie testen die für eine Produktion in Frage kommenden Kameras gegen einander und ziehen daraus ihre Schlüsse.

Space


Antwort von iasi:

Die meisten Menschen, die mit professioneller Kameraarbeit ihr Geld verdienen, haben glaube ich wenig Zeit und Lust, sich in den diversen Filmforen herumzutreiben. Sie testen die für eine Produktion in Frage kommenden Kameras gegen einander und ziehen daraus ihre Schlüsse. Gerade von diesen Leuten erwarte ich, dass sie sich intensiv einarbeiten und nicht nur mal Kameras im Schnellverfahren gegeneinander testen.
Das gehört schließlich zu deren Geschäft - dafür werden sie bezahlt.

Wer z.B. eine Red benutzt, tut durchaus gut daran, auch mal bei reduser reinzuschauen.

Space


Antwort von Jott:

Für fundierte Infos besser direkt zu red.com (learn) gehen oder einfach - ganz old school - mal das Manual der Kamera lesen, wenn man keine Lust auf seitenlanges Marketing- und Fanboy-Getöse hat.

Space


Antwort von nic:

Für fundierte Infos besser direkt zu red.com (learn) gehen oder einfach - ganz old school - mal das Manual der Kamera lesen, wenn man keine Lust auf seitenlanges Marketing- und Fanboy-Getöse hat. Reduser ist da tatsächlich sinnvoller, da vor allem bei den neuen Geräten noch sehr viel an der Firmware geschraubt wird. Die Änderungen und die sich verändernden "best practices" kann das Handbuch u.ä. etwa gar nicht abdecken.

Space


Antwort von iasi:

Für fundierte Infos besser direkt zu red.com (learn) gehen oder einfach - ganz old school - mal das Manual der Kamera lesen, wenn man keine Lust auf seitenlanges Marketing- und Fanboy-Getöse hat. Reduser ist da tatsächlich sinnvoller, da vor allem bei den neuen Geräten noch sehr viel an der Firmware geschraubt wird. Die Änderungen und die sich verändernden "best practices" kann das Handbuch u.ä. etwa gar nicht abdecken. Das ist bei BMD, Arri, Adobe usw doch auch nicht viel anders ...

Es lohnt sich für einen User dieser Cams und Software immer mal in den jeweiligen Foren nachzusehen. Dort findet eben oft auch ein sinnvoller Austausch statt.

Space


Antwort von iasi:

Für fundierte Infos besser direkt zu red.com (learn) gehen oder einfach - ganz old school - mal das Manual der Kamera lesen, wenn man keine Lust auf seitenlanges Marketing- und Fanboy-Getöse hat. Der Unterschied besteht im belehrenden Berieseln einerseits und dem oft sinnvollen Austausch andererseits.

Über so etwas wirst du z.B. bei red.com nichts finden:
http://www.reduser.net/forum/showthread ... ng-Shutter

Klar muss man das Fanboy-Getöse ausblenden - aber Infos findet man dann eben auch reichlich.

Space


Antwort von Helge Renner:

Die meisten Menschen, die mit professioneller Kameraarbeit ihr Geld verdienen, haben glaube ich wenig Zeit und Lust, sich in den diversen Filmforen herumzutreiben. Sie testen die für eine Produktion in Frage kommenden Kameras gegen einander und ziehen daraus ihre Schlüsse. Gerade von diesen Leuten erwarte ich, dass sie sich intensiv einarbeiten und nicht nur mal Kameras im Schnellverfahren gegeneinander testen.
Das gehört schließlich zu deren Geschäft - dafür werden sie bezahlt.

Wer z.B. eine Red benutzt, tut durchaus gut daran, auch mal bei reduser reinzuschauen. Gute Kameraleute testen die Ausrüstung gründlich. Ich habe selber schon soviel Blödsinn bezüglich Kameras in diversen Nutzerforen gelesen, dass ich auch nur meinen eigenen Tests vertraue.

Red wird im Dokfilmbereich wenig genutzt. Wobei, im Spielfilmbereich auch nicht viel mehr, wenn man den Sundance und Oscarlisten glauben darf ;)

Space


Antwort von iasi:

Die meisten Menschen, die mit professioneller Kameraarbeit ihr Geld verdienen, haben glaube ich wenig Zeit und Lust, sich in den diversen Filmforen herumzutreiben. Sie testen die für eine Produktion in Frage kommenden Kameras gegen einander und ziehen daraus ihre Schlüsse. Gerade von diesen Leuten erwarte ich, dass sie sich intensiv einarbeiten und nicht nur mal Kameras im Schnellverfahren gegeneinander testen.
Das gehört schließlich zu deren Geschäft - dafür werden sie bezahlt.

Wer z.B. eine Red benutzt, tut durchaus gut daran, auch mal bei reduser reinzuschauen. Gute Kameraleute testen die Ausrüstung gründlich. Ich habe selber schon soviel Blödsinn bezüglich Kameras in diversen Nutzerforen gelesen, dass ich auch nur meinen eigenen Tests vertraue.

Red wird im Dokfilmbereich wenig genutzt. Wobei, im Spielfilmbereich auch nicht viel mehr, wenn man den Sundance und Oscarlisten glauben darf ;) Jede Diskussion kann etwas bringen - man kann seine eigenen Test schließlich auch noch weiter optimieren.

Aussagen wie die über die Nutzung einer Kamera in einem bestimmten Bereich bringen aber wirklich nicht viel, solange es nur bei Behauptungen bleibt.

Ich würde jedenfalls nicht einfach mal eine Alexa65 leihen, um Tests damit zu machen ohne zuvor in Foren darüber gelesen zu haben.

Dass die BMD 4.6k bei bestimmte Objektive zu Farbproblemen neigt, kann man eben auch den BMD-Foren entnehmen. Bei eigenen Test kann man dies dann berücksichtigen.
Informiert man sich zuvor, dann kann man solche verfälschten Testergebnisse wie bei diesem Kamera-Vergleich ausschließen.

Belichtung einer Red ... auch dazu gibt"s reichlich interessante Beiträge auf reduser ...

Space


Antwort von wolfgang:

Ich bin auch echt von der Qualität der FS7 irritiert.. die rauscht doch nicht SO viel krasser, als die anderen Kameras?! In den meisten anderen Tests ist die doch immer ähnlich der C300mk2.. (in Sachen Lowlight und Rauschen) Die FS7 ist nicht so lichtempfindlich, wie Sony angibt. Die Alpha 6500 ist bei gleicher Sensorgröße Dank Runterskalierung und evtl. neuerer Sensorgeneration lichtempfindlicher. Im Vergleich zur FS7 hat die C300II eine stärkere interne Rauschunterdrückung und eine höhere Bitrate. Rauschen mit zuwenig Bitrate sieht einfach nicht gut aus. Man bekommt Blockartefakte, wie bei der FS7 zu sehen. Bei der Alpha 6500 ist es selbst bei den Tagesaufnahmen sehr deutlich, dass dem eigentlich sehr guten Sensorsignal die nötige Bitrate fehlt. Bei den FS7 Einstellungen ist auffällig, dass ihr mit der von Sony als native ISO angegebenen Wert von 2000 getestet habt. In Wirklichkeit ist seit geraumer Zeit bekannt, dass die tatsächliche native ISO der FS7 eher im Bereich der ca. 1000 bis 1250 liegt.
http://www.dvxuser.com/V6/showthread.ph ... y-2000-ISO

Wenn man also trotzdem 2000 nimmt, dann kann man noch immer argumentieren dass man damit den Herstellerangaben folgt, natürlich. Allerdings steht dann schon die Frage im Raum warum man derart bekannt Punkte trotzdem ignoriert?

Und wenn hier die interne Rauschunterdrückung gesprochen wird, dann stellt sich gerade bei der FS7 sofort die Frage, welche Firmware verwendet worden ist. Denn mit slog3 im Cinema mode ist die erst bei späteren Firmware-Updates verfügbar, und vom Text des Tests her hatte ich eher den Eindruck dass der abgeschalten war - aber hier wird wieder mit dieser Rauschunterdrückung argumentiert?

Ich will hier nichts beschönigen, natürlich ist es absolut kein Problem auch eine FS7 mit dem Rauschverhalten über den Jordan zu treiben - und wie immer im Leben gibt es bessere Instrumente. Der hier bereits von Anderen geäußerte Verdacht, dass aber bei den Einstellungen der FS7 was passiert sein dürfte. Einwenig kenne ich ja inzwischen die FS7, und meine dass die zumindest nicht optimal justiert war. Wie die FS7 eingestellt war hat doch nichts mit der Tatsache zu tun, dass es einen Zusammenhang zwischen Rauschen und Bitrate gibt. Schaltet man eine kamerainterne Rauschunterdruckung ab, rauscht es mehr. Das fordert den Codec mehr, als bei einem durch Rauschunterdrückung plattgebügelten Bild. Dafür muss der Codec dann die nötige Bittiefe haben, um Kompressionsartefakte wie Macro Blocking zu vermeiden. Der Codec der FS7 hat diesbezüglich leider keine ausreichende Bitrate. Wer einen besseren Codec will, muss sich das Ansteckmodul samt eines externen Recorder oder gleich eine teurere F5 oder aber eine Kamera eines anderen Herstellers kaufen, die einen besseren Codec bietet.

Und ist es nicht egal, ob man die FS7 durch Reduzierung des ISO Werts um 2/3 bis 1 Blenden oder aber durch ETTR bis kurz vor Clipping überbelichtet, so wie bei der Tageslichtaufnahme unseres Tests? Im Vergleich zur normal belichteten Aufnahme sieht man ja auch deutlich, dass ISO 2000 und Belichtungsempfehlung von Sony für Slog 3 zu einem schlechteren Bild als bei ETTR führen.

Ich weiß nicht, wie bekannt der dvxuser Thread zum Thema Empfindlichkeit der FS7 ist. Die meisten Menschen, die mit professioneller Kameraarbeit ihr Geld verdienen, haben glaube ich wenig Zeit und Lust, sich in den diversen Filmforen herumzutreiben. Sie testen die für eine Produktion in Frage kommenden Kameras gegen einander und ziehen daraus ihre Schlüsse. Verzeihung, aber diese Ahnung bestätigt meine stärksten Befüchtungen: ihr habt von den Geräten die ihr da getestet habt offenbar nur ein sehr oberflächliches Verstehen. Denn so sehr ich euch dafür bewundere solche Tests zu organisieren, so sehr sehe ich auch die massiven Widersprüchlichkeiten alleine in dieser letzten Antwort.

Wobei ich das mal nur auf die FS7 beziehe, den von den anderen Geräten habe ich keine Ahnung (oder nicht in die erforderliche Tiefe).

Das fäng damit an dass man Einstellungen bei der FS7 gewählt habt die massiv unter der maximal möglichen Datenraten von 600 liegen. Aber von mir aus, denn offenbar sollte hier mit 25p gefilmt werden.

Das geht aber weiter mit der Frage (und da fehlt jede Angabe im Test) ob die interne Rauschunterdrückung überhaupt aktiviert oder deaktiviert war. Ich vermute mal sie war deaktiviert - denn das ist im Cinema Modus die Default Einstellunge. Aber genau werden wir es wohl nie erfahren, denn ich befürchte ihr wisst das selbst nicht.

Das geht weiter mit der fehlenden Angabe welche Firmware überhaupt am Testgerät drauf war (denn im Cinema-Modus kann man eben erst ab einer bestimmten Firmware die Rauschunterdrückung überhaupt einschalten, vorher gabe es die Abschaltmöglchkeit noch gar nicht).

Und das geht dann auch weiter mit der Frage ob die ProRes Aufzeichnung im Vergleich zur Verwendung des internen XAVC I codecs Sinn macht oder nicht. Na klar wäre eine F5 besser - aber für die FS7 ist die gängige Meinung die, dass externe Rekorder wie der Shogun oder Q7+ eben keinen merklichen Qualitätszuwachs mehr verglichen zur internen Aufzeichnung als XAVC I bringen. Die meisten Kameraleute lassen die Shoguns bei der FS7 ungenutzt liegen, auch wenn die oft vorhanden sind.

Und die Unwissenheit geht weiter wenn behauptet wird dass man den XDAC unbedingt für einen zusätzlichen Rekorder benötigen würde um einen besseren Codec nutzen zu können. Stimmt so nicht, gerade bis zu UHD 25p kann an über den HDMI Ausgang mit 10bit 422 und einem Shogun aufzeichnen (und braucht den XDAC nicht). Bringt nur keinen Qualitätsvorsprung mehr.

Und wenn schon den XDAC, na der wäre erst für Aufzeichnungen zu CDNG interessant, oder wenn man will über die Wandlung von 10bit linear raw zu ProRes, der aber auch nur einen bedingen Qualitätsvorteil bringt. Für euren Test hätte der XDAC alleine ja nichts gebracht, denn die ProRes Aufzeichnung wird damit auch nur bis HD möglich (wenn man keinen externen Rekorder nehmen will).

Aber der schärfst Widerspruch ist der mit der falschen ISO die von Sony als native ISO irgendwo genannt worden ist. Selbst im kleinen deutschsprachigen Buch von Uli Mores - wenn man die angelsächsiche Literatur schon nicht lesen will - finden sich die klaren Hinweise, wie an dem Geräte mit dem Cinema Modus und slog3 umzugehen ist. Dort wird auch klar empfohlen mit tieferen ISO-Werten zu arbeiten. Na sicher ist ETTR der richtige Ansatz, aber das ist ja kein sonderlich neues Wissen aber geht noch nicht unbedingt Hand-in-Hand mit der bewußten tieferen Einstellung der ISO mit anschließender Überbelichtung. Mores empfiehlt hier etwa Werte von ISO 800 oder noch tiefer, und tatsächlich bekommt man damit auch ohne Rauschunterdrückung Aufnahmen die ausreichend rauschfrei sind, wie ich aus der Praxis bestätigen kann. Und das korrigiert man dann halt mit passenden LUTs, die die Überbelichtung problemlos wieder korrigieren.

Also ich kanns nur für die FS7 beurteilen - aber bei der habt ihr offenbar von den wirklich erforderlichen Einstellungen ein ungenügendes Hintergrundwissen gehabt, und sitzt dann noch dazu einer recht falschen Beurteilung bei den Codecs auf. Denn das Rauschverhalten ist viel weniger von der Datenrate des Codecs als von der Belichtung des Sensors abhängig.

Das relativiert für mich die Brauchbarkeit des ganzen Tests massiv, denn da muss man davon ausgehen dass das Hintergrundwissen bei den anderen Geräten vielleicht auch nicht deutlich besser war.

Vielleicht macht es ja für euch Sinn dass ein Kameramann verschiedene Geräte gegeneinander testet. Für mich würde es aber mindestens genauso viel Sinn machen wenn ein Kameramann mal grundsätzlich erlernt wie er mit einer bestimmten Kamera die besten Ergebnisser erzielen kann. Anstatt hier eindeutig falsche Werte einzustellen die dann in der Community nur tiefe Verwunderung auslösen.

Space


Antwort von Helge Renner:

Hallo Wolfgang,

zu viel Text für meine knappe Zeit. Ich kann dir nur sagen, dass die FS7 vom Eigentümer dieser Kamera bedient wurde. Gleiches gilt für die Amira, die Varicam LT usw. D.h. die Leute mussten sich nicht in die Kameras einarbeiten. Hoffe, die Info hilft.

Persönlich würde ich mir wenn Sony eher eine FS5 samt Raw upgrade und externem Recorder kaufen, wenn es keine Schulterkamera sein muss. Als Schulterkamera dann lieber für ein bisschen mehr Geld als die FS7II die Varicam LT. Dem 5000 ISO Modus der Varicam hat die FS7II nichts entgegen zu setzen. Da kann man sich auch sicherer sein, dass nicht nach 1-2 Jahren schon das Nachfolgemodell kommt.

VG
Helge
Ich bin auch echt von der Qualität der FS7 irritiert.. die rauscht doch nicht SO viel krasser, als die anderen Kameras?! In den meisten anderen Tests ist die doch immer ähnlich der C300mk2.. (in Sachen Lowlight und Rauschen) Die FS7 ist nicht so lichtempfindlich, wie Sony angibt. Die Alpha 6500 ist bei gleicher Sensorgröße Dank Runterskalierung und evtl. neuerer Sensorgeneration lichtempfindlicher. Im Vergleich zur FS7 hat die C300II eine stärkere interne Rauschunterdrückung und eine höhere Bitrate. Rauschen mit zuwenig Bitrate sieht einfach nicht gut aus. Man bekommt Blockartefakte, wie bei der FS7 zu sehen. Bei der Alpha 6500 ist es selbst bei den Tagesaufnahmen sehr deutlich, dass dem eigentlich sehr guten Sensorsignal die nötige Bitrate fehlt. Bei den FS7 Einstellungen ist auffällig, dass ihr mit der von Sony als native ISO angegebenen Wert von 2000 getestet habt. In Wirklichkeit ist seit geraumer Zeit bekannt, dass die tatsächliche native ISO der FS7 eher im Bereich der ca. 1000 bis 1250 liegt.
http://www.dvxuser.com/V6/showthread.ph ... y-2000-ISO

Wenn man also trotzdem 2000 nimmt, dann kann man noch immer argumentieren dass man damit den Herstellerangaben folgt, natürlich. Allerdings steht dann schon die Frage im Raum warum man derart bekannt Punkte trotzdem ignoriert?

Und wenn hier die interne Rauschunterdrückung gesprochen wird, dann stellt sich gerade bei der FS7 sofort die Frage, welche Firmware verwendet worden ist. Denn mit slog3 im Cinema mode ist die erst bei späteren Firmware-Updates verfügbar, und vom Text des Tests her hatte ich eher den Eindruck dass der abgeschalten war - aber hier wird wieder mit dieser Rauschunterdrückung argumentiert?

Ich will hier nichts beschönigen, natürlich ist es absolut kein Problem auch eine FS7 mit dem Rauschverhalten über den Jordan zu treiben - und wie immer im Leben gibt es bessere Instrumente. Der hier bereits von Anderen geäußerte Verdacht, dass aber bei den Einstellungen der FS7 was passiert sein dürfte. Einwenig kenne ich ja inzwischen die FS7, und meine dass die zumindest nicht optimal justiert war. Wie die FS7 eingestellt war hat doch nichts mit der Tatsache zu tun, dass es einen Zusammenhang zwischen Rauschen und Bitrate gibt. Schaltet man eine kamerainterne Rauschunterdruckung ab, rauscht es mehr. Das fordert den Codec mehr, als bei einem durch Rauschunterdrückung plattgebügelten Bild. Dafür muss der Codec dann die nötige Bittiefe haben, um Kompressionsartefakte wie Macro Blocking zu vermeiden. Der Codec der FS7 hat diesbezüglich leider keine ausreichende Bitrate. Wer einen besseren Codec will, muss sich das Ansteckmodul samt eines externen Recorder oder gleich eine teurere F5 oder aber eine Kamera eines anderen Herstellers kaufen, die einen besseren Codec bietet.

Und ist es nicht egal, ob man die FS7 durch Reduzierung des ISO Werts um 2/3 bis 1 Blenden oder aber durch ETTR bis kurz vor Clipping überbelichtet, so wie bei der Tageslichtaufnahme unseres Tests? Im Vergleich zur normal belichteten Aufnahme sieht man ja auch deutlich, dass ISO 2000 und Belichtungsempfehlung von Sony für Slog 3 zu einem schlechteren Bild als bei ETTR führen.

Ich weiß nicht, wie bekannt der dvxuser Thread zum Thema Empfindlichkeit der FS7 ist. Die meisten Menschen, die mit professioneller Kameraarbeit ihr Geld verdienen, haben glaube ich wenig Zeit und Lust, sich in den diversen Filmforen herumzutreiben. Sie testen die für eine Produktion in Frage kommenden Kameras gegen einander und ziehen daraus ihre Schlüsse. Verzeihung, aber diese Ahnung bestätigt meine stärksten Befüchtungen: ihr habt von den Geräten die ihr da getestet habt offenbar nur ein sehr oberflächliches Verstehen. Denn so sehr ich euch dafür bewundere solche Tests zu organisieren, so sehr sehe ich auch die massiven Widersprüchlichkeiten alleine in dieser letzten Antwort.

Wobei ich das mal nur auf die FS7 beziehe, den von den anderen Geräten habe ich keine Ahnung (oder nicht in die erforderliche Tiefe).

Das fäng damit an dass man Einstellungen bei der FS7 gewählt habt die massiv unter der maximal möglichen Datenraten von 600 liegen. Aber von mir aus, denn offenbar sollte hier mit 25p gefilmt werden.

Das geht aber weiter mit der Frage (und da fehlt jede Angabe im Test) ob die interne Rauschunterdrückung überhaupt aktiviert oder deaktiviert war. Ich vermute mal sie war deaktiviert - denn das ist im Cinema Modus die Default Einstellunge. Aber genau werden wir es wohl nie erfahren, denn ich befürchte ihr wisst das selbst nicht.

Das geht weiter mit der fehlenden Angabe welche Firmware überhaupt am Testgerät drauf war (denn im Cinema-Modus kann man eben erst ab einer bestimmten Firmware die Rauschunterdrückung überhaupt einschalten, vorher gabe es die Abschaltmöglchkeit noch gar nicht).

Und das geht dann auch weiter mit der Frage ob die ProRes Aufzeichnung im Vergleich zur Verwendung des internen XAVC I codecs Sinn macht oder nicht. Na klar wäre eine F5 besser - aber für die FS7 ist die gängige Meinung die, dass externe Rekorder wie der Shogun oder Q7+ eben keinen merklichen Qualitätszuwachs mehr verglichen zur internen Aufzeichnung als XAVC I bringen. Die meisten Kameraleute lassen die Shoguns bei der FS7 ungenutzt liegen, auch wenn die oft vorhanden sind.

Und die Unwissenheit geht weiter wenn behauptet wird dass man den XDAC unbedingt für einen zusätzlichen Rekorder benötigen würde um einen besseren Codec nutzen zu können. Stimmt so nicht, gerade bis zu UHD 25p kann an über den HDMI Ausgang mit 10bit 422 und einem Shogun aufzeichnen (und braucht den XDAC nicht). Bringt nur keinen Qualitätsvorsprung mehr.

Und wenn schon den XDAC, na der wäre erst für Aufzeichnungen zu CDNG interessant, oder wenn man will über die Wandlung von 10bit linear raw zu ProRes, der aber auch nur einen bedingen Qualitätsvorteil bringt. Für euren Test hätte der XDAC alleine ja nichts gebracht, denn die ProRes Aufzeichnung wird damit auch nur bis HD möglich (wenn man keinen externen Rekorder nehmen will).

Aber der schärfst Widerspruch ist der mit der falschen ISO die von Sony als native ISO irgendwo genannt worden ist. Selbst im kleinen deutschsprachigen Buch von Uli Mores - wenn man die angelsächsiche Literatur schon nicht lesen will - finden sich die klaren Hinweise, wie an dem Geräte mit dem Cinema Modus und slog3 umzugehen ist. Dort wird auch klar empfohlen mit tieferen ISO-Werten zu arbeiten. Na sicher ist ETTR der richtige Ansatz, aber das ist ja kein sonderlich neues Wissen aber geht noch nicht unbedingt Hand-in-Hand mit der bewußten tieferen Einstellung der ISO mit anschließender Überbelichtung. Mores empfiehlt hier etwa Werte von ISO 800 oder noch tiefer, und tatsächlich bekommt man damit auch ohne Rauschunterdrückung Aufnahmen die ausreichend rauschfrei sind, wie ich aus der Praxis bestätigen kann. Und das korrigiert man dann halt mit passenden LUTs, die die Überbelichtung problemlos wieder korrigieren.

Also ich kanns nur für die FS7 beurteilen - aber bei der habt ihr offenbar von den wirklich erforderlichen Einstellungen ein ungenügendes Hintergrundwissen gehabt, und sitzt dann noch dazu einer recht falschen Beurteilung bei den Codecs auf. Denn das Rauschverhalten ist viel weniger von der Datenrate des Codecs als von der Belichtung des Sensors abhängig.

Das relativiert für mich die Brauchbarkeit des ganzen Tests massiv, denn da muss man davon ausgehen dass das Hintergrundwissen bei den anderen Geräten vielleicht auch nicht deutlich besser war.

Vielleicht macht es ja für euch Sinn dass ein Kameramann verschiedene Geräte gegeneinander testet. Für mich würde es aber mindestens genauso viel Sinn machen wenn ein Kameramann mal grundsätzlich erlernt wie er mit einer bestimmten Kamera die besten Ergebnisser erzielen kann. Anstatt hier eindeutig falsche Werte einzustellen die dann in der Community nur tiefe Verwunderung auslösen.

Space


Antwort von Helge Renner:

Die meisten Menschen, die mit professioneller Kameraarbeit ihr Geld verdienen, haben glaube ich wenig Zeit und Lust, sich in den diversen Filmforen herumzutreiben. Sie testen die für eine Produktion in Frage kommenden Kameras gegen einander und ziehen daraus ihre Schlüsse. Gerade von diesen Leuten erwarte ich, dass sie sich intensiv einarbeiten und nicht nur mal Kameras im Schnellverfahren gegeneinander testen.
Das gehört schließlich zu deren Geschäft - dafür werden sie bezahlt.

Wer z.B. eine Red benutzt, tut durchaus gut daran, auch mal bei reduser reinzuschauen. Gute Kameraleute testen die Ausrüstung gründlich. Ich habe selber schon soviel Blödsinn bezüglich Kameras in diversen Nutzerforen gelesen, dass ich auch nur meinen eigenen Tests vertraue.

Red wird im Dokfilmbereich wenig genutzt. Wobei, im Spielfilmbereich auch nicht viel mehr, wenn man den Sundance und Oscarlisten glauben darf ;) Jede Diskussion kann etwas bringen - man kann seine eigenen Test schließlich auch noch weiter optimieren.

Aussagen wie die über die Nutzung einer Kamera in einem bestimmten Bereich bringen aber wirklich nicht viel, solange es nur bei Behauptungen bleibt.

Ich würde jedenfalls nicht einfach mal eine Alexa65 leihen, um Tests damit zu machen ohne zuvor in Foren darüber gelesen zu haben.

Dass die BMD 4.6k bei bestimmte Objektive zu Farbproblemen neigt, kann man eben auch den BMD-Foren entnehmen. Bei eigenen Test kann man dies dann berücksichtigen.
Informiert man sich zuvor, dann kann man solche verfälschten Testergebnisse wie bei diesem Kamera-Vergleich ausschließen.

Belichtung einer Red ... auch dazu gibt"s reichlich interessante Beiträge auf reduser ... Ich glaube bevor man sich eine Alexa 65 zwecks Vergleichstest für eine Filmproduktion leiht, schaut man erstmal, ob das vom Budget her drin ist. Da es hier um Dokumentarfilmproduktionen geht vermutlich eher nicht. Gewöhnlich vergleicht man Kameras bis zur für die Produktion noch erschwinglichen Preisklasse. Bei Selbstkauf gilt das gleiche. Vermutlich liest man vorher auch ein paar Sachen im Netz. Aber um eigene Tests kommt man dadurch trotzdem nicht herum. Die Threads mit dreistelliger Seitenzahl zur Ursa Mini 4.6K würde ich mir aber nicht durchlesen, die entstanden aufgrund des ersten Produktionslaufs dieser Kamera. Unsere Ursa hatte keine Magenta-Ecken-Problematik mehr. Ich finde die bildlichen Grundeigenschaften der von uns verglichenen Kameras werden deutlich. Aber auch dieser Test ersetzt keine eigenen Kameratests.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen //


Neue ARRI Kamera vorgestellt: AMIRA Live - für Broadcast Einsätze
Varicam LT: Max fps?
C500 MKI RAW File Converter
FS7 + Shogun Rec Problem
S&Q FS7 II Max fps?
FS7 Abdeckung für Speicherkarten austauschen
TV Reality Doku: FS7, A6600 oder Sony Z90
FS7 - HDMI lässt sich nicht aktivieren?
Sony FS7 II Color Matching vs A7SIII machbar?
AnkerWork PowerConf C300 - Smarte HD-Webcam mit integrierter KI-Unterstützung
Anker PowerConf C300 - USB-Webcam mit KI-Unterstützung
Firmware Updates: neue Funktionen ua. für Canon EOS C500 Mark II, C300 Mark III und C70
Firmware-Updates nun auch für Canon EOS C300 Mark III und C500 Mark II erschienen
Canon EOS C500 II und C300 Mark III: Firmware-Updates und Erweiterung für Live-Produktionen
Canon: Neue Firmware für EOS C500 Mark II und EOS C300 Mark III bringt neue Funktionen
Firmware-Updates für Canon EOS R5 C, C70, C300 Mark III und C500 Mark II angekündigt
Canon mit Firmware-Updates für Cinema EOS C70, EOS C300 Mark III und EOS C500 Mark II
C300 Mk iii Belichtung messen hinter LUT




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash